Movatterモバイル変換


[0]ホーム

URL:


JPS60204086A - Object discriminating device - Google Patents

Object discriminating device

Info

Publication number
JPS60204086A
JPS60204086AJP59058472AJP5847284AJPS60204086AJP S60204086 AJPS60204086 AJP S60204086AJP 59058472 AJP59058472 AJP 59058472AJP 5847284 AJP5847284 AJP 5847284AJP S60204086 AJPS60204086 AJP S60204086A
Authority
JP
Japan
Prior art keywords
primitive
primitives
point
segment
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59058472A
Other languages
Japanese (ja)
Other versions
JPH0312750B2 (en
Inventor
Yasuo Hongo
本郷 保夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Fuji Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd, Fuji Electric Manufacturing Co LtdfiledCriticalFuji Electric Co Ltd
Priority to JP59058472ApriorityCriticalpatent/JPS60204086A/en
Publication of JPS60204086ApublicationCriticalpatent/JPS60204086A/en
Priority to US07/033,889prioritypatent/US4712248A/en
Publication of JPH0312750B2publicationCriticalpatent/JPH0312750B2/ja
Grantedlegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

PURPOSE:To discriminate an object correctly even when plural objects overlap one another, by dividing the outline of the object to primitives which are fundamental elements of a graphic and discriminating the object in accordance with degrees of coincidence of primitive expressions. CONSTITUTION:Boundaries of a discrimination object is decomposed into primitives PR1-PR7 (B). If maps MAP-1, MAP-2, and MAP-3 are learned preliminarily as shown by a figure E with respect to three objects OBJ-1, OBJ-2, and OBJ- 3, primitives PR1, PR2, and PR4-PR6 are straight lines having name ''1'', and only the object OBJ-2 has primitives of straight lines when a dictionary is referred to, and therefore, it is sufficient if primitives are allowed to correspond to objects thereafter. Consequently, a primitive PR2-1 is used as a reference to allow primitives of check objects to correspond to it as shown by a figure C.

Description

Translated fromJapanese

【発明の詳細な説明】〔発明の属する技術分野〕この発明は、1TV(工業用テレビジョン)カメラなど
の2次元光学センサにより物体を撮像し、その輪郭情報
から予め学習によって得た情報と同じ情報をもつ物体を
抽出または識別する、例えば産業用ロボットの視覚機能
として好適な物体識別装置に関する。
[Detailed Description of the Invention] [Technical Field to which the Invention Pertains] This invention captures an image of an object using a two-dimensional optical sensor such as a 1TV (industrial television) camera, and uses the same information obtained from contour information in advance through learning. The present invention relates to an object identification device suitable for extracting or identifying objects having information, for example, as a visual function of an industrial robot.

〔従来技術とその問題点〕[Prior art and its problems]

この種の装置としては、Automatix社のAut
ovisionIIと呼ばれるものが知られている。こ
の装置悼、スタッフォード大学研究所で開発されたスタ
ンフォードアルゴリズムを用いたものである。このスタ
ンフォードアルゴリズムは、多数の特徴量(面積、長さ
/幅2周辺長1重心、傾き。
This type of device is Automatix's Auto
One called ovision II is known. This device uses the Stanford algorithm developed at Stafford University Research Institute. This Stanford algorithm uses a large number of features (area, length/width, 2 perimeter, 1 center of gravity, slope, etc.).

重心からの最大炎2型心からの最小長2重心からの平均
長、穴の数、その他)を5〜1o回測定して、その統計
処理により平均値や偏差値をめて設定値を決定し、これ
にもとづいて識別を行なうものである。この装置の場合
、対象とする物体が孤立したプロブ(BLOB)または
パターンであることが必要であり、検査時に複数の物体
同士が接触または重複していると、判定ができないかま
たは誤判定となる問題点を有している。
Maximum flame from center of gravity 2 Minimum length from center 2 Average length from center of gravity, number of holes, etc.) are measured 5 to 10 times, and the set value is determined by calculating the average value and deviation value through statistical processing. , based on which identification is performed. In the case of this device, the target object must be an isolated probe (BLOB) or pattern, and if multiple objects touch or overlap during inspection, it will not be possible to make a judgment or it will be an incorrect judgment. There are problems.

〔発明の目的〕[Purpose of the invention]

この発明は、識別体象となる複数の物体が互いに接触ま
たは重複する場合でも、正しく識別することができる物
体識別装置を提供することを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide an object identification device that can correctly identify a plurality of objects to be identified, even when they touch or overlap each other.

〔発明の要点〕この発明は、物体の輪郭を図形の基本要素であるプリミ
ティブに分割して、予め学習した物体のプリミティブ表
現と未知物体のプリミティブ表現とを照合して、そのプ
リミティブ表現の一致度により物体を識別または検出し
ようとするもので、輪郭形状が任意のものを直線2円、
楕円の3鍾類のプリミティブを使用して表現することに
より照合(matching )のための組み合わせを
少なくし、処理の短縮を図るようにしたものである。
[Summary of the Invention] This invention divides the outline of an object into primitives that are basic elements of a figure, compares a previously learned primitive representation of the object with a primitive representation of an unknown object, and calculates the degree of matching between the primitive representations. It is intended to identify or detect an object by using two straight lines, two circles,
By expressing using the elliptic trigonid primitive, the number of combinations for matching is reduced and the processing time is shortened.

〔発明の実施例〕[Embodiments of the invention]

第1図はこの発明の実施例を示す構成図、第2図は2値
化画像例を説明するための説明図、第3図は学習モード
時の処理動作を説明するフローチャートである。第1図
において、1はiTVカメラ、2は物体識別装置であり
、これは前処理回路21、特徴抽出回路22、画像メモ
リ23、画像処理プロセッサ24およびインタフェイス
回路25等から構成されている。なお、3はモニタテレ
ビである。
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining an example of a binarized image, and FIG. 3 is a flowchart for explaining processing operations in learning mode. In FIG. 1, 1 is an iTV camera, and 2 is an object identification device, which is composed of a preprocessing circuit 21, a feature extraction circuit 22, an image memory 23, an image processing processor 24, an interface circuit 25, and the like. Note that 3 is a monitor television.

背景4と配色が異なる物体5,6はiTVカメラ1によ
って撮像され、iTVカメラ1からのビデオ信号は、物
体識別装置2の前処理回路21によって2値信号に変換
される。特徴抽出回路22は、この2値化画像を所定の
大きさの画素に分割するとともに、各画素または一水平
走査線上における画素のりもなりを表わすセグメント等
に関する情報を抽出し、DMA (J)irec t 
Memory Access )モードで画像メモリ2
3に書き込む。画像処理プロセッサ24は、画像メモリ
23から読み出される111報にもとづいて所定の画像
処理または物体の識別処理を行なう一方、インタフェイ
ス回路25を通して学習指令または識別指令(IN)を
受け、学習した画像処理情報を図示されないメモリに格
納するか、または識別処理結果(OT)を出力する。モ
ニタTV3は、iTVカメラ1にて撮像した画像をその
ま匁表示したり、あるいは第2図の如く、2値化画像を
表示したりすることができる。
Objects 5 and 6 having a different color scheme from the background 4 are imaged by the iTV camera 1, and the video signal from the iTV camera 1 is converted into a binary signal by the preprocessing circuit 21 of the object identification device 2. The feature extraction circuit 22 divides this binarized image into pixels of a predetermined size, extracts information regarding segments representing the shape of each pixel or a pixel on one horizontal scanning line, etc. t
Image memory 2 in Memory Access ) mode
Write in 3. The image processing processor 24 performs predetermined image processing or object identification processing based on the 111 report read from the image memory 23, and receives a learning command or identification command (IN) through the interface circuit 25, and executes the learned image processing. The information is stored in a memory (not shown) or the identification processing result (OT) is output. The monitor TV 3 can display the image captured by the iTV camera 1 as it is, or can display a binarized image as shown in FIG.

ここで、外部から学習指令が与えられると、第3図の■
〜■に示される一連の演算処理が行なわれる。以下、こ
の順に図面を参照しつ〜説明する。
Here, when a learning command is given from the outside, ■
A series of arithmetic operations shown in ~■ are performed. The following description will be made in this order with reference to the drawings.

なお、第4図は学習すべき物体とそのプリミティブ分割
態様を説明するための説明図、第5図は物体とその勾配
および曲率の関係を説明するための説明図、第6図は方
向コードとその増、減量を説明する説明図、第7図は方
向コードの決定方法を説明するための説明図、第8図は
凸点および四点を説明するための説明図、第9図は第4
図(A)または第5図(A)に示される物体OBの階層
′41す造を説明するための説明図、第10図は同じく
物体OBの位相関係を説明するための説明図、第11図
は各プリミティブの主特徴点を説明するための説明図で
ある。
Furthermore, Fig. 4 is an explanatory diagram for explaining the object to be learned and its primitive division mode, Fig. 5 is an explanatory diagram for explaining the relationship between the object and its slope and curvature, and Fig. 6 is an explanatory diagram for explaining the relationship between the object and its primitive division. FIG. 7 is an explanatory diagram to explain the method of determining the direction code. FIG. 8 is an explanatory diagram to explain the convex point and four points.
FIG. 10 is an explanatory diagram for explaining the structure of the hierarchy '41 of the object OB shown in FIG. 5(A) or FIG. 5(A), FIG. The figure is an explanatory diagram for explaining the main feature points of each primitive.

■セグメント情報入力まず、前処理回路21、特徴抽出回路22を介して画像
メモリ23に格納された2値画像のセグメント情報が画
像処理プロセッサ24に入力される。なお、セグメント
情報には以下の如きものがある。
(2) Input of segment information First, segment information of the binary image stored in the image memory 23 is input to the image processing processor 24 via the preprocessing circuit 21 and the feature extraction circuit 22. Note that the segment information includes the following.

(イ)セグメントの長さp At(ロ)セグメントの有意X座標;Xi(ハ)セグメントのY座標;Yi(ニ)セグメントの単片番号;N5i(ホ)単片の連結対情報つまり、上記(イ)、(ロ)、()S)は各セグメント
に固有の情報であり、(ニ)、(ホ)はセグメントどう
しの連結性を調べて、各セグメントがとのプロブまたは
パターンに属するかを知るために必要な情報である。
(a) Segment length p At (b) Significant X coordinate of the segment; Xi (c) Y coordinate of the segment; Yi (d) Single piece number of the segment; N5i (e) Connection pair information of the single piece, that is, the above (B), (B), and ()S) are information unique to each segment, and (D) and (E) check the connectivity between segments to determine whether each segment belongs to the prob or pattern. This is the information necessary to know.

■境界点追跡同じプロブまたはパターンに属するセグメントの5ち、
背景と境界をなす画素(境界画素)が抽出され、この境
界画素が所定のルールで追跡される。例えば、第2図に
示される如(、テレビカメシの有効画面9内に、円形物
体7と矩形物体8とが重なって配置されているものとす
ると、画像処理プロセッサは境界画素を連ねて衣わされ
る境界線上を、図の矢印の如く左回り(右回りでもよい
)に追跡して、境界点列(xbi)をめる。なお、X 
l) iは境界点座標をベクトル表示したもので、以後
(・)印を付してベクトル量を表わすこととする。
■Boundary point tracking Five segments belonging to the same probe or pattern,
Pixels that form a boundary with the background (boundary pixels) are extracted, and these boundary pixels are tracked according to a predetermined rule. For example, as shown in FIG. 2 (assuming that a circular object 7 and a rectangular object 8 are arranged in an overlapping manner within the effective screen 9 of a television camera, the image processing processor arranges boundary pixels in a row). Trace the boundary line counterclockwise (or clockwise) as shown by the arrow in the figure to obtain a boundary point sequence (xbi).
l) i represents the coordinates of the boundary point as a vector, and from now on, the vector quantity will be indicated by adding a mark (·).

また、左(右)回りとは、プロブまたはパターンを常に
左(右)手に見ながら境界点を追跡する方向である。
Further, counterclockwise (rightward) rotation is a direction in which the boundary point is tracked while always looking at the probe or pattern in the left (right) hand.

■プリミティブ分割境界画素を順次結んで得られる境界線または周は、一般
的には、図形の基本要素をもって表現することができる
。この基本要素をプリミティブと呼び、ここでは次の3
種類を考える。
(2) Primitive Division Boundary A boundary line or circumference obtained by sequentially connecting pixels can generally be expressed using the basic elements of a figure. These basic elements are called primitives, and here we will introduce the following three
Think about types.

(a)直線または直線綜分(1ine、 )(b)円ま
たは円弧(circle )(c)楕円または楕円弧(
ellipse )例えば、第4図(A)の如き物体を
プリミティブに分割すると、同図(B)に示す5つのプ
リミティブPR1〜5に分割できることがわかる。これ
は、人間ならば容易に識別し得るところであるが、機械
では、こう簡単には行かないので、この実施例では以下
のようにする。
(a) Straight line or straight line integral (1ine, ) (b) Circle or circular arc (c) Ellipse or elliptical arc (
For example, if an object as shown in FIG. 4(A) is divided into primitives, it can be seen that it can be divided into five primitives PR1 to PR5 shown in FIG. 4(B). This can be easily identified by a human, but it is not so easy for a machine, so in this embodiment, it is done as follows.

つまり、結論的に云5と境界線の周方向の勾配tおよび
曲率kを定義し、この勾配が急変する折点や曲率の符号
が変わる変曲点をめ、これらの点によって境界線を切断
し、この切断された部分が直線2円または円弧、楕円ま
たは楕円弧のいずれであるか、すなわち、どのプリミテ
ィブで表わされるかを調べるものである。例えば、物体
の形状が第5図(A)の如く表わされるものとすると、
これは点P1〜P5の集合で表わされる外周と、点Q1
pQ2の1S合で表わされる内周とを有しており、外周
を表わす点Pi、P3〜P4が折点てあり、内周には折
点も変曲点もないので、結局は第4図で説明した如く、
5つのプリミティブに分割されることになる。
In other words, in conclusion, define the slope t and curvature k in the circumferential direction of the boundary line, find the bending point where the slope suddenly changes or the inflection point where the sign of the curvature changes, and cut the boundary line at these points. Then, it is checked whether this cut part is a straight line, two circles, a circular arc, an ellipse, or an elliptical arc, that is, which primitive is represented by it. For example, if the shape of the object is represented as shown in Figure 5(A),
This is the outer circumference represented by the set of points P1 to P5 and the point Q1
It has an inner circumference represented by the 1S combination of pQ2, and the points Pi representing the outer circumference, P3 and P4 are break points, and there is no break point or inflection point on the inner circumference. As explained in
It will be divided into five primitives.

ここで、上述の如く定義される勾配tについて説すjす
る。まず、勾配(をめるために、第6図(A)の如き方
向コード、および同図(B)の如き方向コードの増、減
量なる概念を導入する。これは、成る物体の2値化画像
が第7図(A)の如く表わされる場合に、点Poを基点
としてPl点から順に境界画素を左回りに追跡するとき
、点P1の点poに対する方向を第6図(A)によって
めるとともに、点P2のPlに対する増、加減量を同図
(B)からめる操作を点P3pP4・曲・にっいて順次
繰り返すことにより、方向コードdjをめるものである
。すなわち、第7図(A)の点P1は点poに対して左
刺め下にあることから、第6図(A)で示される方向「
5」であることがわかり(方向コード5)、また、点P
2yP3は点P1と同方向であるから増、減量はrOJ
であり、点P4では点P3の方向に対して左方向に90
度変化しているから、第6図(B)において、点P3の
方向をrOJに合わせて考えれば、方向コードの増分は
「+21となり、方向コードは「7」(5+2)という
ことになる。このようにして、第7図(A)の如き物体
の方向コードdjをめると、■→■→■→■→■→6→8→■→■→■→■→10→
■→12→■→0→12→0の如くなる。なお、上記において、(○)印で囲んだ数
字は、長さが1画素のV7倍のものであり、他は1画素
のものである。したがって、この方向コードdjを周長
SJとの関係で示すと、第7図CB)の如くなり、全周
長は、(6+12V’T )画素長となる。
Here, the slope t defined as described above will be explained. First, in order to calculate the gradient, we introduce the concept of increasing and decreasing the direction code as shown in Figure 6 (A) and the direction code as shown in Figure 6 (B). When an image is represented as shown in FIG. 7(A), when tracing the boundary pixels counterclockwise in order from point Pl with point Po as the base point, the direction of point P1 with respect to point po can be determined from FIG. 6(A). At the same time, the direction code dj is determined by sequentially repeating the operation of increasing and decreasing the point P2 with respect to Pl as shown in FIG. Since point P1 in A) is below the left sting with respect to point po, the direction shown in FIG.
5'' (direction code 5), and point P
Since 2yP3 is in the same direction as point P1, the increase and decrease are rOJ
, and at point P4, the direction is 90 to the left with respect to the direction of point P3.
Since the angle is changing, in FIG. 6(B), if the direction of point P3 is considered to match rOJ, the increment of the direction code will be "+21", and the direction code will be "7" (5+2). In this way, when we calculate the direction code dj of the object as shown in Fig. 7(A), ■→■→■→■→■→6→8→■→■→■→■→10→
■→12→■→0→12→0. Note that in the above, the numbers surrounded by (○) marks are those whose length is V7 times one pixel, and the other numbers are those that are one pixel. Therefore, when this direction code dj is shown in relation to the circumferential length SJ, it becomes as shown in FIG. 7CB), and the total circumferential length is (6+12V'T) pixel length.

ところで、このようにしてめられる方向コードdjは、
このま〜の値では変動が大きいので、周長SJ近傍での
平均値をめ、これを勾配tj〜と定義することにする。
By the way, the direction code dj set in this way is
Since the current value has a large fluctuation, the average value near the circumference SJ is determined and this is defined as the slope tj~.

つまり、勾配tjは、方向コードを(1)式の如くして
スムージング(Smoothing ;平滑化)したも
のといつことができる。なお、Δ9j1はdj/が奇数
のときy’T(画素)で、偶数のとき1(画素)である
。また、SJは周長SJ の近傍である。また、(1)
式の分母は、その近傍の長さくlj)を表わしており、
通常は1〜5画素程度に選ばれる。
In other words, the gradient tj can be obtained by smoothing the direction code as shown in equation (1). Note that Δ9j1 is y'T (pixel) when dj/ is an odd number, and is 1 (pixel) when dj/ is an even number. Further, SJ is near the circumference SJ. Also, (1)
The denominator of the equation represents the length of the neighborhood (lj),
Usually, about 1 to 5 pixels are selected.

これは、この長さくlj)をあまり大きくすると、勾配
tjがなだらかとなって、折点や変曲点が検出できなく
なるからである。
This is because if the length lj) is made too large, the slope tj becomes gentle, making it impossible to detect a break point or an inflection point.

次に、勾配t、を用いて曲率kjを次式の如(定義する
Next, the curvature kj is defined using the slope t, as shown in the following equation.

このようにして、第5図(A)の如き物体の外周および
内周について、勾配と曲率とをめると同図(B)、(C
)の如く表わされる。
In this way, when considering the slope and curvature of the outer and inner circumferences of an object as shown in Figure 5 (A), Figure 5 (B) and (C
).

さらに、折点や変曲点は次式の如き量、すなわち急峻係
数勺によって評価する。
Furthermore, the breaking point and the inflection point are evaluated by the following equation, that is, the steepness coefficient.

これは、第8図からも明らかなように、j点の勾配とそ
の前後の点における勾配の平均値との差をとるものであ
り、この値rjが極大で正の直のとき凸点とし、極小で
負の値のとき四点として、これら凸点と凹点とをもって
折点を表わすものとする。なお、変曲点は第5図(A)
の図形には含まれていないが、勾配kjの値が正から負
、または負から正の如く符号が変化する点を云い、折点
の如く急激に変化しないものである。
As is clear from Figure 8, this is the difference between the slope at point j and the average value of the slopes at the points before and after it, and when this value rj is maximum and positive, it is considered a convex point. , when the value is minimal and negative, there are four points, and these convex points and concave points represent a break point. The inflection point is shown in Figure 5 (A).
Although not included in the figure, it refers to a point where the sign of the slope kj changes from positive to negative or from negative to positive, but does not change abruptly like a break point.

以上のように定義される折点(凸点、凹点)または変曲
点によって、各プロブまたはパターンの内、外周を分割
することが可能となり、この例を示したのが第4図(B
)である。
It is possible to divide the inner and outer periphery of each prob or pattern by the breaking points (convex points, concave points) or inflection points defined as above, and an example of this is shown in Figure 4 (B
).

■プリミティブ属性演算ここでは、上記の如く分割された部分が、いずれのプリ
ミティブに属するかの判定が行なわれる。
(2) Primitive Attribute Calculation Here, it is determined to which primitive the portion divided as described above belongs.

つまり、プリミティブの勾配tjと曲率kjとで表わさ
れる特徴は、一般的に第1表の如く表わされるので、こ
の性質を利用して直線であるのか、円であるのか、また
は楕円であるのかy判別されるとともに、以下の如く、
最小2乗法による同定が行なわれる。
In other words, the characteristics represented by the gradient tj and curvature kj of a primitive are generally expressed as shown in Table 1, so using these properties, you can determine whether it is a straight line, a circle, or an ellipse. In addition to being determined, as follows:
Identification is performed using the least squares method.

第1表いま、分割された周上の境界点座標”biを通る曲線の
式を、F(交b1,2j)=o曲へ4)の如く表わし、その分割された部分の境界点総数をNB
として、最小2乗法による評価関数δを次式によって定
義する。
Table 1 Now, the equation of the curve passing through the boundary point coordinates "bi" on the divided circumference is expressed as F (intersection b1, 2j) = o to the curve 4), and the total number of boundary points on the divided part is N.B.
The evaluation function δ based on the least squares method is defined by the following equation.

この場合、境界点の数が増えると、(4)式を常に満た
す関数Fのパラメータが一義的に決まらないので、誤差
の2乗の総和であるδが極小となるパラメータ2jをめ
、このCJにて決まる曲線を周の部分にフィツト(適合
)する曲線とする。ここでは、3種類のプリミティブに
対して、具体的には次の各式が適用される。
In this case, as the number of boundary points increases, the parameters of the function F that always satisfy Equation (4) cannot be uniquely determined, so find the parameter 2j for which δ, which is the sum of the squares of the errors, is minimum, and calculate this CJ The curve determined by is the curve that fits the circumference. Specifically, the following formulas are applied to the three types of primitives.

(士bi−2o)’ε1=0 ・・・・・・(6)(礼
、−ε。)2=0□2 曲・・(7)1 )cbi ”
o l−ト’ ;cbi ’1 ’= 02 −・・ 
(8)つまり、(6L (7)、(8)式は、それぞれ
直線。
(shibi-2o)'ε1=0 ・・・・・・(6) (regards, -ε.)2=0□2 Song...(7)1)cbi”
o l-t'; cbi '1' = 02 -...
(8) In other words, (6L) Equations (7) and (8) are each straight lines.

円、楕円を表わす一般式である。なお、CgyClは成
る点をベクトル表示したものであり、C□pc2は定数
である。
This is a general formula representing a circle or an ellipse. Note that CgyCl is a vector representation of the points, and C□pc2 is a constant.

また、極小の条件は、aε・としてめられ、このパラメータに関する連立方程式を解
くことによって、プリミティブの決定が行なわれる。さ
らに請求められたパラメータをらめ、なる関係を満たすとき、その線分をこのパラメータこ・
によって同定される曲線とする。なお、S。
Further, the minimum condition is defined as aε·, and the primitive is determined by solving simultaneous equations regarding this parameter. Furthermore, considering the requested parameters, if the following relationship is satisfied, the line segment can be defined by this parameter.
Let the curve identified by In addition, S.

は分割劣れた周の部分の長さである。is the length of the portion of the circumference that is inferior to the division.

以上の処理が行なわれると、すべてのプロブのすべての
周(境界線)が所定のプリミティブでそれぞれ表現され
ることになる。
When the above processing is performed, all circumferences (boundary lines) of all probs are respectively expressed by predetermined primitives.

次に、各プリミティブ毎に次の如き属性値がめられる。Next, the following attribute values are found for each primitive.

(a) ネーA(Name);直線には「1」、円には
「2」、円弧には「3」、楕円には「4」、楕円弧には
「5」がそれぞれ付けられる。なお、ノイズ線分は、こ
れらのいずれとも同定できなかったプリミティブのこと
で、そのネームは「0」である。
(a) Name: "1" is assigned to a straight line, "2" is assigned to a circle, "3" is assigned to a circular arc, "4" is assigned to an ellipse, and "5" is assigned to an elliptical arc. Note that the noise line segment is a primitive that cannot be identified with any of these, and its name is "0".

(b) 端点;両端の座標蝿2粍(c) 中心:中心座標輻(d) 径(長径、短径) p RA s RB(e)
 主方向;方向ベクトルtP(f) 線分長;SPなお、以上についてまとめると、第2表の如くなる。ま
た、主方向は、楕円については焦点を通る主軸方向、ま
た、円については一義的に定まらないので、便宜上X軸
方向(1,0)とし、直線についてはその線分方向とす
る。
(b) End point: Coordinates of both ends 2mm (c) Center: Center coordinate radius (d) Diameter (longer axis, shorter axis) p RA s RB (e)
Main direction: direction vector tP (f) line segment length: SP The above is summarized as shown in Table 2. Further, for an ellipse, the principal direction is the direction of the principal axis passing through the focus, and for a circle, it is not uniquely defined, so for convenience, it is assumed to be the X-axis direction (1, 0), and for a straight line, it is assumed to be the direction of the line segment.

第2表■プリミティブ相関々係の演算以上のことから、各物体は第9図の如き階層構造によっ
て表現される。つまり、物体(OBJECT)はいくつ
かのプロプ(BLOB ’)から構成され、さらに各プ
ロブは1個の外周(PERIPHERY−1)といくつ
かの内周(PERIPHERY−2)とから形成される
。各局は、上述の例ではプリミティブPRI〜PR5に
分解され、それぞれ属性値ATT=1〜ATT−5を有
している。したがって、プリミティブが第1の周に含ま
れていれば、外周のプリミティブであることがわかり、
プリミティブの番号付けが、境界追跡のための所定のル
ールに従って行なわれている限りは、そのプリミティブ
の配列も、第9図の如き階層構造のトリー図から分かる
ことになる。
Table 2 (2) Calculation of primitive correlations From the above, each object is represented by a hierarchical structure as shown in FIG. That is, an object (OBJECT) is composed of several props (BLOB'), and each probe is formed from one outer circumference (PERIPHERY-1) and several inner circumferences (PERIPHERY-2). In the above example, each station is decomposed into primitives PRI to PR5, each having attribute values ATT=1 to ATT-5. Therefore, if a primitive is included in the first circumference, it is known that it is a primitive on the outer circumference,
As long as the numbering of primitives is done according to the predetermined rules for boundary tracking, the arrangement of the primitives can also be seen from the hierarchical tree diagram as shown in FIG.

物体の各プリミティブの相関々係は、上述の如き例では
、第10図の如く表現される。なお、この図を描くため
の規則は次の通りである。
In the example described above, the interrelationships of each primitive of the object are expressed as shown in FIG. The rules for drawing this diagram are as follows.

(a) プロプの第1番目の周は外周であり、第2番目
以後は内周である。
(a) The first circumference of the prop is the outer circumference, and the second and subsequent circumferences are the inner circumference.

(b) プリミティブの番号付けは、境界線追跡の順番
に従って行な5゜以上によって、プリミティブの相関々係がめられたこと
になるが、こ〜での相関々係とは、プリミティブ同士の
連鎖を意味するものであり、個々のプリミティブの配列
順番と、外周および内周の区別を行なうものである。
(b) Primitives are numbered according to the order of boundary line tracing, and a correlation of 5 degrees or more means that the primitives are correlated. Here, correlation refers to the chain of primitives. It is used to determine the arrangement order of individual primitives and to distinguish between the outer circumference and the inner circumference.

■主特徴点座標次に各プリミティブの位置関係を明らかにするために、
各プリミティブについて次の如き量をもって主特徴点を
定義する。
■Main feature point coordinatesNext, to clarify the positional relationship of each primitive,
For each primitive, a main feature point is defined using the following quantities.

(a) 直線;両端点(2点)蝿、籠(b) 円;中心(1点)蝿(C)楕円;焦点(2点)籠□、輸2(d) 円弧;両端点と中心(3点)XSjXB p X□(e) 楕円弧;両端点と中心(3点)XB jXB 
p X□以上の関係を図示すると、第11図の如くなる。
(a) Straight line; both end points (2 points) fly, cage (b) Circle; center (1 point) fly (C) ellipse; focus (2 points) cage □, export 2 (d) Arc; both end points and center ( 3 points) XSjXB p X□ (e) Elliptical arc; both end points and center (3 points) XB jXB
p X □ The above relationship is illustrated in FIG. 11.

■距離マツプの演算次に、プリミティブPRiとPRjとの間に、距離Di
jなる概念を導入する。各プリミティブ毎に、主特徴点
を第3表の如く対応させると、この距離Dijは、Dij=・・・・・・(11)第3表ただし、プリミティブの種類によっては、主特徴点は1
つまたは2つで、3つない場合もあるが、その場合は、
(11)式で表わされる行列Dijの要素の部分は計算
しない。つまり、第3表の空白部には「0」を埋めると
ともに、主特徴点座標が「0」のときは、それに対応す
るDijの要素も「0」とするものである。そして、各
物体は、いくつかのプリミティブから構成されることに
なるので、このプリミティブ総数NTFRに対して、距
離の個数は、”TPRC2となるが、この距離行列の集
合(Dij )を、ここでは距離マツプと呼ぶことにす
る。なお、プリミティブの数とともに距離行列の数が増
え、処理時間が長くなるので、適宜な手段によって処理
の高速化を図ることが望ましい。
■ Calculation of distance map Next, a distance Di between primitives PRi and PRj is calculated.
Introducing the concept of j. For each primitive, if the main feature points are associated as shown in Table 3, this distance Dij is: Dij= ...... (11) Table 3 However, depending on the type of primitive, the main feature point may be 1
There may be one or two, but not three; in that case,
The elements of the matrix Dij expressed by equation (11) are not calculated. That is, the blanks in Table 3 are filled with "0", and when the main feature point coordinates are "0", the corresponding element of Dij is also set to "0". Since each object is composed of several primitives, the number of distances is TPRC2 for the total number of primitives NTFR, but the set of distance matrices (Dij) is This will be referred to as a distance map. Note that the number of distance matrices increases with the number of primitives, and the processing time increases, so it is desirable to speed up the processing by appropriate means.

上記(11)式は、主特徴点が3つの場合であったが、
第1番目の周についての主特徴点集合が、t 、i 、
1(Xyi p XF2 z ””−”” XFM )で
、第1番目の周についてのそれがの如くであるとすると、その距離マツプMI Jは、M
jj=の如く表わされる。なお、ここで云5主特徴点集合は、
重複したものを含まない集合である。つまり、第5図(
A)の如(表わされる物体の主特徴点の1つである、例
えば21点はプリミティブlと2によって重複して表わ
されることになるので、これをいずれか1つにまとめる
如き操作をした集合といつことである。
Equation (11) above was for the case where there were three main feature points, but
The main feature point set for the first round is t , i ,
1 (Xyi p
It is expressed as jj=. In addition, here, the set of 5 main feature points is
It is a set that does not contain duplicates. In other words, Figure 5 (
A) (For example, 21 points, which are one of the main feature points of the represented object, are represented redundantly by the primitives l and 2, so a set is created by combining them into one.) That's when.

以上によって、成る物体についての学習が終了し、その
結果は、図示されない辞書メモリに格納される。そして
、対象とするすべての物体についての学習が終了したら
(第3図■参照)、以下に述べる識別モードに移行する
Through the above steps, learning for the object is completed, and the results are stored in a dictionary memory (not shown). When the learning for all target objects is completed (see Figure 3, ■), the mode shifts to the identification mode described below.

第12図は、画像処理プロセッサによる識別処理動作を
説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining the identification processing operation by the image processing processor.

いま、外部から識別指令が与えられると、まず、セグメ
ント情報を入力して(■参照)、境界点追跡を行なう(
■参照)。そして、各周毎に勾配と曲率から折点と変曲
点とを決定し、これによって周をプリミティブに分割し
た後(■参照)、各プリミティブの属性である、ネーム
、端点、中心、径、主方向および線分長をめる(■参照
)。なお、ここ迄の処理は、学習処理の場合と同じであ
る。各物体の辞書パターンとしては、プリミティブの階
層構造(相関々係を含む)およびその属性、各プリミテ
ィブに関する主特徴点および各周毎の主特徴点集合、さ
らには周間の距離マツプがあるので、これらを照合して
候補パターンを抽出する(■、■参照)。このとき、識
別対象は複数の物体を含んでいたり、互いに重なり合っ
たりしていて物体の境界が明確でないので、識別対象を
プリミティブに分解して辞書パターンとの一致度の高い
候補パターン、つまりプリミティブの組み合わせを抽出
する。また、プリミティブは切れていたり、並びが正し
くなかったりするので、いくつかの候補パターンが識別
対象の2vi画像から切り出される。これらについて主
特徴点をめ(■参照)、下記の如き2種類の評価量をも
とにして、候補パターンの中から適合するものを選択す
る(■、■参照)。なお、この評価量としては、次の2
つを考え、(a) 境界(長さ)一致度;δBND(b) 距離マ
ツプ一致度 ;δ廚これらの値が小さい候補パターンが識別結果とされる。
Now, when an identification command is given from the outside, first, segment information is input (see ■), and boundary point tracking is performed (
■Reference). Then, after determining the break point and inflection point for each circumference from the slope and curvature, and dividing the circumference into primitives (see ■), the attributes of each primitive, such as name, end point, center, diameter, Calculate the main direction and line segment length (see ■). Note that the processing up to this point is the same as the learning processing. The dictionary pattern for each object includes the hierarchical structure of primitives (including correlations) and their attributes, the main feature points for each primitive, the set of main feature points for each round, and the distance map between the rounds. These are compared to extract candidate patterns (see ■, ■). At this time, since the object to be identified includes multiple objects or overlaps each other, and the boundaries of the objects are not clear, the object to be identified is broken down into primitives, and candidate patterns that have a high degree of agreement with the dictionary pattern are selected. Extract combinations. Furthermore, since the primitives may be cut off or arranged incorrectly, several candidate patterns are cut out from the 2vi image to be identified. For these, the main feature points are determined (see ■), and a matching one is selected from among the candidate patterns based on the following two types of evaluation amounts (see ■, ■). Note that this evaluation amount is based on the following two
(a) Boundary (length) matching degree; δBND (b) Distance map matching degree; δBND A candidate pattern with a small value is taken as the identification result.

こ5して、順次識別処理を行ない、識別対象となるプリ
ミティブがなくなれば、識別終了と々る([相]参照)
In this way, the identification process is performed sequentially, and when there are no more primitives to be identified, the identification ends (see [Phase]).
.

第13図は、照合処理過程を説明するための模式図であ
る。
FIG. 13 is a schematic diagram for explaining the verification processing process.

識別対象が同図(A)の如く、複数の物体が重なり合っ
たものであるとすると、この職別対象の境界は、同図(
B)の如(プリミティブPILI〜PR7に分解される
。3つの物体0BJ−1,0BJ−2,0I3J−3に
ついて、マツプMAP−1,MAP−2,Δ(AP−3
が同図(E)の如く予め学習されているものとすると、
これらのマツプにはプリミティブ属性や距離マツプ等が
含まれていることから、例えばプリミティブPR3とP
R7については、辞書マツプのうちネームが円と楕円の
ものは、それぞれ0BJ−1と0BJ−3Lかないので
、直ちに照会することができる。なお、この2つの辞書
では、距離マツプが単純であるので、プリミティブの属
性チェックだけでも充分に同定することができる。残り
のプリミティブPRI、2.4〜6については、ネーム
は「1」の直線であり、辞書にも直線のプリミティブを
持つものは0BJ−2だレナなので、後は、プリミティ
ブの対応づけを行なえばよい。したがって、同図(C)
の如く、例えばプリミティブPIL2−1を基準にして
、これに検査対象のプリミティブを対応付けて行く。
Assuming that the object to be identified is a combination of multiple objects overlapping each other as shown in the figure (A), the boundary of this occupational object is as shown in the figure (A).
B) is decomposed into primitives PILI to PR7. For three objects 0BJ-1, 0BJ-2, 0I3J-3, maps MAP-1, MAP-2, Δ(AP-3
Assuming that has been learned in advance as shown in Figure (E),
These maps include primitive attributes, distance maps, etc., so for example, primitives PR3 and P
Regarding R7, the names of circles and ellipses in the dictionary map do not exist in 0BJ-1 and 0BJ-3L, respectively, so they can be immediately queried. Note that these two dictionaries have simple distance maps, so it is possible to sufficiently identify them just by checking the attributes of the primitives. For the remaining primitives PRI, 2.4 to 6, the name is "1", which is a straight line, and the dictionary also has a straight line primitive, which is 0BJ-2, so all that is left is to map the primitives. good. Therefore, the same figure (C)
For example, the primitive to be inspected is associated with the primitive PIL2-1, as shown in FIG.

直線の場合は端点が失われたり、直線が切れて擬似端点
が出たりするが、直線の端点け、次の直線との間の交点
をめることにより得られるので、このようにして端点を
推定しながら、距離マツプと一致する対応付けをめる。
In the case of a straight line, the endpoints are lost or the straight line is cut and a pseudo endpoint appears, but it can be obtained by putting the endpoint of the straight line and finding the intersection with the next straight line, so you can find the endpoint in this way. While estimating, find a correspondence that matches the distance map.

このよ5にして得られた照合パターンが、上述の如き評
価量により評価され、識別結果として同図(D)の如く
出力される。なお、評価式は次の如く与えられる。
The matching pattern obtained in step 5 is evaluated using the evaluation amount as described above, and the identification result is output as shown in FIG. 5(D). Note that the evaluation formula is given as follows.

こ〜で、M″jは辞書の距離マツプであり、會″jは照
合したプリミティブから得られた距離マツプであり、Ω
は物体についてのすべての組み、合わせを意味するもの
である。なお、評価量δmrDは「1」に近い程良く、
また、δMiAPは「0」に近い程良いことは云う迄も
ない。
Here, M″j is the distance map of the dictionary, M″j is the distance map obtained from the matched primitives, and Ω
means all combinations and combinations of objects. Note that the closer the evaluation amount δmrD is to “1”, the better;
It goes without saying that the closer δMiAP is to "0", the better.

以上をまとめると、以下の条件が成立するとき、被検査
対象は識別された(一致した)ものとする。
To summarize the above, when the following conditions are met, the object to be inspected is identified (matched).

1δBND−I KδBNDU ・・・・・・(15)
δMAP < δMAPU ・・・・・・(16)ただ
し、δBNDU pδMAPUは、それぞれ上限設定値
である。こうして識別モードでの処理が行なわれる。
1δBND-I KδBNDU (15)
δMAP < δMAPU (16) However, δBNDU pδMAPU are respective upper limit setting values. Processing in the identification mode is thus performed.

第14図はこの発明の変形例を示す構成図である。この
例は、辞書メモリ26、フロッピーディスク装置等の補
助記憶装置27を有して−・る点が特徴である。なお、
10はフロッピーディスケットである。
FIG. 14 is a configuration diagram showing a modification of the present invention. This example is characterized by having a dictionary memory 26 and an auxiliary storage device 27 such as a floppy disk device. In addition,
10 is a floppy diskette.

すなわち、学習モード時に得られた物体に関する辞書(
MAPデータ)を、大容量の辞書メモリ26に登録して
おくことで学習した結果を残しておくものであり、さら
には、長期間保存するために、補助記憶として、例えば
フロッピーディスク装置27を設け、フロッピーディス
ケット1ullこて管理を行なプようにしたものである
。画像処理プロセッサ24杜、識別対象の辞書のみを辞
書メモリ26から読み出して、照合を行なう。この場合
、どの辞書を使用するか否かは、インタフェイス回路2
5を介して指示するようにする。
That is, the dictionary related to objects obtained during learning mode (
MAP data) is registered in a large-capacity dictionary memory 26 to preserve the learned results.Furthermore, for long-term storage, a floppy disk device 27, for example, is provided as auxiliary memory. This system is designed to manage 1ull of floppy diskettes. The image processing processor 24 reads only the dictionary to be identified from the dictionary memory 26 and performs comparison. In this case, the interface circuit 2 determines which dictionary to use.
5.

〔発明の効果〕〔Effect of the invention〕

この発明によれば、重なり合った複数の物体についても
、境界を所定のプリミティブに分割することで、辞書パ
ターンとして記憶する物体のプリミティブ属性および相
関々係、ならびに主特徴点についての距離ブックを照合
することにより、一般的な物体の識別が可能となるもの
である。また、この発明では、辞書パターンを学習モー
ドで作成することができるので、識別対象を簡単に辞書
へ登録することができる。さらに、物体の輪郭形状をプ
リミティブにて表現することで、辞書と未知物体との照
合の組み合わせを少なくしているので、照合処理の短縮
を図ることができる利点がもたらされるものである。
According to this invention, even for multiple overlapping objects, by dividing the boundary into predetermined primitives, the primitive attributes and correlations of the objects stored as dictionary patterns and the distance book for the main feature points are collated. This makes it possible to identify common objects. Furthermore, according to the present invention, dictionary patterns can be created in learning mode, so that identification targets can be easily registered in the dictionary. Furthermore, by expressing the contour shape of the object using primitives, the number of combinations of matching between the dictionary and the unknown object is reduced, which provides the advantage of shortening the matching process.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例を示す構成図、第2図は2値
化画像例を説明するための説明図、第3図は学習モード
時の処理動作を説明するフローチャート、第4図は学習
すべき物体とそのプリミティブ分割態様を説明するため
の説明図、第5図は物体とその勾配および曲率の関係を
説明するための説明図、第6図は方向コードとその増、
減量を説明するための説明図、第7図は方向コードの決
定方法を説明するための説明図、第8図は凸点および凹
点を説明するための説明図、第9図は第4図(A)また
は第5図(A)に示される物体の階層措造を説明するた
めの説明図、第10図は同じく物体の位相関係を説明す
るための説明図、第11図は各プリミティブの主特徴点
を説明するための説明図、第12図は画像処理プロセッ
サによる識別処理動作を説明するためのフローチャート
、第13図は照合処理過程を説明するための模式図、第
14図はこの発明の変形例を示すMq構成図ある。符号説明1・・・・・・工業用テレビジョン(iTV)カメラ、
2・・・・・・物体識別装置、3・・・・・・モニタテ
レビ、4・・・・・・背景、5,6・・・・・・物体、
7・・・・・・円形物体、8・・・・・・矩形物体、9
・・・・・・背景、工0・・・・・・フロッピーディス
ケット、21・・・・・・前処理回路、22・・・・・
・特徴抽出回路、23・・・・・・画像メモリ、24・
・・・・・画像処理プロセッサ、25・・−・・・イン
タフェイス回路、26・・・・・・辞書メモリ、27・
・・・・・補助記憶装置。代櫨人 弁理士 並 木 昭 夫代理人弁理士松 崎 清4第 2 図!@3 図第4図(A)CB)0βP/?I PP2 P/?3 Pl?4十 〇PP5第5図(C) i、1ν」\4(72)Q−第7図(A>(B)第8図0β:JECT−A 物体層PEE’1PHEI?Y−4PEPIPHE/?Y−2
用層PPI PI;?2 PP3 PP4 PP5 ブ
ソミディフ゛層第10図第11図(Name=2) (Name=3)(Name=4) (Name=5)第13図 (E)第14図(IN) (Or)手続補正書昭和 6へ6βO日特許庁長官 志 賀 学 殿1、事件の表示昭和59年特許願第58472号2、発明の名称物体識別装置3、補正をする者事件との関係 特許出願人住 所 川崎市川崎区田辺新田1番1号名 称 (52
3)富士電機株式会社代表者阿部栄夫昭和59年9月1日名称変更済(一括)4、代 理 人
 ■105 電話03(580)95135、補正命令
の日付 自発6、補正により増加する発明の数 なし8、補正の内容1)(1)明細書第4頁第10行目「構成図、」の次に
下記の文章を挿入する。「第1A図は第1図に示す実施例の詳細構成図、」(2
)同第5頁第2行目ないし第8行目「特徴抽出回路22
・・・・・・・・・プロセッサ24は、」までの記載を
次の通り訂正する。[前処理回路21は増幅回路21a、コンパレータ21
b、D/Aコンバータ21cおよびミキシング回路21
dとから構成されている。D/Aコンバータ21cには
、画像処理プロセッサ24内のCPU24aより出力さ
れて2値化しきい値ラッチ回路24bにラッチされてい
る2値化しきい値のバイトデータが入力されており、こ
のバイトデータがアナログデータに変換されて2値化し
きい値としてコンパレータ21bに加えられる。コンパ
レータ21bは増幅回路21aで増幅されたITVカメ
−)1からのビデオ信号をD/Aコンバータ21cより
出力された2値化しきい値と比較して2値信号を形成す
る。この2値信号は特徴抽出口路22に出力されるとと
もに、ミキシング回路21dにより同期信号とミキシン
グされて複合映像信号としてモニタTV3に出力され、
このモニタTV3により2値画像が観察されるように構
成されている。特徴抽出回路22は、この2値化画像を所定の大きさの
画素に分割するとともに、各画素または一水平走査綜上
における画素のつらなりを表わすセグメント等に関する
情報を抽出し、DMA(Direct Memory 
Access )モードで画像メモリ23に書き込む。このために、特徴抽出回路22は、走査線6本分の今回
、前回、および前々回の2値化信号を記憶する3×3の
2次元局部メモリ22a1水平(X)方向タイミング発
生回路22b、 垂直(Y)方向タイミング発生回路2
2c。セグメント検出回路22d1 )ツブセグメント検出回
路22e、セグメント重複検出回路22f。右端検出回路22g1セグメント長カウンタ22h、セ
グメントY座標検出回路22門、ジヨイント検出回路2
2j、単片カウンタ22に、セグメントラベル・単片番
号ラッチ回路22t、右端座標2ツチ回路22m1セグ
メント長ラッチ回路22n、セグメン)Y座標ラッチ回
路220、連結対ラッチ回路22p等から構成されてい
る。このような構成において、コンパレータ21bより出力
された2値信号は2次元局部メモリ22aに加えられ、
メモリ22aにより6×3の移動マスクが形成されてい
るため、3×3の画素が出力される。このとき、6Mk
の基本クロックをもとにして、タイミング発生回路22
b、22cよりタイミングパルスが発生される。3×3
の移動マスクにより黒画素の水平方向のつながりである
セグメントの終端がセグメント検出回路22dで検出さ
れ、セグメントデータのメモリへの書込みのときのアド
レス発生に使われる。トップセグメント検出回路22e
は3×3の移動マスクで上側の走査線上に黒画素が発生
していないセグメントを検出し、そのセグメントを単片
カウンタ22にでカウントさせることにより、単片番号
(セグメントラベルと同じ)を発生させる。つまり、単
片カウンタ22にの出力はそれまでのトップセグメント
の数として出力される。セグメント重複検出回路22f
は前走査線の何番目のセグメントと重なったかをチェッ
クして、その重なったセグメントのラベル(つまり単片
番号)を着目セグメントのラベルとしてセグメントラベ
ル・単片番号ラッチ回路22tにラッチさせる。右端検
出回路22gは各セグメントの右端を検出して、その検
出したときのX座標を水平方向タイミング発生回路22
bの出力からめ、右端座標ラッチ回路22mKラッチさ
せる。同様に、セグメントY座標検出回路22iはセグ
メントが検出されたときのY座標を垂直方向タイミング
発生回路22cの出力からめ、セグメン)Y座標ラッチ
回路22oにラッチさせる。セグメント長カウンタ22
hはセグメント検出のタイミングで、それまでのカウン
ト値をセグメント長ラッチ回路22nにラッチさせたの
ちカウンタをクリアし、そして次のセグメントの画素を
次々とセグメントの終端を検出するまでカウントしてい
く。ジヨイント検出回路22jは着目走査線の前の走査
線上で着目セグメントと重なるセグメントが複数ある場
合に機能するものであり、複数ある場合にはセグメント
重複検出回路22fで検出された前の重なるセグメント
の2ベルを対で連結対ラッチ回路22pにラッチさせる
。このようにして各ラッチ回路にラッチされたセグメント
情報は、画像処理プロセッサ24内の画像取込指令発生
回路24cからの指令の発生タイミングで画像メモリ2
3に1画面分記憶される。このために、画像メモリ23は、特徴抽出回路22内の
各ラッチ回路に接続されるバッファ23aと、セグメン
トラベルメモリ26bと、右端座標メモリ23cと、セ
グメント長メモリ23dと、垂直(Y)座標メモ’)2
5eと、連結対データメモリ25fと、単片数ラッチ回
路25gと、セグメントアドレス発生回路23hと、連
結対アドレス発生回路23iと、連結対数ラッチ回路2
3jとからi1J成されている。なお、奇メモリはRA
Mにて構成される。セグメントア、ドレス発生回路23
hは、セグメント検出回路22dからのセグメント検出
のクロックをカウントしてこのカウント値をアドレス信
号として発生する。セグメントアドレス発生回路23h
からのアドレス信号により、セグメントラベルメモリ2
6b、右端座標メモリ26C,セグメント長メモリ23
d1垂直座標メモリ25eの該尚アドレス箇所への書込
みが行なわれるため、各メモリには各セグメントに対応
してセグメントラベル、右端座標、セグメント長、垂直
座標が記憶される。また、連結対アドレス発生回路23
jはジヨイント検出回1322jからのジヨイント検出
のパルス数をカウントしてアドレス信号として連結対デ
ータメモリ23fに出力するものであり、連結対データ
メモリ23fはこのアドレス信号により指定された箇所
に連結対ラッチ回路22pにラッチされている重なるセ
グメントのラベル対と、セグメントアドレス発生回路2
3hから出力されるアドレス・信号とをそれぞれデータ
として記憶する。さらに、連結対アドレス発生回路23
iのカウント値は連結対数ラッチ回路2SJにラッチさ
れる。このようにして各セグメント情報が画像メモリ23内に
記憶されるが、画像処理プロセッサ24はプログラムメ
モリ24d内のプログラムに基づいて画像メモリ23内
のセグメント情報を読取って作業メモリ24eに格納し
たのち、」08A細書第28頁@15行目「構成図、」
の次に下記の文章を挿入する。「第1A図はtJc1図に示す実施例の詳細構成図、」
(III)第1A図を添付図面のとおり追加する。
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining an example of a binarized image, FIG. 3 is a flowchart explaining processing operations in learning mode, and FIG. An explanatory diagram for explaining the object to be learned and its primitive division mode, Fig. 5 is an explanatory diagram for explaining the relationship between the object and its slope and curvature, and Fig. 6 is an explanatory diagram for explaining the direction code and its increase.
FIG. 7 is an explanatory diagram for explaining the method of determining the direction code. FIG. 8 is an explanatory diagram for explaining convex points and concave points. An explanatory diagram for explaining the hierarchical structure of objects shown in (A) or FIG. An explanatory diagram for explaining the main feature points, FIG. 12 is a flowchart for explaining the identification processing operation by the image processing processor, FIG. 13 is a schematic diagram for explaining the matching process, and FIG. 14 is the present invention. There is an Mq configuration diagram showing a modification example. Code explanation 1...Industrial television (iTV) camera,
2...Object identification device, 3...Monitor TV, 4...Background, 5, 6...Object,
7...Circular object, 8...Rectangular object, 9
...Background, Engineering 0...Floppy diskette, 21...Preprocessing circuit, 22...
・Feature extraction circuit, 23... Image memory, 24.
... Image processing processor, 25 ... Interface circuit, 26 ... Dictionary memory, 27.
...Auxiliary storage device. Representative Patent Attorney Akio Namiki Representative Patent Attorney Kiyoshi Matsuzaki 4 Figure 2! @3 Figure 4 (A) CB) 0β P/? I PP2 P/? 3 Pl? 40 〇PP5 Fig. 5 (C) i, 1 ν'' \ 4 (72) Q- Fig. 7 (A> (B) Fig. 8 0β: JECT-A Object layer PEE'1PHEI?Y-4PEPIPHE/? Y-2
Layer PPI PI;? 2 PP3 PP4 PP5 Busomi Diff Layer Figure 10 Figure 11 (Name=2) (Name=3) (Name=4) (Name=5) Figure 13 (E) Figure 14 (IN) (Or) Procedural Amendment 1986 to 6β0 Japan Patent Office Commissioner Manabu Shiga 1, Indication of the case 1988 Patent Application No. 58472 2, Name of the invention Object identification device 3, Person making the amendment Relationship to the case Patent applicant Address Kawasaki City 1-1 Tanabeshinden, Kawasaki-ku Name (52)
3) Fuji Electric Co., Ltd. Representative Hideo Abe Name changed (all at once) on September 1, 1980 4. Agent ■105 Telephone 03 (580) 95135 Date of amendment order Voluntary action 6. Inventions increased by amendment Number None 8, Contents of amendment 1) (1) Insert the following sentence next to "Configuration diagram," on page 4, line 10 of the specification. ``Figure 1A is a detailed configuration diagram of the embodiment shown in Figure 1.'' (2
)Page 5, lines 2 to 8, “Feature extraction circuit 22
. . . The processor 24 corrects the description up to "" as follows. [The preprocessing circuit 21 includes an amplifier circuit 21a and a comparator 21
b, D/A converter 21c and mixing circuit 21
It is composed of d. The D/A converter 21c receives byte data of the binarization threshold outputted from the CPU 24a in the image processing processor 24 and latched in the binarization threshold latch circuit 24b, and this byte data is It is converted into analog data and applied to the comparator 21b as a binarized threshold value. The comparator 21b compares the video signal from the ITV camera 1 amplified by the amplifier circuit 21a with the binarization threshold output from the D/A converter 21c to form a binary signal. This binary signal is output to the feature extraction port 22, mixed with a synchronization signal by the mixing circuit 21d, and output to the monitor TV 3 as a composite video signal.
This monitor TV3 is configured so that a binary image can be observed. The feature extraction circuit 22 divides this binarized image into pixels of a predetermined size, extracts information regarding each pixel or a segment representing a chain of pixels on one horizontal scanning axis, etc., and performs DMA (Direct Memory
(Access) mode to the image memory 23. For this purpose, the feature extraction circuit 22 includes a 3×3 two-dimensional local memory 22a that stores the current, previous, and two-previous binarized signals for six scanning lines, a horizontal (X) direction timing generation circuit 22b, and a vertical timing generation circuit 22b. (Y) direction timing generation circuit 2
2c. Segment detection circuit 22d1) Tube segment detection circuit 22e, segment duplication detection circuit 22f. Right end detection circuit 22g1 Segment length counter 22h, Segment Y coordinate detection circuit 22 gates, Joint detection circuit 2
2j, the single-piece counter 22 is comprised of a segment label/single-piece number latch circuit 22t, a right-end coordinate two-touch circuit 22m, a segment length latch circuit 22n, a segment) Y-coordinate latch circuit 220, a connected pair latch circuit 22p, and the like. In such a configuration, the binary signal output from the comparator 21b is added to the two-dimensional local memory 22a,
Since a 6×3 moving mask is formed by the memory 22a, 3×3 pixels are output. At this time, 6Mk
The timing generation circuit 22 is based on the basic clock of
Timing pulses are generated from b and 22c. 3×3
Using the moving mask, the end of the segment, which is a horizontal connection of black pixels, is detected by the segment detection circuit 22d, and is used to generate an address when writing segment data to the memory. Top segment detection circuit 22e
detects a segment in which no black pixel occurs on the upper scanning line using a 3×3 moving mask, and generates a single piece number (same as the segment label) by having the single piece counter 22 count the segment. let In other words, the output to the single piece counter 22 is the number of top segments up to that point. Segment duplication detection circuit 22f
checks which segment of the previous scanning line it overlaps with, and causes the segment label/single number latch circuit 22t to latch the label of the overlapping segment (that is, the single piece number) as the label of the segment of interest. The right edge detection circuit 22g detects the right edge of each segment and transmits the X coordinate at the time of detection to the horizontal timing generation circuit 22.
From the output of b, the right end coordinate latch circuit 22mK is latched. Similarly, the segment Y coordinate detection circuit 22i uses the output of the vertical timing generation circuit 22c to determine the Y coordinate when the segment is detected, and causes the segment Y coordinate latch circuit 22o to latch the Y coordinate. Segment length counter 22
h is the timing of segment detection; after the count value up to that point is latched in the segment length latch circuit 22n, the counter is cleared, and the pixels of the next segment are counted one after another until the end of the segment is detected. The joint detection circuit 22j functions when there are a plurality of segments that overlap with the segment of interest on the scanning line before the scanning line of interest, and if there are multiple segments, two or more of the previous overlapping segments detected by the segment duplication detection circuit 22f are used. The bells are latched in pairs by the connected pair latch circuits 22p. The segment information latched in each latch circuit in this manner is transferred to the image memory 2 at the timing of generation of a command from the image capture command generation circuit 24c in the image processing processor 24.
3, one screen is stored. For this purpose, the image memory 23 includes a buffer 23a connected to each latch circuit in the feature extraction circuit 22, a segment label memory 26b, a right-end coordinate memory 23c, a segment length memory 23d, and a vertical (Y) coordinate memo. ')2
5e, a connected pair data memory 25f, a single piece number latch circuit 25g, a segment address generation circuit 23h, a connected pair address generation circuit 23i, and a connected logarithm latch circuit 2.
3j and i1J were formed. Note that odd memory is RA
Consists of M. Segment address, address generation circuit 23
h counts the segment detection clock from the segment detection circuit 22d and generates this count value as an address signal. Segment address generation circuit 23h
Segment label memory 2
6b, right end coordinate memory 26C, segment length memory 23
Since writing is performed to the corresponding address location in the d1 vertical coordinate memory 25e, a segment label, right end coordinate, segment length, and vertical coordinate are stored in each memory in association with each segment. In addition, the concatenated pair address generation circuit 23
j is for counting the number of joint detection pulses from the joint detection circuit 1322j and outputting it as an address signal to the connected pair data memory 23f, and the connected pair data memory 23f latches the connected pair at the location specified by this address signal. The overlapping segment label pair latched in the circuit 22p and the segment address generation circuit 2
The address and signal output from 3h are each stored as data. Furthermore, the concatenated pair address generation circuit 23
The count value of i is latched in the connected logarithm latch circuit 2SJ. In this way, each segment information is stored in the image memory 23, but the image processing processor 24 reads the segment information in the image memory 23 based on the program in the program memory 24d and stores it in the working memory 24e. ” 08A specification page 28 @ line 15 “Configuration diagram,”
Insert the following sentence after. "Figure 1A is a detailed configuration diagram of the embodiment shown in Figure tJc1."
(III) Figure 1A is added as shown in the attached drawings.

Claims (1)

Translated fromJapanese
【特許請求の範囲】[Claims]物体を二次元撮像手段によりラスク走査して得られる撮
像信号を二値化し2画素化することによって少なくとも
前記物体を表わす画素のうち背景と境界をなす画素に関
する特徴情報を抽出する特徴情報抽出手段と、該境界点
画素を逐次連ねて形成される物体輪郭曲線の所定長さ毎
の勾配2曲率からその折点または変曲点をめ、各折点ま
たは変曲点間を結ぶ各線分をそれぞれ図形の基本要素(
プリミティブ)である直線2円(円弧を含む)または楕
円(楕円弧を含む)のいずれかにより表現し、該プリミ
ティブ表現される各成分毎に最も良く適合する直線5円
または楕円を同定してプリミティブ毎にその属性値をめ
る一方、各プリミティブ毎にその主特徴点を定義し、該
主特徴点によって全プリミティブ間の位置関係を表わす
距離マツプを演算する演算処理手段と、少な(とも各プ
リミティブの属性値とプリミティブ間の距離マツプとを
記憶する辞書メモリとを備え、複数の物体の1つまたは
複合体の各々についてプリミティブ属性値と距離マツプ
とを予めめて該辞書メモリに格納し、しかる後、未知物
体を処理して得られるプリミティブ属性値、距離マツプ
について辞書メモリに格納されているものとの照合を行
ない、その一致度が高いものから未知物体を識別するこ
とを特徴とする物体識別装置。
Feature information extraction means for extracting feature information regarding at least pixels that form a boundary with a background among pixels representing the object by binarizing and converting the image signal obtained by scanning the object by a two-dimensional imaging means into two pixels; , find the bending point or inflection point from the gradient 2 curvature for each predetermined length of the object contour curve formed by sequentially connecting the boundary point pixels, and draw each line segment connecting each bending point or inflection point into a figure. The basic elements of (
Each primitive is expressed by either two straight circles (including circular arcs) or an ellipse (including elliptical arcs), and the straight line five circles or ellipses that best fit each component represented by the primitive are identified and each primitive is At the same time, we define the main feature point for each primitive, and use the main feature point to calculate a distance map that represents the positional relationship between all primitives. A dictionary memory for storing attribute values and a distance map between primitives, the primitive attribute value and the distance map for each of a plurality of objects or complexes are stored in advance in the dictionary memory, and then , an object identification device characterized by comparing primitive attribute values and distance maps obtained by processing an unknown object with those stored in a dictionary memory, and identifying unknown objects from those with a high degree of matching. .
JP59058472A1984-03-281984-03-28Object discriminating deviceGrantedJPS60204086A (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
JP59058472AJPS60204086A (en)1984-03-281984-03-28Object discriminating device
US07/033,889US4712248A (en)1984-03-281987-04-03Method and apparatus for object identification

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP59058472AJPS60204086A (en)1984-03-281984-03-28Object discriminating device

Publications (2)

Publication NumberPublication Date
JPS60204086Atrue JPS60204086A (en)1985-10-15
JPH0312750B2 JPH0312750B2 (en)1991-02-20

Family

ID=13085369

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP59058472AGrantedJPS60204086A (en)1984-03-281984-03-28Object discriminating device

Country Status (2)

CountryLink
US (1)US4712248A (en)
JP (1)JPS60204086A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS62206674A (en)*1986-03-071987-09-11Agency Of Ind Science & TechnolModel producing device for recognition of object
JPS6470890A (en)*1987-09-111989-03-16Fuji Electric Co LtdMethod for writing contour of graphic
JPH01161487A (en)*1987-12-181989-06-26Fuji Electric Co LtdObject recognizing method
US5111516A (en)*1989-04-111992-05-05Kabushiki Kaisha Toyota Chuo KenkyushoApparatus for visual recognition
JP2007502473A (en)*2003-08-152007-02-08スカーペ アクティーゼルスカブ Computer vision system for classification and spatial localization of bounded 3D objects
WO2017038377A1 (en)*2015-08-312017-03-09株式会社 日立ハイテクノロジーズImage processing apparatus for semiconductor pattern image

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US4783829A (en)*1983-02-231988-11-08Hitachi, Ltd.Pattern recognition apparatus
US4876728A (en)*1985-06-041989-10-24Adept Technology, Inc.Vision system for distinguishing touching parts
US5003498A (en)*1986-01-131991-03-26Hitachi, Ltd.Graphic display method
FR2608295B1 (en)*1986-12-121989-03-31France Etat METHOD AND DEVICE FOR RECOGNIZING CHARACTERS
JP2535927B2 (en)*1987-07-091996-09-18アイシン精機株式会社 On-vehicle distance detection device
JP2570315B2 (en)*1987-09-011997-01-08アイシン精機株式会社 On-vehicle distance detection device
US5214719A (en)*1989-02-281993-05-25Phoenix ImagingComputer-based system and method for character recognition
EP0385009A1 (en)*1989-03-031990-09-05Hewlett-Packard LimitedApparatus and method for use in image processing
US5054094A (en)*1990-05-071991-10-01Eastman Kodak CompanyRotationally impervious feature extraction for optical character recognition
US5317652A (en)*1991-06-051994-05-31Phoenix ImagingRotation and position invariant optical character recognition
DE69332918D1 (en)*1992-01-242003-06-05Canon Kk Device and method for extracting edge data and for encoding image data with this edge data
US5452371A (en)*1992-05-271995-09-19Apple Computer, Inc.Method of aligning shapes on a display of a computer system
US6118886A (en)*1993-03-302000-09-12The United States Of America As Represented By The United States Department Of EnergyAutomatic target recognition apparatus and method
US6463176B1 (en)*1994-02-022002-10-08Canon Kabushiki KaishaImage recognition/reproduction method and apparatus
US5751853A (en)*1996-01-021998-05-12Cognex CorporationLocating shapes in two-dimensional space curves
US6173066B1 (en)1996-05-212001-01-09Cybernet Systems CorporationPose determination and tracking by matching 3D objects to a 2D sensor
US5905651A (en)*1997-01-161999-05-18Nordson CorporationParts identification system for powder spray coating system
US6735253B1 (en)1997-05-162004-05-11The Trustees Of Columbia University In The City Of New YorkMethods and architecture for indexing and editing compressed video over the world wide web
US6122397A (en)*1997-07-032000-09-19Tri Path Imaging, Inc.Method and apparatus for maskless semiconductor and liquid crystal display inspection
US6714679B1 (en)*1998-02-052004-03-30Cognex CorporationBoundary analyzer
US7143434B1 (en)1998-11-062006-11-28Seungyup PaekVideo description system and method
EP1125227A4 (en)*1998-11-062004-04-14Univ Columbia SYSTEMS AND METHODS FOR INTEROPERABLE MULTIMEDIA CONTENTS
DE60121443T2 (en)*2000-05-192007-02-15Koninklijke Philips Electronics N.V. Block-based motion or depth estimation
US6466158B2 (en)2000-12-082002-10-15Lockheed Martin Corp.Identifying closely clustered moving targets
US7113617B2 (en)*2000-12-122006-09-26Hewlett-Packard Development Company, L.P.Method of computing sub-pixel Euclidean distance maps
CA2354301A1 (en)*2001-07-272003-01-27Djamel Yahia MeddahGeometric hashing for model-based recognition of an object
US7339992B2 (en)2001-12-062008-03-04The Trustees Of Columbia University In The City Of New YorkSystem and method for extracting text captions from video and generating video summaries
US7149356B2 (en)*2002-07-102006-12-12Northrop Grumman CorporationSystem and method for template matching of candidates within a two-dimensional image
US7116823B2 (en)*2002-07-102006-10-03Northrop Grumman CorporationSystem and method for analyzing a contour of an image by applying a Sobel operator thereto
US7146057B2 (en)*2002-07-102006-12-05Northrop Grumman CorporationSystem and method for image analysis using a chaincode
WO2006096612A2 (en)2005-03-042006-09-14The Trustees Of Columbia University In The City Of New YorkSystem and method for motion estimation and mode decision for low-complexity h.264 decoder
JP2007122218A (en)*2005-10-262007-05-17Fuji Xerox Co LtdImage analyzing device
ITUD20050203A1 (en)*2005-11-292007-05-30Isomorph S R L DEVICE AND PROCEDURE FOR RECOGNIZING AN OBJECT IN AN IMAGE
WO2008147877A1 (en)*2007-05-222008-12-04Trimble Navigation LimitedHandling raster image 3d objects
WO2009126785A2 (en)2008-04-102009-10-15The Trustees Of Columbia University In The City Of New YorkSystems and methods for image archaeology
WO2009155281A1 (en)2008-06-172009-12-23The Trustees Of Columbia University In The City Of New YorkSystem and method for dynamically and interactively searching media data
US8671069B2 (en)2008-12-222014-03-11The Trustees Of Columbia University, In The City Of New YorkRapid image annotation via brain state decoding and visual pattern mining
CA2788079C (en)*2010-01-292018-01-02Monosol, LlcImproved water-soluble film having blend of pvoh polymers, and packets made therefrom
US9218538B2 (en)*2013-01-302015-12-22Xerox CorporationMethods and systems for detecting an object borderline
US20150071541A1 (en)*2013-08-142015-03-12Rice UniversityAutomated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images

Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS52152124A (en)*1976-06-141977-12-17Nippon Telegr & Teleph Corp <Ntt>Figure inputting
JPS58181180A (en)*1982-04-161983-10-22Mitsubishi Electric Corp Line figure recognition device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS5619657B2 (en)*1973-09-101981-05-08
US3979722A (en)*1974-05-311976-09-07Nippon Electric Company, Ltd.Automatic character recognition device employing dynamic programming
JPS51118333A (en)*1975-04-111976-10-18Hitachi LtdPattern recognition system
NL7810943A (en)*1978-11-031980-05-07Philips Nv LEARNING DEVICE FOR RECOGNIZING PATTERNS OF DIGITAL SIGNALS.
JPS5926064B2 (en)*1979-09-101984-06-23工業技術院長 Feature extraction device for contour images
US4396903A (en)*1981-05-291983-08-02Westinghouse Electric Corp.Electro-optical system for correlating and integrating image data from frame-to-frame
JPS59790A (en)*1982-06-281984-01-05Fuji Electric Co Ltd pattern identification device
JPS5930179A (en)*1982-08-101984-02-17Agency Of Ind Science & TechnolSegment approximation system of pattern
FR2540263B1 (en)*1983-01-311988-05-20Commissariat Energie Atomique METHOD FOR AUTOMATICALLY RECOGNIZING AN IMAGE FROM A CORRESPONDING REFERENCE IMAGE

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS52152124A (en)*1976-06-141977-12-17Nippon Telegr & Teleph Corp <Ntt>Figure inputting
JPS58181180A (en)*1982-04-161983-10-22Mitsubishi Electric Corp Line figure recognition device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS62206674A (en)*1986-03-071987-09-11Agency Of Ind Science & TechnolModel producing device for recognition of object
JPS6470890A (en)*1987-09-111989-03-16Fuji Electric Co LtdMethod for writing contour of graphic
JPH01161487A (en)*1987-12-181989-06-26Fuji Electric Co LtdObject recognizing method
US5111516A (en)*1989-04-111992-05-05Kabushiki Kaisha Toyota Chuo KenkyushoApparatus for visual recognition
JP2007502473A (en)*2003-08-152007-02-08スカーペ アクティーゼルスカブ Computer vision system for classification and spatial localization of bounded 3D objects
US7822264B2 (en)2003-08-152010-10-26Scape A/SComputer-vision system for classification and spatial localization of bounded 3D-objects
WO2017038377A1 (en)*2015-08-312017-03-09株式会社 日立ハイテクノロジーズImage processing apparatus for semiconductor pattern image

Also Published As

Publication numberPublication date
US4712248A (en)1987-12-08
JPH0312750B2 (en)1991-02-20

Similar Documents

PublicationPublication DateTitle
JPS60204086A (en)Object discriminating device
CN105426530B (en)Trademark retrieving method, device and system
US7106904B2 (en)Form identification method
CN114581915A (en)Noise robust multi-class dial plate pointer reading identification method and device
JP3372111B2 (en) Watt hour meter character recognition device
US20090022405A1 (en)System and method for video object identification
CN112632926B (en)Bill data processing method and device, electronic equipment and storage medium
JP2864735B2 (en) Object identification method and apparatus, and image processing method and apparatus for object identification
CN114842205A (en)Vehicle damage detection method, device, equipment and storage medium
CN112200004B (en)Training method and device for image detection model and terminal equipment
CN116205835A (en) Circuit board defect detection method, device and electronic equipment
CN117935246A (en) Instrument indication number recognition method and device based on deep learning technology
JP2002373334A (en)Device and method for extracting fingerprint characteristic and fingerprint extraction program
JP6175904B2 (en) Verification target extraction system, verification target extraction method, verification target extraction program
JPH08101893A (en)Model image data registering device for image processor
Peng et al.Document image matching based on component blocks
JPH01271883A (en)Detecting system for center of fingerprint
JP4486351B2 (en) Seal verification device, seal verification method and seal verification program
KR102713557B1 (en)Input automation system of appearance inspection drawings for construction structure using scaner, and method for the same
JP3303748B2 (en) Registration method of reference one-dimensional data string, image recognition method, registration device, image recognition device, and recording medium
JP4648084B2 (en) Symbol recognition method and apparatus
JP3157530B2 (en) Character extraction method
JPH04260980A (en) Shape recognition device
JP2964594B2 (en) Mark inspection method
JPH04112276A (en)Binary picture contour line chain encoding device

[8]ページ先頭

©2009-2025 Movatter.jp