【0001】[0001]
【発明の属する技術分野】本発明は、エッジ領域抽出方
法及び装置、特に、印刷物に発生している微細な筋状の
欠陥を検出する際の画像処理に適用して好適な、エッジ
領域抽出方法及び装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge area extracting method and apparatus, and more particularly to an edge area extracting method suitable for image processing for detecting fine streak defects occurring in a printed matter. And an apparatus.
【0002】[0002]
【従来の技術】一般に、グラビア輪転印刷機では、回転
する版胴とニップロールとの間に原反を通過させなが
ら、該版胴に付着されたインキをその原反に転写するこ
とにより、連続的な印刷が行われている。2. Description of the Related Art In general, in a gravure rotary printing press, ink adhered to a plate cylinder is transferred to the substrate while passing the substrate between a rotating plate cylinder and a nip roll, thereby continuously printing. Printing is being performed.
【0003】このような連続的な印刷を可能とするため
に、上記版胴の一部がインキ溜めに浸漬されており、そ
の回転に伴なって該版胴にインキが付着されると共に、
過剰に付着したインキは、回転方向近傍に付設されてい
るドクターブレードによって掻き落され、絵柄部分にの
みインキが残るようになっている。[0003] In order to enable such continuous printing, a part of the plate cylinder is immersed in an ink reservoir, and ink is attached to the plate cylinder with the rotation thereof.
The excessively attached ink is scraped off by a doctor blade attached near the rotation direction, so that the ink remains only in the picture portion.
【0004】ところが、何等かの理由でドクターブレー
ドに微小な欠けが生じたりすると、その欠け部分が接触
している版胴には、極めて僅かではあるが常時インキが
残ることになるため、原反の印刷面には、いわゆるドク
ター筋と呼ばれる、微細ではあるが連続した筋状の印刷
欠陥が発生することになる。However, if the doctor blade is slightly chipped for any reason, the printing cylinder, which is in contact with the chipped portion, will always have a very small amount of ink remaining on it. A fine but continuous streak-like printing defect called a so-called doctor streak occurs on the printing surface of.
【0005】従来、印刷物の検査には、CCDカメラ等
の撮像手段で印刷絵柄を画像入力し、その入力画像を画
像処理することにより印刷欠陥を検出することが行われ
ている。Conventionally, in the inspection of printed matter, a print pattern is input as an image by an image pickup means such as a CCD camera, and a print defect is detected by processing the input image.
【0006】このような印刷欠陥検出に用いられる画像
処理の1つに、入力画像から画像の濃淡の境界であるエ
ッジを検出するためのエッジ抽出がある。このエッジ抽
出は、入力画像の各画素値からなる画像データに対して
各種の微分オペレータ等を適用することにより実行され
るが、そのようなオペレータとしては、例えば、1次微
分ではPrewittのオペレータ、Sobelのオペレータ、2
次微分ではラプラシアン・オペレータ等がある。One of the image processes used for detecting such print defects is edge extraction for detecting an edge, which is a boundary between light and shade of an image, from an input image. This edge extraction is performed by applying various types of differential operators and the like to the image data composed of the pixel values of the input image. Sobel operator, 2
In the second derivative, there is a Laplacian operator or the like.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、前記の
ような従来の画像処理によるエッジ検出方法は、入力さ
れた画像中にある絵柄部分の全てについてエッジを抽出
してしまうため、入力画像に基づいて行う印刷欠陥の検
査等に用いる場合には、誤判定の原因となる。However, the conventional edge detection method based on image processing as described above extracts edges for all the picture portions in the input image, and therefore, is based on the input image. When used for inspection of print defects to be performed, it causes erroneous determination.
【0008】即ち、入力された検査画像からエッジ部を
除外するためのマスクを作成し、該マスクを検査画像に
適用して印刷欠陥のみを検出できるようにするために、
該マスクの作成処理に前記オペレータを用いた場合、そ
の検査画像に前述したドクター筋等の筋状の欠陥が含ま
れている場合には、その欠陥をも絵柄と同様に処理する
ことになるので、作成されたマスクを該検査画像に適用
すると、通常の絵柄のエッジと共に、筋をもマスクして
しまうので、筋状の欠陥を検出することはできない。That is, in order to create a mask for removing an edge portion from an input inspection image and apply the mask to the inspection image so that only a printing defect can be detected,
When the operator is used for the mask creation process, if the inspection image includes a streak-like defect such as the above-described doctor streak, the defect is processed in the same manner as the pattern. When the created mask is applied to the inspection image, a streak is masked together with the edge of a normal pattern, so that a streak-like defect cannot be detected.
【0009】これを、従来のマスク作成方法の場合を例
に具体的に説明する。This will be specifically described with reference to a conventional mask making method as an example.
【0010】今、カメラにより入力された検査画像が、
図28に絵柄を模式的に示した(A)である場合を考え
る。この図には幅がa〜dの4種類の絵柄がそれぞれe
の間隔をおいて並んだ画像に相当し、1番細いdの幅の
線がドクター筋に相当する。又、図28の(B)は、同
図(A)の水平方向の各画素の階調値を示したものであ
る。Now, the inspection image input by the camera is
Let us consider the case of FIG. 28A which schematically shows a picture. In this figure, four kinds of patterns having widths a to d are respectively e.
, And the thinnest line with a width d corresponds to the doctor muscle. FIG. 28B shows the gradation values of each pixel in the horizontal direction in FIG.
【0011】先ず、図29に、上記(A)の検査画像と
共に、(C)として示すように、該画像にラプラシアン
・オペレータ等を適用してエッジを抽出し、そのエッジ
位置を中心に左右数画素分をエッジ領域とする。First, in FIG. 29, an edge is extracted by applying a Laplacian operator or the like to the image together with the inspection image of (A) as shown in FIG. Pixels are defined as edge regions.
【0012】次いで、ノイズ除去等のために、図30に
上記(C)の各エッジ領域と共に示すように、これら領
域を、その両側それぞれに数画素分拡大する膨張処理を
行って(D)の状態にする。その後、上記(C)と同一
の画素数の状態に戻す収縮処理を行い、それをマスク画
像とする。その際、図28の画像(A)でcの幅の絵柄
の場合のように、膨張処理した結果、2つのエッジ領域
が図30の(D)に示すように繋ってしまったときに
は、その部分は収縮の対象にならない。図31の(E)
は、以上のようにして作成したマスク画像を上記図28
の(A)の検査画像に重ねた状態を示したものである。Next, as shown in FIG. 30 together with the respective edge regions shown in FIG. 30C for noise removal or the like, these regions are subjected to an expansion process of enlarging them by several pixels on both sides thereof, thereby performing (D). State. Thereafter, a contraction process for returning to the state of the same number of pixels as in (C) above is performed, and this is used as a mask image. At this time, when two edge regions are connected as shown in FIG. 30D as a result of the dilation processing as in the case of the image having the width c in the image (A) of FIG. The part is not subject to contraction. (E) of FIG.
FIG. 28 shows the mask image created as described above.
3A shows a state where the inspection image is superimposed on the inspection image shown in FIG.
【0013】この図31からわかるように、従来のエッ
ジ抽出方法を用いて作成したマスク画像を検査画像に適
用して、絵柄のエッジが検出されないようにすると、上
記図28の(A)でdの幅のドクター筋の場合は、図2
9に示した(C)のエッジ領域が、該ドクター筋の部分
を完全に含んでしまうため、ドクター筋を検出すること
ができないことになる。As can be seen from FIG. 31, when a mask image created by using the conventional edge extraction method is applied to the inspection image so that the edge of the picture is not detected, d in FIG. Fig. 2 for doctor muscles of width
Since the edge area (C) shown in FIG. 9 completely includes the doctor muscle part, the doctor muscle cannot be detected.
【0014】本発明は、前記従来の問題点を解決するべ
くなされたもので、印刷絵柄等を画像入力した画像の中
から、絵柄等に対応する画像信号の平坦部が所定の幅以
下の場合にのみ、そのエッジが、抽出されるエッジ領域
に含まれないようにすることができるエッジ領域抽出方
法及び装置を提供することを課題とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problem, and is intended to solve a case where a flat portion of an image signal corresponding to a picture or the like is smaller than a predetermined width from an image input of a picture or the like. It is an object of the present invention to provide an edge region extraction method and apparatus which can prevent the edge from being included in the extracted edge region.
【0015】[0015]
【課題を解決するための手段】本発明は、入力画像の水
平方向及び垂直方向の少なくとも一方について、画素値
が急激に変化するエッジに基づいてエッジ領域を抽出す
るエッジ領域抽出方法において、画素値の変化が無いか
又は小さい平坦部の幅が所定値以下の場合には、該平坦
部の両端に位置するエッジが、エッジ領域に含まれない
ようにし、それ以外の場合は、エッジがエッジ領域に含
まれるようにすることにより、前記課題を解決したもの
である。According to the present invention, there is provided an edge area extracting method for extracting an edge area based on an edge whose pixel value changes rapidly in at least one of a horizontal direction and a vertical direction of an input image. If there is no change or the width of the flat portion is smaller than or equal to a predetermined value, the edges located at both ends of the flat portion are prevented from being included in the edge region. The above-mentioned problem has been solved by being included in.
【0016】本発明は、又、入力画像の水平方向及び垂
直方向の少なくとも一方について、画素値が急激に変化
するエッジに基づいてエッジ領域を抽出するエッジ領域
抽出装置において、対象物に関する画像を入力する手段
と、入力画像からエッジ領域を抽出する際に、パラメー
タとして、少なくとも画素値を比較する位置を規定する
ための画素数Lと、エッジがエッジ領域に含まれないよ
うにする平坦部の最大幅を規定するためのエッジ間画素
数Wとを設定する手段と、注目画素を中心としてそれぞ
れ反対方向にL画素離れた位置の画素値を比較し、その
差が、所定の閾値を超えている場合の該注目画素をエッ
ジ領域として抽出する手段と、前記エッジ間画素数Wの
幅の平坦部について抽出された一対のエッジ領域の幅
を、それぞれ画素単位で膨張させた場合に、該両エッジ
領域が繋ることのない膨張画素数Nを計算すると共に、
膨張後のエッジ領域を収縮させる収縮画素数Pを計算す
る手段と、入力画像から抽出された全てのエッジ領域の
幅を、その両側でN画素ずつ膨張させる手段と、膨張さ
せたエッジ領域の幅を、その両側でP画素ずつ収縮させ
る手段と、を備えたことにより、前記エッジ領域抽出方
法を確実に実行できるようにしたものである。According to another aspect of the present invention, there is provided an edge area extracting apparatus for extracting an edge area based on an edge whose pixel value changes rapidly in at least one of a horizontal direction and a vertical direction of an input image. Means for extracting the edge region from the input image, the number of pixels L for defining at least the position where the pixel value is to be compared, and the maximum value of the flat portion for preventing the edge from being included in the edge region. A means for setting the number W of pixels between edges for defining a large value is compared with a pixel value at a position away from the target pixel by L pixels in opposite directions with respect to the target pixel, and the difference exceeds a predetermined threshold. Means for extracting the pixel of interest as an edge region in the case, and a width of a pair of edge regions extracted for a flat portion having a width of the number W of pixels between edges, each being a pixel unit. In the case of inflated, with the both edge regions are calculated without inflation pixel number N be such,
Means for calculating the number P of contracted pixels for contracting the expanded edge area, means for expanding the width of all edge areas extracted from the input image by N pixels on both sides thereof, and width of the expanded edge area And means for shrinking P pixels on both sides thereof, so that the edge region extracting method can be executed reliably.
【0017】即ち、本発明においては、図1に示すよう
に、画像入力を行い、その画像についてエッジ領域の抽
出処理を行い、結果として得られたエッジ領域を含む抽
出画像を出力する。That is, in the present invention, as shown in FIG. 1, an image is input, an edge region is extracted from the image, and an extracted image including the resulting edge region is output.
【0018】本発明の対象となる入力画像は、2値画
像、多値モノクロ画像、カラー画像のいずれでもよい。
又、上記エッジ領域抽出処理には、(A)垂直方向エッ
ジのみを抽出、(B)水平方向エッジのみを抽出、
(C)水平・垂直両方向エッジを同時抽出、の3通りが
ある。更に、上記出力画像としては、2次元の2値画像
で、エッジ領域とそれ以外を、例えばエッジ領域は1
(又はON)、それ以外は0(又はOFF)にする、若
しくはその逆にする等により区別して出力する。The input image to which the present invention is applied may be any of a binary image, a multi-valued monochrome image, and a color image.
In the edge area extraction processing, (A) only vertical edges are extracted, (B) only horizontal edges are extracted,
(C) Simultaneous extraction of both horizontal and vertical edges. Further, the output image is a two-dimensional binary image, which includes an edge region and the rest, for example, the edge region has 1 edge region.
(Or ON), otherwise set to 0 (or OFF), or vice versa, and output them separately.
【0019】又、本発明により抽出するエッジ領域と、
入力画像との関係の概略を、図2に示すように、画像信
号が水平方向の1次元の画素値(階調値)からなる場合
を例に説明しておく。Further, an edge region extracted according to the present invention;
An outline of the relationship with an input image will be described by taking as an example a case where an image signal is composed of one-dimensional pixel values (gradation values) in the horizontal direction as shown in FIG.
【0020】図2(A)は、暗い背景に、垂直方向に明
るい線分が表示されてる画像の場合に当り、同図(B)
は、その逆の場合に当る。いずれの場合も、画素値が急
激に変化する位置に当る画素がエッジであり、該エッジ
は画素値が余り変化しない平坦部が、明るさの異なる別
の平坦部と接する場合、その境界に存在する。FIG. 2A corresponds to an image in which a bright line segment is displayed in a vertical direction on a dark background, and FIG.
Applies to the opposite case. In any case, a pixel corresponding to a position where the pixel value changes rapidly is an edge, and the edge exists at a boundary when a flat portion where the pixel value does not change much contacts another flat portion having different brightness. I do.
【0021】本発明では、両エッジ間の画素数がWより
大きいときは、この図2に網掛で示すように、エッジ領
域がエッジを内側に含んだ位置に抽出されるが、逆にW
以下の場合は、後に詳述するように、エッジ領域はエッ
ジを含まない位置に抽出されるか、もしくはエッジ領域
は全く抽出されない。In the present invention, when the number of pixels between the two edges is larger than W, the edge region is extracted at a position including the edge inside as shown by hatching in FIG.
In the following cases, as described later in detail, the edge region is extracted at a position that does not include an edge, or the edge region is not extracted at all.
【0022】その結果、ドクター筋等の非常に細い線
と、それ以外の線を含む通常の絵柄とは明確に区別する
ことが可能となり、抽出したエッジ領域を基にマスク画
像を作成し、それを印刷検査に利用することにより、例
えばドクター筋を確実に検出することが可能となる。As a result, a very thin line such as a doctor line can be clearly distinguished from a normal pattern including other lines, and a mask image is created based on the extracted edge region. Is used for print inspection, for example, doctor streaks can be reliably detected.
【0023】上記図2は図3(A)に示すような垂直方
向のエッジを抽出していることに当るが、処理方向を9
0°変えれば、同図(B)に示すような水平方向のエッ
ジを抽出でき、更に、垂直方向と水平方向の処理を同時
に行えば、水平、垂直両方向のエッジ領域を同時抽出で
きる。FIG. 2 shows that vertical edges are extracted as shown in FIG. 3A.
If the angle is changed by 0 °, a horizontal edge as shown in FIG. 3B can be extracted. Further, if the processing in the vertical direction and the horizontal direction are performed simultaneously, edge regions in both the horizontal and vertical directions can be simultaneously extracted.
【0024】[0024]
【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態を詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0025】図4は、本発明に係る一実施形態の概略構
成を示すブロック図である。FIG. 4 is a block diagram showing a schematic configuration of an embodiment according to the present invention.
【0026】本実施形態のエッジ領域抽出装置は、視野
寸法が、例えば30mm×30mmからなるCCDエリ
アセンサカメラ(図示せず)により、印刷物の絵柄を入
力した画像を記憶する入力画像記憶部10と、該記憶部
10から読み出される入力画像に対して、以下に詳述す
る各処理を実行可能とするためのパラメータ記憶部1
2、エッジ領域抽出部14、膨張・収縮回数算出部1
8、エッジ膨張部20、エッジ収縮部24と共に、エッ
ジ領域抽出部14、エッジ膨張部20、及びエッジ収縮
部24でそれぞれ処理した結果を記憶するエッジ領域記
憶部16、エッジ膨張記憶部22、及び出力画像記憶部
26を備えている。The edge area extracting apparatus according to the present embodiment includes an input image storage unit 10 for storing an image in which a picture of a printed material is input by a CCD area sensor camera (not shown) having a visual field size of, for example, 30 mm × 30 mm. A parameter storage unit 1 for enabling each processing described in detail below to be performed on an input image read from the storage unit 10.
2. Edge region extraction unit 14, dilation / deflation count calculation unit 1
8, together with the edge expansion unit 20, the edge reduction unit 24, the edge region extraction unit 14, the edge expansion unit 20, and the edge region storage unit 16, the edge expansion storage unit 22, which stores the processing results of the edge reduction unit 24, and An output image storage unit 26 is provided.
【0027】上記パラメータ記憶部12は、入力画像記
憶部10から読み出される入力画像から、エッジ領域を
抽出する際に画素値を比較する位置を規定するための画
素数L及び判定に使用する閾値Tと、エッジをエッジ領
域から除外する平坦部の最大幅を規定するためのエッジ
間画素数Wとをパラメータとして設定する手段であり、
これらパラメータの値は、例えばキーボード等により予
め入力しておく。但し、これらパラメータには次の制約
があり、ドクター筋の場合は、例えば、W=10画素と
することができる。The parameter storage unit 12 includes a pixel number L for defining a position for comparing pixel values when extracting an edge region from an input image read from the input image storage unit 10, and a threshold value T used for determination. Means for setting, as parameters, the number W of pixels between edges for defining the maximum width of the flat portion excluding the edge from the edge region,
The values of these parameters are input in advance using, for example, a keyboard or the like. However, these parameters have the following restrictions. In the case of doctor muscle, for example, W can be set to 10 pixels.
【0028】 W≧1 L≧W 0≦T≦最大画素値W ≧ 1 L ≧ W 0 ≦ T ≦ Maximum pixel value
【0029】なお、上記閾値Tは、マスク画像を作成す
る場合は等号は必要ないが、本実施形態を検査装置に適
用する場合を考慮し、ここでは等号を含めておく。即
ち、実際の検査装置で、例えば全面マスクにして検査装
置を止めることなく検査作業を事実停止する場合は、T
=0とし、又、平坦部の幅に関係なくエッジを全て検査
対象にしたい場合、あるいはエッジがない絵柄を検査す
るような場合は、T=最大画素値とすることにより対応
できるようにしてある。The threshold T does not require an equal sign when a mask image is created, but the equal sign is included here in consideration of the case where the present embodiment is applied to an inspection apparatus. That is, when the inspection operation is actually stopped without stopping the inspection apparatus by using an actual inspection apparatus, for example, by using an entire mask, T
= 0, and when it is desired to inspect all edges irrespective of the width of the flat portion, or when inspecting a pattern having no edge, T = maximum pixel value can be used. .
【0030】前記エッジ領域抽出部14は、垂直方向の
エッジ領域を抽出する場合を、図5に模式的に示すよう
に、上記パラメータ記憶部12から読み込んだパラメー
タLとTを用い、●の注目画素Pn,mを中心としてそれ
ぞれ反対方向にL画素離れた位置にある、同じく●で示
した、Pn-L,mとPn+L,mの画素値を比較し、その差が
閾値T以上である場合の該注目画素をエッジ領域として
判定し、抽出する手段である。このエッジ領域抽出部1
4で抽出されたエッジ領域は、一旦その記憶部16に記
憶される。なお、水平方向、水平・垂直両方向のエッジ
領域の場合も、同様の計算原理に基づいて抽出できる。The edge area extraction unit 14 uses the parameters L and T read from the parameter storage unit 12 to extract a vertical edge area, as schematically shown in FIG. The pixel values of PnL, m and Pn + L, m , which are located at positions L pixels apart from each other with the pixel Pn, m as the center and also indicated by ●, are compared, and the difference is equal to or greater than the threshold T. Is a means for determining and extracting the target pixel as an edge region in the case of. This edge area extraction unit 1
The edge area extracted in step 4 is temporarily stored in the storage unit 16. Note that, in the case of edge regions in the horizontal direction and in both the horizontal and vertical directions, it can be extracted based on the same calculation principle.
【0031】前記膨張・収縮回数算出部18は、前記パ
ラメータ記憶部12からパラメータWを入力すると共
に、エッジ間画素数がWの平坦部について抽出された一
対のエッジ領域の幅をそれぞれ画素単位で膨張させた場
合に該両エッジ領域が接しない膨張画素数Nを膨張回数
として計算し、且つ、膨張後のエッジ領域を収縮させる
収縮画素数Pを収縮回数として計算する手段である。The expansion / contraction number calculation unit 18 receives the parameter W from the parameter storage unit 12 and calculates the width of a pair of edge regions extracted for a flat portion having the number of pixels between edges W in units of pixels. This is a means for calculating the number N of expanded pixels that are not in contact with both edge regions when expanded, as the number of expansions, and calculating the number P of contracted pixels for contracting the expanded edge region as the number of contractions.
【0032】図6は、上記算出部18で算出される膨張
回数Nの意味を概念的に示したものであり、この図に示
されるように、回数N=NA+NBであり、NA=L−
W、NB=(W−1)/2である。FIG. 6 conceptually shows the meaning of the number of times of expansion N calculated by the calculation unit 18, and as shown in this figure, the number of times N = NA + NB and NA = L-
W, isN B = (W-1) / 2.
【0033】上記NAは、上記図6(B)に示すよう
に、エッジから、上記方法で抽出したエッジ領域までの
平坦部の長さ(画素数)であり、図中左右いずれのエッ
ジ領域についても同一である。ここでは便宜上左のエッ
ジ領域のみについて説明するが、該エッジ領域の右端か
ら高階調値の平坦部の右端までの画素数は、上記図5に
示した抽出原理からLであるため、NA=L−Wで与え
られる。NA is the length (the number of pixels) of the flat portion from the edge to the edge region extracted by the above method, as shown in FIG. Is also the same. Here, for convenience, only the left edge region will be described. However, since the number of pixels from the right end of the edge region to the right end of the flat portion having a high gradation value is L from the extraction principle shown in FIG. 5, NA = It is given by L−W.
【0034】上記NBは、左右両エッジ領域から画素数
Nだけ膨張させた場合に、該両エッジ領域が接しないよ
うにするために、図6(A)に示すように、少なくとも
中心に一画素残すことができる画素数にする必要がある
ことから、(W−1)/2とする。但し、中心に残す画
素数は1に限らず例えば2としてもよく、その場合は、
NB=(W−2)/2とする。なお、このNBに端数が
出た場合は切り捨てる。[0034] The NB, when inflated from the left and right edge regions by the number of pixels N, in order to the both edge regions are not in contact, as shown in FIG. 6 (A), one at least center Since it is necessary to set the number of pixels that can be left as a pixel, (W-1) / 2 is set. However, the number of pixels left at the center is not limited to one and may be, for example, two. In that case,
NB = (W−2) / 2. It should be noted, truncate if you get a fraction of this NB.
【0035】このように、回数Nを設定することによ
り、エッジ間の幅が画素数W以下の筋状の場合は、左右
のエッジ領域に対してN画素の膨張を行っても、絶対に
両エッジ領域が繋ることがないのに対し、Wを超える幅
の場合は繋ってしまう。As described above, by setting the number of times N, if the width between the edges is streak less than the number of pixels W, even if the N pixels are expanded in the left and right edge regions, both of them are absolutely required. While the edge regions are not connected, if the width exceeds W, they are connected.
【0036】又、上記計算部18では、上記N画素分を
膨張させた後のエッジ領域を収縮させる収縮画素数P1
の計算も行う。この実施形態では、次式のようにP1 =
Nとする。The calculation unit 18 calculates the number P1 of contracted pixels for contracting the edge area after expanding the N pixels.
Is also calculated. In this embodiment, P1 =
N.
【0037】 P1 =N=L−W+(W−1)/2 …(1)P 1 = N = L−W + (W−1) / 2 (1)
【0038】前記エッジ膨張部20では、前記エッジ領
域記憶部16から読み込んだエッジ領域抽出画像に対し
て、上記算出部18で求められた膨張回数Nの画素数だ
け幅を拡げる膨張処理を行う。この膨張処理を、エッジ
領域を水平方向に一画素だけ膨張させる(回数N=1)
場合を、1次元的な信号について図7に模式的に示し
た。The edge expansion unit 20 performs an expansion process for expanding the width of the edge area extracted image read from the edge area storage unit 16 by the number of pixels of the expansion number N obtained by the calculation unit 18. In this expansion processing, the edge area is expanded by one pixel in the horizontal direction (number of times N = 1).
The case is schematically shown in FIG. 7 for a one-dimensional signal.
【0039】この図7に示されるように、●がエッジ領
域であり、一回の膨張は、該エッジ領域を水平方向の両
側にそれぞれ一画素だけ幅を拡張することを意味する。As shown in FIG. 7, a black dot indicates an edge region, and one expansion means that the width of the edge region is expanded by one pixel on both sides in the horizontal direction.
【0040】上記エッジ膨張部20で膨張処理された画
像データは、エッジ膨張記憶部22に記憶された後、エ
ッジ収縮部24に読み出され、エッジ膨張部20で膨張
したと同数のP1 (=N)画素分だけ縮める収縮処理が
行われる。The image data expanded by the edge expansion unit 20 is stored in the edge expansion storage unit 22 and then read out to the edge contraction unit 24. The same number of P1 (= N) A contraction process for contracting by the number of pixels is performed.
【0041】図8には、上記図7で膨張処理したエッジ
領域に対する収縮処理を概念的に示した。この図に示さ
れるように、本実施形態で実行する収縮処理は、膨張し
たと同数のN画素を膨張後のエッジ領域の両側から減ら
すことを意味し、膨張した結果、両側のエッジ領域が繋
ってしまった場合を除き、膨張前のエッジ領域に戻すこ
とになる。この収縮後のエッジ領域画像は出力画像記憶
部26に記憶される。FIG. 8 conceptually shows the contraction processing for the edge area expanded in FIG. As shown in this figure, the contraction processing executed in this embodiment means that the same number of N pixels as dilated are reduced from both sides of the expanded edge area, and as a result of the dilation, the edge areas on both sides are connected. Except in the case where the edge area has been expanded, the edge area before the expansion is restored. The contracted edge area image is stored in the output image storage unit 26.
【0042】次に、本実施形態の作用を説明する。Next, the operation of the present embodiment will be described.
【0043】本実施形態においては、パラメータL、W
及びTとして所定の数値を入力すると共に、入力画像に
対して、前述した原理に従ってエッジ領域の抽出、膨
張、収縮の各処理を行うことにより、エッジ間画素数が
W以下の平坦部(微小筋に当る)の場合は、エッジを含
まない位置にエッジ領域を抽出でき、逆にWを超えてい
るときはエッジを含む領域にエッジ領域を抽出できる。In this embodiment, the parameters L, W
By inputting predetermined numerical values as T and T, and performing processing of extracting, expanding, and contracting an edge region on the input image in accordance with the principle described above, a flat portion (a minute streak) in which the number of pixels between edges is W or less is obtained. In the case of (1), an edge region can be extracted at a position that does not include an edge, and when W exceeds W, an edge region can be extracted at a region that includes an edge.
【0044】これを、W=3、L=5で、膨張回数N及
び収縮回数P1 が共に、前記(1)式からL−W+(W
−1)/2=5−3+(3−1)/2=3の場合につい
て、図9〜11を参照しながら具体的に説明する。When W = 3 and L = 5, the number of times of expansion N and the number of times of contraction P1 are both L−W + (W
The case of -1) / 2 = 5-3 + (3-1) / 2 = 3 will be specifically described with reference to FIGS.
【0045】図9は、幅(エッジ間画素数)2の線のエ
ッジはエッジ領域とされない場合の例に当る。1次元の
入力画像信号が、図9(A)に●に示すように、幅が2
画素の場合、前記図5に示した原理に従って、注目画素
から左右にそれぞれ5画素離れた位置の画素値を比較
し、その値が閾値T以上である場合の該注目画素をエッ
ジ領域とする処理を行うと、2つの●の両側にそれぞれ
網掛の丸で示した2つの画素からなるエッジ領域が抽出
された図9(B)に示す画像が得られる。FIG. 9 shows an example in which the edge of a line having a width (the number of pixels between edges) 2 is not an edge area. When the one-dimensional input image signal has a width of 2 as indicated by a circle in FIG.
In the case of a pixel, a process of comparing pixel values at positions separated by 5 pixels from the target pixel to the left and right, respectively, according to the principle shown in FIG. 5 and setting the target pixel as an edge region when the value is equal to or greater than a threshold T Is performed, an image shown in FIG. 9B is obtained in which an edge region composed of two pixels indicated by hatched circles is extracted on both sides of the two circles.
【0046】次いで、上記2つのエッジ領域それぞれに
対して、左右の幅方向にそれぞれ3画素(N=3)分拡
げる膨張処理を行って図9(C)の状態にし、その後、
同じく3画素分減らす収縮を行い、最終的なエッジ領域
抽出画像として同図(D)を得る。Next, an expansion process is performed on each of the two edge regions to expand them by 3 pixels (N = 3) in the left and right width directions to obtain the state shown in FIG. 9C.
Similarly, contraction for reducing by three pixels is performed, and the same figure (D) is obtained as a final edge region extraction image.
【0047】この例では、上記図9(C)から判るよう
に、網掛の二重丸で示した膨張処理後のエッジ領域が、
互い繋っていないため、各エッジ領域とも両側で収縮処
理が行われる。その結果、最終的に、図9(D)に示す
ように、線の両側のエッジに当る●から離れた位置にエ
ッジ領域が抽出される。これは、W=3の線の場合も同
様である。In this example, as can be seen from FIG. 9 (C), the edge area after the expansion processing indicated by the shaded double circle is
Since they are not connected to each other, contraction processing is performed on both sides of each edge region. As a result, as shown in FIG. 9D, an edge region is finally extracted at a position away from ● corresponding to the edges on both sides of the line. This is the same for the line of W = 3.
【0048】これに対して、W=3より大きい幅4の線
の場合の処理結果は、上記図9に対応する図10に示す
ように、同図(C)に示される膨張処理後の状態が、2
つのエッジ領域が繋って1つの大きなエッジ領域となっ
ている。On the other hand, in the case of a line having a width 4 larger than W = 3, as shown in FIG. 10 corresponding to FIG. 9, the state after the expansion processing shown in FIG. But 2
One edge region is connected to form one large edge region.
【0049】このように、2つのエッジ領域が1つに繋
がった場合には、その部分では収縮処理が行われないよ
うになっているため、収縮後のエッジ領域は図10
(D)のように、同図(B)で抽出された左側エッジ領
域の左端から右側エッジ領域の右端まで連続したものに
なり、この収縮後のエッジ領域の内側に入力画像の同図
(A)に示される線に相当する4つの●の画素が完全に
潰されて含まれているため、エッジも当然含まれている
ことになる。As described above, when the two edge regions are connected to one, the contraction process is not performed at that portion.
As shown in (D), the image is continuous from the left end of the left edge region extracted in FIG. (B) to the right end of the right edge region. 4) are completely crushed and included, corresponding to the line shown in ()), so that the edge is naturally included.
【0050】又、前記図9(A)の入力画像の線に比べ
十分に幅が広い17画素の場合は、前記図9、図10よ
り簡略化した図11に示すように、同図(B)の段階で
エッジを中心とする2L(5×2=10)の幅のエッジ
領域が抽出され、このエッジ領域に対して、N=3の膨
張処理を行っても、同図(C)に示すように左右両エッ
ジ領域は内側で繋がることがないため、次の収縮処理で
は各エッジ領域とも両側でN=3で収縮され、同図
(D)に示すように、上記(B)の場合と同一のエッジ
領域に戻る。この場合は、左右のエッジがそれぞれ対応
する左右のエッジ領域(網掛範囲)に完全に含まれるこ
とになる。In the case of 17 pixels which are sufficiently wider than the line of the input image in FIG. 9A, as shown in FIG. ), An edge region having a width of 2L (5 × 2 = 10) centered on the edge is extracted, and even if this edge region is subjected to an expansion process of N = 3, the result is shown in FIG. As shown in the figure, since both left and right edge regions are not connected on the inner side, in the next contraction process, each edge region is contracted on both sides by N = 3, and as shown in FIG. Return to the same edge area. In this case, the left and right edges are completely included in the corresponding left and right edge areas (shaded areas).
【0051】本実施形態によるエッジ領域抽出方法を、
前記図28に示した(A)の入力画像に適用すると、前
記図29〜31に相当する図12〜14に、エッジ領域
抽出、膨張、収縮の各処理結果(F)〜(H)をそれぞ
れ前の処理結果と併せて示したように、パラメータW以
下の細い線に当るdの幅の場合のみ、該線から離れた位
置にその線の幅に応じた幅のエッジ領域が抽出される。
その結果、上記図14から判るように、前記幅dの線の
場合のみ、そのエッジが収縮後のエッジ領域に含まれ
ず、それ以外の幅の広いものは、全てエッジがエッジ領
域に含まれることになる。The edge area extraction method according to the present embodiment
When applied to the input image of (A) shown in FIG. 28, the processing results (F) to (H) of edge region extraction, dilation, and erosion are shown in FIGS. As shown in conjunction with the previous processing result, only in the case of the width d corresponding to a thin line equal to or smaller than the parameter W, an edge region having a width corresponding to the width of the line is extracted at a position apart from the line.
As a result, as can be seen from FIG. 14, the edge is not included in the contracted edge region only in the case of the line having the width d, and the edge is included in the edge region in all other wide lines. become.
【0052】従って、本実施形態によれば、画像中の垂
直方向のエッジに基づいてエッジ領域を抽出できるが、
エッジに挾まれた平端部の幅が一定(=W)以下のとき
は、そのエッジをエッジ領域として抽出しないようにで
きることから、細い線を除き、Wを超える太さの線や通
常の絵柄についてはそのエッジ部分を含むエッジ領域を
抽出することができる。Therefore, according to the present embodiment, an edge region can be extracted based on a vertical edge in an image.
When the width of the flat end portion sandwiched between the edges is less than a fixed value (= W), the edge can be prevented from being extracted as an edge region. Can extract an edge region including the edge portion.
【0053】従って、画像処理により欠陥検査を行う際
に、入力した検査画像に対して本実施形態を適用するこ
とにより、平坦部及び細い筋状の欠陥を残したまま、絵
柄のエッジのみを除外するためのマスク画像を作成する
ことが可能となる。Therefore, when the defect inspection is performed by the image processing, the present embodiment is applied to the input inspection image, so that only the edges of the picture are removed while leaving the flat portion and the fine streak-like defect. It is possible to create a mask image for performing the operation.
【0054】これを、印刷絵柄を画像入力して得られた
原画像が、図15にイメージを示すように、太線のリン
グRと色模様Fからなる通常の絵柄と共に、微細なドク
ター筋Dを含んでいる場合に、該原画像に対して本発明
方法を適用して得られる最終的な収縮処理後のエッジ領
域画像は、図16に示すイメージのようになる。即ち、
前記図14の場合と同様に、通常の絵柄部分は、エッジ
を中心とするその近傍がエッジ領域ER(斜線部で示
す)として抽出されるが、ドクター筋Dの部分はエッジ
領域ERに含まれないことになる。これに対して従来の
一般的な方法を適用すれば、図17に示すようにドクタ
ー筋はエッジ領域に含まれてしまう。As shown in FIG. 15, the original image obtained by inputting the print pattern is used to form a fine doctor streak D together with a normal pattern consisting of a bold ring R and a color pattern F. If the original image is included, the edge region image after the final contraction process obtained by applying the method of the present invention to the original image is as shown in FIG. That is,
As in the case of FIG. 14, a normal picture portion around the edge is extracted as an edge region ER (shown by a hatched portion), but the portion of the doctor muscle D is included in the edge region ER. Will not be. On the other hand, if a conventional general method is applied, doctor streaks are included in the edge region as shown in FIG.
【0055】従って、上記図16のエッジ抽出画像をマ
スク画像として使用することにより、通常は検出されな
いような、印刷のドクター筋等の筋状欠陥を確実に検出
することができる。Therefore, by using the edge extracted image of FIG. 16 as a mask image, it is possible to reliably detect streak-like defects such as doctor streaks in printing that are not normally detected.
【0056】次に、本発明に係る第2実施形態について
説明する。Next, a second embodiment according to the present invention will be described.
【0057】本実施形態は、前記図4の膨張・収縮回数
計算部18で、収縮回数(画素数)P2 を、次の(2)
式で計算するようにした以外は、前記第1実施形態と実
質上同一である。In the present embodiment, the number of times of contraction (the number of pixels) P2 is calculated by the following equation (2) in the expansion / contraction number calculating section 18 shown in FIG.
It is substantially the same as the first embodiment except that the calculation is made by the formula.
【0058】 P2 =L−W+(W−1)/2+(W+1)/2 =P1 +(W+1)/2 …(2)P2 = L−W + (W−1) / 2 + (W + 1) / 2 = P1 + (W + 1) / 2 (2)
【0059】本実施形態においては、上記(2)式より
明らかなように、前記(1)式で示した第1実施形態の
収縮画素数P1 (=N)よりも(W+1)/2画素分だ
け更に収縮させる。これを、図18、図19を用いて以
下に説明する。In this embodiment, as is apparent from the above equation (2), the number of contracted pixels P1 (= N) of the first embodiment shown in the above equation (1) is (W + 1) / 2 pixels. Only shrink further. This will be described below with reference to FIGS.
【0060】図18は、幅W以下の平坦部からなる入力
画像に対して、前記図9(A)〜(D)と同様の処理を
施してエッジ領域を抽出した画像を模式的に示したもの
である。即ち、この図18は、図9(C)に相当するN
回膨張した画像から、前記第1実施形態の場合と同様に
P1 (=N)回収縮した、同図(D)の状態に相当す
る。FIG. 18 schematically shows an image in which an edge region is extracted by performing the same processing as in FIGS. 9A to 9D on an input image including a flat portion having a width W or less. Things. That is, FIG. 18 shows N
This corresponds to the state shown in FIG. 3D in which the image has been contracted P1 (= N) times in the same manner as in the first embodiment from the image that has been expanded.
【0061】本実施形態では、第1実施形態によれば、
上記図18に示した幅W以下の平坦部の左右近傍に抽出
されるエッジ領域ERを、更に(W+1)/2画素分収
縮させることにより、図19に示すように消減させるよ
うにしている。In the present embodiment, according to the first embodiment,
The edge region ER extracted near the left and right of the flat portion having the width W or less shown in FIG. 18 is further reduced by (W + 1) / 2 pixels as shown in FIG.
【0062】即ち、第1実施形態の場合よりも多くする
追加収縮回数(W+1)/2の計算根拠は、図18に示
されるエッジ領域ERの最大幅は、前記図5に示した抽
出原理からWであることから、これを両側から1画素ず
つ収縮させて消滅させるためにはW/2で足りるが、W
が奇数の場合を考慮して(W+1)/2としていること
にある。但し、この場合、端数は切り捨てる。That is, the basis for calculating the number of additional contractions (W + 1) / 2, which is larger than that in the first embodiment, is that the maximum width of the edge region ER shown in FIG. 18 is based on the extraction principle shown in FIG. Since it is W, W / 2 is enough to shrink it by one pixel from both sides to make it disappear.
Is set to (W + 1) / 2 in consideration of the odd number. However, in this case, the fraction is rounded down.
【0063】以上詳述した本実施形態によれば、前記第
1実施形態に比較して、幅がW以下の筋状の入力画像に
ついて、その両側に抽出されたエッジ領域を消滅させる
ことができる。According to the present embodiment described in detail above, it is possible to eliminate the edge regions extracted on both sides of a line-like input image having a width of W or less as compared with the first embodiment. .
【0064】従って、本実施形態により抽出したエッジ
領域を用いてマスク画像を作成する場合には、第1実施
形態の作用を示した前記図14(H)に相当する図20
と前記図16に相当する図21にそれぞれ示すように、
ドクター筋Dの両側には、エッジ領域が抽出されないよ
うにできることから、それだけ被検査画像において検査
の対象となる領域を広く取り、検査の信頼性を高めるこ
とが可能となる。Therefore, when a mask image is created using the edge region extracted according to the present embodiment, FIG. 20 corresponding to FIG. 14H showing the operation of the first embodiment.
And FIG. 21 corresponding to FIG.
Since the edge area can be prevented from being extracted on both sides of the doctor muscle D, the area to be inspected in the image to be inspected can be widened accordingly, and the reliability of the inspection can be improved.
【0065】次に、本発明に係る第3実施形態について
説明する。Next, a third embodiment according to the present invention will be described.
【0066】本実施形態は、前記図4の膨張・収縮回数
計算部18で、収縮回数(画素数)P3 を、次の(3)
式で計算るすようにした以外は、前記第1実施形態と実
質上同一である。In the present embodiment, the number of times of contraction (the number of pixels) P3 is calculated by the following (3)
It is substantially the same as the first embodiment, except that the calculation is made by the formula.
【0067】 P3 =L−W+(W−1)/2+(L−1) =P1 +(L−1) …(3)P3 = L−W + (W−1) / 2 + (L−1) = P1 + (L−1) (3)
【0068】本実施形態においては、上記(3)式より
明らかなように、前記(1)式で示した第1実施形態の
収縮画素数P1 (=N)よりも(L−1)画素分だけ更
に収縮させる。これを、図22、図23を用いて以下に
説明する。In this embodiment, as is apparent from the above equation (3), the number of contracted pixels P1 (= N) of the first embodiment shown in the above equation (1) is larger by (L-1) pixels. Only shrink further. This will be described below with reference to FIGS.
【0069】図22(A)は、幅W以下の平坦部からな
る入力画像に対して、前記図9(A)〜(D)と同様の
処理を施してエッジ領域ERを抽出した画像を模式的に
示した、前記図18と同一である。又、図22(B)
は、平坦部の幅がWより大きい入力画像について、前記
図10(A)〜(D)と実質上同一の処理を施した同図
(D)に相当し、図22(C)は、平坦部の幅がWより
十分に大きい入力画像について前記図11(A)〜
(D)と実質上同一の処理を施した同図(D)に相当す
る。FIG. 22A is a schematic diagram of an image obtained by performing the same processing as in FIGS. 9A to 9D on an input image including a flat portion having a width W or less and extracting an edge region ER. This is the same as FIG. FIG. 22 (B)
10D corresponds to FIG. 10D obtained by performing substantially the same processing as in FIGS. 10A to 10D on an input image having a width of the flat portion larger than W, and FIG. 11 (A) to 11 (A) to 11 (A) for an input image whose section width is sufficiently larger than W.
FIG. 14D corresponds to FIG. 14D in which substantially the same processing as that of FIG.
【0070】本実施形態では、前記第1実施形態でP1
回の収縮を行った状態に当る図22(A)〜(D)のそ
れぞれのエッジ領域ERに対して、前記(3)式で示し
たように、更に(L−1)画素分の収縮を行うことによ
り、対応する図23(A)〜(C)の状態にする。本実
施形態で採用する追加収縮回数(L−1)は、エッジ領
域を平坦部のエッジに対してぎりぎりまで小さくする収
縮画素数に当る。In the present embodiment, P1 is used in the first embodiment.
For each of the edge regions ER in FIGS. 22A to 22D corresponding to the state where the contraction has been performed twice, the contraction of (L-1) pixels is further performed as shown in the above equation (3). By doing so, the state shown in FIGS. 23A to 23C is obtained. The number of additional contractions (L-1) adopted in the present embodiment corresponds to the number of contracted pixels for making the edge area extremely small with respect to the edge of the flat part.
【0071】本実施形態のように、前記第1実施形態の
P1 より(L−1)回だけ余分に収縮させる場合には、
前記第2実施形態の場合と同様に、幅がW以下の平坦部
については、W≦Lであることから、図23(A)のよ
うにエッジ領域ERを消滅させることができる。又、図
22(B)のように、平坦部の幅がWを超えている場
合、図23(B)に示すように、膨張処理した結果1つ
に繋ったエッジ領域ERの左右端それぞれをエッジより
1画素目まで収縮させることができるため、エッジ領域
をエッジをカバーできる最小の大きさにすることができ
る。又、図22(C)のように、平坦部の幅がWより十
分に大きい場合は、図23(C)に示すように、エッジ
の前後1画素の部分にのみエッジ領域が抽出されるよう
にできる。As in the present embodiment, when the contraction is performed (L-1) times more than P1 in the first embodiment,
As in the case of the second embodiment, for a flat portion having a width of W or less, since W ≦ L, the edge region ER can be eliminated as shown in FIG. In addition, when the width of the flat portion exceeds W as shown in FIG. 22B, as shown in FIG. 23B, each of the left and right ends of the edge region ER connected to one as a result of the expansion process Can be reduced to the first pixel from the edge, so that the edge area can be made the minimum size that can cover the edge. When the width of the flat portion is sufficiently larger than W as shown in FIG. 22C, the edge region is extracted only in one pixel before and after the edge as shown in FIG. Can be.
【0072】一般に、抽出したエッジ領域を用いてマス
ク画像を作成する場合、エッジ領域(マスク部分)は、
被検査画像において検査対象から除外する領域を意味す
るため、検査対象となる領域を広くして検査の信頼性を
高めるためには、エッジ領域は被検査画像中のエッジを
きちんとマスクした上で可能な限り(その面積が)狭い
ことが理想的である。Generally, when a mask image is created using the extracted edge region, the edge region (mask portion)
Since the area to be inspected in the image to be inspected means the area to be excluded from inspection, the edge area can be created by masking the edges in the image to be inspected in order to increase the area to be inspected and increase the reliability of the inspection. Ideally, it should be as small as possible.
【0073】従って、本実施形態は、一般的なエッジ抽
出方法として最もふさわしく、本実施形態により抽出し
たエッジ領域を用いることにより、理想的な検査用のマ
スク画像を作成することができる。Therefore, this embodiment is most suitable as a general edge extraction method, and an ideal inspection mask image can be created by using the edge region extracted according to this embodiment.
【0074】その結果、本実施形態によれば、前記第2
実施形態の場合の前記図20及び図21にそれぞ相当す
る図24及び図25に示すように、幅W以下のドクター
筋Dについては、前記第2実施形態と同様にエッジ領域
は抽出されず、幅W以上の通常の絵柄については、前記
第2実施形態より一段と狭いエッジ領域ERを抽出する
ことが可能となる。As a result, according to the present embodiment, the second
As shown in FIGS. 24 and 25 corresponding to FIGS. 20 and 21, respectively, in the case of the embodiment, the edge area is not extracted for the doctor muscle D having the width W or less as in the second embodiment. For a normal pattern having a width W or more, it is possible to extract an edge region ER that is much narrower than in the second embodiment.
【0075】図26は、本発明に係る第4実施形態のエ
ッジ領域抽出装置の概略構成を示すブロック図である。FIG. 26 is a block diagram showing a schematic configuration of an edge area extracting apparatus according to a fourth embodiment of the present invention.
【0076】本実施形態は、入力画像がカラーの場合に
適用されるものであり、前記図4に示した1つのエッジ
領域抽出部14及びエッジ領域記憶部16が、入力画像
記憶部10から入力されるR、G、Bの各画像に対応す
る14A〜14Cで示す3つのエッジ領域抽出部と、各
抽出画像を記憶する16A〜16Cで示す3つのエッジ
領域記憶部に増設されていると共に、該記憶部16A〜
16Cから入力されるR、G、Bの各抽出画像を合成す
るエッジ合成部28を付設した以外は、前記第1〜3実
施形態と実質的に同一である。The present embodiment is applied to the case where the input image is a color image. The one edge area extracting section 14 and the edge area storing section 16 shown in FIG. And three edge region extraction units indicated by 14A to 14C corresponding to the R, G, and B images, and three edge region storage units indicated by 16A to 16C that store the extracted images. The storage units 16A-
It is substantially the same as the first to third embodiments, except that an edge synthesizing unit 28 for synthesizing the R, G, and B extracted images input from 16C is added.
【0077】この実施形態によれば、R、G、Bの各画
像毎にエッジ抽出処理ができるため、対象の入力画像が
カラーの場合でも、迅速且つ正確に、前記第1〜3実施
形態の場合と同様にエッジ領域の抽出を行うことができ
る。According to this embodiment, since the edge extraction processing can be performed for each of the R, G, and B images, even if the target input image is a color image, the processing can be performed quickly and accurately according to the first to third embodiments. As in the case, the extraction of the edge region can be performed.
【0078】図27は、本発明に係る第5実施形態のエ
ッジ領域抽出装置の概略構成を示すブロック図である。FIG. 27 is a block diagram showing a schematic configuration of an edge area extracting apparatus according to a fifth embodiment of the present invention.
【0079】本実施形態は、上記第4実施形態と同様に
カラー画像に適用されるものであり、ここでは、エッジ
領域抽出部14A〜14C、エッジ領域記憶部16A〜
16Cと共に、20A〜20C、22A〜22C、24
A〜24C、26A〜26Cの符号でそれぞれ示したよ
うに、エッジ膨張部、エッジ膨張記憶部、エッジ収縮
部、出力画像記憶部の全てをR、G、Bの各画像に対応
させて増設し、最終的に得られる収縮画像を合成するた
めのエッジ合成部28を付設した以外は、前記第4実施
形態と実質的に同一である。This embodiment is applied to a color image similarly to the fourth embodiment. Here, the edge area extraction units 14A to 14C and the edge area storage units 16A to 16C are used.
20A-20C, 22A-22C, 24 with 16C
As indicated by reference numerals A to 24C and 26A to 26C, all of the edge expansion unit, the edge expansion storage unit, the edge contraction unit, and the output image storage unit are added in correspondence with the R, G, and B images. The fourth embodiment is substantially the same as the fourth embodiment except that an edge synthesizing unit 28 for synthesizing a finally obtained contracted image is added.
【0080】本実施形態によれば、各R、G、Bの画像
毎に全ての画像処理を行うことができるため、前記第4
実施形態より更に高精度でエッジ領域を抽出することが
できる。According to the present embodiment, all image processing can be performed for each of the R, G, and B images.
An edge region can be extracted with higher accuracy than in the embodiment.
【0081】以上、本発明について具体的に説明した
が、本発明は、前記実施形態に示したものに限られるも
のでなく、その要旨を逸脱しない範囲で種々変更可能で
ある。As described above, the present invention has been specifically described. However, the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the gist thereof.
【0082】例えば、前記実施形態では、パラメータと
してW=3、L=5の場合を示したが、これに限定され
る場合でなく、対象とする画像毎に適切なパラメータを
設定することができる。For example, in the above-described embodiment, the case where W = 3 and L = 5 has been described as a parameter. However, the present invention is not limited to this, and an appropriate parameter can be set for each target image. .
【0083】又、前記実施形態では垂直方向のエッジに
ついて説明したが、水平方向のエッジでも、又両方のエ
ッジでもよいことは言うまでもない。In the above-described embodiment, the vertical edge has been described. However, it goes without saying that the horizontal edge or both edges may be used.
【0084】[0084]
【発明の効果】以上説明したとおり、本発明によれば、
例えば印刷絵柄を画像入力した検査画像等の入力画像の
中から、画像信号の平坦部が所定の幅以下の場合にの
み、そのエッジが含まれないエッジ領域を抽出すること
ができる。As described above, according to the present invention,
For example, an edge region that does not include the edge can be extracted from an input image such as an inspection image into which a print pattern is input, only when the flat portion of the image signal is equal to or smaller than a predetermined width.
【図1】本発明における処理手順の概略を示すフローチ
ャートFIG. 1 is a flowchart showing an outline of a processing procedure in the present invention.
【図2】画像信号とエッジ領域との関係を概念的に示す
線図FIG. 2 is a diagram conceptually showing a relationship between an image signal and an edge region.
【図3】垂直方向、水平方向のエッジを模式的に示す説
明図FIG. 3 is an explanatory view schematically showing vertical and horizontal edges.
【図4】本発明に係る第1実施形態のエッジ領域抽出装
置の概略構成を示すブロック図FIG. 4 is a block diagram showing a schematic configuration of an edge region extraction device according to the first embodiment of the present invention;
【図5】エッジ領域の抽出原理を模式的に示す説明図FIG. 5 is an explanatory diagram schematically showing the principle of extracting an edge region.
【図6】膨張・収縮回数の計算方法を示す説明図FIG. 6 is an explanatory diagram showing a method of calculating the number of times of expansion and contraction.
【図7】エッジ領域の膨張処理の原理を示す説明図FIG. 7 is an explanatory view showing the principle of the edge area expansion processing;
【図8】エッジ領域の収縮処理の原理を示す説明図FIG. 8 is an explanatory diagram showing the principle of the contraction processing of the edge area.
【図9】細線に対するエッジ領域抽出の処理手順を示す
説明図FIG. 9 is an explanatory diagram showing a processing procedure for extracting an edge region from a thin line.
【図10】中線に対するエッジ領域抽出の処理手順を示
す説明図FIG. 10 is an explanatory diagram showing a processing procedure for extracting an edge region with respect to a center line.
【図11】太線に対するエッジ領域抽出の処理手順を示
す説明図FIG. 11 is an explanatory diagram showing a processing procedure for extracting an edge region from a thick line;
【図12】入力画像と、本発明によるエッジ領域の抽出
画像を示す説明図FIG. 12 is an explanatory diagram showing an input image and an extracted image of an edge region according to the present invention.
【図13】上記抽出画像と、その膨張処理画像を示す説
明図FIG. 13 is an explanatory diagram showing the extracted image and its expanded image.
【図14】上記膨張処理画像と、その収縮処理画像を示
す説明図FIG. 14 is an explanatory diagram showing the expansion processing image and its contraction processing image.
【図15】印刷絵柄を画像入力して得られた原画像を模
式的に示す説明図FIG. 15 is an explanatory view schematically showing an original image obtained by inputting a print pattern.
【図16】上記原画像から本発明により抽出したエッジ
領域を概念的に示す説明図FIG. 16 is an explanatory view conceptually showing an edge region extracted from the original image according to the present invention.
【図17】上記原画像から従来法により抽出したエッジ
領域を概念的に示す説明図FIG. 17 is an explanatory view conceptually showing an edge region extracted from the original image by a conventional method.
【図18】幅W以下の平坦部について抽出されたエッジ
領域のP1 回収縮後の状態を示す説明図FIG. 18 is an explanatory diagram showing a state after a P1 contraction of an edge region extracted for a flat portion having a width of not more than W;
【図19】第2実施形態の作用を示す説明図FIG. 19 is an explanatory view showing the operation of the second embodiment.
【図20】第2実施形態の効果を示す説明図FIG. 20 is an explanatory diagram showing the effect of the second embodiment.
【図21】第2実施形態の効果を示す他の説明図FIG. 21 is another explanatory diagram showing the effect of the second embodiment.
【図22】幅が異なる平坦部について抽出されたエッジ
領域のP1 回収縮後の状態を示す説明図FIG. 22 is an explanatory diagram showing a state after P1 times contraction of an edge region extracted for flat portions having different widths;
【図23】第3実施形態の作用を示す説明図FIG. 23 is an explanatory view showing the operation of the third embodiment.
【図24】第3実施形態の効果を示す説明図FIG. 24 is an explanatory diagram showing an effect of the third embodiment.
【図25】第3実施形態の効果を示す他の説明図FIG. 25 is another explanatory diagram showing the effect of the third embodiment.
【図26】本発明に係る第4実施形態のエッジ領域抽出
装置の概略構成を示すブロック図FIG. 26 is a block diagram illustrating a schematic configuration of an edge region extraction device according to a fourth embodiment of the present invention;
【図27】本発明に係る第5実施形態のエッジ領域抽出
装置の概略構成を示すブロック図FIG. 27 is a block diagram illustrating a schematic configuration of an edge region extraction device according to a fifth embodiment of the present invention;
【図28】入力画像の一例と、その1次元の画像入力信
号を模式的に示す説明図FIG. 28 is an explanatory diagram schematically showing an example of an input image and a one-dimensional image input signal thereof.
【図29】上記入力画像と、従来法によるエッジ領域抽
出画像を示す説明図FIG. 29 is an explanatory diagram showing the input image and an edge region extracted image according to a conventional method.
【図30】上記抽出画像とその膨張処理画像を示す説明
図FIG. 30 is an explanatory view showing the extracted image and its expanded image.
【図31】上記膨張処理画像と、その収縮処理画像を示
す説明図FIG. 31 is an explanatory view showing the expansion processing image and its contraction processing image.
10…入力画像記憶部 12…パラメータ記憶部 14…エッジ領域抽出部 16…エッジ領域記憶部 18…膨張・収縮回数算出部 20…エッジ膨張部 22…エッジ膨張記憶部 24…エッジ収縮部 26…出力画像記憶部 D…ドクター筋 ER…エッジ領域 DESCRIPTION OF SYMBOLS 10 ... Input image storage part 12 ... Parameter storage part 14 ... Edge area extraction part 16 ... Edge area storage part 18 ... Expansion / contraction frequency calculation part 20 ... Edge expansion part 22 ... Edge expansion storage part 24 ... Edge contraction part 26 ... Output Image storage D: Doctor muscle ER: Edge area
─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───
【手続補正書】[Procedure amendment]
【提出日】平成9年11月7日[Submission date] November 7, 1997
【手続補正1】[Procedure amendment 1]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0020[Correction target item name] 0020
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【0020】図2(A)は、暗い背景に、垂直方向に明
るい線分が表示されている画像の場合に当り、同図
(B)は、その逆の場合に当る。いずれの場合も、画素
値が急激に変化する位置に当る画素がエッジであり、該
エッジは画素値が余り変化しない平坦部が、明るさの異
なる別の平坦部と接する場合、その境界に存在する。[0020] FIG. 2 (A), a dark background, per the case of the image bright line in the vertical direction thatis displayed, FIG. (B) strikes the vice versa. In any case, a pixel corresponding to a position where the pixel value changes rapidly is an edge, and the edge exists at a boundary when a flat portion where the pixel value does not change much contacts another flat portion having different brightness. I do.
【手続補正2】[Procedure amendment 2]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0047[Correction target item name] 0047
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【0047】この例では、上記図9(C)から判るよう
に、網掛の二重丸で示した膨張処理後のエッジ領域が、
互いに繋っていないため、各エッジ領域とも両側で収縮
処理が行われる。その結果、最終的に、図9(D)に示
すように、線の両側のエッジに当る●から離れた位置に
エッジ領域が抽出される。In this example, as can be seen from FIG. 9 (C), the edge area after the expansion processing indicated by the shaded double circle is
Since no Tsunagi'each other, shrunk on both sides in each edge region is performed. As a result, as shown in FIG. 9D, an edge region is finally extracted at a position away from ● corresponding to the edges on both sides of the line.
【手続補正3】[Procedure amendment 3]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0066[Correction target item name] 0066
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【0066】本実施形態は、前記図4の膨張・収縮回数
計算部18で、収縮回数(画素数)P3 を、次の(3)
式で計算するようにした以外は、前記第1実施形態と実
質上同一である。In the present embodiment, the number of times of contraction (the number of pixels) P3 is calculated by the following (3)
It is substantially the same as the first embodiment except that the calculation is madeby the formula.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 林 謙太 東京都新宿区市谷加賀町一丁目1番1号 大日本印刷株式会社内 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Kenta Hayashi 1-1-1 Ichigaya Kagacho, Shinjuku-ku, Tokyo Dai Nippon Printing Co., Ltd.
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP26837596AJP3816994B2 (en) | 1996-10-09 | 1996-10-09 | Edge region extraction method and apparatus |
| EP97943155AEP0872810A4 (en) | 1996-10-09 | 1997-10-08 | METHOD AND APPARATUS FOR DETECTING STRIPE DEFECTS On PRINTED MATTER |
| PCT/JP1997/003611WO1998015919A1 (en) | 1996-10-09 | 1997-10-08 | Method and apparatus for detecting stripe defects of printed matter |
| US09/077,553US6366358B1 (en) | 1996-10-09 | 1997-10-08 | Method and apparatus for detecting stripe defects of printed matter |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP26837596AJP3816994B2 (en) | 1996-10-09 | 1996-10-09 | Edge region extraction method and apparatus |
| Publication Number | Publication Date |
|---|---|
| JPH10116344Atrue JPH10116344A (en) | 1998-05-06 |
| JP3816994B2 JP3816994B2 (en) | 2006-08-30 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP26837596AExpired - Fee RelatedJP3816994B2 (en) | 1996-10-09 | 1996-10-09 | Edge region extraction method and apparatus |
| Country | Link |
|---|---|
| JP (1) | JP3816994B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011154699A (en)* | 2011-02-24 | 2011-08-11 | Nintendo Co Ltd | Image recognition program, image recognition device, image recognition system and image recognition method |
| US8571266B2 (en) | 2011-02-24 | 2013-10-29 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| US8600219B2 (en) | 2000-07-13 | 2013-12-03 | Sony Corporation | Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium |
| US8625898B2 (en) | 2011-02-24 | 2014-01-07 | Nintendo Co., Ltd. | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method |
| US8699749B2 (en) | 2011-02-24 | 2014-04-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| US8705869B2 (en) | 2011-02-24 | 2014-04-22 | Nintendo Co., Ltd. | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method |
| US8718325B2 (en) | 2011-02-24 | 2014-05-06 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| CN106313918A (en)* | 2015-07-01 | 2017-01-11 | 佳能株式会社 | Image processing apparatus and image processing method |
| JP2020052893A (en)* | 2018-09-28 | 2020-04-02 | ブラザー工業株式会社 | Image processing apparatus and computer program |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8600219B2 (en) | 2000-07-13 | 2013-12-03 | Sony Corporation | Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium |
| JP2011154699A (en)* | 2011-02-24 | 2011-08-11 | Nintendo Co Ltd | Image recognition program, image recognition device, image recognition system and image recognition method |
| US8571266B2 (en) | 2011-02-24 | 2013-10-29 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| US8625898B2 (en) | 2011-02-24 | 2014-01-07 | Nintendo Co., Ltd. | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method |
| US8699749B2 (en) | 2011-02-24 | 2014-04-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| US8705869B2 (en) | 2011-02-24 | 2014-04-22 | Nintendo Co., Ltd. | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method |
| US8705868B2 (en) | 2011-02-24 | 2014-04-22 | Nintendo Co., Ltd. | Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method |
| US8718325B2 (en) | 2011-02-24 | 2014-05-06 | Nintendo Co., Ltd. | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method |
| CN106313918A (en)* | 2015-07-01 | 2017-01-11 | 佳能株式会社 | Image processing apparatus and image processing method |
| JP2017017549A (en)* | 2015-07-01 | 2017-01-19 | キヤノン株式会社 | Image processing apparatus and image processing method |
| JP2020052893A (en)* | 2018-09-28 | 2020-04-02 | ブラザー工業株式会社 | Image processing apparatus and computer program |
| Publication number | Publication date |
|---|---|
| JP3816994B2 (en) | 2006-08-30 |
| Publication | Publication Date | Title |
|---|---|---|
| WO1998015919A1 (en) | Method and apparatus for detecting stripe defects of printed matter | |
| US9042649B2 (en) | Color document image segmentation and binarization using automatic inpainting | |
| US7826675B2 (en) | Feature-aware image defect removal | |
| EP1400922B1 (en) | Print inspection method | |
| CN110849909A (en) | Inspection apparatus, image forming apparatus, and inspection method | |
| JP2011076204A (en) | Method and apparatus for inspecting printed matter | |
| JP7350637B2 (en) | High-speed image distortion correction for image inspection | |
| WO2020050828A1 (en) | Optical flow maps | |
| JPH10116344A (en) | Edge region extraction method and apparatus | |
| CN115170525A (en) | Image difference detection method and device | |
| WO2012082132A1 (en) | Method and system for determining void pantograph settings | |
| KR101022187B1 (en) | Substrate inspection device | |
| JP3902823B2 (en) | Streak defect inspection method and apparatus | |
| JP2008092447A (en) | Image processing apparatus, image output device, and image processing method | |
| US20100067785A1 (en) | Image processing apparatus, image forming apparatus and computer readable medium | |
| JP4507523B2 (en) | Printed matter inspection apparatus and printed matter inspection program | |
| JP3204876B2 (en) | Print inspection equipment | |
| JPH1148457A (en) | Stripe defect inspection method and apparatus | |
| JP7620842B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM | |
| JP2024034610A (en) | Image comparison method, image comparison device, and image comparison program | |
| JP3835898B2 (en) | Binary image creation method and apparatus, and streak defect inspection method and apparatus | |
| JP2004246110A (en) | Plate inspection apparatus, printing system, method for inspecting printed data on plate, and program | |
| JPH07186375A (en) | Inspection method for printed matter | |
| JPH0624014B2 (en) | Gray image processing method | |
| JPH11242746A (en) | Device for detecting defect of image and method therefor |
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20060314 | |
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20060511 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20060606 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20060609 | |
| R150 | Certificate of patent or registration of utility model | Free format text:JAPANESE INTERMEDIATE CODE: R150 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20090616 Year of fee payment:3 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20100616 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20110616 Year of fee payment:5 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20110616 Year of fee payment:5 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120616 Year of fee payment:6 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120616 Year of fee payment:6 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20130616 Year of fee payment:7 | |
| LAPS | Cancellation because of no payment of annual fees |