Movatterモバイル変換


[0]ホーム

URL:


JPH1054709A - Three-dimensional image recognizing device with microscope - Google Patents

Three-dimensional image recognizing device with microscope

Info

Publication number
JPH1054709A
JPH1054709AJP8211652AJP21165296AJPH1054709AJP H1054709 AJPH1054709 AJP H1054709AJP 8211652 AJP8211652 AJP 8211652AJP 21165296 AJP21165296 AJP 21165296AJP H1054709 AJPH1054709 AJP H1054709A
Authority
JP
Japan
Prior art keywords
image data
image
dimensional
microscope
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8211652A
Other languages
Japanese (ja)
Other versions
JP3855244B2 (en
Inventor
Masaharu Nakamura
正治 中村
Hideo Takahashi
秀夫 高橋
Tomoyuki Tanaka
知行 田中
Hodaka Ikeda
穂高 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNO HORON KK
Original Assignee
TECHNO HORON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNO HORON KKfiledCriticalTECHNO HORON KK
Priority to JP21165296ApriorityCriticalpatent/JP3855244B2/en
Publication of JPH1054709ApublicationCriticalpatent/JPH1054709A/en
Application grantedgrantedCritical
Publication of JP3855244B2publicationCriticalpatent/JP3855244B2/en
Anticipated expirationlegal-statusCritical
Expired - Fee Relatedlegal-statusCriticalCurrent

Links

Classifications

Landscapes

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional image recognizing device using microscopes capable of quantitatively recognizing the three-dimensional feature of an object. SOLUTION: An inspection object fixed on an XY stage is photographed by CCD cameras 22A, 22B via microscopes 20A, 20B in the right and left directions, and the right and left image data are received to detect at which position on the right and left image data the prescribed position of the object is projected. The three-dimensional coordinates of the prescribed position of the object are calculated based on the projected position. The geometrical positions of microscope optical systems must be accurately oriented before measurement, lattice stripes accurately set with sizes are projected on the object on the ideal plane, the lattice stripes are photographed by CCD cameras 22A, 22B, and the position of the lattice point on an image is measured. Orientation factors are determined based on the position of the lattice point on the image and the three-dimensional coordinates of the lattice point on the object.

Description

Translated fromJapanese
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は顕微鏡を用いた3次
元画像認識装置に係り、特に左右2つの顕微鏡を介して
撮像された画像データに基づいて3次元測定を行う顕微
鏡を用いた3次元画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image recognition apparatus using a microscope, and more particularly, to a three-dimensional image using a microscope that performs three-dimensional measurement based on image data taken through two microscopes on the left and right. It relates to a recognition device.

【0002】[0002]

【従来の技術】従来、画像処理を応用した半導体の製造
プロセスにおける検査装置は、単一の方向から顕微鏡を
通して撮像された画像データに対して各種の画像処理を
行って良否判定を行う方法か、或いは、リファレンスと
して良好な画像データを登録して、そのリファレンスを
検査する対象物の画像データと比較処理することにより
良否判定を行う方法のどちらかの方法を採用している。
2. Description of the Related Art Conventionally, an inspection apparatus in a semiconductor manufacturing process to which image processing is applied is a method of performing various types of image processing on image data taken through a microscope from a single direction to determine whether or not the image data is acceptable. Alternatively, one of the methods of registering good image data as a reference and comparing the reference with the image data of an object to be inspected to make a quality judgment is adopted.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、リード
フレームの曲がりと欠陥やボンディングワイヤー等の3
次元的な対象については満足な検査結果を得ることが出
来なかった。現在、半導体製造アセンプリプロセスにお
いては対象物の3次元的特性を画像処理で検査する装置
はなく、実際のラインでは人間のオペレータにより実体
顕微鏡を用いたマニュアル判定を行っており、自動化が
大変に遅れている。
However, bending and defects of the lead frame and defects such as bonding wires and the like may occur.
Satisfactory inspection results could not be obtained for dimensional objects. At present, there is no device for inspecting the three-dimensional characteristics of an object by image processing in the semiconductor manufacturing assembly process. In an actual line, a human operator performs a manual judgment using a stereomicroscope, and automation is very difficult. Running late.

【0004】また、ウェハ等の半導体製品には表面に何
らかのパターンが存在し、そのパターン自身も同一の製
造プロセスで処理されても同一のパターンとして形成さ
れるとはかぎらず、シミや汚れ、欠陥が発生する。その
ため、単一方向から撮像した画像データを用いた検査装
置においては検査すべき対象の特徴を画像データの中か
ら抽出することが大変困難である。
Also, semiconductor products such as wafers have some pattern on the surface, and even if the pattern itself is processed in the same manufacturing process, it is not always formed as the same pattern. Occurs. Therefore, it is very difficult for an inspection apparatus using image data captured from a single direction to extract a feature of a target to be inspected from the image data.

【0005】本発明はこのような事情に鑑みてなされた
もので、検査対象物の3次元的な特徴を定量認識するこ
とができる顕微鏡を用いた3次元画像認識装置を提供す
ることを目的とする。
The present invention has been made in view of such circumstances, and has as its object to provide a three-dimensional image recognition apparatus using a microscope capable of quantitatively recognizing three-dimensional characteristics of an inspection object. I do.

【0006】[0006]

【課題を解決するための手段】本発明は上記目的を達成
するために、第1の光軸方向から対象物の検査領域を拡
大して撮像し、第1の画像データを得る第1の顕微鏡
と、前記第1の光軸方向と異なる第2の光軸方向から前
記対象物の検査領域と同一の検査領域を拡大して撮像
し、第2の画像データを得る第2の顕微鏡と、予め複数
点の3次元座標が決定されている基準対象物を前記第
1、第2の顕微鏡によって撮像し、該第1、第2の顕微
鏡によって得られた第1、第2の画像データから前記複
数点に対応する前記第1、第2の画像データ上の位置を
測定し、該複数点に対応する前記第1、第2の画像デー
タ上の位置と前記複数点の3次元座標とから前記第1、
第2の顕微鏡の標定要素を決定する標定要素決定手段
と、前記第1、第2の画像データ上の対応する位置及び
前記標定要素決定手段によって決定された前記第1、第
2の顕微鏡の標定要素に基づいて前記対象物の所定位置
の3次元座標を算出する3次元座標算出手段と、からな
ることを特徴としている。
In order to achieve the above object, the present invention provides a first microscope which obtains first image data by enlarging and imaging an inspection area of an object from a first optical axis direction. A second microscope that enlarges and captures the same inspection region as the inspection region of the object from a second optical axis direction different from the first optical axis direction to obtain second image data; A reference object in which three-dimensional coordinates of a plurality of points are determined is imaged by the first and second microscopes, and the plurality of images are obtained from first and second image data obtained by the first and second microscopes. Measuring a position on the first and second image data corresponding to a point; and determining a position on the first and second image data corresponding to the plurality of points and three-dimensional coordinates of the plurality of points. 1,
Orientation element determining means for determining an orientation element of a second microscope, and a corresponding position on the first and second image data and orientation of the first and second microscopes determined by the orientation element determining means And three-dimensional coordinate calculating means for calculating three-dimensional coordinates of a predetermined position of the object based on the element.

【0007】本発明によれば、対象物を左右2方向から
第1、第2の顕微鏡によって拡大して撮像し、第1、第
2の画像データを得る。そして、この第1、第2の画像
データ上の対応する位置を検出してこの対応する位置か
ら前記対象物の所定位置の3次元座標を算出する。その
際、初期設定として予め複数点の3次元座標が決定され
ている基準対象物を前記第1、第2の顕微鏡によって撮
像し、これによって得られた第1、第2の画像データか
ら前記複数点に対応する前記第1、第2の画像データ上
の位置を測定する。そして、この測定によって得られた
複数点に対応する前記第1、第2の画像データ上の位置
と前記複数点の3次元座標とから前記第1、第2の顕微
鏡の標定要素を決定する。これにより、対象物の3次元
的な特徴を顕微鏡を用いて精度良く定量認識することが
できる。
According to the present invention, an object is magnified and imaged from the left and right directions by the first and second microscopes to obtain first and second image data. Then, corresponding positions on the first and second image data are detected, and three-dimensional coordinates of a predetermined position of the object are calculated from the corresponding positions. At this time, the first and second microscopes capture an image of a reference object in which three-dimensional coordinates of a plurality of points are determined in advance as initial settings, and the plurality of three-dimensional coordinates are obtained from the first and second image data obtained thereby. A position corresponding to a point on the first and second image data is measured. Then, the orientation elements of the first and second microscopes are determined from the positions on the first and second image data corresponding to the plurality of points obtained by the measurement and the three-dimensional coordinates of the plurality of points. This makes it possible to accurately and quantitatively recognize the three-dimensional characteristics of the object using the microscope.

【0008】[0008]

【発明の実施の形態】以下添付図面に従って本発明に係
る顕微鏡を用いた3次元画像認識装置について詳説す
る。図1は本発明の3次元画像認識装置の一実施の形態
を示したシステム構成図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional image recognition apparatus using a microscope according to the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a system configuration diagram showing an embodiment of the three-dimensional image recognition device of the present invention.

【0009】同図に示すように3次元画像認識装置は、
XYステージ10と、画像処理装置を搭載したパソコン
12(パーソナルコンピュータ)と、検査対象物を照明
する照明用ランプ14と、格子縞を投影する格子縞投影
用ランプ16と、前記ランプのオン・オフ及び明るさを
制御する照明コントローラ18と、前記XYステージ1
0の上方の左右2方向の位置に固定された顕微鏡20
A、20Bと、前記左右の顕微鏡20A、20Bのそれ
ぞれの接眼部に設置されたCCDカメラ22A、22B
と、から構成される。
[0009] As shown in FIG.
An XY stage 10, a personal computer 12 (personal computer) equipped with an image processing device, an illumination lamp 14 for illuminating an inspection object, a lattice fringe projection lamp 16 for projecting lattice fringes, and ON / OFF and brightness of the lamps The XY stage 1
Microscope 20 fixed at two positions in the left and right directions above 0
A, 20B and CCD cameras 22A, 22B installed in the respective eyepieces of the left and right microscopes 20A, 20B.
And

【0010】上記XYステージ10は、検査対象物(以
下、単に対象物という)をステージ上に固定し、互いに
直交するX軸及びY軸の方向に対象物を移動させて、上
記顕微鏡20A、20Bによって対象物の検査対象領域
を観察できる位置に調整する。上記顕微鏡20A、20
Bは、XYステージ10上に固定された対象物の検査対
象領域を左右2方向から拡大する。
The XY stage 10 fixes an inspection object (hereinafter, simply referred to as an object) on the stage and moves the object in directions of the X axis and the Y axis which are orthogonal to each other. Is adjusted to a position where the inspection target area of the target object can be observed. The microscope 20A, 20
B enlarges the inspection target area of the object fixed on the XY stage 10 from two directions in the left and right directions.

【0011】そして、上記CCDカメラ22A、22B
は、左右の顕微鏡20A、20Bによって拡大された検
査対象領域の像を撮像する。図2は上記3次元画像認識
装置のハードウェア構成図である。同図に示すように、
上記3次元画像認識装置は、装置制御部30(パソコン
12を含む)、画像処理部32、上記各種装置から構成
される。
The CCD cameras 22A and 22B
Captures an image of the inspection target area enlarged by the left and right microscopes 20A and 20B. FIG. 2 is a hardware configuration diagram of the three-dimensional image recognition device. As shown in the figure,
The three-dimensional image recognition device includes a device control unit 30 (including the personal computer 12), an image processing unit 32, and the various devices.

【0012】上記装置制御部30は、MPU30A、照
明コントローラ18のD/Aコンバータ30B、XYス
テージ10のXモータ10A、Yモータ10Bを駆動制
御するモータコントローラ30C、各種センサの入出力
信号を制御するI/Oコントローラ30Dから構成さ
る。MPU30Aはプログラム動作し、バス34で接続
された各装置にコントロール信号を出力し、装置全体を
総括的に制御する。
The device control unit 30 controls the MPU 30A, the D / A converter 30B of the illumination controller 18, the motor controller 30C for driving and controlling the X motor 10A and the Y motor 10B of the XY stage 10, and the input / output signals of various sensors. It comprises an I / O controller 30D. The MPU 30A performs a program operation, outputs a control signal to each device connected via the bus 34, and controls the entire device as a whole.

【0013】D/Aコンバータ30Bは、MPU30A
から入力したコントロール信号をアナログ信号に変換す
るとともに、アナログ信号を照明用ランプ14の電源3
6及び格子縞投影用ランプ16の電源38を制御し、照
明用ランプ14及び格子縞投影用ランプ16のオン・オ
フ及び明るさの制御を行う。モータコントローラ30C
は、MPU30Aから入力したコントロール信号に従っ
て、XYステージ10のX方向及びY方向の移動を行う
Xモータ10A、Yモータ10Bの駆動制御を行うとと
もに、Xモータ10A、Yモータ10Bの駆動量からX
Yステージ10の位置を示す位置信号をMPU30Aに
出力する。
The D / A converter 30B is an MPU 30A
Is converted into an analog signal and the analog signal is supplied to the power supply 3 of the lighting lamp 14.
6 and the power supply 38 of the checkerboard projection lamp 16 are controlled to control the on / off and brightness of the illumination lamp 14 and the checkerboard projection lamp 16. Motor controller 30C
Controls the driving of the X motor 10A and the Y motor 10B that move the XY stage 10 in the X direction and the Y direction according to the control signal input from the MPU 30A, and performs X control based on the driving amounts of the X motor 10A and the Y motor 10B.
A position signal indicating the position of the Y stage 10 is output to the MPU 30A.

【0014】上記画像処理部34は、画像メモリ34
A、画像演算処理部34B、カメラI/F34Cとから
構成され、上記装置制御部30とバス34によって接続
される。上記カメラI/F34Cは、左右の顕微鏡20
A、20Bに設置されたCCDカメラ22A、22Bの
画像取り込みタイミングを同期させてCCDカメラ22
A、22Bから画像信号を取り込むとともに、MPU3
0Aから入力したコントロール信号に従って入力した画
像信号を画像データとして画像メモリ34Aに出力す
る。
The image processing unit 34 includes an image memory 34
A, an image operation processing unit 34B, and a camera I / F 34C, which are connected to the device control unit 30 by a bus 34. The camera I / F 34C is connected to the left and right microscopes 20.
A, 20B, the CCD cameras 22A, 22B set in synchronization with the image capturing timing.
A, 22B, and MPU3
The image signal input according to the control signal input from 0A is output to the image memory 34A as image data.

【0015】画像メモリ34Aは、カメラI/F34C
を介してCCDカメラ22A、22Bから取り込んだ画
像データを記録するとともに、画像演算処理部34Bに
よって処理された画像データを記録する。画像演算処理
部34Bは、MPU30Aから入力したコントロール信
号に従って、上記画像メモリ34Aに記録された画像デ
ータを読み出し、この画像データに基づいて各種画像演
算処理を行う。尚、この画像演算処理部は、通常の画像
処理関数以外に、左右の画像データの対応位置を抽出す
るための手法である正規化相関法の演算機能を有してい
る。
The image memory 34A has a camera I / F 34C.
And the image data taken in from the CCD cameras 22A and 22B, and the image data processed by the image operation processing unit 34B. The image calculation processing unit 34B reads out image data recorded in the image memory 34A according to a control signal input from the MPU 30A, and performs various image calculation processes based on the image data. Note that this image calculation processing unit has a calculation function of a normalized correlation method, which is a method for extracting corresponding positions of left and right image data, in addition to a normal image processing function.

【0016】図3は、上記3次元画像認識装置のソフト
ウェア構成図である。上記MPU30Aは、同図に示す
複数のシステムから成るソフトウェア構成によってプロ
グラム動作する。同図に示すように上記3次元画像認識
装置のソフトウェアのシステムは、上記左右の顕微鏡2
0A、20Bを介してCCDカメラ22A、22Bから
画像データの取り込み処理(画像データ取り込み処理)
を行う画像データ取込処理システム40、以下に詳説す
るキャリブレーションシステム42、標定システム4
4、3次元特性領域の抽出システム46、リードフレー
ム曲がり、欠陥検査システム48、ボンディングワイヤ
の形状測定システム50とから構成される。
FIG. 3 is a software configuration diagram of the three-dimensional image recognition device. The MPU 30A performs a program operation by a software configuration including a plurality of systems shown in FIG. As shown in the figure, the software system of the three-dimensional image recognition device is composed of the left and right microscopes 2.
Process of capturing image data from CCD cameras 22A and 22B via 0A and 20B (image data capturing process)
Data acquisition processing system 40 that performs the following, a calibration system 42, and an orientation system 4 described in detail below.
4, a system for extracting a three-dimensional characteristic area 46, a system for inspecting a bent or defective lead frame 48, and a system 50 for measuring the shape of a bonding wire

【0017】上記画像取込処理システム40、キャリブ
レーションシステム42、標定システム44、3次元特
性領域の抽出システム46は、3次元画像処理を行う上
で共通に必要とする基本システムであり、上記リードフ
レーム曲がり、欠陥検査システム48、ボンディングワ
イヤの形状測定システム50は、検査対象物により異な
る応用システムである。尚、応用システムは、検査対象
物及び検査内容に応じて適宜プログラムされるもので、
ここでは応用システムの一例としてボンディングワイヤ
の形状測定システム50を説明する。
The image capture processing system 40, the calibration system 42, the orientation system 44, and the extraction system 46 for the three-dimensional characteristic area are basic systems commonly required for performing three-dimensional image processing. The frame bending / defect inspection system 48 and the bonding wire shape measurement system 50 are application systems that differ depending on the inspection object. In addition, the application system is appropriately programmed according to the inspection object and the inspection content.
Here, a bonding wire shape measuring system 50 will be described as an example of an applied system.

【0018】以上の基本システム及び応用システムは装
置全体を総括的に制御するシステム制御部52によって
実行され、これらのシステムを実行する際に演算処理関
数、画像処理関数、画像メモリが使用される。次に上述
の如く構成される上記3次元画像認識装置の作用につい
て説明する。まず、上記システム制御部52は、キャリ
ブレーションシステム42によって顕微鏡20A、20
Bの光学系をキャリブレーションする。上記左右2つの
顕微鏡20A、20Bは、これらの顕微鏡20A、20
Bを介して対象物を撮像した場合に、左右の映像は現在
市販されている実体顕微鏡を使用すればほぼ同等の映像
が得られると期待できる。しかし、左右の画像データを
計測に使用する場合にはこれらの顕微鏡20A、20B
の光学系を正確にキャリブレーションする必要がある。
そこで、キャリブレーション用の格子パターンを用いて
左画像データ及び右画像データの画素の大きさを精度良
くキャリブレーションする。
The above basic system and applied system are executed by a system control unit 52 which controls the entire apparatus as a whole, and an arithmetic processing function, an image processing function, and an image memory are used when executing these systems. Next, the operation of the three-dimensional image recognition device configured as described above will be described. First, the system control unit 52 uses the calibration system 42 to control the microscopes 20A and 20A.
Calibrate the optical system of B. The two right and left microscopes 20A, 20B are connected to these microscopes 20A, 20B.
When the object is imaged through B, it can be expected that the left and right images will be substantially equivalent if a commercially available stereo microscope is used. However, when the left and right image data are used for measurement, these microscopes 20A, 20B
It is necessary to accurately calibrate the optical system.
Therefore, the pixel sizes of the left image data and the right image data are accurately calibrated using the calibration grid pattern.

【0019】図4はキャリブレーションの方法を示した
説明図である。図4(A)に示すリファレンスパターン
から構成される間隔の精度が十分によい格子縞をリファ
レンスワーク(理想平面から成る対象物)に垂直上方か
ら投影用ランプ16によって投影し、左右の顕微鏡20
A、20Bに設置されたCCDカメラ22A、22Bで
このリファレンスワークを撮像する。例えば、図4
(B)に示すようにリファレンスワークの平面に投影さ
れた格子縞を垂直上方に対して斜方θ方向から撮像する
とすると、図4(C)に示すような画像データが得られ
る。顕微鏡の光学系の一番最初の標定をかける時には、
スイングするステージで、図4(E)に示すようにキャ
リブレーション用のリファレンスワークを顕微鏡の光軸
と垂直になるように傾けて図4(D)のような画像デー
タを得る。このようにして得られた画像データ上の格子
の交点(以下、格子点と称す。)の位置(例えば、図4
(D)の1、2、3、25で示したような格子点の位
置)を正規化相関法を使用して1/10画素の精度で計
測する。このようにして計測した複数の格子点の位置
と、撮像方向の角度θをパラメータとして算出される画
像上の格子点の位置とから最小2乗法によって画面の各
格子が正しく正方格子になるようにアフィン変換する真
の角度θと歪みの補正値を算出する。これにより、この
角度θから格子縞を撮像した場合の画像上の各格子点の
位置が精度良く算出され、この格子点の位置から内部評
定要素である撮像面における光学系の歪みの補正値と1
画素の大きさを求めることができる。
FIG. 4 is an explanatory diagram showing a calibration method. A grid pattern composed of the reference patterns shown in FIG. 4A and having sufficiently high accuracy of the interval is projected onto a reference work (an object composed of an ideal plane) from vertically above by a projection lamp 16, and the right and left microscopes 20.
The reference work is imaged by the CCD cameras 22A and 22B installed on the reference works A and 20B. For example, FIG.
As shown in FIG. 4B, when the lattice fringes projected on the plane of the reference work are imaged in the oblique θ direction with respect to the vertically upward direction, image data as shown in FIG. 4C is obtained. When applying the first orientation of the microscope optics,
On a swinging stage, the reference work for calibration is tilted so as to be perpendicular to the optical axis of the microscope as shown in FIG. 4E, and image data as shown in FIG. 4D is obtained. The position of a grid intersection (hereinafter, referred to as a grid point) on the image data obtained in this manner (for example, FIG.
(D) The positions of the grid points as indicated by 1, 2, 3, and 25) are measured with an accuracy of 1/10 pixel using the normalized correlation method. From the positions of the plurality of grid points measured in this way and the positions of the grid points on the image calculated using the angle θ of the imaging direction as a parameter, each grid on the screen is correctly formed into a square grid by the least square method. The true angle θ to be affine-transformed and the distortion correction value are calculated. As a result, the position of each grid point on the image when a grid pattern is picked up from this angle θ is accurately calculated.
The size of the pixel can be determined.

【0020】また、顕微鏡光学系をフィールドでキャリ
ブレーションする場合は、顕微鏡設計時の角度θ(図4
(B)参照)を基に図5に示すように図4(A)のリフ
ァレンスパターン(図5(A))を、例えば、図4
(C)に示した格子点1、2、3、21、25における
格子縞のパターン図5(A1)、(A2)、(A3)、
(A21)、(A25)のように変換してから、図4
(C)(図5(C)参照)に対して正規化相関法を使用
して各格子点を測定する。尚、同一のライン上の図5
(A1)、(A2)、(A3)は、相似関係を保ったま
ま、大きさが変化し、同様に中心線より上と下では収束
点からの角度により横線の傾きが逆になった上、図5
(A21)と(A25)とは(A1)、(A2)、(A
3)と同様に相似関係になる。この関係を考慮して、例
えば、格子点1付近のサーチは(A1)を、格子点2付
近のサーチは(A2)を使用することにより、ずれの少
ない相関ができる。そして、測定した各格子点の値を基
にアフィン変換することによっても、内部評定要素であ
る撮像面における光学系の歪みの補正値と1画素の大き
さを求めることができる。
When the microscope optical system is calibrated in the field, the angle θ at the time of designing the microscope (FIG. 4)
As shown in FIG. 5, the reference pattern (FIG. 5A) of FIG.
5 (A1), (A2), (A3), and 5 (A1), (A2), (A3)
After conversion as shown in (A21) and (A25), FIG.
Each grid point is measured using the normalized correlation method for (C) (see FIG. 5C). FIG. 5 on the same line
(A1), (A2), and (A3) show that the magnitude changes while the similarity is maintained, and that the inclination of the horizontal line is reversed by the angle from the convergence point above and below the center line. 5
(A21) and (A25) are (A1), (A2), (A
Similarity is obtained as in 3). In consideration of this relationship, for example, by using (A1) for the search near the grid point 1 and (A2) for the search near the grid point 2, correlation with little deviation can be obtained. Then, by performing affine transformation based on the measured values of the grid points, it is also possible to obtain the correction value of the distortion of the optical system on the imaging surface, which is an internal evaluation element, and the size of one pixel.

【0021】また、CCDカメラ22A、22Bから入
力した画像データから左右の画像データの明るさをキャ
リブレーションする。左右の画像データの明るさは上記
キャリブレーションワークを使用して入力した画像デー
タから左画像データ及び右画像データの明るさのヒスト
グラムを作成し、これらのヒストグラムを比較してCC
Dカメラ22A、22Bのゲインとオフセットの2つの
明るさコントローラパラメータを調整する。
The brightness of the left and right image data is calibrated from the image data input from the CCD cameras 22A and 22B. The brightness of the left and right image data is calculated from the input image data using the above calibration work by creating histograms of the brightness of the left image data and the right image data, and comparing these histograms.
The two brightness controller parameters of the gain and offset of the D cameras 22A and 22B are adjusted.

【0022】以上のキャリブレーションシステムによっ
て顕微鏡の光学系をキャリブレーションした後、次に上
記システム制御部52は標定システム44によって左右
の顕微鏡光学系の撮像位置等の光学系の幾何学的な配置
を標定する。ステレオ実体視により対象物の3次元的な
位置決めを行うには、計測に先立って左右の顕微鏡光学
系の撮像位置等を含め、顕微鏡光学系の焦点距離、光軸
と撮像面の交点における3次元座標の各軸X、Y、Zに
対する回転、撮像倍率等の光学系の幾何学的な配置を決
定する標定要素を求めることが必要になる。
After the optical system of the microscope is calibrated by the above-described calibration system, the system control unit 52 next determines the geometric arrangement of the optical system such as the imaging position of the left and right microscope optical systems by the orientation system 44. Orient. In order to perform three-dimensional positioning of an object by stereo stereoscopic vision, prior to measurement, including the imaging positions of the left and right microscope optical systems, the focal length of the microscope optical system, and the three-dimensional position at the intersection of the optical axis and the imaging surface It is necessary to find orientation elements that determine the geometric arrangement of the optical system, such as the rotation of the coordinates with respect to each of the axes X, Y, and Z, and the imaging magnification.

【0023】評定要素が決定されると、対象物の3次元
座標は、その対象物の左右の画像データ上の座標より計
算により求めることができる。標定には図4に示したリ
ファレンスパターンと同一の格子縞を使用し、一辺を
3、4、〜10とした時の正方格子の合計点9点、16
点、25点、〜100点の格子点を利用して評定を実施
する。標定要素は、格子縞上の格子点位置の3次元座標
を既知として、左右のCCDカメラ22A、22Bによ
って撮像された画像データ上の格子点の座標値を求める
ことにより算出される。この標定要素の算出には最小4
点の対応点が必要である。多数の格子点を用いること
は、撮像系の光学的歪みを正しくキャリブレーションす
るためである。
When the rating element is determined, the three-dimensional coordinates of the object can be obtained by calculation from the coordinates on the left and right image data of the object. For the orientation, the same grid pattern as the reference pattern shown in FIG. 4 was used, and the total points of the square grid were 9 points, 16
The rating is carried out using points, 25 points, ~ 100 grid points. The orientation element is calculated by assuming the three-dimensional coordinates of the grid point position on the grid pattern as known, and calculating the coordinate values of the grid points on the image data captured by the left and right CCD cameras 22A and 22B. A minimum of 4
A corresponding point is required. The use of a large number of grid points is for correctly calibrating the optical distortion of the imaging system.

【0024】以上の標定システムによって左右の顕微鏡
光学系の撮像位置等の光学系の幾何学的な配置を標定し
た後、次に上記システム制御部52は抽出システム44
によって3次元的な特徴を持つ部分を抽出する。図6に
示すように、対象物の平面上にバンプ60が存在する対
象物を左右のCCDカメラ22A、22Bで撮像する場
合を例に示す。分かりやすくするために対象物に上述の
格子縞が投影されているとする。平面上に正方形の格子
縞を投影して斜方からCCDカメラ22A、22Bによ
ってこの格子縞を撮像すると、顕微鏡20A、20Bの
光学系の光軸が対象物平面に垂直でないために画像デー
タ上では台形の格子縞として記録されるが、この画像デ
ータ上の格子縞はアフィン変換により正方形に変換する
ことができる。ところが、平面でない部分に投影された
正方形の格子縞は、アフィン変換しても正方形には変換
されず、左画像データ上と右の画像データ上で異なった
形状を示す。図6に示したようなバンプ60が存在する
対象物を左右のCCDカメラ22A、22Bで撮像する
と、図7(A)、(B)に示すような左右の画像データ
が得られる。この左右の画像データをそれぞれアフィン
変換して平面上の格子縞を正方形に変換すると、図8
(A)、(B)に示すような左右の画像データが得られ
る。同図からわかるようにバンプ60の部分に投影され
た格子縞は左右の画像データで異なることがわかる。こ
の特性を利用して画像データの中から所定平面とは高さ
の異なる部分のみの左右の画像データを図9(A)、
(B)に示すように抽出することができる。
After locating the geometric arrangement of the optical systems such as the imaging positions of the left and right microscope optical systems by the above-described locating system, the system control unit 52 then controls the extraction system 44.
To extract a portion having a three-dimensional feature. As shown in FIG. 6, an example is shown in which an image of an object having a bump 60 on the plane of the object is captured by the left and right CCD cameras 22A and 22B. For the sake of simplicity, it is assumed that the above-described grid pattern is projected on the object. When a square lattice fringe is projected on a plane and the lattice fringes are imaged obliquely by the CCD cameras 22A and 22B, a trapezoidal trapezoid is formed on the image data because the optical axes of the optical systems of the microscopes 20A and 20B are not perpendicular to the object plane. Although recorded as lattice fringes, the lattice fringes on this image data can be converted into squares by affine transformation. However, a square grid pattern projected on a non-planar part is not converted into a square even by affine transformation, and shows different shapes on the left image data and the right image data. When an object having the bump 60 as shown in FIG. 6 is imaged by the left and right CCD cameras 22A and 22B, left and right image data as shown in FIGS. 7A and 7B are obtained. When the left and right image data are affine-transformed to convert the lattice pattern on the plane into a square, FIG.
Left and right image data as shown in (A) and (B) are obtained. As can be seen from the figure, the grid pattern projected on the bump 60 is different between the left and right image data. Utilizing this characteristic, the left and right image data of only the portion having a different height from the predetermined plane is selected from the image data in FIG.
It can be extracted as shown in FIG.

【0025】この状況を対象物の断面方向から見ると分
かりやすくなるので模式的に対象物の断面図を図10に
示す。図10に示すようにバンプ60が存在する対象物
を左右のCCDカメラ22A、22Bによって撮像し、
上記アフィン変換すると、バンプ60と平面との境界上
の点B、Cと、点B、Cの中点Aに対して垂直方向のあ
るバンプ60上の点A’は、それぞれ図11(A)、
(B)の点B、C、A’の位置に投影される。同図から
分かるようにバンプ60上にある点A’は、点B、Cの
中点Aの位置とは異なる位置に投影され、バンプ60が
存在しない場合(点A’が平面上の点Aと一致する場
合)に点A’が投影されるべき位置とは左右の画像デー
タで異なる。
This situation is easy to understand when viewed from the cross-sectional direction of the object, and FIG. 10 schematically shows a cross-sectional view of the object. As shown in FIG. 10, an object on which the bump 60 exists is imaged by the left and right CCD cameras 22A and 22B,
By performing the affine transformation, the points B and C on the boundary between the bump 60 and the plane and the point A ′ on the bump 60 that is perpendicular to the middle point A of the points B and C are respectively shown in FIG. ,
It is projected at the positions of points B, C, and A 'in (B). As can be seen from the figure, the point A ′ on the bump 60 is projected to a position different from the position of the midpoint A of the points B and C, and when the bump 60 does not exist (the point A ′ is the point A on the plane). And the position where point A ′ is to be projected differs between the left and right image data.

【0026】このように、対象物の所定の平面上にある
点が左右の画像データ上の投影されるべき点の位置とは
異なる位置に投影された対象物上の点を抽出することに
より、3次元的な特徴を持つ部分を抽出することができ
る。そして、この3次元的な特徴を持つ部分の左右の画
像データ上での位置から3次元的な定量測定を行うこと
ができる。
As described above, by extracting points on the object where points on a predetermined plane of the object are projected at positions different from the positions of points to be projected on the left and right image data, A part having three-dimensional characteristics can be extracted. Then, three-dimensional quantitative measurement can be performed from the position of the part having the three-dimensional feature on the left and right image data.

【0027】以上説明した基本システムは、以下に一例
として示すような応用システムにおいて共通に使用され
るシステムであり、この基本システムによって対象物の
3次元測定が可能になる点を利用して応用システムがプ
ログラムされる。次に応用システム一例としてボンディ
ングワイヤの形状測定システム50(図3参照)につい
て説明する。
The basic system described above is a system commonly used in application systems as shown below as an example. The basic system makes it possible to perform three-dimensional measurement of an object by utilizing the basic system. Is programmed. Next, a bonding wire shape measuring system 50 (see FIG. 3) will be described as an example of an applied system.

【0028】図12は、形状測定するボンディングワイ
ヤの形状の一例を示した構成図である。同図に示すボン
ディングワイヤ70Bはチップ70C上のパッド70D
とリードフレーム70A間に接着されて、このパッド7
0Dとリードフレーム70A間に規定の空間形状で配置
される。もし、このボンディングワイヤ70Bの形状が
規定の形状と大きく異なる場合には不良品と判定され
る。
FIG. 12 is a configuration diagram showing an example of the shape of a bonding wire whose shape is to be measured. The bonding wire 70B shown in FIG.
The pad 7 is adhered between the
0D and the lead frame 70A are arranged in a prescribed space shape. If the shape of the bonding wire 70B is significantly different from the prescribed shape, it is determined to be defective.

【0029】図13は、このボンディングワイヤの形状
測定システムの処理手順を示したフローチャートであ
る。ボンディングワイヤについては3次元的な形状を測
定する。上記ボンディングワイヤの3次元形状測定の準
備工程として、予め、チップ上のパッド70Dの位置
と、これに対応するリードフレーム70Aの位置を登録
しておく。そして、このチップ70CをXYステージ1
0上に固定して、チップ70C上に記されたアライメン
ト用マーク又はリファレンス70E、70Eを所定の位
置に合わせる。そして、左右の顕微鏡20A、20Bを
介してCCDカメラ22A、22Bで撮像し、パッド7
0Dの位置とリードフレーム70Aの位置が上記登録し
た位置と一致するか確認する(ステップS20)。この
ようにしてチップ70Cの固定位置を調節した後、CC
Dカメラ22A、22Bによってチップ70Cを撮像
し、図14に示すように撮像した左右の画像データ上で
パッド70D位置付近に小画像領域80Aを設定する
(ステップS22)。つぎにこの左右の画像データ上の
小画像領域80Aにおいてそれぞれ、ボンディングワイ
ヤ70Bの輪郭を抽出し、ソーベルオペレータ等の画像
処理でボンディングワイヤ70Bの中心線の線分(曲
線)を検出する(ステップS24)。そして、抽出した
ボンディングワイヤ70Bの中心線の画像データ上での
座標値及び方向を算出する(ステップS26)。この
後、さらに、ボンディングワイヤ70Bの中心線の延長
上に小画像領域80B(図14参照)を設定し、この設
定した小画像領域80Bにリードフレーム70Aが含ま
れるか否かを判定する(ステップS30)。もし、小画
像領域にリードフレーム70Aが含まれない場合、小画
像領域にリードフレーム70Aが含まれるまで上記ステ
ップS24からステップS30までの処理を繰り返し実
行する(図14では小画像領域80Eまで上記処理を繰
り返す)。即ち、上記ステップS24からステップS3
0までの処理を繰り返し実行してパッド70Dの位置か
らリードフレーム70Aの位置までのボンディングワイ
ヤ70Bの中心線の座標値を左右の画像データ上でそれ
ぞれ検出する。
FIG. 13 is a flowchart showing a processing procedure of the bonding wire shape measuring system. The three-dimensional shape of the bonding wire is measured. As a preparation step for measuring the three-dimensional shape of the bonding wire, the positions of the pads 70D on the chip and the corresponding positions of the lead frames 70A are registered in advance. Then, the chip 70C is moved to the XY stage 1
0, and the alignment marks or references 70E, 70E written on the chip 70C are adjusted to predetermined positions. Then, images are taken by the CCD cameras 22A and 22B via the right and left microscopes 20A and 20B, and the pad 7
It is checked whether the position of 0D and the position of the lead frame 70A match the registered position (step S20). After adjusting the fixing position of the chip 70C in this way, the CC
The chip 70C is imaged by the D cameras 22A and 22B, and a small image area 80A is set near the position of the pad 70D on the imaged left and right image data as shown in FIG. 14 (step S22). Next, in each of the small image areas 80A on the left and right image data, the outline of the bonding wire 70B is extracted, and a line segment (curve) of the center line of the bonding wire 70B is detected by image processing such as a Sobel operator (step). S24). Then, the coordinate value and the direction on the image data of the extracted center line of the bonding wire 70B are calculated (step S26). Thereafter, a small image area 80B (see FIG. 14) is further set on the extension of the center line of the bonding wire 70B, and it is determined whether or not the lead frame 70A is included in the set small image area 80B (step). S30). If the small image area does not include the lead frame 70A, the processing from step S24 to step S30 is repeatedly executed until the small image area includes the lead frame 70A (FIG. 14 shows the processing up to the small image area 80E). repeat). That is, steps S24 to S3
By repeating the process up to 0, the coordinate values of the center line of the bonding wire 70B from the position of the pad 70D to the position of the lead frame 70A are detected on the left and right image data.

【0030】このようにして検出した左右の画像データ
上でのボンディングワイヤ70Bの中心線の座標値を求
めた後、この座標値からボンディングワイヤ70Bの3
次元座標値の点列を算出する(ステップS32)。尚、
ボンディングワイヤ70Bの3次元座標値を算出際に、
ボンディングワイヤ70Bの同一点を左右の画像データ
上で対応させる必要があるが、これにはエピポーラ線を
使用する。エピポーラ線は左右の顕微鏡光学系の焦点を
結ぶ直線と対象物の任意の点で決定される平面(エピポ
ーラ面)を左右の画像データ上に投影した際の直線を示
す。図15に示すように所定平面上の2点A、B間(パ
ッド70Dとリードフレーム70A間)に3次元的に設
置されたボンディングワイヤ70Bを左右のCCDカメ
ラ22A、22Bで撮像すると、左右の画像データ上に
は上記2点A、Bの投影点A’、B’を結ぶ曲線として
投影される。このとき、左右の画像データ上に投影され
た2点A’、B’間を結ぶ線分を所定の比率で2分する
分割点C’、C’は対象物上で同一の点Cとなり、左右
の画像データ上でこの分割点を通るエピポーラ線e、e
がボンディングワイヤ70Bと交わる点P’、P’は、
対象物上でボンディングワイヤ70Bの同一の点Pとな
る(同図斜線で示した平面はエピポーラ面を示す)。
After the coordinate value of the center line of the bonding wire 70B on the left and right image data detected in this way is obtained, the coordinate value of the bonding wire 70B is calculated from the coordinate value.
A point sequence of the dimensional coordinate values is calculated (step S32). still,
When calculating the three-dimensional coordinate value of the bonding wire 70B,
It is necessary to make the same point of the bonding wire 70B correspond on the left and right image data, and an epipolar line is used for this. The epipolar line indicates a straight line connecting the focal points of the left and right microscope optical systems and a straight line when a plane (epipolar surface) determined by an arbitrary point on the object is projected on the left and right image data. As shown in FIG. 15, when the bonding wires 70B set three-dimensionally between the two points A and B (between the pad 70D and the lead frame 70A) on the predetermined plane are imaged by the left and right CCD cameras 22A and 22B, The image data is projected as a curve connecting the projection points A ′ and B ′ of the two points A and B. At this time, the division points C ′ and C ′ that divide the line segment connecting the two points A ′ and B ′ projected on the left and right image data into two at a predetermined ratio become the same point C on the object, Epipolar lines e and e passing through this division point on the left and right image data
P ′, P ′ at which と intersects the bonding wire 70B are
The same point P of the bonding wire 70B is set on the target object (the plane indicated by oblique lines in the figure indicates an epipolar plane).

【0031】即ち、図16(A)、(B)に示すように
左右の画像データ上で、ボンディングワイヤ70Bの中
心線データの始点A’と終点B’を結ぶ線分を作り、こ
の線分をn等分する。そして、このn等分した内のl番
目の点を通るエピポーラ線e、eと中心線データの交点
P’、P’を求め、この左右の画像データ上での交点
P’、P’の座標値よりボンディングワイヤ70Bの3
次元座標値を求める。
That is, as shown in FIGS. 16A and 16B, a line segment connecting the start point A 'and the end point B' of the center line data of the bonding wire 70B is formed on the left and right image data. Is divided into n equal parts. Then, intersections P ′ and P ′ of the epipolar lines e and e passing through the l-th point among the n equal parts and the center line data are obtained, and the coordinates of the intersections P ′ and P ′ on the left and right image data are obtained. 3 of bonding wire 70B from the value
Find the dimensional coordinate values.

【0032】そして、以上のようにして求めたボンディ
ングワイヤの3次元座標値の点列と予め登録してある理
想的な形状のボンディングワイヤの3次元座標値との偏
差を算出してこの偏差が許容範囲内か否かで良否判定を
行う(ステップS34)。尚、応用システムの他の例と
して図3に示したリードフレームの曲がり、欠陥検査シ
ステム48は、3次元測定からリードフレームの曲がり
(図17(A)、(B)のICチップ70の上面図、断
面図に示したリードフレーム70Aの曲がり70B)を
検出するとともに、リードフレームのプレス打痕、プレ
ス磨耗等(図18参照)の欠陥を検出する。
Then, the deviation between the point sequence of the three-dimensional coordinate values of the bonding wire obtained as described above and the three-dimensional coordinate value of the bonding wire having the ideal shape registered in advance is calculated, and this deviation is calculated. A pass / fail judgment is made based on whether the value is within the allowable range (step S34). As another example of the application system, the lead frame bending and defect inspection system 48 shown in FIG. 3 uses the three-dimensional measurement to calculate the bending of the lead frame (the top view of the IC chip 70 in FIGS. 17A and 17B). , The bend 70B of the lead frame 70A shown in the cross-sectional view is detected, and defects such as press dents and press wear of the lead frame (see FIG. 18) are detected.

【0033】以上、上記実施の形態では、顕微鏡光学系
の標定要素を決定する際にリファレンスワークに投影し
た格子縞の格子点位置の3次元座標を既知としてこの標
定要素を決定していたが、これに限らず、観測可能で3
次元座標が既知の任意の複数点によっても同様に標定要
素を決定することができる。また、上記実施の形態で
は、2つの顕微鏡を左右斜め方向に設置していたが、こ
の2つの顕微鏡の設置位置は対象物の同一領域を観測で
きる位置でどこでもよい。
As described above, in the above-described embodiment, when determining the orientation element of the microscope optical system, the orientation element is determined by assuming that the three-dimensional coordinates of the lattice point positions of the lattice stripes projected on the reference work are known. Observable, not limited to 3
Orientation elements can be determined in the same manner by using arbitrary plural points whose dimensional coordinates are known. Further, in the above-described embodiment, the two microscopes are installed obliquely to the left and right. However, the installation positions of these two microscopes may be anywhere as long as the same area of the object can be observed.

【0034】[0034]

【発明の効果】以上説明したように本発明の顕微鏡を用
いた3次元画像認識装置によれば、対象物を左右2方向
から拡大して撮像する第1、第2の顕微鏡を設置し、ま
ず、初期設定として予め複数点の3次元座標が決定され
ている基準対象物を前記第1、第2の顕微鏡によって撮
像し、これによって得られた第1、第2の画像データか
ら前記複数点に対応する前記第1、第2の画像データ上
の位置を測定する。そして、この測定によって得られた
複数点に対応する前記第1、第2の画像データ上の位置
と前記複数点の3次元座標とから前記第1、第2の顕微
鏡の標定要素を決定する。そして、第1、第2の顕微鏡
によって対象物を拡大して撮像し、第1、第2の画像デ
ータを得る。そして、この第1、第2の画像データ上の
対応する位置を検出してこの対応する位置と、標定要素
から前記対象物の所定位置の3次元座標を算出する。
As described above, according to the three-dimensional image recognition apparatus using the microscope of the present invention, the first and second microscopes for enlarging and imaging an object from two directions are installed. The first and second microscopes capture an image of a reference object in which three-dimensional coordinates of a plurality of points are determined in advance as initial settings, and the first and second image data obtained by the imaging are used to obtain the plurality of points. A corresponding position on the first and second image data is measured. Then, the orientation elements of the first and second microscopes are determined from the positions on the first and second image data corresponding to the plurality of points obtained by the measurement and the three-dimensional coordinates of the plurality of points. Then, the first and second microscopes magnify and image the target object to obtain first and second image data. Then, corresponding positions on the first and second image data are detected, and three-dimensional coordinates of a predetermined position of the object are calculated from the corresponding positions and the orientation elements.

【0035】これにより、対象物の3次元的な特徴を顕
微鏡を用いて精度良く定量認識することができる。ま
た、請求項2の発明によれば、第1、第2の画像データ
上で対応する位置が不明な対象物の位置を、第1、第2
の画像データ上で対応する位置が分かっている点を通る
エピポーラ線によって検出することによって立体形状の
対象物の定量認識が可能となる。
Thus, the three-dimensional characteristics of the object can be quantitatively recognized with high accuracy using a microscope. According to the second aspect of the present invention, the positions of the objects whose corresponding positions are unknown on the first and second image data are determined by the first and second image data.
Quantitative recognition of an object having a three-dimensional shape is possible by detecting an epipolar line passing through a point whose corresponding position is known on the image data.

【0036】更に、請求項3の発明によれば、第1、第
2の画像データ上で平面領域以外の領域を抽出すること
によって、シミや汚れの付着のような単一方向からの画
像だけでは3次元的な画像の影部分と区別できない検査
対象の特徴を抽出することができるので、画像計測処理
を早く確実に行うことができる。
Further, according to the third aspect of the present invention, by extracting an area other than the plane area on the first and second image data, only an image from a single direction such as stains or stains is attached. In this case, since the feature of the inspection target that cannot be distinguished from the shadow portion of the three-dimensional image can be extracted, the image measurement processing can be performed quickly and reliably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明に係る顕微鏡を用いた3次元画
像認識装置の一実施の形態を示したシステム構成図であ
る。
FIG. 1 is a system configuration diagram showing an embodiment of a three-dimensional image recognition device using a microscope according to the present invention.

【図2】図2は、本発明に係る顕微鏡を用いた3次元画
像認識装置の一実施の形態を示したハードウェア構成図
である。
FIG. 2 is a hardware configuration diagram showing an embodiment of a three-dimensional image recognition device using a microscope according to the present invention.

【図3】図3は、本発明に係る顕微鏡を用いた3次元画
像認識装置のソフトウェア構成図である。
FIG. 3 is a software configuration diagram of a three-dimensional image recognition device using a microscope according to the present invention.

【図4】図4は、キャリブレーションの方法を示した説
明図である。
FIG. 4 is an explanatory diagram showing a calibration method.

【図5】図5は、キャリブレーションの方法を示した説
明図である。
FIG. 5 is an explanatory diagram showing a calibration method.

【図6】図6は、平面上にバンプが存在する対象物を左
右のCCDカメラで撮像する場合を示した説明図であ
る。
FIG. 6 is an explanatory diagram showing a case where an object having a bump on a plane is imaged by left and right CCD cameras.

【図7】図7は、図6の対象物を左右のCCDカメラで
撮像した場合に得られる画像を示した説明図である。
FIG. 7 is an explanatory diagram showing an image obtained when the object in FIG. 6 is imaged by the left and right CCD cameras.

【図8】図8は、図7の画像をアフィン変換した場合に
得られる画像を示した説明図である。
FIG. 8 is an explanatory diagram showing an image obtained when the image in FIG. 7 is affine-transformed.

【図9】図9は、図6の対象物から3次元的に特徴があ
る部分を抽出して得られる画像を示した説明図である。
FIG. 9 is an explanatory diagram showing an image obtained by extracting a three-dimensionally characteristic portion from the object shown in FIG. 6;

【図10】図10は、平面上にバンプが存在する対象物
を左右のCCDカメラで撮像する場合を示した説明図で
ある。
FIG. 10 is an explanatory diagram showing a case where an object having a bump on a plane is imaged by right and left CCD cameras.

【図11】図11は、図10の対象物を左右のCCDカ
メラで撮像した場合に、バンプ上の点が撮像される画像
データ上の位置を示した説明図である。
FIG. 11 is an explanatory diagram showing positions on image data where points on bumps are imaged when the object in FIG. 10 is imaged by the left and right CCD cameras.

【図12】図12は、ボンディングワイヤの形状を示し
た構成図である。
FIG. 12 is a configuration diagram illustrating a shape of a bonding wire;

【図13】図13は、このボンディングワイヤの形状測
定システムの処理手順を示したフローチャートである。
FIG. 13 is a flowchart showing a processing procedure of the bonding wire shape measuring system.

【図14】図14は、ボンディングワイヤの形状測定の
手順を説明する際に用いた説明図である。
FIG. 14 is an explanatory diagram used for explaining a procedure of measuring a shape of a bonding wire;

【図15】図15は、エピポーラ線による左右画像デー
タの対応点を求める手順を示した説明図である。
FIG. 15 is an explanatory diagram showing a procedure for obtaining corresponding points of left and right image data by epipolar lines.

【図16】図16は、エピポーラ線による左右画像デー
タの対応点を求める手順を示した説明図である。
FIG. 16 is an explanatory diagram showing a procedure for obtaining corresponding points of left and right image data using epipolar lines.

【図17】図17は、ICチップのリードフレームの曲
がりによる不良品例を示した図である。
FIG. 17 is a diagram illustrating an example of a defective product due to bending of a lead frame of an IC chip.

【図18】図18は、ICチップのリードフレームのプ
レス打痕やプレス磨耗による不良品例を示した図であ
る。
FIG. 18 is a diagram illustrating an example of a defective product due to press dents or press wear of a lead frame of an IC chip.

【符号の説明】[Explanation of symbols]

10…XYステージ 12…パソコン12 16…格子縞投影用ランプ 20A、20B…顕微鏡 22A、22B…CCDカメラ Reference Signs List 10 XY stage 12 Personal computer 12 16 Lattice pattern projection lamp 20A, 20B Microscope 22A, 22B CCD camera

───────────────────────────────────────────────────── フロントページの続き (72)発明者 池田 穂高 東京都東大和市湖畔2丁目1044番地の121 ──────────────────────────────────────────────────続 き Continuation of front page (72) Inventor Hotaka Ikeda 121, 2-1044-1 Kobe, Higashiyamato City, Tokyo

Claims (3)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】第1の光軸方向から対象物の検査領域を拡
大して撮像し、第1の画像データを得る第1の顕微鏡
と、 前記第1の光軸方向と異なる第2の光軸方向から前記対
象物の検査領域と同一の検査領域を拡大して撮像し、第
2の画像データを得る第2の顕微鏡と、 予め複数点の3次元座標が決定されている基準対象物を
前記第1、第2の顕微鏡によって撮像し、該第1、第2
の顕微鏡によって得られた第1、第2の画像データから
前記複数点に対応する前記第1、第2の画像データ上の
位置を測定し、該複数点に対応する前記第1、第2の画
像データ上の位置と前記複数点の3次元座標とから前記
第1、第2の顕微鏡の標定要素を決定する標定要素決定
手段と、 前記第1、第2の画像データ上の対応する位置及び前記
標定要素決定手段によって決定された前記第1、第2の
顕微鏡の標定要素に基づいて前記対象物の所定位置の3
次元座標を算出する3次元座標算出手段と、 からなる顕微鏡を用いた3次元画像認識装置。
1. A first microscope for obtaining an image of an inspection area of an object by enlarging an image of an inspection area in a first optical axis direction, and a second light different from the first optical axis direction. A second microscope for enlarging and imaging the same inspection region as the inspection region of the object from the axial direction and obtaining second image data; and a reference object for which three-dimensional coordinates of a plurality of points are determined in advance. The images are taken by the first and second microscopes, and the first and second
The positions on the first and second image data corresponding to the plurality of points are measured from the first and second image data obtained by the microscope, and the first and second positions corresponding to the plurality of points are measured. Orientation element determining means for determining orientation elements of the first and second microscopes from a position on image data and the three-dimensional coordinates of the plurality of points; a corresponding position on the first and second image data; 3 based on the orientation elements of the first and second microscopes determined by the orientation element determination means
A three-dimensional image recognition device using a microscope comprising: three-dimensional coordinate calculation means for calculating three-dimensional coordinates;
【請求項2】前記第1、第2の画像データ上の対応する
位置を、前記対象物の所定位置に対応する前記第1、第
2の画像データ上の位置を通るエピポーラ線によって検
出する対応位置検出手段を有することを特徴とする請求
項1の顕微鏡を用いた3次元画像認識装置。
2. A method for detecting a corresponding position on the first and second image data by an epipolar line passing through a position on the first and second image data corresponding to a predetermined position of the object. 3. A three-dimensional image recognition apparatus using a microscope according to claim 1, further comprising a position detecting means.
【請求項3】前記第1、第2の顕微鏡によって得られ
た、第1、第2の画像データから前記対象物の平面以外
の領域を抽出することによって、単一方向からでは抽出
できない検査対象の特徴を取得し、画像計測処理結果を
早く確実に行う手段を有することを特徴とする請求項1
の顕微鏡を用いた3次元画像認識装置。
3. An inspection object that cannot be extracted from a single direction by extracting a region other than a plane of the object from first and second image data obtained by the first and second microscopes. 2. A means for acquiring characteristics of the above and performing the image measurement processing result quickly and reliably.
Three-dimensional image recognition device using a microscope.
JP21165296A1996-08-091996-08-09 Three-dimensional image recognition device using a microscopeExpired - Fee RelatedJP3855244B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP21165296AJP3855244B2 (en)1996-08-091996-08-09 Three-dimensional image recognition device using a microscope

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP21165296AJP3855244B2 (en)1996-08-091996-08-09 Three-dimensional image recognition device using a microscope

Publications (2)

Publication NumberPublication Date
JPH1054709Atrue JPH1054709A (en)1998-02-24
JP3855244B2 JP3855244B2 (en)2006-12-06

Family

ID=16609348

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP21165296AExpired - Fee RelatedJP3855244B2 (en)1996-08-091996-08-09 Three-dimensional image recognition device using a microscope

Country Status (1)

CountryLink
JP (1)JP3855244B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2006135040A1 (en)*2005-06-172006-12-21Omron CorporationImage processing device and image processing method performing 3d measurement
JP2007018935A (en)*2005-07-082007-01-25Hitachi High-Technologies Corp Microscope with probe and probe contact method
CN100417914C (en)*2005-06-172008-09-10欧姆龙株式会社 Image processing device and image processing method
CN100460806C (en)*2005-06-172009-02-11欧姆龙株式会社Three-dimensional measuring method and three-dimensional measuring apparatus
WO2009120623A3 (en)*2008-03-252009-11-26Electro Scientific Industries, Inc.Method and apparatus for detecting defects using structured light
CN101681438A (en)*2007-03-022010-03-24有机运动公司System and method for tracking three dimensional objects
JP2013190554A (en)*2012-03-132013-09-26Shimadzu CorpMicroscope
JP2016130695A (en)*2015-01-142016-07-21三友工業株式会社 Surface inspection apparatus and surface inspection method.
WO2016199253A1 (en)*2015-06-102016-12-15株式会社PfuImage processing system, image read-in device, region detection method, and computer program
WO2018163687A1 (en)*2017-03-102018-09-13日本精工株式会社Tubular tool and manipulation system
WO2020217970A1 (en)*2019-04-222020-10-29株式会社新川Wire shape measurement device, wire three-dimensional image generation method, and wire shape measurement method
KR20230154278A (en)2022-01-182023-11-07야마하 로보틱스 홀딩스 가부시키가이샤 Method for generating a 3D diagram of an article, 3D diagram creation device, and 3D shape inspection device
KR20230154277A (en)2022-01-182023-11-07야마하 로보틱스 홀딩스 가부시키가이샤 3D digital microscope

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
KR100938453B1 (en)*2007-07-312010-01-25(주)레드로버 Stereoscopic microscope with stereoscopic image acquisition device and stereoscopic image acquisition device

Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS6344107A (en)*1986-08-111988-02-25Goro MatsumotoApparatus for measuring three-dimensional shape
JPH0271109A (en)*1988-09-071990-03-09Toshiba Corp Bonding wire inspection method
JPH03156306A (en)*1988-12-161991-07-04Schlumberger Technol IncDirect measurement of volume of three- dimensional characteristic part in binocular stereo image
JPH04191607A (en)*1990-11-261992-07-09Toshiba Corp 3D measurement method
JPH05196422A (en)*1991-03-021993-08-06Tokyo Inst Of Technol Z-coordinate position detection method and device for non-contact type three-dimensional coordinate detection device
JPH06195446A (en)*1992-12-241994-07-15Canon Inc Corresponding point search method
JPH0749454A (en)*1993-06-151995-02-21Olympus Optical Co LtdMicroscope for operation
JPH08567A (en)*1994-06-161996-01-09Asahi Koyo KkFundus oculi measuring instrument
JPH0814828A (en)*1994-06-291996-01-19Kobe Steel LtdCalibration method for stereoscopic image sensor and device therefor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS6344107A (en)*1986-08-111988-02-25Goro MatsumotoApparatus for measuring three-dimensional shape
JPH0271109A (en)*1988-09-071990-03-09Toshiba Corp Bonding wire inspection method
JPH03156306A (en)*1988-12-161991-07-04Schlumberger Technol IncDirect measurement of volume of three- dimensional characteristic part in binocular stereo image
JPH04191607A (en)*1990-11-261992-07-09Toshiba Corp 3D measurement method
JPH05196422A (en)*1991-03-021993-08-06Tokyo Inst Of Technol Z-coordinate position detection method and device for non-contact type three-dimensional coordinate detection device
JPH06195446A (en)*1992-12-241994-07-15Canon Inc Corresponding point search method
JPH0749454A (en)*1993-06-151995-02-21Olympus Optical Co LtdMicroscope for operation
JPH08567A (en)*1994-06-161996-01-09Asahi Koyo KkFundus oculi measuring instrument
JPH0814828A (en)*1994-06-291996-01-19Kobe Steel LtdCalibration method for stereoscopic image sensor and device therefor

Cited By (26)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8233041B2 (en)2005-06-172012-07-31Omron CorporationImage processing device and image processing method for performing three dimensional measurements
CN100417914C (en)*2005-06-172008-09-10欧姆龙株式会社 Image processing device and image processing method
CN100460807C (en)*2005-06-172009-02-11欧姆龙株式会社 Image processing device and image processing method for three-dimensional measurement
CN100460806C (en)*2005-06-172009-02-11欧姆龙株式会社Three-dimensional measuring method and three-dimensional measuring apparatus
JP4811272B2 (en)*2005-06-172011-11-09オムロン株式会社 Image processing apparatus and image processing method for performing three-dimensional measurement
WO2006135040A1 (en)*2005-06-172006-12-21Omron CorporationImage processing device and image processing method performing 3d measurement
JP2007018935A (en)*2005-07-082007-01-25Hitachi High-Technologies Corp Microscope with probe and probe contact method
CN101681438A (en)*2007-03-022010-03-24有机运动公司System and method for tracking three dimensional objects
JP2010520565A (en)*2007-03-022010-06-10オーガニック・モーション System and method for tracking and recording a three-dimensional object
JP2014013573A (en)*2007-03-022014-01-23Organic MotionSystem and method for tracking and recording three-dimensional object
US8471848B2 (en)2007-03-022013-06-25Organic Motion, Inc.System and method for tracking three dimensional objects
WO2009120623A3 (en)*2008-03-252009-11-26Electro Scientific Industries, Inc.Method and apparatus for detecting defects using structured light
US8285025B2 (en)2008-03-252012-10-09Electro Scientific Industries, Inc.Method and apparatus for detecting defects using structured light
JP2013190554A (en)*2012-03-132013-09-26Shimadzu CorpMicroscope
JP2016130695A (en)*2015-01-142016-07-21三友工業株式会社 Surface inspection apparatus and surface inspection method.
WO2016199253A1 (en)*2015-06-102016-12-15株式会社PfuImage processing system, image read-in device, region detection method, and computer program
JPWO2016199253A1 (en)*2015-06-102017-11-09株式会社Pfu Image processing system, image reading apparatus, area detection method, and computer program
US10247546B2 (en)2015-06-102019-04-02Pfu LimitedImage processing system and method for detecting a target object area based on height information
WO2018163687A1 (en)*2017-03-102018-09-13日本精工株式会社Tubular tool and manipulation system
JPWO2018163687A1 (en)*2017-03-102019-03-14日本精工株式会社 Manipulation system
US11235317B2 (en)2017-03-102022-02-01Nsk Ltd.Tubular instrument and manipulation system
WO2020217970A1 (en)*2019-04-222020-10-29株式会社新川Wire shape measurement device, wire three-dimensional image generation method, and wire shape measurement method
CN113677953A (en)*2019-04-222021-11-19株式会社新川Line shape measuring device, line three-dimensional image generating method, and line shape measuring method
US20220180494A1 (en)*2019-04-222022-06-09Shinkawa Ltd.Wire shape measurement device, wire three-dimensional image generation method, and wire shape measurement method
KR20230154278A (en)2022-01-182023-11-07야마하 로보틱스 홀딩스 가부시키가이샤 Method for generating a 3D diagram of an article, 3D diagram creation device, and 3D shape inspection device
KR20230154277A (en)2022-01-182023-11-07야마하 로보틱스 홀딩스 가부시키가이샤 3D digital microscope

Also Published As

Publication numberPublication date
JP3855244B2 (en)2006-12-06

Similar Documents

PublicationPublication DateTitle
JP5947169B2 (en) Appearance inspection apparatus, appearance inspection method and program
JPH11317429A (en)Improved method and device for direct probe sensing
JP6750841B2 (en) Inspection method, inspection device, processing device, program and recording medium
JP3855244B2 (en) Three-dimensional image recognition device using a microscope
US20150356727A1 (en)Defect inspection method and defect inspection device
JPH11148807A (en) Bump height measuring method and bump height measuring device
CN108627512B (en) Three-dimensional inspection device and method for three-dimensional inspection
US12058468B2 (en)Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium
JP2008014700A (en)Workpiece inspection method and workpiece inspection device
JP4207302B2 (en) Bump inspection method and inspection apparatus
JP4111613B2 (en) Semiconductor inspection method and apparatus
JP2000283929A (en) Wiring pattern inspection method and apparatus
JP7368141B2 (en) Wafer appearance inspection device and method
US20220180494A1 (en)Wire shape measurement device, wire three-dimensional image generation method, and wire shape measurement method
JP2006276454A (en) Image correction method and pattern defect inspection method using the same
JP5148564B2 (en) Appearance inspection method and appearance inspection apparatus for inspecting using the method
JP2005274309A (en) Three-dimensional object inspection method and inspection apparatus
JP6900261B2 (en) Processing equipment, substrate inspection equipment, processing method and substrate inspection method
JP2010025803A (en)Inspection device having positioning function, program therefor, inspection method of inspection device having positioning function
JP4741943B2 (en) Inspection apparatus and inspection method
JP2009250777A (en)Surface inspection device and surface inspection method
JP2010243209A (en) Defect inspection method and defect detection apparatus
JP2003504607A (en) Apparatus and method for three-dimensional inspection of electronic components
JP7285988B2 (en) Inspection device and inspection method
TWI747500B (en)Automatic image capturing method and apparatus for object

Legal Events

DateCodeTitleDescription
A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20050225

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20050422

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20050616

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20060602

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20060731

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20060821

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20060903

R150Certificate of patent or registration of utility model

Free format text:JAPANESE INTERMEDIATE CODE: R150

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20090922

Year of fee payment:3

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20100922

Year of fee payment:4

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20100922

Year of fee payment:4

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20110922

Year of fee payment:5

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20110922

Year of fee payment:5

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20120922

Year of fee payment:6

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20120922

Year of fee payment:6

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20130922

Year of fee payment:7

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp