Movatterモバイル変換


[0]ホーム

URL:


JP2001280933A - Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system - Google Patents

Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system

Info

Publication number
JP2001280933A
JP2001280933AJP2000097240AJP2000097240AJP2001280933AJP 2001280933 AJP2001280933 AJP 2001280933AJP 2000097240 AJP2000097240 AJP 2000097240AJP 2000097240 AJP2000097240 AJP 2000097240AJP 2001280933 AJP2001280933 AJP 2001280933A
Authority
JP
Japan
Prior art keywords
dimensional
imaging
measurement
unit
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000097240A
Other languages
Japanese (ja)
Inventor
Koichi Kanbe
幸一 掃部
Hidekazu Ide
英一 井手
Fumiya Yagi
史也 八木
Takashi Kondo
尊司 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co LtdfiledCriticalMinolta Co Ltd
Priority to JP2000097240ApriorityCriticalpatent/JP2001280933A/en
Priority to US09/788,660prioritypatent/US6975361B2/en
Publication of JP2001280933ApublicationCriticalpatent/JP2001280933A/en
Pendinglegal-statusCriticalCurrent

Links

Landscapes

Abstract

PROBLEM TO BE SOLVED: To detachably attach a two-dimensional image pick-up device to a three-dimensional measuring instrument, and allow the photographing for both a two-dimensional data and a three-dimensional data, so as to enhance convenience. SOLUTION: This is a photographing system 1 having the two-dimensional image pick-up device 3, and the three-dimensional measuring instrument 4 attached detachably to the two-dimensional image pick-up device 3. The two-dimensional image pick-up device 3 and the three-dimensional measuring instrument 4 are communicatable each other, and, when information for indicating an operation condition for either of them is transmitted to the other side, the other side receiving it sets own operation condition based on the received information to excecute image pick-up or measurement.

Description

Translated fromJapanese
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元計測装置が
2次元撮像装置に着脱可能に取り付けられるように構成
された撮影システム、それに用いられる2次元撮像装置
および3次元計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging system in which a three-dimensional measuring device is detachably attached to a two-dimensional imaging device, a two-dimensional imaging device used in the imaging system, and a three-dimensional measuring device.

【0002】[0002]

【従来の技術】従来において、被写体の2次元画像を撮
像してその画像データを出力するデジタルカメラが普及
している。デジタルカメラで得られた画像データは、個
人での観賞に用いる他、例えばウエブ上のホームページ
に掲載して一般に公開することも容易に行える。
2. Description of the Related Art Conventionally, digital cameras that take a two-dimensional image of a subject and output the image data have been widely used. The image data obtained by the digital camera is used for personal viewing, and can be easily posted on a web site, for example, for public viewing.

【0003】また、例えば特開平11−271030号
公報に記載されるような3次元計測装置を用いることに
より、2次元画像に代えて3次元データを公開するユー
ザも比較的少数ではあるが増えてきている。3次元デー
タを用いた場合には、対象物を一方向からだけではなく
多方向から観察できるので、商品の紹介などに適してい
る。
[0003] Also, by using a three-dimensional measuring device as described in, for example, JP-A-11-271030, the number of users who disclose three-dimensional data instead of two-dimensional images is increasing, although the number is relatively small. ing. When three-dimensional data is used, the object can be observed not only from one direction but also from multiple directions, and is suitable for introducing products.

【0004】[0004]

【発明が解決しようとする課題】しかし、3次元計測装
置により得られる3次元データは、デジタルカメラなど
により得られる2次元データ(画像データ)と比較する
と、データ量が多いため、データ処理が複雑であり、処
理に時間を要したり大きなメモリ容量を要するなど、扱
い難いという問題がある。
However, three-dimensional data obtained by a three-dimensional measuring device has a larger data amount than two-dimensional data (image data) obtained by a digital camera or the like, so that data processing is complicated. However, there is a problem that it is difficult to handle, for example, it takes time for processing and a large memory capacity.

【0005】このように、3次元データと2次元データ
とではそれぞれ一長一短があるため、用途に応じて使い
分ける必要がある。したがって、それらのデータを得る
ために、2次元撮像装置および3次元計測装置のいずれ
も必要となってくる。
As described above, since three-dimensional data and two-dimensional data each have advantages and disadvantages, it is necessary to use them properly according to the application. Therefore, in order to obtain such data, both the two-dimensional imaging device and the three-dimensional measurement device are required.

【0006】そのような要求に応えるために、2次元撮
像と3次元計測との両方が行える装置(VIVID700)が本
出願人によって市場に提供されている。その装置による
と、2次元撮像装置と3次元計測装置とが一体に組み込
まれているので、簡単な操作で2次元データと3次元デ
ータとを同時に容易に取得することができる。
[0006] In order to meet such a demand, an apparatus (VIVID700) capable of performing both two-dimensional imaging and three-dimensional measurement is provided on the market by the present applicant. According to the device, since the two-dimensional imaging device and the three-dimensional measuring device are integrated, the two-dimensional data and the three-dimensional data can be easily and simultaneously obtained with a simple operation.

【0007】しかし、その装置を用いて2次元撮像のみ
を行おうとした場合に、一体型であるために3次元計測
装置を分離することができず、単なる2次元撮像装置と
比べると大型となって扱い難いという面があった。
However, if only two-dimensional imaging is to be performed using this device, the three-dimensional measuring device cannot be separated because of the integral type, and the size becomes large as compared with a simple two-dimensional imaging device. Was difficult to handle.

【0008】本発明は、上述の問題に鑑みてなされたも
ので、2次元撮像装置と3次元計測装置とを着脱可能と
し、2次元データの撮影と3次元データの撮影との両方
を行うことができて使い勝手のよい撮影システム、並び
にそれに用いられる2次元撮像装置および3次元計測装
置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has an object to make a two-dimensional imaging device and a three-dimensional measurement device detachable, and to perform both two-dimensional data imaging and three-dimensional data imaging. It is an object of the present invention to provide an easy-to-use imaging system that can be used, and a two-dimensional imaging device and a three-dimensional measurement device used for the imaging system.

【0009】[0009]

【課題を解決するための手段】請求項1の発明に係るシ
ステムは、2次元撮像装置および前記2次元撮像装置に
着脱可能に取り付けられる3次元計測装置を有する撮影
システムであって、前記2次元撮像装置と前記3次元計
測装置とは互いに通信可能であり、いずれか一方の動作
条件を表す情報が他方に送信されたときに、それを受信
した他方は受信した情報に基づいて自らの動作条件を設
定して撮像または計測を実行するように構成される。
A system according to the present invention is an imaging system having a two-dimensional imaging device and a three-dimensional measuring device detachably attached to the two-dimensional imaging device. The imaging device and the three-dimensional measuring device can communicate with each other, and when information representing one of the operating conditions is transmitted to the other, the other receiving the information transmits the operating condition based on the received information. Is set to execute imaging or measurement.

【0010】請求項2の発明に係るシステムでは、前記
2次元撮像装置は、被写体の2次元画像を撮像する撮像
手段と、前記撮像手段の撮像条件を表す情報を送信する
送信手段と、を有し、前記3次元計測装置は、前記2次
元撮像装置から送信される情報を受信する受信手段と、
受信した情報に基づいて計測条件を設定し前記被写体の
3次元形状を計測する3次元計測手段と、を有する。
[0010] In the system according to a second aspect of the present invention, the two-dimensional imaging device includes an imaging unit that captures a two-dimensional image of a subject, and a transmission unit that transmits information indicating imaging conditions of the imaging unit. A receiving unit that receives information transmitted from the two-dimensional imaging device;
Three-dimensional measuring means for setting a measurement condition based on the received information and measuring a three-dimensional shape of the subject.

【0011】請求項3の発明に係るシステムでは、前記
2次元撮像装置は、被写体の2次元画像を撮像する撮像
手段と、前記撮像手段の撮像条件から前記3次元計測装
置の計測条件に関連する情報を算出する算出手段と、前
記算出手段により算出された情報を送信する送信手段
と、を有し、前記3次元計測装置は、前記2次元撮像装
置から送信される情報を受信する受信手段と、受信した
情報に基づいて計測条件を設定し前記被写体の3次元形
状を計測する3次元計測手段と、を有する。
[0011] In the system according to the third aspect of the present invention, the two-dimensional imaging device relates to imaging means for capturing a two-dimensional image of a subject, and imaging conditions of the three-dimensional measurement device based on imaging conditions of the imaging means. A calculating unit for calculating information; and a transmitting unit for transmitting the information calculated by the calculating unit, wherein the three-dimensional measuring device includes a receiving unit for receiving information transmitted from the two-dimensional imaging device; And three-dimensional measuring means for setting measurement conditions based on the received information and measuring the three-dimensional shape of the subject.

【0012】請求項4の発明に係るシステムでは、前記
3次元計測装置は、被写体の3次元形状を計測する3次
元計測手段と、前記3次元計測手段の計測条件を表す情
報を送信する送信手段と、を有し、前記2次元撮像装置
は、前記3次元計測装置から送信される情報を受信する
受信手段と、受信した情報に基づいて撮像条件を設定し
前記被写体の2次元画像を撮像する撮像手段と、を有す
る。
[0012] In the system according to the present invention, the three-dimensional measuring device includes a three-dimensional measuring means for measuring a three-dimensional shape of the subject, and a transmitting means for transmitting information representing measurement conditions of the three-dimensional measuring means. Wherein the two-dimensional imaging device receives information transmitted from the three-dimensional measurement device, and sets an imaging condition based on the received information to capture a two-dimensional image of the subject. Imaging means.

【0013】請求項5の発明に係るシステムでは、前記
3次元計測装置は、被写体の3次元形状を計測する3次
元計測手段と、前記3次元計測手段の計測条件から前記
2次元撮像装置の撮像条件に関連する情報を算出する算
出手段と、前記算出手段により算出された情報を送信す
る送信手段と、を有し、前記2次元撮像装置は、前記3
次元計測装置から送信される情報を受信する受信手段
と、受信した情報に基づいて撮像条件を設定し前記被写
体の2次元画像を撮像する撮像手段と、を有する。
In the system according to a fifth aspect of the present invention, the three-dimensional measuring device includes a three-dimensional measuring means for measuring a three-dimensional shape of the subject, and an image pick-up by the two-dimensional image pick-up device based on measurement conditions of the three-dimensional measuring means. A calculating unit that calculates information related to a condition; and a transmitting unit that transmits the information calculated by the calculating unit.
The image processing apparatus includes a receiving unit that receives information transmitted from the dimension measurement device, and an imaging unit that sets an imaging condition based on the received information and captures a two-dimensional image of the subject.

【0014】請求項6の発明に係るシステムでは、前記
3次元計測装置は、被写体の3次元形状を計測する3次
元計測手段と、前記3次元計測手段の計測条件を表す情
報を送信する送信手段と、前記2次元撮像装置から送信
される情報を受信する受信手段と、前記受信手段により
2次元撮像装置から送信される情報を受信したときに、
受信した情報に基づいて計測条件を設定する手段と、を
有し、前記2次元撮像装置は、被写体の2次元画像を撮
像する撮像手段と、前記撮像手段の撮像条件を表す情報
を送信する送信手段と、前記3次元計測装置から送信さ
れる情報を受信する受信手段と、前記受信手段により3
次元計測装置から送信される情報を受信したときに、受
信した情報に基づいて撮像条件を設定する手段と、を有
する。
According to a sixth aspect of the present invention, the three-dimensional measuring device includes a three-dimensional measuring unit that measures a three-dimensional shape of the subject, and a transmitting unit that transmits information representing measurement conditions of the three-dimensional measuring unit. Receiving means for receiving information transmitted from the two-dimensional imaging device, and receiving information transmitted from the two-dimensional imaging device by the receiving means,
Means for setting a measurement condition based on the received information, wherein the two-dimensional imaging apparatus captures a two-dimensional image of a subject, and transmits information indicating the imaging condition of the imaging means. Means, receiving means for receiving information transmitted from the three-dimensional measuring apparatus, and
Means for setting an imaging condition based on the received information when the information transmitted from the dimension measurement device is received.

【0015】請求項7の発明に係るシステムでは、前記
撮像条件を表す情報は、前記撮像手段の撮像範囲および
撮像分解能であり、前記計測条件を表す情報は、前記3
次元計測手段の計測範囲および計測分解能である。
According to a seventh aspect of the present invention, the information indicating the imaging condition is an imaging range and an imaging resolution of the imaging means, and the information indicating the measurement condition is the three-dimensional information.
The measurement range and the measurement resolution of the dimension measurement means.

【0016】請求項8の発明に係る2次元撮像装置は、
被写体の2次元画像を撮像する撮像手段と、前記撮像手
段の撮像条件を表す情報を前記3次元計測装置に送信す
る送信手段と、を有する。
The two-dimensional imaging device according to the invention of claim 8 is:
The imaging device includes an imaging unit that captures a two-dimensional image of a subject, and a transmission unit that transmits information representing an imaging condition of the imaging unit to the three-dimensional measurement device.

【0017】請求項9の発明に係る2次元撮像装置は、
3次元計測装置から送信される情報を受信する受信手段
と、受信した情報に基づいて撮像条件を設定し被写体の
2次元画像を撮影する撮像手段と、を有する。
According to a ninth aspect of the present invention, there is provided a two-dimensional imaging apparatus,
The apparatus includes a receiving unit that receives information transmitted from the three-dimensional measuring device, and an imaging unit that sets an imaging condition based on the received information and captures a two-dimensional image of a subject.

【0018】請求項10の発明に係る3次元計測装置
は、被写体の3次元形状を計測する3次元計測手段と、
前記3次元計測手段の計測条件を表す情報を送信する送
信手段と、を有する。
A three-dimensional measuring device according to a tenth aspect of the present invention is a three-dimensional measuring device for measuring a three-dimensional shape of a subject,
Transmitting means for transmitting information representing measurement conditions of the three-dimensional measuring means.

【0019】請求項11の発明に係る3次元計測装置
は、2次元撮像装置から送信される情報を受信する受信
手段と、受信した情報に基づいて計測条件を設定し被写
体の3次元形状を計測する3次元計測手段と、を有す
る。
The three-dimensional measuring device according to the eleventh aspect of the present invention is a receiving means for receiving information transmitted from a two-dimensional imaging device, and sets a measurement condition based on the received information to measure a three-dimensional shape of a subject. And three-dimensional measuring means for performing the measurement.

【0020】[0020]

【発明の実施の形態】図1は本発明に係る撮影システム
1の概略の構成を示す図、図2はTOF(タイムオブフ
ライト)方式の投光受光部30Aの例を示す図、図3は
光切断方式の投光受光部30Bの例を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a photographing system 1 according to the present invention, FIG. 2 is a diagram showing an example of a TOF (time-of-flight) type light emitting / receiving section 30A, and FIG. It is a figure which shows the example of the light-projection light-receiving part 30B of a light cutting system.

【0021】図1において、撮影システム1は、2次元
撮像装置であるデジタルカメラ3、デジタルカメラ3と
は別体であってデジタルカメラ3に着脱可能に取り付け
られる3次元計測ユニット4からなる。なお、図示はし
ないが、必要に応じてフラッシュ5が着脱可能に取り付
けられる。
In FIG. 1, a photographing system 1 includes a digital camera 3 which is a two-dimensional image pickup apparatus, and a three-dimensional measuring unit 4 which is separate from the digital camera 3 and which is detachably attached to the digital camera 3. Although not shown, the flash 5 is detachably attached as needed.

【0022】デジタルカメラ3は、本体ハウジングH
C、エリアセンサ11、撮像制御部12、レンズ群1
3、レンズ制御部14、記録部15、測距部16、操作
部17、表示部18、コネクタ19、2次元制御部2
0、および画像処理部21などからなる。
The digital camera 3 includes a main body housing H
C, area sensor 11, imaging control unit 12, lens group 1
3, lens control unit 14, recording unit 15, distance measuring unit 16, operation unit 17, display unit 18, connector 19, two-dimensional control unit 2
0, and the image processing unit 21 and the like.

【0023】エリアセンサ11は、CCDイメージセン
サなどからなり、被写体の2次元画像を撮像する。撮像
制御部12は、エリアセンサ11を制御し、エリアセン
サ11からのデータの読み出しを行う。
The area sensor 11 comprises a CCD image sensor or the like, and captures a two-dimensional image of a subject. The imaging control unit 12 controls the area sensor 11 and reads data from the area sensor 11.

【0024】レンズ群13は、ズームレンズおよびフォ
ーカシングレンズを含んでいる。レンズ群13は、レン
ズ制御部14によって自動焦点制御(AF)が行われ、
エリアセンサ11に被写体像を結像させる。自動焦点制
御は、3次元計測ユニット4が取り付けられている場合
には、3次元計測ユニット4から出力される計測結果デ
ータ(測定結果データ)に基づいて行われ、そうでない
場合には測距部16での計測結果に基づいて行われる。
The lens group 13 includes a zoom lens and a focusing lens. The lens group 13 is subjected to automatic focus control (AF) by the lens control unit 14,
A subject image is formed on the area sensor 11. The automatic focus control is performed based on the measurement result data (measurement result data) output from the three-dimensional measurement unit 4 when the three-dimensional measurement unit 4 is attached, and otherwise, the distance measurement unit. This is performed based on the measurement result at step 16.

【0025】記録部15は、HDD(ハードディスク装
置)、光磁気記録装置、または、フラッシュメモリ、ス
マートメディア、MD(ミニディスク)などの交換可能
な記憶メディアからなる。記録部15において、エリア
センサ11により撮像された2次元画像、3次元計測ユ
ニット4で計測された3次元データ、その他の属性デー
タなどが記録される。
The recording section 15 is composed of an HDD (hard disk device), a magneto-optical recording device, or an exchangeable storage medium such as a flash memory, a smart media, and an MD (mini disk). The recording unit 15 records a two-dimensional image captured by the area sensor 11, three-dimensional data measured by the three-dimensional measuring unit 4, other attribute data, and the like.

【0026】測距部16として、例えば、一般的なアク
ティブ型の公知の測距装置が用いられる。撮像範囲内の
画面の1点のみの距離を測定することが可能である。測
距部16は、デジタルカメラ3が単体として用いられる
場合のみに使用される。3次元計測ユニット4が取り付
けられている場合には、3次元計測ユニット4から出力
される計測結果データが用いられるので、測距部16は
使用されない。
As the distance measuring section 16, for example, a general active type known distance measuring device is used. It is possible to measure the distance of only one point on the screen within the imaging range. The distance measuring unit 16 is used only when the digital camera 3 is used alone. When the three-dimensional measuring unit 4 is attached, the measurement result data output from the three-dimensional measuring unit 4 is used, so that the distance measuring unit 16 is not used.

【0027】操作部17として、レリーズボタン、電源
ボタン、ズームボタン、メニュー選択ボタンなどが設け
られている。なお、ズームボタンとしては、遠方用(T
ELE用)のボタンおよび接近用(WIDE用)の2個
のボタンが設けられている。また、メニュー選択ボタン
としては、カーソルなどを上下左右に移動させるための
4個のボタンと確定用のボタンの合計5個のボタンが設
けられている。
The operation unit 17 includes a release button, a power button, a zoom button, a menu selection button, and the like. In addition, as the zoom button, a distant (T
Two buttons are provided, one for ELE and one for WIDE. As the menu selection buttons, a total of five buttons are provided, four buttons for moving a cursor or the like up, down, left and right and a button for confirming.

【0028】表示部18には、エリアセンサ11で撮像
された2次元画像が表示される。したがって、表示部1
8は、2次元撮像における電子ファインダーとしても機
能する。その他、表示部18には、メニュー、メッセー
ジ、その他の文字または画像が表示される。
The display unit 18 displays a two-dimensional image picked up by the area sensor 11. Therefore, the display unit 1
Reference numeral 8 also functions as an electronic finder in two-dimensional imaging. In addition, the display unit 18 displays a menu, a message, and other characters or images.

【0029】また、表示部18には、3次元計測ユニッ
ト4が取り付けられた場合に、3次元計測ユニット4に
よる計測範囲を示す情報、その計測範囲を指定するため
の情報などが、2次元画像とともに表示される。さら
に、3次元計測ユニット4によって計測された3次元デ
ータが濃淡画像として表示される。3次元計測に関連す
るメニューも表示される。
When the three-dimensional measurement unit 4 is attached, the display unit 18 displays information indicating the measurement range of the three-dimensional measurement unit 4, information for specifying the measurement range, and the like. Displayed with Further, the three-dimensional data measured by the three-dimensional measurement unit 4 is displayed as a grayscale image. A menu related to three-dimensional measurement is also displayed.

【0030】コネクタ19は、3次元計測ユニット4を
取り付けた際に、3次元計測ユニット4との間で信号ま
たはデータ(情報)の授受を行うための接続点となる。
2次元制御部20は、デジタルカメラ3の各部の制御を
行う他、3次元計測ユニット4の3次元制御部40との
間における通信の制御を行う。この通信において、デジ
タルカメラ3は、デジタルカメラ3のパラメータであ
る、焦点距離、ズームの有無、エリアセンサ11の解像
度などに関するデータを送信し、3次元計測ユニット4
のパラメータである、計測原理、計測可能距離範囲、解
像度、および計測可能画角などに関するデータ、ならび
に、3次元計測の結果である計測結果データ(3次元デ
ータを含む)を受信する。
The connector 19 is a connection point for exchanging signals or data (information) with the three-dimensional measuring unit 4 when the three-dimensional measuring unit 4 is attached.
The two-dimensional control unit 20 controls each unit of the digital camera 3 and controls communication with the three-dimensional control unit 40 of the three-dimensional measurement unit 4. In this communication, the digital camera 3 transmits data relating to the parameters of the digital camera 3 such as the focal length, the presence or absence of zooming, the resolution of the area sensor 11, and the like.
Of the measurement principle, the measurable distance range, the resolution, the measurable angle of view, and the like, and the measurement result data (including the three-dimensional data) as the result of the three-dimensional measurement.

【0031】本体ハウジングHCには、これら各部が収
納され、または表面に取り付けられている。本体ハウジ
ングHCによって、デジタルカメラ3は一個のカメラと
して構成されている。デジタルカメラ3は、3次元計測
ユニット4が取り付けられていない状態でも、単独で通
常のデジタルカメラ(電子カメラ)として使用すること
が可能である。
These parts are housed in the main body housing HC or mounted on the surface. The digital camera 3 is configured as one camera by the main body housing HC. The digital camera 3 can be used alone as a normal digital camera (electronic camera) even when the three-dimensional measurement unit 4 is not attached.

【0032】3次元計測ユニット4は、本体ハウジング
HT、投光受光部30、および3次元制御部40からな
る。投光受光部30として、TOF方式または光切断方
式など、種々の方式のものを用いることが可能である。
The three-dimensional measuring unit 4 includes a main body housing HT, a light emitting and receiving unit 30, and a three-dimensional control unit 40. As the light emitting and receiving unit 30, various types such as a TOF method or a light cutting method can be used.

【0033】例えば、図2に示すTOF方式の投光受光
部30Aでは、投光部31、受光部32、投光制御部3
3、受光制御部34、走査制御部35、および走査ミラ
ー37などからなる。
For example, in the TOF light emitting / receiving section 30A shown in FIG. 2, the light emitting section 31, the light receiving section 32, the light emitting control section 3
3, a light receiving control unit 34, a scanning control unit 35, a scanning mirror 37, and the like.

【0034】投光部31からレーザのパルス光が投射さ
れる。そのパルス光が被写体(対象物)で反射し、反射
光が受光部32で受光される。投光部31には例えばレ
ーザダイオードが用いられ、受光部32には例えばフォ
トダイオードが用いられる。これらは、投光制御部33
および受光制御部34によって制御される。パルス光の
投射(発光)から受光までの時間を計測することによ
り、距離情報が得られる。
The light emitting section 31 emits laser pulse light. The pulse light is reflected by the subject (object), and the reflected light is received by the light receiving unit 32. For example, a laser diode is used for the light projecting unit 31, and a photodiode is used for the light receiving unit 32, for example. These are the light emission control unit 33
And the light receiving control unit 34. The distance information can be obtained by measuring the time from the projection (emission) of the pulsed light to the reception of the pulsed light.

【0035】この計測方法では、1回の計測によって被
写体の小領域についての距離情報が得られる。パルス光
の投射方向(計測方向)を走査ミラー37により走査す
ることで、所定のエリアの距離分布情報が得られる。な
お、図2においては、パルス光を上下方向に走査する走
査ミラー37のみが示されているが、左右方向に走査す
る走査ミラーも設けられている。
In this measuring method, distance information on a small area of a subject can be obtained by one measurement. By scanning the projection direction (measurement direction) of the pulse light with the scanning mirror 37, distance distribution information of a predetermined area can be obtained. In FIG. 2, only the scanning mirror 37 for scanning the pulse light in the vertical direction is shown, but a scanning mirror for scanning in the horizontal direction is also provided.

【0036】図3に示す光切断方式の投光受光部30B
では、投光部31、エリアセンサ32a、投光制御部3
3、撮像制御部34a、画像処理部34b、走査制御部
35、走査ミラー37、およびレンズ群38などからな
る。
A light-cutting type light emitting / receiving section 30B shown in FIG.
Then, the light emitting unit 31, the area sensor 32a, the light emitting control unit 3
3, an imaging control unit 34a, an image processing unit 34b, a scanning control unit 35, a scanning mirror 37, a lens group 38, and the like.

【0037】投光部31からレーザのパルス光またはス
リット光が投射される。被写体からの反射光がレンズ群
38を通ってエリアセンサ32aで受光される。エリア
センサ32aからの出力に基づいて、反射光のエリアセ
ンサ32a上の受光位置が求められる。それとレーザ光
の投射角度などに基づいて、三角測量の原理で被写体ま
での距離情報が得られる。レーザ光の投射角度、つまり
計測方向を、走査ミラー37により走査することによっ
て、所定の範囲の計測が行われる。
The light emitting section 31 emits laser pulse light or slit light. Light reflected from the subject passes through the lens group 38 and is received by the area sensor 32a. The light receiving position of the reflected light on the area sensor 32a is determined based on the output from the area sensor 32a. Based on this and the projection angle of the laser beam, distance information to the subject can be obtained by the principle of triangulation. By scanning the projection angle of the laser beam, that is, the measurement direction with the scanning mirror 37, measurement in a predetermined range is performed.

【0038】なお、光切断方式において、計測のタイミ
ング(レーザ光の投射角度)毎に、エリアセンサ32a
上の受光位置を検出する第1のタイプと、エリアセンサ
32aの各画素毎に、各画素を反射光が通過するタイミ
ング(レーザ光の投射角度)を検出する第2のタイプと
がある。
In the light cutting method, the area sensor 32a is used for each measurement timing (laser beam projection angle).
There are a first type that detects the upper light receiving position and a second type that detects the timing (the projection angle of the laser light) at which the reflected light passes through each pixel for each pixel of the area sensor 32a.

【0039】第1のタイプでは、サンプリングしたとき
のスリット方向に対して距離情報が得られる。したがっ
て、スリット光を走査させながら計測する場合には、サ
ンプリング周期(データ取り込み時間間隔)によって分
解能が変わる。
In the first type, distance information is obtained for the slit direction at the time of sampling. Therefore, when the measurement is performed while scanning the slit light, the resolution changes depending on the sampling cycle (data acquisition time interval).

【0040】第2のタイプでは、各画素のにらむ方向に
ついて距離情報が得られる。したがって、分解能は撮像
面の画素数で決まるが、さらに補間処理を行うことで画
素数が変わるので、これに応じて分解能も変わる。
In the second type, distance information is obtained for the direction in which each pixel looks. Therefore, the resolution is determined by the number of pixels on the imaging surface. However, the number of pixels changes by further performing the interpolation processing, and the resolution changes accordingly.

【0041】3次元制御部40は、3次元計測ユニット
4の各部の制御を行う他、上に述べたように、デジタル
カメラ3の2次元制御部20との間における通信の制御
を行う。なお、3次元計測ユニット4の電源を、図示し
ない他のコネクタ(接続端子)を通じてデジタルカメラ
3から供給することも可能である。
The three-dimensional control unit 40 controls each unit of the three-dimensional measuring unit 4 and also controls communication with the two-dimensional control unit 20 of the digital camera 3 as described above. The power of the three-dimensional measuring unit 4 can be supplied from the digital camera 3 through another connector (connection terminal) (not shown).

【0042】さて、撮影システム1では、デジタルカメ
ラ3と3次元計測ユニット4との間で通信を行い、いず
れか一方の動作条件を表す情報が他方に送信されたとき
に、それを受信した他方は、受信した情報に基づいて自
らの動作条件を設定して撮像または計測を実行する。
Now, in the photographing system 1, communication is performed between the digital camera 3 and the three-dimensional measuring unit 4, and when information indicating one of the operating conditions is transmitted to the other, the other is received. Performs imaging or measurement by setting its own operating condition based on the received information.

【0043】すなわち、デジタルカメラ3および3次元
計測ユニット4の両方で同時に撮影を行う場合に、互い
の間で動作条件について整合性がとれている必要があ
る。この場合の動作条件は、主として、撮影範囲(撮像
範囲、計測範囲)および分解能(撮像分解能、計測分解
能)である。
That is, when photographing is performed simultaneously by both the digital camera 3 and the three-dimensional measuring unit 4, it is necessary that the operating conditions be consistent with each other. The operating conditions in this case are mainly an imaging range (imaging range, measurement range) and resolution (imaging resolution, measurement resolution).

【0044】デジタルカメラ3および3次元計測ユニッ
ト4が一体である場合には、相手が定まっているので、
それらは当初から最適な動作条件となるように設定して
おくことが可能である。また、着脱可能ではあるが、常
に同じものが取り付けられるのであれば、やはり同様に
当初から最適な動作条件となるように設定しておくこと
が可能である。
When the digital camera 3 and the three-dimensional measuring unit 4 are integrated, the partner is fixed, so that
These can be set so as to be the optimum operating conditions from the beginning. Also, if it is detachable, but if the same thing is always attached, it is also possible to similarly set the optimal operating conditions from the beginning.

【0045】しかし、本実施形態では、それぞれ、異な
る仕様のものを選んで取り付けることが可能である。例
えば、デジタルカメラ3では、レンズの方式または種
類、ズーム機能の有無、エリアセンサの画素数、または
本体ハウジングHCの形状寸法などの相違、3次元計測
ユニット4では、計測方式の種類、計測距離、計測範
囲、精度、または本体ハウジングHTの形状寸法などの
相違によって、それぞれ仕様が異なる。また、同じ機種
であっても、ユーザの使用状態によって動作条件が異な
ることもある。
However, in the present embodiment, it is possible to select and attach different specifications. For example, in the digital camera 3, differences in the lens system or type, the presence or absence of a zoom function, the number of pixels of the area sensor, the shape and dimensions of the main body housing HC, and the like, the three-dimensional measurement unit 4, the type of measurement system, the measurement distance, The specifications are different depending on the measurement range, the accuracy, the shape and the size of the main body housing HT, and the like. In addition, even in the case of the same model, operating conditions may be different depending on the use state of the user.

【0046】したがって、最適の撮影または計測を行う
ためには、相手の動作条件を知る必要がある。相手の撮
影範囲が分かると、それに合わせて自らの撮影範囲を決
定することができる。例えば、相手の撮影範囲を全てカ
バーするように自らの撮影範囲を設定する。または、相
手の撮影範囲内に収まるように自らの撮影範囲を設定す
る。また、相手の分解能が分かると、それに合わせて、
例えば分解能がほぼ同じになるように決定することがで
きる。
Therefore, in order to perform optimal photographing or measurement, it is necessary to know the operating conditions of the other party. When the photographing range of the other party is known, it is possible to determine its own photographing range accordingly. For example, one's own photographing range is set so as to cover the entire photographing range of the other party. Alternatively, the user sets his / her own shooting range so as to fall within the shooting range of the other party. Also, if you know the resolution of the other party,
For example, it can be determined so that the resolutions are almost the same.

【0047】このように、他方の動作条件に合わせて一
方の動作条件を設定することにより、整合性のよい撮影
を行うことができる。その結果、例えば、得られた3次
元データに2次元データを貼り付けて3次元画像を合成
する場合に、その作業が容易であり、精度のよい3次元
画像が生成される。
As described above, by setting one operation condition in accordance with the other operation condition, it is possible to perform imaging with good consistency. As a result, for example, when two-dimensional data is pasted on the obtained three-dimensional data to synthesize a three-dimensional image, the operation is easy and a three-dimensional image with high accuracy is generated.

【0048】また、種々の仕様のデジタルカメラ3また
は3次元計測ユニット4を組み合わせることにより、2
次元画像の撮像または3次元計測の自由度を向上させる
ことができる。これによって、必要な2次元画像または
3次元データを容易に取得することができる。
By combining a digital camera 3 or a three-dimensional measuring unit 4 of various specifications,
The degree of freedom in capturing a three-dimensional image or three-dimensional measurement can be improved. Thereby, necessary two-dimensional images or three-dimensional data can be easily obtained.

【0049】ここで、デジタルカメラ3および3次元計
測ユニット4の撮影範囲および分解能について説明す
る。図4はデジタルカメラ3の撮像範囲EPを説明する
図、図5および図6は3次元計測ユニット4の計測範囲
EMを説明する図、図7はデジタルカメラ3の撮像範囲
EPを3次元計測ユニット4の計測範囲EMがカバーす
るように設定された状態を示す図、図8はデジタルカメ
ラ3の撮像範囲EPによって3次元計測ユニット4の計
測範囲EMがカバーされるように設定された状態を示す
図、図9はエリアセンサ11の撮像面を示す図である。
Here, the photographing range and resolution of the digital camera 3 and the three-dimensional measuring unit 4 will be described. FIG. 4 is a diagram illustrating an imaging range EP of the digital camera 3, FIGS. 5 and 6 are diagrams illustrating a measurement range EM of the three-dimensional measurement unit 4, and FIG. FIG. 8 shows a state where the measurement range EM of the three-dimensional measurement unit 4 is set to be covered by the imaging range EP of the digital camera 3. FIG. 9 and FIG. 9 are views showing the imaging surface of the area sensor 11.

【0050】図4に示すように、デジタルカメラ3の撮
像範囲EPは、画角θ1で表される。画角θ1の基準点
は、レンズ群13の主点(前側主点)である。図におい
ては縦方向(X方向)の画角θ1のみしか示されていな
いが、横方向(水平方向)においても同様である。画角
θ1は、エリアセンサ11の撮像面の縦横のサイズV
L,HL(図9参照)、およびレンズ群13の焦点距離
fによって決定される。つまり、画角θ1は次の式で示
される。
As shown in FIG. 4, the imaging range EP of the digital camera 3 is represented by an angle of view θ1. The reference point of the angle of view θ1 is the principal point (front principal point) of the lens group 13. Although only the view angle θ1 in the vertical direction (X direction) is shown in the figure, the same applies to the horizontal direction (horizontal direction). The angle of view θ1 is the vertical and horizontal size V of the imaging surface of the area sensor 11.
L and HL (see FIG. 9) and the focal length f of the lens group 13. That is, the angle of view θ1 is expressed by the following equation.

【0051】θ1=2×arctan(h/b) 但し、hはエリアセンサ11のサイズの2分の1であ
る。つまり、縦方向にはh=VL/2であり、横方向に
はh=HL/2である。bは、レンズ群13の主点とエ
リアセンサ11との距離であり、通常、焦点距離fに等
しいものと近似することができる。
Θ1 = 2 × arctan (h / b) where h is a half of the size of the area sensor 11. That is, h = VL / 2 in the vertical direction, and h = HL / 2 in the horizontal direction. b is the distance between the principal point of the lens group 13 and the area sensor 11, and can be usually approximated to the focal length f.

【0052】画角θ1の位置は、図4に示すように、そ
の下端線と光軸とのなす角θ2によって規定される。画
角θ1は、通常、光軸に対して対称である。上の式は光
軸に対して対称であることを前提としている。その場合
には、θ2=θ1/2である。しかし、光軸に対して非
対称の場合もある。
As shown in FIG. 4, the position of the angle of view θ1 is defined by the angle θ2 between the lower end line and the optical axis. The angle of view θ1 is usually symmetric with respect to the optical axis. The above equation assumes that it is symmetric about the optical axis. In that case, θ2 = θ1 / 2. However, there is a case where it is asymmetric with respect to the optical axis.

【0053】光軸は、通常、デジタルカメラ3の本体ハ
ウジングHCの基準面、例えば3次元計測ユニット4の
取り付け面に対して平行に設けられる。しかし、そのよ
うな基準面に対して、直角、または適当な角度を有する
ように設けられることもある。
The optical axis is usually provided in parallel with the reference surface of the main body housing HC of the digital camera 3, for example, the mounting surface of the three-dimensional measuring unit 4. However, it may be provided to have a right angle or an appropriate angle with respect to such a reference plane.

【0054】図5および図6に示すように、3次元計測
ユニット4の計測範囲EMは、通常、例えば走査ミラー
37によるレーザ光の走査角φ1によって決定される。
走査角φ1は、通常、デジタルカメラ3の光軸と平行な
軸に対して非対称である。したがって、基準方向と走査
角φ1の特定の位置との間のなす角φ2を特定する必要
がある。基準方向は、例えば、3次元計測が可能な距離
範囲内においてデジタルカメラ3の光軸と交わるような
方向に設定される。また、基準方向として、3次元計測
ユニット4の本体ハウジングHTの基準面が用いられる
こともある。
As shown in FIGS. 5 and 6, the measurement range EM of the three-dimensional measurement unit 4 is usually determined by the scanning angle φ1 of the laser beam by the scanning mirror 37, for example.
The scanning angle φ1 is generally asymmetric with respect to an axis parallel to the optical axis of the digital camera 3. Therefore, it is necessary to specify the angle φ2 between the reference direction and the specific position of the scan angle φ1. The reference direction is set, for example, in a direction that intersects the optical axis of the digital camera 3 within a distance range where three-dimensional measurement is possible. In addition, the reference surface of the main housing HT of the three-dimensional measurement unit 4 may be used as the reference direction.

【0055】また、計測範囲EMについて、Z軸方向
(奥行き方向)は、図5に示すように、最小距離Zmi
nと最大距離Zmaxとによって規定される場合と、図
6に示すように、基準位置までの距離Zrefと距離範
囲ΔZとによって規定される場合とがある。
In the measurement range EM, the Z-axis direction (depth direction) is the minimum distance Zmi as shown in FIG.
There are cases where the distance is defined by n and the maximum distance Zmax, and cases where the distance is defined by the distance Zref to the reference position and the distance range ΔZ as shown in FIG.

【0056】図7において、デジタルカメラ3の撮像範
囲EPは、3次元計測ユニット4の計測範囲EMによっ
てカバーされている。この場合には、デジタルカメラ3
によって得られる2次元画像の全てについて3次元デー
タが得られる。また、2次元画像をファインダ上に表示
した場合に、ファインダで見える画像の全てについて3
次元データが得られることとなる。したがって、ユーザ
は、ファインダで見える部分については3次元データが
得られることを確認しながら撮影を行うことができる。
In FIG. 7, the imaging range EP of the digital camera 3 is covered by the measurement range EM of the three-dimensional measurement unit 4. In this case, the digital camera 3
The three-dimensional data is obtained for all the two-dimensional images obtained by the above. Also, when a two-dimensional image is displayed on the viewfinder, all of the images viewed through the viewfinder are 3D.
The dimensional data is obtained. Therefore, the user can perform photographing while confirming that three-dimensional data can be obtained for a portion that can be seen through the viewfinder.

【0057】図8において、3次元計測ユニット4の計
測範囲EMは、デジタルカメラ3の撮像範囲EPによっ
てカバーされている。この場合には、3次元計測ユニッ
ト4によって得られる3次元データの全てについて2次
元画像が得られる。したがって、得られた3次元データ
の全てに対して、2次元画像を貼りつけることができ
る。また、3次元データが必要最小限となるので、計測
の処理が高速に行われる。この場合には、3次元データ
の計測範囲EMをファインダ内に表示することによっ
て、計測範囲EMの確認が容易となる。
In FIG. 8, the measurement range EM of the three-dimensional measurement unit 4 is covered by the imaging range EP of the digital camera 3. In this case, a two-dimensional image is obtained for all of the three-dimensional data obtained by the three-dimensional measurement unit 4. Therefore, a two-dimensional image can be pasted on all of the obtained three-dimensional data. In addition, since the three-dimensional data is minimized, the measurement process is performed at high speed. In this case, by displaying the measurement range EM of the three-dimensional data in the finder, it is easy to confirm the measurement range EM.

【0058】図7および図8のいずれの場合において
も、デジタルカメラ3または3次元計測ユニット4のい
ずれか一方、または両方を制御することができる。図7
および図8のいずれとするかについて、ユーザによって
モードの設定を行うように構成することができる。
In either case of FIGS. 7 and 8, one or both of the digital camera 3 and the three-dimensional measuring unit 4 can be controlled. FIG.
Regarding which one of FIG. 8 and FIG. 8, the mode can be set by the user.

【0059】デジタルカメラ3の分解能(撮像分解能)
は、エリアセンサ11の縦横の画素数Vpix,Hpi
x、またはそれと画角θ1とによって決定される。電子
的拡大処理または間引き処理などの画像処理(電子ズー
ム、解像度変換処理)によって分解能を増減させ、また
は増大させることも可能である。
Resolution of digital camera 3 (imaging resolution)
Is the number of vertical and horizontal pixels Vpix, Hpi of the area sensor 11.
x or it and the angle of view θ1. It is also possible to increase or decrease or increase the resolution by image processing (electronic zoom, resolution conversion processing) such as electronic enlargement processing or thinning processing.

【0060】3次元計測ユニット4の分解能(計測分解
能)は、計測ポイント数、またはそれと走査角φ1とに
よって決定される。さらに詳しくは、例えば、TOF方
式の場合には、走査ミラー37の走査速度および投光部
31のレーザの投光時間間隔などによる。光切断方式の
場合には、上に述べたように第1のタイプではデータ取
込み時間間隔により、第2のタイプではエリアセンサ3
2aの撮像面の画素数(補間処理が行われた場合は補間
後の画素数)による。また、走査ミラー37の走査速度
は、走査角φ1の決定に関係する。デジタルカメラ3の
場合と同様に、電子的な解像度変換処理によって分解能
を増減させることも可能である。
The resolution (measurement resolution) of the three-dimensional measurement unit 4 is determined by the number of measurement points or the number of measurement points and the scanning angle φ1. More specifically, for example, in the case of the TOF method, it depends on the scanning speed of the scanning mirror 37 and the light emitting time interval of the laser of the light emitting unit 31. In the case of the light cutting method, as described above, the data acquisition time interval is used in the first type, and the area sensor 3 is used in the second type.
It depends on the number of pixels on the imaging surface 2a (the number of pixels after interpolation when interpolation processing is performed). The scanning speed of the scanning mirror 37 is related to the determination of the scanning angle φ1. As in the case of the digital camera 3, the resolution can be increased or decreased by electronic resolution conversion processing.

【0061】また、デジタルカメラ3の撮像分解能と3
次元計測ユニット4の計測分解能との関係についても、
それらの撮影範囲の関係と同様に関係付けられる。すな
わち、図7および図8において、撮像範囲EPと計測範
囲EMとの重なる部分において、デジタルカメラ3の2
次元画像の縦横の画素数Vpixa,Hpixaよりも
3次元計測ユニット4の縦横の計測ポイント数Vpnt
a、Hpntaが大きいという関係か、または、その逆
に、3次元計測ユニット4の縦横の計測ポイント数Vp
ntb、Hpntbよりもデジタルカメラ3の2次元画
像の縦横の画素数Vpixb,Hpixbが大きいとい
う関係か、またはそれらが互いに等しいという関係のい
ずれかである。いずれの場合においても、画素数または
計測ポイント数のいずれか一方、または両方を制御する
ことができる。
The imaging resolution of the digital camera 3 and 3
Regarding the relationship with the measurement resolution of the dimension measurement unit 4,
They are related in the same manner as the relationship between the photographing ranges. That is, in FIG. 7 and FIG. 8, in the portion where the imaging range EP and the measurement range EM overlap,
The number of vertical and horizontal measurement points Vpnt of the three-dimensional measurement unit 4 is larger than the number of vertical and horizontal pixels Vpixa and Hpixa of the three-dimensional image.
a, Hpnta is large, or vice versa, the number of vertical and horizontal measurement points Vp of the three-dimensional measurement unit 4
Either the relationship that the number of vertical and horizontal pixels Vpixb and Hpixb of the two-dimensional image of the digital camera 3 is larger than ntb and Hpntb, or the relationship that they are equal to each other. In any case, one or both of the number of pixels and the number of measurement points can be controlled.

【0062】これら、撮影範囲EP,EMおよび分解能
を互いに通信するに当たり、その通信内容、つまりどの
ようなパラメータまたは物理量を送信するかという点を
決定する必要がある。また、送信するパラメータまたは
物理量を得るために、必要な情報を取得して適当な演算
を行う必要がある。
In communicating these imaging ranges EP, EM and resolution, it is necessary to determine the contents of the communication, that is, what parameters or physical quantities are to be transmitted. In addition, in order to obtain a parameter or a physical quantity to be transmitted, it is necessary to obtain necessary information and perform an appropriate operation.

【0063】図10はデジタルカメラ3と3次元計測ユ
ニット4との間における通信方法に関する種々のレベル
Tを説明する図である。図10において、デジタルカメ
ラ3では、焦点距離f、画素数、および画像処理による
変倍率などの内部パラメータが、その構造に基づいて決
定されているか、または設定可能である。3次元計測ユ
ニット4では、走査ミラー37による走査角φ1および
計測ポイント数などの内部パラメータが、その構造に基
づいて決定されているか、または設定可能である。これ
らの間に、中間的なパラメータが存在する。どのような
パラメータを送信するかによって、種々のレベルT1〜
5が存在する。
FIG. 10 is a diagram for explaining various levels T relating to a communication method between the digital camera 3 and the three-dimensional measuring unit 4. In FIG. 10, in the digital camera 3, internal parameters such as a focal length f, the number of pixels, and a magnification ratio by image processing are determined or set based on the structure. In the three-dimensional measurement unit 4, internal parameters such as the scanning angle φ1 by the scanning mirror 37 and the number of measurement points are determined based on the structure thereof or can be set. Between these, there are intermediate parameters. Various levels T1 to T1 depend on what parameters are transmitted.
There are five.

【0064】また、通信の方法として、デジタルカメラ
3から3次元計測ユニット4にパラメータを送信する方
法と、その逆の方法とがある。前者はレベルT1〜5に
添字「a」を付し、後者は添字「b」を付して示してあ
る。
As a communication method, there are a method of transmitting parameters from the digital camera 3 to the three-dimensional measuring unit 4 and a method of the reverse. The former is indicated by adding a suffix “a” to the levels T1 to T5, and the latter is indicated by adding a suffix “b”.

【0065】例えば、レベルT2aでは、デジタルカメ
ラ3から3次元計測ユニット4に対して、焦点距離f、
画素数、変倍率などの内部パラメータが送信される。そ
れを受信した3次元計測ユニット4は、そのパラメータ
に基づいて、自らの動作条件を設定する。
For example, at the level T2a, the digital camera 3 sends the focal length f,
Internal parameters such as the number of pixels and the magnification are transmitted. The three-dimensional measuring unit 4 that has received the information sets its own operating conditions based on the parameters.

【0066】また、レベルT3aでは、デジタルカメラ
3において、焦点距離f、画素数、変倍率などの内部パ
ラメータに基づいて、自らの撮像範囲および撮像分解能
を演算によって求め、求めた撮像範囲および撮像分解能
を3次元計測ユニット4に送信する。
At the level T3a, the digital camera 3 calculates its own imaging range and imaging resolution based on internal parameters such as the focal length f, the number of pixels, and the magnification, and calculates the obtained imaging range and imaging resolution. Is transmitted to the three-dimensional measurement unit 4.

【0067】また、レベルT4aでは、デジタルカメラ
3において、3次元計測ユニット4の計測範囲および計
測分解能を演算によって求め、求めた計測範囲および計
測分解能を3次元計測ユニット4に送信する。
At the level T4a, the digital camera 3 calculates the measurement range and measurement resolution of the three-dimensional measurement unit 4 by calculation, and transmits the obtained measurement range and measurement resolution to the three-dimensional measurement unit 4.

【0068】また、レベルT5aでは、デジタルカメラ
3において、3次元計測ユニット4の走査角φ1および
計測ポイント数などのパラメータを演算によって求め、
求めたパラメータを3次元計測ユニット4に送信する。
At the level T5a, in the digital camera 3, parameters such as the scanning angle φ1 of the three-dimensional measuring unit 4 and the number of measuring points are obtained by calculation.
The obtained parameters are transmitted to the three-dimensional measurement unit 4.

【0069】また、例えばレベルT3bでは、3次元計
測ユニット4において、走査角φ1および計測ポイント
数などの内部パラメータに基づいて、自らの計測範囲お
よび計測分解能を演算によって求め、求めた計測範囲お
よび計測分解能をデジタルカメラ3に送信する。
For example, at the level T3b, the three-dimensional measurement unit 4 calculates its own measurement range and measurement resolution based on internal parameters such as the scanning angle φ1 and the number of measurement points, and calculates the obtained measurement range and measurement resolution. The resolution is transmitted to the digital camera 3.

【0070】これらのいずれのレベルTで通信を行って
もよいが、撮影システム1の全体として通信のデータ量
を低減させ、汎用性をもたせるために、レベルT3での
通信が好ましい。
Communication may be performed at any of these levels T, but communication at level T3 is preferable in order to reduce the amount of communication data as a whole of the imaging system 1 and to provide versatility.

【0071】図11乃至図19はデジタルカメラ3と3
次元計測ユニット4との間で送受信される動作条件の例
を示す図である。これらの図において、デジタルカメラ
3から3次元計測ユニット4に送信される動作条件を
「CA」で、3次元計測ユニット4からデジタルカメラ
3に送信される動作条件を「CB」で、それぞれ示す。
FIGS. 11 to 19 show digital cameras 3 and 3
FIG. 4 is a diagram illustrating an example of operating conditions transmitted and received between a dimension measurement unit 4; In these figures, the operating conditions transmitted from the digital camera 3 to the three-dimensional measuring unit 4 are indicated by “CA”, and the operating conditions transmitted from the three-dimensional measuring unit 4 to the digital camera 3 are indicated by “CB”.

【0072】また、動作条件の決定、取得、そのための
演算、送信または受信などの処理は、デジタルカメラ3
においては2次元制御部20が、3次元計測ユニット4
においては3次元制御部40が、それぞれ行っている。
Processing such as determination and acquisition of operating conditions, calculation therefor, and transmission or reception is performed by the digital camera 3.
In the two-dimensional control unit 20, the three-dimensional measurement unit 4
Is performed by the three-dimensional control unit 40.

【0073】図11において、動作条件CA1は、デジ
タルカメラ3における撮像開始信号であるレリーズ信
号、撮像範囲、および撮像分解能である。動作条件CB
1は、計測結果データ、および必要な場合に計測原理を
示すデータである。
In FIG. 11, the operating condition CA1 is a release signal, which is an imaging start signal in the digital camera 3, an imaging range, and an imaging resolution. Operating condition CB
Reference numeral 1 denotes measurement result data and data indicating a measurement principle when necessary.

【0074】図12において、動作条件CA2は、レリ
ーズ信号である。動作条件CB2は、計測結果データ、
必要な場合に計測原理を示すデータ、計測範囲、および
計測分解能である。
In FIG. 12, the operating condition CA2 is a release signal. The operating condition CB2 is measurement result data,
Data indicating the measurement principle, measurement range, and measurement resolution if necessary.

【0075】図13において、動作条件CA3は、レリ
ーズ信号、および、撮像範囲または撮像分解能のいずれ
かである。動作条件CB3は、計測結果データ、計測範
囲、または計測分解能のいずれかである。
In FIG. 13, the operating condition CA3 is a release signal and one of an imaging range or an imaging resolution. The operating condition CB3 is one of the measurement result data, the measurement range, and the measurement resolution.

【0076】図14において、動作条件CA4は、レリ
ーズ信号、および焦点距離などの1つまたは複数のパラ
メータである。動作条件CB4は計測結果データであ
る。図15において、動作条件CA5は、レリーズ信号
である。動作条件CB6は、計測結果データ、および走
査角φ1などのパラメータである。
In FIG. 14, the operating condition CA4 is one or a plurality of parameters such as a release signal and a focal length. The operating condition CB4 is measurement result data. In FIG. 15, the operating condition CA5 is a release signal. The operating condition CB6 is a parameter such as measurement result data and a scanning angle φ1.

【0077】図16において、動作条件CA6は、レリ
ーズ信号、および、計測範囲または計測分解能などであ
る。動作条件CB6は計測結果データである。図17に
おいて、動作条件CA7はレリーズ信号である。動作条
件CB7は計測結果データ、および、撮像範囲または撮
像分解能などである。
In FIG. 16, the operating condition CA6 is a release signal, a measurement range or a measurement resolution, and the like. The operating condition CB6 is measurement result data. In FIG. 17, the operating condition CA7 is a release signal. The operating condition CB7 is measurement result data, an imaging range, an imaging resolution, and the like.

【0078】図18において、動作条件CA8は、レリ
ーズ信号、および走査角φ1などのパラメータである。
動作条件CB8は計測結果データである。図19におい
て、動作条件CA9はレリーズ信号である。動作条件C
B9は計測結果データ、および焦点距離fなどのパラメ
ータである。
In FIG. 18, an operating condition CA8 is a parameter such as a release signal and a scanning angle φ1.
The operating condition CB8 is measurement result data. In FIG. 19, the operating condition CA9 is a release signal. Operating condition C
B9 is measurement result data and parameters such as a focal length f.

【0079】これらの動作条件CA,CBを選択するこ
とによって、上に述べたレベルTが決定される。動作条
件CA,CBを選択することによって、デジタルカメラ
3または3次元計測ユニット4の制御の負担が異なり、
したがってそれが価格に反映されることとなる。
By selecting these operating conditions CA and CB, the level T described above is determined. By selecting the operating conditions CA and CB, the burden of control of the digital camera 3 or the three-dimensional measuring unit 4 differs,
Therefore, it will be reflected in the price.

【0080】例えば、デジタルカメラ3の価格を低く抑
えたい場合には、デジタルカメラ3の2次元制御部20
の負担が軽くなるような動作条件CA,CBを選択すれ
ばよい。それは、例えば、2次元制御部20での演算量
が少なくなる動作条件である。また、オプションである
3次元計測ユニット4の価格を低く抑えたい場合には、
3次元制御部40の負担が軽くなるような動作条件C
A,CBを選択すればよい。それは、例えば、3次元制
御部40での演算量が少なくなる動作条件である。
For example, when it is desired to keep the price of the digital camera 3 low, the two-dimensional control unit 20 of the digital camera 3
The operating conditions CA and CB may be selected so as to reduce the burden on the user. That is, for example, an operation condition under which the amount of calculation in the two-dimensional control unit 20 is reduced. If you want to keep the price of the optional three-dimensional measuring unit 4 low,
Operating condition C that reduces the load on the three-dimensional control unit 40
A and CB may be selected. That is, for example, an operating condition under which the amount of calculation in the three-dimensional control unit 40 is reduced.

【0081】次に、撮影システム1の動作および操作に
ついて、以下に示す表示部18に表示される画面および
フローチャートに基づいて説明する。なお、3次元計測
ユニット4の計測方式、いずれの動作条件が基準となる
か、および通信のレベルTなどに応じて、種々の実施例
が考えられる。
Next, the operation and operation of the photographing system 1 will be described with reference to a screen and a flowchart displayed on the display unit 18 described below. Various embodiments can be considered according to the measurement method of the three-dimensional measurement unit 4, which operation condition is the reference, the communication level T, and the like.

【0082】第1実施例では、3次元計測ユニット4が
図2に示すTOF方式であり、デジタルカメラ3の動作
条件CAが基準となり、通信はレベルT3aである。第
2実施例では、3次元計測ユニット4が図2に示すTO
F方式であり、3次元計測ユニット4の動作条件CBが
基準となり、通信はレベルT3bである。
In the first embodiment, the three-dimensional measuring unit 4 is of the TOF type shown in FIG. 2, the operating condition CA of the digital camera 3 is used as a reference, and the communication is at the level T3a. In the second embodiment, the three-dimensional measuring unit 4 is a TO
The F method is used, and the operation condition CB of the three-dimensional measuring unit 4 is used as a reference, and the communication is at the level T3b.

【0083】第3実施例では、3次元計測ユニット4が
図3に示す光切断方式であり、デジタルカメラ3の動作
条件CAが基準となり、通信はレベルT3aである。第
4実施例では、3次元計測ユニット4が図3に示す光切
断方式であり、3次元計測ユニット4の動作条件CBが
基準となり、通信はレベルT3bである。 〔第1および第3実施例〕図20はメニュー画面HG1
の例を示す図、図21は他のメニュー画面HG2の例を
示す図、図22はデジタルカメラ3の2次元制御部20
による制御内容を示すメインフローチャート、図23は
デジタルカメラ3の3D処理のルーチンを示すフローチ
ャート、図24は3次元計測ユニット4における計測の
処理を示すフローチャートである。
In the third embodiment, the three-dimensional measuring unit 4 employs the light cutting system shown in FIG. 3, the operating condition CA of the digital camera 3 is used as a reference, and communication is at level T3a. In the fourth embodiment, the three-dimensional measuring unit 4 is of the light cutting type shown in FIG. 3, the operating condition CB of the three-dimensional measuring unit 4 is used as a reference, and the communication is at the level T3b. [First and Third Embodiments] FIG. 20 shows a menu screen HG1.
FIG. 21 is a diagram illustrating an example of another menu screen HG2, and FIG. 22 is a diagram illustrating the two-dimensional control unit 20 of the digital camera 3.
23 is a flowchart showing a routine of 3D processing of the digital camera 3, and FIG. 24 is a flowchart showing measurement processing in the three-dimensional measuring unit 4.

【0084】第1および第3実施例では、デジタルカメ
ラ3の動作条件CAを基準として、3次元計測ユニット
4の動作条件CBが設定される。その際に、撮像範囲E
P,EMは、図7に示す関係となるように設定される。
In the first and third embodiments, the operating condition CB of the three-dimensional measuring unit 4 is set based on the operating condition CA of the digital camera 3. At this time, the imaging range E
P and EM are set so as to have the relationship shown in FIG.

【0085】図22において、まず、各部のイニシャラ
イズが行われ、3次元計測ユニット4ヘの電源供給が開
始される(#101)。次に、3次元計測ユニット4が
装着されているか否かのチェックが行われる(#10
2)。例えば、3次元制御部40に所定の信号を送信
し、所定時間内に返信があるか否かによってチェックさ
れる。チェックが行われた後、互いのスペック情報の交
信を行う。
In FIG. 22, first, the respective parts are initialized, and power supply to the three-dimensional measuring unit 4 is started (# 101). Next, it is checked whether or not the three-dimensional measuring unit 4 is mounted (# 10).
2). For example, a predetermined signal is transmitted to the three-dimensional control unit 40, and it is checked whether there is a reply within a predetermined time. After the check is performed, mutual exchange of the specification information is performed.

【0086】なお、3次元計測ユニット4の着脱状態と
連動して動作するスイッチまたはセンサを設け、そのス
イッチまたはセンサの状態を検出するようにしてもよい
が、3次元制御部40との交信によるチェックの方が確
実である。
A switch or a sensor that operates in conjunction with the attachment / detachment state of the three-dimensional measurement unit 4 may be provided to detect the state of the switch or the sensor. Checking is more reliable.

【0087】3次元計測ユニット4が装着されているか
否かに応じて(#103)、表示部18にメニュー画面
HG1またはHG2のいずれかが表示される。図20に
示すように、メニュー画面HG1は、3次元計測ユニッ
ト4が非装着状態での初期メニューであり、2次元撮像
に関するモードのみが表示される。
Depending on whether or not the three-dimensional measuring unit 4 is mounted (# 103), either the menu screen HG1 or HG2 is displayed on the display unit 18. As shown in FIG. 20, the menu screen HG1 is an initial menu when the three-dimensional measurement unit 4 is not mounted, and only a mode relating to two-dimensional imaging is displayed.

【0088】図21に示すように、メニュー画面HG2
は、3次元計測ユニット4が装着状態での初期メニュー
であり、メニュー画面HG1で表示されるモードに加え
て、3次元計測に関するモードが表示される。
As shown in FIG. 21, the menu screen HG2
Is an initial menu when the three-dimensional measurement unit 4 is mounted, and displays a mode relating to three-dimensional measurement in addition to a mode displayed on the menu screen HG1.

【0089】これらの画面HG1,2について、操作部
17の上下左右ボタンを操作していずれかのモードを選
択し、その状態で操作部17の確定ボタンを操作するこ
とにより、そのモードが実際に選択される。次に、各モ
ードの説明を行う。
By operating the up, down, left and right buttons of the operation unit 17 on these screens HG1, HG2 and selecting one of the modes, and operating the confirmation button of the operation unit 17 in that state, the mode is actually set. Selected. Next, each mode will be described.

【0090】画像再生モードでは、記録された2次元画
像を読み出し、表示部18に表示する。表示される画像
を切換えて、そのときに表示されている画像を削除する
ことも可能である。
In the image reproduction mode, the recorded two-dimensional image is read out and displayed on the display unit 18. It is also possible to switch the displayed image and delete the image displayed at that time.

【0091】撮影モードでは、通常のデジタルカメラと
同様に2次元画像を撮影する。3D再生モードでは、記
録された3次元データおよび計測結果データを読み出
し、それを表示部18に表示する。このとき、例えば、
距離を濃淡に変換して表示するようにすればよい。ま
た、3次元データを、それに対応する2次元画像と並べ
て表示してもよいし、重ねて表示するようにしてもよ
い。
In the photographing mode, a two-dimensional image is photographed as in a normal digital camera. In the 3D playback mode, the recorded three-dimensional data and measurement result data are read out and displayed on the display unit 18. At this time, for example,
The distance may be converted into light and shade and displayed. Further, the three-dimensional data may be displayed side by side with the corresponding two-dimensional image, or may be displayed in a superimposed manner.

【0092】計測モード(測定モード)では、ファイン
ダー表示される画面の全部または一部について、3次元
計測ユニット4による3次元計測を行う。そして、メニ
ュー画面HG1,2で選択されたモードに応じて、各モ
ードの処理ルーチンへ進む(#106〜109)。
In the measurement mode (measurement mode), the three-dimensional measurement unit 4 performs three-dimensional measurement on all or part of the screen displayed in the viewfinder. Then, according to the mode selected on the menu screens HG1 and HG2, the process proceeds to the processing routine of each mode (# 106 to # 109).

【0093】これらの処理ルーチンが終了すると、メニ
ュー画面HG1,2を表示するステップに戻る。図23
に示すように、3D処理において、デジタルカメラ3
は、被写体(対象物)の撮影を行い、撮影した2次元画
像を表示部18にファインダー表示する(#201)。
撮影を繰り返し、表示を更新することにより動画表示と
なる。ユーザは、このファインダー表示を見ながら計測
範囲を設定することができる。
When these processing routines end, the process returns to the step of displaying the menu screens HG1 and HG2. FIG.
As shown in FIG.
Performs photographing of a subject (object), and displays the photographed two-dimensional image on the display unit 18 in a viewfinder (# 201).
Moving images are displayed by repeating shooting and updating the display. The user can set the measurement range while viewing the finder display.

【0094】なお、表示部18に表示される画像は撮影
された2次元画像であるが、その焦点の調節は、本実施
形態では3次元計測ユニット4で計測された計測結果デ
ータに基づいて行われる。これは、デジタルカメラ3に
内蔵されている測距部16の測定よりも高精度であるか
らである。
The image displayed on the display unit 18 is a photographed two-dimensional image. In this embodiment, the focus is adjusted based on the measurement result data measured by the three-dimensional measuring unit 4. Will be This is because the accuracy is higher than the measurement by the distance measuring unit 16 built in the digital camera 3.

【0095】操作部17のズームボタン(TELEまた
はWIDE)が操作されると(#202)、その方向に
応じてレンズ制御部14に制御信号が送られ、ズーム制
御が行われる(#203)。
When the zoom button (TELE or WIDE) of the operation unit 17 is operated (# 202), a control signal is sent to the lens control unit 14 according to the direction, and zoom control is performed (# 203).

【0096】レリーズボタンの操作がチェックされ、そ
の操作がない場合には(#204でノー)、ステップ#
201に戻ってファインダー画像を更新する。レリーズ
ボタンの操作があると(#204でイエス)、デジタル
カメラ3の撮像の各パラメータから、撮像範囲EPおよ
び撮像分解能を特定する(#205)。
The operation of the release button is checked, and if there is no operation (No in # 204), step #
Returning to step 201, the finder image is updated. When the release button is operated (Yes in # 204), the imaging range EP and the imaging resolution are specified from each of the imaging parameters of the digital camera 3 (# 205).

【0097】なお、このときに特定される撮像範囲EP
は、デジタルカメラ3の光軸の方向、エリアセンサ11
の大きさ、およびレンズ群13の焦点距離fにより決定
される。デジタルカメラ3がズーム機能を持っている場
合は、ズーム操作で変更された結果の焦点距離であり、
ズーム機能を持っていない場合はその固定の焦点距離f
から求められる。また、デジタルカメラ3に電子ズーム
機能が搭載されている場合は、電子ズームの倍率をふま
えて撮像範囲EPが求められる。撮像分解能はエリアセ
ンサ11の画素数から求められる。
Note that the imaging range EP specified at this time is
Is the direction of the optical axis of the digital camera 3, the area sensor 11
And the focal length f of the lens group 13. If the digital camera 3 has a zoom function, the focal length is the result of the change by the zoom operation.
If it does not have a zoom function, its fixed focal length f
Required from. If the digital camera 3 has an electronic zoom function, the imaging range EP is determined based on the electronic zoom magnification. The imaging resolution is obtained from the number of pixels of the area sensor 11.

【0098】そして、デジタルカメラ3から3次元計測
ユニット4へ、動作条件CAを示す情報を送信する(#
206)。ここでの例では、動作条件CAは、レリーズ
信号(計測開始信号)、撮像範囲EP、および撮像分解
能である。
Then, information indicating the operating condition CA is transmitted from the digital camera 3 to the three-dimensional measuring unit 4 (#
206). In this example, the operating condition CA is a release signal (measurement start signal), an imaging range EP, and an imaging resolution.

【0099】次に、2次元画像の撮影を行う(#20
7)。撮影された2次元画像は、後のステップ#211
において3次元データと対応付けて記録される。また、
2次元画像は、上で述べたように、ステップ#209に
おいて、また3次元の再生モード時に3次元データとと
もに表示する際に使用される。
Next, a two-dimensional image is taken (# 20).
7). The photographed two-dimensional image is stored in a subsequent step # 211.
Is recorded in association with the three-dimensional data. Also,
As described above, the two-dimensional image is used in step # 209 and when displaying the three-dimensional data in the three-dimensional reproduction mode.

【0100】ステップ#206においてレリーズ信号が
3次元計測ユニット4に送信されると、3次元計測ユニ
ット4の3次元制御部40の制御によって計測が行わ
れ、その計測結果がデジタルカメラ3に入力される(#
208)。
When the release signal is transmitted to the three-dimensional measurement unit 4 in step # 206, measurement is performed under the control of the three-dimensional control unit 40 of the three-dimensional measurement unit 4, and the measurement result is input to the digital camera 3. (#
208).

【0101】そして、入力された計測結果が表示部18
に表示される(#209)。このときに、ステップ#2
07で撮影した2次元画像が、同時に、並ベてまたは重
ねて表示される。これによって、どのような被写体につ
いて計測が行われたかが容易に確認できる。
Then, the input measurement result is displayed on the display unit 18.
(# 209). At this time, step # 2
The two-dimensional images taken at 07 are displayed simultaneously, side by side or superimposed. Thus, it is possible to easily confirm what kind of subject has been measured.

【0102】なお、計測ポイントを2次元画像に重ねて
表示するようにしてもよい。3次元計測の結果である3
次元データは、距離を濃淡で表現した画像で表示され
る。ここで、「OK」および「キャンセル」のボタンが
表示部18の画面内に表示され、ユーザからの入力待ち
になる(#210)。
Note that the measurement points may be displayed so as to be superimposed on the two-dimensional image. 3 which is the result of 3D measurement
The dimensional data is displayed as an image expressing the distance in shades. Here, "OK" and "Cancel" buttons are displayed on the screen of the display unit 18, and the user waits for an input (# 210).

【0103】ユーザは、その表示を見て、上下左右ボタ
ンおよび確認ボタンを操作し、OKまたはキャンセルを
入力する。OKを入力すると、計測結果が記録される
(#211)。これと同時に、2次元画像、計測ポイン
トの座標、使用した3次元計測ユニット4の動作条件、
その他のスペック、および、日時、操作者などの書誌事
項も、計測結果と対応付けて記録される。
The user operates the up / down / left / right buttons and the confirmation button while viewing the display, and inputs OK or Cancel. When OK is input, the measurement result is recorded (# 211). At the same time, the two-dimensional image, the coordinates of the measurement points, the operating conditions of the three-dimensional measurement unit 4 used,
Other specifications and bibliographic items such as the date and time and the operator are also recorded in association with the measurement results.

【0104】メインメニューに戻るかまたは計測を継続
するかがユーザに問い合わせられる(#212)。メイ
ンメニューに戻る旨の入力があると、メニュー画面HG
2に戻る。計測を継続する旨の入力があると、ステップ
#201へ戻る。
The user is asked whether to return to the main menu or to continue the measurement (# 212). When there is an input to return to the main menu, the menu screen HG
Return to 2. When there is an input to continue the measurement, the process returns to step # 201.

【0105】図24に示す計測の処理は、3次元計測ユ
ニット4がデジタルカメラ3からレリーズ信号を受ける
ことにより実行される。まず、上のステップ#206に
より送られてくる動作条件CAの情報を受信する(#3
01)。受信した撮像範囲および撮像分解能に基づい
て、3次元計測ユニット4の計測範囲および計測分解能
を求める(#302)。このとき、図7に示す関係で計
測範囲および計測分解能が決定される。
The measurement processing shown in FIG. 24 is executed when the three-dimensional measurement unit 4 receives a release signal from the digital camera 3. First, the information of the operating condition CA transmitted in the above step # 206 is received (# 3).
01). The measurement range and measurement resolution of the three-dimensional measurement unit 4 are obtained based on the received imaging range and imaging resolution (# 302). At this time, the measurement range and the measurement resolution are determined based on the relationship shown in FIG.

【0106】次に、3次元計測ユニット4の各部のパラ
メータを求め、設定する(#303)。決定された計測
範囲および計測間隔に基づいて、次に示す各部のパラメ
ータが求められ、設定される。
Next, parameters of each part of the three-dimensional measuring unit 4 are obtained and set (# 303). Based on the determined measurement range and measurement interval, the following parameters of each unit are obtained and set.

【0107】第1実施例では、計測範囲として、計測の
基準方向および走査ミラー37の走査角が設定される。
計測分解能として、走査ミラー37の走査速度、計測時
間間隔である投光部31のレーザの投光時間間隔、およ
び、計測ポイント数である発光数が設定される。
In the first embodiment, the measurement reference direction and the scanning angle of the scanning mirror 37 are set as the measurement range.
As the measurement resolution, the scanning speed of the scanning mirror 37, the light emission time interval of the laser of the light emitting unit 31 as the measurement time interval, and the number of light emission as the number of measurement points are set.

【0108】第3実施例では、計測範囲として、計測の
基準方向、走査ミラー37の走査角、走査速度、および
レンズ群38の焦点距離(ズーム段)が設定される。計
測分解能として、走査ミラー37の走査速度、計測時間
間隔であるエリアセンサ32aからのデータ取込み時間
間隔(第1のタイプの場合)、エリアセンサ32aの縦
横の画素数または補間処理の結果得られた画素数(第2
のタイプの場合)、および、計測ポイント数であるエリ
アセンサ32aからのデータ取込み数が設定される。
In the third embodiment, the measurement reference direction, the scanning angle of the scanning mirror 37, the scanning speed, and the focal length (zoom step) of the lens group 38 are set as the measurement range. As the measurement resolution, the scanning speed of the scanning mirror 37, the data acquisition time interval from the area sensor 32a, which is the measurement time interval (in the case of the first type), the number of vertical and horizontal pixels of the area sensor 32a, or the result of interpolation processing is obtained. Number of pixels (second
Is set), and the number of data taken from the area sensor 32a, which is the number of measurement points, is set.

【0109】設定した計測点に対して計測が行われ(#
304)、計測結果がデジタルカメラ3に送信される
(#305)。第1および第3実施例では、デジタルカ
メラ3は、3次元計測ユニット4の仕様に関係なく動作
条件CAを決定することができる。 〔第2および第4実施例〕図25はデジタルカメラ3の
3D処理のルーチンを示すフローチャート、図26は3
次元計測ユニット4における計測の処理を示すフローチ
ャートである。
Measurement is performed on the set measurement points (#
304), the measurement result is transmitted to the digital camera 3 (# 305). In the first and third embodiments, the digital camera 3 can determine the operating condition CA regardless of the specifications of the three-dimensional measuring unit 4. [Second and Fourth Embodiments] FIG. 25 is a flowchart showing a routine of 3D processing of the digital camera 3, and FIG.
5 is a flowchart illustrating a measurement process in a dimension measurement unit 4;

【0110】第2および第4実施例では、3次元計測ユ
ニット4の動作条件CBを基準として、デジタルカメラ
3の動作条件CAが設定される。その際に、撮像範囲E
P,EMは、図8に示す関係となるように設定される。
メインフローチャートは図22と同じである。メニュー
画面HG2で計測モードが選択されると、図25に示す
フローチャートが実行される。
In the second and fourth embodiments, the operating condition CA of the digital camera 3 is set based on the operating condition CB of the three-dimensional measuring unit 4. At this time, the imaging range E
P and EM are set so as to have the relationship shown in FIG.
The main flowchart is the same as FIG. When the measurement mode is selected on the menu screen HG2, the flowchart shown in FIG. 25 is executed.

【0111】図25において、3次元計測ユニット4か
ら送信される動作条件CBの情報、つまり計測範囲およ
び計測分解能を示す情報を受信する(#401)。計測
範囲を表す情報は次のとおりである。
In FIG. 25, information on the operating condition CB transmitted from the three-dimensional measuring unit 4, that is, information indicating the measuring range and the measuring resolution is received (# 401). Information indicating the measurement range is as follows.

【0112】第2実施例では、計測の基準方向、計測可
能な最小距離Zminと最大距離Zmax、および走査
角φ1である。第4実施例では、計測の基準方向、基準
位置までの距離Zrefと距離範囲ΔZ、および走査角
φ1である。
In the second embodiment, the reference direction of measurement, the minimum distance Zmin and the maximum distance Zmax that can be measured, and the scanning angle φ1 are used. In the fourth embodiment, the reference direction of the measurement, the distance Zref to the reference position, the distance range ΔZ, and the scan angle φ1.

【0113】計測分解能を表す情報は次のとおりであ
る。第2実施例では、縦横の各方向の計測ポイント数で
ある。第4実施例では、エリアセンサ32aからのデー
タ取込み時間間隔(第1のタイプの場合)、エリアセン
サ32aの縦横の画素数または補間処理の結果得られた
画素数(第2のタイプの場合)である。
Information indicating the measurement resolution is as follows. In the second embodiment, it is the number of measurement points in each of the vertical and horizontal directions. In the fourth embodiment, the data acquisition time interval from the area sensor 32a (in the case of the first type), the number of vertical and horizontal pixels of the area sensor 32a or the number of pixels obtained as a result of the interpolation processing (in the case of the second type) It is.

【0114】受信した動作条件CBに基づいて、図8に
示す関係でデジタルカメラ3の撮像範囲および撮像分解
能を算出する(#402)。算出された撮像範囲および
撮像分解能に基づいて、デジタルカメラ3の画像処理に
おける解像度変換処理、およびレンズ群13の焦点距離
fなどの撮像パラメータを算出し、設定する(#40
3)。
Based on the received operating conditions CB, the imaging range and the imaging resolution of the digital camera 3 are calculated based on the relationship shown in FIG. 8 (# 402). Based on the calculated imaging range and imaging resolution, resolution conversion processing in image processing of the digital camera 3 and imaging parameters such as the focal length f of the lens group 13 are calculated and set (# 40).
3).

【0115】ステップ#404および405は、図23
のステップ#201および204と同じである。ステッ
プ#406では、レリーズ操作があったときに、3次元
計測ユニット4へレリーズ信号を送信する。ステップ#
407〜412は、図23のステップ#206〜211
と同様である。
Steps # 404 and # 405 are performed according to FIG.
Are the same as steps # 201 and # 204. In step # 406, when a release operation is performed, a release signal is transmitted to the three-dimensional measurement unit 4. Step #
Steps 407 to 412 correspond to steps # 206 to 211 in FIG.
Is the same as

【0116】図26に示す計測の処理は、3次元計測ユ
ニット4がデジタルカメラ3からレリーズ信号を受ける
ことにより実行される。3次元計測ユニット4の計測範
囲および計測分解能を、各部のパラメータに基づき特定
する(#501)。3次元計測ユニット4の動作条件C
Bとして、計測範囲および計測分解能を表す情報をデジ
タルカメラ3に送信する(#502)。ここで送信する
情報は、上のステップ#401で受信する情報と同じで
ある。
The measurement processing shown in FIG. 26 is executed when the three-dimensional measurement unit 4 receives a release signal from the digital camera 3. The measurement range and the measurement resolution of the three-dimensional measurement unit 4 are specified based on the parameters of each unit (# 501). Operating condition C of three-dimensional measuring unit 4
As B, information indicating the measurement range and the measurement resolution is transmitted to the digital camera 3 (# 502). The information transmitted here is the same as the information received in step # 401 above.

【0117】第2および第4実施例では、3次元計測ユ
ニット4は、デジタルカメラ3の仕様に関係なく動作条
件CBを決定することができる。次に、上に述べた第1
〜第4実施例に対する変形例(1)〜(10)について
説明する。 (1) デジタルカメラ3の撮像範囲EPおよび撮像分
解能、並びに3次元計測ユニット4の計測分解能を固定
とする。3次元計測ユニット4の計測範囲EMのみを可
変とする。
In the second and fourth embodiments, the three-dimensional measuring unit 4 can determine the operating condition CB regardless of the specifications of the digital camera 3. Next, the first
Modifications (1) to (10) of the fourth embodiment will be described. (1) The imaging range EP and the imaging resolution of the digital camera 3 and the measurement resolution of the three-dimensional measurement unit 4 are fixed. Only the measurement range EM of the three-dimensional measurement unit 4 is made variable.

【0118】この場合は、デジタルカメラ3の撮像範囲
EPを通信し、分解能については通信しない。デジタル
カメラ3の撮像範囲EPに応じて、3次元計測ユニット
4の計測範囲EMを設定する。
In this case, the imaging range EP of the digital camera 3 is communicated, and the resolution is not communicated. The measurement range EM of the three-dimensional measurement unit 4 is set according to the imaging range EP of the digital camera 3.

【0119】この場合には、上のフローチャートのステ
ップ#205において、レリーズ操作があると、デジタ
ルカメラ3の各撮像パラメータよって撮像範囲EPを特
定する。ステップ#206において、レリーズ操作があ
ると、3次元計測ユニット4へ、レリーズ信号とともに
デジタルカメラ3の撮像範囲EPを表す情報を送信す
る。
In this case, when there is a release operation in step # 205 of the above flowchart, the imaging range EP is specified by each imaging parameter of the digital camera 3. In step # 206, when a release operation is performed, information indicating the imaging range EP of the digital camera 3 is transmitted to the three-dimensional measurement unit 4 together with a release signal.

【0120】ステップ#301において、レリーズ信号
とともに送られてくる撮像範囲EPを受信し、ステップ
#302において、3次元計測ユニット4の各部のパラ
メータを求め、設定する。受信された撮像範囲EPの情
報に基づいて、図7に示す関係で計測範囲EMが決定さ
れる。ステップ#303において、決定された計測範囲
EMに基づいて、3次元計測ユニット4の計測範囲EM
に関連する各パラメータが求められ、設定される。その
他のパラメータには所定の値が設定される。 (2) デジタルカメラ3の撮像範囲EPのみが可変で
ある。デジタルカメラ3の分解能、並びに3次元計測ユ
ニット4の計測範囲EMおよび分解能は固定である。
At step # 301, the imaging range EP sent together with the release signal is received. At step # 302, parameters of each part of the three-dimensional measuring unit 4 are obtained and set. Based on the received information on the imaging range EP, the measurement range EM is determined based on the relationship shown in FIG. In step # 303, the measurement range EM of the three-dimensional measurement unit 4 is determined based on the determined measurement range EM.
Are determined and set. Predetermined values are set for other parameters. (2) Only the imaging range EP of the digital camera 3 is variable. The resolution of the digital camera 3 and the measurement range EM and the resolution of the three-dimensional measurement unit 4 are fixed.

【0121】3次元計測ユニット4の計測範囲EMを通
信し、分解能については通信しない。3次元計測ユニッ
ト4の計測範囲EMに応じて、デジタルカメラ3の撮像
範囲EPを設定する。
The measurement range EM of the three-dimensional measurement unit 4 is communicated, and the resolution is not communicated. The imaging range EP of the digital camera 3 is set according to the measurement range EM of the three-dimensional measurement unit 4.

【0122】この場合には、ステップ#401におい
て、3次元計測ユニット4から送信される計測範囲EM
を受信する。ステップ#402において、受信された計
測範囲EMに基づいて、図8に示す関係でデジタルカメ
ラ3の撮像範囲EPを算出する。ステップ#403にお
いて、決定された撮像範囲EPに基づいて、撮像範囲E
Pに関連する撮像レンズ(レンズ群13)の焦点距離f
などの各パラメータが求められ、設定される。その他の
パラメータには所定の値が設定される。
In this case, in step # 401, the measurement range EM transmitted from the three-dimensional measurement unit 4
To receive. In step # 402, the imaging range EP of the digital camera 3 is calculated based on the received measurement range EM according to the relationship shown in FIG. In step # 403, the imaging range E is determined based on the determined imaging range EP.
Focal length f of the imaging lens (lens group 13) related to P
Are determined and set. Predetermined values are set for other parameters.

【0123】ステップ#501において、3次元計測ユ
ニット4の各パラメータより計測範囲EMを特定する。
ステップ#502において、デジタルカメラ3ヘ計測範
囲EMの情報を送信する。 (3) 上の変形例(1)についての変形例である。動
作条件として、撮影分解能のみを通信し、撮影範囲につ
いては通信しない。この場合には、例えば、ステップ#
205において撮像分解能を特定し、ステップ#206
においてレリーズ信号および撮像分解能を送信する。ま
た、ステップ#301において撮像分解能を受信し、ス
テップ#302において計測分解能を算出する。 (4) 上の変形例(2)についての変形例である。動
作条件として、撮影分解能のみを通信し、撮影範囲につ
いては通信しない。この場合には、例えば、ステップ#
401において計測分解能のみを受信し、ステップ#4
02において撮像分解能を算出する。ステップ#501
において計測分解能を特定し、ステップ#502におい
て計測分解能を送信する。 (5) デジタルカメラ3から3次元計測ユニット4に
送信される情報が、撮像範囲EP、撮像分解能のいずれ
かまたは両方を特定するために必要なパラメータであ
り、デジタルカメラ3の撮像範囲EP、撮像分解能のい
ずれかまたは両方を3次元計測ユニット4において特定
してもよい。
In step # 501, the measurement range EM is specified from each parameter of the three-dimensional measurement unit 4.
In step # 502, information on the measurement range EM is transmitted to the digital camera 3. (3) This is a modification of the above modification (1). As operating conditions, only the imaging resolution is communicated, and the imaging range is not communicated. In this case, for example, step #
In step 205, the imaging resolution is specified, and in step # 206
Transmits the release signal and the imaging resolution. In step # 301, the imaging resolution is received, and in step # 302, the measurement resolution is calculated. (4) This is a modification of the above modification (2). As operating conditions, only the imaging resolution is communicated, and the imaging range is not communicated. In this case, for example, step #
At 401, only the measurement resolution is received, and step # 4
At 02, the imaging resolution is calculated. Step # 501
In step # 502, the measurement resolution is specified. (5) The information transmitted from the digital camera 3 to the three-dimensional measurement unit 4 is a parameter necessary for specifying one or both of the imaging range EP and the imaging resolution. Either or both of the resolutions may be specified in the three-dimensional measurement unit 4.

【0124】この場合には、例えば、ステップ#205
を省略し、ステップ#206において、動作条件として
撮像パラメータを送信する。また、ステップ#301に
おいて、動作条件として撮像パラメータを受信し、それ
に基づいて撮像範囲EPおよび/または撮像分解能を特
定する。 (6) 3次元計測ユニット4からデジタルカメラ3に
送信される情報が、計測範囲EM、計測分解能のいずれ
かまたは両方を特定するために必要なパラメータであ
り、3次元計測ユニット4の計測範囲EM、計測分解能
のいずれかまたは両方をデジタルカメラ3において特定
してもよい。
In this case, for example, step # 205
Are omitted, and in step # 206, the imaging parameters are transmitted as the operating conditions. In step # 301, an imaging parameter is received as an operation condition, and an imaging range EP and / or an imaging resolution is specified based on the imaging parameter. (6) The information transmitted from the three-dimensional measurement unit 4 to the digital camera 3 is a parameter necessary for specifying one or both of the measurement range EM and the measurement resolution. , One or both of the measurement resolutions may be specified in the digital camera 3.

【0125】この場合には、例えば、ステップ#401
において、動作条件として撮像パラメータを受信し、ス
テップ#402において、それに基づいて計測範囲EM
および/または計測分解能を特定し、撮像分解能を算出
する。また、ステップ#501を省略し、ステップ#5
02において、動作条件として計測パラメータを送信す
る。 (7) デジタルカメラ3において、計測範囲EMおよ
び計測分解能のいずれかまたは両方を算出し、デジタル
カメラ3から3次元計測ユニット4に送信される情報が
計測範囲EM、計測分解能のいずれかまたは両方のそれ
自体であってもよい。
In this case, for example, step # 401
In step # 402, an imaging parameter is received as an operation condition.
And / or specify the measurement resolution and calculate the imaging resolution. Also, step # 501 is omitted, and step # 5
At 02, measurement parameters are transmitted as operating conditions. (7) In the digital camera 3, one or both of the measurement range EM and the measurement resolution are calculated, and the information transmitted from the digital camera 3 to the three-dimensional measurement unit 4 is changed to the one or both of the measurement range EM and the measurement resolution. It may be itself.

【0126】この場合には、例えば、ステップ#205
において、特定した撮像範囲EPおよび撮像分解能から
計測範囲EMおよび計測分解能を算出し、ステップ#2
06において、動作条件として、算出した計測範囲EM
および計測分解能を送信する。また、ステップ#301
において、計測範囲EMおよび計測分解能を受信し、ス
テップ#302を省略する。 (8) 3次元計測ユニット4において、撮像範囲EP
または撮像分解能のいずれかまたは両方を特定し、3次
元計測ユニット4からデジタルカメラ3に送信される情
報が撮像範囲EP、撮像分解能のいずれかまたは両方の
それ自体であってもよい。
In this case, for example, step # 205
In step # 2, the measurement range EM and the measurement resolution are calculated from the specified imaging range EP and the imaging resolution.
At 06, the calculated measurement range EM was set as the operating condition.
And the measurement resolution. Step # 301
, The measurement range EM and the measurement resolution are received, and Step # 302 is omitted. (8) In the three-dimensional measurement unit 4, the imaging range EP
Alternatively, one or both of the imaging resolutions may be specified, and the information transmitted from the three-dimensional measurement unit 4 to the digital camera 3 may be the imaging range EP and / or the imaging resolution itself.

【0127】この場合には、例えば、ステップ#401
において、動作条件として撮像範囲EPおよび撮像分解
能を受信し、ステップ#402を省略する。また、ステ
ップ#501において、特定した計測範囲EMおよび計
測分解能から撮像範囲EPおよび撮像分解能を算出し、
ステップ#502において、動作条件として、算出した
撮像範囲EPおよび撮像分解能を送信する。 (9) デジタルカメラ3において、計測範囲EMまた
は計測分解能のいずれかまたは両方を特定し、デジタル
カメラ3から3次元計測ユニット4に送信される情報が
計測範囲EMまたは計測分解能のいずれかまたは両方か
ら得られる各パラメータであってもよい。
In this case, for example, step # 401
, The imaging range EP and the imaging resolution are received as operating conditions, and step # 402 is omitted. In step # 501, the imaging range EP and the imaging resolution are calculated from the specified measurement range EM and the measurement resolution.
In step # 502, the calculated imaging range EP and imaging resolution are transmitted as operating conditions. (9) In the digital camera 3, one or both of the measurement range EM and the measurement resolution are specified, and the information transmitted from the digital camera 3 to the three-dimensional measurement unit 4 is obtained from the one or both of the measurement range EM and the measurement resolution. Each obtained parameter may be used.

【0128】この場合には、例えば、ステップ#205
において、特定した撮像範囲EPおよび撮像分解能から
計測範囲EMおよび計測分解能を算出し、さらにそれら
から計測パラメータを算出する。ステップ#206にお
いて、動作条件として、算出した計測パラメータを送信
する。また、ステップ#301において、動作条件とし
て計測パラメータを受信し、ステップ#302を省略す
る。 (10) 3次元計測ユニット4において、撮像範囲E
Pまたは撮像分解能のいずれかまたは両方を特定し、3
次元計測ユニット4からデジタルカメラ3に送信される
情報が撮像範囲EP、撮像分解能のいずれかまたは両方
から得られる各パラメータであってもよい。
In this case, for example, step # 205
In, the measurement range EM and the measurement resolution are calculated from the specified imaging range EP and the imaging resolution, and the measurement parameters are calculated from them. In step # 206, the calculated measurement parameters are transmitted as operating conditions. In step # 301, a measurement parameter is received as an operation condition, and step # 302 is omitted. (10) In the three-dimensional measurement unit 4, the imaging range E
Specify either P or the imaging resolution, or both, and
The information transmitted from the dimension measurement unit 4 to the digital camera 3 may be each parameter obtained from one or both of the imaging range EP and the imaging resolution.

【0129】この場合には、例えば、ステップ#401
において、動作条件として撮像パラメータを受信し、ス
テップ#402を省略する。また、ステップ#501に
おいて、特定した計測範囲EMおよび計測分解能から撮
像範囲EPおよび撮像分解能を算出し、さらにそれらか
ら撮像パラメータを算出する。ステップ#502におい
て、動作条件として、算出した撮像パラメータを送信す
る。
In this case, for example, step # 401
, An imaging parameter is received as an operating condition, and step # 402 is omitted. Further, in step # 501, the imaging range EP and the imaging resolution are calculated from the specified measurement range EM and the measurement resolution, and the imaging parameters are calculated from them. In step # 502, the calculated imaging parameters are transmitted as operating conditions.

【0130】上の変形例において、動作条件の一部を固
定とすることにより、送信する情報を低減することがで
き、それだけ通信が高速で行われ、低コストとなる。ま
た、図10に示す通信のレベルTとの関係では、変形例
(1)(3)がレベルT3a、変形例(2)(4)がレ
ベルT3b、変形例(5)がレベルT2a、変形例
(6)がレベルT4b、変形例(7)がレベルT4a、
変形例(8)がレベルT2b、変形例(9)がレベルT
5a、変形例(10)がレベルT1bである。
In the above modification, by fixing a part of the operation conditions, the information to be transmitted can be reduced, so that the communication is performed at a high speed and the cost is reduced. Further, in relation to the communication level T shown in FIG. 10, the modified examples (1) and (3) are the level T3a, the modified examples (2) and (4) are the level T3b, the modified example (5) is the level T2a, and the modified example. (6) is the level T4b, the modified example (7) is the level T4a,
Modification (8) is level T2b, and modification (9) is level T
5a, the modification (10) is the level T1b.

【0131】さらに他の変形例(11)〜(17)を説
明する。 (11) 3次元計測ユニット4に操作部を設け、3次
元計測ユニット4のレリーズを3次元計測ユニット4に
おいて行ってもよい。 (12) 3次元計測ユニット4に記憶部を設け、計測
結果データをその記憶部に記憶するようにしてもよい。 (13) 3次元計測ユニット4の計測原理として、T
OF方式または光切断方式以外のものであってもよい。
例えば、パターン投影方式、ステレオ撮像方式であって
もよい。 (14) デジタルカメラ3において、3次元データお
よび2次元画像を記録部15に記録する際に、計測範囲
EM、計測分解能、撮像範囲EP、撮像分解能のいずれ
かまたは複数を記録し、図示しない演算装置において2
次元画像と3次元データとを貼り合わせる際に、記録部
15に記録された情報を用いる。 (15) 3次元計測ユニット4から送られてくる計測
範囲EMに基づいて、デジタルカメラ3の表示部18の
2次元画像上に計測範囲EMを表示する。 (16) 3次元計測ユニット4から送られてくる計測
結果に基づいて、デジタルカメラ3の表示部18の2次
元画像上に計測結果データを表示する。 (17) デジタルカメラ3の操作部17および表示部
18において指定された計測範囲EMを3次元計測ユニ
ット4に送信し、指定された計測範囲EMで計測を行
う。
Still other modifications (11) to (17) will be described. (11) An operation unit may be provided in the three-dimensional measurement unit 4 to release the three-dimensional measurement unit 4 in the three-dimensional measurement unit 4. (12) The storage unit may be provided in the three-dimensional measurement unit 4, and the measurement result data may be stored in the storage unit. (13) As the measurement principle of the three-dimensional measurement unit 4, T
Other than the OF method or the light cutting method may be used.
For example, a pattern projection system or a stereo imaging system may be used. (14) When the digital camera 3 records the three-dimensional data and the two-dimensional image in the recording unit 15, one or more of the measurement range EM, the measurement resolution, the imaging range EP, and the imaging resolution are recorded, and a calculation (not shown) is performed. 2 in the device
When the two-dimensional image and the three-dimensional data are attached, information recorded in the recording unit 15 is used. (15) The measurement range EM is displayed on a two-dimensional image on the display unit 18 of the digital camera 3 based on the measurement range EM sent from the three-dimensional measurement unit 4. (16) The measurement result data is displayed on a two-dimensional image on the display unit 18 of the digital camera 3 based on the measurement result sent from the three-dimensional measurement unit 4. (17) The measurement range EM specified on the operation unit 17 and the display unit 18 of the digital camera 3 is transmitted to the three-dimensional measurement unit 4, and measurement is performed in the specified measurement range EM.

【0132】なお、上の変形例(15)〜(17)で
は、3次元計測ユニット4とデジタルカメラ3とが一体
となる構成であってもよい。また、上に示した変形例
は、互いに適当に組み合わせることが可能である。
In the above modified examples (15) to (17), the three-dimensional measuring unit 4 and the digital camera 3 may be integrated. Further, the above-described modifications can be appropriately combined with each other.

【0133】次に、3次元計測ユニット4における計測
範囲EMの表示方法、およびその変更方法などについて
説明する。図27は表示部18における範囲枠Wの表示
状態を示す図、図28および図29は範囲枠Wの大きさ
を算出する原理を示す図である。
Next, a method of displaying the measurement range EM in the three-dimensional measurement unit 4 and a method of changing the measurement range EM will be described. FIG. 27 is a diagram illustrating a display state of the range frame W on the display unit 18, and FIGS. 28 and 29 are diagrams illustrating a principle of calculating the size of the range frame W.

【0134】図27において、デジタルカメラ3の表示
部18の表示面HGに、複数の範囲枠W1〜nが表示さ
れている。これら範囲枠W1〜nは、計測範囲EMをZ
軸方向(奥行き方向)の距離L1〜n毎に示したもので
ある。各範囲枠Wの右下方に、それぞれの距離Lが数値
で表示される。
In FIG. 27, a plurality of range frames W1 to Wn are displayed on the display surface HG of the display unit 18 of the digital camera 3. These range frames W1 to n define the measurement range EM as Z
This is shown for each distance L1 to n in the axial direction (depth direction). At the lower right of each range frame W, each distance L is displayed by a numerical value.

【0135】表示面HGには、デジタルカメラ3で撮像
される2次元画像が画面一杯に表示される。表示面HG
の縦寸法、つまり上端縁と下端縁との間の距離がXsで
示されている。
On the display surface HG, a two-dimensional image picked up by the digital camera 3 is displayed on the entire screen. Display surface HG
, That is, the distance between the upper edge and the lower edge is indicated by Xs.

【0136】各範囲枠Wの上辺は、表示面HGの上端縁
から距離Xaだけ離れた位置にあり、下辺は上端縁から
距離Xbだけ離れた位置にある。各範囲枠Wの右辺は、
表示面HGの右端縁から距離Yaだけ離れた位置にあ
り、左辺は右端縁から距離Ybだけ離れた位置にある。
The upper side of each range frame W is located at a distance Xa from the upper edge of the display surface HG, and the lower side is located at a distance Xb from the upper edge. The right side of each range frame W is
The display surface HG is located at a distance from the right edge of the display surface HG by a distance Ya, and the left side is at a position away from the right edge by a distance Yb.

【0137】図28において、デジタルカメラ3の撮像
範囲EPおよび3次元計測ユニット4の計測範囲EMが
示されている。撮像範囲EPは画角θaによって、計測
範囲EMは走査角φaによって、それぞれ表されてい
る。
FIG. 28 shows an imaging range EP of the digital camera 3 and a measurement range EM of the three-dimensional measuring unit 4. The imaging range EP is represented by the angle of view θa, and the measurement range EM is represented by the scanning angle φa.

【0138】各距離L1〜nは、撮影システム1の基準
点からの距離である。最大の距離L1は図5の最大距離
Zmaxに対応し、最小の距離Lnは図5の最小距離Z
minに対応する。
The distances L1 to Ln are distances from the reference point of the photographing system 1. The maximum distance L1 corresponds to the maximum distance Zmax in FIG. 5, and the minimum distance Ln is the minimum distance Z in FIG.
min.

【0139】まず、撮像範囲EPと計測範囲EMとの重
なり部分に注目する。最大の距離L1における重なり部
分の両端の点A1,B1と、デジタルカメラ3の画角θ
1の基準点つまりレンズ群13の主点(前側主点)とを
直線で結び、それぞれ線分A1’,B1’とする。2つ
の線分A1’,B1’で挟まれる範囲が、距離L1にお
ける撮像範囲EP内での計測範囲EMである。
First, attention is paid to an overlapping portion between the imaging range EP and the measurement range EM. The points A1 and B1 at both ends of the overlapping portion at the maximum distance L1 and the angle of view θ of the digital camera 3
The first reference point, that is, the principal point (front principal point) of the lens group 13 is connected by a straight line, and is defined as line segments A1 'and B1', respectively. The range sandwiched between the two line segments A1 'and B1' is the measurement range EM within the imaging range EP at the distance L1.

【0140】同様にして、各距離L2,L3,…Lnに
ついて、点A2,B2…および線分A2’,B2’…を
求める。それらの線分が図29に示されている。すなわ
ち、図29には、デジタルカメラ3の撮像範囲EPにつ
いて、上で求めた線分A1’,B1’…が示されてい
る。撮像範囲EPの上端線と各線分A1’,B1’、A
2’,B2’…An’,Bn’とのなす角が、θa1,
θb1、θa2,θb2…θan,θbnである。
Similarly, points A2, B2,... And line segments A2 ′, B2 ′,. Those line segments are shown in FIG. That is, FIG. 29 shows the line segments A1 ′, B1 ′... Obtained above for the imaging range EP of the digital camera 3. Top line of imaging range EP and each line segment A1 ', B1', A
2 ′, B2 ′... An ′, Bn ′ form an angle θa1,
θb1, θa2, θb2... θan, θbn.

【0141】このような線分を、上下方向(縦方向)の
みでなく、左右方向(横方向)についても求める。ここ
で、距離L1〜n、角θa1〜n、θb1〜nを、距離
Lm,角θam,θbmで表す。mは1〜nの整数であ
る。
Such a line segment is obtained not only in the vertical direction (vertical direction) but also in the horizontal direction (horizontal direction). Here, distances L1 to n, angles θa1 to n, and θb1 to n are represented by distance Lm, angles θam, and θbm. m is an integer of 1 to n.

【0142】さて、これらθam,θbmを用いて、図
27に示す上下方向の長さXam,Xbmが次のように
して求められる。 Xam=Xs×(θam/θa) Xbm=Xs×(θbm/θa) 但し、mは1〜nの整数である。
Now, using these θam and θbm, the vertical lengths Xam and Xbm shown in FIG. 27 are obtained as follows. Xam = Xs × (θam / θa) Xbm = Xs × (θbm / θa) where m is an integer of 1 to n.

【0143】同様にして、左右方向の長さYam,Yb
mが得られる。得られた長さXam,Xbm、Yam,
Ybmに基づいて、表示面HGに範囲枠Wが表示され
る。なお、それらの長さは、表示の制御に当たって、適
宜、表示面HG上のアドレスまたは画素数などに変換さ
れる。
Similarly, the lengths Yam, Yb in the left-right direction
m is obtained. The obtained lengths Xam, Xbm, Yam,
The range frame W is displayed on the display surface HG based on Ybm. Note that the lengths are appropriately converted into addresses or the number of pixels on the display surface HG in controlling the display.

【0144】上の例では、表示面HGに線状の範囲枠W
を表示したが、これに代えて、範囲枠Wを表示すること
なく、デジタルカメラ3によって撮像された2次元画像
を範囲枠W毎に濃淡を異ならせて表示してもよい。
In the above example, a linear range frame W is displayed on the display surface HG.
Is displayed, but instead of displaying the range frame W, a two-dimensional image captured by the digital camera 3 may be displayed with different shades for each range frame W.

【0145】また、3次元計測ユニット4による予備計
測の結果、またはデジタルカメラ3の測距部16による
測定結果に基づいて、被写体の存在する距離またはその
周辺の距離のみ(つまりデジタルカメラ3のピントの合
った距離のみ)における範囲枠W、または範囲枠Wに代
わる濃淡画像を表示してもよい。
Further, based on the result of preliminary measurement by the three-dimensional measuring unit 4 or the result of measurement by the distance measuring unit 16 of the digital camera 3, only the distance at which the subject exists or the distance around the subject (that is, the focus of the digital camera 3). (Only the distance that matches) may be displayed as a range frame W or a grayscale image replacing the range frame W.

【0146】このように、範囲枠Wまたはそれに代わる
濃淡画像などを表示することによって、ユーザは3次元
計測ユニット4によって計測される範囲を容易に知るこ
とができる。したがって、撮影システム1を用いて、所
望の3次元データおよび2次元画像を容易に得ることが
できる。
As described above, by displaying the range frame W or a gray image instead of the range frame W, the user can easily know the range measured by the three-dimensional measuring unit 4. Therefore, desired three-dimensional data and two-dimensional images can be easily obtained using the imaging system 1.

【0147】上に述べた範囲枠Wは、撮影システム1に
おいてデフォルト値として設定された撮像範囲EPおよ
び計測範囲EMに基づいて決定されたものである。撮影
システム1では、ユーザが計測範囲EMを変更すること
が可能である。
The range frame W described above is determined based on the imaging range EP and the measurement range EM set as default values in the photographing system 1. In the imaging system 1, the user can change the measurement range EM.

【0148】図30は変更後の範囲枠Wの例を示す図、
図31はファインダー表示処理を示すフローチャートで
ある。図31のフローチャートは、図23に示すステッ
プ#201のサブルーチンの一部として実行され、この
処理の中で計測範囲EMの変更が行われる。
FIG. 30 is a diagram showing an example of the range frame W after the change.
FIG. 31 is a flowchart showing the finder display processing. The flowchart of FIG. 31 is executed as a part of the subroutine of step # 201 shown in FIG. 23, and the measurement range EM is changed in this processing.

【0149】図31において、ユーザが操作部17を操
作し、計測範囲EMの指定を行う旨を入力すると(#1
001)、範囲枠Wを選択することが可能な状態とな
る。そこで、カーソルおよび確定用のボタンを操作して
変更したい1つの範囲枠Wを選択する(#1002)。
選択された範囲枠Wは点滅表示する(#1003)。ユ
ーザは、カーソルを操作し、選択した範囲枠Wまたはそ
の辺を上下左右に移動させ、所望の位置に持って行く。
このとき、選択した範囲枠W以外の範囲枠Wも同様に移
動する。そして、範囲枠Wを確定させる。
In FIG. 31, when the user operates the operation unit 17 and inputs that the measurement range EM is specified (# 1).
001), the range frame W can be selected. Then, the user operates the cursor and the button for confirmation to select one range frame W to be changed (# 1002).
The selected range frame W blinks (# 1003). The user operates the cursor to move the selected range frame W or its side up, down, left, and right, and bring it to a desired position.
At this time, the range frames W other than the selected range frame W also move in the same manner. Then, the range frame W is determined.

【0150】これによって、例えば図30に示すよう
に、変更後の計測範囲EMを示す範囲枠W’の大きさお
よび位置が確定する。確定した範囲枠W’に対応して、
変更後の計測範囲EMが算出される(#1004)。こ
の算出は、計測範囲EMから範囲枠Wを求めたのと逆の
演算によって行われる。
Thus, as shown in FIG. 30, for example, the size and position of the range frame W 'indicating the changed measurement range EM are determined. According to the determined range frame W ′,
The measurement range EM after the change is calculated (# 1004). This calculation is performed by a calculation reverse to the calculation of the range frame W from the measurement range EM.

【0151】指定された範囲枠Wの変更が終了し(#1
005でイエス)、ユーザの操作によって計測範囲EM
の指定を終了する旨の入力があると(#1006でイエ
ス)、処理は終了する。
The change of the designated range frame W is completed (# 1).
005, the measurement range EM is determined by the user operation.
When there is an input to end the designation of (No in # 1006), the process ends.

【0152】その後、指定された計測範囲EMを表す状
態が3次元計測ユニット4に送信される。3次元計測ユ
ニット4では、受信した計測範囲EMに基づいてパラメ
ータを設定し、計測を実行する。
Thereafter, a state representing the designated measurement range EM is transmitted to the three-dimensional measurement unit 4. The three-dimensional measurement unit 4 sets parameters based on the received measurement range EM and executes measurement.

【0153】このように、ユーザによって計測範囲EM
の指定、変更、確認を行うことができるので、ユーザの
所望する3次元データおよび2次元画像を得易い。次
に、計測によって得られた3次元データの表示方法につ
いて説明する。
As described above, the measurement range EM is set by the user.
Can be specified, changed, and confirmed, so that three-dimensional data and two-dimensional images desired by the user can be easily obtained. Next, a method of displaying three-dimensional data obtained by measurement will be described.

【0154】図32および図33は被写体の3次元デー
タと2次元画像との関係を示す図、図34は図33の被
写体を表示部18に表示した例を示す図である。上にも
述べたように、3次元データは、表示部18に、白黒の
濃淡画像として表示される。
FIGS. 32 and 33 show the relationship between the three-dimensional data of the subject and the two-dimensional image, and FIG. 34 shows an example in which the subject shown in FIG. As described above, the three-dimensional data is displayed on the display unit 18 as a monochrome gray-scale image.

【0155】図32において、3次元データは、被写体
Q1の表面の各点について、その各点までの距離Lmと
角度φmにより表現される。3次元計測ユニット4の計
測原点とデジタルカメラ3の基準点との間の距離dによ
って、各計測結果の2次元画像での視線方向θmを算出
する。左右方向についても同様に算出する。
Referring to FIG. 32, the three-dimensional data is represented by a distance Lm and an angle φm to each point on the surface of the subject Q1. Based on the distance d between the measurement origin of the three-dimensional measurement unit 4 and the reference point of the digital camera 3, the gaze direction θm in the two-dimensional image of each measurement result is calculated. The same calculation is performed for the left-right direction.

【0156】図33において、算出された視線方向θm
および2次元画像の画角θaから、2次元画像の各点に
おける3次元データZmを、2次元画像上に白黒の濃淡
画像で表示する。なお、表示される3次元データは、デ
ジタルカメラ3からの距離Tm、または3次元計測ユニ
ット4からの距離Lmのいずれに基づいてもよい。
In FIG. 33, the calculated line-of-sight direction θm
From the angle of view θa of the two-dimensional image and the three-dimensional data Zm at each point of the two-dimensional image, a monochrome gray-scale image is displayed on the two-dimensional image. The displayed three-dimensional data may be based on either the distance Tm from the digital camera 3 or the distance Lm from the three-dimensional measurement unit 4.

【0157】図34において、表示部18の表示面HG
に、被写体Q1,Q2が表示されるが、計測範囲EMに
入る部分は濃淡画像FBにより表示され、それ以外の部
分はカラー画像FCにより表示される。
In FIG. 34, display surface HG of display unit 18 is shown.
Although the objects Q1 and Q2 are displayed at this time, the portion that falls within the measurement range EM is displayed by the gray image FB, and the other portions are displayed by the color image FC.

【0158】このように、表示部18に2次元画像およ
び3次元データを表示することにより、計測を行った後
にその結果をユーザがすぐに確認することができる。し
たがって、もし、計測された3次元データが所望のもの
でなかった場合に、直ちに計測しなおして所望の3次元
データを得るようにすることが可能である。
As described above, by displaying the two-dimensional image and the three-dimensional data on the display unit 18, the user can immediately confirm the result after performing the measurement. Therefore, if the measured three-dimensional data is not the desired one, the measurement can be immediately performed again to obtain the desired three-dimensional data.

【0159】上の実施形態によると、デジタルカメラ3
に対して3次元計測ユニット4が着脱可能であり、3次
元計測ユニット4を装着した場合には、3次元計測ユニ
ット4による3次元計測の結果を用いて2次元画像の撮
影のための自動焦点制御を行うことができる。したがっ
て、自動焦点制御を高精度に行える。
According to the above embodiment, the digital camera 3
The three-dimensional measurement unit 4 is detachable from the camera, and when the three-dimensional measurement unit 4 is mounted, an automatic focus for photographing a two-dimensional image using a result of the three-dimensional measurement by the three-dimensional measurement unit 4 is provided. Control can be performed. Therefore, automatic focus control can be performed with high accuracy.

【0160】また、3次元計測ユニット4を装着しない
場合には、デジタルカメラ3に内蔵した測距部16を用
いて、または他の焦点状態検出手段を用いて、従来通り
の自動焦点制御を行うことができる。
When the three-dimensional measuring unit 4 is not mounted, the conventional automatic focus control is performed by using the distance measuring unit 16 built in the digital camera 3 or by using another focus state detecting means. be able to.

【0161】上記実施例では、3次元計測ユニットが取
り付けられている場合は測距部16が動作しないように
構成されているが、次のように構成してもよい。つま
り、測距部16を動作させてその測距情報を3次元計測
ユニットに送信し、3次元計測ユニットでは、その測距
結果に基づいて測定条件(例えば測定範囲、レーザ強度
など)を設定するように構成する。
In the above embodiment, when the three-dimensional measuring unit is attached, the distance measuring unit 16 is configured not to operate, but may be configured as follows. That is, the distance measurement unit 16 is operated to transmit the distance measurement information to the three-dimensional measurement unit, and the three-dimensional measurement unit sets measurement conditions (for example, a measurement range, laser intensity, and the like) based on the distance measurement result. The configuration is as follows.

【0162】その他、デジタルカメラ3、3次元計測ユ
ニット4、撮影システム1の全体または各部の構造、形
状、個数、材質、処理内容、処理順序、処理タイミング
などは、本発明の趣旨に沿って上述した以外の種々のも
のとすることができる。
In addition, the structure, shape, number, material, processing contents, processing order, processing timing, etc. of the digital camera 3, the three-dimensional measuring unit 4, and the whole or each part of the photographing system 1 are described in accordance with the gist of the present invention. Various things other than the above can be used.

【0163】[0163]

【発明の効果】本発明によると、2次元撮像装置と3次
元計測装置とを着脱可能とし、2次元データの撮影と3
次元データの撮影との両方を行うことができ、使い勝手
のよい撮影システムとすることができる。
According to the present invention, the two-dimensional imaging device and the three-dimensional measuring device can be detachably attached, and two-dimensional data photographing and three-dimensional measurement can be performed.
It is possible to perform both the photographing of the dimensional data and a user-friendly photographing system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る撮影システムの概略の構成を示す
図である。
FIG. 1 is a diagram showing a schematic configuration of a photographing system according to the present invention.

【図2】TOF方式の投光受光部の例を示す図である。FIG. 2 is a diagram illustrating an example of a light emitting and receiving unit of a TOF method.

【図3】光切断方式の投光受光部の例を示す図である。FIG. 3 is a diagram showing an example of a light-projection light-receiving unit of a light-section method.

【図4】デジタルカメラの撮像範囲を説明する図であ
る。
FIG. 4 is a diagram illustrating an imaging range of a digital camera.

【図5】3次元計測ユニットの計測範囲を説明する図で
ある。
FIG. 5 is a diagram illustrating a measurement range of a three-dimensional measurement unit.

【図6】3次元計測ユニットの計測範囲を説明する図で
ある。
FIG. 6 is a diagram illustrating a measurement range of a three-dimensional measurement unit.

【図7】撮像範囲を計測範囲がカバーするように設定さ
れた状態の図である。
FIG. 7 is a diagram illustrating a state in which a measurement range covers an imaging range.

【図8】撮像範囲によって計測範囲がカバーされるよう
に設定された状態を示す図である。
FIG. 8 is a diagram illustrating a state in which a measurement range is set to be covered by an imaging range.

【図9】エリアセンサの撮像面を示す図である。FIG. 9 is a diagram illustrating an imaging surface of an area sensor.

【図10】通信方法に関する種々のレベルを説明する図
である。
FIG. 10 is a diagram illustrating various levels related to a communication method.

【図11】送受信される動作条件の例を示す図である。FIG. 11 is a diagram showing an example of operating conditions transmitted and received.

【図12】送受信される動作条件の例を示す図である。FIG. 12 is a diagram showing an example of operating conditions transmitted and received.

【図13】送受信される動作条件の例を示す図である。FIG. 13 is a diagram illustrating an example of operating conditions transmitted and received.

【図14】送受信される動作条件の例を示す図である。FIG. 14 is a diagram illustrating an example of operating conditions transmitted and received.

【図15】送受信される動作条件の例を示す図である。FIG. 15 is a diagram showing an example of operating conditions transmitted and received.

【図16】送受信される動作条件の例を示す図である。FIG. 16 is a diagram showing an example of operating conditions transmitted and received.

【図17】送受信される動作条件の例を示す図である。FIG. 17 is a diagram showing an example of operating conditions transmitted and received.

【図18】送受信される動作条件の例を示す図である。FIG. 18 is a diagram illustrating an example of operating conditions transmitted and received.

【図19】送受信される動作条件の例を示す図である。FIG. 19 is a diagram showing an example of operating conditions transmitted and received.

【図20】メニュー画面の例を示す図である。FIG. 20 is a diagram illustrating an example of a menu screen.

【図21】他のメニュー画面の例を示す図である。FIG. 21 is a diagram showing an example of another menu screen.

【図22】デジタルカメラの制御内容を示すメインフロ
ーチャートである。
FIG. 22 is a main flowchart showing control contents of the digital camera.

【図23】デジタルカメラの3D処理のルーチンを示す
フローチャートである。
FIG. 23 is a flowchart illustrating a 3D processing routine of the digital camera.

【図24】3次元計測ユニットにおける計測の処理を示
すフローチャートである。
FIG. 24 is a flowchart illustrating a measurement process in the three-dimensional measurement unit.

【図25】デジタルカメラの3D処理のルーチンを示す
フローチャートである。
FIG. 25 is a flowchart illustrating a routine of 3D processing of the digital camera.

【図26】3次元計測ユニットにおける計測の処理を示
すフローチャートである。
FIG. 26 is a flowchart illustrating measurement processing in the three-dimensional measurement unit.

【図27】表示部における範囲枠の表示状態を示す図で
ある。
FIG. 27 is a diagram illustrating a display state of a range frame on the display unit.

【図28】範囲枠の大きさを算出する原理を示す図であ
る。
FIG. 28 is a diagram illustrating the principle of calculating the size of a range frame.

【図29】範囲枠の大きさを算出する原理を示す図であ
る。
FIG. 29 is a diagram illustrating the principle of calculating the size of a range frame.

【図30】変更後の範囲の例を示す図である。FIG. 30 is a diagram illustrating an example of a range after a change.

【図31】ファインダー表示処理を示すフローチャート
である。
FIG. 31 is a flowchart showing a finder display process.

【図32】被写体の3次元データと2次元画像との関係
を示す図である。
FIG. 32 is a diagram illustrating a relationship between three-dimensional data of a subject and a two-dimensional image.

【図33】被写体の3次元データと2次元画像との関係
を示す図である。
FIG. 33 is a diagram showing a relationship between three-dimensional data of a subject and a two-dimensional image.

【図34】図33の被写体を表示部に表示した例を示す
図である。
FIG. 34 is a diagram illustrating an example in which the subject in FIG. 33 is displayed on a display unit.

【符号の説明】[Explanation of symbols]

1 撮影システム 3 デジタルカメラ(2次元撮像装置) 4 3次元計測ユニット(3次元計測装置) 11 エリアセンサ(撮像手段) 12 撮像制御部(撮像手段) 13 レンズ群(撮像手段) 14 レンズ制御部(撮像手段) 20 2次元制御部(送信手段、受信手段、算出手段) 30 投光受光部(3次元計測手段) 40 3次元制御部(送信手段、受信手段、算出手段) Reference Signs List 1 imaging system 3 digital camera (two-dimensional imaging device) 4 three-dimensional measurement unit (three-dimensional measurement device) 11 area sensor (imaging unit) 12 imaging control unit (imaging unit) 13 lens group (imaging unit) 14 lens control unit ( Imaging unit) 20 two-dimensional control unit (transmission unit, reception unit, calculation unit) 30 light emitting / receiving unit (three-dimensional measurement unit) 40 three-dimensional control unit (transmission unit, reception unit, calculation unit)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G01S 17/46 G01B 11/24 K (72)発明者 八木 史也 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 近藤 尊司 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA06 AA52 BB05 DD00 DD02 FF01 FF02 FF09 FF10 FF12 FF32 GG04 GG08 HH05 JJ00 JJ03 JJ05 JJ18 JJ26 LL06 LL12 LL62 MM16 PP22 QQ03 UU05 UU07 2F112 AD01 AD05 BA02 BA09 CA02 CA08 DA15 EA11 FA03 FA07 FA45 GA10 5C022 AA13 AB24 AB26 AB68 AC12 AC32 AC42 AC54 AC78 5J084 AD05 AD07 BA03 BA11 BA36 BB02 CA03 CA65 DA02──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl.7 Identification symbol FI Theme court ゛ (Reference) // G01S 17/46 G01B 11/24 K (72) Inventor Fumiya Yagi Azuchi-cho, Chuo-ku, Osaka-shi, Osaka 2-3-1-3 Osaka International Building Minolta Co., Ltd. (72) Inventor Takashi Kondo 2-3-1-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka F-term in Osaka International Building Minolta Co., Ltd. 2F065 AA04 AA06 AA52 BB05 DD00 DD02 FF01 FF02 FF09 FF10 FF12 FF32 GG04 GG08 HH05 JJ00 JJ03 JJ05 JJ18 JJ26 LL06 LL12 LL62 MM16 PP22 QQ03 UU05 UU07 2F112 AD01 AD05 BA02 BA09 CA02 CA08 DA15 EA11 FA03 AC07 A022 AB AD07 BA03 BA11 BA36 BB02 CA03 CA65 DA02

Claims (11)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記2次元撮像装置と前記3次元計測装置とは互いに通
信可能であり、 いずれか一方の動作条件を表す情報が他方に送信された
ときに、それを受信した他方は受信した情報に基づいて
自らの動作条件を設定して撮像または計測を実行する、 ことを特徴とする撮影システム。
An imaging system comprising a two-dimensional imaging device and a three-dimensional measurement device detachably attached to the two-dimensional imaging device, wherein the two-dimensional imaging device and the three-dimensional measurement device can communicate with each other. When information indicating one of the operating conditions is transmitted to the other, the other receiving the information sets its own operating condition based on the received information and performs imaging or measurement. And the shooting system.
【請求項2】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記2次元撮像装置は、 被写体の2次元画像を撮像する撮像手段と、 前記撮像手段の撮像条件を表す情報を送信する送信手段
と、を有し、 前記3次元計測装置は、 前記2次元撮像装置から送信される情報を受信する受信
手段と、 受信した情報に基づいて計測条件を設定し前記被写体の
3次元形状を計測する3次元計測手段と、 を有することを特徴とする撮影システム。
2. An imaging system comprising a two-dimensional imaging device and a three-dimensional measuring device detachably attached to the two-dimensional imaging device, wherein the two-dimensional imaging device is an imaging means for imaging a two-dimensional image of a subject. And a transmitting unit that transmits information indicating an imaging condition of the imaging unit. The three-dimensional measuring device includes: a receiving unit that receives information transmitted from the two-dimensional imaging device; A three-dimensional measuring means for setting a measurement condition based on the three-dimensional shape of the subject based on the measurement condition.
【請求項3】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記2次元撮像装置は、 被写体の2次元画像を撮像する撮像手段と、 前記撮像手段の撮像条件から前記3次元計測装置の計測
条件に関連する情報を算出する算出手段と、 前記算出手段により算出された情報を送信する送信手段
と、を有し、 前記3次元計測装置は、 前記2次元撮像装置から送信される情報を受信する受信
手段と、 受信した情報に基づいて計測条件を設定し前記被写体の
3次元形状を計測する3次元計測手段と、 を有することを特徴とする撮影システム。
3. An imaging system having a two-dimensional imaging device and a three-dimensional measurement device detachably attached to the two-dimensional imaging device, wherein the two-dimensional imaging device is an imaging unit that captures a two-dimensional image of a subject. A calculating unit that calculates information related to the measurement condition of the three-dimensional measuring device from an imaging condition of the imaging unit; and a transmitting unit that transmits information calculated by the calculating unit. The measuring device includes: a receiving unit that receives information transmitted from the two-dimensional imaging device; and a three-dimensional measuring unit that sets a measurement condition based on the received information and measures a three-dimensional shape of the subject. An imaging system characterized by the following.
【請求項4】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記3次元計測装置は、 被写体の3次元形状を計測する3次元計測手段と、 前記3次元計測手段の計測条件を表す情報を送信する送
信手段と、を有し、 前記2次元撮像装置は、 前記3次元計測装置から送信される情報を受信する受信
手段と、 受信した情報に基づいて撮像条件を設定し前記被写体の
2次元画像を撮像する撮像手段と、 を有することを特徴とする撮影システム。
4. An imaging system comprising a two-dimensional imaging device and a three-dimensional measurement device detachably attached to the two-dimensional imaging device, wherein the three-dimensional measurement device measures a three-dimensional shape of a subject. A measuring unit; and a transmitting unit that transmits information indicating a measurement condition of the three-dimensional measuring unit; the two-dimensional imaging device; a receiving unit that receives information transmitted from the three-dimensional measuring device; Imaging means for setting imaging conditions based on the received information and imaging a two-dimensional image of the subject.
【請求項5】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記3次元計測装置は、 被写体の3次元形状を計測する3次元計測手段と、 前記3次元計測手段の計測条件から前記2次元撮像装置
の撮像条件に関連する情報を算出する算出手段と、 前記算出手段により算出された情報を送信する送信手段
と、を有し、 前記2次元撮像装置は、 前記3次元計測装置から送信される情報を受信する受信
手段と、 受信した情報に基づいて撮像条件を設定し前記被写体の
2次元画像を撮像する撮像手段と、 を有することを特徴とする撮影システム。
5. An imaging system comprising a two-dimensional imaging device and a three-dimensional measurement device detachably attached to the two-dimensional imaging device, wherein the three-dimensional measurement device measures a three-dimensional shape of a subject. Measuring means; calculating means for calculating information related to the imaging conditions of the two-dimensional imaging device from the measuring conditions of the three-dimensional measuring means; and transmitting means for transmitting the information calculated by the calculating means. A receiving unit that receives information transmitted from the three-dimensional measuring device; and an imaging unit that sets an imaging condition based on the received information and captures a two-dimensional image of the subject. An imaging system, comprising:
【請求項6】2次元撮像装置および前記2次元撮像装置
に着脱可能に取り付けられる3次元計測装置を有する撮
影システムであって、 前記3次元計測装置は、 被写体の3次元形状を計測する3次元計測手段と、 前記3次元計測手段の計測条件を表す情報を送信する送
信手段と、 前記2次元撮像装置から送信される情報を受信する受信
手段と、 前記受信手段により2次元撮像装置から送信される情報
を受信したときに、受信した情報に基づいて計測条件を
設定する手段と、 を有し、 前記2次元撮像装置は、 被写体の2次元画像を撮像する撮像手段と、 前記撮像手段の撮像条件を表す情報を送信する送信手段
と、 前記3次元計測装置から送信される情報を受信する受信
手段と、 前記受信手段により3次元計測装置から送信される情報
を受信したときに、受信した情報に基づいて撮像条件を
設定する手段と、 を有することを特徴とする撮影システム。
6. An imaging system comprising a two-dimensional imaging device and a three-dimensional measurement device detachably attached to the two-dimensional imaging device, wherein the three-dimensional measurement device measures a three-dimensional shape of a subject. Measuring means; transmitting means for transmitting information representing measurement conditions of the three-dimensional measuring means; receiving means for receiving information transmitted from the two-dimensional imaging apparatus; transmitted from the two-dimensional imaging apparatus by the receiving means Means for setting measurement conditions based on the received information when the information is received, the two-dimensional imaging device includes: an imaging means for capturing a two-dimensional image of a subject; A transmitting unit that transmits information indicating a condition; a receiving unit that receives information transmitted from the three-dimensional measuring device; and a receiving unit that receives information transmitted from the three-dimensional measuring device by the receiving unit. Imaging system, characterized in that when, and means for setting an imaging condition based on the received information.
【請求項7】前記撮像条件を表す情報は、前記撮像手段
の撮像範囲および撮像分解能であり、 前記計測条件を表す情報は、前記3次元計測手段の計測
範囲および計測分解能である、 請求項2ないし請求項6のいずれかに記載の撮影システ
ム。
7. The information indicating the imaging condition is an imaging range and an imaging resolution of the imaging unit, and the information indicating the measurement condition is a measurement range and a measurement resolution of the three-dimensional measurement unit. An imaging system according to claim 6.
【請求項8】3次元計測装置が着脱可能に取り付けられ
る2次元撮像装置であって、 被写体の2次元画像を撮像する撮像手段と、 前記撮像手段の撮像条件を表す情報を前記3次元計測装
置に送信する送信手段と、 を有することを特徴とする2次元撮像装置。
8. A two-dimensional imaging apparatus to which a three-dimensional measuring device is detachably attached, wherein said imaging means captures a two-dimensional image of a subject, and said three-dimensional measuring apparatus transmits information representing an imaging condition of said imaging means. And a transmitting means for transmitting to the two-dimensional imaging device.
【請求項9】3次元計測装置が着脱可能に取り付けられ
る2次元撮像装置であって、 3次元計測装置から送信される情報を受信する受信手段
と、 受信した情報に基づいて撮像条件を設定し被写体の2次
元画像を撮影する撮像手段と、 を有することを特徴とする2次元撮像装置。
9. A two-dimensional imaging device to which a three-dimensional measuring device is detachably attached, a receiving means for receiving information transmitted from the three-dimensional measuring device, and an imaging condition set based on the received information. An imaging unit that captures a two-dimensional image of a subject.
【請求項10】2次元撮像装置に着脱可能に取り付けら
れる3次元計測装置であって、 被写体の3次元形状を計測する3次元計測手段と、 前記3次元計測手段の計測条件を表す情報を送信する送
信手段と、 を有することを特徴とする3次元計測装置。
10. A three-dimensional measuring device detachably attached to a two-dimensional imaging device, comprising: three-dimensional measuring means for measuring a three-dimensional shape of a subject; and information indicating measurement conditions of the three-dimensional measuring means. A three-dimensional measuring device, comprising:
【請求項11】2次元撮像装置に着脱可能に取り付けら
れる3次元計測装置であって、 2次元撮像装置から送信される情報を受信する受信手段
と、 受信した情報に基づいて計測条件を設定し被写体の3次
元形状を計測する3次元計測手段と、 を有することを特徴とする3次元計測装置。
11. A three-dimensional measuring device detachably attached to a two-dimensional imaging device, comprising: receiving means for receiving information transmitted from the two-dimensional imaging device; and setting measurement conditions based on the received information. A three-dimensional measuring device, comprising: three-dimensional measuring means for measuring a three-dimensional shape of a subject.
JP2000097240A2000-02-222000-03-31Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the systemPendingJP2001280933A (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
JP2000097240AJP2001280933A (en)2000-03-312000-03-31Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system
US09/788,660US6975361B2 (en)2000-02-222001-02-21Imaging system, two-dimensional photographing device and three-dimensional measuring device

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2000097240AJP2001280933A (en)2000-03-312000-03-31Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system

Publications (1)

Publication NumberPublication Date
JP2001280933Atrue JP2001280933A (en)2001-10-10

Family

ID=18611883

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2000097240APendingJP2001280933A (en)2000-02-222000-03-31Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system

Country Status (1)

CountryLink
JP (1)JP2001280933A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US6987531B2 (en)2001-09-042006-01-17Minolta Co., Ltd.Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
JP2006074146A (en)*2004-08-312006-03-16Pentax Corp Imaging device
KR100660519B1 (en)2005-12-122006-12-22(주)토핀스 Experimental photographing device equipped with a 3D imaging platform
JP2008241535A (en)*2007-03-282008-10-09Ihi CorpLaser monitoring device
JP2010516153A (en)*2007-01-142010-05-13マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Method, apparatus and system for image processing
JP2010266461A (en)*2003-11-212010-11-25Olympus CorpScanning confocal microscope
JP2023510738A (en)*2020-01-052023-03-15マジック アイ インコーポレイテッド Method of moving the coordinate system of the 3D camera to the incident position of the 2D camera
JP2024161925A (en)*2023-04-282024-11-21ミサワホーム株式会社 program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US6987531B2 (en)2001-09-042006-01-17Minolta Co., Ltd.Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
JP2010266461A (en)*2003-11-212010-11-25Olympus CorpScanning confocal microscope
JP2006074146A (en)*2004-08-312006-03-16Pentax Corp Imaging device
KR100660519B1 (en)2005-12-122006-12-22(주)토핀스 Experimental photographing device equipped with a 3D imaging platform
WO2007069840A1 (en)*2005-12-122007-06-21Topins Co., Ltd.The testing matter photographing apparatus attached three dimensional image photographing device
US7747163B2 (en)2005-12-122010-06-29Topins Co., Ltd.Testing matter photographing apparatus attached three dimensional image photographing device
JP2010516153A (en)*2007-01-142010-05-13マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Method, apparatus and system for image processing
JP2008241535A (en)*2007-03-282008-10-09Ihi CorpLaser monitoring device
JP2023510738A (en)*2020-01-052023-03-15マジック アイ インコーポレイテッド Method of moving the coordinate system of the 3D camera to the incident position of the 2D camera
JP7699132B2 (en)2020-01-052025-06-26マジック アイ インコーポレイテッド A method for moving the coordinate system of a 3D camera to the incident position of a 2D camera
JP2024161925A (en)*2023-04-282024-11-21ミサワホーム株式会社 program

Similar Documents

PublicationPublication DateTitle
JP2003075137A (en)Photographing system and imaging device used therefor and three-dimensional measuring auxiliary unit
JP2021170007A (en) Methods and equipment for multi-technology depth map acquisition and fusion
US6975361B2 (en)Imaging system, two-dimensional photographing device and three-dimensional measuring device
JP4943270B2 (en) Method and apparatus for setting a three-dimensional coordinate system
JP2000283720A (en)Method and device for inputting three-dimensional data
CN104205809A (en)Solid-state image capture element, image capture device, and solid-state image capture element drive method
CN114761757B (en)Information processing apparatus, information processing method, and storage medium
JPWO2017077906A1 (en) Information processing apparatus, information processing method, and program
JP2001280933A (en)Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system
JP2020187065A (en)Electronic device and control method thereof, and program
JP2001280932A (en)Photographing system, and two-dimensional image pick-up device and three-dimensional measuring instrument used for the system
JP3893169B2 (en) 3D measuring device
JP4186347B2 (en) Three-dimensional input method and apparatus
EP1122681A2 (en)Coordinate input apparatus, coordinate input system, coordinate input method, and pointer
JPWO2017134881A1 (en) Information processing apparatus, information processing method, and program
JP4221808B2 (en) Three-dimensional data input method and apparatus
JPH0635607A (en)Remote indication input device
JP6534455B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
KR101005782B1 (en) Optical scanner
CN112929519B (en) Depth Cameras, Imaging Devices and Electronics
JP2020148628A (en)Three-dimensional surveying device, imaging apparatus, method for control, and program
JP2001235314A (en)Photographic system and two-dimensional image pickup apparatus for use therein
JP2000275024A (en)Three-dimensional input apparatus
JP3212335B2 (en) Passive type distance measuring device
JPH09261520A (en) Image input device

Legal Events

DateCodeTitleDescription
A711Notification of change in applicant

Free format text:JAPANESE INTERMEDIATE CODE: A712

Effective date:20050615

RD03Notification of appointment of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7423

Effective date:20050704


[8]ページ先頭

©2009-2025 Movatter.jp