Movatterモバイル変換


[0]ホーム

URL:


JP2004045266A - Method and apparatus for detecting three-dimensional information - Google Patents

Method and apparatus for detecting three-dimensional information
Download PDF

Info

Publication number
JP2004045266A
JP2004045266AJP2002204189AJP2002204189AJP2004045266AJP 2004045266 AJP2004045266 AJP 2004045266AJP 2002204189 AJP2002204189 AJP 2002204189AJP 2002204189 AJP2002204189 AJP 2002204189AJP 2004045266 AJP2004045266 AJP 2004045266A
Authority
JP
Japan
Prior art keywords
light
visible region
distance
imaging
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002204189A
Other languages
Japanese (ja)
Other versions
JP4031306B2 (en
Inventor
Masahiro Kawakita
河北 真宏
Yasuichiro Kurita
栗田 泰市郎
Hiroshi Kikuchi
菊池 宏
Keigo Iizuka
飯塚 啓吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting CorpfiledCriticalNippon Hoso Kyokai NHK
Priority to JP2002204189ApriorityCriticalpatent/JP4031306B2/en
Publication of JP2004045266ApublicationCriticalpatent/JP2004045266A/en
Application grantedgrantedCritical
Publication of JP4031306B2publicationCriticalpatent/JP4031306B2/en
Anticipated expirationlegal-statusCritical
Expired - Fee Relatedlegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】本発明は、高精細な画像の距離映像をビデオレートで取得でき、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる3次元情報検出方法及び装置を提供することを目的とする。
【解決手段】可視領域外の光を強度変調して被写体に照射すると共に可視領域の光を被写体に照射し、カメラレンズで集光された被写体からの反射光を可視領域外の光と可視領域の光とに波長分離し、撮像ゲインを変調して波長分離された可視領域外の光学像を撮像し、波長分離された可視領域の光学像を撮影し映像信号を出力し、可視領域外の光の強度変調と撮像ゲインの変調との時間変化パターンが異なる組合せであるときに可視領域外の複数の画像間の強度比から距離を算出することにより、高精細な画像の距離映像をビデオレートで取得でき、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる。
【選択図】    図1
An object of the present invention is to provide a three-dimensional information detecting method and apparatus capable of acquiring a distance image of a high-definition image at a video rate and acquiring a color image and a distance image corresponding to a zoom function of a camera lens. The purpose is to:
The light outside the visible region is intensity-modulated to irradiate the object, and the object is irradiated with light in the visible region. The wavelength is separated into light and light, the imaging gain is modulated, an optical image outside the visible region that is wavelength-separated is captured, an optical image that is wavelength-separated in the visible region is captured, and a video signal is output. When the time variation patterns of the light intensity modulation and the imaging gain modulation are different combinations, the distance is calculated from the intensity ratio between multiple images outside the visible region, and the distance image of the high-definition image is converted to the video rate. And a color image and a distance image corresponding to the zoom function of the camera lens can be obtained.
[Selection diagram] Fig. 1

Description

Translated fromJapanese

【0001】
【発明の属する技術分野】
本発明は3次元情報検出方法及び装置に関し、特に、被写体の奥行き形状を検出し3次元情報を取得する3次元情報検出方法及び装置に関する。
【0002】
【従来の技術】
物体の3次元位置もしくは奥行き距離の検出方法として、複数台のカメラを使用して得られた多視点画像より3次元情報を取得するステレオ法がある。また、光を照射し距離を検出する方法として、照射光を正弦波駆動し反射側で位相を検出して距離を算出する方法がある。
【0003】
また、特願平10−293817号公報には、照射光の時間変化と撮像側のゲイン変調の組合せを2種類選ぶことで撮影された2枚の画像より高速に距離を算出することが記載されている。
【0004】
【発明が解決しようとする課題】
ステレオ法による3次元情報の取得方法では、光を照射する必要がないため、外光の影響を受けないというメリットがある反面、複数台のカメラの配置やカメラレンズのキャリブレーションが煩雑であり、また、装置が大型であり汎用性に欠ける。更にカメラレンズのズーム操作により自由な撮影画角変更ができない。更に、標準テレビジョン画像程度以上の高精細な画像において、画素ごとに距離を算出するには、複数画像間で対応点を検索する画像マッチング処理に時間を要するため、ビデオレート(フレームレート60Hz)程度の高速で、かつ、40万画素以上の多画素検出は困難であるという問題があった。
【0005】
また、正弦波状の光を被写体に照射し反射側でその位相を検出する方式では、撮影画素ごとに光の位相を算出していく必要があり、一般的に実用化レベルにあるレンジファインダで被写体全体の距離を検出する場合は、光ビームの2次元走査機構が必要であるため、高速性が損なわれてしまうとともに構成も複雑となってしまうという問題があった。
【0006】
また、特願平10−293817号公報では、高速に距離画像(距離の情報を画像信号の輝度で表した画像)を取得する方法を示しているが、カラー映像と同じ画角の距離映像を同時に撮影し、しかも距離検出のオクルージョンがなく、ハイビジョン映像クラスの高品質な映像の撮影を可能とし、カメラレンズのズーム機能に対応してカラー画像と距離映像を連動する具体的な方法については考慮されていないという問題があった。
【0007】
本発明は、上記の点に鑑みなされたもので、高精細な画像の距離映像をビデオレートで取得でき、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる3次元情報検出方法及び装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
請求項1,2に記載の発明は、可視領域外の光を強度変調して被写体に照射すると共に可視領域の光を前記被写体に照射し、
カメラレンズで集光された前記被写体からの反射光を可視領域外の光と可視領域の光とに波長分離し、
撮像ゲインを変調して前記波長分離された可視領域外の光学像を撮像し、
前記波長分離された可視領域の光学像を撮影し映像信号を出力し、
前記可視領域外の光の強度変調と前記撮像ゲインの変調との時間変化パターンが異なる組合せであるときに前記可視領域外の光学像を撮像した複数の画像間の強度比から距離を算出し、距離を明暗で表す距離映像信号を出力することにより、
高精細な画像の距離映像をビデオレートで取得でき、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる。
【0009】
請求項3に記載の発明は、請求項2記載の3次元情報検出装置において、
前記カメラレンズは、ズーム機能を有することにより、
カメラレンズでズーミングを行った後に可視領域外の光と可視領域の光とに波長分離されるので、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる。
【0010】
請求項4に記載の発明は、請求項2または3記載の3次元情報検出装置において、
前記第1光照射手段は、照射する可視領域外の光の光軸がカメラレンズの光軸に近接するよう、カメラレンズの周囲に配置したことにより、
可視領域外の光照射で発生する影を小さくして、被写体において距離検出ができない部分を縮小できる。
【0011】
請求項5に記載の発明は、請求項2または3記載の3次元情報検出装置において、
前記第1光照射手段が照射する可視領域外の光の光軸を前記カメラレンズの光軸に一致させる光軸一致手段を有することにより、
可視領域外の光照射で発生する影をなくし、被写体において距離検出ができない部分をなくすことができる。
【0012】
【発明の実施の形態】
図1は、本発明の3次元情報検出装置の第1実施例の構成図を示す。同図中、第1光源2の出力光を光照射光学系3を通して、撮影対象の被写体1を含む撮影範囲の全体に照射する。このとき、照射光は光強度が時間軸方向に変化する強度変調光4である。第1光源2としては1個もしくは複数個のレーザダイオードや発光ダイオードが使用できる。
【0013】
また、第1光源2の出力光の波長はカラー画像撮影に必要な可視領域の波長以外の波長が使用でき、例えば紫外領域や赤外領域の波長が使用できる。特に、750nm〜900nmの近赤外光は、可視領域に波長が近く光学特性が可視領域と大きく異ならないため、通常のカラー画像撮影用のカメラレンズを使用でき、また、後述の色分離結像光学系8においても、可視領域との波長分離を高い効率で行える。
光学的に高い色分離結像光学系率を確保する光学系を作製することが容易である。
【0014】
強度変調光4の生成手段としては、半導体レーザや発光ダイオードの駆動電流を直接変調しても良く、また、光源出力光を音響光学素子などの外部変調器を通して変調してもよい。光照射光学系3としては、例えば出力端面に微小レンズを使用し、照射する被写体の範囲に応じたレンズ形状を採用する。照明の照射強度の均一性を確保するためには、光ファイバ束を用い、各光ファイバに微小レンズを配置し照射面で個々の照射パターンを重畳することで、照射光強度の均一性を高めることができる。
【0015】
更に、光照射光学系3としては、拡散板を使用することもできる。拡散板としては、すりガラス状の散乱効果を示すもの、または表面に細かい回折格子上の凹凸を形成し、回折効果により光の配光制御を行う素子が使用できる。特に、表面回折を使用した拡散板に関しては、表面の凹凸の形成パターンにより、光の配光形状や強度分布が制御できるため、撮影アスペクト比に応じ効率よく均一な照明が実現できる。また、拡散板を用いることで面光源と同様の条件となり、点光源に比較し人物撮影時の目への負担が少なくなり、安全性が確保できる。
【0016】
被写体1は、可視光5を照射する第2光源6で照明されている。この第2光源6は、カメラレンズ7の近傍にある必要はない。第1光源2に近赤外光を使用した場合、第2光源6としては近赤外成分がほとんど含まれていない蛍光灯照明が使用できる。
【0017】
上記第1光源2及び第2光源6で照明された被写体1からの反射光は、カメラレンズ7により集光される。カメラレンズの特性としては、通常のカラー画像撮影用のズーム機能付カメラレンズを使用することができる。また、第1光源の波長に応じた表面コーティングを施すことにより、第1光源2の光を効率よく取り込めるとともに、レンズ内でのゴーストの発生を抑えることができ、距離検出性能と高画質映像の取得に有利である。
【0018】
カメラレンズ7の後段に、第1光源2からの光波長成分と第2光源からの光波長成分とを色分離し、それぞれ結像する色分離結像光学系8が配置されている。第1光源2からの光成分の結像画像は高速に撮像ゲインを可変できる高速撮像素子9に入射される。
【0019】
高速撮像素子9は第1光源2の強度変調光の時間変化が異なる条件下で、撮像ゲインを変調して複数の画像を撮影する。信号処理部10は、得られた複数の画像の信号をもとにカメラから被写体1までの距離を算出する信号処理を行い、被写体1の奥行き距離を画像の濃淡で表す距離映像信号11を出力する。
【0020】
一方、色分離結像光学系8で分離された第2光源6からの光成分の結像画像はカラーカメラ12に入射され、カラーカメラ12はカラー映像信号13を出力する。
【0021】
図2に、第1光源2及び光照射光学系3の配置の一実施例を示す。第1光源2はカメラレンズ7の近傍に設置し、カメラレンズ7の撮影光軸14と光源2の光照射光軸15を近づけて配置することで、照明光の影を低減する。図2に示すようにカメラレンズ7より距離dで、カメラレンズ7の光軸上に位置する被写体1が、奥行きΔdの段差を持っている場合、カメラレンズ7の撮影光軸14から距離lだけ離れた位置にある光照射光学系3からの光は、被写体の一部に影16を生じ、その幅Δlは、(1)式で表される。
【0022】
Δl=l・Δd/d    …(1)
(1)式から明らかなように、カメラレンズ7の撮影光軸14と光源2の光照射光軸15間の距離lを小さくするほど影の領域を小さくすることができる。
【0023】
図3に、カメラレンズ7の両脇に光源を配置した実施例を示す。カメラレンズ7の両脇に、第1光源2,2’及び光照射光学系3,3’を配置することで、片側の第1光源2による照明の影16部分を、もう一方の光源2’からの光を照射することができる。このように、カメラレンズ7の光軸14と照射光軸15,15’を近づけると共に、カメラレンズ7をその左右や上下から挟むように配置することで、距離検出のオクルージョンとなる照明の影16を低減することができる。
【0024】
また、図3では一方の光源2で照明の影16となる部分は、他方の光源2’で照明され、両方の光源で照らされている部分に比して約半分の光量となり、光の強度ムラが生じる。
【0025】
また、図4に示すように、被写体1のカメラレンズ7の光軸14を挟む位置に突起1a,1bがあり、突起1a,1bが光源2,2’による照明を阻んでいる特殊な場合は照明の影16’が生じる。これらの場合はカメラレンズ7の光軸14と照明光の照射光軸15,15’を一致させることで、これらの強度ムラや距離検出のオクルージョンとなる影の発生をなくすことができる。
【0026】
図5に、撮影光軸と照射光軸を一致させる方法を示す。同図中、カメラレンズ7の前面にハーフミラー17をカメラレンズ7の撮影光軸14に対し45度傾けて配置し、撮影光軸14に直交する方向から第1光源2及び光照射光学系3でハーフミラー17を介して照明を行う。光照射光学系3の出力する強度変調光4は、ハーフミラー17で90度反射され、カメラレンズ7の撮影光軸14と一致する光軸15にて被写体1を照明する。
【0027】
これにより、照明の影16,16’や、光の強度ムラをなくすことができる。なお、強度変調光4のうち、ハーフミラー17で反射せずに透過した光は、この波長の光を吸収する特性を持つ遮光体18により吸収される。
【0028】
また、ハーフミラー17の代わりに、図6に示すように、偏光ビームスプリッタ19を用いることもできる。この場合、強度変調光4の偏光方向を偏光ビームスプリッタ19により反射する方向にそろえる。無偏光の場合は、偏光方向をそろえるための偏光変換素子を光照射光学系3の直後に配置して、偏光方向をそろえてもよい。強度変調光4の大部分は、偏光ビームスプリッタ19で90度反射される。
【0029】
出力光はλ/4板20を透過して円偏光となり、被写体1に照射される。反射光成分の円偏光に近い反射成分は、再びλ/4板20に入射して直線偏光となり、偏光ビームスプリッタ19を透過しカメラレンズ7へ入射される。
【0030】
一方、第1光源2からの出力光の一部は偏光ビームスプリッタ19を透過するため、この波長成分の光に対し吸収が大きい遮光板18を設置し、カメラレンズ方向への反射を抑える。また、遮光板18の代わりに、偏光保存するミラーを配置し、再度光照射光学系3側へ反射させることもできる。このように、偏光ビームスプリッタ19を使うことで光源出力光の光利用効率を高くすることができる。
【0031】
ところで、照射光の照射角は、第1光源2の前に取り付けた光照射光学系3により制御する。図7に、光照射光学系3の一実施例を示す。同図中、第1光源2は複数の光源から構成され、個々の光源の出力端に1個もしくは複数個のレンズ21を取り付け、使用するカメラレンズ7で撮影される最大の画角に広げ光を照射する。
【0032】
このとき、レンズの縦方向と横方向で広がり角が異なるレンズ、例えば2焦点レンズや焦点距離が異なるシリンドリカルレンズをそれぞれ縦置きと横置きとして光照射光学系3を構成し、カメラ映像の画角に応じた形状の光照射をすることで、光の利用効率を高めることができる。
【0033】
例えば標準テレビジョンカメラを使用する場合は、横縦比率を4:3、ハイビジョン撮影の場合は16:9とする。また、光照射光学系3に、拡散板22を使用することもできる。拡散板としては、すりガラス状の散乱効果を示すもの、または表面に細かい回折格子上の凹凸を形成し、回折効果により光の配光制御を行う素子が使用できる。
【0034】
特に、表面回折を使用した拡散板に関しては、表面の凹凸の形成パターンにより、光の配光形状や強度分布が制御できるため、撮影画角に応じ効率よく均一性のよい照明が実現できる。
【0035】
ここで、強度変調光として時間と共に光強度が増加および減少する光と、短時間シャッタ機能を持つ撮像装置による距離検出方法について説明する。距離dに置かれた被写体に、図8(A)に示すように、時間と共に係数sで光強度が増加する強度変調光23を照射し、被写体からの反射光24を時刻tsにパルス状撮像ゲイン25で短時間撮像した場合、高速撮像素子9で検出される信号量E(d,ts)は、(2)式で表される。
【0036】
【数1】

Figure 2004045266
ここで、Tはカメラレンズ7などのレンズ光学系の透過率、ρは被写体1の表面の反射特性係数、Fは光の最大照射強度、Δtは撮像時間幅であり、光変調周期に対して十分小さい値である。また、cは光速、2d/cは高速撮像素子9から被写体1までの距離dを光が往復する時間、lはカメラレンズ7から被写体1までの距離であり、式の分母は光の拡散による減衰を考慮した項である。
【0037】
次に、図8(B)に示すように、時間と共に係数sで光強度が減少する強度変調光26を照射し、被写体1からの反射光27を時刻tsにパルス状撮像ゲイン25で短時間撮像した場合、高速撮像素子9で検出される信号量E(d,ts)は、(3)式で表される。
【0038】
【数2】
Figure 2004045266
ここで、Tは光強度の変調周期である。なお、1回の撮像では感度が不十分である場合は、1フィールド内に、撮像ゲインの変調周波数と同等の繰り返しパルス光を照射し、蓄積型の撮像素子で蓄積し十分な感度を確保する。なお、図8(B)の強度変調光は図8(A)の強度変調光と連続して送出しても良い。
【0039】
(2)式と(3)式より、光強度の異なる2枚の画像間での強度比R=E/Eをとり、距離dを求めると、(4)式となる。
【0040】
【数3】
Figure 2004045266
(4)式で示されるように、光強度増加時と光強度減少時に撮像した2つの画像間の比Rを計算するだけで、被写体1の反射率や光の拡散による光の減衰効果等の影響をキャンセルし、高速に距離を求めることができる。
【0041】
このように、時間と共に強度変化する光源は、数十MHzの低い周波数でも実現できるため、レーザ光源以外に、LED(発光ダイオード)などインコヒーレントな照明も使用でき、高輝度で広い範囲を照明でき、人物の距離検出なども可能となる。なお、この方法による距離の検出範囲は、撮像時刻tsと変調周波数fで決まり、(5)式で表される。
【0042】
【数4】
Figure 2004045266
実際の運用時には、撮像時刻tsを調整し、被写体の位置に検出範囲を合わせる。また、測定レンジdは、変調周波数fで決まり(6)式で表される。
【0043】
=c/4f          …(6)
測定レンジdが7.5mのとき変調周波数fは10MHzとなり、測定レンジdが1.5mのとき変調周波数fは50MHzとなる。一方、撮像時の撮像時間幅Δtは光源2の変調周期1/fより短く、数nsecのシャッタ機能が必要である。
【0044】
次に、強度変調光として短時間のパルス光を使用し、高速撮像素子9の撮像ゲインを時間と共に高速に増加させながら撮像した画像と、撮像ゲインを時間と共に高速に減少させながら撮像した画像間で演算を行い、距離を検出する方法を説明する。
【0045】
距離dの位置にある被写体1に、図9(A)に示すように、光強度Fのパルス光28を時刻tpに照射し、被写体1からの反射光29を時間と共に係数gで増加する撮像ゲイン30を持つ高速撮像素子9で撮像した場合のカメラで検出される信号量E(d,tp)は、(7)式で表される。
【0046】
【数5】
Figure 2004045266
ここで、Tはカメラレンズ7などのレンズ光学系の透過率、ρは被写体1の表面の反射特性係数、τはパルス幅、cは光速、2d/cは高速撮像素子9から被写体1までの距離dを光が往復する時間、lはカメラレンズ7から被写体1までの距離であり、式の分母は光の拡散による減衰を考慮した項である。
【0047】
次に、図9(B)に示すように、時間と共に係数gで減少する撮像ゲイン31を持つ高速撮像素子9で撮像した場合のカメラで検出される信号量E(d,tp)は、(8)式で表される。
【0048】
【数6】
Figure 2004045266
ここで、Tは撮像ゲインの変調周期である。なお、1回の撮像では感度が不十分である場合は、1フィールド内に、撮像ゲインの変調周波数と同等の繰り返しパルス光を照射し、蓄積型の撮像素子で蓄積し十分な感度を確保する。なお、図9(B)の撮像ゲインの変調は図9(A)の撮像ゲインの変調に連続するように設定しても良い。
【0049】
(7)式と(8)式より、撮像ゲインの異なる2枚の画像間での強度比R=E/Eをとり、距離dを求めると、(9)式となる。
【0050】
【数7】
Figure 2004045266
上記(9)式で示されるように、撮像ゲイン増加時と撮像ゲイン減少時に撮像した2つの画像間の強度比Rを計算するだけで、被写体1の反射率や光の拡散による光の減衰効果等の影響をキャンセルし、高速に距離を求めることができる。
【0051】
このように、パルス状の光と、時間と共に変化する撮像ゲインの組合せでは、パルスレーザが使用でき、Qスイッチパルスレーザ光、モード同期パルス光など、パルス幅がピコ秒からフェムト秒のパルスレーザ光が使用できるため、分解能が高い距離検出が可能となる。
【0052】
この場合、測定できる範囲(測定レンジ)Dは、(10)式で表される。
【0053】
【数8】
Figure 2004045266
次に、矩形波状に変調した強度変調光と、矩形波状に撮像ゲインが変化する高速撮像素子9による距離検出方法を説明する。距離dに位置する被写体1に、図10(A)に破線で示すような矩形の強度変調光32(光強度F、変調周期T)を照射し、その反射光33を強度変調光32と同一周期で同位相の矩形状の撮像ゲイン34(ゲインg、周期T)で撮像する場合、カメラで検出される信号量E(d,tp)は、(11)式で表される。
【0054】
【数9】
Figure 2004045266
ここで、Tはカメラレンズ7などのレンズ光学系の透過率、ρは被写体1表面の反射特性係数、cは光速、2d/cは高速撮像素子9から被写体1までのまでの距離dを光が往復する時間、lはカメラレンズ7から被写体1までの距離であり、式の分母は光の拡散による減衰を考慮した項である。
【0055】
次に、図10(B)に示すように、周期Tだけシフトした強度変調光32と逆位相の矩形状の撮像ゲイン35(ゲインg、周期T)で撮像する場合、カメラで検出される信号量E(d,tp)は、(12)式で表される。
【0056】
【数10】
Figure 2004045266
なお、1回の撮像では感度が不十分である場合は、1フィールド内に、撮像ゲインの変調周波数と同等の繰り返しパルス光を照射し、蓄積型の撮像素子で蓄積し十分な感度を確保する。
【0057】
(11)式と(12)式より、2つの画像間の強度比R=E/Eをとり、距離dを求めると、(13)式となる。
【0058】
【数11】
Figure 2004045266
(13)式で示されるように、2つの画像間の比Rを計算するだけで、被写体1の反射率や光の拡散による光の減衰効果等の影響をキャンセルし、高速に距離を求めることができる。
【0059】
このように強度変調照射光と、撮像ゲインを同じ周期の幅を持つ矩形波状とすることで、撮像素子で検出される検出信号量が多くなり、信号対ノイズ比が高い撮像が可能であり、高分解能な距離検出が可能となる。
【0060】
図11に、色分離結像光学系8の一実施例を示す。同図中、カメラレンズ7のあとにカラー画像撮影に使用する第2光源6からの可視光成分を含む光37を透過し、距離検出に使用する第1光源2からの可視領域外の光38を反射させるダイクロイックプリズム36を有する。このダイクロイックプリズム36のサイズと材質は、カメラレンズ7のバックフォーカス長を考慮し、高速撮像素子9にカメラレンズ7よりダイクロイックプリズム36を通して結像できる光路長となるように選択する。
【0061】
距離検出用の強度変調光源である第1光源2の出力光を近赤外光とした場合、ダイクロイックプリズム36による色分離特性は、可視光を透過し、近赤外光を反射する特性とする。第2光源6の波長を780nmから900nmの範囲を選択すれば、可視光の透過率を高く、しかも近赤外光の反射率を高く設計することができる。
【0062】
また、ダイクロイックプリズム36で反射した光成分に含まれる第1光源2の波長成分より長波長の光を除去する赤外透過の光学フィルタ39を配置することで、外光の影響を低減し、信号光である近赤外光のみを高速撮像素子9に入力できる特性が得られる。
【0063】
ダイクロイックプリズム36を通過した可視光はリレーレンズ40を通してカラーカメラ12に入力される。このリレーレンズ40の倍率はほぼ等倍であり、レンズにはフォーカス調整機能を備える。このとき、リレーレンズ40の構成をテレセントリック光学系とすることでフォーカス調整が容易となる。
【0064】
リレーレンズ40は、可視領域において、透過率や収差などの結像光学特性の最適化を行い、MTF(Modulation Transfer Function)の低下を押さえ、カメラレンズによる結像光学画像を高精細、かつ、画像の色変化や輝度の低下なくカラーカメラ12に伝達入力する。また、リレーレンズ40の開口数をカメラレンズ7と同等とすることで、明るさの低減を抑える。また、リレーレンズ40には絞り調整機構をもたせることで、距離検出側への近赤外光量に影響なく、カラー画像の絞り調整が可能となる。
【0065】
図12に、高速撮像素子9として、イメージインテンシファイア41とCCDカメラ42を用いた実施例を示す。同図中、ダイクロイックプリズム36で反射した第1光源2の光成分をイメージインテンシファイア41に結像入力する。イメージインテンシファイア41は、光電変換面43、マイクロチャンネルプレート(MCP)44、蛍光面45から構成されるものが使用できる。
【0066】
イメージインテンシファイア41の光電変換面43とMCP44間の印加電圧の値を制御することで、時間と共に撮像感度を高速に変化できる。また、印加電圧をパルス形状とすることで、1nsec以下の短時間のゲート撮像も可能となる。
【0067】
光電変換面43の材料は、距離検出に使用する強度変調光の波長感度特性により選択する。例えば、波長800nmの場合、マルチアルカリ材料(Sb−K−Na−Cs)が使用でき、更に長波長の850nmを使用する場合は、ガリウム砒素(GaAs)材料を使用することで高い量子効率が得られるため、S/Nのよい撮像画像が得られる。
【0068】
撮像ゲインを高速に変化させ、または短時間のゲート動作をさせて画像を撮像するため、1回の撮像で得られる信号量は非常に微弱であるため、強度変調光4の光源2の出力タイミングと撮像ゲイン変調タイミングを同期させ、繰り返し撮像し、イメージインテンシファイア41の出力蛍光面45の画像を画像伝達光学系46でCCDカメラ42に入力し、CCDカメラ42の蓄積効果で十分な感度を確保することができる。
【0069】
画像伝達光学系46はファイバプレートもしくはリレーレンズ光学系で実現できる。画像伝達光学系46をファイバプレートとし、イメージインテンシファイアの蛍光面45とCCDカメラ42のCCD面を連結するごとで、高い効率で蛍光面出力光をCCDカメラ42に入力できる。
【0070】
一方、リレーレンズの場合、フォーカス調整や画像位置の微調整機構を持たせることができる。リレーレンズの透過率や画像の結像収差特性は、イメージインテンシファイアの蛍光面45の蛍光波長で最適化する。リレーレンズを用いた場合、ファイバプレートを用いた場合より光の利用効率が下がるが、CCDカメラ42が交換でき、CCDカメラ42の選択の幅が広がるとともに、結像倍率の制御が可能であると共に、ファイバプレート使用時に発生する固定パターンノイズの影響がなく、良好な画像が得られる特徴がある。画像の結像倍率は、カラー画像の画角とCCDカメラ42で撮像する画角が同じになる倍率とする。
【0071】
イメージインテンシファイア41の撮像の解像度は、イメージインテンシファイア41を構成する光電変換面43とMCP44の間隔、MCP44と蛍光面45間の間隔、MCP44を構成する導電性のガラスキャピラリの直径に大きく依存する。そのため、光電変換面43とMCP44の間隔、MCP44と蛍光面45間の間隔を近接させると共に、MCPを構成する導電性のガラスキャピラリの直径を細かいものを使用すると高解像度に有利である。
【0072】
また、イメーイジンテシファイア41ヘの結像入力画像を拡大入力し、画像伝達光学系46で縮小しCDDカメラ42に入力することで解像度を高く保つことができる。CCDカメラ42としては、標準TV用カメラやハイビジョンカメラが使用できるとともに、その他産業用の高精細CCDカメラも使用できる。
【0073】
図13は、信号処理部10の一実施例のブロック図を示す。同図中、高速撮像素子9の出力信号は画角変換部47に供給され、所望の出力画像のアスペクト比に変換される。例えば、1300(H)×1030(V)のCCDを高速撮像素子9に使用した場合、ハイビジョン映像の距離画像を出力するときには、1画面の16:9の領域(例えば1280(H)×853(V))の信号を画角変換部47で抽出する。
【0074】
次に、光強度及び撮像パターンの異なるタイミングで撮像した信号を、外部同期48に同期したスイッチ49で切り換えて、それぞれメモリ50Aとメモリ50Bに記憶する。メモリ50A,50Bの記憶タイミングは外部同期48に同期して行われる。これにより、例えば光強度が増加する強度変調光の照射時に短時間撮像した被写体画像がメモリ50Aに記憶され、光強度が減少する強度変調光の照射時に短時間撮像した被写体画像がメモリ50Aに記憶される。
【0075】
メモリ50A,50Bから読み出された信号は信号調整回路51A,51Bにて画像の輝度調整や、画像全体にある一定の輝度レベルを付加するためのセットアップ調整を行われたのち、距離算出演算部53で(4)式、または(9)式、または(13)式の演算を行って距離dを算出し、距離を明暗で表す距離映像信号を得る。その後、距離映像信号は信号変換部54により所望のテレビジョン信号規格に変換されて出力される。
【0076】
図14は、本発明の3次元情報検出装置の第2実施例の構成図を示す。同図中、カメラレンズ7の周囲に配置されたLED(発光ダイオード)アレイ55より近赤外波長(中心波長850nm)の強度変調光を被写体1に照射する。また、蛍光灯56より可視光を被写体1に照射する。
【0077】
被写体1からの反射光の可視光成分は、カメラレンズ7の後に配置されたダイクロイックプリズム36を透過し、リレーレンズ40を通してカラーカメラ12に結像される。
【0078】
一方、LEDアレイ55からの近赤外光は、ダイクロイックプリズム36で反射され、高速撮像素子9側に入射される。高速撮像素子9では、高速シャッタ機能をもつイメージインテンシファイア41により短時間シャッタ撮影を行い、イメージインテンシファイア41出力の光画像をリレーレンズ46でCCDカメラ42へ入力する。
【0079】
LEDアレイ55に供給する変調信号とイメージインテンシファイア41のシャッタトリガ信号は信号発生器57で同期して発生する。これにより、増加変調光照射時と減少変調光照射時の画像を交互に撮影する。CCDカメラ42の出力信号を信号処理部10に供給して距離算出を行い、距離を明暗で表す距離映像信号11をハイビジョン信号出力する。上記LEDアレイ55,イメージインテンシファイア41,CCDカメラ42,カラーカメラ12,カメラレンズ7それぞれの仕様を図15に示す。
【0080】
また、図16に、カラーカメラ12側への光透過率と、距離検出側(高速撮像素子9側)への光透過率、及び蛍光灯56出力の可視光とLEDアレイ55出力の近赤外光の出力スペクトルを示す。ダイクロイックプリズム36により、可視光成分と距離検出用の近赤外光成分が、高効率で分割されている。距離検出側への近赤外光の透過率が高いため、距離検出に十分な感度があり、S/Nのよい良好な距離検出が可能となっている。
【0081】
白紙を被写体1とし、カメラレンズ7からの距離を変化させ、距離映像信号11のレベルを測定した。このときの強度変調光の変調周波数は15MHz、撮像時間幅は5nsec(半値幅)、測定中心位置を6mに設定した。その結果、図17に示すように、カメラレンズ7から被写体1までの距離とともに、距離映像信号レベルが変化し、距離に応じた明暗映像が得られる。また、測定中心の6m付近では、比較的リニアな特性を有しているが、測定範囲の周辺部で非線型性が生じている。これはLEDの光変調特性の非線型成分の影響であり、出力信号のγ補正によりリニアな特性に補正できる。
【0082】
本実施例における距離検出範囲は15MHzで約4mであった。被写体1の奥行きがより小さい場合、変調周波数を45MHzと高くすることで奥行き検出範囲は約1.5mとなり、相対的に奥行き検出分解能を高めることができる。
【0083】
また、距離映像信号のノイズ成分量より、距離検出分解能を評価した。測定は強度変調光4の周波数を45MHz、撮像時間幅を2nsとして、カメラレンズ7から被写体1までの距離を1m〜10mまで変化させ、距離映像信号のノイズ成分の実効値σを測定し、3×σに相当する距離の値を距離検出分解能とした場合の距離と距離検出分解能の関係を図18に示す。被写体1がカメラレンズ7より2mの位置にあるとき、距離映像信号のS/Nは44.4dBであり、距離検出分解能は1.7cmであった。
【0084】
本発明では、カラー画像とともに、高速かつ高精細な距離画像を取得できる3次元情報検出方法及び装置を示した。撮影光軸と光照射光軸を近接もしくは一致させることで、光照射の影を低減し撮影画角全体の距離を検出することが可能となる。更に、強度変調光または撮像ゲインの変調特性の組合せにより、簡易な演算処理で高速に距離を算出でき、動画像に対しても距離を算出できることが可能となった。
【0085】
また、カメラレンズのあとに色分離結像光学系を導入し、カラー画像と距離画像を同じ画角で、標準のTV画像やハイビジョンクラスの高精細な画像の距離画像をビデオレートで撮影できるとともに、カメラレンズのズーム機能にも対応した3次元情報の検出が可能となる。
【0086】
本発明装置は、被写体のカラー画像と共に奥行き距離情報が取得できる3次元カメラとして各分野に応用できる。その一例として、テレビジョン放送用カメラとしては、距離情報を基にした画像の抽出や合成など、また、立体テレビジョン用のカメラとしても適用できる。更に、3次元モデリング、医療診断、自動車や航空、宇宙、船舶分野におけるエンジン等の機器内の観察や、ガス管、排気口、水道管、ボイラー、タービン内の検査、古墳や遺跡内の調査や動物生態の観察などの分野に適用できる。
【0087】
なお、第1光源2,光照射光学系3が請求項記載の第1光照射手段に対応し、第2光源6が第2光照射手段に対応し、色分離結像光学系8が光分離手段に対応し、高速撮像素子9がゲイン可変撮像手段に対応し、カラーカメラ12が撮影手段に対応し、信号処理部10が信号処理手段に対応し、ハーフミラー17,偏光ビームスプリッタ19が光軸一致手段に対応する。
【0088】
【発明の効果】
上述の如く、請求項1,2に記載の発明によれば、高精細な画像の距離映像をビデオレートで取得でき、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる。
【0089】
請求項3に記載の発明によれば、カメラレンズのズーム機能に対応したカラー映像と距離映像を取得することができる。
【0090】
請求項4に記載の発明によれば、可視領域外の光照射で発生する影を小さくして、被写体において距離検出ができない部分を縮小できる。
【0091】
請求項5に記載の発明によれば、可視領域外の光照射で発生する影をなくし、被写体において距離検出ができない部分をなくすことができる。
【図面の簡単な説明】
【図1】本発明の3次元情報検出装置の第1実施例の構成図である。
【図2】第1光源及び光照射光学系の配置の一実施例を示す図である。
【図3】カメラレンズの両脇に光源を配置した実施例を示す図である。
【図4】カメラレンズの両脇に光源を配置した実施例を示す図である。
【図5】撮影光軸と照射光軸を一致させる方法を示す図である。
【図6】撮影光軸と照射光軸を一致させる方法を示す図である。
【図7】光照射光学系の一実施例を示す図である。
【図8】パルス状の撮像ゲインと光強度が増加および減少する強度変調光による距離検出方法を説明するための図である。
【図9】パルス状の強度変調光と光強度が増加および減少する撮像ゲインによる距離検出方法を説明するための図である。
【図10】パルス状の強度変調光とパルス状の撮像ゲインによる距離検出方法を説明するための図である。
【図11】色分離結像光学系の一実施例を示す図である。
【図12】高速撮像素子としてイメージインテンシファイアとCCDカメラを用いた実施例を示す図である。
【図13】信号処理部の一実施例のブロック図である。
【図14】本発明の3次元情報検出装置の第2実施例の構成図である。
【図15】LEDアレイ,イメージインテンシファイア,CCDカメラ,カラーカメラ,カメラレンズの仕様を示す図である。
【図16】透過率と、光源光出力スペクトルを示す図である。
【図17】距離と距離映像信号レベルの関係を示す図である。
【図18】距離と距離検出分解能の関係を示す図である。
【符号の説明】
1 被写体
2 第1光源
3 光照射光学系
4 強度変調光
5 可視光
6 第2光源
7 カメラレンズ
8 色分離結像光学系
9 高速撮像素子
10 信号処理部
11 距離映像信号
12 カラーカメラ
13 カラー映像信号
14 撮影光軸
15 光照射光軸
16 影
17 ハーフミラー
18 遮光体
19 偏光ビームスプリッタ
20 λ/4板
21 レンズ
22 拡散板
23,26 強度変調光
24,27,29,33 反射光
25 パルス状撮像ゲイン
28 パルス光
30,31,34,35 撮像ゲイン
32 強度変調光
36 ダイクロイックプリズム
37 可視光成分を含む光
38 可視領域外の光
39 光学フィルタ
40 リレーレンズ
41 イメージインテンシファイア
42 CCDカメラ
43 光電変換面
44 マイクロチャンネルプレート
45 蛍光面
46 画像伝達光学系
47 画角変換部
48 外部同期
49 スイッチ
50A,50B メモリ
51A,51B 信号調整回路
53 距離算出演算部
54 信号変換部
55 LEDアレイ
56 蛍光灯
57 信号発生器[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and an apparatus for detecting three-dimensional information, and more particularly to a method and an apparatus for detecting three-dimensional information for detecting a depth shape of a subject and acquiring three-dimensional information.
[0002]
[Prior art]
As a method of detecting a three-dimensional position or a depth distance of an object, there is a stereo method of acquiring three-dimensional information from a multi-viewpoint image obtained by using a plurality of cameras. Further, as a method of irradiating light and detecting a distance, there is a method of calculating a distance by sine-wave driving the irradiating light and detecting a phase on a reflection side.
[0003]
Further, Japanese Patent Application No. 10-293817 describes that a distance is calculated faster than two images taken by selecting two combinations of a time change of irradiation light and a gain modulation on an imaging side. ing.
[0004]
[Problems to be solved by the invention]
The method of acquiring three-dimensional information by the stereo method does not need to irradiate light, so there is an advantage that it is not affected by external light, but on the other hand, the arrangement of a plurality of cameras and the calibration of camera lenses are complicated, Also, the device is large and lacks versatility. Furthermore, the photographing angle of view cannot be freely changed by the zoom operation of the camera lens. Furthermore, in a high-definition image equal to or larger than a standard television image, calculating a distance for each pixel requires time for image matching processing for searching for a corresponding point between a plurality of images, so that a video rate (frame rate of 60 Hz) is required. There is a problem that it is difficult to detect a large number of pixels of 400,000 pixels or more at such a high speed.
[0005]
In the method of irradiating a sine-wave light to a subject and detecting its phase on the reflection side, it is necessary to calculate the phase of light for each photographing pixel. In the case of detecting the entire distance, a two-dimensional scanning mechanism of the light beam is required, so that there is a problem that high-speed performance is impaired and the configuration becomes complicated.
[0006]
Also, Japanese Patent Application No. 10-293817 discloses a method of acquiring a distance image (an image in which distance information is represented by the luminance of an image signal) at high speed. However, a distance image having the same angle of view as a color image is obtained. Simultaneous shooting, no occlusion of distance detection, enabling high-definition video class high-quality video shooting, taking into account the specific method of linking color images and distance images according to the zoom function of the camera lens There was a problem that was not.
[0007]
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and can obtain a high-definition image of a distance image at a video rate, and can obtain a color image and a distance image corresponding to a zoom function of a camera lens. It is an object to provide a detection method and device.
[0008]
[Means for Solving the Problems]
The invention according toclaims 1 and 2 irradiates the subject with intensity-modulated light outside the visible region and irradiates the subject with light in the visible region,
The reflected light from the subject collected by the camera lens is wavelength-separated into light outside the visible region and light in the visible region,
Modulating the imaging gain to capture an optical image outside the visible region separated by the wavelength,
The optical signal of the wavelength-separated visible region is captured and a video signal is output,
Calculate the distance from the intensity ratio between a plurality of images obtained by capturing the optical image outside the visible region when the time variation pattern between the intensity modulation of the light outside the visible region and the modulation of the imaging gain is a different combination, By outputting a distance video signal that represents the distance with light and dark,
A high-definition distance image can be obtained at a video rate, and a color image and a distance image corresponding to a zoom function of a camera lens can be obtained.
[0009]
According to a third aspect of the present invention, in the three-dimensional information detecting device according to the second aspect,
The camera lens has a zoom function,
After zooming with the camera lens, the wavelength is separated into light outside the visible region and light in the visible region, so that a color image and a distance image corresponding to the zoom function of the camera lens can be obtained.
[0010]
According to a fourth aspect of the present invention, in the three-dimensional information detecting device according to the second or third aspect,
The first light irradiating means is arranged around the camera lens such that the optical axis of light outside the visible region to be irradiated is close to the optical axis of the camera lens,
Shadows generated by light irradiation outside the visible region can be reduced, and portions of the subject where distance detection is not possible can be reduced.
[0011]
According to a fifth aspect of the present invention, in the three-dimensional information detecting device according to the second or third aspect,
By having an optical axis matching unit that matches an optical axis of light outside the visible region irradiated by the first light irradiation unit with an optical axis of the camera lens,
Shadows generated by light irradiation outside the visible region can be eliminated, and a portion of the subject where distance detection cannot be performed can be eliminated.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a configuration diagram of a first embodiment of a three-dimensional information detecting device according to the present invention. In the figure, the output light of thefirst light source 2 is irradiated through the light irradiationoptical system 3 to the entire photographing range including thesubject 1 to be photographed. At this time, the irradiation light is the intensity modulatedlight 4 whose light intensity changes in the time axis direction. As thefirst light source 2, one or a plurality of laser diodes or light emitting diodes can be used.
[0013]
Further, the wavelength of the output light of thefirst light source 2 can be a wavelength other than the wavelength in the visible region necessary for photographing a color image. For example, the wavelength in the ultraviolet region or the infrared region can be used. In particular, near-infrared light of 750 nm to 900 nm has a wavelength close to the visible region and optical characteristics are not significantly different from those in the visible region, so that a normal camera lens for taking a color image can be used. Also in theoptical system 8, wavelength separation from the visible region can be performed with high efficiency.
It is easy to manufacture an optical system that ensures an optically high color separation and imaging optical system ratio.
[0014]
The means for generating the intensity modulatedlight 4 may directly modulate the drive current of the semiconductor laser or the light emitting diode, or may modulate the light output from the light source through an external modulator such as an acousto-optic device. As the light irradiationoptical system 3, for example, a minute lens is used on the output end face, and a lens shape according to the range of the subject to be irradiated is adopted. In order to ensure the uniformity of the illumination intensity of the illumination, the uniformity of the intensity of the illumination light is improved by using optical fiber bundles, arranging microlenses on each optical fiber, and superimposing individual illumination patterns on the illumination surface. be able to.
[0015]
Further, as the light irradiationoptical system 3, a diffusion plate can be used. As the diffusion plate, one that exhibits a frosted glass-like scattering effect or an element that forms fine irregularities on a diffraction grating on the surface and controls light distribution by the diffraction effect can be used. In particular, with respect to a diffusion plate using surface diffraction, a light distribution shape and intensity distribution of light can be controlled by a pattern of unevenness on the surface, so that uniform illumination can be efficiently realized according to an imaging aspect ratio. In addition, the use of the diffusion plate provides the same conditions as those of the surface light source, so that the burden on the eyes when photographing a person is reduced as compared with the point light source, and safety can be ensured.
[0016]
Thesubject 1 is illuminated by a secondlight source 6 that emitsvisible light 5. This secondlight source 6 does not need to be near thecamera lens 7. When near-infrared light is used for the firstlight source 2, fluorescent light illumination containing almost no near-infrared component can be used as the secondlight source 6.
[0017]
The reflected light from the subject 1 illuminated by the firstlight source 2 and the secondlight source 6 is collected by acamera lens 7. As a characteristic of the camera lens, a normal camera lens with a zoom function for photographing a color image can be used. In addition, by applying a surface coating corresponding to the wavelength of the first light source, the light of the firstlight source 2 can be efficiently taken in, and the occurrence of ghost in the lens can be suppressed. It is advantageous for acquisition.
[0018]
A color separation / imagingoptical system 8 that separates a light wavelength component from the firstlight source 2 and a light wavelength component from the second light source and forms an image is disposed downstream of thecamera lens 7. An image formed by the light component from the firstlight source 2 is incident on a high-speed imaging device 9 capable of changing an imaging gain at high speed.
[0019]
The high-speed imaging device 9 modulates the imaging gain and captures a plurality of images under the condition that the intensity-modulated light of the firstlight source 2 changes over time. Thesignal processing unit 10 performs signal processing for calculating the distance from the camera to the subject 1 based on the obtained signals of the plurality of images, and outputs a distance video signal 11 representing the depth distance of the subject 1 by shading of the image. I do.
[0020]
On the other hand, the formed image of the light component from the secondlight source 6 separated by the color separation and imagingoptical system 8 is incident on thecolor camera 12, and thecolor camera 12 outputs acolor video signal 13.
[0021]
FIG. 2 shows an embodiment of the arrangement of the firstlight source 2 and the light irradiationoptical system 3. The firstlight source 2 is installed in the vicinity of thecamera lens 7 and the shadow of the illumination light is reduced by disposing the imaging optical axis 14 of thecamera lens 7 and the light irradiationoptical axis 15 of thelight source 2 close to each other. As shown in FIG. 2, when the subject 1 located on the optical axis of thecamera lens 7 at a distance d from thecamera lens 7 has a step of depth Δd, thedistance 1 from the shooting optical axis 14 of thecamera lens 7 The light from the light irradiationoptical system 3 at a distant position causes ashadow 16 on a part of the subject, and the width Δl thereof is expressed by Expression (1).
[0022]
Δl = l · Δd / d (1)
As is apparent from the expression (1), the shadow area can be reduced as the distance l between the photographing optical axis 14 of thecamera lens 7 and the light irradiationoptical axis 15 of thelight source 2 decreases.
[0023]
FIG. 3 shows an embodiment in which light sources are arranged on both sides of thecamera lens 7. By arranging thefirst light sources 2 and 2 ′ and the light irradiationoptical systems 3 and 3 ′ on both sides of thecamera lens 7, theshadow 16 portion of the illumination by the firstlight source 2 on one side can be changed to the otherlight source 2 ′ Can be irradiated. In this way, by bringing the optical axis 14 of thecamera lens 7 close to the irradiationoptical axes 15 and 15 ′ and arranging thecamera lens 7 so as to sandwich it from the left and right and up and down, theshadow 16 of the illumination that becomes the occlusion for distance detection is obtained. Can be reduced.
[0024]
Further, in FIG. 3, a portion which becomes ashadow 16 of the illumination by onelight source 2 is illuminated by the other light source 2 ', and has a light amount of about half as compared with a portion illuminated by both light sources. Unevenness occurs.
[0025]
As shown in FIG. 4, there areprojections 1a and 1b at positions sandwiching the optical axis 14 of thecamera lens 7 of the subject 1, and in the special case where theprojections 1a and 1b prevent illumination by thelight sources 2 and 2 '. An illumination shadow 16 'results. In these cases, by causing the optical axis 14 of thecamera lens 7 and the irradiationoptical axes 15 and 15 'of the illumination light to coincide with each other, it is possible to eliminate the occurrence of such unevenness in intensity and the occurrence of occlusion in distance detection.
[0026]
FIG. 5 shows a method for matching the photographing optical axis with the irradiation optical axis. In the figure, a half mirror 17 is arranged in front of thecamera lens 7 at an angle of 45 degrees with respect to the photographing optical axis 14 of thecamera lens 7, and the firstlight source 2 and the light irradiationoptical system 3 are arranged in a direction perpendicular to the photographing optical axis 14. To illuminate via the half mirror 17. The intensity-modulatedlight 4 output from the light irradiationoptical system 3 is reflected by the half mirror 17 at 90 degrees, and illuminates the subject 1 with anoptical axis 15 coincident with the photographing optical axis 14 of thecamera lens 7.
[0027]
Thereby, theshadows 16 and 16 'of the illumination and the unevenness of the light intensity can be eliminated. Note that, of the intensity-modulatedlight 4, light transmitted without being reflected by the half mirror 17 is absorbed by thelight shielding body 18 having a characteristic of absorbing light of this wavelength.
[0028]
Further, apolarization beam splitter 19 can be used instead of the half mirror 17 as shown in FIG. In this case, the polarization direction of the intensity-modulatedlight 4 is aligned with the direction reflected by thepolarization beam splitter 19. In the case of non-polarized light, a polarization conversion element for aligning the polarization direction may be disposed immediately after the light irradiationoptical system 3 to align the polarization directions. Most of the intensity-modulatedlight 4 is reflected by thepolarization beam splitter 19 at 90 degrees.
[0029]
The output light passes through the λ / 4plate 20 and becomes circularly polarized light, and is irradiated on thesubject 1. The reflected light component close to circularly polarized light enters the λ / 4plate 20 again, becomes linearly polarized light, passes through thepolarization beam splitter 19, and enters thecamera lens 7.
[0030]
On the other hand, since a part of the output light from the firstlight source 2 passes through thepolarizing beam splitter 19, a light-shieldingplate 18 that absorbs a large amount of light of this wavelength component is provided to suppress reflection toward the camera lens. Further, instead of the light-shieldingplate 18, a mirror for preserving polarization can be arranged and reflected again to the light irradiationoptical system 3 side. As described above, by using thepolarizing beam splitter 19, the light use efficiency of the light source output light can be increased.
[0031]
Incidentally, the irradiation angle of the irradiation light is controlled by a light irradiationoptical system 3 attached in front of the firstlight source 2. FIG. 7 shows an embodiment of the light irradiationoptical system 3. In the figure, a firstlight source 2 is composed of a plurality of light sources, one or a plurality of lenses 21 are attached to the output ends of the individual light sources, and the light is expanded to the maximum angle of view photographed by thecamera lens 7 used. Is irradiated.
[0032]
At this time, the light irradiationoptical system 3 is configured by vertically and horizontally placing lenses having different divergence angles in the vertical and horizontal directions of the lens, for example, a bifocal lens and a cylindrical lens having different focal lengths, and forming an angle of view of a camera image. By irradiating light having a shape according to the above, light use efficiency can be increased.
[0033]
For example, when a standard television camera is used, the aspect ratio is 4: 3, and when high-definition shooting is performed, the aspect ratio is 16: 9. Further, a diffusion plate 22 can be used for the light irradiationoptical system 3. As the diffusion plate, one that exhibits a frosted glass-like scattering effect or an element that forms fine irregularities on a diffraction grating on the surface and controls light distribution by the diffraction effect can be used.
[0034]
In particular, with respect to a diffusion plate using surface diffraction, the light distribution shape and intensity distribution of light can be controlled by the pattern of the unevenness on the surface, so that illumination with good uniformity can be realized efficiently according to the angle of view of the image.
[0035]
Here, a description will be given of a light whose intensity increases and decreases with time as intensity-modulated light, and a distance detection method using an imaging device having a short-time shutter function. As shown in FIG. 8A, a subject placed at a distance d is irradiated with intensity-modulatedlight 23 whose light intensity increases by a coefficient s with time, and reflected light 24 from the subject is pulsed at time ts. When imaging is performed for a short time with thegain 25, the signal amount E detected by the high-speed imaging device 9+ (D, ts) is represented by equation (2).
[0036]
(Equation 1)
Figure 2004045266
Where TL Is the transmittance of a lens optical system such as thecamera lens 7, ρ is the reflection characteristic coefficient of the surface of the subject 1,0 Is the maximum light irradiation intensity, Δt is the imaging time width, and is a value sufficiently smaller than the light modulation period. Also, c is the speed of light, 2d / c is the time that light travels back and forth over the distance d from the high-speed imaging device 9 to thesubject 1, l is the distance from thecamera lens 7 to thesubject 1, and the denominator of the equation is the light diffusion. This is a term that considers attenuation.
[0037]
Next, as shown in FIG. 8B, an intensity-modulatedlight 26 whose light intensity decreases by a coefficient s with time is irradiated, and the reflected light 27 from thesubject 1 is irradiated at a time ts with a pulse-like imaging gain 25 for a short time. When an image is taken, the signal amount E detected by the high-speed image sensor 9 (D, ts) is expressed by equation (3).
[0038]
(Equation 2)
Figure 2004045266
Here, T is a light intensity modulation period. If the sensitivity is not sufficient in one imaging, a repetitive pulse light equivalent to the modulation frequency of the imaging gain is irradiated in one field, and accumulated by an accumulation type imaging element to secure sufficient sensitivity. . Note that the intensity-modulated light in FIG. 8B may be transmitted continuously with the intensity-modulated light in FIG.
[0039]
From the expressions (2) and (3), the intensity ratio R = E between two images having different light intensities is obtained.+ / E , And the distance d is obtained, the expression (4) is obtained.
[0040]
[Equation 3]
Figure 2004045266
As shown by the equation (4), only by calculating the ratio R between the two images taken when the light intensity increases and when the light intensity decreases, the reflectance of the subject 1 and the light attenuating effect due to the diffusion of light can be obtained. The influence can be canceled and the distance can be obtained at high speed.
[0041]
As described above, since a light source whose intensity changes with time can be realized even at a frequency as low as several tens of MHz, in addition to a laser light source, incoherent illumination such as an LED (light emitting diode) can be used, and a wide range can be illuminated with high luminance. It is also possible to detect the distance of a person. Note that the range of distance detection by this method is determined by the imaging time ts and the modulation frequency f, and is expressed by equation (5).
[0042]
(Equation 4)
Figure 2004045266
In actual operation, the imaging time ts is adjusted to match the detection range with the position of the subject. Also, the measurement range dr Is determined by the modulation frequency f and is expressed by the equation (6).
[0043]
dr = C / 4f (6)
Measurement range dr Is 7.5 m, the modulation frequency f is 10 MHz, and the measurement range dr Is 1.5 m, the modulation frequency f is 50 MHz. On the other hand, the imaging time width Δt at the time of imaging is shorter than themodulation period 1 / f of thelight source 2 and requires a shutter function of several nsec.
[0044]
Next, a short-time pulse light is used as the intensity-modulated light, and an image captured while increasing the imaging gain of the high-speed imaging device 9 with time at high speed and an image captured with the imaging gain reduced at high speed with time are used. A method for calculating the distance and detecting the distance will be described.
[0045]
As shown in FIG. 9A, the light intensity F is applied to the subject 1 at the position of the distance d.0 At the time tp, and the amount of signal E detected by the camera when the reflected light 29 from thesubject 1 is imaged by the high-speed imaging device 9 having theimaging gain 30 that increases by a coefficient g with time.+ (D, tp) is represented by equation (7).
[0046]
(Equation 5)
Figure 2004045266
Where TL Is the transmittance of a lens optical system such as acamera lens 7, ρ is the reflection characteristic coefficient of the surface of the subject 1, τ is the pulse width, c is the light speed, 2d / c is the distance d from the high-speed image sensor 9 to thesubject 1. Is the distance from thecamera lens 7 to thesubject 1, and the denominator of the equation is a term that takes into account attenuation due to light diffusion.
[0047]
Next, as shown in FIG. 9B, the signal amount E detected by the camera when the image is captured by the high-speed imaging device 9 having theimaging gain 31 that decreases with the coefficient g with time. (D, tp) is represented by equation (8).
[0048]
(Equation 6)
Figure 2004045266
Here, T is a modulation cycle of the imaging gain. If the sensitivity is not sufficient in one imaging, a repetitive pulse light equivalent to the modulation frequency of the imaging gain is irradiated in one field, and accumulated by an accumulation type imaging element to secure sufficient sensitivity. . Note that the imaging gain modulation shown in FIG. 9B may be set to be continuous with the imaging gain modulation shown in FIG. 9A.
[0049]
From the equations (7) and (8), the intensity ratio R = E between two images having different imaging gains is obtained.+ / E , And the distance d is obtained, the expression (9) is obtained.
[0050]
(Equation 7)
Figure 2004045266
As shown in the above equation (9), the light attenuation effect due to the reflectance of the subject 1 and the diffusion of light is calculated only by calculating the intensity ratio R between the two images captured when the imaging gain is increased and when the imaging gain is decreased. And so on, and the distance can be obtained at high speed.
[0051]
As described above, a pulse laser can be used in the combination of the pulsed light and the imaging gain that changes with time, and a pulse laser light having a pulse width of picosecond to femtosecond, such as a Q-switched pulse laser light or a mode-locked pulse light. Can be used, so that distance detection with high resolution can be performed.
[0052]
In this case, the measurable range (measurement range) D is represented by equation (10).
[0053]
(Equation 8)
Figure 2004045266
Next, a description will be given of a distance detection method using the intensity-modulated light modulated in a rectangular waveform and the high-speed imaging device 9 in which the imaging gain changes in a rectangular waveform. A rectangular intensity modulated light 32 (light intensity F) as shown by a broken line in FIG.0 , Modulation period T), and the reflectedlight 33 is imaged with a rectangular imaging gain 34 (gain g, period T) having the same period and the same phase as the intensity modulatedlight 32, the signal amount detected by the camera E+ (D, tp) is represented by equation (11).
[0054]
(Equation 9)
Figure 2004045266
Where TL Is the transmittance of the lens optical system such as thecamera lens 7, ρ is the reflection characteristic coefficient of the surface of the subject 1, c is the speed of light, and 2d / c is the time that light travels back and forth over the distance d from the high-speed image sensor 9 to thesubject 1. , L is the distance from thecamera lens 7 to thesubject 1, and the denominator of the equation is a term that takes into account attenuation due to light diffusion.
[0055]
Next, as shown in FIG. 10B, when imaging is performed with a rectangular imaging gain 35 (gain g, period T) having a phase opposite to that of the intensity-modulatedlight 32 shifted by the period T, a signal detected by the camera is used. Quantity E (D, tp) is represented by equation (12).
[0056]
(Equation 10)
Figure 2004045266
If the sensitivity is not sufficient in one imaging, a repetitive pulse light equivalent to the modulation frequency of the imaging gain is irradiated in one field, and accumulated by an accumulation type imaging element to secure sufficient sensitivity. .
[0057]
From the expressions (11) and (12), the intensity ratio R = E between the two images is obtained.+ / E , And the distance d is obtained, the expression (13) is obtained.
[0058]
[Equation 11]
Figure 2004045266
As shown in the equation (13), simply calculating the ratio R between the two images cancels the influence of the reflectance of the subject 1 and the effect of light attenuation due to the diffusion of light, and obtains the distance at high speed. Can be.
[0059]
In this manner, by making the intensity modulation irradiation light and the imaging gain into a rectangular wave shape having the same cycle width, the amount of detection signals detected by the imaging element increases, and imaging with a high signal-to-noise ratio can be performed. High-resolution distance detection becomes possible.
[0060]
FIG. 11 shows one embodiment of the color separation / imagingoptical system 8. In the figure, after thecamera lens 7, light 37 including a visible light component from the secondlight source 6 used for color image shooting is transmitted, and light 38 outside the visible region from the firstlight source 2 used for distance detection is used. And adichroic prism 36 that reflects the light. The size and material of thedichroic prism 36 are selected in consideration of the back focus length of thecamera lens 7 so as to have an optical path length capable of forming an image on the high-speed image sensor 9 through thedichroic prism 36 from thecamera lens 7.
[0061]
When the output light of the firstlight source 2 which is the intensity-modulated light source for distance detection is near-infrared light, the color separation characteristics of thedichroic prism 36 are such that visible light is transmitted and near-infrared light is reflected. . If the wavelength of the secondlight source 6 is selected in the range of 780 nm to 900 nm, the transmittance of visible light can be increased and the reflectance of near-infrared light can be designed to be high.
[0062]
Further, by disposing an infrared transmittingoptical filter 39 that removes light having a wavelength longer than the wavelength component of the firstlight source 2 included in the light component reflected by thedichroic prism 36, the influence of external light is reduced, and the signal is reduced. A characteristic is obtained in which only near-infrared light, which is light, can be input to the high-speed imaging device 9.
[0063]
The visible light passing through thedichroic prism 36 is input to thecolor camera 12 through therelay lens 40. The magnification of therelay lens 40 is substantially equal, and the lens has a focus adjustment function. At this time, focus adjustment becomes easy by using a telecentric optical system for the configuration of therelay lens 40.
[0064]
Therelay lens 40 optimizes imaging optical characteristics such as transmittance and aberration in the visible region, suppresses a decrease in MTF (Modulation Transfer Function), and enables the imaging optical image formed by the camera lens to have high definition and high image quality. Is transmitted to thecolor camera 12 without any color change or decrease in luminance. Further, by setting the numerical aperture of therelay lens 40 equal to that of thecamera lens 7, a reduction in brightness is suppressed. Further, by providing therelay lens 40 with an aperture adjustment mechanism, it is possible to adjust the aperture of a color image without affecting the near-infrared light amount on the distance detection side.
[0065]
FIG. 12 shows an embodiment using animage intensifier 41 and aCCD camera 42 as the high-speed imaging device 9. In the figure, the light component of the firstlight source 2 reflected by thedichroic prism 36 is image-formed and input to animage intensifier 41. As theimage intensifier 41, an image intensifier composed of aphotoelectric conversion surface 43, a micro channel plate (MCP) 44, and afluorescent surface 45 can be used.
[0066]
By controlling the value of the applied voltage between thephotoelectric conversion surface 43 and theMCP 44 of theimage intensifier 41, the imaging sensitivity can be changed at high speed with time. Further, by making the applied voltage into a pulse shape, it is possible to perform gate imaging in a short time of 1 nsec or less.
[0067]
The material of thephotoelectric conversion surface 43 is selected according to the wavelength sensitivity characteristics of the intensity-modulated light used for distance detection. For example, when the wavelength is 800 nm, a multi-alkali material (Sb-K-Na-Cs) can be used, and when a longer wavelength of 850 nm is used, high quantum efficiency can be obtained by using a gallium arsenide (GaAs) material. Therefore, a captured image with a good S / N can be obtained.
[0068]
Since an image is captured by changing the imaging gain at a high speed or by performing a gate operation for a short time, the signal amount obtained by one imaging is very weak. And the imaging gain modulation timing is synchronized, images are repeatedly taken, and the image of theoutput phosphor screen 45 of theimage intensifier 41 is input to theCCD camera 42 by the image transmissionoptical system 46, and sufficient sensitivity is obtained by the accumulation effect of theCCD camera 42. Can be secured.
[0069]
The image transmissionoptical system 46 can be realized by a fiber plate or a relay lens optical system. Each time the image transmissionoptical system 46 is a fiber plate and thefluorescent screen 45 of the image intensifier is connected to the CCD plane of theCCD camera 42, the fluorescent screen output light can be input to theCCD camera 42 with high efficiency.
[0070]
On the other hand, in the case of a relay lens, a mechanism for fine adjustment of focus and image position can be provided. The transmittance of the relay lens and the imaging aberration characteristics of the image are optimized by the fluorescent wavelength of thefluorescent screen 45 of the image intensifier. When a relay lens is used, the light use efficiency is lower than when a fiber plate is used. However, theCCD camera 42 can be replaced, the range of choice of theCCD camera 42 can be increased, and the imaging magnification can be controlled. There is a characteristic that a good image can be obtained without being affected by fixed pattern noise generated when using a fiber plate. The imaging magnification of the image is a magnification at which the angle of view of the color image and the angle of view captured by theCCD camera 42 are the same.
[0071]
The imaging resolution of theimage intensifier 41 is large depending on the distance between thephotoelectric conversion surface 43 and theMCP 44 constituting theimage intensifier 41, the distance between theMCP 44 and thephosphor screen 45, and the diameter of the conductive glass capillary constituting theMCP 44. Dependent. Therefore, it is advantageous for high resolution to use a material in which the distance between thephotoelectric conversion surface 43 and theMCP 44 and the distance between theMCP 44 and thefluorescent screen 45 are close to each other and the diameter of the conductive glass capillary constituting the MCP is small.
[0072]
Further, the resolution can be kept high by enlarging and inputting the image input to theimage finder 41, reducing it by the image transmissionoptical system 46, and inputting it to theCDD camera 42. As theCCD camera 42, a standard TV camera or a high-vision camera can be used, and other industrial high-definition CCD cameras can also be used.
[0073]
FIG. 13 shows a block diagram of one embodiment of thesignal processing unit 10. In the figure, an output signal of the high-speed imaging device 9 is supplied to an angle-of-view converter 47, where it is converted into a desired output image aspect ratio. For example, when a 1300 (H) × 1030 (V) CCD is used for the high-speed imaging device 9, when outputting a high-definition video distance image, a 16: 9 area of one screen (for example, 1280 (H) × 853 ( V)) is extracted by the angle-of-view converter 47.
[0074]
Next, the signals captured at different timings of the light intensity and the imaging pattern are switched by theswitch 49 synchronized with the external synchronization 48 and stored in thememories 50A and 50B, respectively. The storage timing of thememories 50A and 50B is synchronized with the external synchronization 48. Thereby, for example, the subject image captured for a short time when the intensity modulated light whose light intensity increases is stored in thememory 50A, and the subject image captured for a short time when the intensity modulated light whose light intensity decreases is stored in thememory 50A. Is done.
[0075]
The signals read from thememories 50A and 50B are subjected to brightness adjustment of the image and setup adjustment for adding a certain brightness level to the entire image by thesignal adjustment circuits 51A and 51B, and then a distance calculation operation unit. At 53, the distance d is calculated by performing the calculation of the expression (4), the expression (9), or the expression (13), and a distance video signal representing the distance in light and dark is obtained. After that, the distance video signal is converted into a desired television signal standard by thesignal converter 54 and output.
[0076]
FIG. 14 is a configuration diagram of a second embodiment of the three-dimensional information detecting apparatus according to the present invention. In the figure, asubject 1 is irradiated with intensity-modulated light having a near-infrared wavelength (center wavelength: 850 nm) from an LED (light emitting diode)array 55 arranged around acamera lens 7. Further, thesubject 1 is irradiated with visible light from the fluorescent lamp 56.
[0077]
The visible light component of the reflected light from the subject 1 passes through thedichroic prism 36 disposed behind thecamera lens 7 and forms an image on thecolor camera 12 through therelay lens 40.
[0078]
On the other hand, the near-infrared light from theLED array 55 is reflected by thedichroic prism 36 and enters the high-speed imaging device 9 side. In the high-speed imaging device 9, short-time shutter shooting is performed by animage intensifier 41 having a high-speed shutter function, and a light image output from theimage intensifier 41 is input to aCCD camera 42 by arelay lens 46.
[0079]
The modulation signal supplied to theLED array 55 and the shutter trigger signal of theimage intensifier 41 are generated by thesignal generator 57 in synchronization. As a result, images at the time of irradiation with increasing modulation light and at the time of irradiation with decreasing modulation light are alternately photographed. The output signal of theCCD camera 42 is supplied to thesignal processing unit 10 to calculate the distance, and the distance video signal 11 representing the distance is expressed as a high-definition signal. FIG. 15 shows the specifications of theLED array 55, theimage intensifier 41, theCCD camera 42, thecolor camera 12, and thecamera lens 7.
[0080]
FIG. 16 shows the light transmittance to thecolor camera 12 side, the light transmittance to the distance detection side (high-speed imaging device 9 side), the visible light of the fluorescent lamp 56 output, and the near-infrared light of theLED array 55 output. 3 shows an output spectrum of light. Thedichroic prism 36 divides the visible light component and the near-infrared light component for distance detection with high efficiency. Since the transmittance of near-infrared light to the distance detection side is high, sufficient sensitivity for distance detection is achieved, and good distance detection with good S / N is possible.
[0081]
The level of the distance video signal 11 was measured while changing the distance from thecamera lens 7 with the white paper as thesubject 1. At this time, the modulation frequency of the intensity-modulated light was set to 15 MHz, the imaging time width was set to 5 nsec (half width), and the measurement center position was set to 6 m. As a result, as shown in FIG. 17, the distance video signal level changes along with the distance from thecamera lens 7 to thesubject 1, and a bright / dark image corresponding to the distance is obtained. In addition, although it has a relatively linear characteristic in the vicinity of 6 m from the measurement center, non-linearity occurs in the periphery of the measurement range. This is due to the influence of the non-linear component of the light modulation characteristics of the LED, and the output signal can be corrected to a linear characteristic by the γ correction.
[0082]
The distance detection range in this embodiment was about 4 m at 15 MHz. When the depth of the subject 1 is smaller, the depth detection range becomes about 1.5 m by increasing the modulation frequency to 45 MHz, and the depth detection resolution can be relatively increased.
[0083]
Further, the distance detection resolution was evaluated based on the noise component amount of the distance video signal. The measurement was performed with the frequency of the intensity modulatedlight 4 set to 45 MHz, the imaging time width set to 2 ns, the distance from thecamera lens 7 to the subject 1 changed from 1 m to 10 m, and the effective value σ of the noise component of the distance video signal measured. FIG. 18 shows the relationship between the distance and the distance detection resolution when the distance value corresponding to × σ is used as the distance detection resolution. When the subject 1 was at a position 2 m from thecamera lens 7, the S / N of the distance video signal was 44.4 dB and the distance detection resolution was 1.7 cm.
[0084]
In the present invention, a three-dimensional information detection method and apparatus capable of acquiring a high-speed and high-resolution range image together with a color image has been described. By bringing the photographing optical axis close to or coincident with the light irradiation optical axis, it is possible to reduce the shadow of light irradiation and detect the distance of the entire photographing angle of view. Further, the combination of the intensity modulation light and the modulation characteristic of the imaging gain makes it possible to calculate the distance at high speed with simple arithmetic processing, and to calculate the distance even for a moving image.
[0085]
In addition, a color-separation imaging optical system is introduced after the camera lens so that color images and distance images can be captured at the same angle of view, and standard TV images and high-definition class high-definition images can be captured at video rates. This makes it possible to detect three-dimensional information corresponding to the zoom function of the camera lens.
[0086]
The device of the present invention can be applied to various fields as a three-dimensional camera capable of acquiring depth distance information together with a color image of a subject. For example, as a television broadcast camera, an image can be extracted or synthesized based on distance information, and can also be applied as a stereoscopic television camera. In addition, three-dimensional modeling, medical diagnosis, observation of equipment such as engines in the automobile, aviation, space, and marine fields, inspection of gas pipes, exhaust ports, water pipes, boilers, turbines, and investigation of tumuli and archeological sites Applicable to fields such as observation of animal ecology.
[0087]
The firstlight source 2 and the light irradiatingoptical system 3 correspond to the first light irradiating means, the secondlight source 6 corresponds to the second light irradiating means, and the color separation / imagingoptical system 8 corresponds to the light separating optical system. The high-speed imaging device 9 corresponds to the variable gain imaging device, thecolor camera 12 corresponds to the imaging device, thesignal processing unit 10 corresponds to the signal processing device, and the half mirror 17 and thepolarization beam splitter 19 correspond to the light. Corresponds to axis matching means.
[0088]
【The invention's effect】
As described above, according to the first and second aspects of the present invention, it is possible to obtain a distance image of a high-definition image at a video rate, and to obtain a color image and a distance image corresponding to a zoom function of a camera lens. .
[0089]
According to the third aspect of the invention, a color image and a distance image corresponding to the zoom function of the camera lens can be obtained.
[0090]
According to the fourth aspect of the present invention, it is possible to reduce a shadow generated by light irradiation outside the visible region and to reduce a portion of the subject where distance detection is not possible.
[0091]
According to the fifth aspect of the present invention, it is possible to eliminate a shadow generated by light irradiation outside the visible region and eliminate a portion of the subject where distance detection is not possible.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a first embodiment of a three-dimensional information detection device of the present invention.
FIG. 2 is a diagram showing an embodiment of an arrangement of a first light source and a light irradiation optical system.
FIG. 3 is a diagram showing an embodiment in which light sources are arranged on both sides of a camera lens.
FIG. 4 is a diagram showing an embodiment in which light sources are arranged on both sides of a camera lens.
FIG. 5 is a diagram illustrating a method of matching an imaging optical axis with an irradiation optical axis.
FIG. 6 is a diagram showing a method of matching an imaging optical axis with an irradiation optical axis.
FIG. 7 is a diagram showing one embodiment of a light irradiation optical system.
FIG. 8 is a diagram for explaining a distance detection method using pulse-shaped imaging gain and intensity-modulated light whose light intensity increases and decreases.
FIG. 9 is a diagram for explaining a distance detection method using pulse-like intensity modulated light and an imaging gain in which light intensity increases and decreases.
FIG. 10 is a diagram for explaining a distance detection method using pulse-like intensity-modulated light and pulse-like imaging gain.
FIG. 11 is a diagram showing one embodiment of a color separation and imaging optical system.
FIG. 12 is a diagram showing an embodiment using an image intensifier and a CCD camera as a high-speed imaging device.
FIG. 13 is a block diagram of one embodiment of a signal processing unit.
FIG. 14 is a configuration diagram of a second embodiment of the three-dimensional information detection device of the present invention.
FIG. 15 is a diagram showing specifications of an LED array, an image intensifier, a CCD camera, a color camera, and a camera lens.
FIG. 16 is a diagram showing transmittance and a light source light output spectrum.
FIG. 17 is a diagram illustrating a relationship between a distance and a distance video signal level.
FIG. 18 is a diagram illustrating a relationship between a distance and a distance detection resolution.
[Explanation of symbols]
1 subject
2 First light source
3 Light irradiation optical system
4 Intensity modulated light
5 Visible light
6 Second light source
7 Camera lens
8 color separation and imaging optical system
9 High-speed image sensor
10 Signal processing unit
11 Distance video signal
12 color camera
13 color video signal
14 Shooting optical axis
15 Light irradiation optical axis
16 Shadow
17 Half mirror
18 Shade
19 Polarizing beam splitter
20 λ / 4 plate
21 lenses
22 Diffusion plate
23,26 intensity modulated light
24, 27, 29, 33 reflected light
25 Pulse imaging gain
28 pulsed light
30, 31, 34, 35 Imaging gain
32 intensity modulated light
36 dichroic prism
37 Light containing visible light components
38 Light outside the visible range
39 Optical Filter
40 relay lens
41 Image Intensifier
42 CCD camera
43 Photoelectric conversion surface
44 micro channel plate
45 phosphor screen
46 Image transmission optical system
47 Angle of view converter
48 External synchronization
49 switch
50A, 50B memory
51A, 51B signal adjustment circuit
53 Distance calculation unit
54 signal converter
55 LED array
56 fluorescent light
57 signal generator

Claims (9)

Translated fromJapanese
可視領域外の光を強度変調して被写体に照射すると共に可視領域の光を前記被写体に照射し、
カメラレンズで集光された前記被写体からの反射光を可視領域外の光と可視領域の光とに波長分離し、
撮像ゲインを変調して前記波長分離された可視領域外の光学像を撮像し、
前記波長分離された可視領域の光学像を撮影し映像信号を出力し、
前記可視領域外の光の強度変調と前記撮像ゲインの変調との時間変化パターンが異なる組合せであるときに前記可視領域外の光学像を撮像した複数の画像間の強度比から距離を算出し、距離を明暗で表す距離映像信号を出力することを特徴とする3次元情報検出方法。
Irradiating the subject with intensity modulated light outside the visible region and irradiating the subject with light in the visible region,
The reflected light from the subject collected by the camera lens is wavelength-separated into light outside the visible region and light in the visible region,
Modulating the imaging gain to capture an optical image outside the visible region separated by the wavelength,
The optical signal of the wavelength-separated visible region is captured and a video signal is output,
Calculate the distance from the intensity ratio between a plurality of images obtained by capturing the optical image outside the visible region when the time variation pattern between the intensity modulation of the light outside the visible region and the modulation of the imaging gain is a different combination, A three-dimensional information detection method, comprising: outputting a distance video signal representing a distance with light and dark.
可視領域外の光を強度変調して被写体に照射する第1光照射手段と、
可視領域の光を前記被写体に照射する第2光照射手段と、
前記被写体からの反射光を集光するカメラレンズと、
前記カメラレンズで集光された光を可視領域外の光と可視領域の光とに波長分離する光分離手段と、
撮像ゲインを変調して前記光分離手段で波長分離された可視領域外の光学像を撮像するゲイン可変撮像手段と、
前記光分離手段で分離された可視領域の光学像を撮影し映像信号を出力する撮影手段と、
前記第1光照射手段の出力光の強度変調と前記ゲイン可変撮像手段の撮像ゲインの変調との時間変化パターンが異なる組合せであるときに前記ゲイン可変撮像手段で撮像した複数の画像間の強度比から距離を算出し、距離を明暗で表す距離映像信号を出力する信号処理手段とを
有することを特徴とする3次元情報検出装置。
First light irradiation means for modulating the intensity of light outside the visible region and irradiating the object with light;
Second light irradiating means for irradiating the subject with light in a visible region;
A camera lens for collecting reflected light from the subject,
Light separating means for wavelength-separating the light collected by the camera lens into light outside the visible region and light in the visible region,
A variable gain imaging unit that modulates an imaging gain and captures an optical image outside the visible region wavelength-separated by the light separation unit,
A photographing means for photographing an optical image in a visible region separated by the light separating means and outputting a video signal,
The intensity ratio between a plurality of images captured by the variable gain imaging unit when the time variation patterns of the intensity modulation of the output light of the first light irradiation unit and the modulation of the imaging gain of the variable gain imaging unit are different combinations. A signal processing means for calculating a distance from the distance and outputting a distance video signal representing the distance in light and dark.
請求項2記載の3次元情報検出装置において、
前記カメラレンズは、ズーム機能を有することを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to claim 2,
The three-dimensional information detection device, wherein the camera lens has a zoom function.
請求項2または3記載の3次元情報検出装置において、
前記第1光照射手段は、照射する可視領域外の光の光軸が前記カメラレンズの光軸に近接するよう、前記カメラレンズの周囲に配置したことを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to claim 2 or 3,
The three-dimensional information detecting device according to claim 1, wherein the first light irradiating means is arranged around the camera lens such that an optical axis of light to be irradiated outside a visible region is close to an optical axis of the camera lens.
請求項2または3記載の3次元情報検出装置において、
前記第1光照射手段が照射する可視領域外の光の光軸を前記カメラレンズの光軸に一致させる光軸一致手段を
有することを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to claim 2 or 3,
3. A three-dimensional information detecting apparatus, comprising: an optical axis matching unit that matches an optical axis of light out of a visible region emitted by the first light emitting unit with an optical axis of the camera lens.
請求項2乃至5のいずれか記載の3次元情報検出装置において、
前記第1光照射手段は、前記可視領域外の光の光強度を時間と共に増加及び減少させて出力し、
前記ゲイン可変撮像手段は、前記撮像ゲインをパルス状に短時間一定値とし、
前記信号処理手段は、前記光強度を時間と共に増加させながら撮像した画像と前記光強度を時間と共に減少させながら撮像した画像との間の強度比から距離を算出することを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to any one of claims 2 to 5,
The first light irradiation unit increases and decreases the light intensity of the light outside the visible region with time, and outputs the light intensity.
The gain-variable imaging unit sets the imaging gain to a pulse-like constant value for a short time,
The three-dimensional information, wherein the signal processing unit calculates a distance from an intensity ratio between an image captured while increasing the light intensity with time and an image captured while decreasing the light intensity with time. Detection device.
請求項2乃至5のいずれか記載の3次元情報検出装置において、
前記第1光照射手段は、前記可視領域外のパルス光を出力し、
前記ゲイン可変撮像手段は、前記撮像ゲインを時間と共に増加及び減少させ、
前記信号処理手段は、前記撮像ゲインを時間と共に増加させながら撮像した画像と前記撮像ゲインを時間と共に減少させながら撮像した画像との間の強度比から距離を算出することを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to any one of claims 2 to 5,
The first light irradiating means outputs pulsed light outside the visible region,
The variable gain imaging means increases and decreases the imaging gain with time,
The three-dimensional information, wherein the signal processing means calculates a distance from an intensity ratio between an image captured while increasing the imaging gain with time and an image captured while decreasing the imaging gain with time. Detection device.
請求項2乃至5のいずれか記載の3次元情報検出装置において、
前記第1光照射手段は、前記可視領域外の光の光強度を矩形波状に変調して出力し、
前記ゲイン可変撮像手段は、前記撮像ゲインを前記光強度と同一周期で矩形波状に変調し、
前記信号処理手段は、前記光強度と前記撮像ゲインが同位相のとき撮像した画像と前記光強度と前記撮像ゲインが逆位相のとき撮像した画像との間の強度比から距離を算出することを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to any one of claims 2 to 5,
The first light irradiation means modulates the light intensity of the light outside the visible region into a rectangular wave and outputs the modulated light intensity.
The gain variable imaging unit modulates the imaging gain into a rectangular wave at the same cycle as the light intensity,
The signal processing unit calculates a distance from an intensity ratio between an image captured when the light intensity and the imaging gain are in phase and an image captured when the light intensity and the imaging gain are in opposite phase. Characteristic three-dimensional information detection device.
請求項2乃至8のいずれか記載の3次元情報検出装置において、
前記ゲイン可変撮像手段は、イメージインテンシファイアとCCDカメラからなることを特徴とする3次元情報検出装置。
The three-dimensional information detection device according to any one of claims 2 to 8,
3. The three-dimensional information detecting device according to claim 1, wherein said variable gain imaging means comprises an image intensifier and a CCD camera.
JP2002204189A2002-07-122002-07-12 3D information detection systemExpired - Fee RelatedJP4031306B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2002204189AJP4031306B2 (en)2002-07-122002-07-12 3D information detection system

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2002204189AJP4031306B2 (en)2002-07-122002-07-12 3D information detection system

Publications (2)

Publication NumberPublication Date
JP2004045266Atrue JP2004045266A (en)2004-02-12
JP4031306B2 JP4031306B2 (en)2008-01-09

Family

ID=31709855

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2002204189AExpired - Fee RelatedJP4031306B2 (en)2002-07-122002-07-12 3D information detection system

Country Status (1)

CountryLink
JP (1)JP4031306B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2006179424A (en)*2004-12-242006-07-06Toyota Motor Corp Battery manufacturing method
JP2006201037A (en)*2005-01-202006-08-03Ricoh Co Ltd Shape measuring device
JP2008249431A (en)*2007-03-292008-10-16Nippon Hoso Kyokai <Nhk> 3D image correction method and apparatus
JP2009300268A (en)*2008-06-132009-12-24Nippon Hoso Kyokai <Nhk>Three-dimensional information detection device
JP2011007616A (en)*2009-06-252011-01-13Honda Motor Co LtdThree-dimensional shape measurement system
JP2011013104A (en)*2009-07-022011-01-20Honda Motor Co LtdThree-dimensional shape measurement apparatus
JP2011022034A (en)*2009-07-162011-02-03Honda Motor Co LtdThree-dimensional shape measuring system and three-dimensional shape measuring method
JP2011069965A (en)*2009-09-252011-04-07Japan Atomic Energy AgencyImage capturing apparatus, image display method, and recording medium with image display program recorded thereon
US8026971B2 (en)2006-05-182011-09-27Nippon Hoso KyokaiVisible and infrared light image-taking optical system
CN103080984A (en)*2010-06-302013-05-01巴里·林恩·詹金斯 Systems and methods for determining from-region visibility and incremental PVS-based content stream processing using conservative linearized umbral event surfaces
US9892546B2 (en)2010-06-302018-02-13Primal Space Systems, Inc.Pursuit path camera model method and system
US9916763B2 (en)2010-06-302018-03-13Primal Space Systems, Inc.Visibility event navigation method and system
CN110057301A (en)*2019-04-292019-07-26慧眼自动化科技(广州)有限公司A kind of height detecting device and detection method based on binocular 3D parallax
CN110310963A (en)*2018-03-272019-10-08恒景科技股份有限公司 System for adjusting light source power
CN112066907A (en)*2019-06-112020-12-11深圳市光鉴科技有限公司Depth imaging device
CN112068144A (en)*2019-06-112020-12-11深圳市光鉴科技有限公司Light projection system and 3D imaging device
JP2021121120A (en)*2016-05-112021-08-19パナソニックIpマネジメント株式会社 Imaging device, imaging system and photodetection method
CN113325425A (en)*2021-06-252021-08-31湖南友哲科技有限公司Method for detecting existence of test tube and test tube detection device
CN113820870A (en)*2020-06-192021-12-21三赢科技(深圳)有限公司Projection module, imaging module and electronic device
WO2022002414A1 (en)*2020-07-032022-01-06Supsi (Scuola Universitaria Professionale Della Svizzera Italiana)3d image acquisition system for optical inspection and method for optical inspection of objects, in particular electronic assemblies, electronic boards and the like
CN114323313A (en)*2021-12-242022-04-12北京深测科技有限公司Imaging method and system based on ICCD camera
JP2023007049A (en)*2021-07-012023-01-18株式会社ダイフクInspection device and coating device provided with the same

Cited By (30)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2006179424A (en)*2004-12-242006-07-06Toyota Motor Corp Battery manufacturing method
JP2006201037A (en)*2005-01-202006-08-03Ricoh Co Ltd Shape measuring device
US8026971B2 (en)2006-05-182011-09-27Nippon Hoso KyokaiVisible and infrared light image-taking optical system
JP2008249431A (en)*2007-03-292008-10-16Nippon Hoso Kyokai <Nhk> 3D image correction method and apparatus
JP2009300268A (en)*2008-06-132009-12-24Nippon Hoso Kyokai <Nhk>Three-dimensional information detection device
JP2011007616A (en)*2009-06-252011-01-13Honda Motor Co LtdThree-dimensional shape measurement system
JP2011013104A (en)*2009-07-022011-01-20Honda Motor Co LtdThree-dimensional shape measurement apparatus
JP2011022034A (en)*2009-07-162011-02-03Honda Motor Co LtdThree-dimensional shape measuring system and three-dimensional shape measuring method
JP2011069965A (en)*2009-09-252011-04-07Japan Atomic Energy AgencyImage capturing apparatus, image display method, and recording medium with image display program recorded thereon
CN103080984A (en)*2010-06-302013-05-01巴里·林恩·詹金斯 Systems and methods for determining from-region visibility and incremental PVS-based content stream processing using conservative linearized umbral event surfaces
US9472019B2 (en)2010-06-302016-10-18Primal Space Systems, Inc.System and method of from-region visibility determination and delta-PVS based content streaming using conservative linearized umbral event surfaces
CN103080984B (en)*2010-06-302017-04-12巴里·林恩·詹金斯 Method and system for determining a set of mesh polygons or segments of said mesh polygons that are visible from a viewport
US9892546B2 (en)2010-06-302018-02-13Primal Space Systems, Inc.Pursuit path camera model method and system
US9916763B2 (en)2010-06-302018-03-13Primal Space Systems, Inc.Visibility event navigation method and system
JP2021121120A (en)*2016-05-112021-08-19パナソニックIpマネジメント株式会社 Imaging device, imaging system and photodetection method
JP7108888B2 (en)2016-05-112022-07-29パナソニックIpマネジメント株式会社 IMAGING DEVICE, IMAGING SYSTEM AND LIGHT DETECTION METHOD
CN110310963A (en)*2018-03-272019-10-08恒景科技股份有限公司 System for adjusting light source power
CN110057301A (en)*2019-04-292019-07-26慧眼自动化科技(广州)有限公司A kind of height detecting device and detection method based on binocular 3D parallax
CN112068144A (en)*2019-06-112020-12-11深圳市光鉴科技有限公司Light projection system and 3D imaging device
CN112066907A (en)*2019-06-112020-12-11深圳市光鉴科技有限公司Depth imaging device
CN113820870A (en)*2020-06-192021-12-21三赢科技(深圳)有限公司Projection module, imaging module and electronic device
CN113820870B (en)*2020-06-192024-03-29三赢科技(深圳)有限公司Projection module, imaging module and electronic device
WO2022002414A1 (en)*2020-07-032022-01-06Supsi (Scuola Universitaria Professionale Della Svizzera Italiana)3d image acquisition system for optical inspection and method for optical inspection of objects, in particular electronic assemblies, electronic boards and the like
US20230204519A1 (en)*2020-07-032023-06-29Scuola universitaria professionale della Svizzera italiana (SUPSI)3d image acquisition system for optical inspection and method for optical inspection of objects, in particular electronic assemblies, electronic boards and the like
US12306110B2 (en)*2020-07-032025-05-20Scuola universitaria professionale della Svizzera italiana (SUPSI)3D image acquisition system for optical inspection and method for optical inspection of objects, in particular electronic assemblies, electronic boards and the like
CN113325425A (en)*2021-06-252021-08-31湖南友哲科技有限公司Method for detecting existence of test tube and test tube detection device
CN113325425B (en)*2021-06-252024-02-27湖南友哲科技有限公司Method for detecting existence of test tube and test tube detection device
JP2023007049A (en)*2021-07-012023-01-18株式会社ダイフクInspection device and coating device provided with the same
JP7524846B2 (en)2021-07-012024-07-30株式会社ダイフク Inspection device and coating device equipped with same
CN114323313A (en)*2021-12-242022-04-12北京深测科技有限公司Imaging method and system based on ICCD camera

Also Published As

Publication numberPublication date
JP4031306B2 (en)2008-01-09

Similar Documents

PublicationPublication DateTitle
JP4031306B2 (en) 3D information detection system
CN1934481B (en)High-speed measuring device and method based on a confocal microscopy principle
US20040125205A1 (en)System and a method for high speed three-dimensional imaging
US7307261B2 (en)Fluorescence detecting apparatus
KR101875980B1 (en)High speed acquisition vision system and method for selectively viewing object features
JP3695188B2 (en) Shape measuring apparatus and shape measuring method
JP7005175B2 (en) Distance measuring device, distance measuring method and imaging device
EP3543742B1 (en)A 3d imaging system and method of 3d imaging
CN107981855B (en)Blood flow imaging device and endoscope
CN113302541B (en)Process and apparatus for capturing plenoptic images between arbitrary planes
JP6942480B2 (en) Focus detector, focus detection method, and focus detection program
DE102016218291A1 (en) Method for non-contact determination of a two-dimensional temperature information and infrared measurement system
JP3414624B2 (en) Real-time range finder
JP2002040584A (en)High-speed image pickup camera
JP2991424B2 (en) Weld monitoring system
JP7501582B2 (en) Imaging device
JP4195574B2 (en) Stereoscopic endoscope
WO2021099761A1 (en)Imaging apparatus
JP4379121B2 (en) Focus detection apparatus, focusing system, camera, and focus detection method
US20090102939A1 (en)Apparatus and method for simultaneously acquiring multiple images with a given camera
CN106999037B (en)Eye detection device
KR101438748B1 (en)Optical coherence tomography device and tomography method thereof
CN106412532B (en)Control equipment, picture pick-up device and control method
CN208625698U (en)A kind of blood flow imaging device and endoscope
JP2769405B2 (en) 2D light distribution measurement device for liquid crystal display panel

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20050128

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20060711

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20060911

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20070403

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20070605

A911Transfer to examiner for re-examination before appeal (zenchi)

Free format text:JAPANESE INTERMEDIATE CODE: A911

Effective date:20070613

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20071016

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20071018

R150Certificate of patent or registration of utility model

Ref document number:4031306

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

Free format text:JAPANESE INTERMEDIATE CODE: R150

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20101026

Year of fee payment:3

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20111026

Year of fee payment:4

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20121026

Year of fee payment:5

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20121026

Year of fee payment:5

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20131026

Year of fee payment:6

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20141026

Year of fee payment:7

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp