【発明の詳細な説明】【0001】【発明の属する技術分野】本発明は両眼立体視に供する
ための映像を撮像するための立体カメラ装置に関する。【0002】【従来の技術】立体映像を観察者に提供する立体視シス
テムとして、両眼視差方式のものが知られている。図6
に、両眼視差方式による従来の立体視システムの概略を
示す。【0003】この方式においては、水平面上を揺動自在
の2つのテレビカメラ101、102を有する立体カメ
ラ装置100が用いられ、この立体カメラ装置100の
各カメラ101、102により、観察対象104を互い
に異なる角度をもって見込んだ左眼用映像105と右眼
用映像106とがそれぞれ撮像される。【0004】撮像された映像105、106は、適当な
映像呈示装置108に表示される。観察者は呈示される
左眼用映像105および右眼用映像106を、左眼10
9および右眼110でそれぞれ観察して両映像105、
106を脳内で合成して立体映像112を感得する。【0005】【発明が解決しようとする課題】適正に立体視を行うた
めには、図6に示すように、(1)垂直方向の位置ずれ
がなく、(2)水平方向には適正な視差が設定され、
(3)両映像の大きさが等しい、という条件を満たした
左眼用映像および右眼用映像を呈示する必要があるが、
上述した従来の立体カメラ装置では、上記3条件を満足
する映像を得ることが困難である。【0006】すなわち、両カメラ101、102の光軸
がなす角度(輻輳角に相当する)が適正でない場合、例
えば大きすぎる場合には、図7(a)に示すように視差
が過度に大きい場合には、呈示される両画像の融合が困
難となり二重像が感得されることになってしまう。ま
た、両カメラ101、102の光学系の個体差や、フォ
ーカスまたはズーム調整時における両カメラ101、1
02の間の機械的なずれ等の原因により、図7(b)に
示すように呈示される両映像のサイズ差が所定の許容値
を超えてしまう場合にも両画像の融合が困難となる。さ
らには、2台のカメラ101、102の設置誤差や各々
のカメラに取着されるレンズのフォーカス・ズーム走査
時に光軸ズレが生じると、図7(c)に示すように両画
像に垂直方向のずれが生じ、この場合も両画像の融合が
困難となる。【0007】上記問題の解決に当っては、各カメラおよ
びその取付部の高精度化や、手間をかけて光学的特性の
揃ったレンズの選定を行う必要がある。また、両カメラ
が観察対象を見込む角度(輻輳角に相当する角度)を変
える為の機構の高精度化も必要となる。このため、従来
の立体カメラ装置は、機構的に大型堅牢化を余儀なくさ
れ、また費用的にも高価なものになっている。【0008】本発明は、上記実状に鑑み為されたもの
で、機構が小型で簡便に構成され、かつ複数の映像の視
差の適正化およびこれら映像の寸法差・垂直ずれの少な
い立体カメラ装置の提供を目的とする。【0009】【課題を解決するための手段】上記目的を達成するた
め、本発明は、立体視に供する複数の映像を撮影するた
めの立体カメラ装置において、撮像素子と、前記撮像素
子に観察対象からの物体光を結像させる結像用光学系と
を有し、所定周期で映像信号を生成する撮像部と、所定
の回転軸線を中心として回転可能に設けられ、その回転
角度に応じて入射してくる光の方向を変更することがで
きる光学素子と、前記光学素子を経由して観察対象から
第1の光路を形成して入射してくる第1の物体光と、第
1の光路に対して角度をなす第2の光路を形成して観察
対象から入射してくる第2の物体光と、を合成して前記
撮像部に導く物体光合成手段と、第1および第2の物体
光に互いに異なる偏光状態を与える偏光フィルタ手段
と、前記物体光合成手段および偏光フィルタ手段を経た
第1および第2の物体光の光路上に設けられ、前記映像
信号の周期に同期して、第1および第2の物体光のいず
れか一方のみを選択的に通過させるシャッタ手段と、前
記撮像素子への物体光の結像状態に基づいて、前記結像
用光学系を調節する合焦制御手段と、調節された前記結
像用光学系の状態に基づいて、前記撮像部から観察対象
までの距離を算出する物体距離演算手段と、前記距離に
基づいて、第1の物体光による映像および第2の物体光
による映像が同一サイズになるような修正倍率を定める
倍率設定手段と、設定された修正倍率に基づいて、第1
の物体光による映像および第2の物体光による映像の少
なくとも一方のサイズを変更して、両映像を互いに同一
サイズとするサイズ補正手段と、観察対象に参照光を投
射する参照光投射手段と、第1および第2の物体光によ
る映像から、投射された参照光の照射位置を検出する輝
点検出手段と、検出された参照光の照射位置の差異に基
づいて、両映像中における参照光照射位置が一致するよ
うな前記光学素子の回転角度を算出する輝点差異検出手
段と、前記輝点差異検出手段の演算結果に基づいて、前
記光学素子の回転角度を調節する回転角制御手段と、を
備えたことを特徴とする立体カメラ装置を提供する。【0010】【0011】【0012】【0013】【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。【0014】[第1の実施形態]まず、図1乃至図3に
より、第1の実施形態について説明する。本実施形態に
係る立体カメラ装置1は、本体1Aと制御部とから構成
されている。【0015】図1に示すように、本体1Aは、撮像部1
0を備えており、この撮像部10は、光軸方向に長いロ
ッド型のレンズ(結像用光学系)11と、CCD等の撮
像素子12と、撮像素子12の電荷信号から所定のフィ
ールド周波数の映像信号を形成する信号処理回路14と
を有する。レンズ11と撮像素子12との間には、長波
長の光を遮断する光学ガラス13が設けられている。【0016】また、撮像部10は、レンズ11を移動さ
せ焦点調節を行うための焦点調節機構15を有する。焦
点調節機構15は、静電気力あるいは電磁力等によりレ
ンズ11を軸方向に移動するアクチュエータ装置からな
る。本例では、このアクチュエータ装置は、レンズ11
を保持する可動子15aと、本体1Aの筐体16に固着
された固定子15bとからなる。【0017】次に、観察対象Sを2方向から見込む互い
に異なる複数の映像、ここでは左右眼用の2つの映像を
前記撮像部10に提供するための光学系20について説
明する。【0018】光学系20は、本体1Aの撮像部10の前
方に設けられている。この光学系20は、誘電体被膜が
蒸着された反射・合成面21cを有する偏光ビームコン
バイナ(以下、「PBC」という)21と、このPBC
21の側面21bに観察対象Sからの物体光を導く反射
鏡(光学素子)22と、この反射鏡の角度φ(回転角
度)を変える反射鏡回転機構23と、波長板(1/2λ
波長板)24と、LCDシャッタ(液晶シャッタ、すな
わちシャッタ手段)25とから構成されている。なお、
これら各要素21〜25のうち、反射鏡22について
は、その回転角度に応じて入射してくる光の方向を変更
することができる機能を有する他の光学素子に置換する
ことも可能である。【0019】反射鏡回転機構23は、反射鏡22を図1
の紙面垂直方向に延びる回転軸線回りに回転させるもの
であり、例えば静電気力あるいは電磁力等により駆動さ
れる回転型アクチュエータ装置からなる。【0020】以上述べたように、本実施形態に係る立体
カメラ装置の本体1Aは、撮像部10に対して、光学系
20を追加的に設けた構成となっており、用いられるカ
メラは1台のみでよい。したがって、従来の立体カメラ
装置の構成に比べて非常に簡潔な構造とすることができ
る。【0021】観察対象Sからの物体光は、PBC21の
正面21aに直接入射する右眼用物体光(第1の物体
光)Rの光路(第1の光路)と、右眼用物体光Rの光路
に対してある角度φで傾斜する反射鏡22を経て、PB
C21の側面21bに入射する左眼用物体光(第2の物
体光)Lの光路(第2の光路)とを形成する。右眼用物
体光Rと左眼用物体光Lとは、輻輳角に相当する角度θ
をなす。【0022】PBC21は、入射してくる右眼用物体光
Rおよび左眼用物体光Lを、互いに直交する偏光状態に
変調するとともに合成し、レンズ11の光軸上に導く。
PBC21を経た右眼用物体光Rおよび左眼用物体光L
は、波長板24により、それぞれの偏光方向が回転させ
られる。すなわちPBC21の反射・合成面21cの誘
電体被膜および波長板24により、右眼用物体光Rおよ
び左眼用物体光Lに互いに異なる偏光状態を与える偏光
フィルタ手段が形成されていることになる。【0023】そしてLCDシャッタ25は、偏光変調さ
れた右眼用物体光および左眼用物体光のいずれか一方を
遮断して、選択的に撮像部10に導く。そして右眼用物
体光Rおよび左眼用物体光Lは、交互に撮像素子12に
導かれる。撮像素子12に接続された信号処理回路14
は、所定のフィールド周波数で映像信号を出力する。【0024】次に、図2を参照して立体カメラ装置の制
御部の構成および作用について説明する。なお、以下の
説明においては、観察対象Sが、レンズ11の焦点深度
を考慮した上で立体カメラ装置の本体1Aから十分に遠
い位置にあり、観察対象Sから撮像素子12までの右眼
用物体光と左眼用物体光との光路長差に関わらず、両物
体光がレンズ11の位置を変更することなく撮像素子1
2上に実用上問題なく合焦することを前提として説明す
る。【0025】制御部は、信号処理回路14からの信号に
基づいて撮像素子12に対する合焦調節を行う合焦制御
部(合焦制御手段)30を備えている。合焦制御部30
は、焦点ズレ検出部31およびレンズ駆動部(ドライ
バ)32を有する。焦点ズレ検出部31において、撮像
素子12への物体光の合焦状態を検出して撮像素子12
への適切な合焦がなされるようなレンズ11の位置補正
量が算出され、この算出した補正量に基づいてレンズ駆
動部32が焦点調節機構15を駆動する駆動信号を生成
する。【0026】また、信号処理回路14にはLCD切替部
26が接続されており、このLCD切替部26は、信号
処理回路14から受信した映像信号のフィールド切換に
同期して、右眼用物体光Rおよび左眼物体光Lが交互に
LCDシャッタ25を通過するように、LCDシャッタ
25の状態を切り替える。これにより信号処理回路14
からは、前記フィールド周波数にあわせて右眼用映像信
号および左眼映像信号が交互に出力されるようになる。【0027】更に、信号処理装置14にはフィールド検
出部36が接続されており、このフィールド検出部36
は、信号処理装置14から出力される映像信号を右眼用
フィールド映像信号と左眼用フィールド映像信号とに分
離する。【0028】本例では、右眼用フィールド映像信号は、
後述するような左眼用フィールド映像信号に施されるよ
うな処理を行われることなく立体像呈示装置50に送ら
れる。立体像呈示手段50は右眼用フィールド映像信号
に基づいて右眼用フィールド映像を観察者に呈示する。【0029】なお、立体像呈示装置50としては、ヘッ
ドアップディスプレイや偏光眼鏡を併用するスクリーン
への投射装置等、両眼立体視用の公知のあらゆる映像呈
示装置を用いることができる。【0030】ところで、本例においては、観察対象物S
から撮像素子13までの左眼用物体光の光路長は、反射
鏡22を経由する分だけ右眼用物体光の光路長より長く
なるため、撮像素子12に投影される映像は、左眼用の
ものが方が右眼用のものより小さくなる。従って、左眼
用映像を立体像呈示装置50にそのまま呈示したので
は、右眼用映像に比べて左眼用映像の方が小さくなる。
このことは、従来技術の項で説明したように、立体映像
感得の妨げとなる。【0031】本実施形態においては、上記問題点を解決
するため、立体カメラ装置の制御部は、物体距離演算部
(物体距離演算手段)34、拡大率設定部(倍率設定手
段)38および映像拡大処理部(サイズ補正手段)40
を備える。【0032】このうち物体距離演算部34は、この立体
カメラ装置の撮像部10から観察対象Sまでの距離を算
出するためのものであり、焦点調節部30に接続されて
いる。なお、前記距離とは、典型的には、撮像素子12
から、観察対象S上の注視点までの距離を意味する。以
下、本明細書においては、文章の簡略化のため、「立体
カメラ装置の撮像部10から観察対象Sまでの距離」の
ことを、単に「距離d」ということとする。【0033】物体距離演算部34は、物体光が撮像素子
12に正しく合焦する場合に成立するレンズ11の位置
と前記距離dと間の既知の関係に基づいて、距離dの算
出を行う。すなわち、物体距離演算部34は、レンズ1
1の焦点調節を行う焦点調節部30を含むフィードバッ
ク制御系からレンズ11の位置情報(結像用光学系の状
態に関する情報)を取り出し、この位置情報に基づいて
前記距離dを算出するものである。【0034】拡大率設定部62は、物体距離演算部34
により算出された前記距離dに基づいて、右眼用物体光
Rと左眼用物体光Lとの光路長の比率を算出する。【0035】なお、両光路長の比率は、反射鏡22の角
度φに依存するが、この角度φは、後述するように、前
記距離dに基づいて一意的に定められるため、両光路長
の比率は、物体距離演算部34により算出された距離d
が決まれば、一意的に定められる。【0036】そして両光路長の比率が求まれば、レンズ
11の既知の特性に基づいて、撮像素子12に投影され
る左眼用映像と右眼用映像とのサイズの比率が求まる。
これに基づいて、拡大率設定部38は、右眼用映像およ
び左眼用映像のサイズが互いに等しくなるように、左眼
用映像の拡大倍率(修正倍率)を定める。【0037】フィールド検出部36からの左眼用フイー
ルド映像信号を取り込んだ映像拡大処理部40は、拡大
率設定部38により決定された拡大倍率に基づいて、左
眼用フイールド映像信号を処理して左眼用フイールド映
像の拡大処理(サイズ補正)を行う。【0038】なお、本実施形態においては、光路長の長
い左眼用フイールド映像に拡大処理を施したが、右眼用
フイールド映像を処理しても構わず、この時は映像拡大
処理部40による画像的な拡大処理は逆に縮小処理に変
更される。また、本実施形態においては、反射鏡22を
介して左眼用映像を取得するようにした例を示したが、
これに代えて右眼用映像を反射鏡22を介して取得する
ようにしてもよい。【0039】以上説明したように、立体像呈示装置50
に呈示される左右眼用映像の寸法差は解消され、また左
右眼用映像を取得するためのレンズ系は共通なので焦点
調節に起因する光軸ズレもない。【0040】ここで残された問題は、左右眼用映像間に
適正な視差を設定することである。以下、左右眼用映像
間の視差を決定する反射鏡22の角度φの制御方法につ
いて説明する。【0041】立体カメラ装置の制御部は、上記機能を実
現するため、視差演算部42、反射鏡角演算部(回転角
演算手段)44および反射鏡駆動部(回転角制御手段)
46を備える。【0042】このうち視差演算部42は前述した物体距
離演算部34に接続されている。この物体距離演算部3
4によって、計測された前記距離dに基づいて、立体像
の成立に必要なパラメタ(具体的には、立体虚像を空間
の任意の位置で感得するのに必要な左右眼用物体光の両
光路が成す視差)の計算が行われる。【0043】視差演算部42の計算結果をもとに、反射
鏡角演算部44では上記視差を確保し、前記PBC21
からの両光路の出射光が概ね一致するために必要な反射
鏡22の角度φ、すなわち傾き角が計算される。【0044】反射鏡角演算部44で計算された反射鏡2
2の角度φは、反射鏡回転機構23のドライバとして機
能する反射鏡駆動部46に送られ、この反射鏡駆動部4
6において具体的な駆動信号となり、この駆動信号によ
り反射鏡回転機構23が駆動される。【0045】ところで、立体映像の成立位置は、原理的
にはある範囲内で任意に設定できるが、呈示画面より大
幅に飛び出ていたり引っ込んでいる場合には、立体視に
よる疲労を誘発するだけでなく、不特定の観察者に必要
な平均的な立体映像には必ずしもなっていない。【0046】一般的には、観察者の観察対象物への注視
点が映像呈示面と同一平面に位置していることが好まし
く、このようにするには、観察対象を見込む左右眼用の
両光路が観察対象S上の注視点P(図3参照)上で概ね
一致するようにすることが好ましい。【0047】なお、図面の簡略化のため、図1および図
2においては観察対象Sは1個とされているが、図3に
示すように、図示された観察対象Sの前後に他の観察対
象S1およびS2がある場合も多い。このような場合に
最も観察者が注目するであろう観察対象が観察対象Sで
あるとした場合、映像を呈示する際に、観察対象S上の
注視点Pを立体像呈示装置50の呈示面と一致する位置
で感得させ、他の観察対象を前記呈示面の前後で感得さ
せることが好ましい。【0048】このようにするには、図3に示すように、
観察対象S上の注視点Pからの右眼用物体光Rと左眼用
物体光Lとが同軸となるように合成されるようにすれば
よい。  すなわち図3において、注視点Pから直接PB
C21に到達する右眼用物体光と、注視点Pから反射鏡
22上の点Qを経てPBC21に到達する左眼用物体光
とが、PBC21内で合成される位置を点Cとした場
合、前記各点P,QおよびCを各頂点とする三角形が角
PCQが直角となる直角三角形となるように反射鏡22
の角度φを定めればよいことになる。ここで距離dが既
知であるならば、回転角度φは簡単な幾何学的演算によ
り容易に算出することができる。なお、この幾何学的演
算は、前記視差演算部42および反射鏡角演算部44に
より行われる。【0049】視差演算部42などで演算される立体像成
立位置や奥行き深さ或いは画像歪は、必要に応じて像パ
ラメタ呈示装置52を通じ、観察者に呈示される。ま
た、上記説明においては、反射鏡を適正な角度に設定す
る過程は、自動的になされるように記載されているが、
観察者の好みの立体感を得ることができるように、観察
者が手動的に反射鏡を操作できるような構成を加えても
よい。この時には上記の像パラメタ呈示装置52の役割
が大きい。【0050】以上説明したように、本実施形態によれ
ば、機構が小型で簡便に構成され、左右眼用映像の視差
の適正化を図ることができ、左右眼用映像相互間での寸
法差および垂直ずれの問題もなく、常に良好な立体像を
観察できる立体カメラ装置が実現できる。すなわち、本
実施形態によれば、装置全体の小型化と立体像消失の回
避を同時に達成できる立体カメラ装置を得ることができ
る。【0051】[第2の実施形態]次に、図4により第2
の実施形態について説明する。第2の実施形態は、第1
の実施形態に対して、反射鏡22の角度φを定める手順
が異なっており、他は第1の実施形態と略同一である。【0052】第2の実施形態において、立体カメラ装置
の本体1Aには、観察対象Sに参照光を照射するための
投射型マーカ(参照光照射手段)27が設けられてい
る。この投射型マーカ27は、具体的には、例えば赤色
のレーザ光を観察対象Sの所定位置(通常は、注視点と
なる位置)に局所的に(スポット的に)照射するレーザ
光発生装置からなり、PBC21の側面21dに取り付
けられている(図1において破線で示す)。【0053】また、第2の実施形態に係る立体カメラ装
置の制御部は、第1の実施形態に係る立体カメラ装置の
制御部と比べて、視差演算部42および反射鏡角演算部
44を、後述する右映像輝点検出部60、左映像輝点検
出部62および輝点差異検出部64により置換した点が
異なり、他部の構成は略同一である。従って、図4にお
いては、図面の簡略化のため、制御部の構成のうち第1
の実施形態と異なる部分のみ示すこととする。【0054】図4に示すように、本実施形態において
は、フィールド検出部36からの右眼用フィールド映像
信号および左眼用フィールド映像信号は、右映像輝点検
出部60および左映像輝点検出部62にそれぞれ送られ
る。これら右映像輝点検出部60および左映像輝点検出
部62において画像解析が行われ、輝点が各フィールド
映像のいずれの位置に存在するかが検出される。すなわ
ち、各フィールド映像における赤色(赤色レーザ光が照
射される場合)で輝度の高い部位の位置が検出される。【0055】輝点差異検出部64は、求められた左右両
フィールド映像内の輝点位置の差を求め、これに基づい
て、左右両フィールド映像内の輝点位置が同一位置にく
るように(すなわち輝点位置における視差が0となるよ
うに)反射鏡22の回転すべき方向と量を算出する。そ
して輝点差異検出部64からの信号は、反射鏡駆動部4
6に送られ、反射鏡駆動部46は、反射鏡22を駆動す
る。【0056】以上説明したように、フィールド検出部3
6、左右映像輝点検出部60、62、輝点差異検出手段
64および反射鏡駆動部46を含むフィードバック制御
系により、呈示される立体像のうち観察対象Sのうち参
照光が投射されている位置(輝点位置)が立体像呈示装
置50の呈示面と同一面(呈示面より奥または手前では
ない)に位置しているように観察者が感じるように、左
右両フィールド映像の視差が制御されることになる。【0057】なお、以上の手順は自動的に制御されてい
るが、参照光が可視的なものであれば、反射鏡22の回
転角度φを可変とすることができる操作装置を設けれ
ば、視差調節操作を観察者が手動的(自動制御で行うの
ではないという意味)に行うこともできる。具体的に
は、例えば、立体像提示装置50(図2参照)により映
像をモニタしながら、投写型マーカ27により観察対象
S上に投射される輝点が一致するように、若しくは適正
な間隔となるように、反射鏡22の回転角度φを使用者
が操作するようにしてもよい。【0058】また、図4に示す実施形態においては、投
写型マーカ27が観察対象に直接参照光を投射するよう
になっていたが、これに限定されるものではない。すな
わち図5に示すように、投写型マーカ27から出射され
る参照光をPBC21により分割して観察対象Sに照射
するようにしてもよい。この場合、投写型マーカ27か
ら出射されPBC21により反射され観察対象Sに至る
参照光光路Raによるマーカ像(輝点)Caと、PBC
21を通過して反射鏡22で反射され観察対象Sに至る
参照光光路Rbによるマーカ像(輝点)Cbとが一致する
ように、あるいは適正な間隔となるように反射鏡22の
角度を定めることにより、左右両眼用映像の視差を定め
てもよい。【0059】なお、投写型マーカ27が参照光を常時照
射するものであるならば、以上の構成でよいが、参照光
が呈示される映像に常時写り込むと映像が見ずらくなる
ことも考えられる。このような場合は、投写型マーカ2
7の発光を制御する輝点制御部70を設ければよい。【0060】この輝点制御部70は、所定の時間間隔を
もって断続的に投写型マーカ27を発光させるものであ
ってもよいし、観察対象Sと立体カメラ装置の本体1A
との位置関係が変化したことを検知して、当該変化が生
じた場合にのみ投写型マーカ27を発光させるものであ
ってもよい。なお、後者の場合には、観察対象Sと本体
1Aとの位置関係の変化は、輝点制御部70と焦点ズレ
検出部31とを接続して、焦点ズレ検出部31からの信
号を利用することにより検出することができる。【0061】輝点制御部70は、投射型マーカ27の発
光制御と同時にフィールド検出部36に信号を送る。フ
ィールド検出部36には、信号処理装置14からの映像
信号も与えられるので、この信号と輝点制御部70から
の信号とを比較することにより参照光が右眼用フィール
ド映像と左眼用フィールド映像のいずれが撮像されてい
る瞬間に参照光が照射されたかがわかる。【0062】従って、右映像輝点検出部60および左映
像輝点検出部62において、参照光の情報を含む右眼用
フィールド映像信号と左眼用フィールド映像信号のみに
基づいて、輝点位置の演算を行えばよい。【0063】上述した2つの実施形態においては、説明
の簡略化の為にいずれのレンズ部も焦点距離が一定とし
て扱ってきたが、組み合わせレンズなどにより焦点距離
を変更できるズームレンズを使用する場合においても同
様の手段の適用が可能である。【0064】【発明の効果】以上説明したように、本発明によれば、
機構が小型で簡便に構成され、複数の映像の視差の適正
化を図ることができ、これら映像相互間での寸法差およ
び垂直ずれが少ない立体像を観察できる立体カメラ装置
が実現できる。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic camera apparatus for picking up an image to be used for binocular stereoscopic vision. 2. Description of the Related Art A binocular parallax system is known as a stereoscopic system for providing a stereoscopic image to an observer. FIG.
 1 shows an outline of a conventional stereoscopic viewing system using a binocular parallax method. In this method, a stereoscopic camera device 100 having two television cameras 101 and 102 that can swing on a horizontal plane is used, and the observation objects 104 are mutually moved by the cameras 101 and 102 of the stereoscopic camera device 100. A left-eye image 105 and a right-eye image 106 viewed from different angles are respectively captured. [0004] The captured images 105 and 106 are displayed on an appropriate image presentation device 108. The observer displays the presented left-eye image 105 and right-eye image 106 with the left eye 10
 9 and the right eye 110 to observe both images 105,
 The three-dimensional image 112 is sensed by synthesizing 106 in the brain. [0005] In order to properly perform stereoscopic vision, as shown in FIG. 6, (1) there is no positional displacement in the vertical direction, and (2) proper parallax in the horizontal direction. Is set,
 (3) It is necessary to present a left-eye image and a right-eye image satisfying the condition that both images have the same size.
 With the above-described conventional stereoscopic camera device, it is difficult to obtain an image satisfying the above three conditions. That is, when the angle (corresponding to the convergence angle) between the optical axes of the cameras 101 and 102 is not appropriate, for example, when the angle is too large, the parallax is excessively large as shown in FIG. In this case, it is difficult to fuse the two images presented, and a double image is perceived. In addition, individual differences between the optical systems of the two cameras 101 and 102, and the two cameras 101 and 1 during focus or zoom adjustment.
 For example, if the size difference between the two images presented exceeds the predetermined allowable value as shown in FIG. 7B due to a mechanical shift or the like between 02, fusion of the two images becomes difficult. . Furthermore, if an optical axis shift occurs during the focus / zoom scanning of the lens attached to each camera or an installation error of the two cameras 101 and 102, as shown in FIG. Shift occurs, and in this case also, it is difficult to fuse the two images. In order to solve the above problems, it is necessary to increase the accuracy of each camera and its mounting portion, and to select a lens having uniform optical characteristics with a lot of trouble. Further, it is necessary to improve the accuracy of a mechanism for changing the angle at which both cameras look at the observation target (the angle corresponding to the convergence angle). For this reason, the conventional three-dimensional camera device is mechanically forced to be large and rugged, and is expensive in terms of cost. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned circumstances, and is directed to a stereoscopic camera device having a small and simple mechanism, a proper parallax of a plurality of images, and a small dimensional difference and vertical shift of these images. For the purpose of providing. In order to achieve the above object, the present invention relates to a stereoscopic camera apparatus for photographing a plurality of videos to be provided for stereoscopic vision, comprising: an image pickup device; An imaging unit that forms an image signal at a predetermined cycle; and an image pickup unit that is rotatably provided around a predetermined rotation axis, and is incident according to the rotation angle. An optical element that can change the direction of incoming light; a first object light that enters and enters a first optical path from an observation target via the optical element; An object light combining unit that forms a second optical path that forms an angle with respect to the second object light incident from the observation target and guides the combined light to the imaging unit; Polarizing filter means for giving different polarization states to each other; It is provided on the optical path of the first and second object lights that have passed through the object light synthesizing means and the polarization filter means, and selectively selects either one of the first and second object lights in synchronization with the cycle of the video signal. Shutter means for allowing the light to pass through, focusing control means for adjusting the optical system for image formation based on the state of image formation of the object light on the image sensor, and a state based on the adjusted state of the optical system for image formation. An object distance calculating means for calculating a distance from the imaging section to the observation target; and a correction magnification based on the distance such that an image of the first object light and an image of the second object light have the same size. Based on the set magnification, and a first magnification based on the set magnification.
 A size correction unit that changes the size of at least one of the image based on the object light and the image based on the second object light so that the two images have the same size, a reference light projecting unit that projects the reference light on the observation target,By the first and second object light
From the projected image to detect the irradiation position of the projected reference light
Based on the difference between the point detection means and the irradiation position of the detected reference light,
Therefore, the reference light irradiation positions in both images match.
Bright spot difference detecting means for calculating the rotation angle of the optical element
Based on the calculation result of the step and the bright spot difference detection means,
And a rotation angle control unit for adjusting a rotation angle of the optical element . Embodiments of the present invention will be described below with reference to the drawings. [First Embodiment] First, a first embodiment will be described with reference to FIGS. The stereoscopic camera device 1 according to the present embodiment includes a main body 1A and a control unit. As shown in FIG. 1, the main body 1A includes an imaging section 1
 The imaging unit 10 includes a rod-shaped lens (image forming optical system) 11 that is long in the optical axis direction, an imaging device 12 such as a CCD, and a predetermined field frequency from a charge signal of the imaging device 12. And a signal processing circuit 14 that forms the video signal of An optical glass 13 that blocks long-wavelength light is provided between the lens 11 and the image sensor 12. The imaging section 10 has a focus adjusting mechanism 15 for moving the lens 11 to adjust the focus. The focus adjustment mechanism 15 includes an actuator device that moves the lens 11 in the axial direction by electrostatic force or electromagnetic force. In this example, the actuator device is a lens 11
 And a stator 15b fixed to the housing 16 of the main body 1A. Next, a description will be given of the optical system 20 for providing a plurality of images different from each other, in this case, two images for the left and right eyes, for viewing the observation target S from two directions to the image pickup unit 10. The optical system 20 is provided in front of the imaging section 10 of the main body 1A. The optical system 20 includes a polarization beam combiner (hereinafter, referred to as “PBC”) 21 having a reflection / combination surface 21 c on which a dielectric film is deposited, and a PBC.
 A reflecting mirror (optical element) 22 for guiding object light from the observation target S to the side surface 21b of the reflecting member 21, a reflecting mirror rotating mechanism 23 for changing the angle φ (rotation angle) of the reflecting mirror, and a wave plate (1 / 2λ)
 A wave plate) 24 and an LCD shutter (liquid crystal shutter, that is, shutter means) 25 are provided. In addition,
 Of these components 21 to 25, the reflection mirror 22 can be replaced with another optical element having a function of changing the direction of the incident light according to the rotation angle. The reflecting mirror rotating mechanism 23 moves the reflecting mirror 22 in FIG.
 And a rotary actuator device driven by electrostatic force or electromagnetic force, for example. As described above, the main body 1A of the stereoscopic camera apparatus according to the present embodiment has a configuration in which the optical system 20 is additionally provided for the imaging unit 10, and one camera is used. Only need. Therefore, the structure can be made very simple as compared with the configuration of the conventional stereoscopic camera device. The object light from the observation target S is divided into the optical path (first optical path) of the right-eye object light (first object light) R directly incident on the front surface 21a of the PBC 21 and the right-eye object light R. PB through the reflecting mirror 22 inclined at an angle φ with respect to the optical path
 An optical path (second optical path) of the left-eye object light (second object light) L incident on the side surface 21b of C21 is formed. The object light R for the right eye and the object light L for the left eye have an angle θ corresponding to a convergence angle.
 Make The PBC 21 modulates and combines the incident right-eye object light R and left-eye object light L into mutually orthogonal polarization states, and guides the combined light onto the optical axis of the lens 11.
 Right-eye object light R and left-eye object light L that have passed through PBC 21
 The respective polarization directions are rotated by the wave plate 24. That is, the dielectric film on the reflection / combination surface 21c of the PBC 21 and the wave plate 24 form a polarization filter means for giving different polarization states to the right-eye object light R and the left-eye object light L. The LCD shutter 25 blocks one of the polarization-modulated object light for the right eye and the object light for the left eye, and selectively guides it to the image pickup unit 10. The right-eye object light R and the left-eye object light L are alternately guided to the image sensor 12. Signal processing circuit 14 connected to image sensor 12
 Outputs a video signal at a predetermined field frequency. Next, the configuration and operation of the control unit of the stereoscopic camera device will be described with reference to FIG. In the following description, the observation target S is located at a position sufficiently far from the main body 1A of the stereoscopic camera device in consideration of the depth of focus of the lens 11, and the right-eye object from the observation target S to the imaging element 12 Irrespective of the optical path length difference between the light and the object light for the left eye, both the object lights change the position of the lens 11 without changing the position of the lens 11.
 The following description is based on the premise that focusing is performed without any practical problem. The control section includes a focus control section (focus control means) 30 for performing focus adjustment on the image pickup device 12 based on a signal from the signal processing circuit 14. Focus control unit 30
 Has a defocus detecting unit 31 and a lens driving unit (driver) 32. The focus shift detecting unit 31 detects the in-focus state of the object light on the image sensor 12 and
 The amount of position correction of the lens 11 such that appropriate focusing is performed on the lens 11 is calculated, and the lens drive unit 32 generates a drive signal for driving the focus adjustment mechanism 15 based on the calculated amount of correction. An LCD switching unit 26 is connected to the signal processing circuit 14, and the LCD switching unit 26 synchronizes with the field switching of the video signal received from the signal processing circuit 14 and outputs the object light for the right eye. The state of the LCD shutter 25 is switched so that R and the left-eye object light L pass through the LCD shutter 25 alternately. Thereby, the signal processing circuit 14
 Thereafter, the right-eye video signal and the left-eye video signal are alternately output in accordance with the field frequency. Further, a field detection unit 36 is connected to the signal processing device 14.
 Separates the video signal output from the signal processing device 14 into a right-eye field video signal and a left-eye field video signal. In this example, the field video signal for the right eye is
 The image data is sent to the stereoscopic image presenting apparatus 50 without performing a process performed on a left-eye field video signal as described later. The stereoscopic image presenting means 50 presents a right-eye field image to an observer based on the right-eye field image signal. As the stereoscopic image presenting device 50, any known image presenting device for binocular stereoscopic viewing, such as a head-up display or a projection device onto a screen using polarizing glasses, can be used. By the way, in this example, the observation object S
 Since the optical path length of the object light for the left eye from to the image sensor 13 is longer than the optical path length of the object light for the right eye by the amount of passing through the reflecting mirror 22, the image projected on the image sensor 12 is Are smaller than those for the right eye. Therefore, if the left-eye image is presented to the stereoscopic image presenting apparatus 50 as it is, the left-eye image is smaller than the right-eye image.
 This hinders a stereoscopic image as described in the section of the related art. In this embodiment, in order to solve the above problems, the control unit of the stereoscopic camera device comprises an object distance calculation unit (object distance calculation unit) 34, an enlargement ratio setting unit (magnification setting unit) 38, and an image enlargement unit. Processing unit (size correction unit) 40
 Is provided. The object distance calculation section 34 is for calculating the distance from the image pickup section 10 of the stereoscopic camera device to the observation target S, and is connected to the focus adjustment section 30. Note that the distance typically means the image sensor 12
 Means the distance from the observation point to the gazing point on the observation target S. Hereinafter, in the present specification, the “distance from the imaging unit 10 of the stereoscopic camera device to the observation target S” is simply referred to as “distance d” for simplification of text. The object distance calculation unit 34 calculates the distance d based on a known relationship between the position of the lens 11 and the distance d that is established when the object light is correctly focused on the image sensor 12. That is, the object distance calculation unit 34 uses the lens 1
 The position information (information on the state of the imaging optical system) of the lens 11 is extracted from the feedback control system including the focus adjustment unit 30 that performs the focus adjustment of 1, and the distance d is calculated based on the position information. . The enlargement ratio setting section 62 includes an object distance calculation section 34
 The ratio of the optical path length between the object light R for the right eye and the object light L for the left eye is calculated based on the distance d calculated as follows. The ratio between the two optical path lengths depends on the angle φ of the reflecting mirror 22. Since the angle φ is uniquely determined based on the distance d as described later, The ratio is the distance d calculated by the object distance calculator 34.
 Is determined uniquely. When the ratio between the two optical path lengths is determined, the ratio between the size of the left-eye image and the size of the right-eye image projected on the image sensor 12 is determined based on the known characteristics of the lens 11.
 Based on this, the enlargement ratio setting unit 38 determines an enlargement magnification (correction magnification) of the left-eye image so that the right-eye image and the left-eye image have the same size. The image enlargement processing unit 40 which has received the left-eye field image signal from the field detection unit 36 processes the left-eye field image signal based on the enlargement magnification determined by the enlargement ratio setting unit 38. Performs enlargement processing (size correction) of the left-eye field image. In the present embodiment, the enlargement process is performed on the left-eye field image having a long optical path length. However, the right-eye field image may be processed. Conversely, the image-like enlargement process is changed to a reduction process. Further, in the present embodiment, an example in which the image for the left eye is acquired via the reflecting mirror 22 has been described.
 Instead, the right-eye image may be acquired via the reflector 22. As described above, the three-dimensional image presentation device 50
 Is eliminated, and the lens system for acquiring the left and right eye images is common, so that there is no optical axis shift due to focus adjustment. The remaining problem is to set an appropriate parallax between the left and right eye images. Hereinafter, a method of controlling the angle φ of the reflecting mirror 22 that determines the parallax between the left and right eye images will be described. The control section of the stereoscopic camera apparatus has a parallax calculating section 42, a reflecting mirror angle calculating section (rotation angle calculating means) 44, and a reflecting mirror driving section (rotating angle control means) to realize the above functions.
 46 is provided. The parallax calculator 42 is connected to the object distance calculator 34 described above. This object distance calculation unit 3
 4, based on the measured distance d, the parameters necessary for establishing the stereoscopic image (specifically, both optical paths of the object light for the left and right eyes required to sense the stereoscopic virtual image at an arbitrary position in space) Is calculated. Based on the calculation result of the parallax calculating section 42, the reflecting mirror angle calculating section 44 secures the above parallax, and the PBC 21
 Then, the angle φ of the reflecting mirror 22, which is necessary for the emitted light of both optical paths from the light beams to substantially coincide with each other, that is, the inclination angle is calculated. The reflector 2 calculated by the reflector angle calculator 44
 The angle φ of 2 is sent to a reflecting mirror driving unit 46 functioning as a driver of the reflecting mirror rotating mechanism 23, and the reflecting mirror driving unit 4
 6, a specific drive signal is generated, and the drive signal drives the reflecting mirror rotating mechanism 23. By the way, the position where the stereoscopic image is formed can be arbitrarily set within a certain range in principle. However, if the position protrudes or retracts greatly from the presentation screen, only fatigue due to stereoscopic vision is induced. However, it is not always the average stereoscopic image required for unspecified observers. In general, it is preferable that the gazing point of the observer on the object to be observed is located on the same plane as the image presentation surface. It is preferable that the optical path substantially coincides with the gazing point P (see FIG. 3) on the observation target S. For simplification of the drawings, the number of observation objects S is one in FIGS. 1 and 2, but as shown in FIG. In many cases, there are targets S1 and S2. In such a case, if the observation target that the observer will pay the most attention to is the observation target S, the gazing point P on the observation target S is displayed on the presentation surface of the stereoscopic image presentation device 50 when the video is presented. It is preferable that the user perceive at a position that coincides with the above, and perceive another observation target before and after the presentation surface. To do so, as shown in FIG.
 The right-eye object light R and the left-eye object light L from the fixation point P on the observation target S may be combined so as to be coaxial. That is, in FIG.
 When a position where the right-eye object light reaching the C21 and the left-eye object light reaching the PBC21 from the fixation point P via the point Q on the reflecting mirror 22 are combined in the PBC21 as a point C, The reflecting mirror 22 is arranged such that a triangle having the points P, Q and C as vertices is a right triangle having a right angle PCQ.
 Should be determined. Here, if the distance d is known, the rotation angle φ can be easily calculated by a simple geometric operation. This geometric calculation is performed by the parallax calculator 42 and the reflector angle calculator 44. The stereoscopic image formation position, depth depth, or image distortion calculated by the parallax calculation unit 42 or the like is presented to the observer through the image parameter presentation device 52 as necessary. In the above description, the process of setting the reflecting mirror to an appropriate angle is described as being performed automatically,
 A configuration that allows the observer to manually operate the reflector may be added so that the observer can obtain the stereoscopic effect desired by the observer. At this time, the role of the image parameter presenting device 52 is large. As described above, according to this embodiment, the mechanism is small and simple, the parallax between the left and right eye images can be optimized, and the dimensional difference between the left and right eye images can be improved. A stereoscopic camera device capable of always observing a good stereoscopic image without the problem of vertical displacement can be realized. That is, according to the present embodiment, it is possible to obtain a stereoscopic camera device that can simultaneously achieve downsizing of the entire device and avoidance of disappearance of a stereoscopic image. [Second Embodiment] Next, FIG.
 An embodiment will be described. In the second embodiment, the first
 The procedure for determining the angle φ of the reflecting mirror 22 is different from that of the first embodiment, and the other steps are substantially the same as those of the first embodiment. In the second embodiment, a projection type marker (reference light irradiation means) 27 for irradiating the observation object S with reference light is provided on the main body 1A of the stereoscopic camera device. The projection type marker 27 is, for example, a laser light generator that locally (spots) irradiates a red laser beam on a predetermined position (usually, a position of a gazing point) of the observation target S. And is attached to the side surface 21d of the PBC 21 (shown by a broken line in FIG. 1). The control unit of the stereoscopic camera device according to the second embodiment is different from the control unit of the stereoscopic camera device according to the first embodiment in that the parallax calculating unit 42 and the reflecting mirror angle calculating unit 44 are The difference is that the right image bright point detecting unit 60, the left image bright point detecting unit 62, and the bright point difference detecting unit 64, which will be described later, are replaced, and the configuration of the other units is substantially the same. Therefore, in FIG. 4, for simplification of the drawing, the first of the configurations of the control unit is used.
 Only the parts different from the above embodiment will be shown. As shown in FIG. 4, in the present embodiment, the right-eye field video signal and the left-eye field video signal from the field detector 36 are converted into a right video luminescent spot detector 60 and a left video luminescent spot detector. Each is sent to the unit 62. Image analysis is performed in the right image bright point detecting unit 60 and the left image bright point detecting unit 62, and it is detected at which position in each field image the bright point exists. That is, the position of a portion with high luminance in red (when red laser light is irradiated) in each field image is detected. The bright spot difference detecting section 64 calculates the difference between the obtained bright spot positions in the left and right field images, and based on this difference, the bright spot positions in the left and right field images are located at the same position ( That is, the direction and amount of rotation of the reflecting mirror 22 are calculated so that the parallax at the bright spot position becomes zero. The signal from the bright spot difference detection unit 64 is
 6 and the reflector driving unit 46 drives the reflector 22. As described above, the field detector 3
 6. The reference light of the observation target S in the presented three-dimensional image is projected by the feedback control system including the left and right video bright point detection units 60 and 62, the bright point difference detection unit 64, and the reflector driving unit 46. The parallax of the left and right field images is controlled so that the observer feels that the position (the bright spot position) is located on the same plane as the presentation surface of the stereoscopic image presentation device 50 (not behind or near the presentation surface). Will be done. The above procedure is automatically controlled. However, if the reference light is visible, if an operating device capable of changing the rotation angle φ of the reflecting mirror 22 is provided, The parallax adjustment operation can be manually performed by the observer (meaning that the operation is not performed by automatic control). Specifically, for example, while monitoring an image with the stereoscopic image presentation device 50 (see FIG. 2), the bright spots projected on the observation target S by the projection type marker 27 match, or an appropriate interval is set. Thus, the user may operate the rotation angle φ of the reflecting mirror 22. In the embodiment shown in FIG. 4, the projection type marker 27 projects the reference light directly on the observation target, but the invention is not limited to this. That is, as shown in FIG. 5, the reference light emitted from the projection type marker 27 may be divided by the PBC 21 and irradiated onto the observation target S. In this case, a marker image (bright point) Ca emitted from the projection type marker 27 and reflected by the PBC 21 to reach the observation target S by the reference light path Ra;
 The angle of the reflecting mirror 22 is determined so that the marker image (bright spot) Cb by the reference light path Rb that is reflected by the reflecting mirror 22 and reaches the observation target S after passing through the mirror 21 coincides or has an appropriate interval. Thereby, the parallax between the left and right binocular images may be determined. If the projection type marker 27 always irradiates the reference light, the above configuration may be used. However, if the reference light is constantly reflected on the presented image, the image may be difficult to see. Can be In such a case, the projection type marker 2
 It is sufficient to provide a bright spot control unit 70 for controlling the light emission of No. 7. The bright spot control section 70 may emit the projection type marker 27 intermittently at a predetermined time interval, or the observation target S and the main body 1A of the stereoscopic camera apparatus.
 May be changed, and the projection marker 27 may emit light only when the change has occurred. In the latter case, the change in the positional relationship between the observation target S and the main body 1A is performed by connecting the bright spot control unit 70 and the defocus detection unit 31 and using a signal from the defocus detection unit 31. Can be detected. The bright spot control unit 70 sends a signal to the field detection unit 36 simultaneously with the emission control of the projection type marker 27. Since the image signal from the signal processing device 14 is also supplied to the field detection unit 36, by comparing this signal with the signal from the bright spot control unit 70, the reference light is converted into the right-eye field image and the left-eye field image. It is possible to know which of the images is shot at the moment when the reference light is irradiated. Therefore, the right image bright point detecting section 60 and the left image bright point detecting section 62 determine the bright spot position based on only the right-eye field video signal and the left-eye field video signal including the reference light information. An operation may be performed. In the above two embodiments, for the sake of simplicity, the focal length of each lens section has been treated as being constant. However, in the case where a zoom lens whose focal length can be changed by a combination lens or the like is used. Also, the same means can be applied. As described above, according to the present invention,
 It is possible to realize a three-dimensional camera device that has a small and simple mechanism, can optimize the parallax of a plurality of videos, and can observe a three-dimensional image with little dimensional difference and vertical deviation between the videos.
【図面の簡単な説明】【図1】本発明に係る立体カメラ装置の第1の実施形態
を示す図であって、立体カメラ装置の本体の構成を概略
的に示す断面図。【図2】本発明に係る立体カメラ装置の第1の実施形態
を示す図であって、立体カメラ装置の制御部およびこの
制御部と本体との関連を示すブロック図的構成図。【図3】第1の実施形態において、反射鏡の回転角度の
設定方法を説明する図。【図4】本発明に係る立体カメラ装置の第2の実施形態
を示す図。【図5】第2の実施形態の変形例を示す図。【図6】従来の代表的な立体カメラ装置の概略構成を示
す図。【図7】従来の立体カメラ装置の問題点を示す図。【符号の説明】11  結像用光学系(レンズ)12  撮像素子21  物体光合成手段(偏光ビームコンバイナ)22  光学素子(反射鏡)23  回転駆動機構21c、24  偏光ビームコンバイナおよび波長板(偏
光フィルタ手段)25  シャッタ手段(LCDシャッタ)27  参照光投射手段(投写型マーカ)30  合焦制御手段(合焦制御部)34  物体距離演算手段(物体距離演算部)38  倍率設定手段(拡大率設定部)40  サイズ補正手段(映像拡大処理部)42  視差演算手段(視差演算部)44  回転角演算手段(反射鏡角演算部)46  回転角制御手段(反射鏡駆動部)BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating a first embodiment of a stereoscopic camera device according to the present invention, and is a cross-sectional view schematically illustrating a configuration of a main body of the stereoscopic camera device. FIG. 2 is a diagram illustrating a first embodiment of the stereoscopic camera device according to the present invention, and is a block diagram illustrating a control unit of the stereoscopic camera device and an association between the control unit and a main body. FIG. 3 is a view for explaining a method of setting a rotation angle of a reflecting mirror in the first embodiment. FIG. 4 is a view showing a second embodiment of the stereoscopic camera device according to the present invention. FIG. 5 is a diagram showing a modification of the second embodiment. FIG. 6 is a diagram showing a schematic configuration of a conventional typical stereoscopic camera device. FIG. 7 is a diagram showing a problem of a conventional stereoscopic camera device. [Description of Signs] 11 Image forming optical system (lens) 12 Image sensor 21 Object light combining means (polarizing beam combiner) 22 Optical element (reflecting mirror) 23 Rotation driving mechanism 21c, 24 Polarizing beam combiner and wave plate (polarizing filter means) 25 shutter means (LCD shutter) 27 reference light projecting means (projection type marker) 30 focusing control means (focusing control section) 34 object distance calculation means (object distance calculation section) 38 magnification setting means (magnification rate setting section) 40 size correction means (image enlargement processing unit) 42 parallax calculation means (parallax calculation unit) 44 rotation angle calculation means (reflection mirror angle calculation unit) 46 rotation angle control means (reflection mirror drive unit)
─────────────────────────────────────────────────────フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 13/02 G03B 35/04──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int. Cl.7 , DB name) H04N 13/02 G03B 35/04
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP08685798AJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| JP08685798AJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device | 
| Publication Number | Publication Date | 
|---|---|
| JPH11285025A JPH11285025A (en) | 1999-10-15 | 
| JP3520197B2true JP3520197B2 (en) | 2004-04-19 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| JP08685798AExpired - Fee RelatedJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device | 
| Country | Link | 
|---|---|
| JP (1) | JP3520197B2 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US7535002B2 (en) | 2004-12-03 | 2009-05-19 | Fluke Corporation | Camera with visible light and infrared image blending | 
| US8531562B2 (en) | 2004-12-03 | 2013-09-10 | Fluke Corporation | Visible light and IR combined image camera with a laser pointer | 
| WO2006060746A2 (en) | 2004-12-03 | 2006-06-08 | Infrared Solutions, Inc. | Visible light and ir combined image camera with a laser pointer | 
| JP2012128096A (en)* | 2010-12-14 | 2012-07-05 | Konica Minolta Advanced Layers Inc | Stereo imaging device | 
| JP5821150B2 (en)* | 2010-12-29 | 2015-11-24 | オリンパスメモリーワークス株式会社 | Three-dimensional image capturing method | 
| CN114422775A (en)* | 2022-01-28 | 2022-04-29 | 上海瞳观智能科技有限公司 | Real-time three-dimensional image quality monitoring system and method based on programmable chip | 
| Publication number | Publication date | 
|---|---|
| JPH11285025A (en) | 1999-10-15 | 
| Publication | Publication Date | Title | 
|---|---|---|
| US6762794B1 (en) | Image pick-up apparatus for stereoscope | |
| JP3155876B2 (en) | Image display device and image capturing method used for image display device | |
| JP4635403B2 (en) | Stereoscopic image creation method and apparatus | |
| JP3905736B2 (en) | Stereo image pickup device and automatic congestion adjustment device | |
| US8284234B2 (en) | Endoscopic imaging using reflection holographic optical element for autostereoscopic 3-D viewing | |
| US20020140835A1 (en) | Single sensor chip digital stereo camera | |
| US20010019450A1 (en) | Stereoscopic image pickup system | |
| KR100220888B1 (en) | Method for providing multiview 3-dimensional images using aperture and system therefor | |
| JPH07218864A (en) | Three-dimensional image display device | |
| JP3520197B2 (en) | 3D camera device | |
| JPH10224820A (en) | Compound eye camera device | |
| JPH06105339A (en) | Stereoscopic camera device | |
| JPH08205200A (en) | Three-dimensional image pickup device | |
| JP2001016620A (en) | Imaging device, method of determining convergence distance thereof, storage medium, and optical device | |
| JP2000152282A (en) | 3D video camera | |
| JP2001016619A (en) | Imaging device, method of determining convergence distance thereof, storage medium, and optical device | |
| JP2001016617A (en) | Imaging device, congestion control method thereof, storage medium, and optical device | |
| US20060077545A1 (en) | Apparatus to align stereoscopic display | |
| JPH11168755A (en) | 3D image pickup device | |
| JP2006284989A (en) | Optical adapter for taking stereoscopic picture | |
| JP2003092769A (en) | 3D image capturing device | |
| JP2002027498A (en) | 3D image capturing device | |
| JP2002084555A (en) | 3D image capturing device | |
| JP2002191059A (en) | Stereoscopic photography equipment | |
| JP2004101665A (en) | Stereoscopic image photographing method and device | 
| Date | Code | Title | Description | 
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20040127 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20040202 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20080206 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20090206 Year of fee payment:5 | |
| LAPS | Cancellation because of no payment of annual fees |