【0001】[0001]
【発明の属する技術分野】本発明は両眼立体視に供する
ための映像を撮像するための立体カメラ装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic camera apparatus for picking up an image to be used for binocular stereovision.
【0002】[0002]
【従来の技術】立体映像を観察者に提供する立体視シス
テムとして、両眼視差方式のものが知られている。図6
に、両眼視差方式による従来の立体視システムの概略を
示す。2. Description of the Related Art A binocular parallax system is known as a stereoscopic viewing system for providing a stereoscopic image to an observer. FIG.
FIG. 1 schematically shows a conventional stereoscopic viewing system using a binocular parallax method.
【0003】この方式においては、水平面上を揺動自在
の2つのテレビカメラ101、102を有する立体カメ
ラ装置100が用いられ、この立体カメラ装置100の
各カメラ101、102により、観察対象104を互い
に異なる角度をもって見込んだ左眼用映像105と右眼
用映像106とがそれぞれ撮像される。In this method, a stereoscopic camera device 100 having two television cameras 101 and 102 that can swing on a horizontal plane is used, and the observation objects 104 are mutually moved by the cameras 101 and 102 of the stereoscopic camera device 100. A left-eye image 105 and a right-eye image 106 viewed from different angles are respectively captured.
【0004】撮像された映像105、106は、適当な
映像呈示装置108に表示される。観察者は呈示される
左眼用映像105および右眼用映像106を、左眼10
9および右眼110でそれぞれ観察して両映像105、
106を脳内で合成して立体映像112を感得する。[0004] The captured images 105 and 106 are displayed on an appropriate image presentation device 108. The observer displays the presented left-eye image 105 and right-eye image 106 with the left eye 10
9 and the right eye 110 to observe both images 105,
The three-dimensional image 112 is sensed by synthesizing 106 in the brain.
【0005】[0005]
【発明が解決しようとする課題】適正に立体視を行うた
めには、図6に示すように、(1)垂直方向の位置ずれ
がなく、(2)水平方向には適正な視差が設定され、
(3)両映像の大きさが等しい、という条件を満たした
左眼用映像および右眼用映像を呈示する必要があるが、
上述した従来の立体カメラ装置では、上記3条件を満足
する映像を得ることが困難である。In order to properly perform stereoscopic vision, as shown in FIG. 6, (1) there is no displacement in the vertical direction, and (2) an appropriate parallax is set in the horizontal direction. ,
(3) It is necessary to present a left-eye image and a right-eye image satisfying the condition that both images have the same size.
With the above-described conventional stereoscopic camera device, it is difficult to obtain an image satisfying the above three conditions.
【0006】すなわち、両カメラ101、102の光軸
がなす角度(輻輳角に相当する)が適正でない場合、例
えば大きすぎる場合には、図7(a)に示すように視差
が過度に大きい場合には、呈示される両画像の融合が困
難となり二重像が感得されることになってしまう。ま
た、両カメラ101、102の光学系の個体差や、フォ
ーカスまたはズーム調整時における両カメラ101、1
02の間の機械的なずれ等の原因により、図7(b)に
示すように呈示される両映像のサイズ差が所定の許容値
を超えてしまう場合にも両画像の融合が困難となる。さ
らには、2台のカメラ101、102の設置誤差や各々
のカメラに取着されるレンズのフォーカス・ズーム走査
時に光軸ズレが生じると、図7(c)に示すように両画
像に垂直方向のずれが生じ、この場合も両画像の融合が
困難となる。That is, when the angle (corresponding to the convergence angle) formed by the optical axes of the cameras 101 and 102 is not appropriate, for example, when the angle is too large, the parallax is excessively large as shown in FIG. In this case, it is difficult to fuse the two images presented, and a double image is perceived. In addition, individual differences between the optical systems of the two cameras 101 and 102, and the two cameras 101 and 1 at the time of focus or zoom adjustment.
For example, if the size difference between the two videos presented exceeds the predetermined allowable value, as shown in FIG. . Further, if an optical axis shift occurs at the time of an installation error of the two cameras 101 and 102 or a focus / zoom scan of a lens attached to each camera, as shown in FIG. , And also in this case, it is difficult to fuse the two images.
【0007】上記問題の解決に当っては、各カメラおよ
びその取付部の高精度化や、手間をかけて光学的特性の
揃ったレンズの選定を行う必要がある。また、両カメラ
が観察対象を見込む角度(輻輳角に相当する角度)を変
える為の機構の高精度化も必要となる。このため、従来
の立体カメラ装置は、機構的に大型堅牢化を余儀なくさ
れ、また費用的にも高価なものになっている。In order to solve the above problems, it is necessary to increase the accuracy of each camera and its mounting portion, and to select a lens having uniform optical characteristics with a lot of trouble. Further, it is necessary to improve the accuracy of a mechanism for changing the angle at which both cameras look at the observation target (the angle corresponding to the convergence angle). For this reason, the conventional three-dimensional camera device is inevitably mechanically required to be large and rugged, and is expensive.
【0008】本発明は、上記実状に鑑み為されたもの
で、機構が小型で簡便に構成され、かつ複数の映像の視
差の適正化およびこれら映像の寸法差・垂直ずれの少な
い立体カメラ装置の提供を目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned circumstances, and is directed to a stereoscopic camera device having a small and simple mechanism, a proper parallax of a plurality of images, and a small dimensional difference and vertical displacement of these images. For the purpose of providing.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するた
め、本発明は、両眼立体視に供する右眼用映像と左眼用
映像を撮影するための立体カメラ装置において、撮像素
子と、前記撮像素子に観察対象からの物体光を結像させ
る結像用光学系とを有し、所定周期で映像信号を生成す
る撮像部と、所定の回転軸線を中心として回転可能に設
けられ、その回転角度に応じて入射してくる光の方向を
変更することができる光学素子と、前記光学素子を経由
して観察対象から第1の光路を形成して入射してくる第
1の物体光と、第1の光路に対して角度をなす第2の光
路を形成して観察対象から入射してくる第2の物体光
と、を合成して前記撮像部に導くビームコンバイナと、
第1および第2の物体光に互いに異なる偏光状態を与え
る偏光フィルタ手段と、前記ビームコンバイナおよび偏
光フィルタ手段を経た第1および第2の物体光の光路上
に設けられ、前記映像信号の周期に同期して、第1およ
び第2の物体光のいずれか一方のみを選択的に通過させ
るシャッタ手段とを備えた立体カメラ装置を提供する。In order to achieve the above object, the present invention provides a stereoscopic camera apparatus for photographing a right-eye image and a left-eye image for binocular stereoscopic vision. An imaging unit that forms an image signal at a predetermined cycle, the imaging unit having an imaging optical system that forms an object light from an observation target on an imaging element, and a rotation unit that is rotatably provided around a predetermined rotation axis. An optical element that can change the direction of the light that enters according to the angle, a first object light that enters and forms a first optical path from the observation target via the optical element, A beam combiner that forms a second optical path forming an angle with respect to the first optical path and combines the second object light incident from the observation target and guides the combined light to the imaging unit;
Polarization filter means for giving different polarization states to the first and second object lights; and a first and second object light beams passing through the beam combiner and the polarization filter means. There is provided a stereoscopic camera device including a shutter means for selectively passing only one of the first and second object lights in synchronization.
【0010】本発明に係る立体カメラ装置は、前記撮像
素子への物体光の結像状態に基づいて、前記結像用光学
系を調節する合焦制御手段と、調節された前記結像用光
学系の状態に基づいて、前記撮像部から観察対象までの
距離を算出する物体距離演算手段と、算出された距離に
応じて、立体像を獲得するために必要とされる複数の映
像の視差を算出する視差演算手段と、算出された視差に
基づいて、前記光学素子の回転角度を算出する回転角演
算手段と、前記角度演算手段の演算結果に基づいて、前
記光学素子の回転角度を調節する回転角制御手段と、前
記距離に基づいて、第1の物体光による映像および第2
の物体光による映像が同一サイズになるような修正倍率
を定める倍率設定手段と、設定された修正倍率に基づい
て、第1の物体光による映像および第2の物体光による
映像の少なくとも一方のサイズを変更して、両映像を互
いに同一サイズとするサイズ補正手段とを更に備えた構
成とすることができる。A three-dimensional camera device according to the present invention is a focusing control means for adjusting the imaging optical system based on an imaging state of the object light on the imaging element, and the adjusted imaging optical system. Based on the state of the system, the object distance calculating means for calculating the distance from the imaging unit to the observation target, and according to the calculated distance, the parallax of a plurality of videos required to obtain a stereoscopic image. Parallax calculating means for calculating, a rotation angle calculating means for calculating a rotation angle of the optical element based on the calculated parallax, and adjusting a rotation angle of the optical element based on a calculation result of the angle calculating means. A rotation angle control unit, and an image based on the first object light and a second image based on the distance.
Magnification setting means for determining a correction magnification so that the images of the object light have the same size, and at least one of the size of the image of the first object light and the image of the second object light based on the set correction magnification Can be changed to provide a configuration further including a size correcting means for making both images the same size.
【0011】また、本発明に係る立体カメラ装置は、前
記撮像素子への物体光の結像状態に基づいて、前記結像
用光学系を調節する合焦制御手段と、調節された前記結
像用光学系の状態に基づいて、前記撮像部から観察対象
までの距離を算出する物体距離演算手段と、前記距離に
基づいて、第1の物体光による映像および第2の物体光
による映像が同一サイズになるような修正倍率を定める
倍率設定手段と、設定された修正倍率に基づいて、第1
の物体光による映像および第2の物体光による映像の少
なくとも一方のサイズを変更して、両映像を互いに同一
サイズとするサイズ補正手段と、観察対象に参照光を投
射する参照光投射手段と、第1および第2の物体光によ
る映像から投射された参照光の照射位置を検出する輝点
検出手段と、検出された参照光の照射位置の差異に基づ
いて、両映像中における参照光照射位置が一致するよう
な前記光学素子の回転角度を算出する輝点差異検出手段
と、前記輝点差異検出手段の演算結果に基づいて、前記
光学素子の回転角度を調節する回転角制御手段とを更に
備えた構成とすることができる。Further, the stereoscopic camera apparatus according to the present invention includes a focusing control means for adjusting the image forming optical system based on an image forming state of the object light on the image sensor, and the adjusted image forming apparatus. Object distance calculating means for calculating a distance from the imaging unit to the observation target based on the state of the optical system for use; and an image based on the first object light and an image based on the second object light based on the distance. Magnification setting means for determining a correction magnification so as to be a size;
Size correction means for changing the size of at least one of the image based on the object light and the image based on the second object light so that both images have the same size, reference light projection means for projecting the reference light onto the observation target, A luminescent spot detecting means for detecting an irradiation position of the reference light projected from the image by the first and second object lights; and a reference light irradiation position in both images based on a difference between the detected irradiation positions of the reference light. And a rotation angle control unit that adjusts the rotation angle of the optical element based on the calculation result of the bright point difference detection unit. It can be provided with a configuration.
【0012】また、本発明に係る立体カメラ装置は、前
記撮像素子への物体光の結像状態に基づいて、前記結像
用光学系を調節する合焦制御手段と、調節された前記結
像用光学系の状態に基づいて、前記撮像部から観察対象
までの距離を算出する物体距離演算手段と、前記距離に
基づいて、第1の物体光による映像および第2の物体光
による映像が同一サイズになるような修正倍率を定める
倍率設定手段と、設定された修正倍率に基づいて、第1
の物体光による映像および第2の物体光による映像の少
なくとも一方のサイズを変更して、両映像を互いに同一
サイズとするサイズ補正手段と、観察対象に参照光を投
射する参照光投射手段と、前記第1および第2の物体光
による映像が呈示される映像呈示装置と、前記光学素子
の回転角度を変更することができる操作装置とを更に備
えた構成とすることができる。Further, the stereoscopic camera apparatus according to the present invention includes a focusing control means for adjusting the image forming optical system based on an image forming state of the object light on the image sensor, and the adjusted image forming apparatus. Object distance calculating means for calculating a distance from the imaging unit to the observation target based on the state of the optical system for use; and an image based on the first object light and an image based on the second object light based on the distance. Magnification setting means for determining a correction magnification so as to be a size;
Size correction means for changing the size of at least one of the image based on the object light and the image based on the second object light so that both images have the same size, reference light projection means for projecting the reference light onto the observation target, The image display apparatus may further include an image presenting device for presenting images by the first and second object lights, and an operation device capable of changing a rotation angle of the optical element.
【0013】[0013]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0014】[第1の実施形態]まず、図1乃至図3に
より、第1の実施形態について説明する。本実施形態に
係る立体カメラ装置1は、本体1Aと制御部とから構成
されている。[First Embodiment] First, a first embodiment will be described with reference to FIGS. The stereoscopic camera device 1 according to the present embodiment includes a main body 1A and a control unit.
【0015】図1に示すように、本体1Aは、撮像部1
0を備えており、この撮像部10は、光軸方向に長いロ
ッド型のレンズ(結像用光学系)11と、CCD等の撮
像素子12と、撮像素子12の電荷信号から所定のフィ
ールド周波数の映像信号を形成する信号処理回路14と
を有する。レンズ11と撮像素子12との間には、長波
長の光を遮断する光学ガラス13が設けられている。As shown in FIG. 1, the main body 1A includes an imaging section 1
The imaging unit 10 includes a rod-shaped lens (an imaging optical system) 11 that is long in the optical axis direction, an imaging device 12 such as a CCD, and a predetermined field frequency from a charge signal of the imaging device 12. And a signal processing circuit 14 for forming the video signal. An optical glass 13 that blocks long-wavelength light is provided between the lens 11 and the image sensor 12.
【0016】また、撮像部10は、レンズ11を移動さ
せ焦点調節を行うための焦点調節機構15を有する。焦
点調節機構15は、静電気力あるいは電磁力等によりレ
ンズ11を軸方向に移動するアクチュエータ装置からな
る。本例では、このアクチュエータ装置は、レンズ11
を保持する可動子15aと、本体1Aの筐体16に固着
された固定子15bとからなる。The imaging section 10 has a focus adjustment mechanism 15 for moving the lens 11 to perform focus adjustment. The focus adjustment mechanism 15 includes an actuator device that moves the lens 11 in the axial direction by electrostatic force or electromagnetic force. In this example, the actuator device is a lens 11
And a stator 15b fixed to the housing 16 of the main body 1A.
【0017】次に、観察対象Sを2方向から見込む互い
に異なる複数の映像、ここでは左右眼用の2つの映像を
前記撮像部10に提供するための光学系20について説
明する。Next, a description will be given of the optical system 20 for providing the image pickup section 10 with a plurality of images different from each other, in this case, two images for the left and right eyes, in which the observation target S is viewed from two directions.
【0018】光学系20は、本体1Aの撮像部10の前
方に設けられている。この光学系20は、誘電体被膜が
蒸着された反射・合成面21cを有する偏光ビームコン
バイナ(以下、「PBC」という)21と、このPBC
21の側面21bに観察対象Sからの物体光を導く反射
鏡(光学素子)22と、この反射鏡の角度φ(回転角
度)を変える反射鏡回転機構23と、波長板(1/2λ
波長板)24と、LCDシャッタ(液晶シャッタ、すな
わちシャッタ手段)25とから構成されている。なお、
これら各要素21〜25のうち、反射鏡22について
は、その回転角度に応じて入射してくる光の方向を変更
することができる機能を有する他の光学素子に置換する
ことも可能である。The optical system 20 is provided in front of the imaging section 10 of the main body 1A. The optical system 20 includes a polarization beam combiner (hereinafter, referred to as “PBC”) 21 having a reflection / combination surface 21 c on which a dielectric film is deposited, and a PBC.
A reflecting mirror (optical element) 22 for guiding object light from the observation target S to the side surface 21b of the reflecting member 21, a reflecting mirror rotating mechanism 23 for changing the angle φ (rotation angle) of the reflecting mirror, and a wave plate (1 / 2λ)
A wavelength plate 24 and an LCD shutter (liquid crystal shutter, that is, shutter means) 25 are provided. In addition,
Of these elements 21 to 25, the reflecting mirror 22 can be replaced with another optical element having a function of changing the direction of incident light according to the rotation angle.
【0019】反射鏡回転機構23は、反射鏡22を図1
の紙面垂直方向に延びる回転軸線回りに回転させるもの
であり、例えば静電気力あるいは電磁力等により駆動さ
れる回転型アクチュエータ装置からなる。The reflecting mirror rotating mechanism 23 moves the reflecting mirror 22 in FIG.
And a rotary actuator device driven by, for example, an electrostatic force or an electromagnetic force.
【0020】以上述べたように、本実施形態に係る立体
カメラ装置の本体1Aは、撮像部10に対して、光学系
20を追加的に設けた構成となっており、用いられるカ
メラは1台のみでよい。したがって、従来の立体カメラ
装置の構成に比べて非常に簡潔な構造とすることができ
る。As described above, the main body 1A of the stereoscopic camera device according to the present embodiment has a configuration in which the optical system 20 is additionally provided for the imaging unit 10, and one camera is used. Only need. Therefore, the structure can be made very simple as compared with the configuration of the conventional stereoscopic camera device.
【0021】観察対象Sからの物体光は、PBC21の
正面21aに直接入射する右眼用物体光(第1の物体
光)Rの光路(第1の光路)と、右眼用物体光Rの光路
に対してある角度φで傾斜する反射鏡22を経て、PB
C21の側面21bに入射する左眼用物体光(第2の物
体光)Lの光路(第2の光路)とを形成する。右眼用物
体光Rと左眼用物体光Lとは、輻輳角に相当する角度θ
をなす。The object light from the observation target S is divided into the optical path (first optical path) of the right-eye object light (first object light) R directly incident on the front surface 21a of the PBC 21 and the right-eye object light R. PB through the reflecting mirror 22 inclined at an angle φ with respect to the optical path
An optical path (second optical path) of the left-eye object light (second object light) L incident on the side surface 21b of C21 is formed. The object light R for the right eye and the object light L for the left eye form an angle θ corresponding to a convergence angle.
Make
【0022】PBC21は、入射してくる右眼用物体光
Rおよび左眼用物体光Lを、互いに直交する偏光状態に
変調するとともに合成し、レンズ11の光軸上に導く。
PBC21を経た右眼用物体光Rおよび左眼用物体光L
は、波長板24により、それぞれの偏光方向が回転させ
られる。すなわちPBC21の反射・合成面21cの誘
電体被膜および波長板24により、右眼用物体光Rおよ
び左眼用物体光Lに互いに異なる偏光状態を与える偏光
フィルタ手段が形成されていることになる。The PBC 21 modulates and combines the incident right-eye object light R and left-eye object light L into mutually orthogonal polarization states, and guides the combined light onto the optical axis of the lens 11.
Right-eye object light R and left-eye object light L that have passed through PBC 21
The polarization directions are rotated by the wave plate 24. That is, the dielectric film of the reflection / combination surface 21c of the PBC 21 and the wave plate 24 form a polarization filter means for giving different polarization states to the object light R for the right eye and the object light L for the left eye.
【0023】そしてLCDシャッタ25は、偏光変調さ
れた右眼用物体光および左眼用物体光のいずれか一方を
遮断して、選択的に撮像部10に導く。そして右眼用物
体光Rおよび左眼用物体光Lは、交互に撮像素子12に
導かれる。撮像素子12に接続された信号処理回路14
は、所定のフィールド周波数で映像信号を出力する。The LCD shutter 25 blocks one of the polarization-modulated object light for the right eye and the object light for the left eye, and selectively guides it to the image pickup unit 10. Then, the right-eye object light R and the left-eye object light L are alternately guided to the image sensor 12. Signal processing circuit 14 connected to image sensor 12
Outputs a video signal at a predetermined field frequency.
【0024】次に、図2を参照して立体カメラ装置の制
御部の構成および作用について説明する。なお、以下の
説明においては、観察対象Sが、レンズ11の焦点深度
を考慮した上で立体カメラ装置の本体1Aから十分に遠
い位置にあり、観察対象Sから撮像素子12までの右眼
用物体光と左眼用物体光との光路長差に関わらず、両物
体光がレンズ11の位置を変更することなく撮像素子1
2上に実用上問題なく合焦することを前提として説明す
る。Next, the configuration and operation of the control section of the stereoscopic camera device will be described with reference to FIG. In the following description, the observation target S is located at a position sufficiently far from the main body 1A of the stereoscopic camera device in consideration of the depth of focus of the lens 11, and the right-eye object from the observation target S to the imaging device 12 Irrespective of the optical path length difference between the light and the object light for the left eye, the two object lights change the position of the lens 11 without changing the position of the lens 11.
The following description is based on the premise that focusing is practically performed without any problem.
【0025】制御部は、信号処理回路14からの信号に
基づいて撮像素子12に対する合焦調節を行う合焦制御
部(合焦制御手段)30を備えている。合焦制御部30
は、焦点ズレ検出部31およびレンズ駆動部(ドライ
バ)32を有する。焦点ズレ検出部31において、撮像
素子12への物体光の合焦状態を検出して撮像素子12
への適切な合焦がなされるようなレンズ11の位置補正
量が算出され、この算出した補正量に基づいてレンズ駆
動部32が焦点調節機構15を駆動する駆動信号を生成
する。The control section includes a focus control section (focus control means) 30 for performing focus adjustment on the image pickup device 12 based on a signal from the signal processing circuit 14. Focus control unit 30
Has a defocus detecting unit 31 and a lens driving unit (driver) 32. The focus shift detecting unit 31 detects the in-focus state of the object light on the image sensor 12 and
The amount of position correction of the lens 11 such that appropriate focusing is performed is calculated, and the lens driving unit 32 generates a drive signal for driving the focus adjustment mechanism 15 based on the calculated amount of correction.
【0026】また、信号処理回路14にはLCD切替部
26が接続されており、このLCD切替部26は、信号
処理回路14から受信した映像信号のフィールド切換に
同期して、右眼用物体光Rおよび左眼物体光Lが交互に
LCDシャッタ25を通過するように、LCDシャッタ
25の状態を切り替える。これにより信号処理回路14
からは、前記フィールド周波数にあわせて右眼用映像信
号および左眼映像信号が交互に出力されるようになる。An LCD switching unit 26 is connected to the signal processing circuit 14, and the LCD switching unit 26 synchronizes with the field switching of the video signal received from the signal processing circuit 14 to output the right-eye object light. The state of the LCD shutter 25 is switched so that R and the left-eye object light L pass through the LCD shutter 25 alternately. Thereby, the signal processing circuit 14
Thereafter, the right-eye video signal and the left-eye video signal are alternately output according to the field frequency.
【0027】更に、信号処理装置14にはフィールド検
出部36が接続されており、このフィールド検出部36
は、信号処理装置14から出力される映像信号を右眼用
フィールド映像信号と左眼用フィールド映像信号とに分
離する。Further, a field detection unit 36 is connected to the signal processing device 14.
Separates the video signal output from the signal processing device 14 into a right-eye field video signal and a left-eye field video signal.
【0028】本例では、右眼用フィールド映像信号は、
後述するような左眼用フィールド映像信号に施されるよ
うな処理を行われることなく立体像呈示装置50に送ら
れる。立体像呈示手段50は右眼用フィールド映像信号
に基づいて右眼用フィールド映像を観察者に呈示する。In this example, the field video signal for the right eye is
The data is sent to the three-dimensional image presenting apparatus 50 without performing the processing performed on the left-eye field video signal as described later. The stereoscopic image presenting means 50 presents the right-eye field image to the observer based on the right-eye field image signal.
【0029】なお、立体像呈示装置50としては、ヘッ
ドアップディスプレイや偏光眼鏡を併用するスクリーン
への投射装置等、両眼立体視用の公知のあらゆる映像呈
示装置を用いることができる。As the stereoscopic image presenting device 50, any known image presenting device for binocular stereoscopic vision, such as a head-up display or a projection device onto a screen using polarizing glasses, can be used.
【0030】ところで、本例においては、観察対象物S
から撮像素子13までの左眼用物体光の光路長は、反射
鏡22を経由する分だけ右眼用物体光の光路長より長く
なるため、撮像素子12に投影される映像は、左眼用の
ものが方が右眼用のものより小さくなる。従って、左眼
用映像を立体像呈示装置50にそのまま呈示したので
は、右眼用映像に比べて左眼用映像の方が小さくなる。
このことは、従来技術の項で説明したように、立体映像
感得の妨げとなる。By the way, in this example, the observation object S
Since the optical path length of the object light for the left eye from to the image sensor 13 is longer than the optical path length of the object light for the right eye by the amount of passing through the reflecting mirror 22, the image projected on the image sensor 12 is Are smaller than those for the right eye. Therefore, if the left-eye image is presented to the stereoscopic image presenting apparatus 50 as it is, the left-eye image is smaller than the right-eye image.
This hinders a stereoscopic image as described in the section of the related art.
【0031】本実施形態においては、上記問題点を解決
するため、立体カメラ装置の制御部は、物体距離演算部
(物体距離演算手段)34、拡大率設定部(倍率設定手
段)38および映像拡大処理部(サイズ補正手段)40
を備える。In the present embodiment, in order to solve the above problem, the control unit of the stereoscopic camera device includes an object distance calculation unit (object distance calculation unit) 34, an enlargement ratio setting unit (magnification setting unit) 38, and an image enlargement unit. Processing unit (size correction unit) 40
Is provided.
【0032】このうち物体距離演算部34は、この立体
カメラ装置の撮像部10から観察対象Sまでの距離を算
出するためのものであり、焦点調節部30に接続されて
いる。なお、前記距離とは、典型的には、撮像素子12
から、観察対象S上の注視点までの距離を意味する。以
下、本明細書においては、文章の簡略化のため、「立体
カメラ装置の撮像部10から観察対象Sまでの距離」の
ことを、単に「距離d」ということとする。The object distance calculation section 34 is for calculating the distance from the image pickup section 10 of the stereoscopic camera device to the observation target S, and is connected to the focus adjustment section 30. Note that the distance typically means the image sensor 12
Means the distance from the observation point to the gazing point on the observation target S. Hereinafter, in the present specification, the “distance from the imaging unit 10 of the stereoscopic camera device to the observation target S” is simply referred to as “distance d” for simplification of text.
【0033】物体距離演算部34は、物体光が撮像素子
12に正しく合焦する場合に成立するレンズ11の位置
と前記距離dと間の既知の関係に基づいて、距離dの算
出を行う。すなわち、物体距離演算部34は、レンズ1
1の焦点調節を行う焦点調節部30を含むフィードバッ
ク制御系からレンズ11の位置情報(結像用光学系の状
態に関する情報)を取り出し、この位置情報に基づいて
前記距離dを算出するものである。The object distance calculator 34 calculates the distance d based on a known relationship between the position of the lens 11 and the distance d that is established when the object light is properly focused on the image sensor 12. That is, the object distance calculation unit 34 determines that the lens 1
The position information (information on the state of the imaging optical system) of the lens 11 is extracted from the feedback control system including the focus adjustment unit 30 that performs the focus adjustment of (1), and the distance d is calculated based on the position information. .
【0034】拡大率設定部62は、物体距離演算部34
により算出された前記距離dに基づいて、右眼用物体光
Rと左眼用物体光Lとの光路長の比率を算出する。The enlargement ratio setting section 62 includes an object distance calculation section 34
The ratio of the optical path length of the object light R for the right eye and the object light L for the left eye is calculated based on the distance d calculated by the above.
【0035】なお、両光路長の比率は、反射鏡22の角
度φに依存するが、この角度φは、後述するように、前
記距離dに基づいて一意的に定められるため、両光路長
の比率は、物体距離演算部34により算出された距離d
が決まれば、一意的に定められる。The ratio between the two optical path lengths depends on the angle φ of the reflecting mirror 22. Since this angle φ is uniquely determined based on the distance d as described later, The ratio is the distance d calculated by the object distance calculator 34.
Is determined uniquely.
【0036】そして両光路長の比率が求まれば、レンズ
11の既知の特性に基づいて、撮像素子12に投影され
る左眼用映像と右眼用映像とのサイズの比率が求まる。
これに基づいて、拡大率設定部38は、右眼用映像およ
び左眼用映像のサイズが互いに等しくなるように、左眼
用映像の拡大倍率(修正倍率)を定める。When the ratio between the two optical path lengths is determined, the ratio between the size of the left-eye image and the size of the right-eye image projected on the image sensor 12 is determined based on the known characteristics of the lens 11.
Based on this, the enlargement ratio setting unit 38 determines an enlargement magnification (correction magnification) of the left-eye image so that the right-eye image and the left-eye image have the same size.
【0037】フィールド検出部36からの左眼用フイー
ルド映像信号を取り込んだ映像拡大処理部40は、拡大
率設定部38により決定された拡大倍率に基づいて、左
眼用フイールド映像信号を処理して左眼用フイールド映
像の拡大処理(サイズ補正)を行う。The image enlargement processing unit 40 which has received the left-eye field image signal from the field detection unit 36 processes the left-eye field image signal based on the enlargement magnification determined by the enlargement ratio setting unit 38. Enlargement processing (size correction) of the left-eye field video is performed.
【0038】なお、本実施形態においては、光路長の長
い左眼用フイールド映像に拡大処理を施したが、右眼用
フイールド映像を処理しても構わず、この時は映像拡大
処理部40による画像的な拡大処理は逆に縮小処理に変
更される。また、本実施形態においては、反射鏡22を
介して左眼用映像を取得するようにした例を示したが、
これに代えて右眼用映像を反射鏡22を介して取得する
ようにしてもよい。In this embodiment, the enlargement processing is performed on the left-eye field image having a long optical path length. However, the right-eye field image may be processed. Conversely, the image-like enlargement process is changed to a reduction process. Further, in the present embodiment, an example has been described in which the image for the left eye is acquired via the reflecting mirror 22.
Instead, the right-eye image may be obtained via the reflecting mirror 22.
【0039】以上説明したように、立体像呈示装置50
に呈示される左右眼用映像の寸法差は解消され、また左
右眼用映像を取得するためのレンズ系は共通なので焦点
調節に起因する光軸ズレもない。As described above, the three-dimensional image presentation device 50
Are eliminated, and the lens system for acquiring the left and right eye images is common, so that there is no optical axis shift due to focus adjustment.
【0040】ここで残された問題は、左右眼用映像間に
適正な視差を設定することである。以下、左右眼用映像
間の視差を決定する反射鏡22の角度φの制御方法につ
いて説明する。The remaining problem is that an appropriate parallax is set between the left and right eye images. Hereinafter, a method of controlling the angle φ of the reflecting mirror 22 that determines the parallax between the left and right eye images will be described.
【0041】立体カメラ装置の制御部は、上記機能を実
現するため、視差演算部42、反射鏡角演算部(回転角
演算手段)44および反射鏡駆動部(回転角制御手段)
46を備える。The control unit of the stereoscopic camera apparatus is provided with a parallax calculation unit 42, a reflection mirror angle calculation unit (rotation angle calculation unit) 44, and a reflection mirror drive unit (rotation angle control unit) to realize the above functions.
46 is provided.
【0042】このうち視差演算部42は前述した物体距
離演算部34に接続されている。この物体距離演算部3
4によって、計測された前記距離dに基づいて、立体像
の成立に必要なパラメタ(具体的には、立体虚像を空間
の任意の位置で感得するのに必要な左右眼用物体光の両
光路が成す視差)の計算が行われる。The parallax calculator 42 is connected to the object distance calculator 34 described above. This object distance calculation unit 3
4, based on the measured distance d, parameters necessary for establishing a stereoscopic image (specifically, both optical paths of left and right object light required to sense a stereoscopic virtual image at an arbitrary position in space) Is calculated.
【0043】視差演算部42の計算結果をもとに、反射
鏡角演算部44では上記視差を確保し、前記PBC21
からの両光路の出射光が概ね一致するために必要な反射
鏡22の角度φ、すなわち傾き角が計算される。Based on the calculation result of the parallax calculating section 42, the reflecting mirror angle calculating section 44 secures the parallax, and the PBC 21
The angle φ of the reflecting mirror 22, which is necessary for the light beams emitted from the two optical paths to substantially coincide with each other, that is, the inclination angle, is calculated.
【0044】反射鏡角演算部44で計算された反射鏡2
2の角度φは、反射鏡回転機構23のドライバとして機
能する反射鏡駆動部46に送られ、この反射鏡駆動部4
6において具体的な駆動信号となり、この駆動信号によ
り反射鏡回転機構23が駆動される。The reflector 2 calculated by the reflector angle calculator 44
The angle φ of 2 is sent to a reflecting mirror driving unit 46 functioning as a driver of the reflecting mirror rotating mechanism 23, and the reflecting mirror driving unit 4
6 is a specific drive signal, and the drive signal drives the reflecting mirror rotating mechanism 23.
【0045】ところで、立体映像の成立位置は、原理的
にはある範囲内で任意に設定できるが、呈示画面より大
幅に飛び出ていたり引っ込んでいる場合には、立体視に
よる疲労を誘発するだけでなく、不特定の観察者に必要
な平均的な立体映像には必ずしもなっていない。By the way, the position where the stereoscopic image is formed can be arbitrarily set within a certain range in principle. However, when the stereoscopic image is significantly protruded or retracted from the presentation screen, only fatigue due to stereoscopic vision is induced. However, it is not always the average stereoscopic image required for unspecified observers.
【0046】一般的には、観察者の観察対象物への注視
点が映像呈示面と同一平面に位置していることが好まし
く、このようにするには、観察対象を見込む左右眼用の
両光路が観察対象S上の注視点P(図3参照)上で概ね
一致するようにすることが好ましい。In general, it is preferable that the gazing point of the observer to the object to be observed is located on the same plane as the image presentation surface. It is preferable that the optical path substantially coincides with the gazing point P on the observation target S (see FIG. 3).
【0047】なお、図面の簡略化のため、図1および図
2においては観察対象Sは1個とされているが、図3に
示すように、図示された観察対象Sの前後に他の観察対
象S1およびS2がある場合も多い。このような場合に
最も観察者が注目するであろう観察対象が観察対象Sで
あるとした場合、映像を呈示する際に、観察対象S上の
注視点Pを立体像呈示装置50の呈示面と一致する位置
で感得させ、他の観察対象を前記呈示面の前後で感得さ
せることが好ましい。For simplification of the drawings, only one observation object S is shown in FIG. 1 and FIG. 2, but as shown in FIG. In many cases, there are targets S1 and S2. In such a case, if the observation target that the observer will pay the most attention to is the observation target S, the gazing point P on the observation target S is displayed on the presentation surface of the stereoscopic image presentation device 50 when the video is presented. It is preferable that the user perceive at a position that coincides with the above, and perceive another observation target before and after the presentation surface.
【0048】このようにするには、図3に示すように、
観察対象S上の注視点Pからの右眼用物体光Rと左眼用
物体光Lとが同軸となるように合成されるようにすれば
よい。 すなわち図3において、注視点Pから直接PB
C21に到達する右眼用物体光と、注視点Pから反射鏡
22上の点Qを経てPBC21に到達する左眼用物体光
とが、PBC21内で合成される位置を点Cとした場
合、前記各点P,QおよびCを各頂点とする三角形が角
PCQが直角となる直角三角形となるように反射鏡22
の角度φを定めればよいことになる。ここで距離dが既
知であるならば、回転角度φは簡単な幾何学的演算によ
り容易に算出することができる。なお、この幾何学的演
算は、前記視差演算部42および反射鏡角演算部44に
より行われる。To do so, as shown in FIG.
The right-eye object light R and the left-eye object light L from the gazing point P on the observation target S may be combined so as to be coaxial. That is, in FIG.
When a position where the right-eye object light reaching the C21 and the left-eye object light reaching the PBC21 from the fixation point P via the point Q on the reflecting mirror 22 are combined in the PBC21 as a point C, The reflecting mirror 22 is arranged such that a triangle having the points P, Q and C as vertices is a right triangle with the angle PCQ being a right angle.
Should be determined. Here, if the distance d is known, the rotation angle φ can be easily calculated by a simple geometric operation. This geometric calculation is performed by the parallax calculation unit 42 and the reflection mirror angle calculation unit 44.
【0049】視差演算部42などで演算される立体像成
立位置や奥行き深さ或いは画像歪は、必要に応じて像パ
ラメタ呈示装置52を通じ、観察者に呈示される。ま
た、上記説明においては、反射鏡を適正な角度に設定す
る過程は、自動的になされるように記載されているが、
観察者の好みの立体感を得ることができるように、観察
者が手動的に反射鏡を操作できるような構成を加えても
よい。この時には上記の像パラメタ呈示装置52の役割
が大きい。The stereoscopic image formation position, depth depth, or image distortion calculated by the parallax calculation unit 42 or the like is presented to the observer through the image parameter presentation device 52 as needed. Further, in the above description, the process of setting the reflecting mirror to an appropriate angle is described as being automatically performed.
A configuration that allows the observer to manually operate the reflector may be added so that the observer can obtain the stereoscopic effect desired by the observer. At this time, the role of the image parameter presenting device 52 is large.
【0050】以上説明したように、本実施形態によれ
ば、機構が小型で簡便に構成され、左右眼用映像の視差
の適正化を図ることができ、左右眼用映像相互間での寸
法差および垂直ずれの問題もなく、常に良好な立体像を
観察できる立体カメラ装置が実現できる。すなわち、本
実施形態によれば、装置全体の小型化と立体像消失の回
避を同時に達成できる立体カメラ装置を得ることができ
る。As described above, according to the present embodiment, the mechanism is small and simple, the parallax between the left and right eye images can be optimized, and the dimensional difference between the left and right eye images can be improved. A stereoscopic camera device capable of always observing a good stereoscopic image without the problem of vertical displacement can be realized. That is, according to the present embodiment, it is possible to obtain a stereoscopic camera device that can simultaneously achieve downsizing of the entire device and avoidance of disappearance of a stereoscopic image.
【0051】[第2の実施形態]次に、図4により第2
の実施形態について説明する。第2の実施形態は、第1
の実施形態に対して、反射鏡22の角度φを定める手順
が異なっており、他は第1の実施形態と略同一である。[Second Embodiment] Next, FIG.
An embodiment will be described. In the second embodiment, the first
The procedure for determining the angle φ of the reflecting mirror 22 is different from that of the first embodiment, and the other points are substantially the same as those of the first embodiment.
【0052】第2の実施形態において、立体カメラ装置
の本体1Aには、観察対象Sに参照光を照射するための
投射型マーカ(参照光照射手段)27が設けられてい
る。この投射型マーカ27は、具体的には、例えば赤色
のレーザ光を観察対象Sの所定位置(通常は、注視点と
なる位置)に局所的に(スポット的に)照射するレーザ
光発生装置からなり、PBC21の側面21dに取り付
けられている(図1において破線で示す)。In the second embodiment, a projection type marker (reference light irradiation means) 27 for irradiating the observation object S with reference light is provided on the main body 1A of the stereoscopic camera device. Specifically, the projection type marker 27 is, for example, a laser light generator that locally (spots) irradiates a red laser beam at a predetermined position (usually, a gazing point) of the observation target S. And is attached to the side surface 21d of the PBC 21 (shown by a broken line in FIG. 1).
【0053】また、第2の実施形態に係る立体カメラ装
置の制御部は、第1の実施形態に係る立体カメラ装置の
制御部と比べて、視差演算部42および反射鏡角演算部
44を、後述する右映像輝点検出部60、左映像輝点検
出部62および輝点差異検出部64により置換した点が
異なり、他部の構成は略同一である。従って、図4にお
いては、図面の簡略化のため、制御部の構成のうち第1
の実施形態と異なる部分のみ示すこととする。The control unit of the stereoscopic camera device according to the second embodiment is different from the control unit of the stereoscopic camera device according to the first embodiment in that the parallax calculation unit 42 and the reflection mirror angle calculation unit 44 are different from each other. The difference is that the right image bright point detecting unit 60, the left image bright point detecting unit 62, and the bright point difference detecting unit 64, which will be described later, substitute for each other, and the configuration of the other units is substantially the same. Accordingly, in FIG. 4, for simplification of the drawing, the first of the configurations of the control unit is used.
Only the parts different from the above embodiment will be shown.
【0054】図4に示すように、本実施形態において
は、フィールド検出部36からの右眼用フィールド映像
信号および左眼用フィールド映像信号は、右映像輝点検
出部60および左映像輝点検出部62にそれぞれ送られ
る。これら右映像輝点検出部60および左映像輝点検出
部62において画像解析が行われ、輝点が各フィールド
映像のいずれの位置に存在するかが検出される。すなわ
ち、各フィールド映像における赤色(赤色レーザ光が照
射される場合)で輝度の高い部位の位置が検出される。As shown in FIG. 4, in the present embodiment, the right-eye field video signal and the left-eye field video signal from the field detector 36 are converted into a right video luminescent spot detector 60 and a left video luminescent spot detector. Each is sent to the unit 62. Image analysis is performed in the right image bright point detecting unit 60 and the left image bright point detecting unit 62, and it is detected at which position in each field image the bright point exists. That is, the position of a portion having high luminance in red (when red laser light is irradiated) in each field image is detected.
【0055】輝点差異検出部64は、求められた左右両
フィールド映像内の輝点位置の差を求め、これに基づい
て、左右両フィールド映像内の輝点位置が同一位置にく
るように(すなわち輝点位置における視差が0となるよ
うに)反射鏡22の回転すべき方向と量を算出する。そ
して輝点差異検出部64からの信号は、反射鏡駆動部4
6に送られ、反射鏡駆動部46は、反射鏡22を駆動す
る。The bright spot difference detecting section 64 calculates the difference between the obtained bright spot positions in the left and right field images, and based on this, the bright spot positions in the left and right field images are located at the same position ( That is, the direction and amount of rotation of the reflecting mirror 22 are calculated so that the parallax at the bright spot position becomes zero. The signal from the bright spot difference detection unit 64 is
The reflection mirror driving unit 46 drives the reflection mirror 22.
【0056】以上説明したように、フィールド検出部3
6、左右映像輝点検出部60、62、輝点差異検出手段
64および反射鏡駆動部46を含むフィードバック制御
系により、呈示される立体像のうち観察対象Sのうち参
照光が投射されている位置(輝点位置)が立体像呈示装
置50の呈示面と同一面(呈示面より奥または手前では
ない)に位置しているように観察者が感じるように、左
右両フィールド映像の視差が制御されることになる。As described above, the field detector 3
6. The reference light of the observation target S in the presented three-dimensional image is projected by a feedback control system including the left and right video bright point detection units 60 and 62, the bright point difference detection unit 64, and the reflector driving unit 46. The parallax of the left and right field images is controlled so that the observer feels that the position (the luminescent spot position) is located on the same plane as the presentation surface of the stereoscopic image presentation device 50 (not behind or near the presentation surface). Will be done.
【0057】なお、以上の手順は自動的に制御されてい
るが、参照光が可視的なものであれば、反射鏡22の回
転角度φを可変とすることができる操作装置を設けれ
ば、視差調節操作を観察者が手動的(自動制御で行うの
ではないという意味)に行うこともできる。具体的に
は、例えば、立体像提示装置50(図2参照)により映
像をモニタしながら、投写型マーカ27により観察対象
S上に投射される輝点が一致するように、若しくは適正
な間隔となるように、反射鏡22の回転角度φを使用者
が操作するようにしてもよい。The above procedure is automatically controlled. However, if the reference light is visible, if an operating device capable of changing the rotation angle φ of the reflecting mirror 22 is provided, The parallax adjustment operation can also be performed manually by the observer (meaning that the operation is not performed by automatic control). Specifically, for example, while monitoring an image with the stereoscopic image presentation device 50 (see FIG. 2), the bright spots projected on the observation target S by the projection type marker 27 are matched or an appropriate interval is set. Thus, the user may operate the rotation angle φ of the reflecting mirror 22.
【0058】また、図4に示す実施形態においては、投
写型マーカ27が観察対象に直接参照光を投射するよう
になっていたが、これに限定されるものではない。すな
わち図5に示すように、投写型マーカ27から出射され
る参照光をPBC21により分割して観察対象Sに照射
するようにしてもよい。この場合、投写型マーカ27か
ら出射されPBC21により反射され観察対象Sに至る
参照光光路Raによるマーカ像(輝点)Caと、PBC
21を通過して反射鏡22で反射され観察対象Sに至る
参照光光路Rbによるマーカ像(輝点)Cbとが一致する
ように、あるいは適正な間隔となるように反射鏡22の
角度を定めることにより、左右両眼用映像の視差を定め
てもよい。In the embodiment shown in FIG. 4, the projection type marker 27 projects the reference light directly to the observation target, but the invention is not limited to this. That is, as shown in FIG. 5, the reference light emitted from the projection type marker 27 may be divided by the PBC 21 and irradiated onto the observation target S. In this case, a marker image (bright point) Ca emitted from the projection type marker 27 and reflected by the PBC 21 to reach the observation target S by the reference light path Ra, and a PBC
The angle of the reflecting mirror 22 is determined so that the marker image (bright point) Cb by the reference light path Rb that is reflected by the reflecting mirror 22 through the reflecting mirror 22 and reaches the observation target S coincides or has an appropriate interval. Thus, the parallax between the left and right binocular images may be determined.
【0059】なお、投写型マーカ27が参照光を常時照
射するものであるならば、以上の構成でよいが、参照光
が呈示される映像に常時写り込むと映像が見ずらくなる
ことも考えられる。このような場合は、投写型マーカ2
7の発光を制御する輝点制御部70を設ければよい。If the projection type marker 27 always irradiates the reference light, the above configuration may be used. However, if the reference light is constantly reflected on the presented image, the image may be difficult to see. Can be In such a case, the projection type marker 2
It is sufficient to provide a bright spot control unit 70 for controlling the light emission of No. 7.
【0060】この輝点制御部70は、所定の時間間隔を
もって断続的に投写型マーカ27を発光させるものであ
ってもよいし、観察対象Sと立体カメラ装置の本体1A
との位置関係が変化したことを検知して、当該変化が生
じた場合にのみ投写型マーカ27を発光させるものであ
ってもよい。なお、後者の場合には、観察対象Sと本体
1Aとの位置関係の変化は、輝点制御部70と焦点ズレ
検出部31とを接続して、焦点ズレ検出部31からの信
号を利用することにより検出することができる。The bright spot control section 70 may emit the projection type marker 27 intermittently at predetermined time intervals, or the observation target S and the main body 1A of the stereoscopic camera apparatus.
The change in the positional relationship between the marker and the projection-type marker 27 may be detected only when the change has occurred. In the latter case, a change in the positional relationship between the observation target S and the main body 1A is achieved by connecting the bright spot control unit 70 and the defocus detection unit 31 and using a signal from the defocus detection unit 31. Can be detected.
【0061】輝点制御部70は、投射型マーカ27の発
光制御と同時にフィールド検出部36に信号を送る。フ
ィールド検出部36には、信号処理装置14からの映像
信号も与えられるので、この信号と輝点制御部70から
の信号とを比較することにより参照光が右眼用フィール
ド映像と左眼用フィールド映像のいずれが撮像されてい
る瞬間に参照光が照射されたかがわかる。The bright spot control unit 70 sends a signal to the field detection unit 36 simultaneously with the emission control of the projection type marker 27. Since the image signal from the signal processing device 14 is also supplied to the field detection unit 36, by comparing this signal with the signal from the bright spot control unit 70, the reference light is converted into the right-eye field image and the left-eye field image. It is possible to know which of the images is shot at the moment when the reference light is irradiated.
【0062】従って、右映像輝点検出部60および左映
像輝点検出部62において、参照光の情報を含む右眼用
フィールド映像信号と左眼用フィールド映像信号のみに
基づいて、輝点位置の演算を行えばよい。Therefore, the right image bright point detecting section 60 and the left image bright point detecting section 62 determine the bright spot position based on only the right eye field video signal and the left eye field video signal including the reference light information. An operation may be performed.
【0063】上述した2つの実施形態においては、説明
の簡略化の為にいずれのレンズ部も焦点距離が一定とし
て扱ってきたが、組み合わせレンズなどにより焦点距離
を変更できるズームレンズを使用する場合においても同
様の手段の適用が可能である。In the above two embodiments, for simplicity of description, all lens units have been treated as having a constant focal length. However, when a zoom lens whose focal length can be changed by a combination lens or the like is used. Also, the same means can be applied.
【0064】[0064]
【発明の効果】以上説明したように、本発明によれば、
機構が小型で簡便に構成され、複数の映像の視差の適正
化を図ることができ、これら映像相互間での寸法差およ
び垂直ずれが少ない立体像を観察できる立体カメラ装置
が実現できる。As described above, according to the present invention,
It is possible to realize a stereoscopic camera device that has a small and simple mechanism, can optimize the parallax of a plurality of videos, and can observe a stereoscopic image with little dimensional difference and vertical deviation between the videos.
【図1】本発明に係る立体カメラ装置の第1の実施形態
を示す図であって、立体カメラ装置の本体の構成を概略
的に示す断面図。FIG. 1 is a diagram illustrating a first embodiment of a stereoscopic camera device according to the present invention, and is a cross-sectional view schematically illustrating a configuration of a main body of the stereoscopic camera device.
【図2】本発明に係る立体カメラ装置の第1の実施形態
を示す図であって、立体カメラ装置の制御部およびこの
制御部と本体との関連を示すブロック図的構成図。FIG. 2 is a diagram illustrating a first embodiment of the stereoscopic camera device according to the present invention, and is a block diagram illustrating a control unit of the stereoscopic camera device and a relation between the control unit and a main body.
【図3】第1の実施形態において、反射鏡の回転角度の
設定方法を説明する図。FIG. 3 is a diagram illustrating a method of setting a rotation angle of a reflecting mirror in the first embodiment.
【図4】本発明に係る立体カメラ装置の第2の実施形態
を示す図。FIG. 4 is a view showing a second embodiment of the stereoscopic camera device according to the present invention.
【図5】第2の実施形態の変形例を示す図。FIG. 5 is a diagram showing a modification of the second embodiment.
【図6】従来の代表的な立体カメラ装置の概略構成を示
す図。FIG. 6 is a diagram showing a schematic configuration of a conventional typical stereoscopic camera device.
【図7】従来の立体カメラ装置の問題点を示す図。FIG. 7 is a diagram showing a problem of a conventional stereoscopic camera device.
11 結像用光学系(レンズ) 12 撮像素子 21 物体光合成手段(偏光ビームコンバイナ) 22 光学素子(反射鏡) 23 回転駆動機構 21c、24 偏光ビームコンバイナおよび波長板(偏
光フィルタ手段) 25 シャッタ手段(LCDシャッタ) 27 参照光投射手段(投写型マーカ) 30 合焦制御手段(合焦制御部) 34 物体距離演算手段(物体距離演算部) 38 倍率設定手段(拡大率設定部) 40 サイズ補正手段(映像拡大処理部) 42 視差演算手段(視差演算部) 44 回転角演算手段(反射鏡角演算部) 46 回転角制御手段(反射鏡駆動部)DESCRIPTION OF SYMBOLS 11 Imaging optical system (lens) 12 Image sensor 21 Object light combining means (polarized beam combiner) 22 Optical element (reflection mirror) 23 Rotation drive mechanism 21c, 24 Polarized beam combiner and wavelength plate (polarized filter means) 25 Shutter means ( LCD shutter) 27 Reference light projection means (projection type marker) 30 Focus control means (Focus control section) 34 Object distance calculation means (Object distance calculation section) 38 Magnification setting means (Enlargement ratio setting section) 40 Size correction means ( Image enlargement processing unit) 42 Parallax calculation unit (parallax calculation unit) 44 Rotation angle calculation unit (reflection mirror angle calculation unit) 46 Rotation angle control unit (reflection mirror drive unit)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP08685798AJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP08685798AJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device |
| Publication Number | Publication Date |
|---|---|
| JPH11285025Atrue JPH11285025A (en) | 1999-10-15 |
| JP3520197B2 JP3520197B2 (en) | 2004-04-19 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP08685798AExpired - Fee RelatedJP3520197B2 (en) | 1998-03-31 | 1998-03-31 | 3D camera device |
| Country | Link |
|---|---|
| JP (1) | JP3520197B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7535002B2 (en) | 2004-12-03 | 2009-05-19 | Fluke Corporation | Camera with visible light and infrared image blending |
| US7538326B2 (en) | 2004-12-03 | 2009-05-26 | Fluke Corporation | Visible light and IR combined image camera with a laser pointer |
| WO2012090257A1 (en)* | 2010-12-29 | 2012-07-05 | Olympus Visual Communications Corp. | 3-dimensional image capturing method |
| JP2012128096A (en)* | 2010-12-14 | 2012-07-05 | Konica Minolta Advanced Layers Inc | Stereo imaging device |
| US8531562B2 (en) | 2004-12-03 | 2013-09-10 | Fluke Corporation | Visible light and IR combined image camera with a laser pointer |
| CN114422775A (en)* | 2022-01-28 | 2022-04-29 | 上海瞳观智能科技有限公司 | Real-time three-dimensional image quality monitoring system and method based on programmable chip |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7535002B2 (en) | 2004-12-03 | 2009-05-19 | Fluke Corporation | Camera with visible light and infrared image blending |
| US7538326B2 (en) | 2004-12-03 | 2009-05-26 | Fluke Corporation | Visible light and IR combined image camera with a laser pointer |
| US7994480B2 (en) | 2004-12-03 | 2011-08-09 | Fluke Corporation | Visible light and IR combined image camera |
| US8466422B2 (en) | 2004-12-03 | 2013-06-18 | Fluke Corporation | Visible light and IR combined image camera |
| US8531562B2 (en) | 2004-12-03 | 2013-09-10 | Fluke Corporation | Visible light and IR combined image camera with a laser pointer |
| US9635282B2 (en) | 2004-12-03 | 2017-04-25 | Fluke Corporation | Visible light and IR combined image camera |
| US11032492B2 (en) | 2004-12-03 | 2021-06-08 | Fluke Corporation | Visible light and IR combined image camera |
| JP2012128096A (en)* | 2010-12-14 | 2012-07-05 | Konica Minolta Advanced Layers Inc | Stereo imaging device |
| WO2012090257A1 (en)* | 2010-12-29 | 2012-07-05 | Olympus Visual Communications Corp. | 3-dimensional image capturing method |
| JP2013546017A (en)* | 2010-12-29 | 2013-12-26 | オリンパスメモリーワークス株式会社 | Three-dimensional image capturing method |
| CN114422775A (en)* | 2022-01-28 | 2022-04-29 | 上海瞳观智能科技有限公司 | Real-time three-dimensional image quality monitoring system and method based on programmable chip |
| Publication number | Publication date |
|---|---|
| JP3520197B2 (en) | 2004-04-19 |
| Publication | Publication Date | Title |
|---|---|---|
| US6762794B1 (en) | Image pick-up apparatus for stereoscope | |
| JP3155876B2 (en) | Image display device and image capturing method used for image display device | |
| JP4635403B2 (en) | Stereoscopic image creation method and apparatus | |
| JP4131818B2 (en) | Single-axis stereoscopic video imaging device with optical axis alignment capability | |
| US20120176474A1 (en) | Rotational adjustment for stereo viewing | |
| JP2004524553A6 (en) | Single-axis stereoscopic video imaging device with optical axis alignment capability | |
| EP0744037B1 (en) | Image display apparatus | |
| KR100220888B1 (en) | Method for providing multiview 3-dimensional images using aperture and system therefor | |
| US8998426B2 (en) | Projection system | |
| JPH10224820A (en) | Compound eye camera device | |
| JP3520197B2 (en) | 3D camera device | |
| US20120176482A1 (en) | Alignment of stereo images pairs for viewing | |
| JP3444577B2 (en) | Display device | |
| JP5474530B2 (en) | Stereoscopic image display device | |
| JPH08205200A (en) | Three-dimensional image pickup device | |
| JPH0784326A (en) | Stereoscopic image capture image / display system | |
| JP2001016620A (en) | Imaging device, method of determining convergence distance thereof, storage medium, and optical device | |
| JP2000152282A (en) | 3D video camera | |
| JP2001016619A (en) | Imaging device, method of determining convergence distance thereof, storage medium, and optical device | |
| JPH11168755A (en) | 3D image pickup device | |
| JP2006284989A (en) | Optical adapter for taking stereoscopic picture | |
| JPH10336704A (en) | Compound eye camera device | |
| JP3454798B2 (en) | Setting method of head position detecting device in stereoscopic image display device and head position detecting device | |
| JPH03163993A (en) | Stereoscopic camera device | |
| JP2002084555A (en) | 3D image capturing device |
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20040127 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20040202 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20080206 Year of fee payment:4 | |
| FPAY | Renewal fee payment (prs date is renewal date of database) | Free format text:PAYMENT UNTIL: 20090206 Year of fee payment:5 | |
| LAPS | Cancellation because of no payment of annual fees |