Movatterモバイル変換


[0]ホーム

URL:


JP6056459B2 - Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program - Google Patents

Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
Download PDF

Info

Publication number
JP6056459B2
JP6056459B2JP2012282318AJP2012282318AJP6056459B2JP 6056459 B2JP6056459 B2JP 6056459B2JP 2012282318 AJP2012282318 AJP 2012282318AJP 2012282318 AJP2012282318 AJP 2012282318AJP 6056459 B2JP6056459 B2JP 6056459B2
Authority
JP
Japan
Prior art keywords
image
estimation data
depth estimation
depth
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012282318A
Other languages
Japanese (ja)
Other versions
JP2014127799A (en
Inventor
見上 豊繁
豊繁 見上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood CorpfiledCriticalJVCKenwood Corp
Priority to JP2012282318ApriorityCriticalpatent/JP6056459B2/en
Publication of JP2014127799ApublicationCriticalpatent/JP2014127799A/en
Application grantedgrantedCritical
Publication of JP6056459B2publicationCriticalpatent/JP6056459B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Landscapes

Description

Translated fromJapanese

本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない画像(非立体画像)から奥行き推定データを生成する、奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムに関する。  The present invention relates to a depth estimation data generation device and a pseudo stereoscopic image generation device that generate depth estimation data from an image (non-stereo image) to which depth information is not given explicitly or implicitly like a stereo image. The present invention relates to a depth estimation data generation method and a depth estimation data generation program.

立体表示システムにおいては、非立体画像の擬似立体視による鑑賞を可能にするために、通常の静止画もしくは動画、即ち立体を表すための奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない画像(非立体画像)から、擬似的な立体画像を生成する処理が行われる。このような技術の一例として、例えば特許文献1に開示された擬似立体画像生成装置がある。特許文献1記載の技術は、できる限り現実に近いシーン構造の決定を行うために、基本となる複数種類のシーン構造のそれぞれについて奥行き値を示す複数種類の基本奥行きモデルを用いて、画面上部の高域成分評価部と画面下部の高域成分評価部からの入力非立体画像の高域成分評価値に応じて合成比率を決定し、その合成比率に応じて複数種類の基本奥行きモデルを合成する。そして加算器において、合成した基本奥行きモデルと非立体画像のR信号とを重畳し、最終的な奥行き推定データを生成し、この奥行き推定データを元にした処理を非立体画像の画像信号に施すことで、立体感を感じさせる別視点画像の画像信号を生成している。  In a stereoscopic display system, a normal still image or moving image, that is, depth information for representing a stereoscopic image, is explicitly or implicitly like a stereo image in order to enable viewing of a non-stereo image by pseudo-stereoscopic vision. In addition, a process for generating a pseudo stereoscopic image from an image (non-stereoscopic image) that is not given in FIG. As an example of such a technique, there is a pseudo-stereoscopic image generation apparatus disclosed in Patent Document 1, for example. In order to determine a scene structure that is as realistic as possible, the technique described in Patent Document 1 uses a plurality of basic depth models that indicate depth values for each of a plurality of basic scene structures. The composition ratio is determined according to the high-frequency component evaluation value of the input non-stereo image from the high-frequency component evaluation unit and the high-frequency component evaluation unit at the bottom of the screen, and multiple types of basic depth models are synthesized according to the composition ratio . The adder superimposes the synthesized basic depth model and the R signal of the non-stereo image to generate final depth estimation data, and performs processing based on the depth estimation data on the image signal of the non-stereo image. Thus, an image signal of another viewpoint image that gives a three-dimensional feeling is generated.

特開2006−185033号公報JP 2006-185033 A

特許文献1の手法では、複数種類の基本奥行モデルを物理法則的な一般論、経験知、視覚心理的知見を用いて推定し生成している。しかし、コンピュータ・グラフィックスや画像に挿入されたテロップなどは、上記で用いている推定に当てはまらない事があり その推定結果から3D画像を生成すると違和感や破綻の多い画像となってしまう。このような画像の違和感や破綻を抑えるためには、全体の3D効果を弱める方向に設定しなくてはならない場合があり、更なる改善が望まれていた。  In the method of Patent Document 1, a plurality of types of basic depth models are estimated and generated using physical law general theory, empirical knowledge, and visual psychological knowledge. However, computer graphics and telops inserted into images may not be applied to the estimation used above, and if a 3D image is generated from the estimation results, the image will be uncomfortable or broken. In order to suppress such a sense of incongruity and failure of the image, it may be necessary to set the direction in which the overall 3D effect is weakened, and further improvement has been desired.

本発明は上記課題を鑑みてなされてもので、違和感が少なく破綻の目立たない2D3D変換が可能となる奥行き推定データを生成する、奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムを提供することを目的とする。  Although the present invention has been made in view of the above problems, a depth estimation data generation device, a pseudo-stereoscopic image generation device, and a depth estimation data generation method for generating depth estimation data capable of 2D3D conversion with less sense of incongruity and inconspicuous failure And a depth estimation data generation program.

上記の目的を達成するために本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成装置(10)であって、前記非立体画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成部(11,12,13,14,15,16,17,19)と、前記非立体画像がカメラで撮影した画像か否かを判定する判定部(21)と、前記判定部の判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第2加算部(22)とを備えたことを特徴とする奥行き推定データ生成装置を提供する。In order to achieve the above object, the present invention provides a depth estimation data generation apparatus (10) that generates depth estimation data from a non-stereoscopic image to which depth information is not given explicitly or implicitly like a stereo image. And a temporary depth estimation data generation unit (11, 12, 13, 14, 15, 16, 17, 19) for generating temporary depth estimation data based on the non-stereo image signal, and the non-stereo image A determination unit (21) that determines whether the image is captured by a camera, and a second addition unit (22) that adjusts the gain of the temporary depth estimation data according to the determination result of the determination unit to generate depth estimation data. And a depth estimation data generation apparatus characterized by comprising:

また、上記の目的を達成するために本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成方法であって、前記非立体画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成ステップと、前記非立体画像がカメラで撮影した画像か否かを判定する判定ステップと前記判定ステップの判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第2加算ステップとを有することを特徴とする奥行き推定データ生成方法を提供する。  In order to achieve the above object, the present invention provides a depth estimation data generation method for generating depth estimation data from a non-stereo image in which depth information is not given explicitly or implicitly like a stereo image. A temporary depth estimation data generation step for generating temporary depth estimation data based on the non-stereoscopic image signal, a determination step for determining whether the non-stereoscopic image is an image taken by a camera, and the determination step A depth estimation data generation method comprising: a second addition step of generating depth estimation data by adjusting a gain of the temporary depth estimation data according to a determination result.

また、上記の目的を達成するために本発明は、奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する機能をコンピュータに実現させる奥行き推定データ生成プログラムであって、前記非立体画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成処理と、前記非立体画像がカメラで撮影した画像か否かを判定する判定処理と、前記判定ステップの判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第2加算処理とを有することを特徴とする奥行き推定データ生成プログラムを提供する。  In order to achieve the above object, the present invention realizes a computer with a function of generating depth estimation data from a non-stereoscopic image to which depth information is not given explicitly or implicitly like a stereo image. A depth estimation data generation program for generating temporary depth estimation data generation processing for generating temporary depth estimation data based on the non-stereoscopic image signal, and a determination for determining whether the non-stereoscopic image is an image captured by a camera There is provided a depth estimation data generation program comprising: a process; and a second addition process for generating depth estimation data by adjusting a gain of the temporary depth estimation data according to a determination result of the determination step.

本発明によれば、違和感が少なく破綻の目立たない2D3D変換が可能となる奥行き推定データを生成する、奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラムを提供することができる。  According to the present invention, there is provided a depth estimation data generation device, a pseudo stereoscopic image generation device, a depth estimation data generation method, and a depth estimation data generation program that generate depth estimation data that enables 2D3D conversion with less sense of incongruity and inconspicuous failure. Can be provided.

擬似立体画像生成装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of a pseudo-stereoscopic image production | generation apparatus.基本奥行きモデルタイプ1の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 1. FIG.基本奥行きモデルタイプ2の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 2. FIG.基本奥行きモデルタイプ3の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of basic depth model type 3. FIG.基本奥行きモデル合成比率決定条件を説明する図である。It is a figure explaining the basic depth model synthetic | combination ratio determination conditions.ホワイトノイズ候補検出部の構成の一例を説明するための図である。It is a figure for demonstrating an example of a structure of a white noise candidate detection part.入力画像である。Input image.図7の画像の1フレーム前の画像である。8 is an image one frame before the image of FIG.差分信号を説明するための図である。It is a figure for demonstrating a difference signal.差分信号から微小信号を抜き出した信号である。This is a signal obtained by extracting a minute signal from the differential signal.差分信号を高域フィルタを通した後に閾値より大きい信号を抜き出した図である。It is the figure which extracted the signal larger than a threshold value, after passing a difference signal through a high-pass filter.図10と図11の信号の論理積を取った図である。It is the figure which took the logical product of the signal of FIG. 10 and FIG.ホワイトノイズ候補の判定方法の一例を説明するための図である。It is a figure for demonstrating an example of the determination method of a white noise candidate.

次に、本発明の実施の形態について図面と共に詳細に説明する。
図1に示すように、本実施の形態の擬似立体画像生成装置1は、奥行き推定データ生成部10と、別視点画像生成部50より構成される。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
As shown in FIG. 1, the pseudo-stereoscopic image generation apparatus 1 according to the present embodiment includes a depth estimation data generation unit 10 and another viewpoint image generation unit 50.

奥行き推定データ生成部10は、画像入力部11と、画面上部の高域成分評価部12と、画面下部の高域成分評価部13と、フレームメモリ14、15及び16と、合成部17と、第1加算部19と、ホワイトノイズ候補検出部20と、判定部21と、第2加算部22とを有し、奥行き推定データを生成する。また、画像入力部11と、画面上部の高域成分評価部12と、画面下部の高域成分評価部13と、フレームメモリ14、15及び16と、合成部17と、第1加算部19は本発明の仮奥行きデータ生成部として機能する。  The depth estimation data generation unit 10 includes an image input unit 11, a high-frequency component evaluation unit 12 at the top of the screen, a high-frequency component evaluation unit 13 at the bottom of the screen, frame memories 14, 15 and 16, a synthesis unit 17, It has the 1st addition part 19, the white noise candidate detection part 20, the determination part 21, and the 2nd addition part 22, and produces | generates depth estimation data. The image input unit 11, the high frequency component evaluation unit 12 at the top of the screen, the high frequency component evaluation unit 13 at the bottom of the screen, the frame memories 14, 15 and 16, the synthesis unit 17, and the first addition unit 19 It functions as a temporary depth data generation unit of the present invention.

画像入力部11は、フレームメモリを備えており、入力した非立体画像信号である1フレーム分の画像信号を一時記憶した後、その1フレーム分の画像信号を画面上部の高域成分評価部12、画面下部の高域成分評価部13、ホワイトノイズ候補検出部20にそれぞれ供給する。画像入力部11に入力される非立体画像信号は一視点の画像信号であり、ここでは一例として右目画像として表示されるべき右目用画像信号であるものとする。画像入力部に入力する画像の信号方式は問わない。  The image input unit 11 includes a frame memory. After temporarily storing an image signal for one frame that is an input non-stereo image signal, the image signal for the one frame is stored in a high-frequency component evaluation unit 12 at the top of the screen. , And supplied to the high frequency component evaluation unit 13 and the white noise candidate detection unit 20 at the bottom of the screen. The non-stereoscopic image signal input to the image input unit 11 is a one-viewpoint image signal, and here, as an example, is a right-eye image signal to be displayed as a right-eye image. The signal system of the image input to the image input unit is not limited.

画面上部の高域成分評価部12は、1フレーム分の右目用画像信号における画面の上部約20%にあたる領域内での高域成分を求めて、画面上部の高域成分評価値として算出する。そして、画面上部の高域成分評価部12は、画面上部の高域成分評価値を合成部17に供給する。画面下部の高域成分評価部13は、1フレーム分の右目用画像信号における画面の下部約20%領域内にあたる領域内での高域成分を求めて、画面下部の高域成分評価値として算出する。そして、画面下部の高域成分評価部13は、画面下部の高域成分評価値を合成部17に供給する。  The high frequency component evaluation unit 12 at the top of the screen obtains a high frequency component in an area corresponding to about 20% of the top of the image signal for the right eye for one frame, and calculates it as a high frequency component evaluation value at the top of the screen. Then, the high frequency component evaluation unit 12 at the top of the screen supplies the high frequency component evaluation value at the top of the screen to the synthesis unit 17. The high-frequency component evaluation unit 13 at the bottom of the screen obtains a high-frequency component in an area corresponding to the lower 20% region of the screen in the right-eye image signal for one frame, and calculates it as a high-frequency component evaluation value at the bottom of the screen. To do. Then, the high frequency component evaluation unit 13 at the bottom of the screen supplies the high frequency component evaluation value at the bottom of the screen to the synthesis unit 17.

一方、フレームメモリ14は基本奥行きモデルタイプ1、フレームメモリ15は基本奥行きモデルタイプ2、フレームメモリ16は基本奥行きモデルタイプ3の画像を予め格納している。これらの基本奥行きモデルタイプ1〜3の画像は、それぞれ非立体画像信号を基に奥行き推定データを生成して擬似立体画像信号を生成するための基本となるシーンの画像を示す。フレームメモリ14〜16は、本発明の基本となる複数のシーン構造のそれぞれについて奥行き値を示す複数の基本奥行きモデルを記憶する記憶部として機能する。  On the other hand, the frame memory 14 stores basic depth model type 1, the frame memory 15 stores basic depth model type 2, and the frame memory 16 stores basic depth model type 3 images in advance. The images of these basic depth model types 1 to 3 indicate scene images serving as a basis for generating pseudo stereoscopic image signals by generating depth estimation data based on non-stereo image signals, respectively. The frame memories 14 to 16 function as a storage unit that stores a plurality of basic depth models indicating depth values for each of a plurality of scene structures serving as a basis of the present invention.

上記の基本奥行きモデルタイプ1の画像は、球面状の凹面による奥行きモデルの画像で、図2に示すような立体構造の画像を示す。多くの場合に、この基本奥行きモデルタイプ1の画像が使用される。オブジェクトが存在しないシーンにおいては、画面中央を一番遠距離に設定することにより、違和感の少ない立体感及び快適な奥行き感が得られるからである。  The image of the basic depth model type 1 is a depth model image having a spherical concave surface, and an image having a three-dimensional structure as shown in FIG. In many cases, this basic depth model type 1 image is used. This is because, in a scene in which no object exists, setting the center of the screen to the farthest distance can provide a three-dimensional effect with less discomfort and a comfortable depth feeling.

また、上記の基本奥行きモデルタイプ2の画像は、基本奥行きモデルタイプ1の画像の上部を球面でなく、アーチ型の円筒面に置き換えたもので、図3に立体構造を示すような、上部を円筒面(軸は垂直方向)で下部を凹面(球面)としたモデルの画像である。  In addition, the above basic depth model type 2 image is obtained by replacing the upper part of the basic depth model type 1 image with an arch-shaped cylindrical surface instead of a spherical surface. It is an image of a model in which a cylindrical surface (axis is a vertical direction) and a lower surface is a concave surface (spherical surface).

更に、上記の基本奥行きモデルタイプ3の画像は、図4に立体構造を示すような、上部を平面とし、下部をその平面から連続し、下に行くほど手前側に向かう円筒面状としたもので、上部が平面、下部が円筒面(軸は水平方向)としたモデルの画像である。基本奥行きモデルタイプ発生手段を構成するフレームメモリ14〜16に格納されている、これら基本奥行きモデルタイプ1〜3の画像は、合成部17へ供給される。  Furthermore, the basic depth model type 3 image is a cylindrical surface that has a three-dimensional structure as shown in FIG. 4, with the upper part being a plane, the lower part being continuous from the plane, and going down toward the front. The upper part is a plane image and the lower part is a cylindrical surface (the axis is the horizontal direction). The images of the basic depth model types 1 to 3 stored in the frame memories 14 to 16 constituting the basic depth model type generating unit are supplied to the synthesis unit 17.

合成部17は、まず、画面上部の高域成分評価部12から供給された画面上部の高域成分評価値と、画面下部の高域成分評価部13から供給された画面下部の高域成分評価値とに基づいて、画像のシーンを考慮することなく、予め定められた方法により、基本奥行きモデルタイプ1の合成比率k1、基本奥行きモデルタイプ2の合成比率k2、基本奥行きモデルタイプ3の合成比率k3を算定する。なお、3つの合成比率k1〜k3の合計値は常に「1」である。  The synthesizing unit 17 firstly evaluates the high frequency component at the top of the screen supplied from the high frequency component evaluation unit 12 at the top of the screen and the high frequency component at the bottom of the screen supplied from the high frequency component evaluation unit 13 at the bottom of the screen. Based on the value, the composition ratio k1 of the basic depth model type 1, the composition ratio k2 of the basic depth model type 2, and the composition ratio of the basic depth model type 3 by a predetermined method without considering the scene of the image Calculate k3. The total value of the three synthesis ratios k1 to k3 is always “1”.

図5は、合成比率の決定条件の一例を示す。図5は、横軸に示す画面上部の高域成分評価値(以下、上部の高域成分評価値と略す)と、縦軸に示す画面下部の高域成分評価値(以下、下部の高域成分評価値と略す)の各値と、予め指定された値tps、tpl、bms、bmlとの兼ね合いにより合成比率が決定されることを示す。この合成比率の決定条件は一例であり、これに限定されるものではない。  FIG. 5 shows an example of conditions for determining the composition ratio. FIG. 5 shows a high-frequency component evaluation value at the top of the screen indicated by the horizontal axis (hereinafter abbreviated as the high-frequency component evaluation value at the top) and a high-frequency component evaluation value at the bottom of the screen indicated by the vertical axis (hereinafter, the high frequency component at the bottom). It is shown that the composition ratio is determined based on the balance between each value of the component evaluation value (abbreviated as component evaluation value) and the predesignated values tps, tpl, bms, and bml. The condition for determining the composition ratio is an example, and the present invention is not limited to this.

図5において、複数のタイプが記載されている領域については、高域成分評価値に応じて線形に合成される。例えば、図5において、「type1/2」の領域では、下記のように(上部の高域成分評価値)と(下部の高域成分評価値)との比率で基本奥行きモデルタイプ1の値であるType1と基本奥行きモデルタイプ2の値であるType2の比率が決定され、基本奥行きモデルタイプ3の値であるtype3は比率の決定には用いられない。  In FIG. 5, regions where a plurality of types are described are synthesized linearly according to the high frequency component evaluation value. For example, in the region of “type 1/2” in FIG. 5, the value of the basic depth model type 1 is the ratio of (upper high-frequency component evaluation value) and (lower high-frequency component evaluation value) as follows. A ratio between Type 1 and Type 2 which is a value of basic depth model type 2 is determined, and Type 3 which is a value of basic depth model type 3 is not used for determining the ratio.

Type1:Type2:Type3
=(上部の高域成分評価値−tps):(tpl−上部の高域成分評価値):0
また、図5において、「Type1/2/3」の領域では、Type1/2とType1/3との平均を採用して、下記のようにType1/2/3の値が決定される。
Type1: Type2: Type3
= (Upper high-frequency component evaluation value-tps): (tpl-Upper high-frequency component evaluation value): 0
In FIG. 5, in the “Type 1/2/3” region, the average of Type 1/2 and Type 1/3 is adopted, and the value of Type 1/2/3 is determined as follows.

Type1:Type2:Type3
=(上部の高域成分評価値−tps)+(下部の高域成分評価値−bms):(tpl−上部の高域成分評価値):(bml−下部の高域成分評価値)
なお、合成比率k1、k2、k3は次式で算出される。
Type1: Type2: Type3
= (Upper high-frequency component evaluation value-tps) + (Lower high-frequency component evaluation value-bms): (tpl-Upper high-frequency component evaluation value): (bml-Lower high-frequency component evaluation value)
The synthesis ratios k1, k2, and k3 are calculated by the following equations.

k1=Type1/(Type1+Type2+Type3)
k2=Type2/(Type1+Type2+Type3)
k3=Type3/(Type1+Type2+Type3)
合成部17は、続いて、上記のように算出した合成比率k1〜k3が示す比率で、基本奥行きモデルタイプ1〜3の画像を合成して、背景を構成する曲面の奥行きデータ(以下、合成奥行きデータともいう)を生成する。合成部17は、本発明の算定部および合成部として機能する。
第一加算部19は、合成部17から供給される合成奥行きデータと、画像入力部11から供給される画像信号のR信号成分とを加算して仮奥行き推定データを生成する。
k1 = Type1 / (Type1 + Type2 + Type3)
k2 = Type2 / (Type1 + Type2 + Type3)
k3 = Type3 / (Type1 + Type2 + Type3)
Subsequently, the combining unit 17 combines the images of the basic depth model types 1 to 3 at the ratio indicated by the combining ratios k1 to k3 calculated as described above, and calculates the depth data of the curved surface constituting the background (hereinafter referred to as combining). (Also referred to as depth data). The synthesis unit 17 functions as a calculation unit and a synthesis unit of the present invention.
The first adding unit 19 adds the combined depth data supplied from the combining unit 17 and the R signal component of the image signal supplied from the image input unit 11 to generate temporary depth estimation data.

R信号成分を使用する理由の一つは、順光に近い環境で、かつ、テクスチャの明るさの度合い(明度)の変化が大きくない条件下で、R信号成分の大きさが原画像の凹凸と一致する確率が高いという経験則による。すなわち、このR信号成分は、入力非立体画像の原画像の凹凸に略対応した信号レベルを示す信号成分である。なお、テクスチャとは、画像を構成する要素であり、単一の画素もしくは画素群で構成される。
また、R信号成分を使用するもう一つの理由として、赤色及び暖色は色彩学における前進色であり、寒色系よりも奥行きが手前に認識されるという特徴があり、この奥行きを手前に配置することで立体感を強調することが可能であるということである。
One of the reasons for using the R signal component is that the size of the R signal component is uneven in the original image in an environment that is close to direct light and in which the change in the brightness level (brightness) of the texture is not large. According to the rule of thumb that there is a high probability of matching. That is, this R signal component is a signal component indicating a signal level substantially corresponding to the unevenness of the original image of the input non-stereo image. Note that a texture is an element constituting an image, and is composed of a single pixel or a group of pixels.
Another reason for using the R signal component is that red and warm colors are advanced colors in chromaticity, and the depth is recognized in front of the cold color system. It is possible to emphasize the stereoscopic effect.

本実施形態で説明した仮奥行き推定データ生成の流れは一例であり、これに限定されるものではない。例えば入力画像によってはR成分を加算することを省略しても効果的な仮奥行き推定データが得られる場合がある。また、画像全体が人物のアップの場合等は、合成奥行きモデル生成を省略して、入力画像のR成分のみから、有効な仮奥行き推定データを生成することも可能である。  The flow of provisional depth estimation data generation described in the present embodiment is an example, and the present invention is not limited to this. For example, depending on the input image, effective provisional depth estimation data may be obtained even if the addition of the R component is omitted. Also, when the entire image is a person up, it is possible to omit the synthetic depth model generation and generate effective temporary depth estimation data only from the R component of the input image.

ホワイトノイズ候補検出部20は、画像に含まれるホワイトノイズ候補を検出する。図6にホワイトノイズ候補検出部20の構成例を示す。ホワイトノイズ候補検出部20は、フレームメモリ31、減算器32、ノイズレベル比較部33、高域フィルタ34、高域成分検出部35、論理積部36から構成される。  The white noise candidate detection unit 20 detects white noise candidates included in the image. FIG. 6 shows a configuration example of the white noise candidate detection unit 20. The white noise candidate detection unit 20 includes a frame memory 31, a subtractor 32, a noise level comparison unit 33, a high-pass filter 34, a high-frequency component detection unit 35, and a logical product unit 36.

フレームメモリ31は、ホワイトノイズ候補検出部20に入力した画像信号を1フレーム分遅延させる。減算器32は、現フレームの画像信号から1フレーム遅延した画像信号を減算し、差分の絶対値を差分信号として出力する。
ホワイトノイズ自体は微小な信号であるため、ノイズレベル比較部33では、減算器32から受け取った差分信号の値を所定の閾値と比較し、閾値より小さい値の信号のみを出力する。この時比較する値は、R,G,Bのいずれかの信号レベルでも良いし、R,G,Bの2つ以上の信号レベルの組み合わせから算出した値でも良い。また、閾値は設計値として任意に設定可能である。
The frame memory 31 delays the image signal input to the white noise candidate detection unit 20 by one frame. The subtracter 32 subtracts the image signal delayed by one frame from the image signal of the current frame, and outputs the absolute value of the difference as a difference signal.
Since the white noise itself is a minute signal, the noise level comparison unit 33 compares the value of the difference signal received from the subtractor 32 with a predetermined threshold value and outputs only a signal having a value smaller than the threshold value. The value to be compared at this time may be a signal level of any one of R, G, and B, or may be a value calculated from a combination of two or more signal levels of R, G, and B. The threshold can be arbitrarily set as a design value.

ホワイトノイズが広い空間周波数帯域を持つのに対し、動画像自体の変化は、極小の画素のみ変化することは少なく、その周囲と共に変化することがほとんどである。このため高域フィルタ34により動画像自体の変化による成分を減衰させて高域成分を抽出する。高域成分検出部35では高域フィルタ34で抽出した高域成分信号を検出し、信号の値が所定の閾値以上となる信号成分を検出する。この時比較する値は、R,G,Bのいずれかの信号レベルでも良いし、R,G,Bの2つ以上の信号レベルの組み合わせから算出した値でも良い。また、閾値は設計値として任意に設定可能である。論理積部36は、ノイズレベル比較器33から受け取った信号と高域成分検出部35から受け取った信号の論理積を取り、ホワイトノイズ候補信号として出力する。  While white noise has a wide spatial frequency band, the change of the moving image itself rarely changes only for a very small pixel, and almost always changes with its surroundings. For this reason, the high-pass filter 34 extracts the high-frequency component by attenuating the component due to the change of the moving image itself. The high frequency component detector 35 detects the high frequency component signal extracted by the high frequency filter 34 and detects a signal component whose signal value is equal to or greater than a predetermined threshold value. The value to be compared at this time may be a signal level of any one of R, G, and B, or may be a value calculated from a combination of two or more signal levels of R, G, and B. The threshold can be arbitrarily set as a design value. The logical product unit 36 calculates the logical product of the signal received from the noise level comparator 33 and the signal received from the high frequency component detection unit 35 and outputs the logical product as a white noise candidate signal.

判定部21は、ホワイトノイズ候補信号の画面内での偏り度合いを判定し、ホワイトノイズであるか否かを判定する。カメラで撮影された画像は、撮像素子の熱電子の影響やAD変換器の変換誤差などにより、画像全体にランダムで微小なノイズ(ホワイトノイズ)を含んでいる。一方、CGなど最初からデジタル信号処理された画像は、意図して挿入されない限りこのようなノイズ成分を含んでいない。第2加算部22は、判定部21の判定結果に基づき、ホワイトノイズが無いと判定された画像領域について、第1加算部19から受け取った仮奥行き推定データの奥行きデータのゲインを下げ、奥行き推定データとして、別視点画像生成部50に出力する。  The determination unit 21 determines the degree of bias of the white noise candidate signal in the screen and determines whether or not it is white noise. An image photographed by the camera contains random and minute noise (white noise) in the entire image due to the influence of thermoelectrons of the image sensor or the conversion error of the AD converter. On the other hand, an image digitally processed from the beginning, such as CG, does not contain such a noise component unless it is intentionally inserted. The second addition unit 22 lowers the gain of the depth data of the temporary depth estimation data received from the first addition unit 19 for the image area determined to have no white noise based on the determination result of the determination unit 21, and performs depth estimation. The data is output to the different viewpoint image generation unit 50 as data.

ホワイトノイズ検出処理の流れを、図7から図13を使って説明する。図7から図13は、2種類の入力画像に対する各処理工程に於ける処理状態を比較した図であり、各図で(a)は入力画像がCG画像であった場合の処理状態を示し、(b)は入力画像がCG画像に対してカメラでの撮影時と同様のノイズ成分を付加した画像であった場合の処理状態を示す。  The flow of white noise detection processing will be described with reference to FIGS. FIG. 7 to FIG. 13 are diagrams comparing processing states in each processing step for two types of input images. In each figure, (a) shows a processing state when the input image is a CG image. (B) shows a processing state when the input image is an image in which a noise component similar to that at the time of photographing with the camera is added to the CG image.

図7は入力画像を示し、図8は入力画像をフレームメモリ31で1フレーム分遅延させた画像を示す。すなわち、図8の画像は、図7の画像の1フレーム前の画像である。図9は、図7の画像と図8の画像の差分の絶対値をとった差分信号による画像である。図10は、減算器32から出力された差分信号からノイズレベル比較部33にて閾値より小さい値の信号を抜き出し、2値化した信号画像である。図11は、減算器32から出力された差分信号を広域フィルタ34に通し、更に、閾値以上の値となる信号を抜き出して2値化した信号画像である。  FIG. 7 shows an input image, and FIG. 8 shows an image obtained by delaying the input image by one frame in the frame memory 31. That is, the image of FIG. 8 is an image one frame before the image of FIG. FIG. 9 is an image based on a difference signal obtained by taking the absolute value of the difference between the image of FIG. 7 and the image of FIG. FIG. 10 is a signal image obtained by extracting a signal having a value smaller than the threshold value from the difference signal output from the subtractor 32 and binarizing the extracted signal. FIG. 11 is a signal image obtained by passing the difference signal output from the subtractor 32 through the wide-area filter 34 and extracting a signal having a value equal to or greater than the threshold value and binarizing it.

図12は、ノイズレベル比較部33から出力された信号と、高域成分比較部35から出力された信号に対し、論理積部36で論理積を取った信号画像であり、この論理積信号がホワイトノイズ候補信号となる。図12から判るように、(a)のCG画像では、ホワイトノイズ候補は少なく、また特定の場所に偏っている。一方CG画像にカメラでの撮影時と同様のノイズ成分を付加した(b)の画像では、ホワイトノイズ候補が多く、また画像全体に分散している。判定部21では、ホワイトノイズ候補の量と、画面内での分散度合いから、ホワイトノイズの有無を判定する。  FIG. 12 is a signal image obtained by ANDing the signal output from the noise level comparison unit 33 and the signal output from the high frequency component comparison unit 35 by the logical product unit 36. White noise candidate signal. As can be seen from FIG. 12, in the CG image of (a), there are few white noise candidates and they are biased to specific places. On the other hand, in the image of (b) in which a noise component similar to that at the time of shooting with the camera is added to the CG image, there are many white noise candidates and are dispersed throughout the image. The determination unit 21 determines the presence or absence of white noise from the amount of white noise candidates and the degree of dispersion in the screen.

ホワイトノイズ判定動作の一例を説明する。判定部21では、ホワイトノイズ候補検出部20から受け取ったホワイトノイズ候補信号画像を図13の(a)、(b)のように、格子状のエリアに分割し、その分割されたエリア毎にホワイトノイズ候補の量をカウントし、その平均値と分散値を求める。図13(c)は図13(a)のホワイトノイズ候補信号に対し、格子状のエリアに分割したエリア毎にホワイトノイズ候補の量をカウントし、その平均値と分散値を求めた例であり、平均値は3.20、分散値は8.25と算出されている。図13(d)は図13(b)のホワイトノイズ候補信号に対し、格子状のエリアに分割したエリア毎にホワイトノイズ候補の量をカウントし、その平均値と分散値を求めた例であり、平均値は9.05、分散値は3.72と算出されている。  An example of the white noise determination operation will be described. The determination unit 21 divides the white noise candidate signal image received from the white noise candidate detection unit 20 into grid-like areas as shown in FIGS. 13A and 13B, and whites each divided area. The amount of noise candidates is counted, and an average value and a variance value are obtained. FIG. 13C is an example in which the amount of white noise candidates is counted for each area divided into grid-like areas and the average value and the variance value are obtained with respect to the white noise candidate signal of FIG. The average value is calculated to be 3.20, and the variance value is calculated to be 8.25. FIG. 13D is an example in which the amount of white noise candidates is counted for each area divided into grid-like areas and the average value and the variance value are obtained with respect to the white noise candidate signal of FIG. The average value is calculated as 9.05, and the variance value is calculated as 3.72.

判定部21は、ホワイトノイズ候補の量の平均値が所定の閾値より少ないか、または分散値が所定の閾値より大きい場合、カメラによる実写画像ではないと判定する。この時、平均値の閾値および分散値の閾値は設計値として任意に設定可能である。また、ほぼエリア全体にホワイトノイズが存在しているが、特定のエリアにのみ極端にホワイトノイズ候補が少ない場合、カメラによる実写画像にテロップ領域が存在すると判定する。例えば、図13(d)において、ホワイトノイズ候補の平均値は9.05と大きいので、この画像全体はカメラによる実写画像と判定する。しかし、分割された画像内の領域によっては、ホワイトノイズ候補の数が0や1のように極端に少ない領域が存在する。この時、ホワイトノイズ候補が極端に少ない領域をテロップ領域と判定する。  When the average value of the amount of white noise candidates is smaller than a predetermined threshold value or the variance value is larger than the predetermined threshold value, the determination unit 21 determines that the image is not a real image taken by the camera. At this time, the threshold value of the average value and the threshold value of the dispersion value can be arbitrarily set as design values. If white noise is present in almost the entire area, but there are extremely few white noise candidates only in a specific area, it is determined that a telop area is present in a real image taken by the camera. For example, in FIG. 13D, since the average value of white noise candidates is as large as 9.05, the entire image is determined to be a real image taken by the camera. However, depending on the region in the divided image, there are regions where the number of white noise candidates is extremely small, such as 0 or 1. At this time, an area with extremely few white noise candidates is determined as a telop area.

第2加算部22は、判定部21の判定結果に基づき、カメラによる実写画像ではないと判定された場合、第1の加算部19から受け取った仮奥行き推定データに対し、画像全体の奥行きデータのゲインを下げ、奥行き推定データとして出力する。また、カメラによる実写画像にテロップ領域が存在すると判定された場合、第1の加算部19から受け取った仮奥行き推定データに対し、テロップ領域と判定された領域のみ、奥行きデータのゲインを下げて、奥行き推定データとして出力する。  Based on the determination result of the determination unit 21, the second addition unit 22 determines the depth data of the entire image with respect to the temporary depth estimation data received from the first addition unit 19 when it is determined that the image is not a real image captured by the camera. The gain is lowered and output as depth estimation data. Further, when it is determined that a telop area exists in the actual image taken by the camera, the gain of the depth data is reduced only for the area determined as the telop area with respect to the temporary depth estimation data received from the first addition unit 19. Output as depth estimation data.

以上の処理により、CG画やメニュー表示等の様にデジタル的に作成された画像に対し、奥行きデータのゲインを下げ、より適切な2D3D変換を行える奥行き推定データを生成することができる。  Through the above processing, it is possible to generate depth estimation data that can reduce the gain of depth data and perform more appropriate 2D3D conversion on images digitally created such as CG images and menu displays.

奥行き推定データ生成部10により生成した奥行き推定データを基に、別視点の画像を生成することが可能になる。例えば、左に視点移動する場合、画面より手前に表示するものについては、近い物ほど画像を見る者の内側(鼻側) に見えるので、内側すなわち右に対応部分のテクスチャを奥行きに応じた量だけ移動する。
画面より奥に表示するものについては、近い物ほど画像を見る者の外側に見えるので、左に対応部分のテクスチャを奥行きに応じた量だけ移動する。これを左目画像、原画を右目画像とすることでステレオペアが構成される。
Based on the depth estimation data generated by the depth estimation data generation unit 10, an image of another viewpoint can be generated. For example, when moving the viewpoint to the left, for objects that are displayed in front of the screen, the closer the object, the closer to the viewer (in the nose side), the more visible the texture of the corresponding part on the inside, that is, on the right. Just move.
As for objects to be displayed at the back of the screen, the closer the object is to the outside of the viewer, the corresponding texture is moved to the left by an amount corresponding to the depth. A stereo pair is formed by using this as the left-eye image and the original image as the right-eye image.

図1に戻り、別視点画像生成部50について説明する。
別視点画像生成部50は、テクスチャシフト部51、オクルージョン補償部52、ポスト処理部53で構成され、ステレオペア画像として左目画像54および右目画像55を出力する。テクスチャシフト部51は、奥行き推定データ生成部10から受け取った奥行き推定データに応じた量だけ右目画像のテクスチャシフトを行い、右目視点とは別視点の画像を生成する。
Returning to FIG. 1, the different viewpoint image generation unit 50 will be described.
The different viewpoint image generation unit 50 includes a texture shift unit 51, an occlusion compensation unit 52, and a post processing unit 53, and outputs a left eye image 54 and a right eye image 55 as stereo pair images. The texture shift unit 51 performs texture shift of the right eye image by an amount corresponding to the depth estimation data received from the depth estimation data generation unit 10, and generates an image of a viewpoint different from the right eye viewpoint.

テクスチャシフトを行うことによる画像中の位置関係変化によりテクスチャの存在しない部分すなわちオクルージョンが発生する場合がある。このような部分については、オクルージョン補償部52において、入力画像 の対応部分で充填する、若しくは公知の文献( 山田邦男, 望月研二, 相澤清晴, 齊藤隆弘: ” 領域競合法により分割された画像のテクスチャの統計量に基づくオクルージョン補償" , 映情学誌, Vol.56,No.5,pp.863〜866(2002.5)) に記載の手法で充填する。
オクルージョン補償部52でオクルージョン補償した画像は、ポスト処理部53により、平滑化などのポスト処理を施すことにより、それ以前の処理において発生したノイズなどを軽減することによって左目画像54を生成し、入力画像を右目画像55とすることによりステレオペアが構成される。これらの左目画像54と右目画像55とは、ステレオ表示装置2へと出力される。
A portion where there is no texture, that is, occlusion may occur due to a change in the positional relationship in the image due to texture shift. For such a part, the occlusion compensation unit 52 fills in the corresponding part of the input image, or a well-known document (Kunio Yamada, Kenji Mochizuki, Kiyoharu Aizawa, Takahiro Saito: “Image texture divided by the region competition method” Occlusion compensation based on the statistic of ”, Eiji Jakugaku, Vol. 56, No. 5, pp. 863-866 (2002.5)).
The image subjected to occlusion compensation by the occlusion compensation unit 52 is subjected to post-processing such as smoothing by the post-processing unit 53, thereby generating a left-eye image 54 by reducing noise generated in the previous processing, A stereo pair is formed by using the right eye image 55 as the image. These left eye image 54 and right eye image 55 are output to the stereo display device 2.

なおステレオペア画像の生成に関しては、左右反転することで左目画像を原画とし、右目画像を別視点画像として生成してもよい。
また、上記処理においては、右目画像もしくは左目画像のどちらかを入力画像、他方を生成された別視点画像とするようなステレオペア画像を構成しているが、左右どちらについても別視点画像を用いる、すなわち、右に視点移動した別視点画像と左に視点移動した別視点画像を用いてステレオペア画像を構成することも可能である。
なお、本実施形態では別視点画像生成部として2視点での例を説明しているが、2視点以上の表示が可能な表示装置にて表示する場合、その視点数に応じた数の別視点画像を生成する複数視点画像生成装置を構成することも可能である。
Regarding the generation of the stereo pair image, the left-eye image may be generated as an original image and the right-eye image may be generated as a different viewpoint image by reversing left and right.
In the above processing, a stereo pair image is formed in which either the right-eye image or the left-eye image is used as the input image and the other is generated as another viewpoint image. That is, it is also possible to configure a stereo pair image using another viewpoint image moved to the right and another viewpoint image moved to the left.
In this embodiment, an example with two viewpoints is described as the different viewpoint image generation unit. However, when displaying on a display device capable of displaying two or more viewpoints, the number of different viewpoints according to the number of viewpoints is displayed. It is also possible to configure a multi-viewpoint image generation device that generates an image.

上記のステレオ表示装置2は、偏光メガネを用いたプロジェクションシステム、時分割表示と液晶シャッタメガネを組み合わせたプロジェクションシステム若しくはディスプレイシステム、レンチキュラ方式のステレオディスプレイ、アナグリフ方式のステレオディスプレイ、ヘッドマウントディスプレイなどを含む。
また、上記のように2視点以上の表示が可能な表示装置を用いた多視点立体画像表示システムの構築も可能である。また、本立体表示システムにおいては音声出力を装備する形態のものも考えられる。この場合、静止画等音声情報を持たない画像コンテンツについては、画像にふさわしい環境音を付加するような態様のものが考えられる。
The stereo display device 2 includes a projection system using polarized glasses, a projection system or display system combining time-division display and liquid crystal shutter glasses, a lenticular stereo display, an anaglyph stereo display, a head mounted display, and the like. .
In addition, as described above, it is possible to construct a multi-viewpoint stereoscopic image display system using a display device that can display two or more viewpoints. Further, the present stereoscopic display system may be configured to be equipped with an audio output. In this case, for image content that does not have audio information, such as still images, an aspect in which an environmental sound suitable for an image is added can be considered.

なお、本発明は、ハードウェアにより図1の構成の奥行きデータ生成部、ステレオペア生成部を構成する場合に限定されるものではなく、コンピュータプログラムによるソフトウェアにより実現することもできる。この場合、コンピュータプログラムは、記録媒体からコンピュータに取り込まれてもよいし、ネットワーク経由でコンピュータに取り込まれてもよい。  Note that the present invention is not limited to the case where the depth data generation unit and the stereo pair generation unit configured as shown in FIG. 1 are configured by hardware, and can also be realized by software using a computer program. In this case, the computer program may be taken into the computer from a recording medium or may be taken into the computer via a network.

1 擬似立体画像生成装置
10 奥行き推定データ生成部、11 画像入力部
12 画面上部の高域成分評価部、13 画面下部の高域成分評価部
14、15、16 フレームメモリ、17 合成部、19 第1加算部
20 ホワイトノイズ候補検出部、21 判定部、22 第2加算部
31 フレームメモリ、32 減算部、33 ノイズレベル比較部
34 高域フィルタ、35 高域成分検出部、36 論理積部
50 別視点画像生成部、51 テクスチャシフト部
52 オクルージョン補償部、53 ポスト処理部
DESCRIPTION OF SYMBOLS 1 Pseudo three-dimensional image production | generation apparatus 10 Depth estimation data production | generation part, 11 Image input part 12 High frequency component evaluation part of the screen upper part, 13 High frequency component evaluation part 14, 15, and 16 frame lower part of a screen 1 addition unit 20 white noise candidate detection unit, 21 determination unit, 22 second addition unit 31 frame memory, 32 subtraction unit, 33 noise level comparison unit 34 high pass filter, 35 high pass component detection unit, 36 logical product unit 50 Viewpoint image generation unit, 51 Texture shift unit 52 Occlusion compensation unit, 53 Post processing unit

Claims (8)

Translated fromJapanese
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成装置であって、
前記非立体画像の画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成部と、
前記非立体画像がカメラで撮影した画像か否かを判定する判定部と、
前記判定部の判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第加算部と
を備えたことを特徴とする奥行き推定データ生成装置。
A depth estimation data generation device that generates depth estimation data from a non-stereo image that is not given depth information explicitly or implicitly like a stereo image,
A temporary depth estimation data generation unit that generates temporary depth estimation data based onthe image signal of the non-stereo image;
A determination unit that determines whether the non-stereo image is an image captured by a camera;
Afirst addition unit configured to generate depth estimation data by adjusting a gain of the temporary depth estimation data according to a determination result of the determination unit;
A depth estimation data generation device characterized by comprising:
前記非立体画像からホワイトノイズ候補を検出するホワイトノイズ候補検出部を更に備え、
前記判定部は、前記ホワイトノイズ候補の画面内の偏り度合いによって前記非立体画像がカメラで撮影した画像か否かを判定することを特徴とする
請求項1記載の奥行き推定データ生成装置。
A white noise candidate detection unit for detecting a white noise candidate from the non-stereo image;
The depth estimation data generation device according to claim 1, wherein the determination unit determines whether the non-stereo image is an image captured by a camera based on a degree of bias in the screen of the white noise candidate.
前記判定部が前記非立体画像をカメラで撮影した画像でないと判定した場合、
前記第1加算部は、前記奥行き推定データのゲインを小さくすることを特徴とする
請求項1または2に記載の奥行き推定データ生成装置。
When the determination unit determines that the non-stereo image is not an image captured by a camera,
It saidfirst pressure calculation unit, depth estimation data generating apparatus according to claim 1 or 2, characterized in that to reduce the gain of thetemporary depthestimation data.
前記判定部は、前記ホワイトノイズ候補が前記非立体画像全体に存在した状態で、特定の領域で極端にホワイトノイズ候補が少ない場合、この領域をテロップ領域と判定し、
前記第1加算部は、前記判定部がテロップ領域と判定した領域の奥行き推定データのゲインを小さくすることを特徴とする
請求項2に記載の奥行き推定データ生成装置。
In the state where the white noise candidates are present in the entire non-stereo image and the number of white noise candidates is extremely small in a specific region, the determination unit determines this region as a telop region,
It saidfirst pressure calculation section, the depth estimation data generating apparatus according toclaim 2, wherein the determination unit to reduce the gain of theprovisional depth estimation data in the area where it is determined that telop area.
前記仮奥行き推定データ生成部は、
基本となる複数のシーン構造のそれぞれについて奥行き値を示す複数の基本奥行きモデルを記憶する記憶部と、
前記非立体画像のシーン構造を推定するために、前記非立体画像の画面内の所定領域における画素値統計量を利用して、前記複数の基本奥行きモデル間の合成比率を算定する算定部と、
前記記憶部から読み出した前記複数の基本奥行きモデルを、前記算定部にて算定した合成比率に基づいて合成し、合成奥行きデータを生成する合成部と、
前記非立体画像の画像信号の所定の信号成分を前記合成奥行きデータに加算して前記仮奥行きデータを生成する第加算部と
を有することを特徴とする請求項1から4のいずれかに記載の奥行きデータ生成装置。
The temporary depthestimation data generation unit
A storage unit for storing a plurality of basic depth models indicating depth values for each of a plurality of basic scene structures;
A calculation unit that calculates a synthesis ratio between the plurality of basic depth models usinga statistic of a pixel value in a predetermined region in a screen of the non-stereo image in order to estimate a scene structure of the non-stereo image; ,
Combining the plurality ofbasic depth models read from the storage unit based on the combination ratio calculated by the calculation unit, and generating combined depth data;
Asecond addition unit that generates the provisional depth data by adding a predetermined signal componentof the image signal of the non-stereo image tothe combined depth data;
The depth data generation device according to claim 1, wherein
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられておらず、非立体画像から擬似立体動画像を生成する擬似立体画像生成装置であって、
請求項1から5のいずれか1項に記載の奥行き推定データ生成装置から供給する前記奥行推定データに応じて前記非立体画像のテクスチャのシフトを対応部分の奥行きに応じた量だけ行うことによって左目用画像および/または右目用画像となる別視点画像を生成する別視点画像生成部を備え、
前記別視点画像生成部により生成した別視点画像と、前記非立体画像との一方を左目用画像とし、他方を右目用画像として出力することを特徴とする擬似立体画像生成装置。
Depth information is not given explicitly or implicitly like a stereo image, and is a pseudo stereoscopic image generating device that generates a pseudo stereoscopic moving image from a non-stereo image,
By performing by an amount corresponding to the depth of the corresponding portion of the shift of the texture of the non-3D image in accordance with thedepth-out estimation data supplied from the depth estimation data generating apparatus according to any one of claims 1 5 A different viewpoint image generation unit that generates another viewpoint image to be a left eye image and / or a right eye image;
One of the different viewpoint images generated by the different viewpoint image generation unit and the non-stereo image is output as a left-eye image, and the other is output as a right-eye image.
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する奥行き推定データ生成方法であって、
前記非立体画像の画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成ステップと、
前記非立体画像がカメラで撮影した画像か否かを判定する判定ステップと、
前記判定ステップの判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第加算ステップと
含むことを特徴とする奥行き推定データ生成方法。
A depth estimation data generation method for generating depth estimation data from a non-stereo image in which depth information is not given explicitly or implicitly like a stereo image,
A temporary depth estimation data generation step for generating temporary depth estimation data based onthe image signal of the non-stereo image;
A determination step of determining whether the non-stereoscopic image is an image captured by a camera;
Afirst addition step of generating depth estimation data by adjusting the gain of the temporary depth estimation data according to the determination result of the determination step;
Depth estimation data generating method,which comprises a.
奥行き情報が明示的にも又はステレオ画像のように暗示的にも与えられていない非立体画像から奥行き推定データを生成する機能をコンピュータに実させる奥行き推定データ生成プログラムであって、
前記非立体画像の画像信号に基づき、仮奥行き推定データを生成する仮奥行き推定データ生成処理と、
前記非立体画像がカメラで撮影した画像か否かを判定する判定処理と、
前記判定処理の判定結果に応じて前記仮奥行き推定データのゲインを調整して奥行き推定データを生成する第加算処理と
含むことを特徴とする奥行き推定データ生成プログラム。

Depth information a depth estimation data generating program forexecuting a function on a computer to generate an implicit to the depth estimation data from the non-3D image is not given also as explicitly or or stereo image,
Temporary depth estimation data generation processing for generating temporary depth estimation data based onthe image signal of the non-stereo image;
A determination process for determining whether the non-stereo image is an image captured by a camera;
Afirst addition processing for generating depth estimation data by adjusting the gain of the temporary depth estimation data in response to the determinationprocessing result of thedetermination,
A depth estimation data generation programcharacterized bycomprising:

JP2012282318A2012-12-262012-12-26 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation programActiveJP6056459B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2012282318AJP6056459B2 (en)2012-12-262012-12-26 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2012282318AJP6056459B2 (en)2012-12-262012-12-26 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Publications (2)

Publication NumberPublication Date
JP2014127799A JP2014127799A (en)2014-07-07
JP6056459B2true JP6056459B2 (en)2017-01-11

Family

ID=51407004

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2012282318AActiveJP6056459B2 (en)2012-12-262012-12-26 Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program

Country Status (1)

CountryLink
JP (1)JP6056459B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2007228153A (en)*2006-02-222007-09-06Seiko Epson Corp Color conversion apparatus, color conversion method, and color conversion program
JP5178490B2 (en)*2008-12-172013-04-10キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP2011066540A (en)*2009-09-152011-03-31Toshiba CorpVideo processing apparatus and video processing method
JP5304714B2 (en)*2010-04-092013-10-02株式会社Jvcケンウッド Pseudo stereoscopic image generation apparatus and camera

Also Published As

Publication numberPublication date
JP2014127799A (en)2014-07-07

Similar Documents

PublicationPublication DateTitle
US9277207B2 (en)Image processing apparatus, image processing method, and program for generating multi-view point image
TWI545934B (en)Method and system for processing an input three dimensional video signal
JP5402483B2 (en) Pseudo stereoscopic image creation device and pseudo stereoscopic image display system
US20110210969A1 (en)Method and device for generating a depth map
US20130250053A1 (en)System and method for real time 2d to 3d conversion of video in a digital camera
US9154762B2 (en)Stereoscopic image system utilizing pixel shifting and interpolation
TWI531212B (en)System and method of rendering stereoscopic images
TW201242335A (en)Image processing device, image processing method, and program
CN101729791A (en)Apparatus and method for image processing
US20130208088A1 (en)Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
JP4214529B2 (en) Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program
JP5692051B2 (en) Depth estimation data generation apparatus, generation method and generation program, and pseudo stereoscopic image generation apparatus, generation method and generation program
JP5127973B1 (en) Video processing device, video processing method, and video display device
US20130076745A1 (en)Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP4214527B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display system
US8976175B2 (en)Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP2012084961A (en)Depth signal generation device, pseudo stereoscopic image signal generation device, depth signal generation method, pseudo stereoscopic image signal generation method, depth signal generation program, and pseudo stereoscopic image signal generation program
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
JP5500092B2 (en) Depth estimation data generation device, depth estimation data generation program, and pseudo-stereoscopic image display device
JP5888140B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP5786807B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5780214B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5362071B2 (en) Video processing device, video display device, and video processing method
JP2014072640A (en)Depth estimation data generation device, pseudo three-dimensional image generation device, depth estimation data generation method and depth estimation data generation program

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20150331

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20160411

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20160419

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20160620

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20161108

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20161121

R150Certificate of patent or registration of utility model

Ref document number:6056459

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp