Movatterモバイル変換


[0]ホーム

URL:


JP2024165249A - Shadow area detection device and shadow area detection method - Google Patents

Shadow area detection device and shadow area detection method
Download PDF

Info

Publication number
JP2024165249A
JP2024165249AJP2023081280AJP2023081280AJP2024165249AJP 2024165249 AJP2024165249 AJP 2024165249AJP 2023081280 AJP2023081280 AJP 2023081280AJP 2023081280 AJP2023081280 AJP 2023081280AJP 2024165249 AJP2024165249 AJP 2024165249A
Authority
JP
Japan
Prior art keywords
shadow
image
distance
coordinate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023081280A
Other languages
Japanese (ja)
Inventor
敏秀 小林
Toshihide Kobayashi
和則 塩田
Kazunori Shioda
祥吾 増田
Shogo Masuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood CorpfiledCriticalJVCKenwood Corp
Priority to JP2023081280ApriorityCriticalpatent/JP2024165249A/en
Priority to PCT/JP2024/014390prioritypatent/WO2024236944A1/en
Publication of JP2024165249ApublicationCriticalpatent/JP2024165249A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

To provide a shadow region detection device and a shadow region detection method for detecting a portion of a subject having color information darkened due to the effect of shadow.SOLUTION: A shadow region detection device 1 comprises: an image acquisition unit 111 that acquires an image having information pertaining to a subject at each coordinate on a two-dimensional plane; a region division unit 119 that divides each coordinate of the acquired image into a plurality of regions on the basis of the information pertaining to the subject included in each coordinate; a polarization image acquisition unit 131 that acquires a plurality of polarization images obtained by imaging the subject via a polarization filter having a plurality of different polarization angles; and a shadow candidate detection unit 150 that, on the basis of information pertaining to the regions of the image divided by the region division unit 119 and the polarization images, detects a candidate of a coordinate estimated to be a shadow portion for each coordinate of the image.SELECTED DRAWING: Figure 2

Description

Translated fromJapanese

本発明は、影領域検出装置及び影領域検出方法に関する。The present invention relates to a shadow area detection device and a shadow area detection method.

従来、被写体の色情報及び被写体までの距離情報を取得可能な深度カメラ(RGBDカメラ)があった。このような深度カメラを用いて取得された情報に基づき、三次元点群データ又はメッシュデータ等の三次元モデルを生成することが行われている。生成された三次元モデルは、例えば、メタバース空間に合成される。メタバース空間においては、同一のメタバース空間に合成された他の三次元モデルの存在による影が、三次元モデルに追加される場合がある。ここで、深度カメラを用いて現実の世界に存在する被写体の三次元モデルを生成しようとした場合、撮影時の環境光による影が存在すると、メタバース空間に存在する光源の方向と一致しないため、外観に違和感が生じる場合がある。また深度カメラを用いて得られる距離情報によれば、影部分の暗い映像の距離精度が得られないといった課題があった。そこで、深度カメラにより測距された距離情報の精度を向上させるために、偏光センサの情報を用いて法線ベクトルを生成し、補正する技術があった(特許文献1を参照)。Conventionally, there has been a depth camera (RGBD camera) capable of acquiring color information of a subject and distance information to the subject. Based on information acquired using such a depth camera, a three-dimensional model such as three-dimensional point cloud data or mesh data is generated. The generated three-dimensional model is, for example, synthesized in a metaverse space. In the metaverse space, a shadow due to the presence of another three-dimensional model synthesized in the same metaverse space may be added to the three-dimensional model. Here, when attempting to generate a three-dimensional model of a subject existing in the real world using a depth camera, if there is a shadow due to the ambient light at the time of shooting, the direction of the shadow does not match the direction of the light source existing in the metaverse space, and therefore the appearance may be unnatural. In addition, there was a problem that the distance information obtained using the depth camera could not obtain the distance accuracy of the dark image in the shadow area. Therefore, in order to improve the accuracy of the distance information measured by the depth camera, there was a technology that generates and corrects a normal vector using information from a polarization sensor (see Patent Document 1).

国際公開第2016/136086号International Publication No. WO 2016/136086

しかしながら上述したような従来技術によれば、距離情報の精度を向上させることはできるかもしれないが、色情報(RGB情報)を補正することはできない。したがって、生成される三次元モデルには、影が重畳してしまっており、メタバース空間に合成した場合に、影の影響により暗くなっている部分(以下、影部分と記載する。)が違和感を生じさせるといった問題があった。ここで、影による外観上の違和感を軽減するためには、周囲の色より暗い色となっている影部分の色情報を修正することが考えられる。しかしながら、周囲の色より暗い部分であるからといって、当該部分が影の影響により暗くなっているのか、被写体が有する本来の色であるのかを判定することは難しく、影部分の色情報を補正することは困難であった。However, while the above-mentioned conventional technology may be able to improve the accuracy of distance information, it is not possible to correct color information (RGB information). Therefore, the generated three-dimensional model has a shadow superimposed on it, and when it is synthesized into the metaverse space, there is a problem that the parts that are darkened by the influence of the shadow (hereinafter referred to as the shadow parts) create an unnatural feeling. Here, in order to reduce the unnatural appearance caused by the shadow, it is possible to correct the color information of the shadow parts that are darker than the surrounding color. However, just because a part is darker than the surrounding color, it is difficult to determine whether the part is darker due to the influence of the shadow or is the original color of the subject, and it has been difficult to correct the color information of the shadow parts.

そこで本発明は、このような状況に鑑みてなされたものであって、影の影響により被写体の色情報が暗くなっている部分を検出することが可能な影領域検出装置の提供を目的とする。The present invention was made in consideration of these circumstances, and aims to provide a shadow area detection device that can detect areas of a subject where the color information is darkened due to the influence of a shadow.

[1]本発明の一態様は、被写体の情報を二次元平面上の各座標に有する画像を取得する画像取得部と、取得した前記画像の各座標について、各座標が有する前記被写体の情報に基づき、複数の領域に区分する領域区分け部と、前記被写体を、複数の異なる偏光角度を有する偏光フィルタをそれぞれ介して撮像された複数の偏光画像を取得する偏光画像取得部と、前記領域区分け部により区分された前記画像の領域についての情報と、前記偏光画像とに基づいて、前記画像の各座標について影部分と推定される座標の候補を検出する影候補検出部とを備える影領域検出装置である。[1] One aspect of the present invention is a shadow area detection device that includes an image acquisition unit that acquires an image having information about a subject at each coordinate on a two-dimensional plane, a region division unit that divides each coordinate of the acquired image into a plurality of regions based on the information about the subject that each coordinate has, a polarized image acquisition unit that acquires a plurality of polarized images of the subject captured through polarizing filters having a plurality of different polarization angles, and a shadow candidate detection unit that detects candidates for coordinates estimated to be shadow areas for each coordinate of the image based on the information about the image regions divided by the region division unit and the polarized images.

[2]また、本発明の一態様は、上記[1]に記載の影領域検出装置において、前記画像取得部により取得される前記画像には、前記被写体の色に関する情報を二次元平面上の各座標に有するRGB画像が含まれ、前記領域区分け部は、前記RGB画像の各座標について、各座標が有する色情報に基づき、複数の領域に区分する色領域区分け部を更に備えるものである。[2] In one aspect of the present invention, in the shadow region detection device described in [1] above, the image acquired by the image acquisition unit includes an RGB image having information about the color of the subject at each coordinate on a two-dimensional plane, and the region division unit further includes a color region division unit that divides each coordinate of the RGB image into a plurality of regions based on the color information that each coordinate has.

[3]また、本発明の一態様は、上記[2]に記載の影領域検出装置において、前記影候補検出部により、影候補と推定された座標が有する画素値を、影候補と推定されなかった座標が有する画素値に基づいた値に置き換える影補正部を更に備えるものである。[3] In one aspect of the present invention, the shadow area detection device described in [2] above further includes a shadow correction unit that replaces pixel values of coordinates estimated to be shadow candidates by the shadow candidate detection unit with values based on pixel values of coordinates that are not estimated to be shadow candidates.

[4]また、本発明の一態様は、上記[1]から[3]のいずれかに記載の影領域検出装置において、前記画像取得部により取得される前記画像には、前記被写体までの距離に関する情報を二次元平面上の各座標に有する距離画像が含まれ、前記領域区分け部は、前記距離画像の各座標について、各座標が有する距離情報に基づき、複数の領域に区分する距離領域区分け部を更に備えるものである。[4] In one aspect of the present invention, in the shadow region detection device described in any one of [1] to [3] above, the image acquired by the image acquisition unit includes a distance image having information on the distance to the subject at each coordinate on a two-dimensional plane, and the region division unit further includes a distance region division unit that divides each coordinate of the distance image into a plurality of regions based on the distance information held by each coordinate.

[5]また、本発明の一態様は、被写体の情報を二次元平面上の各座標に有する画像を取得する画像取得工程と、
取得した前記画像の各座標について、各座標が有する前記被写体の情報に基づき、複数の領域に区分する領域区分け工程と、
前記被写体を、複数の異なる偏光角度を有する偏光フィルタをそれぞれ介して撮像された複数の偏光画像を取得する偏光画像取得工程と、
前記領域区分け工程により区分された前記画像の領域についての情報と、取得された前記偏光画像とに基づいて、前記画像の各座標について影部分と推定される座標の候補を検出する影候補検出工程と
を有する影領域検出方法である。
[5] Also, one aspect of the present invention provides an image capturing step of capturing an image having information of a subject at each coordinate on a two-dimensional plane;
a region dividing step of dividing each coordinate of the acquired image into a plurality of regions based on information of the subject held by each coordinate;
a polarization image acquisition step of acquiring a plurality of polarization images of the subject through a plurality of polarization filters each having a different polarization angle;
and a shadow candidate detection step of detecting candidates for coordinates estimated to be shadow areas for each coordinate of the image, based on information about the image regions divided by the region division step and the acquired polarized image.

本発明によれば、影の影響により被写体の色情報が暗くなっている部分を検出することができる。The present invention makes it possible to detect areas of a subject where the color information is darkened due to the influence of shadows.

第1実施形態に係る影領域検出システムが検出する影について説明するための図である。3A to 3C are diagrams for explaining a shadow detected by the shadow region detection system according to the first embodiment.第1実施形態に係る影領域検出システムの機能構成の一例について示す機能構成図である。FIG. 2 is a functional configuration diagram showing an example of the functional configuration of the shadow region detection system according to the first embodiment.第1実施形態に係る距離領域区分け部による距離領域区分け処理について説明するための図である。5A to 5C are diagrams for explaining a distance region dividing process performed by a distance region dividing unit according to the first embodiment;第1実施形態に係る距離領域区分け部による距離領域区分け処理の一例を示す第1のフローチャートである。10 is a first flowchart illustrating an example of a distance region dividing process performed by a distance region dividing unit according to the first embodiment.第1実施形態に係る距離領域区分け部による距離領域区分け処理の一例を示す第2のフローチャートである。11 is a second flowchart showing an example of a distance region dividing process by the distance region dividing unit according to the first embodiment.第1実施形態に係る色領域区分け部による色領域区分け処理について説明するための図である。5A to 5C are diagrams for explaining a color region dividing process performed by a color region dividing section according to the first embodiment;第1実施形態に係る色領域区分け部による色領域区分け処理の一例を示す第1のフローチャートである。5 is a first flowchart showing an example of a color region dividing process performed by a color region dividing section according to the first embodiment.第1実施形態に係る色領域区分け部による色領域区分け処理の一例を示す第2のフローチャートである。11 is a second flowchart showing an example of a color region dividing process performed by the color region dividing section according to the first embodiment.第1実施形態に係る物体領域区分け部による物体領域区分け処理について説明するための図である。5A to 5C are diagrams for explaining an object region dividing process performed by an object region dividing section according to the first embodiment;第1実施形態に係る偏光センサの構成の一例について説明するための図である。2 is a diagram for explaining an example of the configuration of a polarization sensor according to the first embodiment. FIG.第1実施形態に係る偏光センサにより得られた偏光角度の信号に基づき、色分けした場合の一例である。13 is an example of a case where color-coding is performed based on a signal of a polarization angle obtained by the polarization sensor according to the first embodiment.第1実施形態に係るSHADOW画像の一例を示す図である。FIG. 2 is a diagram showing an example of a SHADOW image according to the first embodiment.第2実施形態に係る影領域検出システムの機能構成の一例について示す機能構成図である。FIG. 11 is a functional configuration diagram showing an example of the functional configuration of a shadow region detection system according to a second embodiment.第2実施形態に係る影補正部による影補正処理について説明するための図である。13A to 13C are diagrams for explaining a shadow correction process performed by a shadow correction unit according to a second embodiment.第2実施形態に係る影補正部の機能構成の一例について示す機能構成図である。FIG. 11 is a functional configuration diagram showing an example of a functional configuration of a shadow correction unit according to the second embodiment.第2実施形態に係るLPFの機能構成の一例について示す機能構成図である。FIG. 11 is a functional configuration diagram showing an example of the functional configuration of an LPF according to a second embodiment.第3実施形態に係る影領域検出システムを備える撮像装置の第1の配置例を示す断面図である。11 is a cross-sectional view showing a first example of arrangement of an imaging device including a shadow region detection system according to a third embodiment. FIG.第3実施形態に係る影領域検出システムを備える撮像装置の第2の配置例を示す断面図である。13 is a cross-sectional view showing a second example of arrangement of an imaging device including a shadow region detection system according to a third embodiment. FIG.

本発明の態様に係る影領域検出装置について、好適な実施の形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。なお、以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。また、以下の図面においては、各構成をわかりやすくするために、各構造における縮尺および数等を、実際の構造における縮尺および数等と異ならせる場合がある。A preferred embodiment of the shadow region detection device according to the present invention will be described in detail below with reference to the accompanying drawings. Note that the embodiment described below is merely an example, and the embodiment to which the present invention is applied is not limited to the following embodiment. In addition, "based on XX" in this application means "based on at least XX" and includes cases where it is based on other elements in addition to XX. In addition, "based on XX" is not limited to cases where XX is directly used, but also includes cases where it is based on XX that has been subjected to calculation or processing. "XX" is any element (for example, any information). In addition, in the following drawings, the scale and number of each structure may be different from the scale and number of the actual structure in order to make each configuration easier to understand.

[第1実施形態]
まず、図1から図10を参照しながら、第1実施形態に係る影領域検出システム1について説明する。
[First embodiment]
First, a shadowregion detection system 1 according to a first embodiment will be described with reference to FIGS.

図1は、第1実施形態に係る影領域検出システムが検出する影について説明するための図である。図1(A)は、被写体としての物体Aについて、RGB画像を撮像する場合の一例を示している。図中には、撮像されるRGB画像の画角を示す。ここで、図示するような画角でRGB画像を撮像する際、画角の外には物体Bが存在するものとする。この場合、太陽等の光源と、物体Bとの影響により、物体AのRGB画像には影が映し出されていることが分かる。影の部分は、物体Aの本来の色情報より、暗くなる(すなわち、輝度が低くなる)。Figure 1 is a diagram for explaining the shadows detected by the shadow area detection system according to the first embodiment. Figure 1(A) shows an example of capturing an RGB image of object A as a subject. The figure shows the angle of view of the captured RGB image. Here, when capturing an RGB image with the angle of view shown in the figure, it is assumed that object B exists outside the angle of view. In this case, it can be seen that a shadow is projected in the RGB image of object A due to the influence of a light source such as the sun and object B. The shadow portion is darker (i.e., has lower brightness) than the original color information of object A.

図1(B)は、物体Aと同様の形状を有するが、異なる色情報を有する物体Bを示す。同図には、物体Bが本来有する色情報を示している。換言すれば、物体Bは、影の影響によることなく、図示するような色情報を有している。図1(A)に示す物体Aの色情報と、図1(B)に示す物体Bの色情報とは、互いに同一又は類似する。このように、RGB画像を見ただけでは、周囲より暗い部分(すなわち、輝度が低い部分)が、被写体本来の色なのか、図1(A)に示すように、画像に映らない物体による影の色なのか、判断できない場合がある。Figure 1(B) shows object B, which has a similar shape to object A, but different color information. This figure shows the color information that object B originally has. In other words, object B has color information as shown, without the influence of shadows. The color information of object A shown in Figure 1(A) and the color information of object B shown in Figure 1(B) are the same or similar to each other. In this way, just by looking at an RGB image, it may not be possible to determine whether a part that is darker than the surroundings (i.e., a part with low brightness) is the original color of the subject, or the color of a shadow cast by an object not reflected in the image, as shown in Figure 1(A).

将来メタバース空間等のヴァーチャル空間に合成することを前提とした三次元モデルを生成する際、被写体である物体が有する色情報のうち、どの部分が影の部分であるかが分かると、色情報を補正したうえで三次元モデルを生成することが可能となる。本実施形態に係る影領域検出システム1によれば、物体を撮像して得られた色情報のうち影である領域を検出することができる。When generating a three-dimensional model that is intended to be synthesized in a virtual space such as the metaverse in the future, if it is known which parts of the color information of the subject object are shadow parts, it is possible to generate a three-dimensional model after correcting the color information. The shadowarea detection system 1 according to this embodiment can detect shadow areas from the color information obtained by capturing an image of an object.

図2は、第1実施形態に係る影領域検出システムの機能構成の一例について示す機能構成図である。同図を参照しながら、影領域検出システム1の機能構成の一例について説明する。影領域検出システム1は、影領域検出装置10と、記憶装置21と、記憶装置22と、測距センサ31と、RGBセンサ32と、偏光センサ33とを備える。FIG. 2 is a functional configuration diagram showing an example of the functional configuration of the shadow area detection system according to the first embodiment. With reference to the diagram, an example of the functional configuration of the shadowarea detection system 1 will be described. The shadowarea detection system 1 includes a shadowarea detection device 10, astorage device 21, astorage device 22, adistance measurement sensor 31, anRGB sensor 32, and apolarization sensor 33.

記憶装置21は、影領域検出装置10の処理に要するパラメータ等を記憶する。記憶装置21に記憶されたパラメータ等は、ユーザ等により適宜書き換えられるものであってもよいし、時間帯、気温又は天気等の環境情報に応じて変化するものであってもよい。記憶装置22は、影領域検出装置10により検出された影領域を特定するための情報を記憶する。なお、記憶装置21及び記憶装置22は、いずれも影領域検出装置10に含まれていてもよい。Thestorage device 21 stores parameters and the like required for processing by the shadowarea detection device 10. The parameters and the like stored in thestorage device 21 may be rewritten as appropriate by a user, etc., and may change according to environmental information such as the time of day, temperature, or weather. Thestorage device 22 stores information for identifying the shadow area detected by the shadowarea detection device 10. Note that both thestorage device 21 and thestorage device 22 may be included in the shadowarea detection device 10.

測距センサ31は、被写体の三次元情報を取得する。具体的には、測距センサ31は、被写体までの距離を複数の点において測定することにより、距離画像を取得する。測距センサ31は、例えばToF(Time of Flight)方式を用いて、被写体に対して二次元的に光を照射し、反射光を受光するまでの時間に基づいて距離を計測するものであってもよい。測距センサ31は、取得した距離画像を、影領域検出装置10に出力する。Thedistance measurement sensor 31 acquires three-dimensional information of the subject. Specifically, thedistance measurement sensor 31 acquires a distance image by measuring the distance to the subject at multiple points. Thedistance measurement sensor 31 may, for example, use a ToF (Time of Flight) method to two-dimensionally irradiate the subject with light and measure the distance based on the time it takes to receive the reflected light. Thedistance measurement sensor 31 outputs the acquired distance image to the shadowarea detection device 10.

RGBセンサ32は、測距センサ31による測距対象である被写体と同一の被写体についてのRGB画像を撮像する。測距センサ31により取得される距離画像の座標と、RGBセンサ32により取得されるRGB画像の座標とは、互いに対応するものであることが好適である。なお、測距センサ31及びRGBセンサ32は、不図示の深度カメラ(RGBDカメラ)が備える構成要件であってもよい。RGBセンサ32は、例えばベイヤーパターンに配列されたRGB各色のフィルタを有するフォトダイオードを複数備え、RGB各色の輝度情報を取得する。RGBセンサ32は、取得したRGB画像を例えばRAW画像として影領域検出装置10に出力する。TheRGB sensor 32 captures an RGB image of the same subject as the subject being measured by thedistance sensor 31. It is preferable that the coordinates of the distance image acquired by thedistance sensor 31 and the coordinates of the RGB image acquired by theRGB sensor 32 correspond to each other. Note that thedistance sensor 31 and theRGB sensor 32 may be components of a depth camera (RGBD camera) not shown. TheRGB sensor 32 includes multiple photodiodes having filters of each of the RGB colors arranged in a Bayer pattern, for example, and acquires luminance information of each of the RGB colors. TheRGB sensor 32 outputs the acquired RGB image to the shadowarea detection device 10, for example, as a RAW image.

偏光センサ33は、測距センサ31による測距対象であり、RGBセンサ32による撮像対象である被写体と同一の被写体についての偏光画像を取得する。偏光センサ33は、複数の異なる偏光角度を有する偏光フィルタ(偏光子)をそれぞれ介して撮像された複数の偏光画像を撮像する。偏光センサ33は、取得した偏光画像を影領域検出装置10に出力する。Thepolarization sensor 33 is the subject of distance measurement by thedistance measurement sensor 31 and acquires a polarized image of the same subject as the subject being imaged by theRGB sensor 32. Thepolarization sensor 33 captures a number of polarized images that are each captured through a number of polarizing filters (polarizers) with different polarization angles. Thepolarization sensor 33 outputs the acquired polarized images to the shadowarea detection device 10.

影領域検出装置10は、画像取得部111と、リサイズ部113と、色相・輝度計算部115と、領域区分け部119と、偏光画像取得部131と、偏光角算出部132と、リサイズ部133と、影候補検出部150とを備える。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、CPU(Central Processing Unit)を有するコンピュータおよびソフトウェアによって実現するようにしてもよい。The shadowarea detection device 10 includes animage acquisition unit 111, a resizingunit 113, a hue andbrightness calculation unit 115, anarea division unit 119, a polarizedimage acquisition unit 131, a polarizationangle calculation unit 132, a resizingunit 133, and a shadowcandidate detection unit 150. Each of these functional units is realized, for example, by using electronic circuits. Each functional unit may also include internal storage means such as a semiconductor memory or a magnetic hard disk device, as necessary. Each function may also be realized by a computer having a CPU (Central Processing Unit) and software.

画像取得部111は、被写体の情報を二次元平面上の各座標に有する画像を取得する。当該画像には、被写体の色に関する情報を二次元平面上の各座標に有するRGB画像と、被写体までの距離に関する情報を二次元平面上の各座標に有する距離画像とが含まれる。すなわち、画像取得部111は、RGB画像又は距離画像のうち、少なくとも一方を取得する。具体的には、画像取得部111は、RGBセンサ32からRGB画像を取得する。画像取得部111は、取得したRGB画像を、ディベイヤー(ディモザイク)処理し、RGB各色の画像信号を得る。また、画像取得部111は、測距センサ31から距離画像を取得する。Theimage acquisition unit 111 acquires an image having information about a subject at each coordinate on a two-dimensional plane. The image includes an RGB image having information about the color of the subject at each coordinate on the two-dimensional plane, and a distance image having information about the distance to the subject at each coordinate on the two-dimensional plane. That is, theimage acquisition unit 111 acquires at least one of an RGB image or a distance image. Specifically, theimage acquisition unit 111 acquires an RGB image from theRGB sensor 32. Theimage acquisition unit 111 performs de-Bayer (demosaic) processing on the acquired RGB image to obtain image signals for each color of RGB. Theimage acquisition unit 111 also acquires a distance image from thedistance measurement sensor 31.

リサイズ部113は、画像取得部111から距離画像に関する情報を取得する。リサイズ部113は、距離画像の解像度と、RGB画像から得られるRGB各色の解像度とが互いに異なる場合に、距離画像をリサイズ(アップコンバート)し、互いに同じ解像度に合わせる。なお、リサイズ部113は、画像取得部111からRGB各色の画像信号を取得し、RGB各色の画像信号をリサイズ(ダウンコンバート)することにより、互いに同じ解像度に合わせてもよい。The resizingunit 113 acquires information about the distance image from theimage acquisition unit 111. When the resolution of the distance image differs from the resolution of each of the RGB colors obtained from the RGB image, the resizingunit 113 resizes (upconverts) the distance image to match the resolution of each of the RGB colors. Note that the resizingunit 113 may acquire image signals of each of the RGB colors from theimage acquisition unit 111 and resize (downconvert) the image signals of each of the RGB colors to match the resolution of each of the RGB colors.

領域区分け部119は、リサイズ部113により互いに同じ解像度に合わせられた距離画像と、RGB画像とを取得する。領域区分け部119は、取得した画像の各座標について、各座標が有する被写体の情報に基づき、複数の領域に区分する。領域区分け部119は、具体的には、距離領域区分け部116と、色領域区分け部117と、物体領域区分け部118とを備える。距離領域区分け部116は、距離画像に基づいた領域区分け処理を行う。距離領域区分け部116は、距離画像の各座標について、各座標が有する距離情報に基づき、複数の領域に区分するということもできる。色領域区分け部117は、RGB画像に基づいた領域区分け処理を行う。色領域区分け部117は、RGB画像の各座標について、各座標が有する色情報に基づき、複数の領域に区分するということもできる。物体領域区分け部118は、距離領域区分け部116により行われた領域区分け結果と、色領域区分け部117により行われた領域区分け結果とに基づいた領域区分け処理を行う。領域区分け処理とは、画像が有する各座標を、画像に存在する複数の物体それぞれについての領域に区分けする処理である。領域区分け処理においては、同一の物体の中の同系色の領域には同一の識別番号(INDEX番号)が付される。Thearea division unit 119 acquires a distance image and an RGB image that have been adjusted to the same resolution by the resizingunit 113. Thearea division unit 119 divides each coordinate of the acquired image into a plurality of areas based on the subject information of each coordinate. Specifically, thearea division unit 119 includes a distancearea division unit 116, a colorarea division unit 117, and an objectarea division unit 118. The distancearea division unit 116 performs area division processing based on the distance image. It can also be said that the distancearea division unit 116 divides each coordinate of the distance image into a plurality of areas based on the distance information of each coordinate. The colorarea division unit 117 performs area division processing based on the RGB image. It can also be said that the colorarea division unit 117 divides each coordinate of the RGB image into a plurality of areas based on the color information of each coordinate. The objectregion dividing section 118 performs a region dividing process based on the region dividing results performed by the distanceregion dividing section 116 and the region dividing results performed by the colorregion dividing section 117. The region dividing process is a process of dividing each coordinate of an image into regions for each of multiple objects present in the image. In the region dividing process, the same identification number (INDEX number) is assigned to regions of similar colors within the same object.

まず、距離領域区分け部116により行われる領域区分け処理について説明する。距離領域区分け部116は、リサイズ部113により距離画像がリサイズされ、RGB各色の画像信号と互いに同じ解像度に合わせられた距離画像を取得する。また、距離領域区分け部116は、記憶装置21から、距離領域区分け処理に用いられるパラメータであるDTH1maxと、DTH1minと、DTH2と、DTH3とを取得する。First, the region division process performed by the distanceregion division unit 116 will be described. The distanceregion division unit 116 acquires a distance image that has been resized by the resizingunit 113 and adjusted to the same resolution as the image signals of each color of RGB. The distanceregion division unit 116 also acquires from thestorage device 21 parameters DTH1max, DTH1min, DTH2, and DTH3 used in the distance region division process.

DTH1maxとは、被写体の背景の距離データについて、影検出の領域から除去するための距離を設定するものである。換言すれば、DTH1maxとは、被写体の奥行き方向の最大値であるということもできる。DTH1minとは、被写体の手前の距離データについて、影検出の領域から除去するための距離を設定するものである。換言すれば、DTH1minとは、被写体の手前方向の最大値であるということもできる。DTH2とは、隣り合う座標の距離値が、同一平面のものか否かを判定するための閾値である。DTH3とは、センサに起因する大きなランダムノイズや、デッドピクセル等に基づく異常値を除去するための閾値である。距離領域区分け部116は、これらのパラメータを用いて、被写体の物体の領域について区分け処理を行い、各領域に距離INDEX番号を付していく。これは、同じ物体であれば隣接するピクセルの距離値は、大きく離れていないという考え方を基本とするものである。距離INDEX番号とは、距離情報に基づきピクセルごとに付される番号であり、同一の物体であると推定されるピクセルには、同一の番号が付されるものである。DTH1max is a distance setting for removing distance data of the subject's background from the shadow detection area. In other words, DTH1max is the maximum value in the depth direction of the subject. DTH1min is a distance setting for removing distance data in front of the subject from the shadow detection area. In other words, DTH1min is the maximum value in the front direction of the subject. DTH2 is a threshold for determining whether the distance values of adjacent coordinates are on the same plane or not. DTH3 is a threshold for removing abnormal values due to large random noise caused by the sensor and dead pixels. The distancearea division unit 116 uses these parameters to perform a division process on the object area of the subject and assigns a distance INDEX number to each area. This is based on the idea that if it is the same object, the distance values of adjacent pixels are not far apart. The distance INDEX number is a number assigned to each pixel based on the distance information, and the same number is assigned to pixels that are estimated to be the same object.

距離領域区分け部116により、距離INDEX番号が付されていく動作を、図3、図4A及び図4Bを参照しながら詳細に説明する。The operation of assigning distance INDEX numbers by the distancearea division unit 116 will be explained in detail with reference to Figures 3, 4A, and 4B.

図3は、第1実施形態に係る距離領域区分け部による距離領域区分け処理について説明するための図である。同図は、画像取得部111により取得された距離画像(Depthデータ画像)を、説明のため少ないピクセル数で表したものである。同図において、距離画像の値(距離値)を、グレーの濃さにより表している。具体的には、色が濃い部分程近くに存在する物体を示し、色が薄い部分程遠くに存在する物体を示している。図3(A)は、各座標に、説明のために用いる各座標を識別するための番号を付したものを示している。図3(B)は、距離領域区分け部116により付された距離INDEX番号を示している。Figure 3 is a diagram for explaining the distance area division process by the distance area division unit according to the first embodiment. In this figure, the distance image (depth data image) acquired by theimage acquisition unit 111 is shown with a small number of pixels for the purpose of explanation. In this figure, the value of the distance image (distance value) is shown by the shade of gray. Specifically, the darker the color, the closer the object is, and the lighter the color, the farther the object is. Figure 3(A) shows each coordinate assigned with a number to identify each coordinate used for explanation. Figure 3(B) shows the distance INDEX number assigned by the distancearea division unit 116.

図4A及び図4B(以下、単に図4と記載する場合がある)は、第1実施形態に係る距離領域区分け部による距離領域区分け処理の一例を示すフローチャートである。図示するフローチャートは、図3に示す距離画像の左上端ピクセルから、水平方向、垂直方向のスキャンで順序処理を行う場合の処理の流れを示したものである。図4に示すフローチャートは、図3に示した矢印のような順次走査で処理するようにループする。Figures 4A and 4B (hereinafter sometimes simply referred to as Figure 4) are a flowchart showing an example of distance area division processing by the distance area division unit according to the first embodiment. The illustrated flowchart shows the flow of processing when sequential processing is performed by scanning in the horizontal and vertical directions from the upper left pixel of the distance image shown in Figure 3. The flowchart shown in Figure 4 loops so as to process by sequential scanning as indicated by the arrows shown in Figure 3.

まず、距離領域区分け部116は、距離画面から3×3ピクセルの領域の距離値(Depthデータ)を取得する(ステップS111)。ここで、取得した3×3ピクセルの中には、センサのノイズやデッドピクセルにより突出して1ピクセルだけ周囲と違うデータが含まれることがある。距離領域区分け部116は、まずステップS112及びステップS113において、このようなデータに距離INDEX番号をつける。具体的には、距離領域区分け部116は、3×3ピクセルの中心だけ周囲ピクセル全てと比較して、距離値の差が、+DTH3以上又は-DTH3以下であるか否かを判定する(ステップS112)。距離領域区分け部116は、距離値に所定の差があると判定した場合(すなわちステップS112;YES)、3×3ピクセルの中心ピクセルの距離INDEX番号を、左隣の距離INDEX番号とする(ステップS113)。なお、一番左上の3×3領域で、まだ距離INDEX番号が振られていない場合は、距離INDEX番号を0にする。距離領域区分け部116は、距離値に所定の差が無いと判定した場合(すなわちステップS112;NO)、処理をステップS114に進める。First, the distancearea division unit 116 acquires the distance values (depth data) of a 3×3 pixel area from the distance screen (step S111). Here, the acquired 3×3 pixels may include data that is different from the surrounding pixels by only one pixel due to sensor noise or dead pixels. The distancearea division unit 116 first assigns a distance INDEX number to such data in steps S112 and S113. Specifically, the distancearea division unit 116 compares only the center of the 3×3 pixels with all the surrounding pixels and determines whether the difference in distance value is +DTH3 or more or -DTH3 or less (step S112). If the distancearea division unit 116 determines that there is a predetermined difference in the distance value (i.e., step S112; YES), it sets the distance INDEX number of the center pixel of the 3×3 pixels to the distance INDEX number of the neighboring pixel on the left (step S113). If a distance INDEX number has not yet been assigned to the top left 3x3 area, the distance INDEX number is set to 0. If the distancearea division unit 116 determines that there is no predetermined difference in the distance values (i.e., step S112; NO), the process proceeds to step S114.

図3(A)を見ると、中心部分にFと付された座標が存在する。当該座標のピクセルは、周辺との距離値の差が±DTH3であったとする。このような場合、当該座標のピクセルは、左隣のピクセルの距離INDEX番号となる。具体的には、図3(B)に示した通り、距離INDEX番号が左隣の距離INDEX番号と同様、1と判定されている。判定された距離INDEX番号は一時記憶部(不図示)に記憶され、次のピクセルに移り、フローの始めにループする。なお、以下に説明する処理についても、距離INDEX番号をピクセルごとに付していき、付された距離INDEX番号は、一時記憶部に記憶されるものとする。Looking at Figure 3 (A), there is a coordinate labeled F in the center. The pixel at that coordinate has a distance value difference of ±DTH3 from the surrounding pixels. In such a case, the pixel at that coordinate becomes the distance INDEX number of the pixel to the left. Specifically, as shown in Figure 3 (B), the distance INDEX number is determined to be 1, just like the distance INDEX number of the pixel to the left. The determined distance INDEX number is stored in a temporary storage unit (not shown), and the process moves to the next pixel and loops to the beginning of the flow. Note that in the process described below, a distance INDEX number is assigned to each pixel, and the assigned distance INDEX numbers are stored in the temporary storage unit.

ステップS112がNOの場合は、次に、距離領域区分け部116は、ステップS114及びステップS115において、被写体の奥に存在する背景や、被写体の手前に存在する余計な物体を影検出の対象から除外する処理を行う。具体的に、距離領域区分け部116は、距離閾値DTH1max、及びDTH1minを用いた判定を行う。DTH1maxとは、被写体より遠くにある物体を影検出の対象から除外するための閾値である。また、DTH1minとは、被写体より近くにある物体を影検出の対象から除外するための閾値である。まず、距離領域区分け部116は、3×3ピクセルの中心ピクセルの距離値が、DTH1min以下又はDTH1max以上であるかを判定する(ステップS114)。距離領域区分け部116は、距離値が閾値を超えていた場合(すなわちステップS114;YES)、中心ピクセルの距離INDEX番号を、0とする(ステップS115)。また、距離領域区分け部116は、距離値が閾値を超えていない場合(すなわちステップS114;NO)、処理をステップS116に進める。具体的に、図3(A)に示す一例では、数字が付されていない座標については、DTH1maxを超えた部分、すなわち被写体の奥に存在する背景であると判定された部分を示している。また、33乃至39の番号が付されている部分が、DTH1min以下の部分、すなわち被写体の手前に存在する余計な物体であると判定された部分を示している。このような部分は、図3(B)に示す通り、距離INDEX番号は0となる。If step S112 is NO, then in steps S114 and S115, the distancearea division unit 116 performs a process of excluding the background behind the subject and unnecessary objects in front of the subject from the shadow detection target. Specifically, the distancearea division unit 116 performs a judgment using distance thresholds DTH1max and DTH1min. DTH1max is a threshold for excluding objects farther from the subject from the shadow detection target. Also, DTH1min is a threshold for excluding objects closer to the subject from the shadow detection target. First, the distancearea division unit 116 judges whether the distance value of the center pixel of the 3×3 pixels is equal to or less than DTH1min or equal to or more than DTH1max (step S114). If the distance value exceeds the threshold (i.e., step S114; YES), the distancearea division unit 116 sets the distance INDEX number of the center pixel to 0 (step S115). Furthermore, if the distance value does not exceed the threshold (i.e., step S114; NO), the distancearea division unit 116 advances the process to step S116. Specifically, in the example shown in FIG. 3(A), coordinates without numbers indicate parts that exceed DTH1max, that is, parts that are determined to be background that exists behind the subject. Furthermore, parts numbered 33 to 39 indicate parts that are below DTH1min, that is, parts that are determined to be extraneous objects that exist in front of the subject. Such parts have a distance INDEX number of 0, as shown in FIG. 3(B).

ステップS114がNOの場合は、次に、距離領域区分け部116は、ステップS116及びステップS117において、新たに検出された物体に対して距離INDEX番号を付す。換言すれば、距離領域区分け部116は、物体の輪郭部分に対して新たな距離INDEX番号を付していくということもできる。具体的に、距離領域区分け部116は、左上のピクセルから、水平方向に順次スキャンを行っていくため、あるピクセルをスキャンする場合には、3×3ピクセルのうち、上部3ピクセルと、左1ピクセルについては、既にスキャンが完了しているということができる。距離領域区分け部116は、このようにスキャンが完了しているピクセルのうち、まだ0以外の距離INDEX番号が無いか判定する(ステップS116)。距離領域区分け部116は、まだ0以外の距離INDEX番号が無い場合(すなわちステップS116;YES)、当該ピクセルに距離INDEX番号を付す(ステップS117)。また、距離領域区分け部116は、まだ0以外の距離INDEX番号が有る場合(すなわちステップS116;NO)、処理をステップS118に進める。このような作業を行うことにより、距離領域区分け部116は、3×3の中央ピクセルについて、これまで付されていなかったピクセルについて、距離INDEX番号を付すことができる。図示する一例において、図3(A)の1が付されているピクセルは、左上からスキャンしていき、初めて物体があると判定されたピクセルであるため、距離INDEX番号として1が付されている。また、22が付されているピクセルは、すでに距離INDEX番号が3まで付されている状況において、付されたものであるため、距離INDEX番号として4が付されている。If step S114 is NO, then the distancearea division unit 116 assigns a distance INDEX number to the newly detected object in steps S116 and S117. In other words, the distancearea division unit 116 can also assign a new distance INDEX number to the contour portion of the object. Specifically, since the distancearea division unit 116 sequentially scans from the upper left pixel in the horizontal direction, it can be said that when scanning a certain pixel, the upper three pixels and the left one pixel out of the 3 x 3 pixels have already been scanned. The distancearea division unit 116 determines whether there is still a distance INDEX number other than 0 among the pixels that have been scanned in this way (step S116). If there is still no distance INDEX number other than 0 (i.e., step S116; YES), the distancearea division unit 116 assigns a distance INDEX number to the pixel (step S117). Furthermore, if there is still a distance INDEX number other than 0 (i.e., step S116; NO), the distancearea division unit 116 advances the process to step S118. By performing this operation, the distancearea division unit 116 can assign distance INDEX numbers to the central pixels of the 3x3 pixel array that have not previously been assigned distance INDEX numbers. In the illustrated example, the pixel assigned with 1 in FIG. 3(A) is the first pixel that has been determined to have an object when scanning from the top left, so it has been assigned a distance INDEX number of 1. Furthermore, the pixel assigned with 22 has been assigned a distance INDEX number of 4 because it was assigned in a situation where distance INDEX numbers up to 3 have already been assigned.

ステップS116がNOの場合は、次に、距離領域区分け部116は、ステップS118乃至ステップS121において、物体であると判定された部分が同一平面上に存在するか否かを判定する。すなわち、距離領域区分け部116は、ステップS118乃至ステップS121において、同一の距離INDEX番号を付すか、異なる距離INDEX番号を付すかを判定する。ここで、ステップS118の処理が行われる場合とは、3×3ピクセルのうち、すでにスキャンして距離INDEX番号が付された上部3ピクセルと左1ピクセルにおいて、0以外の距離INDEX番号がある場合ということができる。このような場合において、距離領域区分け部116は、3×3ピクセルの中心ピクセルがすでに距離INDEX番号が付されているものと同じ平面のものかどうか、DTH2の閾値レベルに基づいて判定を行う。If step S116 is NO, then the distancearea division unit 116 determines whether the parts determined to be objects in steps S118 to S121 are on the same plane. That is, the distancearea division unit 116 determines whether to assign the same distance INDEX number or different distance INDEX numbers in steps S118 to S121. Here, the processing of step S118 is performed when the top three pixels and the left pixel of the 3x3 pixels that have already been scanned and assigned distance INDEX numbers have distance INDEX numbers other than 0. In such a case, the distancearea division unit 116 determines whether the center pixel of the 3x3 pixels is on the same plane as the pixel that has already been assigned a distance INDEX number, based on the threshold level of DTH2.

距離領域区分け部116は、具体的には、上部3ピクセルと左1ピクセルの距離値のいずれかが、3×3の中央ピクセルの距離値の-DTH2~+DTH2以内であるか否かを判定する(ステップS118)。距離領域区分け部116は、上部3ピクセルと左1ピクセルの距離値のいずれかが、3×3の中央ピクセルの距離値の-DTH2~+DTH2以内であれば(すなわち、ステップS118;YES)、互いに同じ平面とみなし、互いに同じ距離INDEX番号を付す。このとき、中心ピクセルの距離値に対して、-DTH2~+DTH2内のものが複数ピクセルある場合、それらのピクセルは全て、その中で一番若い距離INDEX番号とする(ステップS119)。また、上部3ピクセルと左1ピクセルにおいて、すでに距離INDEX番号が付されており、距離INDEX番号が書き換えられた場合、これまでスキャンして距離INDEX番号が記憶されている座標を参照し、同じ距離INDEX番号を有する各座標についても全て書き換える(ステップS121)。Specifically, the distancearea division unit 116 determines whether any of the distance values of the top three pixels and the left pixel are within -DTH2 to +DTH2 of the distance value of the central pixel of the 3 x 3 array (step S118). If any of the distance values of the top three pixels and the left pixel are within -DTH2 to +DTH2 of the distance value of the central pixel of the 3 x 3 array (i.e., step S118; YES), the distancearea division unit 116 regards them as being on the same plane and assigns them the same distance INDEX number. In this case, if there are multiple pixels with distance values within -DTH2 to +DTH2 of the central pixel, all of those pixels are assigned the smallest distance INDEX number among them (step S119). Furthermore, if distance INDEX numbers have already been assigned to the top three pixels and the left pixel, and the distance INDEX numbers are being rewritten, the coordinates that have been scanned so far and for which distance INDEX numbers have been stored are referenced, and all coordinates that have the same distance INDEX number are rewritten (step S121).

図示する一例において、図3(A)の座標が2、6、12、及び13のピクセルは、座標が18のピクセルについてスキャン処理を行うまでは、距離INDEX番号が2とされていたが、座標が18のピクセルについての判定を行うときに、距離INDEX番号が1に振り直されている。これは、座標が17のピクセルの距離値が、-DTH2~+DTH2以内であったためである。その際、図3(B)に示すように、3×3ピクセルの領域外のすでに距離INDEX番号が2として記憶されていた座標が2、6、12、及び13の各ピクセルについても、距離INDEX番号が1に振り直されている。このように処理をした後、次のピクセル処理に移る。In the illustrated example, the pixels withcoordinates 2, 6, 12, and 13 in FIG. 3(A) had a distance INDEX number of 2 until the scanning process was performed on the pixel with coordinate 18, but when the determination was made on the pixel with coordinate 18, the distance INDEX number was reassigned to 1. This is because the distance value of the pixel with coordinate 17 was within -DTH2 to +DTH2. At that time, as shown in FIG. 3(B), the distance INDEX numbers of the pixels withcoordinates 2, 6, 12, and 13 outside the 3x3 pixel area that had already been stored with a distance INDEX number of 2 are also reassigned to 1. After this processing, the process moves on to the next pixel.

距離領域区分け部116は、上部3ピクセルと左1ピクセルの距離値のいずれかが、3×3の中央ピクセルの距離値の-DTH2~+DTH2以内でなければ(すなわち、ステップS118;NO)、対象のピクセルの距離INDEX番号を、今まで付してきた距離INDEX番号以外の番号に更新して、新たな距離INDEX番号とする(ステップS120)。例えば図3(A)に示す座標が7のピクセルについて、このピクセルのスキャン処理時において、距離INDEX番号は2である。しかしながら、左のピクセル(すなわち座標が6のピクセル)と、左上のピクセル(すなわち座標が2のピクセル)との距離値が、-DTH2~+DTH2以内に入らない場合、距離INDEX番号が更新され、距離INDEX番号が3として記憶される(ステップS120)。また、距離領域区分け部116は、当該処理が行われた後、次のピクセルの処理に移る(ステップS122)。If any of the distance values of the top three pixels and the left pixel is not within -DTH2 to +DTH2 of the distance value of the central pixel of the 3x3 pixel (i.e., step S118; NO), the distancearea division unit 116 updates the distance INDEX number of the target pixel to a number other than the distance INDEX number that has been assigned so far, and sets it as the new distance INDEX number (step S120). For example, for a pixel with coordinate 7 shown in FIG. 3A, the distance INDEX number is 2 during the scanning process of this pixel. However, if the distance value between the left pixel (i.e., the pixel with coordinate 6) and the upper left pixel (i.e., the pixel with coordinate 2) is not within -DTH2 to +DTH2, the distance INDEX number is updated and the distance INDEX number is stored as 3 (step S120). After the processing, the distancearea division unit 116 moves on to the processing of the next pixel (step S122).

距離領域区分け部116は、以上のような流れで、すべてのピクセルをスキャンしていく。すなわち、本実施形態においては、複数回の判定が行われた結果、距離INDEX番号が更新されていく。図3(B)では、全てのピクセルについて、最終的に得られた結果を示している。The distancearea division unit 116 scans all pixels in the manner described above. That is, in this embodiment, the distance INDEX number is updated as a result of multiple determinations. Figure 3 (B) shows the final results obtained for all pixels.

図2に戻り、距離領域区分け部116は、最終的に得られた距離INDEX番号についての情報を物体領域区分け部118に出力する。Returning to FIG. 2, the distancearea division unit 116 outputs information about the finally obtained distance INDEX number to the objectarea division unit 118.

次に、色領域区分け部117により行われる領域区分け処理について説明する。色領域区分け部117は、画像取得部111により取得されたRGB画像に基づくRGB各色の信号と、リサイズ部113により距離画像がリサイズされ、RGB各色の画像信号と互いに同じ解像度に合わせられた距離画像とを取得する。また、色領域区分け部117は、色領域区分け処理に用いられるパラメータであるWTHと、DTH1minと、DTH1maxと、HUETHと、SATTHとを取得する。DTH1min及びDTH1maxは、距離領域区分け部116により行われる距離領域区分け処理と同様のパラメータであってもよい。Next, the region division process performed by the colorregion division unit 117 will be described. The colorregion division unit 117 acquires RGB color signals based on the RGB image acquired by theimage acquisition unit 111, and a distance image resized by the resizingunit 113 and adjusted to the same resolution as the RGB color image signals. The colorregion division unit 117 also acquires WTH, DTH1min, DTH1max, HUETH, and SATTH, which are parameters used in the color region division process. DTH1min and DTH1max may be the same parameters as those in the distance region division process performed by the distanceregion division unit 116.

WTHとは、RGBセンサの突出したノイズや、デッドピクセル等に基づく異常値を除外するための閾値である。WTHは、温度に応じて変動する値であってもよい。HUETHとは、色で領域を区分けするための、色相についての閾値である。SATTHとは、色飽和についての閾値である。色領域区分け部117は、これらのパラメータを用いて、被写体の物体の領域について区分け処理を行い、各領域に色INDEX番号を付していく。これは、同じ物体で同じ色であれば、たとえそれが影と影でない部分であったとしても、両者は互いに似た色相に収まるという考え方を基本とするものである。色INDEX番号とは、色相情報に基づきピクセルごとに付される番号であり、同一の物体の中の同系色であると推定されるピクセルには、同一の番号が付されるものである。距離INDEX番号と、色INDEX番号とは、互いに異なるアプローチによりそれぞれ同一の物体の距離による領域と色による領域に領域分けをしたものである。WTH is a threshold value for removing abnormal values due to prominent noise of the RGB sensor, dead pixels, etc. WTH may be a value that varies according to temperature. HUETH is a threshold value for hue for dividing regions by color. SATTH is a threshold value for color saturation. The colorregion dividing unit 117 uses these parameters to divide the object regions of the subject and assigns a color INDEX number to each region. This is based on the idea that if the same color is in the same object, even if it is a shadow and a non-shadow part, both will fall into a similar hue. The color INDEX number is a number assigned to each pixel based on hue information, and the same number is assigned to pixels that are estimated to be of the same color in the same object. The distance INDEX number and the color INDEX number are different approaches to dividing the same object into regions by distance and regions by color, respectively.

なお、色相を判断できない場合、例えば色のない黒、グレー、白の物体は、色の飽和がノイズレベル程度に小さい。したがって、本実施形態において、ある色飽和レベル以下のものは、白黒グレーの同じ物体としている。When the hue cannot be determined, for example in the case of colorless black, gray, or white objects, the color saturation is as low as the noise level. Therefore, in this embodiment, objects below a certain color saturation level are considered to be the same black, white, and gray objects.

色領域区分け部117により、色INDEX番号が付されていく動作を、図5、図6A及び図6Bを参照しながら詳細に説明する。The operation of assigning color INDEX numbers by the colorregion division unit 117 will be explained in detail with reference to Figures 5, 6A, and 6B.

図5は、第1実施形態に係る色領域区分け部による色領域区分け処理について説明するための図である。同図は、画像取得部111により取得されたRGB画像を、説明のため少ないピクセル数で表したものである。同図では、画素値をグレーの濃さにより表している。図5(A)は、各座標に、説明のために用いる各座標を識別するための番号を付している。図5(B)は、色領域区分け部117により付された色INDEX番号を示している。Figure 5 is a diagram for explaining the color region division process by the color region division unit according to the first embodiment. In this figure, the RGB image acquired by theimage acquisition unit 111 is represented with a small number of pixels for the purpose of explanation. In this figure, pixel values are represented by shades of gray. In Figure 5(A), numbers are assigned to each coordinate to identify each coordinate used for explanation. Figure 5(B) shows the color INDEX numbers assigned by the colorregion division unit 117.

図6A及び図6B(以下、単に図6と記載する場合がある)は、第1実施形態に係る色領域区分け部による色領域区分け処理の一例を示すフローチャートである。図示するフローチャートは、図5に示すRGB画像の左上端ピクセルから、水平方向、垂直方向のスキャンで順序処理を行う場合の処理の流れを示したものである。図5に示した矢印のような順次走査で処理するように、図6に示すフローチャートはループする。Figures 6A and 6B (hereinafter sometimes simply referred to as Figure 6) are a flowchart showing an example of color region division processing by the color region division unit according to the first embodiment. The illustrated flowchart shows the flow of processing when sequential processing is performed by scanning horizontally and vertically from the upper left pixel of the RGB image shown in Figure 5. The flowchart shown in Figure 6 loops so that processing is performed by sequential scanning as indicated by the arrows shown in Figure 5.

まず、色領域区分け部117は、入力されたRGB各色の信号を、輝度Y、色相HUE、色飽和SATに変換する。当該変換には、例えば次(1)式から(5)式のような数式が用いられてもよい。First, the colorregion division unit 117 converts the input RGB color signals into luminance Y, hue HUE, and color saturation SAT. For this conversion, for example, the following formulas (1) to (5) may be used.

Y=0.2126×R+0.7152×G+0.0722×B・・・(1)
Pb=-0.1146×R-0.3854×G+0.5000×B・・・(2)
Pr=0.5000×R-0.4542×G-0.0458×B・・・(3)
HUE=ATAN(Pr/Pb)・・・(4)
SAT=SQRT(PB^2+Pr^2)・・・(5)
Y=0.2126×R+0.7152×G+0.0722×B...(1)
Pb=-0.1146×R-0.3854×G+0.5000×B...(2)
Pr=0.5000×R-0.4542×G-0.0458×B...(3)
HUE=ATAN(Pr/Pb)...(4)
SAT=SQRT(PB^2+Pr^2)...(5)

色領域区分け部117は、これら(1)式から(5)式を用いて、3×3の全てのピクセルについて、HUE、SAT、及びYを算出しておく(ステップS211)。また、色領域区分け部117は、3×3ピクセルの中心ピクセルの距離値(Depth値)についても取得しておく。The colorregion division unit 117 calculates HUE, SAT, and Y for all 3×3 pixels using equations (1) to (5) (step S211). The colorregion division unit 117 also obtains the distance value (depth value) of the center pixel of the 3×3 pixels.

次に、色領域区分け部117は、ステップS212及びステップS213において、RGBセンサに起因するノイズのうち突出して大きいノイズや、デッドピクセル等に基づく異常値を有するピクセル、及び白キズ、黒キズと呼ばれる画素欠陥を有するピクセルの処理を行う。具体的には、色領域区分け部117は、まず、3×3ピクセルの中心ピクセルにおけるRGB各色の信号と、3×3の周辺8ピクセルのRGB各色の信号とを比較する(ステップS212)。周辺8ピクセルにおいて、画素値が中心ピクセルの+WTH以上、又は―WTH以下であるチャンネルが一つでもある場合(すなわち、ステップS212;YES)、色領域区分け部117は、当該中心ピクセルをデッドピクセルとみなし、左隣の色INDEX番号とする(ステップS213)。なお、一番左上の3×3領域において、まだ色INDEX番号が付されていない場合は、色INDEX番号を0とする。Next, in steps S212 and S213, the colorregion division unit 117 processes pixels with abnormal values due to noise that is particularly large among noises caused by the RGB sensor, dead pixels, etc., and pixels with pixel defects called white defects and black defects. Specifically, the colorregion division unit 117 first compares the RGB color signals of the central pixel of the 3 x 3 pixels with the RGB color signals of the 8 surrounding pixels of the 3 x 3 pixels (step S212). If there is at least one channel in the 8 surrounding pixels whose pixel value is equal to or greater than +WTH or equal to or less than -WTH of the central pixel (i.e., step S212; YES), the colorregion division unit 117 regards the central pixel as a dead pixel and sets the color INDEX number of the pixel to the left (step S213). Note that if a color INDEX number has not yet been assigned to the top left 3 x 3 region, the color INDEX number is set to 0.

図示する一例において、図5(A)では、Wと示したピクセルが、周辺よりRGB値が±WTHより離れているものとする。この場合、色領域区分け部117は、隣のピクセルの色INDEX番号をWと示したピクセルの色INDEX番号とする。図5(B)を見ると、図5(A)においてWと示したピクセルの色INDEX番号は、隣のピクセル(すなわち、座標が16であるピクセル)の色INDEX番号と同様となっている。判定された色INDEX番号は一時記憶部(不図示)に記憶され、次のピクセルに移り、フローの始めにループする。なお、以下に説明する処理についても、色INDEX番号をピクセルごとに付していき、付された色INDEX番号は、一時記憶部に記憶されるものとする。In the illustrated example, in FIG. 5(A), the pixel marked W has an RGB value that is farther away from the surrounding pixels by ±WTH. In this case, the colorregion division unit 117 sets the color INDEX number of the adjacent pixel as the color INDEX number of the pixel marked W. Looking at FIG. 5(B), the color INDEX number of the pixel marked W in FIG. 5(A) is the same as the color INDEX number of the adjacent pixel (i.e., the pixel with coordinate 16). The determined color INDEX number is stored in a temporary storage unit (not shown), and the process moves to the next pixel and loops to the beginning of the flow. Note that in the process described below, a color INDEX number is assigned to each pixel, and the assigned color INDEX number is stored in the temporary storage unit.

ステップS212がNOの場合は、次に、色領域区分け部117は、ステップS214及びステップS215において、被写体の奥に存在する背景や、被写体の手前に存在する余計な物体を影検出の対象から除外する処理を行う。具体的に、色領域区分け部117は、距離閾値DTH1max、及びDTH1minを用いた判定を行う。まず、色領域区分け部117は、中心ピクセルの距離値が、DTH1min以下又はDTH1max以上であるかを判定する(ステップS214)。色領域区分け部117は、距離値が閾値を超えていた場合(すなわちステップS214;YES)、中心ピクセルの色INDEX番号を、0とする(ステップS215)。また、色領域区分け部117は、距離値が閾値を超えていない場合(すなわちステップS214;NO)、処理をステップS216に進める。具体的に、図5(A)に示す一例では、数字が付されていない座標については、DTH1maxを超えた部分、すなわち被写体の奥に存在する背景であると判定された部分を示している。また、35乃至41の番号が付されている部分が、DTH1min以下の部分、すなわち被写体の手前に存在する余計な物体であると判定された部分を示している。このような部分は、図5(B)に示す通り、色INDEX番号は0となる。If step S212 is NO, then in steps S214 and S215, the colorregion division unit 117 performs a process of excluding the background behind the subject and unnecessary objects in front of the subject from the target of shadow detection. Specifically, the colorregion division unit 117 performs a judgment using distance thresholds DTH1max and DTH1min. First, the colorregion division unit 117 judges whether the distance value of the center pixel is equal to or less than DTH1min or equal to or more than DTH1max (step S214). If the distance value exceeds the threshold (i.e., step S214; YES), the colorregion division unit 117 sets the color INDEX number of the center pixel to 0 (step S215). If the distance value does not exceed the threshold (i.e., step S214; NO), the colorregion division unit 117 proceeds to the process of step S216. Specifically, in the example shown in FIG. 5(A), coordinates with no numbers indicate areas that exceed DTH1max, i.e. areas that are determined to be background that exists behind the subject. Also, areas numbered 35 to 41 indicate areas that are below DTH1min, i.e. areas that are determined to be extraneous objects that exist in front of the subject. Such areas are assigned a color INDEX number of 0, as shown in FIG. 5(B).

ステップS214がNOの場合は、次に、色領域区分け部117は、ステップS216及びステップS217において、新たに検出された物体に対して色INDEX番号を付す。換言すれば、物体の輪郭部分に対して新たな色INDEX番号を付していくということもできる。具体的に、色領域区分け部117は、左上のピクセルから、水平方向に順次スキャンを行っていくため、あるピクセルをスキャンする場合には、3×3ピクセルのうち、上部3ピクセルと、左1ピクセルについては、既にスキャンが完了しているということができる。色領域区分け部117は、このようにスキャンが完了しているピクセルのうち、まだ0以外の色INDEX番号が無いか判定する(ステップS216)。色領域区分け部117は、まだ0以外の色INDEX番号が無い場合(すなわちステップS216;YES)、当該ピクセルに色INDEX番号を付す(ステップS217)。また、色領域区分け部117は、まだ0以外の距離INDEX番号が有る場合(すなわちステップS216;NO)、処理をステップS218に進める。このような作業を行うことにより、色領域区分け部117は、3×3の中央ピクセルについて、これまで付されていなかったピクセルについて、色INDEX番号を付すことができる。図示する一例において、図5(A)の1が付されているピクセルは、左上からスキャンしていき、初めて物体があると判定されたピクセルであるため、距離INDEX番号として1が付されている。また、24が付されているピクセルは、すでに距離INDEX番号が3まで付されている状況において、付されたものであるため、距離INDEX番号として4が付されている。If step S214 is NO, then in steps S216 and S217, the colorregion division unit 117 assigns a color INDEX number to the newly detected object. In other words, it is also possible to assign a new color INDEX number to the contour of the object. Specifically, since the colorregion division unit 117 sequentially scans horizontally from the upper left pixel, it can be said that when scanning a certain pixel, the upper three pixels and the left one pixel out of the 3 x 3 pixels have already been scanned. The colorregion division unit 117 determines whether there is still a color INDEX number other than 0 among the pixels that have been scanned in this way (step S216). If there is still no color INDEX number other than 0 (i.e., step S216; YES), the colorregion division unit 117 assigns a color INDEX number to the pixel (step S217). Furthermore, if there is still a distance INDEX number other than 0 (i.e., step S216; NO), the colorregion division unit 117 advances the process to step S218. By performing this operation, the colorregion division unit 117 can assign color INDEX numbers to the central pixels of the 3x3 pixel array that have not previously been assigned color INDEX numbers. In the illustrated example, the pixel assigned with 1 in FIG. 5(A) is the first pixel that has been determined to contain an object when scanning from the top left, so it has been assigned a distance INDEX number of 1. Furthermore, the pixel assigned with 24 has been assigned a distance INDEX number of 4 because it was assigned in a situation where distance INDEX numbers up to 3 have already been assigned.

ステップS216がNOの場合は、次に、色領域区分け部117は、ステップS218及びステップS219において、画素値が白黒グレーの付近のものか否かを判定する。白黒グレーの付近のものか否かの判定には、SATTHの閾値が用いられる。具体的に、色領域区分け部117は、上部3ピクセルと左1ピクセルのいずれかに1以上の色INDEX番号が付されているピクセルが少なくとも1以上存在し、上部3ピクセルと左1ピクセルのSAT(上述した(5)式を参照)がSATTH以内であるか否かを判定する(ステップS218)。この条件に該当するピクセルが1つでも存在する場合(すなわち、ステップS218;YES)、これらのピクセルは同じ色とみなされ、同じ色INDEX番号が付される。このとき、SATTH内のものが複数ピクセルある場合はそれらのピクセルは全て、その中で一番若い距離INDEX番号とする(ステップS219)。図示する一例において、図5(A)の7が付されているピクセル及び8が付されているピクセルは、スキャン処理が行われるまでの間、色INDEX番号は4であった。しかしながら、8が付されているピクセルについてのスキャン処理がおこなわれると、左の7が付されているピクセルのSAT値がSATTH以内であったため、色INDEX番号が2に振り直されている。ここで、もし3×3領域以外において、既に色INDEX番号が4として付されているものが記憶されていれば、同時に色INDEX番号を2として振り直し、記憶し直す。色領域区分け部117は、このような処理を行い次のピクセルに移る。If step S216 is NO, then in steps S218 and S219, the colorregion division unit 117 determines whether the pixel value is in the vicinity of black, white, and gray. The SATTH threshold value is used to determine whether the pixel value is in the vicinity of black, white, and gray. Specifically, the colorregion division unit 117 determines whether there is at least one pixel with a color INDEX number of 1 or more assigned to any of the top three pixels and the left pixel, and whether the SAT (see formula (5) above) of the top three pixels and the left pixel is within SATTH (step S218). If there is even one pixel that meets this condition (i.e., step S218; YES), these pixels are considered to be of the same color and are assigned the same color INDEX number. At this time, if there are multiple pixels within SATTH, all of those pixels are assigned the smallest distance INDEX number among them (step S219). In the illustrated example, the pixel marked with 7 and the pixel marked with 8 in FIG. 5A had a color INDEX number of 4 until scanning. However, when scanning is performed on the pixel marked with 8, the SAT value of the pixel marked with 7 on the left is within SATTH, so the color INDEX number is reassigned to 2. If there is already a pixel stored outside the 3x3 region with a color INDEX number of 4, the color INDEX number is reassigned to 2 and restored. The colorregion division unit 117 performs this process before moving on to the next pixel.

ステップS218がNOの場合は、次に、色領域区分け部117は、ステップS220乃至ステップS223において、同じ色相のものであるか否かを判定する。すなわち、色領域区分け部117は、ステップS220乃至ステップS223において、同一の色INDEX番号を付すか、異なる色INDEX番号を付すかを判定する。ここで、ステップS220の処理が行われる場合とは、3×3ピクセルのうち、すでにスキャンして色INDEX番号が付された上部3ピクセルと左1ピクセルにおいて、0以外の色INDEX番号がある場合ということができる。このような場合において、色領域区分け部117は、3×3ピクセルの中心ピクセルがすでに色INDEX番号が付されているものと同じ色相のものかどうか、HUETHの閾値レベルに基づいて判定を行う。If step S218 is NO, then the colorregion division unit 117 determines whether the pixels are of the same hue in steps S220 to S223. That is, the colorregion division unit 117 determines whether to assign the same color INDEX number or different color INDEX numbers in steps S220 to S223. Here, the processing of step S220 is performed when the top three pixels and the left pixel of the 3×3 pixels that have already been scanned and assigned color INDEX numbers have color INDEX numbers other than 0. In such a case, the colorregion division unit 117 determines whether the central pixel of the 3×3 pixels is of the same hue as the pixel that has already been assigned a color INDEX number, based on the threshold level of HUETH.

色領域区分け部117は、具体的には、上部3ピクセルと左1ピクセルのHUE値のいずれかが、3×3の中央ピクセルのHUE値の-HUETH~+HUETH以内であるか否かを判定する(ステップS220)。色領域区分け部117は、上部3ピクセルと左1ピクセルのHUE値のいずれかが、3×3の中央ピクセルのHUE値の-HUETH~+HUETH以内であれば(すなわち、ステップS220;YES)、互いに同じ色相とみなし、互いに同じ色INDEX番号を付す。このとき、中心ピクセルの色相に対して、-HUETH~+HUETH内のものが複数ピクセルある場合、それらのピクセルは全て、その中で一番若い色INDEX番号とする(ステップS221)。また、上部3ピクセルと左1ピクセルにおいて、すでに色INDEX番号が付されており、色INDEX番号が書き換えられた場合、これまでスキャンして色INDEX番号が記憶されている座標を参照し、同じ色INDEX番号を有する各座標についても全て書き換える(ステップS223)。Specifically, the colorregion division unit 117 determines whether any of the HUE values of the top three pixels and the left pixel are within -HUETH to +HUETH of the HUE value of the central pixel of the 3 x 3 array (step S220). If any of the HUE values of the top three pixels and the left pixel are within -HUETH to +HUETH of the HUE value of the central pixel of the 3 x 3 array (i.e., step S220; YES), the colorregion division unit 117 regards them as having the same hue and assigns them the same color INDEX number. In this case, if there are multiple pixels with a hue within -HUETH to +HUETH of the central pixel, all of those pixels are assigned the smallest color INDEX number among them (step S221). Furthermore, if color INDEX numbers have already been assigned to the top three pixels and the left pixel, and the color INDEX numbers are being rewritten, the coordinates that have been scanned so far and have stored color INDEX numbers are referenced, and all coordinates with the same color INDEX number are rewritten (step S223).

図示する一例において、図5(A)の座標が6及び14のピクセルは、座標が20のピクセルについてスキャン処理を行うまでは、色INDEX番号が3とされていたが、座標が20のピクセルについての判定を行うときに、色INDEX番号が1に振り直されている。これは、座標が19のピクセルのHUE値が、-HUETH~+HUETH以内であったためである。その際、図5(B)に示すように、3×3ピクセルの領域外のすでに色INDEX番号が3として記憶されていた座標が6及び14の各ピクセルについても、色INDEX番号が1に振り直されている。このように処理をした後、次のピクセル処理に移る(ステップS224)。In the illustrated example, the pixels withcoordinates 6 and 14 in FIG. 5(A) had a color INDEX number of 3 until the scanning process was performed on the pixel with coordinate 20, but when the determination was made on the pixel with coordinate 20, the color INDEX number was reassigned to 1. This is because the HUE value of the pixel with coordinate 19 was within the range of -HUETH to +HUETH. At that time, as shown in FIG. 5(B), the color INDEX numbers of the pixels withcoordinates 6 and 14 outside the 3x3 pixel area that had already been stored ascolor INDEX numbers 3 were also reassigned to 1. After this processing, the process moves on to the next pixel (step S224).

色領域区分け部117は、上部3ピクセルと左1ピクセルのHUE値のいずれかが、3×3の中央ピクセルのHUE値の-HUETH~+HUETH以内でなければ(すなわち、ステップS220;NO)、対象のピクセルの色INDEX番号を、今まで付してきた色INDEX番号以外の番号に更新して、新たな色INDEX番号とする(ステップS222)。例えば図5(A)の座標が34のピクセルについて、このピクセルのスキャン処理時において、色INDEX番号は1である。しかしながら、左のピクセル(すなわち座標が33のピクセル)、左上のピクセル(すなわち座標が28のピクセル)、及び上のピクセル(すなわち座標が29のピクセル)のHUE値が、-HUETH~+HUETH以内に入らない場合、色INDEX番号が更新され、色INDEX番号が5として記憶される(ステップS222)。また、距離領域区分け部116は、当該処理が行われた後、次のピクセルの処理に移る(ステップS224)。If the HUE values of the top three pixels and the left pixel are not within -HUETH to +HUETH of the HUE value of the central pixel of the 3x3 matrix (i.e., step S220; NO), the colorregion division unit 117 updates the color INDEX number of the target pixel to a number other than the color INDEX number that has been assigned so far, and sets it as the new color INDEX number (step S222). For example, for a pixel with coordinate 34 in FIG. 5(A), the color INDEX number is 1 when this pixel is scanned. However, if the HUE values of the left pixel (i.e., the pixel with coordinate 33), the upper left pixel (i.e., the pixel with coordinate 28), and the upper pixel (i.e., the pixel with coordinate 29) are not within -HUETH to +HUETH, the color INDEX number is updated and the color INDEX number is stored as 5 (step S222). After this process is performed, the distancearea division unit 116 moves on to processing the next pixel (step S224).

色領域区分け部117は、以上のような流れで、すべてのピクセルをスキャンしていく。すなわち、本実施形態においては、複数回の判定が行われた結果、色INDEX番号が更新されていく。図5(B)では、全てのピクセルについて、最終的に得られた結果を示している。The colorregion division unit 117 scans all pixels in the manner described above. That is, in this embodiment, the color INDEX number is updated as a result of multiple determinations. Figure 5 (B) shows the final results obtained for all pixels.

図2に戻り、色領域区分け部117は、最終的に得られた色INDEX番号についての情報を物体領域区分け部118に出力する。Returning to FIG. 2, the colorregion division unit 117 outputs information about the final color INDEX number obtained to the objectregion division unit 118.

物体領域区分け部118は、距離領域区分け部116から、距離INDEX番号についての情報を取得し、色領域区分け部117から、色INDEX番号についての情報を取得する。物体領域区分け部118は取得した情報に基づき、最終的な物体の領域区分けを行う。The objectregion division unit 118 acquires information about the distance INDEX number from the distanceregion division unit 116, and acquires information about the color INDEX number from the colorregion division unit 117. The objectregion division unit 118 performs final object region division based on the acquired information.

図7は、第1実施形態に係る物体領域区分け部による物体領域区分け処理について説明するための図である。同図を参照しながら、物体領域区分け部118により行われる物体領域区分け処理の一例について説明する。物体領域区分け部118は、色INDEX番号を基準として考え、色INDEX番号が0以外のピクセル部分に対して、OBJ_INDEX番号を付していく。ここで、物体領域区分け部118が、(距離INDEX番号ではなく)色INDEX番号を基準とするのは、(測距センサ31と比較して)RGBセンサ32の方が、ノイズの影響を受けにくく、物体の境界が比較的なめらかであるためである。なお、本実施形態は、この一例に限定されるものではなく、物体領域区分け部118は、距離INDEX番号を基準として考えてもよい。FIG. 7 is a diagram for explaining the object region division process by the object region division unit according to the first embodiment. With reference to the figure, an example of the object region division process performed by the objectregion division unit 118 will be described. The objectregion division unit 118 considers the color INDEX number as a reference, and assigns an OBJ_INDEX number to pixel parts with a color INDEX number other than 0. Here, the reason why the objectregion division unit 118 uses the color INDEX number as a reference (rather than the distance INDEX number) is that theRGB sensor 32 is less susceptible to noise (compared to the distance measurement sensor 31) and the boundaries of objects are relatively smooth. Note that this embodiment is not limited to this example, and the objectregion division unit 118 may consider the distance INDEX number as a reference.

物体領域区分け部118は、まず色INDEX番号が0以外であるピクセル部分の色INDEX番号を上位として、距離INDEX番号を下位として、OBJ_INDEX番号をふっていく。例えば、色INDEX番号が2であり、距離INDEX番号が3である場合、OBJ_INDEX番号は、2_3となる。このように、全てのピクセルについて、OBJ_INDEX番号をふっていく。全てのピクセルについてOBJ_INDEX番号を振った結果を、図7(A)として示す。The objectregion division unit 118 first assigns OBJ_INDEX numbers with the color INDEX number of the pixel part with a color INDEX number other than 0 as the higher order and the distance INDEX number as the lower order. For example, if the color INDEX number is 2 and the distance INDEX number is 3, the OBJ_INDEX number will be 2_3. In this way, OBJ_INDEX numbers are assigned to all pixels. The result of assigning OBJ_INDEX numbers to all pixels is shown in Figure 7 (A).

次に、物体領域区分け部118は、3×3ピクセルの領域ごとにOBJ_INDEX番号をスキャンしていき、その3×3ピクセルの中心のOBJ_INDEX番号について、上位の桁が0以外であり下位の桁が0の場合、周囲3×3ピクセルのうち上位の桁が同じ番号であり、下位の桁が同じ番号のピクセルの数が一番多い番号をふり、それをOBJ_INDEX番号として更新する。もし周囲にこの条件があてはまらなかった場合は、番号を0_0としてOBJ_INDEX番号とする。なお、この条件が当てはまるピクセルは、図7(A)においてはOBJ_INDEX番号が2_0であるピクセルに相当する。当該ピクセルは、図7(B)に示すように、2_3に更新される。なお、3×3ピクセルの中心のOBJ_INDEX番号の上位の桁が0以外であり、かつ下位の桁が0である条件にあてはまらなかった場合、OBJ_INDEX番号の更新を行わない。このようにして、最終的な物体領域区分けがなされたOBJ_INDEX番号を得る。Next, the objectregion division unit 118 scans the OBJ_INDEX number for each 3x3 pixel region, and if the OBJ_INDEX number at the center of the 3x3 pixel has a non-zero upper digit and a 0 lower digit, it assigns the number that has the greatest number of pixels with the same upper digit and the same lower digit among the surrounding 3x3 pixels, and updates this as the OBJ_INDEX number. If this condition does not apply to the surrounding pixels, the number is set to 0_0 and the OBJ_INDEX number is updated. Note that a pixel that meets this condition corresponds to the pixel with an OBJ_INDEX number of 2_0 in Figure 7(A). This pixel is updated to 2_3, as shown in Figure 7(B). Note that if the condition that the most significant digit of the OBJ_INDEX number at the center of the 3x3 pixels is not 0 and the least significant digit is 0 is not met, the OBJ_INDEX number is not updated. In this way, the OBJ_INDEX number for the final object region classification is obtained.

図2に戻り、物体領域区分け部118は、最終的な物体領域区分けがなされたOBJ_INDEX番号を、影候補1検出部151及び影候補2検出部152に出力する。以下の説明において、影候補1検出部151及び影候補2検出部152を含む構成を、影候補検出部150と記載する場合がある。影候補検出部150は、領域区分け部119により区分された画像の領域についての情報と、偏光画像取得部131により取得された偏光画像とに基づいて、画像の各座標について影部分と推定される座標の候補を検出するということもできる。Returning to FIG. 2, the objectregion division unit 118 outputs the OBJ_INDEX number resulting from the final object region division to theshadow candidate 1detection unit 151 and theshadow candidate 2detection unit 152. In the following description, a configuration including theshadow candidate 1detection unit 151 and theshadow candidate 2detection unit 152 may be referred to as the shadowcandidate detection unit 150. The shadowcandidate detection unit 150 can also be said to detect candidates for coordinates estimated to be shadow areas for each coordinate in the image, based on information about the image regions divided by theregion division unit 119 and the polarized image acquired by the polarizedimage acquisition unit 131.

影候補1検出部151は、次に同じOBJ_INDEX番号が付されたピクセル群の中から、影と推定される候補(以下、影候補と記載する)を検出する。物体領域区分け部118からOBJ_INDEX番号を取得し、記憶装置21からYTHを取得する。ここで、YTHとは、RGBの輝度信号Yと、影の暗さとの差があるか否かの区分けを行うための閾値である。YTHは、処理対象となる画像が撮像された時間(すなわち、画像取得部111が画像を取得する時間)や天気等に応じて変動する値であってもよい。Theshadow candidate 1detection unit 151 then detects candidates that are presumed to be shadows (hereinafter referred to as shadow candidates) from among the group of pixels that have the same OBJ_INDEX number. It obtains the OBJ_INDEX number from the objectarea classification unit 118 and obtains YTH from thestorage device 21. Here, YTH is a threshold value for determining whether there is a difference between the RGB luminance signal Y and the darkness of the shadow. YTH may be a value that varies depending on the time when the image to be processed was captured (i.e., the time when theimage acquisition unit 111 acquires the image), the weather, etc.

影候補1検出部151は、まず、OBJ_INDEX番号を左上からスキャンしていき、同じOBJ_INDEX番号が、番号ごとに何ピクセル存在するかを検出する。影候補1検出部151は、次に、同じOBJ_INDEX番号を有するピクセルの個数が5個以下の場合は、物体が小さすぎて影はないものとして扱う。この場合、影候補1検出部151は、出力信号である影候補1の値を0にする。影候補1検出部151は、同じOBJ_INDEX番号を有するピクセルの個数が6個以上である場合、6個のうち輝度Yの明るさ順に上位から3個の輝度値の平均を算出する。影候補1検出部151は、算出した平均輝度値から、YTH低い輝度値のピクセルが存在すれば、当該ピクセルは影部分であるとみなし、出力信号である影候補1の値を1にする。影候補1検出部151は、算出した平均輝度値のうち、YTH低い輝度値を有するピクセルが存在しない場合、影は存在しないものとみなし、影候補1を0とする。影候補1検出部151は、このようにして得た影候補1を、影候補2検出部152に出力する。なお、出力信号である影候補1とは、OBJ_INDEX番号ごとに存在する値である。Theshadow candidate 1detection unit 151 first scans the OBJ_INDEX numbers from the top left and detects how many pixels with the same OBJ_INDEX number exist for each number. If there are five or fewer pixels with the same OBJ_INDEX number, theshadow candidate 1detection unit 151 treats the object as being too small to have a shadow. In this case, theshadow candidate 1detection unit 151 sets the value of the output signal,shadow candidate 1, to 0. If there are six or more pixels with the same OBJ_INDEX number, theshadow candidate 1detection unit 151 calculates the average of the three highest brightness values of the six pixels in order of brightness Y. If there is a pixel with a brightness value that is YTH lower than the calculated average brightness value, theshadow candidate 1detection unit 151 considers the pixel to be in the shadow area and sets the value of the output signal,shadow candidate 1, to 1. If there are no pixels with a YTH lower brightness value among the calculated average brightness values, theshadow candidate 1detection unit 151 assumes that no shadow exists and setsshadow candidate 1 to 0. Theshadow candidate 1detection unit 151 outputs theshadow candidate 1 obtained in this manner to theshadow candidate 2detection unit 152. Note that the output signal,shadow candidate 1, is a value that exists for each OBJ_INDEX number.

次に、偏光画像取得部131、偏光角算出部132及びリサイズ部133の機能について説明する。偏光角算出部132及びリサイズ部133の機能の前提となる事項して、偏光センサ33の構成の一例について説明する。Next, we will explain the functions of the polarizedimage acquisition unit 131, the polarizationangle calculation unit 132, and the resizingunit 133. We will explain an example of the configuration of thepolarization sensor 33 as a prerequisite for the functions of the polarizationangle calculation unit 132 and the resizingunit 133.

図8は、第1実施形態に係る偏光センサの構成の一例について説明するための図である。偏光センサ33は、図8(A)に示すように、マイクロレンズアレイ331と、偏光板アレイ332と、ピクセルアレイ333とを備える。マイクロレンズアレイ331は複数のマイクロレンズを備え、偏光板アレイ332は複数の偏光子(偏光板)を備え、ピクセルアレイ333は複数のピクセル(画素)を備える。図示するように偏光子は、ピクセルごとに偏光角度が45度ずつ変えて実装されている。図8(B)には、偏光子ごとの偏光角度を示している。図示するように、偏光センサ33は、4個のピクセルにより、0度、45度、90度、135度の偏光度を把握できる。Figure 8 is a diagram for explaining an example of the configuration of the polarization sensor according to the first embodiment. As shown in Figure 8 (A), thepolarization sensor 33 includes amicrolens array 331, apolarizing plate array 332, and apixel array 333. Themicrolens array 331 includes a plurality of microlenses, thepolarizing plate array 332 includes a plurality of polarizers (polarizing plates), and thepixel array 333 includes a plurality of pixels (picture elements). As shown in the figure, the polarizers are implemented with the polarization angle changed by 45 degrees for each pixel. Figure 8 (B) shows the polarization angle for each polarizer. As shown in the figure, thepolarization sensor 33 can grasp the polarization degrees of 0 degrees, 45 degrees, 90 degrees, and 135 degrees using four pixels.

図2に戻り、偏光画像取得部131は、このような偏光センサ33により撮像された偏光画像を取得する。当該偏光画像には、4つの偏光方向の信号が含まれる。当該偏光画像は、被写体を、複数の異なる偏光角度を有する偏光フィルタを介して撮像された画像であるということもできる。このような偏光センサ33から得られた4つの偏光方向の信号から、その偏光角度を求めることは広く知られており、例えば下記の(6)式から(8)式を用いた計算により求めることができる。なお、偏光センサ33から得られる4つの偏光角度の信号を、H0、H45、H90、及びH135と記載する。Returning to FIG. 2, the polarizedimage acquisition unit 131 acquires a polarized image captured by such apolarization sensor 33. The polarized image includes signals in four polarization directions. It can also be said that the polarized image is an image of a subject captured through a polarizing filter having a plurality of different polarization angles. It is widely known that the polarization angle can be calculated from the signals in the four polarization directions obtained from such apolarization sensor 33, and can be calculated, for example, by using the following equations (6) to (8). The signals of the four polarization angles obtained from thepolarization sensor 33 are referred to as H0, H45, H90, and H135.

Q=H0-H90・・・(6)
U=H45-H135・・・(7)
Q=H0-H90...(6)
U=H45-H135...(7)

この場合の偏光角度AoLPは、次の(8)式により求めることができる。In this case, the polarization angle AoLP can be calculated using the following equation (8).

AoLP=1/2ATAN(U/Q)・・・(8)AoLP=1/2ATAN(U/Q)...(8)

偏光角算出部132は、上述した(6)式から(8)式を用いた計算を行うことにより、AoLPを得る。The polarizationangle calculation unit 132 obtains the AoLP by performing calculations using the above-mentioned equations (6) to (8).

リサイズ部133は、RGBセンサ32と同じ画素分の偏光角度の画素数になるように、リサイズを行う。The resizingunit 133 resizes the image so that the number of pixels with the polarization angle is the same as that of theRGB sensor 32.

ここで、ある被写体の光部分と影部分とでは、同じ物体でも偏光角度が大きく異なる性質があることに注目する。影は光の当たり方が違うためにできるものである。したがって、影部分の偏光角度は、光の当たっている部分の偏光角度と異なるものとなる。Here, it is important to note that the polarization angle of the light and shadow parts of a subject can be very different, even for the same object. Shadows are created when light hits the subject in different ways. Therefore, the polarization angle of the shadow parts will be different from the polarization angle of the light-hit parts.

図9は、第1実施形態に係る偏光センサにより得られた偏光角度の信号に基づき、色分けした場合の一例である。図9(A)は、偏光センサから得られた4つの偏光角度の各信号を示す。図9(B)は、これらの信号から、上記の式(8)を用いて偏光角度AoLPを算出し、その角度を色分けした場合の一例である。図示するように、影部分と、影ではない部分とは、同じ物体であっても、偏光角度が異なることが分かる。Figure 9 shows an example of color coding based on the polarization angle signals obtained by the polarization sensor according to the first embodiment. Figure 9(A) shows the signals for the four polarization angles obtained from the polarization sensor. Figure 9(B) shows an example of color coding the polarization angle AoLP calculated from these signals using equation (8) above. As shown in the figure, it can be seen that the polarization angles are different between the shadowed and non-shadowed parts even if they are the same object.

図2に戻り、影候補1と、偏光センサ33により得られた情報とに基づき、最終的な影候補を検出する処理について説明する。Returning to Figure 2, we will now explain the process of detecting the final shadow candidate based onshadow candidate 1 and the information obtained by thepolarization sensor 33.

影候補2検出部152は、影候補1検出部151から影候補1を取得し、物体領域区分け部118からOBJ_INDEX番号を取得する。また、影候補2検出部152は、記憶装置21からDEGTHを取得する。DEGTHとは、偏光角度の差があるかどうかの判定に用いられる閾値である。影候補2検出部152は、同じ番号のOBJ_INDEX番号の中から、影候補1の信号が1である部分について、平均の偏光角度AoLPを算出する。具体的に、影候補2検出部152は、偏光角算出部132により偏光角度AoLPが算出され、リサイズ部133によりリサイズが行われた後の情報から、影候補1の信号が1である部分に対応する部分の偏光角度AoLPを抽出してもよい。影候補2検出部152は、算出した偏光角度AoLPを、AoLP_Shadow1として記憶する。次に、影候補2検出部152は、同じOBJ_INDEX番号の中から影候補1の信号が0の部分の平均の偏光角度AoLPを算出する。影候補2検出部152は、算出した偏光角度AoLPを、AoLP_Shadow0とする。Theshadow candidate 2detection unit 152 obtains theshadow candidate 1 from theshadow candidate 1detection unit 151 and obtains the OBJ_INDEX number from the objectarea division unit 118. Theshadow candidate 2detection unit 152 also obtains the DEGTH from thestorage device 21. The DEGTH is a threshold value used to determine whether there is a difference in polarization angle. Theshadow candidate 2detection unit 152 calculates the average polarization angle AoLP for the part where the signal of theshadow candidate 1 is 1 from the OBJ_INDEX numbers with the same number. Specifically, theshadow candidate 2detection unit 152 may extract the polarization angle AoLP of the part corresponding to the part where the signal of theshadow candidate 1 is 1 from the information after the polarization angle AoLP is calculated by the polarizationangle calculation unit 132 and resizing is performed by the resizingunit 133. Theshadow candidate 2detection unit 152 stores the calculated polarization angle AoLP as AoLP_Shadow1. Next, theshadow candidate 2detection unit 152 calculates the average polarization angle AoLP of the portion of theshadow candidate 1 signal that has the same OBJ_INDEX number as theshadow candidate 2detection unit 152, which sets the calculated polarization angle AoLP as AoLP_Shadow0.

次に、影候補2検出部152は、算出したAoLP_Shadow1と、AoLP_Shadow0との角度差の差分を算出する。また、影候補2検出部152は、算出した差分がDEGTH以上であるか否かを算出する。影候補2検出部152は、算出した差分がDEGTH以上である部分を、最終的な影部分と判断して、SHADOW信号を1として出力する。また、影候補2検出部152は、算出した差分がDEGTH以下であれば、SHADOW信号を0にする。このSHADOW信号は、画素ごとに存在するものであり、RGB画像及び距離画像の解像度と一致するものである。すなわち、画素ごとのSHADOW信号を含む情報をSHADOW画像ということもできる。Next, theshadow candidate 2detection unit 152 calculates the difference in the angle difference between the calculated AoLP_Shadow1 and AoLP_Shadow0. Theshadow candidate 2detection unit 152 also calculates whether the calculated difference is equal to or greater than DEGTH. Theshadow candidate 2detection unit 152 determines that the part where the calculated difference is equal to or greater than DEGTH is the final shadow part, and outputs a SHADOW signal as 1. Theshadow candidate 2detection unit 152 also sets the SHADOW signal to 0 if the calculated difference is equal to or less than DEGTH. This SHADOW signal exists for each pixel, and corresponds to the resolution of the RGB image and the distance image. In other words, information including the SHADOW signal for each pixel can be called a SHADOW image.

図10は、第1実施形態に係るSHADOW画像の一例を示す図である。図示するSHADOW画像は、図3、図5及び図7に対応するものである。1は、影部分を示しており、0は影でない部分を示している。本実施形態によれば、図示するようなSHADOW画像を参照することにより、RGB画像及び距離画像の画素ごとに、影であるか否かの判断をすることができるようになる。Figure 10 is a diagram showing an example of a SHADOW image according to the first embodiment. The SHADOW image shown corresponds to Figures 3, 5, and 7. 1 indicates a shadow area, and 0 indicates a non-shadow area. According to this embodiment, by referring to a SHADOW image as shown in the figure, it becomes possible to determine whether or not each pixel in the RGB image and the distance image is a shadow.

なお、SHADOW画像は、RGB画像及び距離画像と対応付けて記憶されることが好適である。SHADOW信号が、RGB画像及び距離画像と対応付けて記憶されることにより、三次元モデルを形成するような場合であっても、SHADOW画像を参照することにより、どの部分が元の被写体の影であるか把握することが容易になる。It is preferable that the SHADOW image is stored in association with the RGB image and the distance image. By storing the SHADOW signal in association with the RGB image and the distance image, it becomes easy to determine which parts are the shadows of the original subject by referring to the SHADOW image, even in cases where a three-dimensional model is formed.

なお、本実施形態に係るRGB画像、距離画像、及びSHADOW画像は、連続的なフレームをとらえて、動画として扱ってもよい。Note that the RGB image, distance image, and shadow image according to this embodiment may be captured as successive frames and treated as a video.

[実施形態1のまとめ]
以上説明した実施形態によれば、影領域検出装置10は、画像取得部111を備えることにより、被写体の情報を二次元平面上の各座標に有する画像を取得し、領域区分け部119を備えることにより、取得した画像の各座標について、各座標が有する被写体の情報に基づき、複数の領域に区分し、偏光画像取得部131を備えることにより、被写体を、複数の異なる偏光角度を有する偏光フィルタをそれぞれ介して撮像された複数の偏光画像を取得し、影候補検出部150を備えることにより、領域区分け部119により区分された画像の領域についての情報と、偏光画像取得部131により取得された偏光画像とに基づいて、画像の各座標について影部分と推定される座標の候補を検出する。すなわち、本実施形態によれば、影の影響により被写体の色情報が暗くなっている部分を検出することができる。本実施形態によれば、影の影響により被写体の色情報が暗くなっている部分を検出することができるため、三次元モデルを生成しようとした場合に、検出された影部分の色情報を補正することにより、影による影響を低減した三次元モデルを生成することができる。
[Summary of the First Embodiment]
According to the embodiment described above, the shadowarea detection device 10 includes theimage acquisition unit 111 to acquire an image having information of a subject at each coordinate on a two-dimensional plane, includes thearea division unit 119 to divide each coordinate of the acquired image into a plurality of areas based on the information of the subject at each coordinate, includes the polarizedimage acquisition unit 131 to acquire a plurality of polarized images of the subject captured through polarizing filters having a plurality of different polarization angles, and includes the shadowcandidate detection unit 150 to detect candidates of coordinates estimated to be shadow areas for each coordinate of the image based on information on the areas of the image divided by thearea division unit 119 and the polarized image acquired by the polarizedimage acquisition unit 131. That is, according to this embodiment, it is possible to detect areas where the color information of the subject is dark due to the influence of a shadow. According to this embodiment, it is possible to detect areas where the color information of the subject is dark due to the influence of a shadow, so that when a three-dimensional model is to be generated, it is possible to generate a three-dimensional model with reduced influence of a shadow by correcting the color information of the detected shadow area.

また、上述した実施形態によれば、画像取得部111により取得される画像には、被写体の色に関する情報を二次元平面上の各座標に有するRGB画像が含まれ、領域区分け部119は、RGB画像の各座標について、各座標が有する色情報に基づき、複数の領域に区分する。すなわち、本実施形態によれば、高解像度なRGB画像と、偏光画像とに基づいて影候補を検出する。したがって、本実施形態によれば、高解像度なRGB画像に基づいて影候補を検出するため、精度よく、影候補を検出することができる。Furthermore, according to the above-described embodiment, the image acquired by theimage acquisition unit 111 includes an RGB image having information about the color of the subject at each coordinate on a two-dimensional plane, and theregion division unit 119 divides each coordinate of the RGB image into multiple regions based on the color information that each coordinate has. That is, according to this embodiment, shadow candidates are detected based on a high-resolution RGB image and a polarized image. Therefore, according to this embodiment, shadow candidates are detected based on a high-resolution RGB image, so that shadow candidates can be detected with high accuracy.

また、上述した実施形態によれば、画像取得部111により取得される画像には、被写体までの距離に関する情報を二次元平面上の各座標に有する距離画像が含まれ、領域区分け部119は、距離画像の各座標について、各座標が有する距離情報に基づき、複数の領域に区分する。すなわち、本実施形態によれば、距離画像と偏光画像とに基づいて影候補を検出する。距離画像によれば、同一の物体であるか否かを精度よく判定することができる。したがって、本実施形態によれば、精度よく、影候補を検出することができる。Furthermore, according to the above-described embodiment, the image acquired by theimage acquisition unit 111 includes a distance image having information on the distance to the subject at each coordinate on a two-dimensional plane, and theregion division unit 119 divides each coordinate of the distance image into multiple regions based on the distance information that each coordinate has. That is, according to this embodiment, shadow candidates are detected based on the distance image and the polarized image. The distance image makes it possible to accurately determine whether or not the objects are the same. Therefore, according to this embodiment, shadow candidates can be detected with high accuracy.

[実施形態2及び実施形態3]
次に、図11から図14を参照しながら、第2実施形態及び実施形態3に係る影領域検出システム1Aについて説明する。実施形態2及び実施形態3においては、上述したSHADOW画像を用いて、RGB画像及び距離画像における影の部分を補正する。実施形態2においては、RGB画像の影補正を行い、実施形態3においては、距離画像の影補正を行う。以下、実施形態2及び実施形態3において共通の事項について、説明する。
[Embodiment 2 and embodiment 3]
Next, a shadowarea detection system 1A according to a second embodiment and a third embodiment will be described with reference to Fig. 11 to Fig. 14. In the second and third embodiments, the above-mentioned SHADOW image is used to correct shadow portions in an RGB image and a distance image. In the second embodiment, shadow correction is performed on an RGB image, and in the third embodiment, shadow correction is performed on a distance image. Below, matters common to the second and third embodiments will be described.

図11は、第2実施形態に係る影領域検出システムの機能構成の一例について示す機能構成図である。同図を参照しながら、影領域検出システム1Aの機能構成の一例について説明する。影領域検出システム1Aは、影補正部161を更に備える点において影領域検出システム1とは異なる。影領域検出システム1Aの説明において、影領域検出システム1と同様の構成については同様の符号を付すことにより説明を省略する場合がある。FIG. 11 is a functional configuration diagram showing an example of the functional configuration of a shadow area detection system according to the second embodiment. An example of the functional configuration of shadowarea detection system 1A will be described with reference to the same diagram. Shadowarea detection system 1A differs from shadowarea detection system 1 in that it further includes ashadow correction unit 161. In the description of shadowarea detection system 1A, components similar to those of shadowarea detection system 1 are denoted by similar reference numerals and descriptions thereof may be omitted.

影補正部161は、影候補2検出部152からSHADOW信号を取得し、リサイズ部113からリサイズが行われた距離画像を取得し、画像取得部111からRGB信号を取得する。影補正部161は、影候補検出部150により、影候補と推定された座標が有する画素値又は距離値の少なくとも一方を、影候補と推定されなかった座標が有する画素値又は距離値の少なくとも一方に置き換えることにより、影部分を補正する。具体的には、影補正部161は、取得した情報に基づき、ピクセルごとに、同じOBJ_INDEX番号の影ではない部分から何ピクセル離れているかを水平、垂直方向ごと求める。具体的には、影補正部161は、SHADOW信号が1である影部分のピクセルに対し、左右水平方向のどちらかにOBJ_INDEX番号が同じものがある場合は、それが水平方向に何ピクセル離れているかを算出し、算出した値をSHADOW_HDISTANCEとする。このとき左右の方向が分かるように、右にある場合はプラス、左にある場合はマイナスになるように符号をつける。左右水平方向にOBJ_INDEX番号が同じ番号のものがある場合は、近い距離の番号をSHADOW_HDISTANCEに入れる。また、左右方向に同じOBJ_INDEX番号が無い場合は、SHADOW_HDISTANCEを0にする。Theshadow correction unit 161 acquires a SHADOW signal from theshadow candidate 2detection unit 152, acquires a resized distance image from the resizingunit 113, and acquires an RGB signal from theimage acquisition unit 111. Theshadow correction unit 161 corrects the shadow portion by replacing at least one of the pixel value or distance value of the coordinates estimated as a shadow candidate by the shadowcandidate detection unit 150 with at least one of the pixel value or distance value of the coordinates not estimated as a shadow candidate. Specifically, theshadow correction unit 161 calculates how many pixels away each pixel is from a non-shadow portion having the same OBJ_INDEX number in the horizontal and vertical directions based on the acquired information. Specifically, if there is a pixel in the shadow portion with a SHADOW signal of 1 in either the left or right horizontal direction that has the same OBJ_INDEX number, theshadow correction unit 161 calculates how many pixels away it is in the horizontal direction, and sets the calculated value as SHADOW_HDISTANCE. At this time, to determine the left or right direction, a sign is added so that if it is to the right, it is positive, and if it is to the left, it is negative. If there are objects with the same OBJ_INDEX number in the left and right horizontal direction, the number of the closest distance is entered into SHADOW_HDISTANCE. Also, if there are no objects with the same OBJ_INDEX number in the left and right direction, SHADOW_HDISTANCE is set to 0.

また、影補正部161は、SHADOW信号が1である影部分のピクセルに対し、上下垂直方向のどちらかにOBJ_INDEX番号が同じものがある場合は、それが垂直に何ピクセル離れているかを算出し、算出した値をSHADOW_VDISTANCEとする。このとき上下の方向が分かるように、下にある場合はプラス、上にある場合はマイナスになるように符号をつける。上下垂直方向にOBJ_INDEX番号が同じ番号のものがある場合は、近い距離の番号をSHADOW_VDISTANCEに入れる。また、上下方向に同じOBJ_INDEX番号が無い場合は、SHADOW_VDISTANCEを0にする。Furthermore, if there is a pixel in the shadow area with a SHADOW signal of 1 that has the same OBJ_INDEX number either above or below the pixel in the vertical direction, theshadow correction unit 161 calculates how many pixels away it is vertically, and sets the calculated value as SHADOW_VDISTANCE. At this time, to indicate the up or down direction, a sign is assigned so that if it is below, it is positive, and if it is above, it is negative. If there are pixels with the same OBJ_INDEX number above or below the pixel in the vertical direction, the number of the closest distance is entered into SHADOW_VDISTANCE. Furthermore, if there is no pixel with the same OBJ_INDEX number above or below, SHADOW_VDISTANCE is set to 0.

図12は、第2実施形態に係る影補正部による影補正処理について説明するための図である。図12(A)は、上記の方法に従って算出されたSHADOW_HDISTANCEの一例を示している。また、図12(B)は、上記の方法に従って算出されたSHADOW_VDISTANCEの値を表示している。Figure 12 is a diagram for explaining the shadow correction process by the shadow correction unit according to the second embodiment. Figure 12 (A) shows an example of SHADOW_HDISTANCE calculated according to the above method. Also, Figure 12 (B) shows the value of SHADOW_VDISTANCE calculated according to the above method.

図13は、第2実施形態に係る影補正部の機能構成の一例について示す機能構成図である。同図を参照しながら、影補正部161の機能構成の一例について説明する。影補正部161は、影距離算出部1611と、ローパスフィルタ1612と、減算部1613と、置換部1614と、ローパスフィルタ1615と、加算部1616とを備える。FIG. 13 is a functional configuration diagram showing an example of the functional configuration of the shadow correction unit according to the second embodiment. With reference to the same figure, an example of the functional configuration of theshadow correction unit 161 will be described. Theshadow correction unit 161 includes a shadowdistance calculation unit 1611, a low-pass filter 1612, asubtraction unit 1613, areplacement unit 1614, a low-pass filter 1615, and anaddition unit 1616.

影距離算出部1611は、上述した方法により、SHADOW_HDISTANCEとSHADOW_VDISTANCEとを算出する。影距離算出部1611は、算出した値を、ローパスフィルタ1612、置換部1614、及びローパスフィルタ1615に出力する。The shadowdistance calculation unit 1611 calculates SHADOW_HDISTANCE and SHADOW_VDISTANCE using the method described above. The shadowdistance calculation unit 1611 outputs the calculated values to the low-pass filter 1612, thereplacement unit 1614, and the low-pass filter 1615.

置換部1614は、SHADOW_HDISTANCEとSHADOW_VDISTANCEの絶対値が距離の近い方の方向の距離ピクセル数の影ではない部分について、RGB信号又は距離信号に置き換える。ここで、方向はSHADOW_HDISTANCEと、SHADOW_VDISTANCEの符号により判断される。ただし、SHADOW_HDISTANCEとSHADOW_VDISTANCEのどちらかに0がある場合は、0でない方の方向と、距離の影ではない部分のRGB信号又は距離信号に置き換える。Thereplacement unit 1614 replaces the absolute values of SHADOW_HDISTANCE and SHADOW_VDISTANCE with an RGB signal or distance signal for the non-shadow part of the distance pixel count in the direction of the closer distance. Here, the direction is determined by the signs of SHADOW_HDISTANCE and SHADOW_VDISTANCE. However, if either SHADOW_HDISTANCE or SHADOW_VDISTANCE contains a 0, it replaces it with the non-zero direction and the RGB signal or distance signal for the non-shadow part of the distance.

ローパスフィルタ1615は、置換部1614の出力に対して、フィルタをかける。ローパスフィルタ1615は、SHADOW_HDISTANCEとSHADOW_VDISTANCEの値に応じて、フィルタのかかり具合を変える。ローパスフィルタ1615は、距離が遠いほどフィルタがかかり、なめらかにする。The low-pass filter 1615 filters the output of thereplacement unit 1614. The low-pass filter 1615 changes the degree of filtering depending on the values of SHADOW_HDISTANCE and SHADOW_VDISTANCE. The longer the distance, the more the low-pass filter 1615 filters, making the image smoother.

図14は、第2実施形態に係るLPFの機能構成の一例について示す機能構成図である。同図を参照しながら、ローパスフィルタLPFの機能構成の一例について説明する。ローパスフィルタ1612及びローパスフィルタ1615は、いずれも図示するような機能構成を有しており、互いに同一の機能構成を有していてもよい。以下、ローパスフィルタ1612及びローパスフィルタ1615を互いに区別しない場合は、ローパスフィルタLPFと記載する場合がある。FIG. 14 is a functional configuration diagram showing an example of the functional configuration of an LPF according to the second embodiment. With reference to the same figure, an example of the functional configuration of the low-pass filter LPF will be described. Low-pass filter 1612 and low-pass filter 1615 both have the functional configuration shown in the figure, and may have the same functional configuration. Hereinafter, when there is no need to distinguish between low-pass filter 1612 and low-pass filter 1615, they may be referred to as low-pass filter LPF.

ローパスフィルタLPFは、3TAP水平LPF411乃至3TAP水平LPF414と、HSEL42と、3TAP垂直LPF431乃至3TAP水平LPF434と、VSEL44とを備える。ローパスフィルタLPFは、まず、RGB信号又は距離信号について、水平方向のLPF処理を行う。HSEL42は、SHADOW_HDISTNACEの絶対値に基づき、3TAP水平LPFを通さないスルーの状態、1回通った状態、2回通った状態、3回通った状態、4回通った状態、のいずれかに切り替える。具体的に、HSEL42は、SHADOW_HDISTANCEが0の場合はスルー、1の場合は1回通った状態、2の場合は2回通った状態、3の場合は3回通った状態、というように切り替えてもよい。なお、HSEL42は、SHADOW_HDISTANCEが4以上の場合は4回通った状態に切り替えてもよい。The low-pass filter LPF includes 3TAPhorizontal LPF 411 to 3TAPhorizontal LPF 414,HSEL 42, 3TAPvertical LPF 431 to 3TAPhorizontal LPF 434, andVSEL 44. The low-pass filter LPF first performs horizontal LPF processing on the RGB signal or the distance signal. Based on the absolute value of SHADOW_HDISTNACE,HSEL 42 switches between a through state where the signal does not pass through the 3TAP horizontal LPF, a state where the signal has passed once, a state where the signal has passed twice, a state where the signal has passed three times, and a state where the signal has passed four times. Specifically,HSEL 42 may switch between a through state when SHADOW_HDISTANCE is 0, a state where the signal has passed once when SHADOW_HDISTANCE is 1, a state where the signal has passed twice when SHADOW_HDISTANCE is 2, and a state where the signal has passed three times when SHADOW_HDISTANCE is 3. Note that HSEL42 may switch to the four-pass state if SHADOW_HDISTANCE is 4 or greater.

なお、3TAP水平LPF411乃至3TAP水平LPF414は、それぞれ、以下の(9)式に示すようなものであってもよい。Note that the 3TAPhorizontal LPF 411 to 3TAPhorizontal LPF 414 may each be as shown in the following equation (9).

H3TAPLPF=0.25Z^(-1)+0.5Z^0+0.25Z^1・・・(9)
なお、Zは1ピクセル分のスキャン時間である。
H3TAPLPF=0.25Z^(-1)+0.5Z^0+0.25Z^1...(9)
It should be noted that Z is the scan time for one pixel.

垂直についても水平と同様の処理が行われる。具体的には、VSL44は、SHADOW_VDISTNACEの絶対値に基づき、3TAP垂直LPFを通さないスルーの状態、1回通った状態、2回通った状態、3回通った状態、4回通った状態のいずれかに切り替える。具体的に、VSEL44は、SHADOW_VDISTANCEが0の場合はスルー、1の場合は1回通った状態、2の場合は2回通った状態、3の場合は3回通った状態、というように切り替えてもよい。なお、VSEL44は、SHADOW_VDISTANCEが4以上の場合は4回通った状態に切り替えてもよい。The same processing is performed for the vertical direction as for the horizontal direction. Specifically, VSL44 switches to one of the following states: through (not passing through the 3TAP vertical LPF), through once, through twice, through three times, or through four times, based on the absolute value of SHADOW_VDISTANCE. Specifically, VSEL44 may switch between through when SHADOW_VDISTANCE is 0, through once when SHADOW_VDISTANCE is 1, through twice when SHADOW_VDISTANCE is 2, and through three times when SHADOW_VDISTANCE is 3. Note that VSEL44 may switch to the four-times pass state when SHADOW_VDISTANCE is 4 or greater.

なお、3TAP垂直LPF431乃至3TAP水平LPF434は、それぞれ、以下の(10)式に示すようなものであってもよい。In addition, the 3TAPvertical LPF 431 to the 3TAPhorizontal LPF 434 may each be as shown in the following equation (10).

V3TAPLPF=0.25Z^(-1)+0.5Z^0+0.25Z^1・・・(10)
なお、Zは1ライン分のスキャン時間である。
V3TAPLPF=0.25Z^(-1)+0.5Z^0+0.25Z^1...(10)
It should be noted that Z is the scan time for one line.

ローパスフィルタ1615は、このようにしてLPFをかけた信号を、SHADOW_LPFとして出力する。The low-pass filter 1615 outputs the signal that has been LPF-filtered in this manner as SHADOW_LPF.

影補正部161は、ローパスフィルタ1612を備えることにより、置き換えられていない状態(置換部1614を通過する前の状態)のRGB信号又は距離信号に、同様のLPFをかけてもよい。ローパスフィルタ1612を通過した信号は、減算部1613により、ローパスフィルタ1612を通過する前のRGB信号又は距離信号から減算されることにより、高い周波数の信号を取り出すことができる。減算された信号は、加算部1616により、ローパスフィルタ1615から出力されたSHADOW_LPFと加算され、出力される。このように高周波数成分をもとの信号から取り出したものを加算することにより、影補正をしても精細感が失われないようにすることができる。By including a low-pass filter 1612, theshadow correction unit 161 may apply a similar LPF to the RGB signal or distance signal in an unreplaced state (before passing through the replacement unit 1614). The signal that has passed through the low-pass filter 1612 is subtracted by thesubtraction unit 1613 from the RGB signal or distance signal before passing through the low-pass filter 1612, thereby extracting a high-frequency signal. The subtracted signal is added by theaddition unit 1616 to the SHADOW_LPF output from the low-pass filter 1615, and output. By adding the high-frequency components extracted from the original signal in this way, it is possible to prevent a loss of detail even when shadow correction is performed.

影補正部161は、以上のような処理により影補正を行い、影の影響を低減したRGB信号又は距離信号を、記憶装置22に記憶させる。なお、影補正部161により行われる補正処理は、RGB値又は距離値のいずれか一方の補正処理であってもよい。測距センサ31から得られた距離信号は、影のような暗い部分の距離精度が正しく出ない傾向になるので、(RGB画像を補正せず)距離値だけを補正したとしても、影部分の距離精度を上げる目的としては有効である。Theshadow correction unit 161 performs shadow correction by the above-mentioned process, and stores the RGB signal or distance signal with reduced shadow effects in thestorage device 22. The correction process performed by theshadow correction unit 161 may be a correction process of either the RGB value or the distance value. Since the distance signal obtained from thedistance measurement sensor 31 tends to not provide accurate distance accuracy in dark areas such as shadows, correcting only the distance value (without correcting the RGB image) is effective for the purpose of increasing the distance accuracy in shadow areas.

なお、本実施形態に係るRGB画像、距離画像、及びSHADOW画像は、連続的なフレームをとらえて、動画として扱ってもよい。Note that the RGB image, distance image, and shadow image according to this embodiment may be captured as successive frames and treated as a video.

[実施形態2及び実施形態3のまとめ]
以上説明した実施形態によれば、影領域検出装置10Aは、影候補検出部150により、影候補と推定された座標が有する画素値を、影候補と推定されなかった座標が有する画素値に基づいた値に置き換える。したがって、本実施形態によれば、影の影響により被写体の色情報が暗くなっている部分を検出し、影でない部分のRGB値に基づき補正することができる。また、本実施形態によれば、影部分の距離値を、影でない部分の距離値に基づき補正することができる。
[Summary of the second and third embodiments]
According to the embodiment described above, the shadowarea detection device 10A replaces pixel values of coordinates estimated as shadow candidates with values based on pixel values of coordinates not estimated as shadow candidates by the shadowcandidate detection unit 150. Therefore, according to this embodiment, it is possible to detect parts of the subject where the color information is darkened due to the influence of a shadow and correct the parts based on the RGB values of the parts that are not shadows. Furthermore, according to this embodiment, it is possible to correct the distance value of the shadow part based on the distance value of the parts that are not shadows.

[実施形態4]
次に、図15及び図16を参照しながら、実施形態4について説明する。本実施形態においては、上述した実施形態1乃至実施形態3に係る影領域検出システムを備えた撮像装置について説明する。ここで、RGBセンサ、偏光センサ、及びTOFセンサは、それぞれ同じレンズで同じ光軸で撮影されると、それぞれのピクセルのずれがなくなる。このような構成を採用することにより、より正確な影検出及び影補正が可能になる。本実施形態においては、プリズムを用いて、同光軸上にRGBセンサ、偏光センサ、及びTOFセンサを配置した場合の一例について説明する。
[Embodiment 4]
Next, a fourth embodiment will be described with reference to Figs. 15 and 16. In this embodiment, an imaging device including the shadow area detection system according to the first to third embodiments will be described. Here, when the RGB sensor, the polarization sensor, and the TOF sensor are photographed with the same lens and on the same optical axis, there is no misalignment between the pixels. By adopting such a configuration, more accurate shadow detection and shadow correction are possible. In this embodiment, an example will be described in which the RGB sensor, the polarization sensor, and the TOF sensor are arranged on the same optical axis using a prism.

図15は、第3実施形態に係る影領域検出システムを備える撮像装置の第1の配置例を示す断面図である。同図を参照しながら、第1の配置例である撮像装置51について説明する。撮像装置51は、偏光解消板511と、偏光センサ512と、無偏光ハーフミラー513と、可視光/赤外分離ダイクロコート514と、ToFセンサ515と、RGBセンサ516とを備える。Figure 15 is a cross-sectional view showing a first example of the arrangement of an imaging device equipped with a shadow area detection system according to the third embodiment. With reference to the figure, animaging device 51, which is the first example of the arrangement, will be described. Theimaging device 51 includes a depolarizingplate 511, apolarization sensor 512, a non-polarizinghalf mirror 513, a visible light/infrared separationdichroic coat 514, aToF sensor 515, and anRGB sensor 516.

図示するように、偏光センサ512は、可視光/赤外分離ダイクロコート514による偏光変化の影響がない第一射出に配置される。さらに、第1射出面に偏光解消板511を配置することにより、第1プリズム内の全反射による偏光状態の変化を解消させる。また、ハーフミラーとして、無偏光ハーフミラー513が用いられる。具体的に、無偏光ハーフミラー513は、金属膜又は誘電体膜が用いられてもよい。可視光/赤外分離ダイクロコート514は、可視光と近赤外光を分離する。分離された結果、近赤外光を通した第3射出面には、ToFセンサ515が配置され、可視光を通した第2射出面には、RGBセンサ516が配置される。As shown in the figure, thepolarization sensor 512 is placed on the first exit, which is not affected by the polarization change caused by the visible light/infrared separationdichroic coat 514. Furthermore, by placing a depolarizingplate 511 on the first exit surface, the change in the polarization state caused by total reflection within the first prism is eliminated. In addition, a non-polarizinghalf mirror 513 is used as the half mirror. Specifically, the non-polarizinghalf mirror 513 may be a metal film or a dielectric film. The visible light/infrared separationdichroic coat 514 separates visible light and near-infrared light. As a result of the separation, aToF sensor 515 is placed on the third exit surface that transmits the near-infrared light, and anRGB sensor 516 is placed on the second exit surface that transmits the visible light.

図16は、第3実施形態に係る影領域検出システムを備える撮像装置の第2の配置例を示す断面図である。同図を参照しながら、第2の配置例である撮像装置52について説明する。撮像装置52は、無偏光可視光/赤外分離ダイクロコート521と、ToFセンサ522と、無偏光ハーフミラー523と、偏光センサ524と、RGBセンサ525とを備える。Figure 16 is a cross-sectional view showing a second example of the arrangement of an imaging device equipped with a shadow area detection system according to the third embodiment. With reference to the figure, theimaging device 52, which is the second example of the arrangement, will be described. Theimaging device 52 includes a non-polarized visible light/infrared separationdichroic coat 521, aToF sensor 522, anon-polarized half mirror 523, apolarization sensor 524, and anRGB sensor 525.

図示するように、撮像装置52において、偏光センサ524は、第1プリズムの全反射の影響を受けない第3射出面に配置される。ハーフミラーとして、無偏光ハーフミラー523が用いられる。具体的に、無偏光ハーフミラー523は、金属膜又は誘電体膜が用いられてもよい。無偏光可視光/赤外分離ダイクロコート521には、波長による位相差を抑えた無偏光のダイクロコートが使用される。無偏光可視光/赤外分離ダイクロコート521に反射した近赤外光が通る第1射出面にはToFセンサ522が配置され、可視光が通る第2射出面には、RGBセンサ525が配置される。As shown in the figure, in theimaging device 52, thepolarization sensor 524 is disposed on the third exit surface that is not affected by the total reflection of the first prism. Anon-polarized half mirror 523 is used as the half mirror. Specifically, thenon-polarized half mirror 523 may be a metal film or a dielectric film. A non-polarized dichroic coat that suppresses phase differences due to wavelengths is used as the non-polarized visible light/infrared separationdichroic coat 521. AToF sensor 522 is disposed on the first exit surface through which the near-infrared light reflected by the non-polarized visible light/infrared separationdichroic coat 521 passes, and anRGB sensor 525 is disposed on the second exit surface through which visible light passes.

[第4実施形態のまとめ]
以上説明した実施形態によれば、上述したようなプリズム構成を用いることにより、上述した実施形態1乃至実施形態3に係る影領域検出システムを備えた撮像装置を構成するにあたり、RGBセンサ、偏光センサ、及びToFセンサが、それぞれ同じレンズで同じ光軸で撮影されることができる。したがって、それぞれのピクセルのずれを軽減することができ、より正確な影検出、及び影補正をすることができる。
[Summary of the Fourth Embodiment]
According to the above-described embodiment, by using the above-described prism configuration, when configuring an imaging device equipped with the shadow area detection system according to the above-describedembodiment 1 toembodiment 3, the RGB sensor, the polarization sensor, and the ToF sensor can each be photographed with the same lens and the same optical axis. Therefore, it is possible to reduce the deviation of each pixel, and more accurate shadow detection and shadow correction can be performed.

なお、上述した実施形態における各装置が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。The functions of each unit of each device in the above-described embodiments, in whole or in part, may be realized by recording a program for realizing these functions on a computer-readable recording medium, and reading and executing the program recorded on the recording medium into a computer system. Note that the term "computer system" here includes hardware such as the OS and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。Furthermore, "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, as well as storage units such as hard disks built into computer systems. Furthermore, "computer-readable recording medium" may also include devices that dynamically store programs for a short period of time, such as communication lines when transmitting programs via networks such as the Internet or communication lines such as telephone lines, and devices that store programs for a certain period of time, such as volatile memory within a computer system that serves as a server or client in such cases. Furthermore, the above-mentioned programs may be ones that realize some of the functions described above, or may be ones that can realize the functions described above in combination with programs already recorded in the computer system.

以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。また、上述した各実施形態を適宜組み合わせてもよい。Although the embodiments of the present invention have been described above, the present invention is not limited to the above-mentioned embodiments, and various modifications can be made without departing from the spirit of the present invention. In addition, the above-mentioned embodiments may be combined as appropriate.

1…影領域検出システム、10…影領域検出装置、111…画像取得部、113…リサイズ部、115…色相・輝度計算部、116…距離領域区分け部、117…色領域区分け部、118…物体領域区分け部、119…領域区分け部、131…偏光画像取得部、132…偏光角算出部、133…リサイズ部、150…影候補検出部、151…影候補1検出部、152…影候補2検出部、21…記憶装置、22…記憶装置、31…測距センサ、32…RGBセンサ、33…偏光センサ、161影補正部、1611…影距離算出部、1612…ローパスフィルタ、1613…減算部、1614…置換部、1615…ローパスフィルタ、1616…加算部、51…撮像装置、52…撮像装置1...Shadow area detection system, 10...Shadow area detection device, 111...Image acquisition unit, 113...Resizing unit, 115...Hue/brightness calculation unit, 116...Distance area division unit, 117...Color area division unit, 118...Object area division unit, 119...Area division unit, 131...Polarized image acquisition unit, 132...Polarization angle calculation unit, 133...Resizing unit, 150...Shadow candidate detection unit, 151...Shadow candidate 1 detection unit, 152...Shadow candidate 2 detection unit, 21...Storage device, 22...Storage device, 31...Range measurement sensor, 32...RGB sensor, 33...Polarization sensor, 161 Shadow correction unit, 1611...Shadow distance calculation unit, 1612...Low-pass filter, 1613...Subtraction unit, 1614...Replacement unit, 1615...Low-pass filter, 1616...Addition unit, 51...Image capture device, 52...Image capture device

Claims (5)

Translated fromJapanese
被写体の情報を二次元平面上の各座標に有する画像を取得する画像取得部と、
取得した前記画像の各座標について、各座標が有する前記被写体の情報に基づき、複数の領域に区分する領域区分け部と、
前記被写体を、複数の異なる偏光角度を有する偏光フィルタをそれぞれ介して撮像された複数の偏光画像を取得する偏光画像取得部と、
前記領域区分け部により区分された前記画像の領域についての情報と、前記偏光画像とに基づいて、前記画像の各座標について影部分と推定される座標の候補を検出する影候補検出部と
を備える影領域検出装置。
an image acquisition unit that acquires an image having information of a subject at each coordinate on a two-dimensional plane;
a region dividing unit that divides each coordinate of the acquired image into a plurality of regions based on information of the subject that each coordinate has;
a polarization image acquisition unit that acquires a plurality of polarization images of the subject through a plurality of polarization filters having different polarization angles;
a shadow candidate detection unit that detects candidates for coordinates estimated to be shadow areas for each coordinate of the image based on information about the areas of the image divided by the area division unit and the polarized image.
前記画像取得部により取得される前記画像には、前記被写体の色に関する情報を二次元平面上の各座標に有するRGB画像が含まれ、
前記領域区分け部は、前記RGB画像の各座標について、各座標が有する色情報に基づき、複数の領域に区分する色領域区分け部を更に備える
請求項1に記載の影領域検出装置。
the image acquired by the image acquisition unit includes an RGB image having information about the color of the subject at each coordinate on a two-dimensional plane;
The shadow region detection device according to claim 1 , wherein the region dividing section further comprises a color region dividing section that divides each coordinate of the RGB image into a plurality of regions based on color information that each coordinate has.
前記影候補検出部により、影候補と推定された座標が有する画素値を、影候補と推定されなかった座標が有する画素値に基づいた値に置き換える影補正部を更に備える
請求項2に記載の影領域検出装置。
The shadow region detection device according to claim 2 , further comprising a shadow correction unit that replaces pixel values of coordinates estimated as a shadow candidate by the shadow candidate detection unit with values based on pixel values of coordinates that are not estimated as a shadow candidate.
前記画像取得部により取得される前記画像には、前記被写体までの距離に関する情報を二次元平面上の各座標に有する距離画像が含まれ、
前記領域区分け部は、前記距離画像の各座標について、各座標が有する距離情報に基づき、複数の領域に区分する距離領域区分け部を更に備える
請求項1から請求項3のいずれか一項に記載の影領域検出装置。
the image acquired by the image acquisition unit includes a distance image having information about a distance to the subject at each coordinate on a two-dimensional plane;
The shadow region detection device according to claim 1 , further comprising a distance region dividing section that divides each coordinate of the distance image into a plurality of regions based on distance information that each coordinate has.
被写体の情報を二次元平面上の各座標に有する画像を取得する画像取得工程と、
取得した前記画像の各座標について、各座標が有する前記被写体の情報に基づき、複数の領域に区分する領域区分け工程と、
前記被写体を、複数の異なる偏光角度を有する偏光フィルタをそれぞれ介して撮像された複数の偏光画像を取得する偏光画像取得工程と、
前記領域区分け工程により区分された前記画像の領域についての情報と、取得された前記偏光画像とに基づいて、前記画像の各座標について影部分と推定される座標の候補を検出する影候補検出工程と
を有する影領域検出方法。
an image acquisition step of acquiring an image having information of a subject at each coordinate on a two-dimensional plane;
a region dividing step of dividing each coordinate of the acquired image into a plurality of regions based on information of the subject held by each coordinate;
a polarization image acquisition step of acquiring a plurality of polarization images of the subject through a plurality of polarization filters each having a different polarization angle;
and a shadow candidate detection step of detecting candidates for coordinates estimated to be shadow areas for each coordinate of the image based on information about the image regions divided by the region division step and the acquired polarized image.
JP2023081280A2023-05-172023-05-17 Shadow area detection device and shadow area detection methodPendingJP2024165249A (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
JP2023081280AJP2024165249A (en)2023-05-172023-05-17 Shadow area detection device and shadow area detection method
PCT/JP2024/014390WO2024236944A1 (en)2023-05-172024-04-09Shadow region detection device and shadow region detection method

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2023081280AJP2024165249A (en)2023-05-172023-05-17 Shadow area detection device and shadow area detection method

Publications (1)

Publication NumberPublication Date
JP2024165249Atrue JP2024165249A (en)2024-11-28

Family

ID=93519368

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2023081280APendingJP2024165249A (en)2023-05-172023-05-17 Shadow area detection device and shadow area detection method

Country Status (2)

CountryLink
JP (1)JP2024165249A (en)
WO (1)WO2024236944A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2009019886A1 (en)*2007-08-072009-02-12Panasonic CorporationNormal information generating device and normal information generating method
JP6663223B2 (en)*2016-01-072020-03-11キヤノン株式会社 Image processing apparatus and method, and imaging apparatus
JP2018098583A (en)*2016-12-092018-06-21キヤノン株式会社Image processing apparatus and method, and imaging device
US11250586B2 (en)*2017-06-062022-02-15Sony Interactive Entertainment Inc.Information processing apparatus and information processing method
JP2022070696A (en)*2020-10-272022-05-13セイコーエプソン株式会社 3D shape measurement method and 3D shape measurement device
JP2023005997A (en)*2021-06-302023-01-18キヤノン株式会社Image processing device and image processing method

Also Published As

Publication numberPublication date
WO2024236944A1 (en)2024-11-21

Similar Documents

PublicationPublication DateTitle
AU2018247216B2 (en)Systems and methods for liveness analysis
US10762606B2 (en)Image processing apparatus and method for generating high quality image
EP0932114B1 (en)A method of and apparatus for detecting a face-like region
JP5342036B2 (en) Method for capturing 3D surface shapes
US9767545B2 (en)Depth sensor data with real-time processing of scene sensor data
TWI459324B (en)Modifying color and panchromatic channel cfa image
TWI430184B (en)Edge mapping incorporating panchromatic pixels
US20080062409A1 (en)Image Processing Device for Detecting Chromatic Difference of Magnification from Raw Data, Image Processing Program, and Electronic Camera
JP7024736B2 (en) Image processing equipment, image processing method, and program
JP4466015B2 (en) Image processing apparatus and image processing program
CN107018407B (en)Information processing device, evaluation chart, evaluation system, and performance evaluation method
EP4327547B1 (en)Selective image signal processing
JP7156624B2 (en) Depth map filtering device, depth map filtering method and program
JPH1062140A (en)Method and device for reconstruction of shape
JP2005165387A (en) Screen streak defect detection method and apparatus, and display device
JP4466017B2 (en) Image processing apparatus and image processing program
JP2024165249A (en) Shadow area detection device and shadow area detection method
JP2021182670A (en)Image processing device, imaging device, image processing method, and program
JP2011155365A (en)Image processing apparatus and image processing method
JP2004219072A (en) Screen streak defect detection method and device
CN112907454B (en)Method, device, computer equipment and storage medium for acquiring image
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device
JP4466016B2 (en) Image processing apparatus and image processing program
CN115696040B (en) Focusing method and device, electronic device, and computer-readable storage medium
WO2024134935A1 (en)Three-dimensional information correction device and three-dimensional information correction method

[8]ページ先頭

©2009-2025 Movatter.jp