Movatterモバイル変換


[0]ホーム

URL:


JP2022130307A - Information processing device, information processing method, program - Google Patents

Information processing device, information processing method, program
Download PDF

Info

Publication number
JP2022130307A
JP2022130307AJP2022011323AJP2022011323AJP2022130307AJP 2022130307 AJP2022130307 AJP 2022130307AJP 2022011323 AJP2022011323 AJP 2022011323AJP 2022011323 AJP2022011323 AJP 2022011323AJP 2022130307 AJP2022130307 AJP 2022130307A
Authority
JP
Japan
Prior art keywords
point
image
points
interest
surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022011323A
Other languages
Japanese (ja)
Inventor
久義 降籏
Hisayoshi Furihata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon IncfiledCriticalCanon Inc
Priority to US17/677,809priorityCriticalpatent/US20220270349A1/en
Publication of JP2022130307ApublicationCriticalpatent/JP2022130307A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

Translated fromJapanese

【課題】 処理負荷を抑えつつ精度良く、撮像手段の視野内の空間内から物体の特徴を示す特徴点が得られたかを判定する。【解決手段】 ステレオ画像を取得し、第1の画像の画素数よりも少ない第1の数の特徴点をマッチングし、ステレオカメラから特徴点が示す位置までの実空間における距離を含む特徴点の3次元位置を推定し、第1の数の特徴点のうち、撮像手段の視野内に設定した空間内から得られたと判断する特徴点を注目点として設定し、第1の画像における注目点から所定の距離範囲内の画像領域に存在する周囲点であって、画像領域内において推定した特徴点の数よりも多い数の第2の数の周囲点を設定し、周囲点をマッチングすることにより得た、ステレオカメラの所定位置から周囲点が示す位置までの距離と、ステレオカメラの所定位置から注目点が示す位置までの距離と、の差に基づいて、注目点が空間内に存在する物体の特徴を示す特徴点かを判定する。【選択図】 図2Kind Code: A1 It is determined whether or not a feature point indicating the feature of an object is obtained from within the space within the field of view of an imaging means with high accuracy while suppressing the processing load. SOLUTION: A stereo image is acquired, a first number of feature points, which is smaller than the number of pixels of the first image, is matched, and the feature points including the distance in real space from the stereo camera to the position indicated by the feature points are obtained. A three-dimensional position is estimated, and among the first number of feature points, a feature point determined to have been obtained from within the space set within the field of view of the imaging means is set as a point of interest, and from the point of interest in the first image, By setting a second number of surrounding points that are present in an image region within a predetermined distance range and are greater than the number of feature points estimated in the image region, and matching the surrounding points Based on the obtained difference between the distance from the predetermined position of the stereo camera to the position indicated by the surrounding points and the distance from the predetermined position of the stereo camera to the position indicated by the point of interest, the object whose point of interest exists in the space It is determined whether the feature point indicates the feature of . [Selection drawing] Fig. 2

Description

Translated fromJapanese

本発明は、距離画像から物体の特徴を得る技術に関する。 The present invention relates to technology for obtaining features of an object from a range image.

ステレオカメラで撮影した画像を入力として、ステレオマッチングに基づいて距離画像を算出し、カメラの前方に物体があるかどうかを検知する技術がある(非特許文献1)。この技術は、例えばロボットや自動車の周囲にある物体(人や障害物など)を検知するために利用されている。 2. Description of the Related Art There is a technique of using an image captured by a stereo camera as an input, calculating a distance image based on stereo matching, and detecting whether or not there is an object in front of the camera (Non-Patent Document 1). This technology is used, for example, to detect objects (people, obstacles, etc.) around robots and automobiles.

ステレオマッチングにより得られる距離画像は、マッチングの失敗によるノイズが含まれる可能性がある。このノイズを判定し除去する方法として、メディアンフィルタやスペックルフィルタ等のノイズ除去フィルタなどがある。これらのノイズ判定と除去の方法は、距離画像の局所画像領域内で複数の距離値を参照して、統計的に少数派となる距離値を見つけることで、これをノイズとして除去する。 A range image obtained by stereo matching may contain noise due to matching failure. Methods for determining and removing this noise include noise removal filters such as median filters and speckle filters. These noise determination and removal methods refer to a plurality of distance values within a local image region of a distance image, find a statistically minority distance value, and remove this as noise.

N.B.Naveen Appiah,“Obstacle detection using stereo vision for self-driving cars”.IEEE Intelligent Vehicles Symposium,2011N. B. Naveen Appiah, "Obstacle detection using stereo vision for self-driving cars". IEEE Intelligent Vehicles Symposium, 2011

複数の距離値を参照する統計的な計算に基づくノイズ判定方法を使うためには、元となる距離画像は局所画像領域ごとに密な距離値を持つことを前提としている。しかし、ステレオマッチングに基づいて密な距離画像を生成して、その密な距離画像からノイズ判定をするには、大きな処理負荷がかかる。移動体に配置されたカメラを用いて物体を検知するときのノイズ判定においては、処理負荷を軽く抑えつつノイズ判定の精度は担保されることが望ましい。 In order to use a noise determination method based on statistical calculations that refer to a plurality of distance values, it is assumed that the original distance image has dense distance values for each local image region. However, a large processing load is required to generate a dense range image based on stereo matching and perform noise determination from the dense range image. In noise determination when an object is detected using a camera placed on a moving body, it is desirable to secure noise determination accuracy while keeping the processing load light.

本発明は、以上の課題を鑑みたものであり、処理負荷を抑えつつ精度良く、移動体の進行方向の3次元空間内から物体の特徴を示す特徴点が得られたかを判定することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to accurately determine whether or not a feature point indicating a feature of an object is obtained from within a three-dimensional space in the traveling direction of a moving body while suppressing the processing load. and

本発明に係る情報処理装置は以下の構成を有する。即ち、撮像視野の少なくとも一部が重複するように移動体に配置された第1の光学系と第2の光学系を含む撮像手段から得られる画像であって、前記第1の光学系から第1の画像を、前記第2の光学系から第2の画像を取得する画像取得手段と、前記第1の画像における画素数よりも少ない第1の数の特徴点を前記第1の画像と前記第2の画像においてステレオマッチングし、前記撮像手段に対する該特徴点の3次元位置を推定する推定手段と、前記第1の数の特徴点のうち、前記移動体の進行方向に設定した3次元空間内から得られたと前記3次元位置に基づいて判断する特徴点を注目点として設定する注目点設定手段と、前記第1の画像における前記注目点から所定の距離範囲内の画像領域内において前記推定手段で3次元位置を推定した特徴点の数よりも多い数の第2の数の周囲点を設定する周囲点設定手段と、前記第1の画像と前記第2の画像とを用いて前記周囲点をステレオマッチングすることにより得た、前記撮像手段に対する前記周囲点の3次元位置と、前記撮像手段に対する前記注目点の3次元位置と、の差に基づいて、前記注目点が前記3次元空間内に存在する物体の特徴を示す特徴点かを判定する判定手段と、を有する。 An information processing apparatus according to the present invention has the following configuration. That is, the image is obtained from imaging means including a first optical system and a second optical system arranged on a moving body so that at least a part of the imaging field of view overlaps, and the image is obtained from the first optical system to the second optical system. an image acquiring means for acquiring a second image from the first image through the second optical system; estimating means for performing stereo matching in a second image and estimating the three-dimensional positions of the feature points with respect to the imaging means; a point-of-interest setting means for setting, as a point of interest, a feature point determined based on the three-dimensional position to be obtained from within an image area within a predetermined distance range from the point of interest in the first image; surrounding point setting means for setting a second number of surrounding points larger than the number of feature points whose three-dimensional positions are estimated by means; The point of interest is located in the three-dimensional space based on the difference between the three-dimensional position of the surrounding point with respect to the imaging means and the three-dimensional position of the point of interest with respect to the imaging means, which is obtained by stereo matching the points. and determination means for determining whether it is a feature point that indicates a feature of an object existing within.

本発明によれば、処理負荷を抑えつつ精度良く、撮像手段の視野内の3次元空間内から物体の特徴を示す特徴点が得られたかを判定することができる。 According to the present invention, it is possible to accurately determine whether or not a feature point indicating the feature of an object is obtained from within the three-dimensional space within the field of view of the imaging means while suppressing the processing load.

ステレオカメラと物体の配置条件を示す図。The figure which shows the arrangement|positioning conditions of a stereo camera and an object.ステレオカメラで撮影した画像の例を示す図。FIG. 4 is a diagram showing an example of an image captured by a stereo camera;情報処理装置の機能構成例を示す図。FIG. 2 is a diagram showing a functional configuration example of an information processing apparatus;情報処理の流れを示すフローチャート図。The flowchart figure which shows the flow of information processing.情報処理の流れを示すフローチャート図。The flowchart figure which shows the flow of information processing.情報処理の流れを示すフローチャート図。The flowchart figure which shows the flow of information processing.情報処理装置のハードウェア構成例。A hardware configuration example of an information processing device.ステレオカメラのバリエーションを示す図。The figure which shows the variation of a stereo camera.

[第1の実施形態]
第1の実施形態では、ステレオカメラの前方視野内(ステレオカメラを配置した移動体の進行方向)にある物体の有無を検知する方法を考える。ステレオカメラは、例えば、AMR(autonomous mobile robot)やAGV(automatic guided vehicle)、自律移動車などに搭載される。ステレオカメラは、移動する装置(vehicle)の他、監視カメラなどの静止した装置に搭載することができる。図1は本実施形態におけるステレオカメラと物体の配置条件の例を示す。図1の100はステレオカメラ、110は物体の有無を判定するための3次元の検知空間、200は物体を表す。ステレオカメラ100では図2の300、310に示すような2枚の画像(第1の撮像装置(光学系)から得た第1の画像と第2の撮像装置(光学系)から得た第2の画像)のステレオマッチングに基づいて距離計測を行う。そこで算出した点が検知空間110の内部にあるかどうかに基づいて、物体の有無を判定する。計測した距離は、例えば、ステレオカメラの左側カメラの撮像面から物体の特徴(画像上では特徴点)までの距離である。もちろん、ステレオカメラの右側カメラの撮像面から物体の特徴までの距離を使うこともできるし、それぞれのカメラの所定位置の中間の位置から物体の特徴までの距離を使うこともできる。検知空間110は、空間内で一番低い部分の高さが移動面より高く設定されている。移動面を撮像した画像から得られる特徴点を、以降の判定処理で用いないようにするためである。検知空間110の高さは、例えば、移動体の高さに所定の係数を用いて得られた高さに設定する。また検知空間110の幅と奥行きは、移動体の走行速度に基づいて、例えばハンドルを切ったりブレーキをかけたりしても、障害物を回避することが難しい可能性が高い長さに設定する。
[First Embodiment]
In the first embodiment, a method of detecting the presence or absence of an object within the front field of view of the stereo camera (in the traveling direction of the moving object in which the stereo camera is arranged) is considered. A stereo camera is mounted on, for example, an AMR (autonomous mobile robot), an AGV (automatic guided vehicle), an autonomous vehicle, or the like. Stereo cameras can be mounted on stationary devices, such as surveillance cameras, as well as on moving vehicles. FIG. 1 shows an example of a stereo camera and object arrangement conditions in this embodiment. In FIG. 1, 100 denotes a stereo camera, 110 denotes a three-dimensional detection space for determining the presence or absence of an object, and 200 denotes an object. Thestereo camera 100 captures two images (the first image obtained from the first imaging device (optical system) and the second image obtained from the second imaging device (optical system) as indicated by 300 and 310 in FIG. 2). distance measurement is performed based on stereo matching of the image). The presence or absence of an object is determined based on whether or not the calculated point is inside thedetection space 110 . The measured distance is, for example, the distance from the imaging plane of the left camera of the stereo camera to the feature of the object (feature point on the image). Of course, the distance from the imaging plane of the right camera of the stereo camera to the feature of the object can be used, or the distance from the midpoint of the predetermined positions of each camera to the feature of the object can be used. Thedetection space 110 is set such that the lowest portion in the space is higher than the moving surface. This is to avoid using the feature points obtained from the captured image of the moving surface in subsequent determination processing. The height of thedetection space 110 is set, for example, to a height obtained by using a predetermined coefficient for the height of the moving object. Also, the width and depth of thedetection space 110 are set based on the traveling speed of the moving object to a length that is likely to make it difficult to avoid obstacles, for example, even if the steering wheel is turned or the brake is applied.

ステレオマッチングにより得られる距離画像は、マッチングの失敗によるノイズが含まれる可能性がある。本実施形態においてノイズとは、距離画像上の各画素が持つ距離値のうち、各画素が示す画像上の部位の実際の距離値(真値)からずれた値を持つデータである。このノイズを除去する方法として、メディアンフィルタやスペックルフィルタ等のノイズ除去フィルタなどがある。これらのノイズ除去方法は、距離画像の局所画像領域内にある距離値を参照し、その中の平均値(或は中央値)から大きく外れる値を持つ距離値を見つけることで、これをノイズとして除去する。このような統計的な計算を行うには、元となる距離画像は局所画像領域ごとに複数の距離値を持つことが前提となる。以降、そのような条件を密な距離画像と表現する。例えば、撮影したステレオ画像の全ての画素について距離値を推定した距離画像は密な距離画像である。逆に、距離値を推定した画素が少なく、疎らにしか距離値を持たない距離画像は、疎な距離画像と表現する。 A range image obtained by stereo matching may contain noise due to matching failure. In the present embodiment, noise is data having a value that deviates from the actual distance value (true value) of the part on the image indicated by each pixel, among the distance values of each pixel on the distance image. Methods for removing this noise include noise removal filters such as median filters and speckle filters. These denoising methods refer to the range values in the local image area of the range image, find the range values that greatly deviate from the mean (or median) value, and treat them as noise. Remove. Such statistical calculation is premised on the original distance image having a plurality of distance values for each local image region. Hereinafter, such a condition is expressed as a dense range image. For example, a distance image obtained by estimating distance values for all pixels of a stereo image taken is a dense distance image. Conversely, a distance image in which there are few pixels for which distance values are estimated and has only sparse distance values is expressed as a sparse distance image.

本実施形態では、計算コストを抑えるために、図2の301に示すように疎に設定した点のみについてステレオマッチングを行う。ここで設定した点を候補点と呼ぶ。次に、候補点301の中に、検知空間110内に存在する点がある場合、これを注目点302としてノイズかどうかを判定する。ノイズの判定を行うときには、注目点から所定の範囲内にある複数の点303を設定し、ステレオマッチングに基づいて、それら複数の点の距離値を算出する。そして、算出した距離値の分布に基づいて、注目点の距離値がノイズかどうかを判定し、ノイズでない場合は検知空間110内に物体が存在すると判定する。ノイズ判定を行うときに、例えば301で示す限られた点数の候補点と、その周囲に設定する周囲点でステレオマッチングを行うため、密な距離画像においてノイズを判定してから物体を検知する方法に比べ、計算コストを削減して物体を検知することができる。 In this embodiment, stereo matching is performed only for points set sparsely as indicated by 301 in FIG. 2 in order to reduce the calculation cost. The points set here are called candidate points. Next, if there is a point existing in thedetection space 110 among thecandidate points 301, it is determined whether or not it is noise as a point ofinterest 302. FIG. When judging noise, a plurality ofpoints 303 are set within a predetermined range from the point of interest, and distance values of these points are calculated based on stereo matching. Based on the distribution of the calculated distance values, it is determined whether or not the distance value of the point of interest is noise. When performing noise determination, stereo matching is performed using, for example, a limited number of candidate points indicated by 301 and surrounding points set around them. Compared to , it can detect objects with reduced computational cost.

以降、本実施形態の詳しい説明に移る。まず、本実施形態のモジュール構成について説明する。図3の100はステレオカメラ、400は情報処理装置、410は候補点設定部、420は候補点距離推定部である。情報処理装置400は、画像取得部401、注目点設定部402、周囲点設定部403、周囲点距離取得部404、判定部405からなる。なお、情報処理装置400、候補点設定部410、候補点距離推定部420は不図示の記憶部や計算部を含み、例えば情報処理装置400は、汎用計算機で実現できる。 Hereinafter, detailed description of the present embodiment will be given. First, the module configuration of this embodiment will be described. 3, 100 is a stereo camera, 400 is an information processing device, 410 is a candidate point setting unit, and 420 is a candidate point distance estimating unit. Theinformation processing apparatus 400 includes animage acquisition unit 401 , an attentionpoint setting unit 402 , a surroundingpoint setting unit 403 , a surrounding pointdistance acquisition unit 404 and adetermination unit 405 . Theinformation processing device 400, the candidatepoint setting unit 410, and the candidate pointdistance estimation unit 420 include a storage unit and a calculation unit (not shown), and theinformation processing device 400 can be implemented by a general-purpose computer, for example.

図7に情報処理装置400のハードウェア構成を示す。CPU、ROM,RAM,HDDやSSD等の記憶部、USB等の汎用I/F、通信I/F、およびシステムバスで構成される。CPUは、RAMをワークメモリとして、ROM、記憶部等に格納されたオペレーティングシステム(OS)や各種コンピュータープログラムを実行し、システムバスを介して各部を制御する。例えば、CPUが実行するプログラムには、後述する処理を実行するためのプログラムが含まれる。 FIG. 7 shows the hardware configuration of theinformation processing device 400. As shown in FIG. It consists of a CPU, a ROM, a RAM, a storage unit such as an HDD or an SSD, a general-purpose I/F such as a USB, a communication I/F, and a system bus. The CPU uses the RAM as a work memory to execute an operating system (OS) and various computer programs stored in the ROM, storage unit, etc., and controls each unit via a system bus. For example, programs executed by the CPU include programs for executing processes described later.

ステレオカメラ100は、2次元の画像を撮影する2台のカメラ(第1の撮像装置(光学系)と第2の撮像装置(光学系))である。そのカメラパラメータは既知とする。第1の撮像装置と第2の撮像装置の撮像視野の少なくとも一部が重複するように配置されている。候補点設定部410は、ステレオカメラが撮像した画像上に候補点を設定する。候補点距離推定部420は、ステレオカメラ100が撮影した2枚(第1の撮像装置から得た第1の画像と第2の撮像装置から得た第2の画像)の画像に基づいて、ステレオマッチングを行うことで、候補点の実空間での距離値を算出する。図3では、候補点設定部410が情報処理装置400の外部にある場合を説明している。候補点の距離値を、ステレオカメラとは別に外部に設置した距離センサー(距離カメラなど)の出力データから得て、情報処理装置に入力することができる。情報処理装置の内部に備えるセンサーの出力データから、候補点の距離値を得る場合には、候補点設定部410は、情報処理装置400の内部に備えることができる。画像取得部401は、ステレオカメラ100で撮影した2枚の画像を取得する。注目点設定部402は、候補点のうち検知空間110内(3次元空間内)に存在する点を注目点として設定する。周囲点設定部403は、注目点の周囲に、複数の点を設定する。注目点の周囲に設定した領域においては、候補点の密度より周囲点の密度が高くなるように周囲点を設定する。周囲点距離取得部404は、ステレオカメラ100が撮影した2枚の画像に基づいて、ステレオマッチングを行うことで、周囲点の距離値を算出する。判定部405は、注目点と周囲点の距離値に基づいて、注目点がノイズかどうかを判定し、その判定結果に基づいて検知空間110内(3次元空間内)に物体が存在するかを判定する。 Thestereo camera 100 is two cameras (first imaging device (optical system) and second imaging device (optical system)) that capture two-dimensional images. Assume that the camera parameters are known. At least a part of the imaging fields of the first imaging device and the second imaging device are arranged to overlap. The candidatepoint setting unit 410 sets candidate points on the image captured by the stereo camera. Candidate pointdistance estimating section 420 calculates a stereo By performing matching, the distance value in the real space of the candidate point is calculated. FIG. 3 illustrates a case where the candidatepoint setting unit 410 is outside theinformation processing device 400 . The distance value of the candidate point can be obtained from the output data of a distance sensor (such as a distance camera) installed outside the stereo camera and input to the information processing device. The candidatepoint setting unit 410 can be provided inside theinformation processing device 400 when the distance value of the candidate point is obtained from the output data of the sensor provided inside the information processing device. Theimage acquisition unit 401 acquires two images captured by thestereo camera 100 . The point-of-interest setting unit 402 sets a point existing in the detection space 110 (inside the three-dimensional space) among the candidate points as a point of interest. A surroundingpoint setting unit 403 sets a plurality of points around the point of interest. In the area set around the target point, the surrounding points are set so that the density of the surrounding points is higher than the density of the candidate points. The surrounding pointdistance acquisition unit 404 performs stereo matching based on the two images captured by thestereo camera 100 to calculate the distance value of the surrounding points. Thedetermination unit 405 determines whether the target point is noise based on the distance value between the target point and surrounding points, and determines whether an object exists within the detection space 110 (inside the three-dimensional space) based on the determination result. judge.

次に、本実施形態の具体的な処理手順について説明する。図4は、処理手順を示すフローチャートである。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。図4で説明する処理は、移動体が走行を開始すると開始する。 Next, a specific processing procedure of this embodiment will be described. FIG. 4 is a flow chart showing a processing procedure. Hereinafter, the flowchart is assumed to be implemented by the CPU executing the control program. The processing illustrated in FIG. 4 starts when the moving body starts running.

(ステップS500)
画像の取得や計算を行うための初期化を行う。具体的には、プログラムやステレオカメラの起動、処理に必要なパラメータの取得を情報処理400に含まれる不図示の記憶部からロードする等の処理を行う。ここで、パラメータは、ステレオカメラのカメラパラメータを含む。カメラパラメータは、後述する候補点距離推定部420でや周囲点距離取得部404でステレオマッチングを行う際に必要になる。
(Step S500)
Initialize for image acquisition and calculation. Specifically, processing such as loading a program, starting a stereo camera, and obtaining parameters necessary for processing from a storage unit (not shown) included in theinformation processing 400 is performed. Here, the parameters include camera parameters of the stereo camera. The camera parameters are required when stereo matching is performed by the candidate pointdistance estimation unit 420 and the surrounding pointdistance acquisition unit 404, which will be described later.

(ステップS510)
画像取得部401で、ステレオカメラ100で撮影した2枚の画像を取得する。
(Step S510)
Animage acquisition unit 401 acquires two images captured by thestereo camera 100 .

(ステップS520)
候補点設定部410で、画像上に候補点を設定する。本実施形態では、図2の301に示すように画像上に所定の間隔をあけてグリッド状にM点設定するものとする。設定した候補点をAi(i=1~M)とする。Mは、画素数よりも小さい第1の数である。候補点の密度が低くなるように密度mとなるように候補点を設定することと同義である。
(Step S520)
A candidatepoint setting unit 410 sets candidate points on the image. In the present embodiment, as indicated by 301 in FIG. 2, M points are set in a grid at predetermined intervals on the image. Let the set candidate points be Ai (i=1 to M). M is a first number less than the number of pixels. It is synonymous with setting the candidate points so that the density of the candidate points becomes m so that the density of the candidate points becomes low.

(ステップS530)
候補点距離推定部420で、ステレオカメラ100が撮影した2枚の画像に基づいて、ステレオマッチングを行うことで、各候補点Aiの距離値を算出する。本実施形態において、ステレオマッチングとは、ステレオカメラのカメラパラメータに基づいて、エピポーラ線上でブロックマッチング等を行う処理であり、対応した画素の位置に基づいて三角測量を行うことで距離値を算出する。各候補点の3次元位置も求まる。ここで、各候補点について算出した距離値をD(Ai)とする。
(Step S530)
The candidate pointdistance estimation unit 420 performs stereo matching based on the two images captured by thestereo camera 100 to calculate the distance value of each candidate point Ai. In this embodiment, stereo matching is a process of performing block matching or the like on the epipolar line based on the camera parameters of the stereo camera, and the distance value is calculated by performing triangulation based on the position of the corresponding pixel. . The three-dimensional position of each candidate point is also determined. Here, let D(Ai) be the distance value calculated for each candidate point.

(ステップS540)
注目点設定部403で、候補点のうち検知空間110(3次元空間内)に存在する点を注目点として設定する。設定した注目点をAs、注目点の距離値をD(As)とする。図2の302は注目点Asの例を示す。なお、本実施形態では、検知空間110はステレオカメラ前方に所定のサイズで設定した直方体である。ステレオカメラの前方は、ステレオカメラを配置した移動体の進行方向のことである。移動体がバックするときには、移動体の進行方向は移動体の後方である。
(Step S540)
A point-of-interest setting unit 403 sets a point existing in the detection space 110 (in the three-dimensional space) among the candidate points as a point of interest. Let As be the set point of interest, and D(As) be the distance value of the point of interest. 302 in FIG. 2 shows an example of the attention point As. Note that in this embodiment, thedetection space 110 is a rectangular parallelepiped with a predetermined size set in front of the stereo camera. The forward direction of the stereo camera is the traveling direction of the moving object in which the stereo camera is arranged. When the moving body backs up, the traveling direction of the moving body is behind the moving body.

(ステップS550)
周囲点設定部403で、注目点Asの周囲に複数の点303を設定する。本実施形態では、ステップS510で取得した画像において、注目点Asを中心とする半径Rの距離範囲内に存在する画素の中から、ランダムでN点を選択して、周囲点として設定するものとする。設定した周囲点をBj(j=1~N)とする。(半径Rの円状の距離範囲内の点を周囲点に設定するのは一例であり、画像の一部領域の点を周囲点として設定する。)注目点Asを中心とする半径Rの範囲内における点の密度はmよりも高く設定する。設定するN点は、注目点Asを中心とする半径Rの範囲内に存在する候補点の数よりも多い第2の数である。
(Step S550)
A surroundingpoint setting unit 403 sets a plurality ofpoints 303 around the target point As. In the present embodiment, in the image acquired in step S510, N points are randomly selected from among the pixels existing within the distance range of radius R centered on the point of interest As, and set as surrounding points. do. Let the set surrounding points be Bj (j=1 to N). (It is an example to set points within a circular distance range of radius R as surrounding points, and points in a partial area of an image are set as surrounding points.) A range of radius R centered on attention point As The density of points in is set higher than m. The number of N points to be set is a second number that is larger than the number of candidate points existing within the radius R centered on the target point As.

(ステップS560)
周囲点距離取得部404で、ステレオカメラ100が撮影した2枚の画像に基づいて、ステレオマッチングを行うことで、各周囲点Bjの距離値を算出する。ここで、周囲点について算出した距離値をD(Bj)とする。
(Step S560)
The surrounding pointdistance acquisition unit 404 performs stereo matching based on the two images captured by thestereo camera 100 to calculate the distance value of each surrounding point Bj. Here, let D(Bj) be the distance value calculated for the surrounding points.

(ステップS570)
判定部405で、注目点と周囲点の距離値に基づいて、注目点がノイズかどうかを判定し、その判定結果に基づいて検知空間110内に物体が存在するかを判定する。
(Step S570)
Adetermination unit 405 determines whether the target point is noise based on the distance value between the target point and surrounding points, and determines whether an object exists in thedetection space 110 based on the determination result.

まず、各周囲点の距離値D(Bj)について、注目点の距離値D(As)と類似する点数の比率pを計算する。具体的には、設定した周囲点の点数Nに対する、D(As)から一定の差の範囲内に存在する距離値を持つ周囲点の比率を計算する。そして、pが閾値T以下であれば注目点をノイズと判定し、pが閾値Tより大きい場合はノイズではなく、検知空間110内に存在する物体の距離値を示す画素の点であると判定する。なお、その場合は物体が検知されたことになる。物体が検知されたときには、物体を避けて移動体の走行を継続させるために、物体全体の3次元形状の計測を開始する。そして、物体を避けた経路で移動体の走行を継続させる。若しくは、物体が検知されたときには、移動体を停止させる。 First, for the distance value D(Bj) of each surrounding point, the ratio p of the number of points similar to the distance value D(As) of the point of interest is calculated. Specifically, the ratio of surrounding points having a distance value existing within a certain range of difference from D(As) to the set number N of surrounding points is calculated. Then, if p is less than or equal to the threshold T, the point of interest is determined to be noise, and if p is greater than the threshold T, it is determined to be a pixel point indicating the distance value of an object existing in thedetection space 110 instead of noise. do. In this case, the object is detected. When an object is detected, measurement of the three-dimensional shape of the entire object is started in order to avoid the object and keep the moving object running. Then, the moving body is allowed to continue running on a route that avoids the object. Alternatively, the moving body is stopped when the object is detected.

(ステップS580)
以上のS540~570の操作を、注目点を変えてすべての候補点について実行する。これにより、画像上に設定した各候補点が検知空間110内に含まれる物体上の点かどうかを判定する。単に障害物の「有無」を判定したい場合には、1つの候補点についてS570で障害物を見つけた時点で、他の候補点についての繰り返し処理は不要となる。
(Step S580)
The above operations of S540 to S570 are executed for all candidate points by changing the point of interest. Thereby, it is determined whether each candidate point set on the image is a point on an object included in thedetection space 110 . If it is simply desired to determine the "presence or absence" of an obstacle, once an obstacle is found for one candidate point in S570, repeated processing for other candidate points becomes unnecessary.

以上述べたように、画像上の全ての画素を対象とするのではなく、限られた点数の候補点と、その周囲に設定する周囲点でステレオマッチングを行う。候補点の周囲の画像領域においては、周囲点の密度は候補点よりも高い。これにより、密な距離画像を生成する方法に比べ、計算コストを抑えても精度良く物体の有無を検知することができる。 As described above, stereo matching is performed using a limited number of candidate points and surrounding points set around them, instead of targeting all pixels on the image. In the image area around the candidate point, the surrounding points have a higher density than the candidate point. As a result, it is possible to detect the presence or absence of an object with high accuracy even if the calculation cost is reduced compared to the method of generating a dense range image.

なお、S520では、候補点設定部410は、画像上に等間隔に候補点を設定した。ただし、候補点の設定は、画像上に1点以上の点を空間的に疎に設定できる方法であれば、計算コストを抑えることができる。画像上に等間隔に設定しても良いし、ランダムな位置を設定しても良い。また、動画像として撮影を行う場合、設定する候補点の位置は時刻に応じて変更しても良い。その場合、ある時刻で設定された候補点の隙間を補うように画像上での位置をずらして、後の時刻で候補点を設定することで、候補点の隙間で検出漏れが起こることを避けることができる。また、候補点の距離値は、ステレオカメラとは別に設置した距離センサー(距離カメラなど)の出力データに基づいて算出しても良い。 In S520, candidatepoint setting section 410 sets candidate points at equal intervals on the image. However, the calculation cost can be reduced if the candidate points can be set by a method that allows one or more points to be spatially sparsely set on the image. They may be set at equal intervals on the image, or may be set at random positions. In addition, when photographing as a moving image, the position of the candidate point to be set may be changed according to the time. In that case, by shifting the position on the image so as to compensate for the gap between the candidate points set at a certain time and setting the candidate points at a later time, it is possible to avoid detection failures in the gaps between the candidate points. be able to. Also, the distance value of the candidate point may be calculated based on the output data of a distance sensor (such as a distance camera) installed separately from the stereo camera.

また、S550では、周囲点設定部403は、注目点を中心としてランダムな位置に画素を設定した。ただし、周囲点の設定は、注目点の周囲について、1点以上の点を設定できれば、注目点のノイズの判定ができる。ランダムな位置に設定しても良いし等間隔な位置に設定しても良い。なお、物体判定部405において周囲点の分布を計算する上で、設定する周囲点の位置の分布には偏りがない方が望ましい。偏りのあるとは、例えば注目点の周囲の領域の右半分のみ利用する等である。設定する周囲点の分布に偏りがあると、その偏った一部分に依存した統計量となるため、正確なノイズの判定が難しくなる場合がある。そのため、偏りを避けるために、例えば周囲点の設定は、周囲点同士を所定値と同じまたは所定値を超える確率で予め定められた間隔以上空くように設定することが望ましい。 Also, in S550, the surroundingpoint setting unit 403 sets pixels at random positions around the point of interest. However, as for the setting of the surrounding points, if one or more points can be set around the target point, the noise of the target point can be determined. They may be set at random positions or may be set at evenly spaced positions. In calculating the distribution of the surrounding points in theobject determination unit 405, it is desirable that the distribution of the positions of the surrounding points to be set is not biased. Being biased means, for example, using only the right half of the area around the point of interest. If the distribution of the surrounding points to be set is biased, the statistic depends on the biased portion, which may make accurate noise determination difficult. Therefore, in order to avoid bias, for example, it is desirable to set the surrounding points such that the surrounding points are spaced apart from each other by a predetermined interval or more with a probability equal to or exceeding a predetermined value.

また、周囲点設定部403は、注目点の距離値と類似する距離値を持つ周囲点の比率pを計算し、ノイズかどうかを判定した。ノイズの判定方法は、注目点と類似する距離値を持つ周囲点の多さを評価できる方法であれば、ノイズの判定ができる。前述の比率pでも良いし、注目点と類似する距離値を持つ周囲点の個数でも良い。 The surroundingpoint setting unit 403 also calculated the ratio p of surrounding points having distance values similar to the distance value of the point of interest, and determined whether or not it was noise. Noise can be determined by any method that can evaluate the number of surrounding points having similar distance values to the point of interest. The aforementioned ratio p may be used, or the number of surrounding points having distance values similar to the point of interest may be used.

[変形例1]
ステップS550では、周囲点設定部403において設定する点数は固定数のN点とした。一般的に、比率pに予想される誤差eは、計算に用いる周囲点の点数Nに応じて増減する。具体的には、Nが大きいと誤差eは小さくなり、Nが小さいと誤差eは大きくなる。
[Modification 1]
In step S550, the number of points set in the surroundingpoint setting unit 403 is a fixed number of N points. In general, the error e expected for the ratio p increases or decreases according to the number N of surrounding points used in the calculation. Specifically, when N is large, the error e becomes small, and when N is small, the error e becomes large.

判定部405における判定を正確に行うためには、誤差eは所定値以下になるように計算できることが望ましい。一方、誤差eを小さくするために、設定する周囲点の点数を増やすほど、周囲点距離取得部404における距離値を求める計算にかかる時間が増加する。 In order to make an accurate determination in thedetermination unit 405, it is desirable to be able to calculate the error e to be equal to or less than a predetermined value. On the other hand, as the number of surrounding points to be set is increased in order to reduce the error e, the calculation time for obtaining the distance value in the surrounding pointdistance acquisition unit 404 increases.

周囲点設定部403において、誤差eを所定値以下になることを担保した上で、設定する周囲点の点数を抑える方法について説明する。 A method for suppressing the number of surrounding points to be set in the surroundingpoint setting unit 403 while ensuring that the error e is equal to or less than a predetermined value will be described.

具体的には、判定部405で、各周囲点の距離値D(Bj)について、注目点の距離値D(As)と類似する点数の比率pを計算するとともに、比率pの誤差eを計算する。そして、その誤差eが所定値以下の場合は設定した周囲点が十分と判定し、比率pに基づいて物体が存在するかどうかを判定する。一方、誤差eが所定値を超える場合は設定した周囲点の点数が不足しているとし、周囲点設定部402における処理に戻って周囲点の点数Nを増やす。以上の処理を、所定値以下の誤差eに収まるまで繰り返す。これにより、比率pの誤差eが所定値以下になることを担保した上で、計算時間の増加を抑えることができる。 Specifically, thedetermination unit 405 calculates the ratio p of points similar to the distance value D (As) of the point of interest for the distance value D (Bj) of each surrounding point, and calculates the error e of the ratio p. do. If the error e is equal to or less than a predetermined value, it is determined that the set surrounding points are sufficient, and it is determined whether an object exists based on the ratio p. On the other hand, if the error e exceeds the predetermined value, it is determined that the set number of surrounding points is insufficient, and the process returns to the surroundingpoint setting unit 402 to increase the number N of surrounding points. The above processing is repeated until the error e falls below a predetermined value. As a result, it is possible to suppress an increase in calculation time while ensuring that the error e of the ratio p is equal to or less than a predetermined value.

次に、本実施形態の具体的な処理手順について説明する。図5は処理手順を示すフローチャートである。周囲点設定部403に関するS650と、判定部405に関するS670、S671については、図4と処理が異なる。以下にその具体的な処理内容を述べる。 Next, a specific processing procedure of this embodiment will be described. FIG. 5 is a flow chart showing the processing procedure. S650 related to the surroundingpoint setting unit 403 and S670 and S671 related to thedetermination unit 405 are different from those in FIG. The specific processing contents are described below.

(ステップS650)
周囲点設定部403で、注目点Asの周囲に複数の点を設定する。本実施形態では、注目点Asを中心とする半径Rの範囲内に存在する画素の中から、ランダムでN点を選択して、周囲点として設定するものとする。設定した周囲点をBj(j=1~N)とする。
(Step S650)
A surroundingpoint setting unit 403 sets a plurality of points around the target point As. In this embodiment, it is assumed that N points are randomly selected from among the pixels present within a radius R centered on the point of interest As and set as surrounding points. Let the set surrounding points be Bj (j=1 to N).

なお、判定部405で、誤差eが所定値より大きいと判断された場合は、Nの数をx点増やす。本実施形態ではx=1とし、1点ずつ点を増やす。 Note that if thedetermination unit 405 determines that the error e is larger than the predetermined value, the number of N is increased by x points. In this embodiment, x=1 and the number of points is increased by one.

(ステップS670)
判定部405で、注目点と周囲点の距離値に基づいて、注目点がノイズかどうかを計算することで、検知空間110内に物体が存在するかどうかを判定する。
(Step S670)
Adetermination unit 405 determines whether an object exists in thedetection space 110 by calculating whether or not the target point is noise based on the distance value between the target point and surrounding points.

まず、各周囲点の距離値D(Bj)について、注目点の距離値D(As)と類似する点数の比率pを計算する。具体的には、設定した周囲点の点数Nに対する、D(As)から一定範囲内に存在する距離値を持つ周囲点の割合(比率)を計算する。また、これに加えて比率pについての誤差eを計算する。比率pの誤差は、式(1)に基づいて計算する。 First, for the distance value D(Bj) of each surrounding point, the ratio p of the number of points similar to the distance value D(As) of the point of interest is calculated. Specifically, the ratio (ratio) of surrounding points having distance values existing within a certain range from D(As) to the set number N of surrounding points is calculated. In addition to this, the error e for the ratio p is also calculated. The error of ratio p is calculated based on equation (1).

Figure 2022130307000002
Figure 2022130307000002

ここで、kは誤差の程度を調整する係数で、本実施形態ではk=1とする。式(1)に示す、サンプリングしたデータに対する誤差eの計算方法は公知であり、例えば、H.Taherdoost,“Determining Sample Size;How to Calculate Survey Sample Size”.Mathematics Leadership & Organizational Behavior eJournal,2017で解説されている。 Here, k is a coefficient for adjusting the degree of error, and k=1 in this embodiment. The method of calculating the error e for sampled data shown in equation (1) is well known, see, for example, H. Taherdoost, "Determining Sample Size; How to Calculate Survey Sample Size". Described in Mathematics Leadership & Organizational Behavior Journal, 2017.

(ステップS671)
判定部405で、誤差eが閾値U以下の条件の場合は、図4のフローチャートの手順と同じく、比率pに基づいて物体の存在を判定する。また、誤差eが閾値Uより大きい場合は、周囲点設定部403で設定した周囲点の点数Nが十分ではないと判断し、S650の周囲点設定部403による処理に戻る。そして、周囲点設定部403では点数をN+xと増やすことで、再度比率を計算するときに、誤差eを小さくできるようにする。
(Step S671)
If the error e is equal to or less than the threshold value U, thejudgment unit 405 judges the presence of the object based on the ratio p, as in the procedure of the flowchart in FIG. If the error e is larger than the threshold value U, it is determined that the number N of the surrounding points set by the surroundingpoint setting unit 403 is not sufficient, and the processing by the surroundingpoint setting unit 403 in S650 is returned to. Then, the surroundingpoint setting unit 403 increases the number of points to N+x so that the error e can be reduced when calculating the ratio again.

以上述べたように、周囲点設定部403で設定される周囲点の点数を、周囲点の距離値の分布に基づいて適正化する。誤差を小さくするために周囲点の数を増やし過ぎることがなくなるため、計算コストを抑えることができる。 As described above, the number of surrounding points set by the surroundingpoint setting unit 403 is optimized based on the distribution of the distance values of the surrounding points. Computational costs can be reduced because the number of surrounding points is not increased too much to reduce the error.

なお、本実施形態における物体判定部405は、式(1)に基づいて、誤差eを計算する。比率pに想定される誤差は、これ以外の方法でも良い、例えば、比率pと点数Nに対する誤差eの値を予めテーブル化しておき、それを参照することで計算しても良い。テーブルは、例えば、様々な条件のステレオ画像を入力として距離画像を生成し、様々な部位に注目点を置いて周囲点の距離値の分布から比率pを計算し、その誤差を記録することで作成する。なお、その場合、各注目点についての比率pの真値は注目点の周囲の全点を利用して算出する。 It should be noted that theobject determination unit 405 in this embodiment calculates the error e based on Equation (1). The error assumed for the ratio p may be calculated by a method other than this. For example, the value of the error e for the ratio p and the score N may be tabulated in advance and calculated by referring to the table. For example, the table generates a distance image by inputting stereo images under various conditions, places attention points on various parts, calculates the ratio p from the distribution of the distance values of the surrounding points, and records the error. create. In this case, the true value of the ratio p for each point of interest is calculated using all the points around the point of interest.

また、本実施形態における周囲点設定部は、x=1として、1点ずつ周囲点の点数Nを増加させた。ただし、xは1点でも良いし1点以上の点数でも良い。例えば、誤差eが大きい場合は、1点ずつ周囲点を増やすよりも、一度に複数点増やす方が効率的である。そのため、eが大きくなるほどxが大きくなるように、xを決定しても良い。 Further, the surrounding point setting unit in the present embodiment sets x=1 and increases the number of surrounding points N by one point. However, x may be 1 point or 1 or more points. For example, when the error e is large, it is more efficient to increase the number of surrounding points at once than to increase the number of surrounding points one by one. Therefore, x may be determined such that x increases as e increases.

また、周囲点設定部403で点数を増やす場合についても、周囲点の位置の分布には偏りがない方が望ましい。そのため、既に設定された周囲点の分布において密度の低い位置に優先的に増加させても良い。 Also when the number of points is increased by the surroundingpoint setting unit 403, it is desirable that the distribution of the positions of the surrounding points is not biased. Therefore, in the already set distribution of surrounding points, the number may be preferentially increased to positions with low density.

[変形例2]
ステップS580では、注目点を選択する処理を繰り返すことで、複数の個所について物体の有無を検知していた。一方、本変形例では、検知空間内の点を1点検知した段階で物体が存在すると判定する。
[Modification 2]
In step S580, the presence or absence of an object is detected at a plurality of locations by repeating the process of selecting points of interest. On the other hand, in this modified example, it is determined that an object exists when one point in the detection space is detected.

本変形例では、物体判定部405で、検知空間110内に物体が存在することが判定した場合、以降の順番に注目点として設定される候補点についての計算をスキップする。これにより、不要な計算コストを抑えることができる。 In this modification, when theobject determination unit 405 determines that an object exists in thedetection space 110, the calculation of candidate points set as points of interest is skipped in the subsequent order. This can reduce unnecessary calculation costs.

次に、本変形例の具体的な処理手順について説明する。図6は処理手順を示すフローチャートである。物体判定部405に関するS772については、図4、図5と処理が異なる。以下にその具体的な処理内容を述べる。 Next, a specific processing procedure of this modified example will be described. FIG. 6 is a flow chart showing the processing procedure. Regarding S772 regarding theobject determination unit 405, the processing is different from that in FIGS. The specific processing contents are described below.

(ステップS772)
物体判定部405で、物体が存在しないと判定した場合は、注目点設定部402の処理に戻って、以降の順番の注目点を設定する。物体が存在すると判定した場合は、以降の順番の候補点についての判定はスキップし、処理を打ち切る。
(Step S772)
When theobject determination unit 405 determines that the object does not exist, the process returns to the attentionpoint setting unit 402 to set subsequent attention points. If it is determined that an object exists, the determination of subsequent candidate points is skipped, and the process is terminated.

以上述べたように、物体が存在すると判定した場合は、以降の順番の候補点についての判定はスキップし、計算コストを抑えることができる。 As described above, when it is determined that an object exists, the determination of subsequent candidate points can be skipped, and the calculation cost can be reduced.

[変形例3]
本変形例では、注目点設定部402で、候補点の距離値の小さい順に注目点を設定する。これにより、計算コストを抑えながら、ステレオカメラから距離が近い物体が優先的に検知されるようにすることができる。
[Modification 3]
In this modification, the targetpoint setting unit 402 sets the target points in ascending order of the distance value of the candidate points. As a result, it is possible to preferentially detect an object that is close to the stereo camera while suppressing the calculation cost.

次に、具体的な処理手順について説明する。図6は処理手順を示すフローチャートである。注目点設定部402に関するS740については、上述のフローチャートの説明で述べた処理と処理が異なる。以下にその具体的な処理内容を述べる。 Next, a specific processing procedure will be described. FIG. 6 is a flow chart showing the processing procedure. Regarding S740 regarding the point-of-interest setting unit 402, the processing described in the explanation of the above-mentioned flowchart is different. The specific processing contents are described below.

(ステップS740)
注目点設定部402で、候補点のうち検知空間110に存在する点を注目点として設定する。この時、候補点は予めその距離値に基づいてソートし、ステレオカメラからの距離値が小さい順に設定を行う。距離値に基づくソートにより、完全に距離値順に沿って注目点を設定する必要はない。距離値が短い注目点を優先して設定すれば、計算コストを抑えながら、ステレオカメラから距離が近い物体が優先的に検知されるようにすることができる。
(Step S740)
A point-of-interest setting unit 402 sets a point existing in thedetection space 110 among the candidate points as a point of interest. At this time, the candidate points are sorted in advance based on their distance values, and are set in ascending order of the distance value from the stereo camera. With sorting based on distance values, it is not necessary to set the points of interest entirely along the order of distance values. By giving priority to points of interest with short distance values, it is possible to preferentially detect objects that are close to the stereo camera while suppressing calculation costs.

これにより、判定部405では、距離値が小さい順に、注目点が物体上の点かどうかを判定され、物体が存在すると判定した場合は、以降の順番の候補点についての判定はスキップし、処理を打ち切る。 As a result, the determiningunit 405 determines whether or not the point of interest is a point on the object in ascending order of the distance value. discontinue.

以上述べたように、注目点をステレオカメラからの距離値の小さい順に設定することで、距離が近い物体が優先的に検知されることを担保した上で、他の候補点についての処理をスキップできるので計算コストを抑えることができる。 As described above, by setting the points of interest in ascending order of the distance value from the stereo camera, the process for other candidate points is skipped after ensuring that objects with a short distance are preferentially detected. Therefore, the computational cost can be reduced.

なお、本実施形態における注目点設定部402は、距離値に応じて注目点を設定する。これ以外に、例えば、画像上の中心部に存在する物体に注目し、画像中心部から各候補点までの間隔に基づいて、注目点を設定することにより、画像の中心部に物体が存在すると判定されれば、以降の判定はスキップすることもできる。 Note that the attentionpoint setting unit 402 in this embodiment sets the attention point according to the distance value. In addition to this, for example, by focusing on the object existing in the center of the image and setting the target point based on the distance from the center of the image to each candidate point, it is possible to determine that the object exists in the center of the image. If determined, subsequent determinations can also be skipped.

[変形例4]
画像取得部は、異なる視点で撮影した2枚の画像を取得できる方法を適用可能である。例えば、第1の実施形態に示すように、ステレオカメラに基づいて撮影した画像を取得する方法、1台のカメラを移動させて2つの視点で撮影した画像を取得する方法などがある。また、2つの光学系を有し、光路を2つ有する撮像装置の例として、図8の800に示す撮像装置のように、1つの撮像素子(801、CMOSセンサやCCDセンサなど)を使って、複数の撮像光学系(802a、802b)からの光を結像させる撮像装置がある。800に示す撮像装置は、2眼レンズそれぞれから入港する光を単一のCMOSセンサを通じて記録している。画像取得部は、この撮像装置を利用して、撮影した画像を取得することもできる。
[Modification 4]
The image acquisition unit can apply a method capable of acquiring two images photographed from different viewpoints. For example, as shown in the first embodiment, there is a method of acquiring images taken based on a stereo camera, a method of acquiring images taken from two viewpoints by moving one camera, and the like. Further, as an example of an imaging device having two optical systems and two optical paths, as in theimaging device 800 in FIG. , there is an imaging device that forms an image of light from a plurality of imaging optical systems (802a, 802b). The imager shown at 800 records the incoming light from each of the two lenses through a single CMOS sensor. The image acquisition unit can also acquire a captured image using this imaging device.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供してもよい。 The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed. Alternatively, the program may be recorded on a computer-readable recording medium and provided.

Claims (8)

Translated fromJapanese
撮像視野の少なくとも一部が重複するように装置に配置された第1の光学系と第2の光学系を含む撮像手段から得られる画像であって、前記第1の光学系から第1の画像を、前記第2の光学系から第2の画像を取得する画像取得手段と、
前記第1の画像における画素数よりも少ない第1の数の特徴点を前記第1の画像と前記第2の画像においてステレオマッチングし、前記撮像手段に対する該特徴点の3次元位置を推定する推定手段と、
前記第1の数の特徴点のうち、前記撮像手段の視野内に設定した3次元空間内から得られたと前記3次元位置に基づいて判断する特徴点を注目点として設定する注目点設定手段と、
前記第1の画像における前記注目点から所定の距離範囲内の画像領域内において前記推定手段で3次元位置を推定した特徴点の数よりも多い数の第2の数の周囲点を設定する周囲点設定手段と、
前記第1の画像と前記第2の画像とを用いて前記周囲点をステレオマッチングすることにより得た、前記撮像手段に対する前記周囲点の3次元位置と、前記撮像手段に対する前記注目点の3次元位置と、の差に基づいて、前記注目点が前記3次元空間内に存在する物体の特徴を示す特徴点かを判定する判定手段と、を有することを特徴とする情報処理装置。
An image obtained by imaging means including a first optical system and a second optical system arranged in an apparatus so that at least a part of the imaging field of view overlaps, wherein the first image is obtained from the first optical system. an image acquisition means for acquiring a second image from the second optical system;
Estimation of stereo-matching a first number of feature points, which is smaller than the number of pixels in the first image, in the first image and the second image, and estimating a three-dimensional position of the feature points with respect to the imaging means. means and
point-of-interest setting means for setting, as a point of interest, one of the first number of feature points determined based on the three-dimensional position as being obtained from within the three-dimensional space set within the field of view of the imaging means; ,
A periphery for setting a second number of surrounding points larger than the number of feature points whose three-dimensional positions are estimated by the estimation means in an image area within a predetermined distance range from the point of interest in the first image. point setting means;
The three-dimensional position of the surrounding point with respect to the imaging means and the three-dimensional position of the point of interest with respect to the imaging means obtained by stereo matching the surrounding points using the first image and the second image. and determination means for determining whether the target point is a feature point representing a feature of an object existing in the three-dimensional space, based on the difference between the position and the position.
前記判定手段は、前記撮像手段から前記注目点が示す位置までの距離の値と、前記撮像手段から前記周囲点が示す位置までの距離の値とが類似する数または比率に基づいて前記注目点が前記3次元空間内に存在する物体の特徴を示す特徴点かを判定する
ことを特徴とする請求項1に記載の情報処理装置。
The determining means determines the point of interest based on the number or ratio of similarity between the value of the distance from the imaging means to the position indicated by the point of interest and the value of the distance from the imaging means to the position indicated by the surrounding points. 2. The information processing apparatus according to claim 1, wherein it is determined whether is a feature point representing a feature of an object existing in the three-dimensional space.
前記撮像手段から前記注目点が示す位置までの距離の値と、前記撮像手段から前記周囲点が示す位置までの距離の値とが類似する数または比率の誤差が所定値を超える場合、前記周囲点設定手段は、周囲点の数を増やすことを特徴とする請求項1または2に記載の情報処理装置。 If the error of the number or ratio of similarity between the value of the distance from the imaging means to the position indicated by the target point and the value of the distance from the imaging means to the position indicated by the surrounding point exceeds a predetermined value, the surrounding 3. The information processing apparatus according to claim 1, wherein the point setting means increases the number of surrounding points. 前記周囲点設定手段は、前記第1の画像において、前記注目点を中心として、所定値を超える確率で周囲点同士の間隔が予め定められた間隔以上空くように周囲点を設定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The surrounding point setting means is characterized in that in the first image, the surrounding points are set such that the interval between the surrounding points is equal to or greater than a predetermined interval with a probability of exceeding a predetermined value, with the point of interest as the center. 4. The information processing apparatus according to any one of claims 1 to 3. 前記注目点設定手段は、前記撮像手段から前記特徴点が示す位置までの距離が短い特徴点を優先して注目点を設定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 5. The point-of-interest setting means according to any one of claims 1 to 4, wherein the point-of-interest setting means preferentially sets the point of interest for a feature point having a short distance from the imaging means to the position indicated by the feature point. information processing equipment. 前記注目点設定手段は、前記第1の画像の中心からの奥行き情報を省く2次元の距離が短い特徴点を優先して注目点を設定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 5. The point-of-interest setting means sets the point of interest by prioritizing a feature point having a short two-dimensional distance from the center of the first image and omitting depth information from the center of the first image. The information processing device according to item 1. 撮像視野の少なくとも一部が重複するように装置に配置された第1の光学系と第2の光学系を含む撮像手段から得られる第1の画像と第2の画像とのステレオマッチングを、前記第1の画像における画素数よりも少ない第1の数の特徴点で行った結果を用いて、前記撮像手段の所定位置から該特徴点が示す位置までの実空間における距離を含む該特徴点の3次元位置を推定する推定工程と、
前記第1の数の特徴点のうち、前記撮像手段の視野内に設定した3次元空間内から得られたと前記3次元位置に基づいて判断する特徴点を注目点として設定する注目点設定工程と、
前記第1の画像における前記注目点から所定の距離範囲内の画像領域に存在する周囲点であって、前記画像領域内において前記推定工程で推定した特徴点の数よりも多い数の第2の数の周囲点を設定する周囲点設定工程と、
前記第1の画像と前記第2の画像とを用いて前記周囲点をステレオマッチングすることにより得た、前記撮像手段の所定位置から前記周囲点が示す位置までの距離と、前記撮像手段の所定位置から前記注目点が示す位置までの距離と、の差に基づいて、前記注目点が前記3次元空間内に存在する物体の特徴を示す特徴点かを判定する判定工程と、を有することを特徴とする情報処理方法。
The stereo matching of the first image and the second image obtained from the imaging means including the first optical system and the second optical system arranged in the apparatus so that at least a part of the imaging field of view overlaps. Using the results obtained by using a first number of feature points, which is smaller than the number of pixels in the first image, the feature points including the distance in real space from the predetermined position of the imaging means to the position indicated by the feature points an estimation step of estimating a three-dimensional position;
a point-of-interest setting step of setting, as a point of interest, one of the first number of feature points determined based on the three-dimensional position as having been obtained from within the three-dimensional space set within the field of view of the imaging means; ,
second peripheral points present in an image area within a predetermined distance range from the point of interest in the first image, the number of which being larger than the number of feature points estimated in the estimation step in the image area; a surrounding point setting step of setting surrounding points of the number;
The distance from the predetermined position of the imaging means to the position indicated by the surrounding points, obtained by stereo matching the surrounding points using the first image and the second image, and the predetermined distance of the imaging means a determination step of determining whether the point of interest is a feature point representing a feature of an object existing in the three-dimensional space, based on the difference between the distance from the position to the position indicated by the point of interest; Information processing method characterized by:
コンピュータを、請求項1乃至6の何れか1項に記載の情報処理装置の各手段として機能させるプログラム。 A program that causes a computer to function as each means of the information processing apparatus according to any one of claims 1 to 6.
JP2022011323A2021-02-252022-01-27 Information processing device, information processing method, programPendingJP2022130307A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
US17/677,809US20220270349A1 (en)2021-02-252022-02-22Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application NumberPriority DateFiling DateTitle
JP20210287142021-02-25
JP20210287142021-02-25

Publications (1)

Publication NumberPublication Date
JP2022130307Atrue JP2022130307A (en)2022-09-06

Family

ID=83150847

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2022011323APendingJP2022130307A (en)2021-02-252022-01-27 Information processing device, information processing method, program

Country Status (1)

CountryLink
JP (1)JP2022130307A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN116563356A (en)*2023-05-122023-08-08北京长木谷医疗科技股份有限公司 Global 3D registration method, device and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2018028805A (en)*2016-08-182018-02-22マクセル株式会社Image processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2018028805A (en)*2016-08-182018-02-22マクセル株式会社Image processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN116563356A (en)*2023-05-122023-08-08北京长木谷医疗科技股份有限公司 Global 3D registration method, device and electronic equipment
CN116563356B (en)*2023-05-122024-06-11北京长木谷医疗科技股份有限公司Global 3D registration method and device and electronic equipment

Similar Documents

PublicationPublication DateTitle
CN112997187B (en)Two-dimensional object boundary box information estimation based on bird's eye view point cloud
CN108242062B (en)Target tracking method, system, terminal and medium based on depth feature flow
US7660436B2 (en)Stereo-vision based imminent collision detection
CN108692719B (en) Object detection device
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US9747524B2 (en)Disparity value deriving device, equipment control system, movable apparatus, and robot
WO2018058356A1 (en)Method and system for vehicle anti-collision pre-warning based on binocular stereo vision
JP6574611B2 (en) Sensor system for obtaining distance information based on stereoscopic images
JP6328327B2 (en) Image processing apparatus and image processing method
EP1391845A2 (en)Image based object detection apparatus and method
JP6712775B2 (en) Road surface estimation device, vehicle control device, road surface estimation method, and program
JP2006234492A (en) Object recognition device
EP3324359B1 (en)Image processing device and image processing method
WO2017138245A1 (en)Image processing device, object recognition device, device control system, and image processing method and program
JP2001216519A (en) Traffic monitoring device
WO2018058355A1 (en)Method and system for detecting vehicle accessible region in real time
CN114648744A (en)Method for determining semantic collision-free space
JP2022130307A (en) Information processing device, information processing method, program
CN110781730A (en)Intelligent driving sensing method and sensing device
JP2019160251A (en)Image processing device, object recognition device, instrument control system, moving body, image processing method and program
KR101117235B1 (en)Apparatus and method for recognizing traffic accident
JP2018151940A (en)Obstacle detection device and obstacle detection method
JP4462533B2 (en) Road lane detection device
RU2650857C1 (en)System for determining geometric parameters of three-dimensional objects
JP4106163B2 (en) Obstacle detection apparatus and method

Legal Events

DateCodeTitleDescription
RD01Notification of change of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7421

Effective date:20231213

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20250123

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20250904

A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20250916


[8]ページ先頭

©2009-2025 Movatter.jp