Movatterモバイル変換


[0]ホーム

URL:


JP2001188988A - Vehicle detection device - Google Patents

Vehicle detection device

Info

Publication number
JP2001188988A
JP2001188988AJP37313999AJP37313999AJP2001188988AJP 2001188988 AJP2001188988 AJP 2001188988AJP 37313999 AJP37313999 AJP 37313999AJP 37313999 AJP37313999 AJP 37313999AJP 2001188988 AJP2001188988 AJP 2001188988A
Authority
JP
Japan
Prior art keywords
distance
vehicle
unit
background
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37313999A
Other languages
Japanese (ja)
Inventor
Yuji Hozumi
雄二 穂積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric CorpfiledCriticalMitsubishi Electric Corp
Priority to JP37313999ApriorityCriticalpatent/JP2001188988A/en
Publication of JP2001188988ApublicationCriticalpatent/JP2001188988A/en
Pendinglegal-statusCriticalCurrent

Links

Landscapes

Abstract

Translated fromJapanese

(57)【要約】【課題】 この発明は、路面の上を移動する影のような
画像を、移動する車両と誤認識することの無い物体検出
装置を提供することを目的としている。また、長時間停
止する車両でも背景と分離して認識することが可能な車
両検出装置を提供することを目的としている。【解決手段】 背景の各点までの距離を測定し、背景距
離マップとして記憶し、これと現在の距離情報とを比較
する距離差異弁別部を設けたものである。
An object of the present invention is to provide an object detection device that does not mistakenly recognize an image such as a shadow moving on a road surface as a moving vehicle. It is another object of the present invention to provide a vehicle detection device capable of recognizing a vehicle that is stopped for a long time separately from a background. SOLUTION: A distance difference discriminating unit for measuring a distance to each point of a background, storing the distance as a background distance map, and comparing this with current distance information is provided.

Description

Translated fromJapanese
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、たとえば道路上
を走行する車両の位置や速度を測定する車両検出装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle detecting device for measuring the position and speed of a vehicle traveling on a road, for example.

【0002】[0002]

【従来の技術】図6は、たとえば従来の車両検出装置の
構成図であり、図において1はカメラ、2はカメラ制御
部、3はこのカメラにて得られたアナログの映像信号を
デジタル信号に変換するA−D変換部、4は数秒から数
十秒程度に一度閉じてそれ以外は開いている間欠スイッ
チ、5はこの間欠スイッチが閉じた瞬間の画像を記憶す
る背景画像記憶部、6はこの背景画像記憶部が記憶した
画像と現在の画像との差異を計算する画像差分処理部、
7はこの画像差分処理部の出力から車両らしき対象を検
出する車両パターン認識部、そして8は車両位置速度算
出部である。
2. Description of the Related Art FIG. 6 is a block diagram of, for example, a conventional vehicle detection device. In the drawing, reference numeral 1 denotes a camera, 2 denotes a camera control unit, and 3 denotes an analog video signal obtained by this camera, converted into a digital signal. An A / D converter for conversion, 4 is an intermittent switch that is closed once every several seconds to several tens of seconds and is open otherwise, 5 is a background image storage that stores an image at the moment when the intermittent switch is closed, 6 is An image difference processing unit that calculates a difference between the image stored in the background image storage unit and the current image,
Reference numeral 7 denotes a vehicle pattern recognition unit for detecting a vehicle-like target from the output of the image difference processing unit, and reference numeral 8 denotes a vehicle position / speed calculation unit.

【0003】つぎに動作について説明する。カメラ1は
交差点などの監視領域を撮像するように道路上の門構な
どに設置されている。このカメラの最寄りにはカメラ制
御部2が設置されており、このカメラ制御部はカメラの
絞りや細かな設定などをカメラ1の映像信号強度が強す
ぎて飽和したり、弱すぎてノイズに埋もれたりしないよ
うに適切にコントロールしている。カメラ1の出力であ
るアナログ映像信号はA−D変換部3に入力されて、計
算機による画像処理を行い易くするようにデジタル信号
に変換される。この画像信号は間欠スイッチ4によって
数分毎に一度、背景画像記憶部5に入力される。すなわ
ち背景画像記憶部は数分前の監視領域の画像を取り込ん
で記憶する。一方、現在の映像は画像差分処理部6を入
力される。ここで、前述の背景画像記憶部5に記憶され
た数分前の画像と現在の画像とを引き算する。このよう
に背景画像と現在の画像との差分をとることによって、
複雑な背景中に埋もれている移動物体その他が後述のよ
うに浮き出てくる。この車両その他の移動物の出力は車
両パターン認識部7に入力され、あらかじめ登録してあ
る車両相当の画像パターン、たとえば多角形の白または
黒の画素の大きなかたまりのみが抽出される。ここで車
両パターンとのマッチングを行って車両のみとなった信
号は車両位置速度算出部8に入力されて、上記かたまり
の重心から車両位置を求め、上記かたまりの重心の位置
変化から車両速度の情報を得ることができる。以上の一
連の処理によって検出した車両位置や速度情報は、例え
ば上記の信号処理器にその情報を伝送して当該道路に設
置してある信号機の青の時間などを長く変化させるなど
して、交通量を調整すること等に用いられる。
Next, the operation will be described. The camera 1 is installed at a gate on a road or the like so as to capture an image of a monitoring area such as an intersection. A camera control unit 2 is installed near the camera, and the camera control unit saturates the image signal strength of the camera 1 due to too strong a video signal intensity of the camera 1 or is buried in noise due to too weak a video signal intensity of the camera 1. We control appropriately not to do. An analog video signal output from the camera 1 is input to an A / D converter 3 and converted into a digital signal so that image processing by a computer is easily performed. This image signal is input to the background image storage unit 5 once every few minutes by the intermittent switch 4. That is, the background image storage unit captures and stores the image of the monitoring area several minutes before. On the other hand, the current video is input to the image difference processing unit 6. Here, the image several minutes before and stored in the background image storage unit 5 is subtracted from the current image. By taking the difference between the background image and the current image in this way,
Moving objects and the like buried in a complicated background emerge as described later. The output of the vehicle or other moving object is input to the vehicle pattern recognition unit 7, and only an image pattern corresponding to the vehicle registered in advance, for example, only a large cluster of polygonal white or black pixels is extracted. Here, the signal that has been subjected to matching with the vehicle pattern and has become only the vehicle is input to the vehicle position / speed calculation unit 8 to obtain the vehicle position from the center of gravity of the cluster and to obtain information on the vehicle speed from the change in the position of the center of gravity of the cluster. Can be obtained. The vehicle position and speed information detected by the above series of processing is transmitted to the above signal processor, for example, by changing the blue time of a traffic light installed on the road for a long time, and so on. It is used for adjusting the amount.

【0004】ここで、図6の各構成部の出力例を図を用
いて説明する。図7はカメラで撮像した例えば夜間時の
監視領域の画像例で、ここで9はカメラに対して接近す
る方向に移動する車両であり、図では奥の方から図の手
前の方へ移動する。10は道路の左端であり、また11
は道路の右端である。ここで実際の道路は平坦で幅は一
定である。この場合、門構などの上に設置されたカメラ
からは鳥瞰したように図の奥の方から手前の方へ向かっ
て徐々に道路の幅が広がって行くように撮像される。な
お、図中A点は車両9の前面の下端、またB点は車両の
上端で、12は道路脇に設置された花壇や駐車車両など
の物体であり、13は合流している脇道、14は合流前
の道路の左端、そして15は背景画像となる路面であ
る。なお、一般的に画像は情報量が多いので、処理時間
短縮などのために撮像範囲中、できるだけ少ない面積を
監視領域として設定する。この図7の場合の監視領域は
道路の左端から右端である。ここで図7中、番号14お
よび10で示した斜めの線ならびに番号10と14を結
んだ斜めの仮想線が道路の左端である。この例ではこれ
ら道路左端の線と番号11で示す道路の右端の間を監視
領域としている。よって合流する脇道13の部分は監視
領域ではない。図7で、接近方向の車両9が存在しない
代わりに脇道からの車両が存在する場合の背景画像の例
を図8に示す。図では脇道13から合流しようとして停
止している車両17は存在するが、監視領域の奥の方か
ら接近する車両9は走行していないために図7中の背景
などを含めた、接近車両以外の全ての物体が撮像されて
いる。ここで図6の構成中の間欠スイッチ4が閉じたと
きにこの画像が背景画像記憶部5に記憶される。この状
態で図7のように車両が現れた時に図6に示す画像差分
処理部にて画像の引き算を実施すると、その出力は図9
に示すように移動体である車両9が浮き出てくる。な
お、図8で車両17によって照明された道路脇の物体の
影16も残っているが、これは合流しようとして停止し
ている車両17のヘッドライトで照らされた物体12の
影であり、図8に示すように背景画面として背景画像記
憶部に記憶されている。この影16は、図7の現在の画
像には存在しないので、差分処理の結果、差として残
る。なお、上述のように脇道13の部分は監視領域では
ないので、図8の合流しようとしている車両17および
脇道13ならびに物体12は差分処理の結果、削除され
てしまい、よって画像差分処理後の画像例を示す図9に
は存在しないことになる。
Here, an example of the output of each component in FIG. 6 will be described with reference to the drawings. FIG. 7 is an example of an image of a monitoring area at night, for example, captured by a camera. Here, reference numeral 9 denotes a vehicle that moves in a direction approaching the camera, and moves from the back to the near side in the figure. . 10 is the left end of the road and 11
Is the right end of the road. Here, the actual road is flat and the width is constant. In this case, an image is taken from a camera installed on a gate or the like so that the width of the road gradually increases from the back of the figure toward the front as seen from a bird's eye. In the figure, point A is the lower end of the front of the vehicle 9, point B is the upper end of the vehicle, 12 is an object such as a flower bed or a parked vehicle installed on the side of the road, 13 is a merging side road, 14 Is the left end of the road before merging, and 15 is the road surface serving as the background image. Since an image generally has a large amount of information, an area as small as possible in an imaging range is set as a monitoring area in order to shorten a processing time. The monitoring area in the case of FIG. 7 is from the left end to the right end of the road. Here, in FIG. 7, the oblique lines indicated by reference numerals 14 and 10 and the oblique virtual line connecting the numbers 10 and 14 are the left ends of the road. In this example, the area between the left end line of the road and the right end of the road indicated by number 11 is set as the monitoring area. Therefore, the portion of the side road 13 where the merging is performed is not a monitoring area. FIG. 8 shows an example of the background image in FIG. 7 in the case where the vehicle 9 in the approach direction is present instead of the vehicle 9 in the approaching direction. In the figure, there is a vehicle 17 that is stopping to join from the side road 13, but the vehicle 9 approaching from the back of the monitoring area is not running, and therefore, other than the approaching vehicle including the background in FIG. Are all imaged. Here, when the intermittent switch 4 in the configuration of FIG. 6 is closed, this image is stored in the background image storage unit 5. In this state, when a vehicle appears as shown in FIG. 7 and the image subtraction unit shown in FIG.
As shown in FIG. 7, the vehicle 9 as a moving body comes up. Although the shadow 16 of the object on the side of the road illuminated by the vehicle 17 in FIG. 8 also remains, this is the shadow of the object 12 illuminated by the headlights of the vehicle 17 that is stopping to merge. As shown in FIG. 8, the background image is stored in the background image storage unit. Since this shadow 16 does not exist in the current image of FIG. 7, it remains as a difference as a result of the difference processing. Since the side road 13 is not the monitoring area as described above, the vehicle 17 and the side road 13 and the object 12 which are about to be merged in FIG. 8 are deleted as a result of the difference processing, and thus the image after the image difference processing is performed. It does not exist in FIG. 9 showing an example.

【0005】[0005]

【発明が解決しようとする課題】従来装置は以上のよう
に動作し、画像差分処理後の画像中に残る影による問題
点として、大きく分けて次の二点がある。一点目の問題
は図8中の番号16で示したような、停止車のヘッドラ
イトなどによる、背景ではないが数分程度以上程度と比
較的長時間存在する影の影響である。もちろん、これに
は例えば日中の太陽光による影なども含み、この影を車
両と誤認識してしまう問題があった。また二点目の問題
は数秒程度の比較的短い時間内に発生する影の影響で、
加えて実際に検出したい車両と同じような画像的特性を
有する例について図10を用いて説明する。図において
18は合流している脇道13から近づく別な移動車両で
あり、1から16までは既に説明したものと同じまたは
同等のものである。ここで移動車両18自体は、前述の
ように監視領域以外に存在するため、画像差分処理によ
っても消去されてしまう。よって存在しないと同じであ
る。しかしながら移動車両18のヘッドライトで照らさ
れた影は移動車両18の接近にともなって16(a),
16(b),16(c)と時間的に変化して行く。この
変化は図10にて紙面の奥から手前への多角形の影の移
動を生じる。一方、前述のように、実際の車両が接近し
た場合でも多角形の像が図の奥から手前方向へ移動す
る。よってこの移動車両によって照明された物体12の
影は、実際の車両の接近を画像処理した結果と良く似て
おり、このため図6中の車両パターン認識部7は道路脇
の物体の移動する影16(a),16(b),16
(c)を、接近する車両と誤認識してしまうと言う問題
があった。
The conventional apparatus operates as described above, and the following two problems can be roughly classified as problems due to the shadow remaining in the image after the image difference processing. The first problem is the influence of a relatively long shadow of about several minutes or more, which is not a background, due to the headlights of a stopped vehicle or the like, as indicated by reference numeral 16 in FIG. Of course, this includes, for example, shadows due to daytime sunlight, and there is a problem that the shadows are erroneously recognized as vehicles. The second problem is the effect of shadows that occur within a relatively short time of about a few seconds.
In addition, an example having the same image characteristics as a vehicle to be actually detected will be described with reference to FIG. In the figure, reference numeral 18 denotes another moving vehicle approaching from the merging side road 13, and 1 to 16 are the same or equivalent to those already described. Here, since the moving vehicle 18 itself exists outside the monitoring area as described above, it is also deleted by the image difference processing. Therefore, it is the same as not existing. However, the shadow illuminated by the headlights of the moving vehicle 18 becomes 16 (a),
16 (b) and 16 (c). This change causes the polygon shadow to move from the back of the paper to the front in FIG. On the other hand, as described above, even when an actual vehicle approaches, the polygonal image moves from the back of the figure to the front. Therefore, the shadow of the object 12 illuminated by the moving vehicle is very similar to the result of image processing of the actual approach of the vehicle, and therefore, the vehicle pattern recognition unit 7 in FIG. 16 (a), 16 (b), 16
There is a problem that (c) is erroneously recognized as an approaching vehicle.

【0006】上述の影の問題の一点目、すなわち比較的
存在する時間の長い影の問題については、図6の間欠ス
イッチによる背景画像の取り込みを数秒程度にすれば一
応の対処にはなる。しかしながら、その対処を実施した
場合、監視領域を接近してきた車両が停車または一旦停
止した際に、数秒程度でその停止車両自体が背景画像と
なって記録されてしまい、数秒以上停止した車両が背景
画像情報と同化してしまうために検出することができな
くなるなどの課題を有していた。これに加えて、上述の
影による問題の二点目はさらに難しい課題を有してい
た。図10に示す、脇道を移動している車両18の移動
に伴って路面の表面を移動する影のように、数秒程度の
比較的短い時間に生じ、しかも多角形の影が移動するな
ど、その画像的な特性が検出すべき車両の特性と似てい
る場合は、従来装置で完全に悪影響を排除する有効な手
法は存在しなかった。
Regarding the first problem of the above-mentioned shadow problem, that is, the problem of the shadow that exists for a relatively long time, it is possible to take a measure as long as the intermittent switch shown in FIG. However, when such measures are taken, when a vehicle approaching the monitoring area stops or temporarily stops, the stopped vehicle itself is recorded as a background image in about a few seconds, and the vehicle stopped for more than a few seconds is a background image. There is a problem that detection cannot be performed due to assimilation with image information. In addition to the above, the second problem of the shadow described above has an even more difficult problem. As shown in FIG. 10, such as a shadow moving on the road surface with the movement of the vehicle 18 moving on the side road, it occurs in a relatively short time of about several seconds, and a polygonal shadow moves. If the image characteristics are similar to the characteristics of the vehicle to be detected, there has been no effective method for completely eliminating the adverse effects with the conventional device.

【0007】この発明はかかる問題を解決するためにな
されたものであり、路面上を移動する影などを移動物体
として検出するような誤りを防止することを目的とした
車両検出装置を提供するものである。また、この発明
は、長時間停止する車両であっても、背景と区別して検
出することが可能な車両検出装置を提供するものであ
る。
The present invention has been made in order to solve such a problem, and provides a vehicle detecting apparatus for preventing an error such as detecting a shadow or the like moving on a road surface as a moving object. It is. Another object of the present invention is to provide a vehicle detection device capable of detecting a vehicle that has been stopped for a long time, separately from a background.

【0008】[0008]

【課題を解決するための手段】第1の発明による車両検
出装置は、車両の通過する監視領域の特定方向に有する
既存の物体までの距離の分布を記憶する背景距離マップ
部と、前記監視領域内の特定方向に有する物体までの距
離の分布を測定する距離測定部と、前記背景距離マップ
の距離情報と前記距離測定部で測定された距離との差を
比較し、その差の分布に基づいて車両の存在を検出する
検出部とを備えたものである。
According to a first aspect of the present invention, there is provided a vehicle detecting apparatus, comprising: a background distance map section for storing a distribution of distances to an existing object in a specific direction of a monitoring area through which a vehicle passes; A distance measurement unit that measures the distribution of distances to objects having a specific direction within, and compares the difference between the distance information of the background distance map and the distance measured by the distance measurement unit, based on the distribution of the difference. And a detecting unit for detecting the presence of the vehicle.

【0009】第2の発明による車両検出装置は、前記検
出部は、前記背景距離マップの距離情報と前記距離測定
部で測定された距離との差から、監視領域内において距
離が変化した部分を検出する距離差異弁別部と、この距
離差異弁別部で検出された距離変化部分周辺の距離分布
から車両を検出する車両距離パターン認識部とを備えた
ものである。
According to a second aspect of the present invention, in the vehicle detecting apparatus, the detecting unit detects a portion where the distance has changed in the monitoring area from a difference between the distance information of the background distance map and the distance measured by the distance measuring unit. A distance difference discriminating unit to be detected and a vehicle distance pattern recognizing unit detecting a vehicle from a distance distribution around a distance change portion detected by the distance difference discriminating unit are provided.

【0010】第3の発明による車両検出装置は、前記距
離測定部は、離間して配置された少なくとも2台以上の
カメラを備えたものである。
[0010] In a vehicle detection device according to a third aspect of the present invention, the distance measuring section includes at least two or more cameras which are arranged apart from each other.

【0011】第4の発明による車両検出装置は、前記距
離測定部は、電磁波を2次元に走査して送信し、その反
射波を受信することによって距離を測定する手段を備え
たものである。
[0011] In a vehicle detecting apparatus according to a fourth aspect of the present invention, the distance measuring section includes means for measuring the distance by scanning and transmitting the electromagnetic wave two-dimensionally and receiving the reflected wave.

【0012】[0012]

【発明の実施の形態】実施の形態1.図1はこの発明の
実施の形態1を示した構成図であり、図において19は
第1のカメラ、20は第1のカメラ制御部、21は第1
のA−D変換部、22は第2のカメラ、23は第2のカ
メラ制御部、24は第2のA−D変換部、25は距離測
定部、26はスイッチ、27は背景距離マップ部、28
は距離差異弁別部、29は車両距離パターン認識部、そ
して8は前述の従来装置と同じ車両位置速度算出部であ
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a block diagram showing Embodiment 1 of the present invention. In FIG. 1, reference numeral 19 denotes a first camera, reference numeral 20 denotes a first camera control unit, and reference numeral 21 denotes a first camera.
, An analog-to-digital converter 22, a second camera 22, a second camera controller 23, a second analog-to-digital converter 24, a distance measuring unit 25, a switch 26, and a background distance map unit 27 , 28
Is a distance difference discriminating unit, 29 is a vehicle distance pattern recognizing unit, and 8 is a vehicle position / velocity calculating unit which is the same as the above-described conventional device.

【0013】次に動作について説明する。第1のカメラ
19は、第1のカメラ制御部20で、絞りなどを最適に
設定される。第1のカメラ19で撮像された画像は、相
当するアナログ映像信号となって、第1のA−D変換部
21に入力される。ここでデジタル信号となった映像信
号は、距離測定部25で、同様に撮像された第2のカメ
ラ22の映像信号とによって、視差を用いた原理によ
り、背景を含めた画像各点までの距離が計算される。こ
れはよく知られている、いわゆるステレオカメラの原理
と同じである。これによって、画面の各点までの距離情
報が計算される。次に、スイッチ26によって、背景路
面マップ部27に路面各点までの距離情報が入力され
る。この路面各点までの距離は天災や工事によるカメラ
の移動や移設などが無い限り距離変化を生じないため、
例えば設置工事後の現地調整の時点で車両が居ない状態
で手動にて記録させることができる。ここで、現在の監
視領域の路面の各部までの距離は既知となるので、この
背景距離マップ部の距離情報と、現在得られた監視領域
の距離情報とを距離差異弁別部28で引き算する即ち距
離の差分を取ることによって、路面以外の物体を検出す
ることが可能となる。その後は上述の従来装置と同様に
車両距離パターン認識部29にて、距離情報の中から車
両の距離パターンを認識して車両を切り分ける。これを
従来装置と同様に車両位置速度情報算出部8に入力する
ことによって、移動体である車両の位置と速度の情報が
得られる。ここで、距離情報を用いる、車両を検出でき
る原理を図2を用いて説明する。図2は道路に設置する
門構上のカメラの距離情報の一般的な例である。この例
では地上10mの高さであるC点にカメラが設置された
場合の、カメラ真下から30m離れた路面であるA点
に、車両が存在する場合について示す。図2の縦軸は門
構上のカメラからの高さ方向の距離であり、横軸は門構
上のカメラ真下からの距離である。カメラ真下から30
mの路面A点でのカメラからの距離は31.6mであ
る。ここで、説明を簡単化するため、車両をワンボック
スカーのように前部がほぼ平坦であるとし、車両高さを
1.5mとする。即ちA点が車両の下端で、B点が車両
の上端とする。するとカメラ真下からの距離30mの路
面であるA点上に存在する車両は、A点に1.5m高さ
の板のようなものを置いたことと同等となる。この状態
を図2に示す。図2ではカメラより距離30mのA点か
ら垂直に1.5mの距離を持つB点までが車両に相当す
ることになる。ここで図2に示す通り、カメラC点から
A点に置いた高さ1.5mの物体の天井部分B点までの
距離は31.2mであり、距離ACと距離BCとの差は
0.4mになり、差が小さい(0〜1m程度)。一方、
例えば図10の花壇12の路面上の影16のように図6
の従来の車両検出装置では車両と誤認識する場合につい
て考える。この実施の形態では、図2に示すように、カ
メラC点と従来装置が影16を車両と誤認する場合の誤
認車両の上端B点を結んだ線分を延長した、路面と交差
した所であるG点までの距離が測定される。この車両天
井部分に相当する路面の影G点までのカメラC点からの
距離は図2に示すよに36.4mである。この差を計算
すると、30m地点の車両の天井までの距離は31.2
mの値となるのに対し、相当する影の距離情報は36.
4mとなり、その差は、5.2mと大きい。この5.2
mという差異は、センサの距離測定精度や車の前面とフ
ロントグラスまでの距離を考慮しても明確な差異として
装置に認識される。よって、監視領域内の対象物までの
距離を測定する手段を備えることによって路面上を移動
する影と、実際に存在する車両とを明確に弁別すること
が可能となる。ここで、構成図1中の背景距離マップ部
27の記憶データ値の例を図3に示す。この例では図3
に示すように水平方向および垂直方向に碁盤の目のよう
にカメラが撮像した領域を分割し、その各交点の距離を
背景距離マップ部27に機械的に記憶させている。な
お、各構成部分の番号と区別するため、図3の距離デー
タは四角で囲い、さらに単位であるメートル「m」を付
してあり、これは次に示す図4も同様である。ここでは
処理時間を短くし、また距離マップ部の記憶容量を少な
くするために、既に述べた処理領域以外の距離情報は削
除した例について述べてある。また、車両が存在した場
合は図4に示すような距離マップとなるが、既に図2を
用いて点A、点B、点Gの距離の差異で説明したよう
に、車両の存在によって図3の距離データと図4の路面
と車両の距離データでは当該車両の部分で明らかに異な
る距離パターンを有する。具体的には車両の存在によっ
て、車両がある部分に点Aの距離とほぼ等しい距離の値
のかたまりが生じる。一方車両が無い場合は図3に示す
ように路面各点までの距離が測定され、図2より明らか
なように車両の有無の差によって距離的に5m程度の差
異が生じる。ここで距離差異弁別部28は、図4に示す
ように背景距離マップ部27に格納された距離情報と距
離測定部25で測定された距離との差分によって変化点
1 ,P2 ,P3 ,P4 を検出する。次に距離パターン
認識部29によって、このような同等の距離のかたまり
を他の路面までの距離と識別して認識させることによっ
て、背景の路面と存在する車両とを明確に弁別すること
が可能となる。例えば、点P1 〜P4の上下に隣接する
点について、同等の距離を有するかたまりとしてP1
2 ,P3 ,P4 ,P5 ,P6 ,P7 を抽出し、この
かたまりから車両を検出する。なお、ここで明らかなよ
うに、路面上にたとえば図10の16(a),16
(b),16(c)のように移動する影が発生していた
としても、その影は路面上に生じるため、距離情報とし
ては路面までの距離が測定され、この値は影の有無はも
ちろん、影の移動に対しても変化が無いため、距離差異
弁別部28の出力としては現れない。よって、従来困難
であった移動する影による誤動作の防止も、容易に実現
することが可能となる。さらにここで特長として、従来
の装置では、太陽光などによる背景画像の変化を障害物
として検出することを避けるために数十秒ないし数分程
度で背景画像を取り込みなおすため、長時間停止してい
る車両や落下物などの障害物は、数分後には背景画像と
してとりこまれてしまうため、弁別不可能となっていた
が、この発明によれば、太陽光などによる影の生成や消
滅によっても距離データは変化しないため、長時間停車
している車両であっても、また落下物などの障害物であ
っても、背景と弁別して検出することが可能となる。
Next, the operation will be described. First camera
Reference numeral 19 denotes a first camera control unit 20, which optimally controls an aperture and the like.
Is set. The image captured by the first camera 19 is
A corresponding analog video signal, and a first A / D converter
21. Here, the digital signal
The second camera is similarly imaged by the distance measurement unit 25.
The video signal of the camera 22 and the principle using parallax.
The distance to each point of the image including the background is calculated. This
This is the well-known principle of the so-called stereo camera
Is the same as This allows the distance information to each point on the screen
Information is calculated. Next, the background road is switched by the switch 26.
Distance information to each point on the road surface is input to the surface map unit 27.
You. The distance to each point on this road surface is determined by cameras
Since the distance does not change unless there is no movement or relocation of
For example, there is no vehicle at the time of site adjustment after installation work
Can be recorded manually. Here, the current supervisor
Since the distance to each part of the road surface in the viewing area is known,
The distance information of the background distance map section and the currently obtained monitoring area
Is subtracted by the distance difference discriminating unit 28, that is, the distance information
Detecting objects other than the road surface by taking the difference of separation
It becomes possible. After that, as with the conventional device described above,
The vehicle distance pattern recognition unit 29 selects the vehicle from the distance information.
The vehicle is identified by recognizing both distance patterns. this
Input to the vehicle position / speed information calculation unit 8 as in the conventional device
As a result, information on the position and speed of the vehicle
can get. Here, the vehicle can be detected using the distance information.
The principle will be described with reference to FIG. Figure 2 installs on the road
It is a general example of the distance information of the camera on the gate. This example
Installed a camera at point C, which is 10 meters above the ground
In this case, point A, which is a road surface 30 m from directly below the camera
Shows a case where a vehicle is present. The vertical axis in Figure 2 is the gate
The distance in the height direction from the camera on the premises, and the horizontal axis is the gate structure
It is the distance from the camera directly below. 30 right below the camera
m from the camera at point A on the road surface is 31.6 m
You. Here, in order to simplify the explanation, the vehicle is one-box
Assuming that the front is almost flat like a scar,
1.5 m. That is, point A is the lower end of the vehicle and point B is the vehicle.
And the upper end of Then, a road 30m away from the camera
The vehicle on the point A, which is a plane, has a height of 1.5 m at the point A.
It is equivalent to putting something like a board. This state
Is shown in FIG. In Fig. 2, it is point A which is 30m away from the camera.
Up to point B with a distance of 1.5 m vertically corresponds to the vehicle
Will be. Here, as shown in FIG.
Up to a point B on the ceiling of a 1.5 m high object placed at point A
The distance is 31.2 m, and the difference between the distance AC and the distance BC is
0.4 m, and the difference is small (about 0 to 1 m). on the other hand,
For example, like the shadow 16 on the road surface of the flower bed 12 in FIG.
The conventional vehicle detection device of
Think. In this embodiment, as shown in FIG.
An error when the camera C and the conventional device mistakenly regard the shadow 16 as a vehicle.
Intersecting the road surface, extending the line connecting the top point B of the recognized vehicle
The distance to the point G, which is the point where the measurement was performed, is measured. This vehicle
From camera C up to shadow G on the road surface corresponding to the well
The distance is 36.4 m as shown in FIG. Calculate this difference
Then, the distance to the ceiling of the vehicle at 30m point is 31.2
m, while the corresponding shadow distance information is 36.
4 m, and the difference is as large as 5.2 m. This 5.2
The difference in the distance between the car and the front of the car
As a clear difference even considering the distance to the front glass
Recognized by the device. Therefore, the object within the monitoring area
Moving on the road surface by providing means for measuring distance
Clear distinction between shadows that actually occur and vehicles that actually exist
Becomes possible. Here, the background distance map section in the configuration diagram 1
An example of 27 stored data values is shown in FIG. In this example, FIG.
Like a grid in the horizontal and vertical directions as shown in
The area imaged by the camera is divided into
It is mechanically stored in the background distance map unit 27. What
Note that the distance data shown in FIG.
Is enclosed in a square, and the unit “m” is added.
This is the same in FIG. 4 shown below. here
Shortening the processing time and the storage capacity of the distance map
In order to reduce the distance information,
An example is shown below. Also, if the vehicle was
In this case, a distance map as shown in FIG. 4 is obtained.
As described in the difference in distance between point A, point B, and point G
The distance data of FIG. 3 and the road surface of FIG.
The distance data between the vehicle and the
Distance pattern. Specifically, depending on the existence of vehicles
And the value of the distance approximately equal to the distance of point A to the part where the vehicle is
Lumps occur. On the other hand, when there is no vehicle, it is shown in FIG.
The distance to each point on the road is measured as shown in FIG.
The difference in distance is about 5m depending on the presence or absence of a vehicle.
A difference occurs. Here, the distance difference discriminating unit 28 is shown in FIG.
The distance information and the distance stored in the background distance map
The point of change due to the difference from the distance measured by the separation measuring unit 25
P1 , PTwo , PThree , PFour Is detected. Next is the distance pattern
By the recognition unit 29, such an equal distance lump
By recognizing the distance to other roads.
To clearly distinguish the background road from existing vehicles.
Becomes possible. For example, point P1 ~ PFourAdjacent above and below
For points, P as a chunk with equivalent distance1 ,
PTwo , PThree , PFour , PFive , P6 , P7 Extract this
The vehicle is detected from the lump. It's clear here
As shown in FIG.
A moving shadow as shown in (b) and 16 (c) occurred
However, since the shadow is generated on the road surface,
The distance to the road surface is measured, and this value
Of course, there is no change in the movement of the shadow, so the distance difference
It does not appear as an output of the discriminator 28. Therefore, conventionally difficult
Easily prevents malfunctions caused by moving shadows
It is possible to do. Another feature here is that
In the device, the change of the background image due to sunlight etc.
Dozens of seconds or minutes to avoid detection as
After a long pause to reload the background image
Obstacles, such as vehicles and falling objects, will be
It was impossible to discriminate
However, according to the present invention, generation and extinction of shadow
Stop for a long time because the distance data does not change
Vehicle, or an obstacle such as a falling object.
However, it is possible to detect the image while distinguishing it from the background.

【0014】さらに長時間停止する車両の検出に関して
だが、上述のように1台のカメラを用いた従来の移動体
検出装置は、夜間では車両のヘッドライトにより、また
昼間では雲に出入りする太陽により、さらに朝夕では日
の出日の入りに伴う照度変化により、時々刻々と変化す
る物体の影などに起因して背景画像が変化する。この変
化に対処するため、数秒から数十秒で背景画像を変化さ
せる必要があった。しかしながら画像の輝度や影は変化
するものの、路面の各点までの距離は前述のように変化
しないので、背景距離マップ部の距離情報を数秒から数
十秒などと言う短い時間で更新する必要がない。このた
め、長時間駐車するような車両であっても対象物までの
距離を測定する手段を備えることによって、十分に弁別
が可能となる。
Regarding the detection of a vehicle that stops for a long time, the conventional moving object detection device using one camera as described above uses the headlights of the vehicle at night and the sun entering and exiting the clouds at daytime. Further, in the morning and evening, the background image changes due to the illuminance change accompanying the sunrise sunset due to the constantly changing shadow of the object. In order to cope with this change, it was necessary to change the background image in several seconds to several tens of seconds. However, although the brightness and shadow of the image change, the distance to each point on the road surface does not change as described above, so it is necessary to update the distance information in the background distance map section in a short time such as several seconds to several tens of seconds. Absent. For this reason, even if the vehicle is parked for a long time, it is possible to sufficiently discriminate the vehicle by providing the means for measuring the distance to the object.

【0015】なお、この例ではカメラ制御部を用いた
が、通常の使用方法であれば自動絞り調節機能を有した
レンズとカメラとの組み合せを用いて、カメラ制御部を
省略しても良い。またスイッチ26は手動にて入り切し
た例について説明したが、他のセンサによって車両が居
ない状態を認識できるのであればその時にスイッチを閉
じて背景距離マップ部の情報を更新しても良い。さら
に、明確に車両走行しない時間があるような道路の場合
であれば、タイマなどでその時間帯の距離情報を入力し
て背景距離マップ部の情報としても良い。また、これら
の処理によって明確に車両のみが検出できるような比較
的簡単な背景距離の特徴を持った監視領域の場合は車両
距離パターン認識部29を省略しても良い。さらに車両
の有無や台数の認識のみが目的で、位置と速度の算出が
必要ないようなシステムであれば車両位置速度算出部8
は備えなくとも良いことは言うまでも無い。さらに図1
では2台のカメラと距離測定部によって監視領域の各点
までの距離情報を入手したが、3台以上のカメラを用い
ても、もちろん良い。さらに距離マップ部のデータのサ
ンプリングパターンは図3に示すようにアジマスとエレ
ベーションの等間隔の線の交点としたが、同心円状など
他の間隔によっても良く、さらに画像処理後の各物体の
線状の輪郭いわゆるワイヤフレームの線の交点であって
も良い。また説明の例で示したように高速化と記憶容量
低減のために距離データは撮像範囲の内、監視領域のみ
としたが、速度的またはメモリ類のコスト的に問題が少
なければ撮像領域全域の距離データを記憶しても良いこ
とは言うまでもない。
Although the camera control unit is used in this example, the camera control unit may be omitted by using a combination of a lens and a camera having an automatic iris adjustment function in a normal use. Although the example in which the switch 26 is manually turned on and off has been described, the switch may be closed and the information in the background distance map section may be updated at that time if other sensors can recognize the absence of the vehicle. Further, in the case of a road where there is a clear time when the vehicle does not travel, distance information of the time zone may be input by a timer or the like and used as information of the background distance map section. In the case of a monitoring area having a relatively simple background distance feature such that only a vehicle can be clearly detected by these processes, the vehicle distance pattern recognition unit 29 may be omitted. Further, if the system only needs to recognize the presence or absence and the number of vehicles and does not need to calculate the position and speed, the vehicle position / speed calculation unit 8
Needless to say, it is not necessary to prepare. Further FIG.
In the above, the distance information to each point in the monitoring area was obtained by two cameras and the distance measuring unit, but it is of course also possible to use three or more cameras. Further, the sampling pattern of the data of the distance map portion is, as shown in FIG. 3, an intersection of equally spaced lines of azimuth and elevation, but may be other intervals such as concentric circles. It may be an intersection of a so-called contour of a wire frame. Further, as shown in the example of the description, the distance data is limited to the monitoring area in the imaging range for speeding up and reducing the storage capacity. It goes without saying that distance data may be stored.

【0016】実施の形態2.他の実施の形態として、図
5はレーザ測距装置30の発光器が出射するレーザ光を
同期信号S3によって同期する水平走査部31および垂
直走査部32とで走査し、この走査情報S1 ,S2 を記
憶するスイッチ33によって上述の背景距離マップ部の
距離情報とアジマスやエレベーション方向を作成する手
法について示した構成図である。図において、レーザ測
距部30から出射された光は、水平走査部31、垂直走
査部32を構成するミラーで順次反射されて出射し、物
体からの反射光が垂直走査部32、水平走査部31によ
って順次反射されてレーザ測距部30の受光器で受光さ
れる。この発光から受光までの時間を計ることによって
距離が測定される。この装置としては、水平および垂直
方向にレーザ光を走査する回転ミラーなどを備えた、い
わゆるレーザレーダを用いるのが簡便であるが、距離を
測定する手段としてミリ波レーダのように距離分解能の
高いレーダなどを用いても良いことは言うまでもない。
Embodiment 2 As another embodiment, FIG. 5 is scanned with the horizontal scanning unit 31 and the vertical scanning part 32 emitter laser distance measuring device 30 are synchronized by a synchronization signal S3 the laser beam emitted, the scanning information S1, the switch 33 for storing the S2 is a configuration diagram illustrating the method of generating distance information and azimuth and elevation direction of the background distance map portion described above. In the figure, light emitted from a laser distance measuring unit 30 is sequentially reflected and emitted by mirrors constituting a horizontal scanning unit 31 and a vertical scanning unit 32, and reflected light from an object is reflected by a vertical scanning unit 32 and a horizontal scanning unit. The light is sequentially reflected by 31 and received by the light receiver of the laser distance measuring unit 30. The distance is measured by measuring the time from light emission to light reception. As this apparatus, it is convenient to use a so-called laser radar equipped with a rotating mirror for scanning laser light in the horizontal and vertical directions, but as a means for measuring the distance, a high distance resolution such as a millimeter wave radar is used. It goes without saying that a radar or the like may be used.

【0017】[0017]

【発明の効果】この発明によれば、路面上を移動する影
のような画像を移動する車両と誤認識することが無い、
信頼性の高い車両検出装置を実現化することができる効
果を持つ。また時間的に変動する複雑な背景のなかで、
長時間停止する車両などを明確に背景と分離して認識す
ることを可能とすることができる車両検出装置を提供で
きる効果を持つ。
According to the present invention, an image such as a shadow moving on a road surface is not erroneously recognized as a moving vehicle.
This has the effect of realizing a highly reliable vehicle detection device. In a complex background that fluctuates over time,
This has the effect of providing a vehicle detection device capable of recognizing a vehicle or the like that is stopped for a long time, separately from the background.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の車両検出装置に係る実施の形態1
を示す構成図である。
FIG. 1 is a first embodiment according to a vehicle detection device of the present invention;
FIG.

【図2】 この発明の原理の説明を示す図である。FIG. 2 is a diagram illustrating the principle of the present invention.

【図3】 背景距離マップの記憶データ値を示す図であ
る。
FIG. 3 is a diagram showing stored data values of a background distance map.

【図4】 車両存在時の距離データを示す図である。FIG. 4 is a diagram showing distance data when a vehicle is present.

【図5】 この発明の実施の形態2を示す構成図であ
る。
FIG. 5 is a configuration diagram showing a second embodiment of the present invention.

【図6】 従来の車両検出装置の構成を示す図である。FIG. 6 is a diagram illustrating a configuration of a conventional vehicle detection device.

【図7】 カメラによる撮像例を示す図である。FIG. 7 is a diagram illustrating an example of imaging by a camera.

【図8】 背景画像記憶部に記憶する画像例を示す図で
ある。
FIG. 8 is a diagram illustrating an example of an image stored in a background image storage unit.

【図9】 画像差分処理部の出力画像例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of an output image of an image difference processing unit.

【図10】 路面を移動する影の画像例を示す図であ
る。
FIG. 10 is a diagram showing an example of an image of a shadow moving on a road surface.

【符号の説明】[Explanation of symbols]

1 カメラ、2 カメラ制御部、3 A−D変換部、4
間欠スイッチ、5背景画像記憶部、6 画像差分処理
部、7 車両パターン認識部、8 車両位置速度算出
部、9 車両、10 道路の左端、11 道路の右端、
12 道路脇に設置された花壇、13 合流している脇
道、14 合流前の道路の左端、15監視領域の路面、
16 道路脇の花壇の影、17 脇道に停車している車
両、18 脇道を移動している車両、19 第1のカメ
ラ、20 第1のカメラ制御部、21 第1のA−D変
換部、22 第2のカメラ、23 第2のカメラ制御
部、24 第2のA−D変換部、25 距離測定部、2
6 スイッチ、27 背景距離マップ部、28 距離差
異弁別部、29 車両距離パターン認識部、30レーザ
測距部、31 水平走査部、32 垂直走査部、33
スイッチ。
1 camera, 2 camera control unit, 3 A / D conversion unit, 4
Intermittent switch, 5 background image storage unit, 6 image difference processing unit, 7 vehicle pattern recognition unit, 8 vehicle position / speed calculation unit, 9 vehicles, 10 left end of road, 11 right end of road,
12 Flowerbeds set up on the side of the road, 13 Sideways merging, 14 Left end of the road before merging, 15 Road surface in the monitoring area,
16 shadow of flower bed beside road, 17 vehicle stopping on side road, 18 vehicle moving on side road, 19 first camera, 20 first camera control unit, 21 first AD conversion unit, 22 second camera, 23 second camera control unit, 24 second A / D conversion unit, 25 distance measurement unit, 2
6 switch, 27 background distance map section, 28 distance difference discrimination section, 29 vehicle distance pattern recognition section, 30 laser distance measurement section, 31 horizontal scanning section, 32 vertical scanning section, 33
switch.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 G06F 15/62 415 9A001 13/02 15/70 410 Fターム(参考) 5B057 AA16 DA06 DC02 DC03 DC32 5C054 AA01 AA05 CA04 CB02 CC05 CH01 EA01 EB05 FC01 FC12 FC13 FC15 HA26 5C061 AA20 AB04 AB08 5H180 AA01 CC04 CC14 5L096 BA04 CA05 FA64 FA66 HA03 JA28 9A001 EE05 GG05 HH21 HH27 HH28 JJ77 KK15 KK16 KK54──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl.7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 G06F 15/62 415 9A001 13/02 15/70 410 F term (Reference) 5B057 AA16 DA06 DC06 DC02 DC03 DC32 5C054 AA01 AA05 CA04 CB02 CC05 CH01 EA01 EB05 FC01 FC12 FC13 FC15 HA26 5C061 AA20 AB04 AB08 5H180 AA01 CC04 CC14 5L096 BA04 CA05 FA64 FA66 HA03 JA28 9A001 EE05 GG05 HH21 HH27 HH28 KK77 KK77 KK77 KK77 KK

Claims (4)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】 車両の通過する監視領域の特定方向に有
する既存の物体までの距離の分布を記憶する背景距離マ
ップ部と、前記監視領域内の特定方向に有する物体まで
の距離の分布を測定する距離測定部と、前記背景距離マ
ップの距離情報と前記距離測定部で測定された距離との
差を比較し、その差の分布に基づいて車両の存在を検出
する検出部とを備えた車両検出装置。
1. A background distance map section for storing a distribution of a distance to an existing object in a specific direction in a monitoring area through which a vehicle passes, and measuring a distribution of a distance to an object in a specific direction in the monitoring area. A distance measuring unit, and a detecting unit that compares a difference between the distance information of the background distance map and the distance measured by the distance measuring unit and detects the presence of the vehicle based on a distribution of the difference. Detection device.
【請求項2】 前記検出部は、前記背景距離マップの距
離情報と前記距離測定部で測定された距離との差から、
監視領域内において距離が変化した部分を検出する距離
差異弁別部と、この距離差異弁別部で検出された距離変
化部分周辺の距離分布から車両を検出する車両距離パタ
ーン認識部とを備えたことを特徴とする請求項1記載の
車両検出装置。
2. The method according to claim 1, wherein the detecting unit calculates a difference between the distance information of the background distance map and the distance measured by the distance measuring unit.
A distance difference discriminating unit that detects a portion where the distance has changed in the monitoring area; and a vehicle distance pattern recognizing unit that detects a vehicle from a distance distribution around the distance changing portion detected by the distance difference discriminating unit. The vehicle detection device according to claim 1, wherein:
【請求項3】 前記距離測定部は、離間して配置された
少なくとも2台以上のカメラを備えたことを特徴とする
請求項2記載の車両検出装置。
3. The vehicle detection device according to claim 2, wherein the distance measurement unit includes at least two or more cameras that are arranged apart from each other.
【請求項4】 前記距離測定部は、電磁波を2次元に走
査して送信し、その反射波を受信することによって距離
を測定する手段を備えたことを特徴とする請求項2記載
の車両検出装置。
4. The vehicle detection apparatus according to claim 2, wherein the distance measuring unit includes means for scanning the electromagnetic wave in two dimensions, transmitting the electromagnetic wave, and measuring the distance by receiving the reflected wave. apparatus.
JP37313999A1999-12-281999-12-28 Vehicle detection devicePendingJP2001188988A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP37313999AJP2001188988A (en)1999-12-281999-12-28 Vehicle detection device

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP37313999AJP2001188988A (en)1999-12-281999-12-28 Vehicle detection device

Publications (1)

Publication NumberPublication Date
JP2001188988Atrue JP2001188988A (en)2001-07-10

Family

ID=18501643

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP37313999APendingJP2001188988A (en)1999-12-281999-12-28 Vehicle detection device

Country Status (1)

CountryLink
JP (1)JP2001188988A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2004171165A (en)*2002-11-192004-06-17Honda Motor Co Ltd Moving equipment
JP2004280372A (en)*2003-03-142004-10-07Natl Inst For Land & Infrastructure Management Mlit Moving object detection method
JP2007011776A (en)*2005-06-302007-01-18Secom Co Ltd Monitoring system and setting device
JP2008281385A (en)*2007-05-092008-11-20Olympus CorpImage processing device
JP2013117768A (en)*2011-12-012013-06-13Toshiba CorpPassing vehicle detection device
US8917169B2 (en)1993-02-262014-12-23Magna Electronics Inc.Vehicular vision system
US8993951B2 (en)1996-03-252015-03-31Magna Electronics Inc.Driver assistance system for a vehicle
US9008369B2 (en)2004-04-152015-04-14Magna Electronics Inc.Vision system for vehicle
US9436880B2 (en)1999-08-122016-09-06Magna Electronics Inc.Vehicle vision system
US9555803B2 (en)2002-05-032017-01-31Magna Electronics Inc.Driver assistance system for vehicle
US10071676B2 (en)2006-08-112018-09-11Magna Electronics Inc.Vision system for vehicle

Cited By (35)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US8917169B2 (en)1993-02-262014-12-23Magna Electronics Inc.Vehicular vision system
US8993951B2 (en)1996-03-252015-03-31Magna Electronics Inc.Driver assistance system for a vehicle
US9436880B2 (en)1999-08-122016-09-06Magna Electronics Inc.Vehicle vision system
US9643605B2 (en)2002-05-032017-05-09Magna Electronics Inc.Vision system for vehicle
US11203340B2 (en)2002-05-032021-12-21Magna Electronics Inc.Vehicular vision system using side-viewing camera
US10683008B2 (en)2002-05-032020-06-16Magna Electronics Inc.Vehicular driving assist system using forward-viewing camera
US10351135B2 (en)2002-05-032019-07-16Magna Electronics Inc.Vehicular control system using cameras and radar sensor
US10118618B2 (en)2002-05-032018-11-06Magna Electronics Inc.Vehicular control system using cameras and radar sensor
US9834216B2 (en)2002-05-032017-12-05Magna Electronics Inc.Vehicular control system using cameras and radar sensor
US9555803B2 (en)2002-05-032017-01-31Magna Electronics Inc.Driver assistance system for vehicle
JP2004171165A (en)*2002-11-192004-06-17Honda Motor Co Ltd Moving equipment
JP2004280372A (en)*2003-03-142004-10-07Natl Inst For Land & Infrastructure Management Mlit Moving object detection method
US9948904B2 (en)2004-04-152018-04-17Magna Electronics Inc.Vision system for vehicle
US10110860B1 (en)2004-04-152018-10-23Magna Electronics Inc.Vehicular control system
US9736435B2 (en)2004-04-152017-08-15Magna Electronics Inc.Vision system for vehicle
US9428192B2 (en)2004-04-152016-08-30Magna Electronics Inc.Vision system for vehicle
US9191634B2 (en)2004-04-152015-11-17Magna Electronics Inc.Vision system for vehicle
US10015452B1 (en)2004-04-152018-07-03Magna Electronics Inc.Vehicular control system
US11847836B2 (en)2004-04-152023-12-19Magna Electronics Inc.Vehicular control system with road curvature determination
US9609289B2 (en)2004-04-152017-03-28Magna Electronics Inc.Vision system for vehicle
US9008369B2 (en)2004-04-152015-04-14Magna Electronics Inc.Vision system for vehicle
US10187615B1 (en)2004-04-152019-01-22Magna Electronics Inc.Vehicular control system
US10306190B1 (en)2004-04-152019-05-28Magna Electronics Inc.Vehicular control system
US11503253B2 (en)2004-04-152022-11-15Magna Electronics Inc.Vehicular control system with traffic lane detection
US10462426B2 (en)2004-04-152019-10-29Magna Electronics Inc.Vehicular control system
US10735695B2 (en)2004-04-152020-08-04Magna Electronics Inc.Vehicular control system with traffic lane detection
JP2007011776A (en)*2005-06-302007-01-18Secom Co Ltd Monitoring system and setting device
US11148583B2 (en)2006-08-112021-10-19Magna Electronics Inc.Vehicular forward viewing image capture system
US10787116B2 (en)2006-08-112020-09-29Magna Electronics Inc.Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11396257B2 (en)2006-08-112022-07-26Magna Electronics Inc.Vehicular forward viewing image capture system
US11623559B2 (en)2006-08-112023-04-11Magna Electronics Inc.Vehicular forward viewing image capture system
US10071676B2 (en)2006-08-112018-09-11Magna Electronics Inc.Vision system for vehicle
US11951900B2 (en)2006-08-112024-04-09Magna Electronics Inc.Vehicular forward viewing image capture system
JP2008281385A (en)*2007-05-092008-11-20Olympus CorpImage processing device
JP2013117768A (en)*2011-12-012013-06-13Toshiba CorpPassing vehicle detection device

Similar Documents

PublicationPublication DateTitle
CN111521161B (en) Method, survey device and machine-readable carrier for determining direction to target
US7116246B2 (en)Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
KR101395089B1 (en)System and method for detecting obstacle applying to vehicle
US20180306905A1 (en)Method of Providing a Dynamic Region of interest in a LIDAR System
US8422737B2 (en)Device and method for measuring a parking space
JPH07332966A (en) Vehicle distance measuring device
WO2001033503A1 (en)Image processing techniques for a video based traffic monitoring system and methods therefor
JP2001188988A (en) Vehicle detection device
JPH06124340A (en) Vehicle image processing device
JPH07210795A (en)Method and instrument for image type traffic flow measurement
JP3456339B2 (en) Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device
JP6811661B2 (en) Mobile imager and mobile
CN103047968A (en)Method and system for detecting position of suspension part of overhead contact system
KR101111724B1 (en) Illegal parking unmanned detection method and system
JPH08293090A (en)Axle detector, body kind discriminating device, vehicle gate system, and vehicle detector
JPH0879904A (en)Abnormality detector for pantograph
JPH0546242A (en) White line detector
US7860640B1 (en)Marker means for determining direction and zoom of a means for viewing
EP4071578B1 (en)Light source control method for vision machine, and vision machine
KR101339456B1 (en)In tunnel that use scanner accident is observation system
JP2021131385A (en)Object detector
RU2689564C1 (en)Method of electric transport contact wire parameters measurement and device for its implementation
JP2898356B2 (en) Traffic flow measuring method and traffic flow measuring device by laser beam cutting method
CN111046765B (en)Dangerous early warning method and system for high-speed rail
JPH0991586A (en)Method and device for monitoring road state

Legal Events

DateCodeTitleDescription
A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20040316


[8]ページ先頭

©2009-2025 Movatter.jp