Movatterモバイル変換


[0]ホーム

URL:


JP2008279875A - Parking support device - Google Patents

Parking support device
Download PDF

Info

Publication number
JP2008279875A
JP2008279875AJP2007125220AJP2007125220AJP2008279875AJP 2008279875 AJP2008279875 AJP 2008279875AJP 2007125220 AJP2007125220 AJP 2007125220AJP 2007125220 AJP2007125220 AJP 2007125220AJP 2008279875 AJP2008279875 AJP 2008279875A
Authority
JP
Japan
Prior art keywords
parking
vehicle
image
parking frame
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007125220A
Other languages
Japanese (ja)
Inventor
Sumikichi Watanabe
澄吉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics IncfiledCriticalAlpine Electronics Inc
Priority to JP2007125220ApriorityCriticalpatent/JP2008279875A/en
Publication of JP2008279875ApublicationCriticalpatent/JP2008279875A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To provide a parking support device capable of recognizing the completion of parking operation, and informing a driver of the fact upon the completion of parking. <P>SOLUTION: This parking support device displays the image of a vehicle and the surrounding area of the vehicle by the image (overhead image) shown by a point of view from right above the vehicle. It comprises a step S40 for detecting a parking frame from displayed image data and calculating the angle formed by its own vehicle and the parking frame, a step S80 for calculating the relative position between its own vehicle and the parking frame based on the image of its own vehicle and the detected parking frame, steps S70, S90 for determining whether its own vehicle enters the parking frame and the angle between its own vehicle and the parking frame is within a prescribed angle, and a step S100 for outputting a parking completion signal when such conditions are satisfied. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

Translated fromJapanese

本発明は、駐車場や車庫等において運転者の駐車支援を行う技術に関し、更に詳しくは、車両とその周辺の画像とを合成して表示する機能を備えた駐車支援装置に関する。  The present invention relates to a technique for assisting a driver in parking at a parking lot, a garage, or the like, and more particularly, to a parking assist device having a function of combining and displaying a vehicle and its surrounding images.

近年、ドライバーの駐車等の運転操作を支援する駐車支援装置が普及してきている。この駐車支援装置には、車両の後方に広角カメラを取付け、広角カメラからの画像を運転席の近くに設けられた表示装置に表示するものがある。しかし、広角カメラからの画像をそのまま表示する駐車支援装置では、車両周辺の画像が歪んで表示されるため、車両と駐車枠との角度や障害物までの距離感が把握しにくいという問題があった。  In recent years, parking assistance devices that assist driving operations such as driver parking have become widespread. Some of these parking assistance devices have a wide-angle camera attached to the rear of the vehicle and display an image from the wide-angle camera on a display device provided near the driver's seat. However, in the parking assistance device that displays the image from the wide-angle camera as it is, the image around the vehicle is distorted and displayed, which makes it difficult to grasp the angle between the vehicle and the parking frame and the distance to the obstacle. It was.

そこで、広角カメラからの画像データを画像処理して、広角カメラの撮影地点と異なる視点から撮影したように車両周辺の画像を表示(以下、俯瞰画像表示ともいう)する視点変換技術が知られている(特許文献1)。
特許第3286306号公報
Therefore, there is known a viewpoint conversion technique that performs image processing on image data from a wide-angle camera and displays an image around the vehicle (hereinafter also referred to as a bird's-eye view image display) as if it was taken from a different viewpoint from the shooting point of the wide-angle camera. (Patent Document 1).
Japanese Patent No. 3286306

図1は従来の俯瞰画像表示を行う駐車支援装置の問題点を示す図である。図1(a)に示すように、視点変換技術を適用して俯瞰画像表示する駐車支援装置によれば、自車両2及びその周辺を上空から見下ろしたような映像で歪み無く画面1に表示されるので、ドライバーは車両2とその周辺との間隔を正確に把握することができ、初心者のドライバーでも容易に駐車や幅寄せなどの運転操作を行うことができる。  FIG. 1 is a diagram illustrating a problem of a conventional parking assistance device that performs a bird's-eye view image display. As shown in FIG. 1 (a), according to the parking assistance device that displays a bird's-eye view image by applying a viewpoint conversion technique, the vehicle 2 and its surroundings are displayed on thescreen 1 without distortion as an image looking down from above. Therefore, the driver can accurately grasp the distance between the vehicle 2 and its surroundings, and even a novice driver can easily perform driving operations such as parking and width adjustment.

しかし、俯瞰画像表示する駐車支援装置では、歪み無く自車両の周辺が表示されることで、かえってドライバーが駐車完了したか否か認識しにくくなることがある。例えば、図1(b)に示すように、自車両2が駐車枠の境界線4に対して少しでも傾いていると、自車両2と境界線4との傾きが目立ってしまう。このため、ドライバーは駐車が完了したとの判断がつきにくくなってしまう。ちなみに、本願発明者が行った被験者テストにおいては、多くのドライバーが車両と駐車枠との間に僅かな傾きがある場合に駐車完了したか否かを画面上から認識できず、画面を見ながら車両の切返し操作を何度も繰り返してしまうといった結果が出ている。  However, in a parking assistance device that displays a bird's-eye view image, the periphery of the host vehicle is displayed without distortion, which may make it difficult for the driver to recognize whether or not parking is completed. For example, as shown in FIG. 1B, when the host vehicle 2 is tilted even slightly with respect to the boundary line 4 of the parking frame, the tilt between the host vehicle 2 and the boundary line 4 becomes conspicuous. This makes it difficult for the driver to determine that parking has been completed. By the way, in the subject test conducted by the inventor of the present application, when many drivers have a slight inclination between the vehicle and the parking frame, it is not possible to recognize whether the parking is completed or not while looking at the screen. The result is that the vehicle turning operation is repeated many times.

本発明は、かかる課題に鑑みてなされたものであり、駐車操作が完了したことを認識し、駐車が完了したときに、その旨をドライバーに報知することができる駐車支援装置を提供することを目的とする。  The present invention has been made in view of such a problem, and provides a parking assistance device that recognizes that a parking operation has been completed and can notify the driver when parking is completed. Objective.

本発明によれば、画面を通じて情報を提供する情報提供手段と、自車両の一部を含めて車輌周囲の画像を継続的に取得する撮像手段と、前記自車両の画像データを予め格納すると共に、前記撮像手段により取得された画像データを格納する記憶手段と、前記記憶手段に格納されているデータから車両周囲の画像を車両の直上からの視点で表す画像に変換すると共に、その変換後の画像に自車両の画像を合成して車両及びその周辺を直上からの視点で表す画像を生成する画像処理手段と、前記駐車枠を検出する駐車枠検出手段と、自車両と前記駐車枠との角度を算出する車両角度算出手段と、前記自車両の画像データと検出された駐車枠のデータとに基づいて自車両と駐車枠との相対位置を算出する駐車位置検出手段と、自車両が前記駐車枠内に入り、かつ、自車両と前記駐車枠との角度が所定角度以内にあると判定したときに駐車完了信号を前記情報提供手段に出力する制御手段とを備えたことを特徴とする駐車支援装置が提供される。  According to the present invention, the information providing means for providing information through the screen, the imaging means for continuously acquiring an image around the vehicle including a part of the own vehicle, and the image data of the own vehicle are stored in advance. A storage means for storing the image data acquired by the imaging means, and an image around the vehicle is converted from the data stored in the storage means into an image represented by a viewpoint from directly above the vehicle, and after the conversion An image processing unit that synthesizes an image of the host vehicle with an image to generate an image representing the vehicle and its surroundings from a viewpoint from directly above, a parking frame detection unit that detects the parking frame, a host vehicle and the parking frame Vehicle angle calculation means for calculating an angle, parking position detection means for calculating a relative position between the host vehicle and the parking frame based on the image data of the host vehicle and detected parking frame data, and the host vehicle Inside the parking frame A parking support apparatus comprising: a control unit that enters and outputs a parking completion signal to the information providing unit when it is determined that the angle between the host vehicle and the parking frame is within a predetermined angle. Provided.

本発明によれば、自車両と駐車枠との相対角度及び相対位置を検出し、これに基づいて自車両が駐車枠の中に入り、かつ、駐車枠と所定の角度以内となった場合に、駐車が完了した旨が表示画面上や音声によって報知される。これにより、ドライバーは自車両の駐車運転操作が完了したことを知ることができ、これ以上切り返しなどの微調整を行う必要が無いと判断することができる。  According to the present invention, when the relative angle and the relative position between the host vehicle and the parking frame are detected, and based on this, the host vehicle enters the parking frame and is within a predetermined angle with the parking frame. The fact that parking has been completed is notified on the display screen or by voice. As a result, the driver can know that the parking driving operation of the host vehicle has been completed, and can determine that it is not necessary to perform further fine adjustment such as turning over.

本発明の駐車支援装置において、さらに音声処理手段を設け、駐車完了情報を音声により報知することもできる。これにより運転者に対して確実に駐車完了した旨を知らせることができる。  In the parking assistance apparatus of the present invention, voice processing means may be further provided to notify parking completion information by voice. As a result, the driver can be surely notified that the parking has been completed.

また、本発明の駐車支援装置において、駐車完了判定の基準となる所定角度は、運転者が操作入力手段によって変更可能としてもよい。この場合には、運転者が自分の運転技術や好みに合わせた駐車完了判定基準を作成することができる。  Further, in the parking assist device of the present invention, the predetermined angle that is a reference for the completion of parking may be changed by the driver by the operation input means. In this case, the driver can create a parking completion determination standard according to his / her driving skill and preference.

以下、本発明の実施形態について、添付の図面を参照して説明する。  Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図2は本発明の実施形態に係る駐車支援装置のブロック図である。また、図3は本発明の実施形態に係る駐車支援装置のカメラの配置位置及び撮影範囲を示す図である。  FIG. 2 is a block diagram of the parking assistance apparatus according to the embodiment of the present invention. Moreover, FIG. 3 is a figure which shows the arrangement position and imaging | photography range of the camera of the parking assistance apparatus which concerns on embodiment of this invention.

図2に示すように、駐車支援装置10は、カメラ11a〜11d、A/D変換部12、画像メモリ13、車両画像メモリ14、ディスプレイ15、スピーカ16、画像処理部20、制御部30、各種検出部31〜35、操作入力部36、及び音声合成部37とを有している。  As shown in FIG. 2, the parking assistance device 10 includescameras 11a to 11d, an A /D conversion unit 12, animage memory 13, a vehicle image memory 14, adisplay 15, aspeaker 16, animage processing unit 20, acontrol unit 30, and various types. It hasdetection units 31 to 35, anoperation input unit 36, and a speech synthesis unit 37.

駐車支援装置10は、一又は複数のカメラを備える。以下、図3に示すように、前部カメラ11a、後部カメラ11b、右側部カメラ11d、左側部カメラ11cの4台のカメラを備える例に基づいて説明する。各カメラ11a〜11dは、魚眼レンズを用いた広角カメラであり、それぞれ車両の前後左右に斜め下方向くように位置決めされている。図3の破線に示すようにカメラ11a〜11dは協働して自車両の全周囲(車両周囲)を撮影できるように配置されている。これにより、自車両周囲の俯瞰画像をリアルタイムで提供することができる。  The parking assistance device 10 includes one or more cameras. Hereinafter, as shown in FIG. 3, description will be made based on an example including four cameras, that is, afront camera 11a, arear camera 11b, aright camera 11d, and aleft camera 11c. Each of thecameras 11a to 11d is a wide-angle camera using a fisheye lens, and is positioned so as to be obliquely downward in the front-rear and left-right directions of the vehicle. As shown by the broken lines in FIG. 3, thecameras 11 a to 11 d are arranged so as to be able to photograph the entire periphery of the host vehicle (vehicle periphery). Thereby, the bird's-eye view image around the host vehicle can be provided in real time.

各カメラ11a〜11dによって撮影された画像は、A/D変換部12によってデジタルの画像データに変換される。撮影画像メモリ13及び車両画像メモリ14は、その記憶媒体として、例えばHDD(Hard disk drive;ハード・ディスク装置)や半導体メモリ装置を使用することができる。撮影画像メモリ13(HDD内の記憶領域の一部に形成される)には、制御部30からの制御に基づいて、各車載カメラ11a〜11dで継続的に撮影して得られた画像(自車両の前方、後方、左方、及び右方の周囲の画像)のデータが逐次格納される。また、画像メモリ13には、後述する視点変換部21により作成された各カメラ毎に作成される視点変換画像データ及び、周辺画像作成部22により作成される周辺画像データが格納される。車両画像メモリ14(HDD等の記憶領域の一部に形成される。)には、俯瞰画像表示に用いられる視点から撮影した自車両の画像についてのデータ(以下、自車画像データともいう。)が格納される。  Images taken by thecameras 11a to 11d are converted into digital image data by the A /D converter 12. The photographedimage memory 13 and the vehicle image memory 14 can use, for example, an HDD (Hard Disk Drive) or a semiconductor memory device as a storage medium. In the captured image memory 13 (formed in a part of the storage area in the HDD), images (self-photographed) continuously captured by each of the in-vehicle cameras 11a to 11d based on control from thecontrol unit 30. Data of the front, rear, left and right surroundings of the vehicle) are sequentially stored. Theimage memory 13 stores viewpoint converted image data created for each camera created by a viewpoint transform unit 21 described later and peripheral image data created by the peripheralimage creation unit 22. In the vehicle image memory 14 (formed in a part of a storage area such as an HDD), data about the image of the host vehicle taken from the viewpoint used for the overhead image display (hereinafter also referred to as host vehicle image data). Is stored.

画像処理部20は、視点変換部21、周辺画像作成部22、画像合成部23、駐車枠検出部24、自車位置検出部25、及び駐車角検出部26とを備える。画像処理部20は、カメラ11a〜11dによって撮影された画像を処理して、自車両及びその周囲を、カメラとは異なる視点(例えば、上空から見下ろした視点)で表した画像データ(便宜上、「俯瞰画像データ」ともいう)を作成してディスプレイ15に出力する。また、本発明に係る機能として、俯瞰画像データに基づいて、駐車枠を検出し、駐車枠と自車両の相対位置及び相対角度を算出する。  Theimage processing unit 20 includes a viewpoint conversion unit 21, a surroundingimage creation unit 22, animage composition unit 23, a parkingframe detection unit 24, a vehicleposition detection unit 25, and a parkingangle detection unit 26. Theimage processing unit 20 processes images captured by thecameras 11a to 11d, and displays image data representing the host vehicle and its surroundings with a viewpoint (for example, a viewpoint looking down from the sky) different from the camera. Is also created ”and output to thedisplay 15. As a function according to the present invention, a parking frame is detected based on the overhead image data, and a relative position and a relative angle between the parking frame and the host vehicle are calculated.

視点変換部21は、各カメラ11a〜11dで撮影された各方向(前方、後方、左方及び右方)に対応する画像データを画像メモリ13から取得し、俯瞰画像表示に用いられる視点によって定まる所定の計算式に基づいて、画素座標の変換を行う。これにより、視点変換部21は、カメラの撮影地点と異なる視点から撮影したような視点変換画像データを作成する。すなわち、上述の例では4台の車載カメラを使用するため、各カメラ11a〜11dに対応した4つの視点変換画像データが作成される。作成された視点変換画像データは画像メモリ13に逐次格納される。  The viewpoint conversion unit 21 acquires image data corresponding to each direction (front, back, left and right) photographed by thecameras 11a to 11d from theimage memory 13, and is determined by the viewpoint used for the overhead image display. Based on a predetermined calculation formula, pixel coordinates are converted. As a result, the viewpoint conversion unit 21 creates viewpoint-converted image data as if it was captured from a viewpoint different from the camera shooting point. That is, in the above example, four in-vehicle cameras are used, so that four viewpoint-converted image data corresponding to thecameras 11a to 11d are created. The generated viewpoint-converted image data is sequentially stored in theimage memory 13.

周辺画像作成部22は、画像メモリ13を参照して視点変換画像データを取得し、これらの視点変換画像データを結合して自車両の全周にわたる画像データ(便宜上、「周辺画像データ」ともいう。)を作成する。作成された周辺画像データは画像メモリ13に逐次格納される。画像合成部23は、画像メモリ13と車両画像メモリ14とを参照して、周辺画像データに自車画像のデータを合成して俯瞰画像データを作成する。  The peripheralimage creation unit 22 refers to theimage memory 13 to acquire viewpoint conversion image data, and combines these viewpoint conversion image data to provide image data over the entire circumference of the host vehicle (also referred to as “peripheral image data” for convenience). .) The generated peripheral image data is sequentially stored in theimage memory 13. Theimage composition unit 23 refers to theimage memory 13 and the vehicle image memory 14 to create the overhead image data by combining the vehicle image data with the surrounding image data.

駐車枠検出部24は、俯瞰画像データにもとづいて、駐車枠の境界線(白線の他、縁石、車止め、ガードレール、周辺車両等の障害物を含む)を検出する。そして、検出された境界線及びステアリング情報等に基づいて、自車両が駐車される可能性の高い駐車枠(以下、単に駐車枠という)を検出する。駐車枠の境界線の検出は、例えば、俯瞰画像データの中から、明度が急変するエッジを検出することにより行うことができる。上述の例では、駐車枠の検出を俯瞰画像データに基づいて行っているが、本実施形態はこれに限られず、周辺画像データ又は視点変換データに基づいて行っても良い。また障害物の検出には、画像データと共にソナーやレーダ等の障害物検出センサからのデータを併用してもよい。  The parkingframe detection unit 24 detects a boundary line of the parking frame (including obstacles such as a curbstone, a car stop, a guard rail, and surrounding vehicles in addition to the white line) based on the overhead image data. Based on the detected boundary line and steering information, a parking frame (hereinafter simply referred to as a parking frame) that is likely to be parked is detected. The detection of the boundary line of the parking frame can be performed, for example, by detecting an edge whose brightness changes suddenly from the overhead image data. In the above example, the parking frame is detected based on the overhead image data, but the present embodiment is not limited to this, and may be performed based on the peripheral image data or the viewpoint conversion data. For detection of obstacles, data from obstacle detection sensors such as sonar and radar may be used together with image data.

自車位置検出部25は、俯瞰画像データに基づいて、自車両と駐車枠との相対位置及び駐車枠と自車両の角度を検出する。ここで、自車両と駐車枠との角度とは、自車両の進行方向の中心軸と駐車完了時に自車両の右(又は左)側面に対向することとなる駐車枠の境界線との相対角度をいう。自車両と駐車枠との相対位置に関するデータ及び自車両と駐車枠との角度に関するデータは制御部30に送出される。尚、自車両と駐車枠との相対位置並びに角度の検出は周辺画像データに基づいて行っても良い。  The own vehicleposition detection unit 25 detects the relative position between the own vehicle and the parking frame and the angle between the parking frame and the own vehicle based on the overhead image data. Here, the angle between the host vehicle and the parking frame is a relative angle between the central axis in the traveling direction of the host vehicle and the boundary line of the parking frame that faces the right (or left) side surface of the host vehicle when parking is completed. Say. Data on the relative position between the host vehicle and the parking frame and data on the angle between the host vehicle and the parking frame are sent to thecontrol unit 30. The relative position and angle between the host vehicle and the parking frame may be detected based on the peripheral image data.

ディスプレイ装置15は、例えば、LCD(液晶ディスプレイ)等からなり、運転席から表示画面を見ることができるように車室内のセンターコンソールのほぼ中間位置に設置されている。このディスプレイ装置15の表示画面には、この表示画面には、ナビゲーションに係る案内情報(自車の現在位置周囲の地図、出発地から目的地までの誘導経路、自車の現在位置を示すマーク等)も表示される。本発明に関連する情報として、画像合成部23で合成された画像(俯瞰画像)が表示される。そして、駐車支援装置10において、駐車が完了したと判断された場合には、その旨の情報がディスプレイ装置15の表示画面に表示される。  Thedisplay device 15 includes, for example, an LCD (Liquid Crystal Display) or the like, and is installed at a substantially middle position of the center console in the vehicle cabin so that the display screen can be viewed from the driver's seat. The display screen of thedisplay device 15 includes navigation information (a map around the current position of the vehicle, a guide route from the departure point to the destination, a mark indicating the current position of the vehicle, etc.). ) Is also displayed. As information related to the present invention, an image (overhead image) synthesized by theimage synthesis unit 23 is displayed. When the parking support device 10 determines that the parking has been completed, information to that effect is displayed on the display screen of thedisplay device 15.

制御部30は、例えば、マイクロコンピュータ等により構成され、駐車支援装置10の各種機能を制御する。制御部30は、各種検出部31〜35及び操作入力部36からのデータに基づいて、駐車支援装置10の起動又は停止のトリガとしての機能を有する。例えば、シフトレンジが後進に入った場合又は操作入力部36から駐車支援装置10を起動する旨の入力があった場合には制御部30は駐車支援装置10を起動する。また、制御部30は周辺画像作成部22に対してステアリング情報、車速情報、及び角度情報等を送出し、周辺画像作成部22に対し、カメラ11a〜11dの死角部分についての周辺画像データの更新を行わせる。また、制御部30は画像処理部20から駐車枠と自車両との相対位置及び相対角が所定の範囲内にあるか否かに関するデータを取得し、駐車が完了したと判定した場合には、画像処理部20及び音声合成部40に駐車完了情報を送出する。音声合成部40は、制御部30からの駐車完了情報にもとづいて、駐車完了情報を音声としてスピーカ16から出力させる。  Thecontrol unit 30 is configured by a microcomputer or the like, for example, and controls various functions of the parking assistance device 10. Thecontrol unit 30 has a function as a trigger for starting or stopping the parking assistance device 10 based on data from thevarious detection units 31 to 35 and theoperation input unit 36. For example, when the shift range enters the reverse direction or when there is an input to activate the parking assist device 10 from theoperation input unit 36, thecontrol unit 30 activates the parking assist device 10. In addition, thecontrol unit 30 sends steering information, vehicle speed information, angle information, and the like to the peripheralimage creation unit 22, and updates the peripheral image data for the blind spots of thecameras 11a to 11d to the peripheralimage creation unit 22. To do. In addition, when thecontrol unit 30 acquires data on whether or not the relative position and relative angle between the parking frame and the host vehicle are within a predetermined range from theimage processing unit 20, and determines that the parking is completed, Parking completion information is sent to theimage processing unit 20 and thevoice synthesis unit 40. Based on the parking completion information from thecontrol unit 30, thevoice synthesis unit 40 outputs the parking completion information from thespeaker 16 as a voice.

操作入力部33は、ユーザ(ドライバーを含む)が指示した情報を入力するためのものであり、本発明に関連する入力指示として「駐車支援装置の起動」の指示を与えることができる。また、制御部30の駐車完了判定基準に関する情報を、操作入力部33からの入力指示によって変更することができる。例えば、駐車完了判定基準としての自車両と駐車枠との角度を、ユーザがサンプル画面を見ながら決定を行い、あるいは角度の数値を直接入力することができる。このように、本実施形態の駐車支援装置10では、駐車完了判定の基準となる所定角度は、運転者が操作入力手段によって変更可能である。これにより、運転者が自分の運転技術や好みに合わせた駐車完了判定基準を作成することができる。  Theoperation input unit 33 is for inputting information instructed by a user (including a driver), and can give an instruction of “activation of parking assist device” as an input instruction related to the present invention. Further, the information regarding the parking completion determination criterion of thecontrol unit 30 can be changed by an input instruction from theoperation input unit 33. For example, the user can determine the angle between the host vehicle and the parking frame as a parking completion determination criterion while viewing the sample screen, or can directly input the numerical value of the angle. As described above, in the parking assist device 10 of the present embodiment, the driver can change the predetermined angle that is the reference for the completion of parking by the operation input means. Thereby, the driver can create a parking completion determination standard that suits his driving skill and preference.

シフトレンジ検出部31は、自車両のシフトレンジを検出し、制御部30にシフトレンジ情報を送出する。本発明に関連する情報としては、シフトレンジが後進(バック)に入った場合にはその旨の情報を制御部30に送出し、制御部30はこの情報に基づいて駐車支援装置10を起動する。GPS(Global Positioning System)検出部35は、自車両の現在位置情報を制御部30に送出する。GPS検出部35からの現在位置情報はナビゲーション機能の提供に用いられる。尚、駐車支援装置10は、予め登録された地域(例えばサービスエリアや駐車場等)に到着した場合に自動的に起動するようにしてもよく、この場合には、GPS検出部35からの現在位置情報にもとづいて駐車支援装置10の起動判断が行われる。  The shiftrange detection unit 31 detects the shift range of the host vehicle and sends the shift range information to thecontrol unit 30. As information related to the present invention, when the shift range enters the reverse (back), information to that effect is sent to thecontrol unit 30, and thecontrol unit 30 activates the parking assist device 10 based on this information. . A GPS (Global Positioning System)detection unit 35 sends current position information of the host vehicle to thecontrol unit 30. The current position information from theGPS detection unit 35 is used to provide a navigation function. The parking assistance device 10 may be automatically activated when it arrives in a pre-registered area (for example, a service area or a parking lot). Based on the position information, the activation determination of the parking assist device 10 is performed.

ステアリング検出部32は、ステアリング(操舵)情報を検出し制御部30に送出する。車速検出部33は、例えばホイールに取り付けられたセンサにより自車両の車速を検出し、これを制御部30に送出する。ジャイロ検出部34は自車両の加速度情報を取得し、これに基づいて自車両の動きベクトルのデータを制御部30に送出する。ステアリング情報、車速情報、及び自車両の動きベクトルデータは、駐車枠検出部24において自車両が駐車する可能性の高い駐車枠の検出のためのデータとして、また、これらのデータは周辺画像作成部22においてカメラ11a〜11dの死角を補完する補完画像データ作成のために用いられる。  Thesteering detection unit 32 detects steering (steering) information and sends it to thecontrol unit 30. The vehiclespeed detection unit 33 detects the vehicle speed of the host vehicle using, for example, a sensor attached to the wheel, and sends this to thecontrol unit 30. Thegyro detection unit 34 acquires acceleration information of the host vehicle, and sends motion vector data of the host vehicle to thecontrol unit 30 based on the acceleration information. The steering information, the vehicle speed information, and the motion vector data of the host vehicle are used as data for detecting a parking frame in which the host vehicle is likely to be parked in the parkingframe detection unit 24. 22 is used to create complementary image data that complements the blind spots of thecameras 11a to 11d.

以上のように構成された駐車支援装置10において、各カメラ11a、11b、11c、11dは「撮像手段」に、ディスプレイ装置15は「表示手段」に、画像メモリ12及び車両画像メモリ13は「記憶手段」に、視点変換部21、周辺画像作成部22、及び画像合成部23は「画像処理手段」に、駐車枠検出部24は「駐車枠検出手段」に、駐車角検出部26は「駐車角度算出手段」に、駐車位置検出部25は「駐車位置検出手段」に、制御部30は「制御手段」にそれぞれ対応する。  In the parking assist apparatus 10 configured as described above, thecameras 11a, 11b, 11c, and 11d are “imaging means”, thedisplay device 15 is “display means”, and theimage memory 12 and thevehicle image memory 13 are “stored”. In the “means”, the viewpoint conversion unit 21, the surroundingimage creation unit 22, and theimage composition unit 23 are “image processing means”, the parkingframe detection unit 24 is “parking frame detection unit”, and the parkingangle detection unit 26 is “parking” The parkingposition detection unit 25 corresponds to the “parking position detection unit”, and thecontrol unit 30 corresponds to the “control unit”.

以下、駐車支援装置10の動作について説明する。  Hereinafter, operation | movement of the parking assistance apparatus 10 is demonstrated.

図4は、本発明の実施形態に係る駐車支援装置が実行する制御処理の一例を示すフロー図である。図5は、駐車支援装置の制御処理における画像更新処理の一例を示すフロー図である。  FIG. 4 is a flowchart showing an example of a control process executed by the parking assistance apparatus according to the embodiment of the present invention. FIG. 5 is a flowchart illustrating an example of an image update process in the control process of the parking assistance apparatus.

駐車支援装置10は、まず駐車支援装置10の起動判断(駐車支援装置10が既に起動している場合には、俯瞰画像の更新の判断)を行う(ステップS10及びS20)。まず、シフトレバーが後進か否かを判定し(ステップS10)、シフトチェンジによりシフトレバーが後進に入った場合(YES)には、俯瞰表示の画像更新処理を行う(ステップS30)に移行する。シフトレバーが後進でない場合(NO)には、操作入力部36から俯瞰表示をする旨の操作指示があったか否かを判断する(ステップS20)。駐車支援装置を起動する旨の指示があった場合(YES)には、画像更新処理(ステップS30)に移行し、駐車支援装置を起動する旨の操作指示がない場合(NO)には、起動判断を終了する。尚、俯瞰表示の起動・更新判断の順序は図示の例に限られず、逆であっても良い。また、図示の判断の他に、GPS検出部35からの現在位置情報に基づいて、予め設定された地域に入ったことを判断する処理を加えてもよい。この場合には、自車両が例えば予め設定された地域としての駐車場に入った場合に自動的に俯瞰画像表示を起動する。  The parking assist device 10 first determines whether the parking assist device 10 is activated (when the parking assist device 10 is already activated, it is determined whether to update the overhead image) (steps S10 and S20). First, it is determined whether or not the shift lever is reverse (step S10), and when the shift lever is reversely moved due to a shift change (YES), an image display process for overhead view display is performed (step S30). If the shift lever is not reverse (NO), it is determined whether or not there has been an operation instruction for displaying an overhead view from the operation input unit 36 (step S20). If there is an instruction to activate the parking assistance device (YES), the process proceeds to the image update process (step S30), and if there is no operation instruction to activate the parking assistance device (NO), activation is performed. End the decision. In addition, the order of starting / updating determination of the overhead view display is not limited to the illustrated example, and may be reversed. In addition to the determination shown in the figure, a process for determining that the vehicle has entered a preset area based on the current position information from theGPS detection unit 35 may be added. In this case, for example, when the host vehicle enters a parking lot as a preset area, the overhead image display is automatically activated.

次に、カメラ11a〜11dからの画像データを取得し、画像処理を行った後ディスプレイ装置15に表示する画像更新処理を行う(ステップS30)。  Next, image data from thecameras 11a to 11d is acquired, image processing is performed, and then image update processing to be displayed on thedisplay device 15 is performed (step S30).

画像更新処理について、図5に沿って更に説明する。画像更新処理では、最初に画像取得処理が行われる(ステップS31)。画像取得処理では、画像処理部20が画像メモリ13を参照して、各カメラ11a〜11dによって撮影された画像データを取得する。その後、画像データについて視点変換処理が行われる(ステップS32)。視点変換処理では、視点変換部21が広角カメラで撮影された画像データから、画素座標を取得し、これを所定の数式にもとづいて画素座標を変換することにより、所定の視点(例えば真上から自車両を見下ろすような視点)で表す視点変換画像データを作成する。  The image update process will be further described with reference to FIG. In the image update process, an image acquisition process is first performed (step S31). In the image acquisition process, theimage processing unit 20 refers to theimage memory 13 and acquires image data captured by thecameras 11a to 11d. Thereafter, viewpoint conversion processing is performed on the image data (step S32). In the viewpoint conversion processing, the viewpoint conversion unit 21 acquires pixel coordinates from image data captured by a wide-angle camera, and converts the pixel coordinates based on a predetermined mathematical formula, thereby converting a predetermined viewpoint (for example, from directly above). Viewpoint-converted image data represented by a viewpoint that looks down on the vehicle).

その後、周辺画像作成処理を行う(ステップS33)。周辺画像作成処理では、周辺画像作成部22によりカメラ11a〜11d毎に作成された4つの視点変換画像データを合成して自車両周辺の画像データ(周辺画像データ)を作成する。また、周辺画像作成処理は各カメラ11a〜11dの死角に入った部分について、過去の周辺画像データ、自車両の方向、及び移動量等の情報を基に補完データを作成し、これを視点変換画像データと合成して周辺画像データを作成する。その後、自車画像合成処理を行う(ステップS34)。自車画像合成処理では、画像合成部23が車両画像メモリ14を参照して自車画像データを取り込み、上述の周辺画像データ上に自車画像を合成する。以上の処理(ステップS31〜S34)により、俯瞰画像データが作成される。その後、作成された俯瞰画像データにもとづいてディスプレイ装置15に表示される画像を更新する画像表示処理(ステップS35)を行い、画像更新処理を終了する。画像更新処理の終了後は、駐車完了判定処理(ステップS40〜S90)に移行する。  Thereafter, peripheral image creation processing is performed (step S33). In the peripheral image creation process, the four viewpoint-converted image data created for each of thecameras 11a to 11d by the peripheralimage creation unit 22 is synthesized to create image data (peripheral image data) around the host vehicle. Further, the peripheral image creation processing creates complementary data based on past peripheral image data, information on the direction of the own vehicle, the amount of movement, and the like for the part that has entered the blind spot of each of thecameras 11a to 11d, and converts this into a viewpoint. Peripheral image data is created by combining with image data. Thereafter, the vehicle image composition processing is performed (step S34). In the own vehicle image composition process, theimage composition unit 23 refers to the vehicle image memory 14 to capture the own vehicle image data, and composes the own vehicle image on the above-mentioned peripheral image data. The overhead image data is created by the above processing (steps S31 to S34). Thereafter, an image display process (step S35) for updating an image displayed on thedisplay device 15 based on the created overhead image data is performed, and the image update process is terminated. After completion of the image update process, the process proceeds to a parking completion determination process (steps S40 to S90).

図4に戻って、駐車完了判定の処理(ステップS40〜S90)について説明する。
駐車完了判定処理では、先ず、俯瞰画像データに基づいて駐車枠を検出する処理が行われる(ステップS40)。駐車枠を検出する処理は、駐車枠検出部24が、俯瞰画像データに基づいて、駐車枠の境界線を検出し、ステアリングデータやジャイロセンサ等のデータをもとに自車両が駐車される可能性の高い駐車枠を検出する。次に、駐車枠が検出されたかを判断し(ステップS50)、駐車枠が検出された場合(YES)は次の処理(ステップS70)に移行する。駐車枠が検出されない場合(NO)は、ステップS110に移行し、起動・更新判定処理を経て画像更新処理(ステップS30)を続ける。
Returning to FIG. 4, the parking completion determination process (steps S40 to S90) will be described.
In the parking completion determination process, first, a process of detecting a parking frame based on the overhead image data is performed (step S40). In the process of detecting the parking frame, the parkingframe detection unit 24 detects the boundary line of the parking frame based on the overhead image data, and the host vehicle can be parked based on data such as steering data and a gyro sensor. Detect high-quality parking slots. Next, it is determined whether a parking frame has been detected (step S50). If a parking frame has been detected (YES), the process proceeds to the next process (step S70). When the parking frame is not detected (NO), the process proceeds to step S110, and the image update process (step S30) is continued through the activation / update determination process.

次に、俯瞰画像データに基づいて、駐車枠と自車両との相対角を算出する処理(駐車角検出処理)が行われる(ステップS60)。駐車枠の境界線のなかで、駐車完了時に自車両の右(又は左)側面と対向することとなる境界線と、自車両の進行方向に伸びる中心線との相対角度を算出する。  Next, a process of calculating the relative angle between the parking frame and the host vehicle (parking angle detection process) is performed based on the overhead image data (step S60). Among the boundary lines of the parking frame, a relative angle between the boundary line that faces the right (or left) side surface of the host vehicle when parking is completed and the center line that extends in the traveling direction of the host vehicle is calculated.

次に、駐車枠と自車両との相対角が所定の範囲(例えば5°)以内か否かを判断する処理が行われる(ステップS70)。所定の角度以内ではないと判断された場合(NO)には、ステップS110に移行する。駐車枠と自車両との相対角が所定の範囲内である場合(YES)には、駐車枠と自車両の相対位置を算出する処理(ステップS80)に移行する。駐車枠と自車との相対位置を算出する処理(ステップS80)は、例えば、俯瞰画像データの自車画像部分から特徴点(例えば、自車画像の角部等)を検出する。そして、この特徴点の座標と検出された駐車枠との座標から、自車両と駐車枠との相対位置を検出する。  Next, a process of determining whether or not the relative angle between the parking frame and the host vehicle is within a predetermined range (for example, 5 °) is performed (step S70). If it is determined that the angle is not within the predetermined angle (NO), the process proceeds to step S110. If the relative angle between the parking frame and the host vehicle is within the predetermined range (YES), the process proceeds to processing for calculating the relative position between the parking frame and the host vehicle (step S80). In the process of calculating the relative position between the parking frame and the own vehicle (step S80), for example, feature points (for example, corners of the own vehicle image) are detected from the own vehicle image portion of the overhead image data. Then, the relative position between the vehicle and the parking frame is detected from the coordinates of the feature point and the detected parking frame.

次に、自車両が駐車枠内に入ったか否かを判断する(ステップS90)。例えば、俯瞰画像データに基づいて、自車画像の全ての特徴点の座標が駐車枠の境界線で囲まれる領域内に入った場合に自車両が駐車枠内に入ったと判断することができる。自車両が駐車枠内に入ったと判断された場合(YES)には、駐車完了報知処理(ステップS100)に移行する。駐車枠内に入っていないと判断された場合(NO)には、駐車完了報知処理を行わずに、ステップS110に移行する。  Next, it is determined whether or not the own vehicle has entered the parking frame (step S90). For example, based on the bird's-eye view image data, it can be determined that the host vehicle has entered the parking frame when the coordinates of all the feature points of the host vehicle image enter the region surrounded by the boundary line of the parking frame. If it is determined that the host vehicle has entered the parking frame (YES), the process proceeds to a parking completion notification process (step S100). If it is determined that the vehicle is not within the parking frame (NO), the process proceeds to step S110 without performing the parking completion notification process.

次に、駐車完了報知処理(ステップ100)が行われる。駐車完了報知処理では、制御部30が画像処理部20及び音声合成部40に対して駐車完了情報を送出する。この駐車完了情報にもとづいてディスプレイ装置15及びスピーカ16から駐車完了した旨の報知が行われる。  Next, parking completion notification processing (step 100) is performed. In the parking completion notification process, thecontrol unit 30 sends parking completion information to theimage processing unit 20 and thevoice synthesis unit 40. Based on this parking completion information, thedisplay device 15 and thespeaker 16 notify that parking is completed.

次に、エンジンがOFFとなったか否かを判断する(ステップS110)。エンジンがOFFとなった場合には(YES)、駐車支援装置10の動作を終了する。エンジンがOFFではない場合には(NO)、ステップS10に戻り、駐車支援装置10の処理を最初から繰り返す。  Next, it is determined whether or not the engine is turned off (step S110). When the engine is turned off (YES), the operation of the parking assistance device 10 is terminated. If the engine is not OFF (NO), the process returns to step S10, and the process of the parking assist device 10 is repeated from the beginning.

図6は、本発明の実施形態に係る駐車支援装置の駐車完了情報の報知態様の一例を示す図である。上述したように、駐車支援装置10において、駐車が完了したか否かを認識し、駐車が完了したと判断した場合にはディスプレイ装置15の表示画面上に駐車完了情報が表示される。この駐車完了情報の表示態様としては、例えば、図6に示すように、表示画面上で自車両の画像の周辺を相対的に目立つ色(例えば周囲の画素と異なる色)の枠で囲う。また、自車両が入っている駐車枠の境界線上を相対的に目立つ色の枠を合成して表示することにより報知しても良い。その他、文字情報、アイコンなどを表示して報知してもよい。さらに、ディスプレイ装置15での駐車完了情報の報知と同時にスピーカ16から駐車完了情報を報知が行われる。音声情報としては、例えばビープ音の他、言語による報知を行うことができる。以上のような駐車完了の報知により、ドライバーは駐車が完了した旨の客観的な判断情報を得ることができ、俯瞰画像のみから駐車が完了したか否かを判断するよりも容易に駐車が完了した旨を知ることができる。  FIG. 6 is a diagram illustrating an example of a notification mode of parking completion information of the parking assistance device according to the embodiment of the present invention. As described above, the parking assistance device 10 recognizes whether or not parking is completed, and when it is determined that parking is completed, parking completion information is displayed on the display screen of thedisplay device 15. As a display mode of this parking completion information, for example, as shown in FIG. 6, the periphery of the image of the host vehicle is surrounded by a frame of a relatively conspicuous color (for example, a color different from the surrounding pixels) on the display screen. Moreover, you may alert | report by combining and displaying the frame of the color which stands out relatively on the boundary line of the parking frame in which the own vehicle is contained. In addition, character information, an icon, etc. may be displayed and notified. Further, the parking completion information is notified from thespeaker 16 simultaneously with the notification of the parking completion information on thedisplay device 15. As voice information, for example, in addition to a beep sound, notification in a language can be performed. By notifying parking completion as described above, the driver can obtain objective judgment information that parking is completed, and parking is completed more easily than judging whether or not parking is completed only from an overhead image. You can know that.

これにより、ドライバーは無駄な切返しを繰り返さずに済み、素早く駐車を完了することができる。さらに音声により駐車完了が報知した場合には、運転者対してより確実に駐車完了した旨を知らせることができる。  As a result, the driver does not have to make unnecessary turns and can complete parking quickly. Furthermore, when the completion of parking is notified by voice, the driver can be more surely notified that parking has been completed.

図1(a)、(b)は従来の俯瞰画像表示を行う駐車支援装置の問題点を示す模式図である。FIG. 1A and FIG. 1B are schematic diagrams illustrating problems of a parking assistance device that performs conventional overhead image display.図2は、本発明の一実施形態に係る駐車支援装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the parking assistance apparatus according to the embodiment of the present invention.図3は、本発明の一実施形態に係る駐車支援装置の各カメラの配置位置及び撮影範囲を示す図である。FIG. 3 is a diagram illustrating an arrangement position and a photographing range of each camera of the parking assistance device according to the embodiment of the present invention.図4は、本発明の一実施形態に係る駐車支援装置の動作の一例を示すフロー図である。FIG. 4 is a flowchart showing an example of the operation of the parking assistance apparatus according to the embodiment of the present invention.図5は、本発明の一実施形態に係る駐車支援装置における画像更新処理の一例を示すフロー図である。FIG. 5 is a flowchart showing an example of image update processing in the parking assistance apparatus according to the embodiment of the present invention.図6は、本発明の一実施形態に係る駐車支援装置における駐車完了情報の報知態様の一例を示す図である。FIG. 6 is a diagram illustrating an example of a notification mode of parking completion information in the parking assistance device according to the embodiment of the present invention.

符号の説明Explanation of symbols

10…駐車支援装置、11a、11b、11c、11d…カメラ、13…画像メモリ、14…車両画像メモリ、15…ディスプレイ装置、16…スピーカ、20…画像処理部、30…制御部、31〜35…各種検出部、36…操作入力部、40…音声合成部、I1…駐車完了情報。  DESCRIPTION OF SYMBOLS 10 ... Parking assistance apparatus, 11a, 11b, 11c, 11d ... Camera, 13 ... Image memory, 14 ... Vehicle image memory, 15 ... Display apparatus, 16 ... Speaker, 20 ... Image processing part, 30 ... Control part, 31-35 ... various detection parts, 36 ... operation input part, 40 ... voice synthesis part, I1 ... parking completion information.

Claims (5)

Translated fromJapanese
画面を通じて情報を提供する情報提供手段と、
自車両の一部を含めて車輌周囲の画像を継続的に取得する撮像手段と、
前記自車両の画像データを予め格納すると共に、前記撮像手段により取得された画像データを格納する記憶手段と、
前記記憶手段に格納されているデータから車両周囲の画像を車両の直上からの視点で表す画像に変換すると共に、その変換後の画像に自車両の画像を合成して車両及びその周辺を直上からの視点で表す画像を生成する画像処理手段と、
前記駐車枠を検出する駐車枠検出手段と、
自車両と前記駐車枠との角度を算出する車両角度算出手段と、
前記自車両の画像データと検出された駐車枠のデータとに基づいて自車両と駐車枠との相対位置を算出する駐車位置検出手段と、
自車両が前記駐車枠内に入り、かつ、自車両と前記駐車枠との角度が所定角度以内にあると判定したときに駐車完了信号を前記情報提供手段に出力する制御手段とを備えたことを特徴とする駐車支援装置。
An information providing means for providing information through a screen;
Imaging means for continuously acquiring images around the vehicle including a part of the host vehicle;
Storage means for storing image data of the host vehicle in advance and storing image data acquired by the imaging means;
The image stored around the vehicle is converted from the data stored in the storage means into an image represented by a viewpoint from directly above the vehicle, and the image of the host vehicle is synthesized with the converted image from directly above the vehicle and its surroundings. Image processing means for generating an image represented by the viewpoint of
Parking frame detection means for detecting the parking frame;
Vehicle angle calculation means for calculating an angle between the host vehicle and the parking frame;
A parking position detecting means for calculating a relative position between the host vehicle and the parking frame based on the image data of the host vehicle and the detected parking frame data;
Control means for outputting a parking completion signal to the information providing means when it is determined that the own vehicle enters the parking frame and the angle between the own vehicle and the parking frame is within a predetermined angle. A parking assistance device characterized by the above.
前記駐車枠検出手段は、前記画像処理手段により生成された画像データをもとに、駐車枠を検出することを特徴とする請求項1に記載された駐車支援装置。  The parking assist device according to claim 1, wherein the parking frame detecting unit detects a parking frame based on the image data generated by the image processing unit. 前記情報提供は、前記制御手段からの駐車完了信号にもとづいて、駐車完了した旨を表示装置の画面上に表示することを特徴とする請求項1に記載された駐車支援装置。  The parking support apparatus according to claim 1, wherein the information provision displays on the screen of the display device that parking is completed based on a parking completion signal from the control means. 更に、前記駐車完了信号にもとづいて、駐車が完了した旨を音声で報知する音声処理手段を備えたことを特徴とする請求項1に記載された駐車支援装置。  The parking assist device according to claim 1, further comprising voice processing means for notifying that the parking has been completed based on the parking completion signal. 更に、前記所定角度を設定可能な操作入力手段を備えたことを特徴とする請求項1に記載された駐車支援装置。  The parking assist apparatus according to claim 1, further comprising an operation input unit capable of setting the predetermined angle.
JP2007125220A2007-05-102007-05-10Parking support deviceWithdrawnJP2008279875A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2007125220AJP2008279875A (en)2007-05-102007-05-10Parking support device

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2007125220AJP2008279875A (en)2007-05-102007-05-10Parking support device

Publications (1)

Publication NumberPublication Date
JP2008279875Atrue JP2008279875A (en)2008-11-20

Family

ID=40141064

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2007125220AWithdrawnJP2008279875A (en)2007-05-102007-05-10Parking support device

Country Status (1)

CountryLink
JP (1)JP2008279875A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2010128951A (en)*2008-11-282010-06-10Fujitsu LtdImage processing apparatus, image processing method and computer program
JP2010215170A (en)*2009-03-182010-09-30Denso CorpParking result display system
JP2011016514A (en)*2009-06-092011-01-27Denso CorpParking aid system
JP2011182059A (en)*2010-02-262011-09-15Mitsubishi Motors CorpVehicle periphery monitoring device
JP2014227021A (en)*2013-05-222014-12-08クラリオン株式会社Parking support device
KR101515166B1 (en)2013-09-262015-05-04사단법인 한국지능형교통체계협회A Parking Event Detection System Based on Object Recognition
JP2015131643A (en)*2015-04-222015-07-23三菱自動車工業株式会社Driving support device
JP2017065552A (en)*2015-09-302017-04-06アイシン精機株式会社 Perimeter monitoring device
US10029730B2 (en)2015-10-052018-07-24Hyundai Motor CompanyParking assist system and method for setting parking complete criterion of parking assist system
JP2020513701A (en)*2016-12-142020-05-14コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D surround view system
JP2021069075A (en)*2019-10-282021-04-30三菱電機株式会社Vehicle surroundings monitoring device and vehicle surrounding monitoring method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2010128951A (en)*2008-11-282010-06-10Fujitsu LtdImage processing apparatus, image processing method and computer program
US8319618B2 (en)2008-11-282012-11-27Fujitsu LimitedImage processing apparatus, image processing method, and recording medium
JP2010215170A (en)*2009-03-182010-09-30Denso CorpParking result display system
JP2011016514A (en)*2009-06-092011-01-27Denso CorpParking aid system
US8542129B2 (en)2009-06-092013-09-24Denso CorporationParking aid system
JP2011182059A (en)*2010-02-262011-09-15Mitsubishi Motors CorpVehicle periphery monitoring device
JP2014227021A (en)*2013-05-222014-12-08クラリオン株式会社Parking support device
KR101515166B1 (en)2013-09-262015-05-04사단법인 한국지능형교통체계협회A Parking Event Detection System Based on Object Recognition
JP2015131643A (en)*2015-04-222015-07-23三菱自動車工業株式会社Driving support device
JP2017065552A (en)*2015-09-302017-04-06アイシン精機株式会社 Perimeter monitoring device
US10029730B2 (en)2015-10-052018-07-24Hyundai Motor CompanyParking assist system and method for setting parking complete criterion of parking assist system
JP2020513701A (en)*2016-12-142020-05-14コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D surround view system
JP7084400B2 (en)2016-12-142022-06-14コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 3D surround view system
JP2021069075A (en)*2019-10-282021-04-30三菱電機株式会社Vehicle surroundings monitoring device and vehicle surrounding monitoring method

Similar Documents

PublicationPublication DateTitle
JP2008279875A (en)Parking support device
JP4855158B2 (en) Driving assistance device
KR101362496B1 (en)Parking assistance system and parking assistance method
JP4412365B2 (en) Driving support method and driving support device
JP5836490B2 (en) Driving assistance device
JP4962788B2 (en) Vehicle periphery monitoring device
JP2005110202A (en) Camera device and vehicle periphery monitoring device
JP2003300443A (en) Parking assistance device
JP5471141B2 (en) Parking assistance device and parking assistance method
JP2008302711A (en)Start support device
JP2009083764A (en)Driving assisting device, driving assisting method, and computer program
JP2008280026A (en) Driving assistance device
JP2008013022A (en)Drive assisting device for vehicle
JP4797849B2 (en) Driving support image display system and in-vehicle device
CN110386066A (en)Vehicle display control unit and method, vehicle display system and storage medium
JP2011148369A (en)Driving support device
JP2008213647A (en)Parking assist method and parking assist system
JP5273068B2 (en) Vehicle periphery monitoring device
JP4650687B2 (en) Perimeter monitoring device
JP2006054662A (en) Driving assistance device
JP2010154304A (en)Mobile camera system and driving method
JP5885619B2 (en) Driving assistance device
JP4857159B2 (en) Vehicle driving support device
JP2010012838A (en)Parking assisting device and parking assisting method
JP4957589B2 (en) Obstacle warning device, obstacle warning method, and computer program

Legal Events

DateCodeTitleDescription
A300Application deemed to be withdrawn because no request for examination was validly filed

Free format text:JAPANESE INTERMEDIATE CODE: A300

Effective date:20100803


[8]ページ先頭

©2009-2025 Movatter.jp