Movatterモバイル変換


[0]ホーム

URL:


JP7716655B2 - Vehicle interruption prediction system - Google Patents

Vehicle interruption prediction system

Info

Publication number
JP7716655B2
JP7716655B2JP2022005801AJP2022005801AJP7716655B2JP 7716655 B2JP7716655 B2JP 7716655B2JP 2022005801 AJP2022005801 AJP 2022005801AJP 2022005801 AJP2022005801 AJP 2022005801AJP 7716655 B2JP7716655 B2JP 7716655B2
Authority
JP
Japan
Prior art keywords
vehicle
rectangular frame
image
rectangular
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022005801A
Other languages
Japanese (ja)
Other versions
JP2023104666A (en
Inventor
康介 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor CorpfiledCriticalSuzuki Motor Corp
Priority to JP2022005801ApriorityCriticalpatent/JP7716655B2/en
Publication of JP2023104666ApublicationCriticalpatent/JP2023104666A/en
Application grantedgrantedCritical
Publication of JP7716655B2publicationCriticalpatent/JP7716655B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Landscapes

Description

Translated fromJapanese

本発明は、車両の割り込み予測システムに関する。The present invention relates to a vehicle interruption prediction system.

車両の運転支援や予防安全の一環として、隣接車線から自車両前方への他車両の割り込み予測を行うシステムが提案されている。例えば、特許文献1には、カメラセンサやレーザセンサに取得される車線数、隣接車線を走行する車両数、信号機までの距離、および、ナビゲーション装置に取得される渋滞情報などの走行環境情報に基づいて割り込み可能性指標値を設定し、それに応じて先行車両との車間制御の目標車間距離を設定する制御を実行するように構成された車両制御装置が開示されている。As part of vehicle driving assistance and preventive safety measures, a system has been proposed that predicts whether another vehicle will cut in ahead of the vehicle from an adjacent lane. For example, Patent Document 1 discloses a vehicle control device that sets a cut-in possibility index value based on driving environment information such as the number of lanes acquired by a camera sensor or laser sensor, the number of vehicles traveling in adjacent lanes, the distance to traffic lights, and congestion information acquired by a navigation system, and then executes control to set a target inter-vehicle distance for inter-vehicle control based on this index value.

特許第6646509号公報Patent No. 6646509

上記のような走行環境情報に基づく割り込み予測は、レーザセンサやステレオカメラなどの測距手段やそれらの認識結果の統合処理を必要とし、単眼カメラに用いられないという課題があった。Cut-in prediction based on driving environment information such as that described above requires distance measurement means such as laser sensors or stereo cameras, as well as integrated processing of the recognition results, and therefore has the problem of not being usable with monocular cameras.

本発明は、上記のような実状に鑑みてなされたものであって、その目的は、単眼カメラ画像を入力情報とし、精度よく車両の割り込み予測システムを提供することにある。The present invention was made in consideration of the above-mentioned circumstances, and its purpose is to provide a vehicle cut-in prediction system that uses monocular camera images as input information and accurately predicts vehicle cut-ins.

上記課題を解決するために、本発明に係る車両の割り込み予測システムは、
車両の前方を撮像するように配設された単眼カメラと、
前記単眼カメラに撮像された画像を処理する画像処理ユニットと、
を備え、前記画像処理ユニットは、
前記画像から車両として認識される領域を矩形枠として抽出し、
前記矩形枠を前記画像の幅方向の左側領域に位置する左側矩形枠、右側領域に位置する右側矩形枠に分類し、
前記左側領域と前記右側領域の少なくとも一方で2以上の矩形枠が抽出された場合に、
前記2以上の矩形枠について縦方向座標が最下(最近位)の矩形枠から順に、
(a)次の矩形枠との重なり面積の可能最大面積に対する比率である重合度と、
(b)次の矩形枠との下辺の縦方向座標の比率である距離差率と、
(c)消失点座標に対する下辺の縦方向座標の比率である影響度と、
を算出し、それらに基づいて当該矩形枠に対応する車両による割り込み可能性を判定する
処理を実行するように構成されている。
In order to solve the above problem, a vehicle interruption prediction system according to the present invention comprises:
a monocular camera disposed to capture an image of the area ahead of the vehicle;
an image processing unit that processes an image captured by the monocular camera;
The image processing unit comprises:
extracting a region recognized as a vehicle from the image as a rectangular frame;
The rectangular frames are classified into left rectangular frames located in the left region in the width direction of the image and right rectangular frames located in the right region,
When two or more rectangular frames are extracted in at least one of the left region and the right region,
Regarding the two or more rectangular frames, in order from the rectangular frame with the lowest (closest) vertical coordinate,
(a) the degree of polymerization, which is the ratio of the overlapping area with the next rectangular frame to the maximum possible area;
(b) a distance difference ratio, which is the ratio of the vertical coordinate of the bottom side of the next rectangular frame;
(c) the influence degree, which is the ratio of the vertical coordinate of the bottom side to the vanishing point coordinate;
and based on the calculated values, executes a process of determining the possibility of an interruption by a vehicle corresponding to the rectangular frame.

本発明に係る車両の割り込み予測システムは、上記のように、単眼カメラの画像から車両として認識される領域を矩形枠として抽出し、矩形枠下辺の縦方向座標が距離情報を反映することに着目し、隣接車線の車両の位置関係を反映する指標となる重合度と距離差率、自車両からの距離を反映する指標となる影響度に基づいて割り込み予測を行う構成により、単眼カメラの画像を入力情報とし、精度よく割り込み予測システムを構築できる利点がある。As described above, the vehicle cut-in prediction system of the present invention extracts an area recognized as a vehicle from an image captured by a monocular camera as a rectangular frame, and focuses on the fact that the vertical coordinate of the bottom edge of the rectangular frame reflects distance information. It then predicts cut-in based on the overlapping degree and distance difference rate, which are indicators reflecting the relative positions of vehicles in adjacent lanes, and the influence degree, which is an indicator reflecting the distance from the vehicle itself. This has the advantage of allowing for the construction of an accurate cut-in prediction system using images from a monocular camera as input information.

本発明実施形態に係る割り込み予測システムを示すブロック図である。1 is a block diagram illustrating an interruption prediction system according to an embodiment of the present invention.単眼カメラ画像による割り込み予測を示す概略図である。FIG. 1 is a schematic diagram illustrating cut-in prediction using a monocular camera image.矩形枠の重合度を示す概略図である。FIG. 1 is a schematic diagram showing the degree of polymerization of a rectangular frame.割り込み予測の実施例を示す入力画像である。1 is an input image illustrating an example of interrupt prediction.割り込み予測の実施例を示す入力画像である。1 is an input image illustrating an example of interrupt prediction.割り込み予測の実施例を示す入力画像である。1 is an input image illustrating an example of interrupt prediction.割り込み予測の実施例を示す入力画像である。1 is an input image illustrating an example of interrupt prediction.道路の曲線区間における割り込み予測を示す概略図である。FIG. 1 is a schematic diagram illustrating a cut-in prediction on a curved section of a road.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
図1において、本発明実施形態に係る車両の割り込み予測システム100は、車両前方を撮像する前方カメラ20と画像処理ユニット10から主に構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In FIG. 1, a vehicle cut-in prediction system 100 according to an embodiment of the present invention is mainly composed of a front camera 20 that captures an image ahead of the vehicle, and an image processing unit 10.

前方カメラ20は、光学系を通じて結像された視野画像を撮像するイメージセンサ(CMOSやCCDなどの撮像素子)を備えた単眼カメラであり、好適には車室内のフロントガラス(ウインドシールド)上部に配設される。The front camera 20 is a monocular camera equipped with an image sensor (an imaging element such as a CMOS or CCD) that captures a field of view image formed through an optical system, and is preferably mounted above the windshield inside the vehicle.

画像処理ユニット10は、前方カメラ20に撮像された入力画像から車両(移動体)として認識される領域を矩形枠(Ci,Li,Ri)として抽出する処理(11)を実行するプログラム、および、抽出された矩形枠を幅方向の中央領域、左側領域、右側領域に分類する処理、後述する重合度、距離差率、影響度を算出し割り込み可能性を判定する処理(14L,14R)を実行するプログラムを組み込んだ電子制御ユニット(ECU)として構成される。The image processing unit 10 is configured as an electronic control unit (ECU) incorporating a program that executes a process (11) to extract an area recognized as a vehicle (moving object) as a rectangular frame (Ci, Li, Ri) from the input image captured by the forward camera 20, a process to classify the extracted rectangular frame into a central region, a left region, and a right region in the width direction, and a process (14L, 14R) to calculate the degree of overlap, distance difference rate, and influence degree described below and determine the possibility of cutting in.

また、画像処理ユニット10は、後述するように道路曲率や道路勾配を処理に反映させるために、GNSSセンサなどの測位システム21の検知情報や地図情報22、車速、操舵角、ヨーレートなどの車両情報23を、車載ネットワークを通じて取得するように構成されることが好ましい。In addition, the image processing unit 10 is preferably configured to acquire detection information from a positioning system 21 such as a GNSS sensor, map information 22, and vehicle information 23 such as vehicle speed, steering angle, and yaw rate via an in-vehicle network in order to reflect road curvature and road gradient in the processing, as described below.

車両抽出処理(11)は、AIモデル(機械学習モデル)、例えば、データセットと各データに対する正解ラベル(車両,トラック,バス,バイクなどに対する矩形枠)を用いた教師あり学習により得られる車両検出モデルを用いて実行される。正解ラベルは他の車両などで隠れている部分も含めた矩形枠として作成されるので、画像上に部分的に表れている車両も検出可能である。The vehicle extraction process (11) is performed using an AI model (machine learning model), for example, a vehicle detection model obtained through supervised learning using a dataset and correct labels for each data (rectangular frames for vehicles, trucks, buses, motorcycles, etc.). The correct labels are created as rectangular frames that include parts hidden by other vehicles, making it possible to detect vehicles that are partially visible in the image.

抽出された矩形枠の分類処理(12C,12L,12R)は、前方カメラ20が車両の幅方向中央または略中央に取り付けられていることを前提として、図2に示すように、入力画像200の幅方向における中心線(中心座標)cを下辺に含む矩形枠を中央矩形枠Ciとして分類し、残余の矩形枠のうち幅方向の位置座標(中央座標)が中心線cに対して左側にある矩形枠を左側矩形枠Li、右側にある矩形枠を右側矩形枠Riに分類する。The classification process (12C, 12L, 12R) of the extracted rectangular frames assumes that the front camera 20 is mounted at or approximately at the center of the vehicle in the width direction. As shown in Figure 2, rectangular frames whose bottom side includes the center line (center coordinate) c in the width direction of the input image 200 are classified as center rectangular frames Ci, and of the remaining rectangular frames, rectangular frames whose width direction position coordinates (center coordinates) are to the left of the center line c are classified as left rectangular frames Li, and rectangular frames whose width direction position coordinates are to the right of the center line c are classified as right rectangular frames Ri.

この際、入力画像200において、特に車線認識を行わなくても、幅方向の中央領域に位置する中央矩形枠Ciは自車線の先行車両と見做すことができ、左側領域に位置する左側矩形枠Liは左側隣接車線の先行車両、右側領域に位置する右側矩形枠Riは右側車線の先行車両と見做すことができる。In this case, in the input image 200, even without performing lane recognition, the central rectangular frame Ci located in the central region in the width direction can be regarded as a preceding vehicle in the own lane, the left rectangular frame Li located in the left region can be regarded as a preceding vehicle in the adjacent lane on the left, and the right rectangular frame Ri located in the right region can be regarded as a preceding vehicle in the right lane.

図2から明らかなように、歪み補正された入力画像200において道路平面上にある矩形枠下辺は縦方向に距離情報を有している。なお、入力画像データ(200)のピクセル座標は、左上の原点から右向きを正方向とする幅方向位置に対応するx座標と、原点から下向きを正方向とする縦方向位置に対応するy座標とで構成されるが、入力画像データ(200)の幅方向ピクセル数X、縦方向ピクセル数Yは既知であるので、縦方向ピクセル数Yとの差(Y-y)をとることで、自車両からの距離に対応するピクセル距離(例えば図2のhLi,hl2,hC1)が得られる。 As is clear from Figure 2, the bottom side of the rectangular frame on the road plane in the distortion-corrected input image 200 has distance information in the vertical direction. Note that the pixel coordinates of the input image data (200) are composed of an x coordinate corresponding to the widthwise position, with the positive direction being from the origin in the upper left corner toward the right, and a y coordinate corresponding to the lengthwise position, with the positive direction being downward from the origin. However, since the number of pixels X in the widthwise direction and the number of pixels Y in the vertical direction of the input image data (200) are known, the pixel distance (e.g., hLi , hl2 , hC1 in Figure 2) corresponding to the distance from the vehicle can be obtained by calculating the difference (Y-y) between the number of pixels Y in the vertical direction and the x coordinate.

なお、中央矩形枠Ciは、自車両からのピクセル距離(hC1)が閾値以下の近位側にある場合のみ考慮され、それ以外では、中心線cに対して左側にある矩形枠を左側矩形枠Li、右側にある矩形枠を右側矩形枠Riに分類するようにしても良い。 The central rectangular frame Ci is only considered when the pixel distance (hC1 ) from the vehicle is closer than a threshold value; otherwise, the rectangular frame on the left side of the center line c may be classified as a left rectangular frame Li, and the rectangular frame on the right side may be classified as a right rectangular frame Ri.

中央矩形枠Ci、左側矩形枠Li、右側矩形枠Riは、自車両からの距離に対応するピクセル距離に従って、縦方向座標が最下(最近位)の矩形枠から順に、Ci=C1,C2,・・・、Li=L1,L2,・・・、Ri=R1,R2,・・・のように配列される。The center rectangular frame Ci, left rectangular frame Li, and right rectangular frame Ri are arranged according to the pixel distance corresponding to the distance from the vehicle, starting from the rectangular frame with the lowest (closest) vertical coordinate: Ci = C1, C2, ..., Li = L1, L2, ..., Ri = R1, R2, ...

後述のように、割り込み予測の対象となるのは近景ないし中景に位置している矩形枠であり、遠景領域の矩形枠が有意な予測の対象となることはない。したがって、自車両からのピクセル距離(hLi,hl2,hC1)が遠景領域と見做せる所定閾値以上の場合を予め除外してもよい。この閾値は後述の影響度(R)の閾値から求まる。 As will be described later, rectangular frames located in the near or middle distance are the targets of cut-in prediction, and rectangular frames in the distant view area are not the targets of significant prediction. Therefore, cases where the pixel distance (hLi , hl2 , hC1 ) from the vehicle is equal to or greater than a predetermined threshold value that is considered to be the distant view area may be excluded in advance. This threshold value is determined from the threshold value of the influence level (R) described later.

矩形枠は車幅に相当する幅を有しているので、道路に多少の曲率があっても、図2に示すような直線(中心線c)による中央矩形枠Ciの抽出で対応でき、近景ないし中景に位置している中央矩形枠Ciが左側または右側に誤って分類されることはない。Since the rectangular frame has a width equivalent to the vehicle width, even if the road has some curvature, the central rectangular frame Ci can be extracted using a straight line (center line c) as shown in Figure 2, and a central rectangular frame Ci located in the foreground or middle ground will not be mistakenly classified as either the left or right side.

一方、図8に示すように、道路曲率を中心線c′に反映させることもできる。例えば、入力画像800において車線認識により左右の車線区分線mL,mRを検出し、それらに基づいて中心線c′が動的に設定されるようにすることもできる。On the other hand, as shown in Figure 8, the road curvature can also be reflected in the center line c'. For example, the left and right lane markings mL and mR can be detected in the input image 800 using lane recognition, and the center line c' can be dynamically set based on these.

また、測位システム21の検知情報と地図情報22から道路曲率を取得するか、車両の操舵角(またはヨーレート)から、車両が定常円旋回しているものと仮定して、運動方程式により定常円旋回半径を求め、アフィン変換により入力画像800の中心線c′に反映させることもできる。In addition, the road curvature can be obtained from the detection information of the positioning system 21 and the map information 22, or the steady-state circular turning radius can be calculated from the vehicle's steering angle (or yaw rate) using the equation of motion, assuming that the vehicle is making a steady-state circular turn, and this can be reflected in the center line c' of the input image 800 using an affine transformation.

なお、左側矩形枠Liおよび右側矩形枠Riの何れにおいても2以上の矩形枠が検出されない場合は、その時点で1フレームの処理は終了する。左側矩形枠Liまたは右側矩形枠Riの何れかに2以上の矩形枠が検出された場合は、当該矩形枠のループ処理(13L~16L,13R~16R)に移行する。If two or more rectangular frames are not detected in either the left rectangular frame Li or the right rectangular frame Ri, processing for one frame ends at that point. If two or more rectangular frames are detected in either the left rectangular frame Li or the right rectangular frame Ri, processing proceeds to the loop processing for that rectangular frame (13L-16L, 13R-16R).

この際、ブロック12Cで少なくとも1つの中央矩形枠Ciが検出されている場合は、ブロック13Cで、入力画像200の最下にある最近位の中央矩形枠C1のピクセル距離(hC1)が、次に述べる左側矩形枠Li、右側矩形枠Riのループ処理(13L~16L,13R~16R)の終了条件の閾値に決定される。 In this case, if at least one central rectangular frame Ci is detected in block 12C, in block 13C, the pixel distance (hC1 ) of the closest central rectangular frame C1 at the bottom of the input image 200 is determined as the threshold value for the termination condition of the loop processing (13L to 16L, 13R to 16R) of the left rectangular frame Li and the right rectangular frame Ri described below.

具体的に、図2に示す入力画像200では、左側領域には3つの矩形枠L1,L2,L3が検出されているが、最近位の中央矩形枠C1より近位側(下辺が下側、中央矩形枠C1よりもピクセル距離が小さい側)に存在するのは2つの矩形枠L1,L2のみであるため、これらの矩形枠L1,L2についてループ処理(13L~16L)が実行される。Specifically, in the input image 200 shown in Figure 2, three rectangular frames L1, L2, and L3 are detected in the left region, but only two rectangular frames L1 and L2 exist closer to the nearest central rectangular frame C1 (bottom side downward, closer in pixel distance than central rectangular frame C1), so loop processing (13L to 16L) is performed on these rectangular frames L1 and L2.

また、右側領域には2つの矩形枠R1,R2が検出されているが、最近位の中央矩形枠C1より近位側(下辺が下側)に存在するのは1つの矩形枠R1のみであるため、この矩形枠R1についてのみループ処理(13R~16R)が実行される。In addition, two rectangular frames R1 and R2 are detected in the right region, but only one rectangular frame R1 exists proximal to the nearest central rectangular frame C1 (with its bottom edge facing downwards), so loop processing (13R to 16R) is performed only for this rectangular frame R1.

ループ処理(13L~16L,13R~16R)では、先ず、ブロック14L,14Rにおいて、割り込み予測の指標となる(a)重合度、(b)距離差率、(c)影響度が算出される。In the loop processing (13L-16L, 13R-16R), first, blocks 14L and 14R calculate (a) the degree of overlap, (b) the distance difference rate, and (c) the degree of influence, which serve as indicators for interrupt prediction.

(a)重合度(IoMaxI;Intersection over Maximum Intersection)は、左右各側の近位側の車両(第1の車両)とその先行車両(第2の車両)の実距離差を反映する指標であり、図3に示すように、矩形枠Liと次の矩形枠Ljの重なり面積(Iij)の、矩形枠Liと次の矩形枠Ljの最大かさなり面積(MaxIij)に対する比率として例えば次式で算出される。
重合度:IoMaxI=(Iij)/(MaxIij
但し、矩形枠Li、Ljのピクセル座標
Li(xi1,yi1;xi2,yi2),Lj(xj1,yj1;xj2,yj2)において、
MaxIij=min(xi2-xi1,xj2-xj1)*
min(yi2-yi1,yj2-yj1
ij=(max(xi1,xj1)-min(xi2,xj2))*
(max((yi1,yj1)-min(yi2,yj2))
(a) The degree of overlap (IoMaxI; Intersection over Maximum Intersection) is an index that reflects the difference in actual distance between the nearest vehicle (first vehicle) on each side and its preceding vehicle (second vehicle), and as shown in Figure 3, it is calculated, for example, using the following formula as the ratio of the overlap area (Iij ) between rectangular frame Li and the next rectangular frame Lj to the maximum overlap area (MaxIij ) between rectangular frame Li and the next rectangular frame Lj.
Degree of polymerization: IoMaxI=(Iij )/(MaxIij )
However, in the pixel coordinates Li(xi1 , yi1 ; xi2 , yi2 ), Lj(xj1 , yj1 ; xj2 , yj2 ) of the rectangular frames Li and Lj,
MaxIij =min(xi2 - xi1 , xj2 -x j1 )*
min(yi2 -yi1 ,yj2 -yj1 )
Iij = (max(xi1 , xj1 )−min(xi2 , xj2 ))*
(max((yi1 , yj1 )−min(yi2 , yj2 ))

(b)距離差率(DR;Distance Rate)も重合度と同様に左右各側の近位側の車両(第1の車両)とその先行車両(第2の車両)の実距離差を反映する指標であり、矩形枠Liと次の矩形枠Ljの下辺の縦方向座標の比率として例えば次式で算出される。
距離差率:DR={(hLi)/(hLj)}
(b) Distance Rate (DR), like the overlapping degree, is an index that reflects the actual distance difference between the nearest vehicle (first vehicle) on each side and the preceding vehicle (second vehicle), and is calculated, for example, using the following formula as the ratio of the vertical coordinate of the bottom side of the rectangular frame Li and the next rectangular frame Lj.
Distance difference rate: DR={(hLi )/(hLj )}2

(c)影響度(R;または危険確率;Risk)は、仮に割り込みが発生した場合における自車両への影響の大きさを反映する指標であり、自車両に近い位置で割り込みが発生した場合ほど影響が大きく、自車両から遠い位置ほど影響が小さいことから、消失点VPの縦方向座標(hv)に対する矩形枠Liの下辺の縦方向座標(hLi)の比率として例えば次式で算出される。
影響度:R=1-{(hLi)/(hv)}
(c) The impact degree (R; or risk probability; Risk) is an index that reflects the magnitude of the impact on the vehicle if an intrusion occurs. The impact is greater if the intrusion occurs closer to the vehicle and smaller if the intrusion occurs farther from the vehicle. Therefore, the impact degree (R; or risk probability; Risk) is calculated, for example, using the following formula as the ratio of the vertical coordinate (hLi ) of the bottom side of the rectangular frame Li to the vertical coordinate (h v ) of the vanishing point VP.
Impact: R=1-{(hLi )/(hv)}2

なお、消失点VPの縦方向座標(hv)は、平坦地で実車検証して求めても良いし、以下のようにカメラ取付ピッチ角とカメラ垂直視野角に基づいて算出しても良い。
消失点高さ:hv=縦方向中心座標×(カメラ取付ピッチ角/カメラ垂直視野角)
The vertical coordinate (hv) of the vanishing point VP may be determined by testing an actual vehicle on flat ground, or may be calculated based on the camera mounting pitch angle and the camera vertical viewing angle as follows:
Vanishing point height: hv = vertical center coordinate × (camera mounting pitch angle / camera vertical viewing angle)

また、上記に関連して、衛星測位システム21の検知情報と地図情報22に基づいて道路勾配を取得し、道路勾配に基づいて消失点高さ(hv)が動的に設定されるようにすることもできる。さらに、先述した道路曲率を中心線c′に反映させる場合に、道路勾配に基づいて設定される消失点高さ(hv)に応じて補正されるようにすることもできる。In relation to the above, the road gradient can be obtained based on the detection information from the satellite positioning system 21 and the map information 22, and the vanishing point height (hv) can be dynamically set based on the road gradient. Furthermore, when the aforementioned road curvature is reflected in the center line c', it can also be corrected according to the vanishing point height (hv) set based on the road gradient.

次に、ブロック15L,15Rにおいて、割り込み予測の指標となる(a)重合度、(b)距離差率、(c)影響度の3つの指標がそれぞれの閾値と比較され、基本的には全ての指標が閾値以上の場合に割り込み可能性あり(YES)と判定され、ブロック17の割り込み予測情報にカウントされる。Next, in blocks 15L and 15R, the three indicators for cut-in prediction, (a) degree of overlap, (b) distance difference rate, and (c) impact level, are compared with their respective thresholds, and basically, if all indicators are above their thresholds, it is determined that there is a possibility of cut-in (YES), and this is counted in the cut-in prediction information of block 17.

何れかの指標が閾値未満だった場合には割り込み予測情報にカウントされず、ブロック13L,13Rに戻り、最近位の中央矩形枠C1のピクセル距離(hC1)に基づいて終了条件の成否が確認され、終了条件が不成立の場合は、次の矩形枠のループ処理(13L~16L,13R~16R)を行う。 If any of the indicators is less than the threshold, it is not counted in the interrupt prediction information, and the process returns to blocks 13L and 13R, where the success or failure of the termination condition is confirmed based on the pixel distance (hC1 ) of the nearest central rectangular frame C1. If the termination condition is not met, the loop processing of the next rectangular frame (13L to 16L, 13R to 16R) is performed.

最近位の中央矩形枠C1のピクセル距離(hC1)に基づく終了条件が成立した場合、あるいは、ブロック12Cで中央矩形枠Ciが検出されない場合に左右各側で全ての矩形枠Li,Riのループ処理(13L~16L,13R~16R)が完了した場合は、ブロック17の割り込み予測情報出力に移行する。 When the termination condition based on the pixel distance (hC1 ) of the nearest central rectangular frame C1 is met, or when the central rectangular frame Ci is not detected in block 12C and the loop processing of all rectangular frames Li, Ri on each side (13L to 16L, 13R to 16R) is completed, the process proceeds to output of interrupt prediction information in block 17.

なお、左右何れかで割り込み可能性あり(YES)と判定された時点で当該フレームでのループ処理(13L~16L,13R~16R)を終了して、直ちにブロック17の割り込み予測情報出力に移行してもよい。In addition, when it is determined that there is a possibility of an interrupt on either the left or right side (YES), the loop processing for that frame (13L-16L, 13R-16R) may be terminated and the process may immediately proceed to outputting interrupt prediction information in block 17.

割り込み予測情報出力17では、カウントされた割り込み予測情報がある場合、左右何れかの車線を指定した割り込み予測情報を車両のHMI装置30に出力する。あるいは、割り込み予測情報がカウントされた場合に割り込み予測フラグを立て、割り込み予測フラグが所定フレームまたは所定時間に亘って継続した場合に割り込み予測情報が出力されるようにすることもできる。When there is counted cut-in prediction information, the cut-in prediction information output 17 outputs cut-in prediction information specifying either the left or right lane to the vehicle's HMI device 30. Alternatively, when cut-in prediction information is counted, an cut-in prediction flag can be set, and when the cut-in prediction flag continues for a specified number of frames or a specified period of time, the cut-in prediction information can be output.

HMI装置30では画面表示やHUDなどでの表示または音声などにより運転者に左右何れかの車線を指定して割り込みへの注意喚起の通知を行う。なお、本発明に係る割り込み予測システム100は、ドライブレコーダーに搭載可能であり、その場合、HMI装置30はドライブレコーダーの表示画面などで構成される。The HMI device 30 notifies the driver of the lane to be careful of cutting in by specifying either the left or right lane via a screen display, HUD display, or audio. The cutting-in prediction system 100 according to the present invention can be mounted in a drive recorder, in which case the HMI device 30 is configured by the display screen of the drive recorder, etc.

また、車両がアダプティブクルーズコントロール(ACC)により先行車両に所定の設定車間時間を維持するように追従走行している場合に、設定車間時間を一時的に短縮して割り込みが抑制されるようにして、割り込みによる速度変化が回避されるようにすることもできる。In addition, when a vehicle is using adaptive cruise control (ACC) to follow a preceding vehicle to maintain a predetermined set time interval, the set time interval can be temporarily shortened to suppress cutting in and avoid speed changes caused by cutting in.

本発明に係る割り込み予測は、片側2車線以上の幹線道路や高速道路のような中速域ないしは高速域で走行する場合に有効である反面、渋滞など低車速で走行しているような状況には適さない。そこで、測位システム21の検知情報と地図情報22または前方カメラ20の画像からの車線認識により片側2車線以上の道路を走行中であることが検知され、かつ、自車両の車速が中車速以上(例えば50km/h以上)である場合に、割り込み予測処理が実行されるか、または、割り込み予測情報出力が行われるように構成されてもよい。While the cut-in prediction according to the present invention is effective when traveling at medium to high speeds on arterial roads or expressways with two or more lanes in each direction, it is not suitable for situations where the vehicle is traveling at low speeds, such as in traffic jams. Therefore, the system may be configured to execute cut-in prediction processing or output cut-in prediction information when it is detected that the vehicle is traveling on a road with two or more lanes in each direction based on detection information from the positioning system 21 and lane recognition from map information 22 or images from the front camera 20, and the vehicle's speed is medium speed or higher (e.g., 50 km/h or higher).

次に、図4~図7は、それぞれの状況に応じた割り込み予測の実施例(入力画像)を示しており、以下、それぞれに対応する判定例について述べる。なお、各実施例における入力画像サイズは何れも1920×1080ピクセルであり、各実施例における重合度(IoMaxI)、距離差率(DR)、影響度(R)の閾値は何れも0.4と設定した。Next, Figures 4 to 7 show examples (input images) of interrupt prediction for each situation, and the corresponding judgment examples are described below. Note that the input image size in each example was 1920 x 1080 pixels, and the thresholds for the degree of overlap (IoMaxI), distance difference rate (DR), and influence (R) in each example were all set to 0.4.

図4に示す入力画像400では、中心線c上の中央矩形枠や右側矩形枠は検出されておらず、中心線cの左側に2つの矩形枠L1,L2が検出されている。この例では、
矩形枠L1(x11,y11;x12,y12)=(30,402;480,762)、
矩形枠L2(xj1,y21;x22,y22)=(289,433;609,689)、
であり、矩形枠L1において、矩形枠L2との重合度:IoMaxI=0.597、距離差率:DR=0.661、影響度:R=0.663となり、何れも閾値0.4以上で割り込み可能性が高いと判定される。左側隣接車線の前方で先行車両L2の直ぐ後ろに先行車両L1があり、先行車両L1が先行車両L2を避けて自車両前方に割り込む可能性が高いと予測される状況である。
In the input image 400 shown in Figure 4, the central rectangular frame and the right rectangular frame on the center line c are not detected, but two rectangular frames L1 and L2 are detected on the left side of the center line c.
Rectangular frame L1 (x11 ,y11 ;x12 ,y12 ) = (30, 402; 480, 762),
Rectangular frame L2(xj1 , y21 ; x22 , y22 )=(289, 433; 609, 689),
In the rectangular frame L1, the overlapping degree with the rectangular frame L2 is IoMaxI = 0.597, the distance difference rate is DR = 0.661, and the influence rate is R = 0.663, all of which are equal to or greater than the threshold value of 0.4, and it is determined that there is a high possibility of cutting in. In this situation, there is a preceding vehicle L1 immediately behind the preceding vehicle L2 in the left adjacent lane, and it is predicted that there is a high possibility that the preceding vehicle L1 will cut in front of the host vehicle to avoid the preceding vehicle L2.

図5に示す入力画像500でも同様に中央矩形枠や右側矩形枠は検出されず、左側に2つの矩形枠L1,L2が検出されている。この例では、
矩形枠L1(x11,y11;x12,y12)=(440,423;705,635)、
矩形枠L2(xj1,y21;x22,y22)=(0,510,288;870)、
であり、矩形枠L1において、矩形枠L2との重合度:IoMaxI=0、距離差率:DR=0.223、影響度:R=0.849となり、重合度と距離差率が閾値0.4未満であるため、割り込み可能性は低いと判定される。先行車両L1は自車両に近い位置を走行しているが、先行車両L2との間には適度な車間距離が確保されており、割り込みの可能性は低いと予測される状況である。
Similarly, in the input image 500 shown in Figure 5, no central rectangular frame or right-side rectangular frame is detected, but two rectangular frames L1 and L2 are detected on the left side.
Rectangular frame L1 (x11 ,y11 ;x12 ,y12 ) = (440, 423; 705, 635),
Rectangular frame L2(xj1 , y21 ; x22 , y22 )=(0, 510, 288; 870),
In the rectangular frame L1, the overlap degree with the rectangular frame L2 is IoMaxI=0, the distance difference rate is DR=0.223, and the influence rate is R=0.849. Since the overlap degree and the distance difference rate are less than the threshold value of 0.4, it is determined that the possibility of cutting in is low. Although the preceding vehicle L1 is traveling close to the subject vehicle, an appropriate distance is secured between the subject vehicle and the preceding vehicle L2, and it is predicted that the possibility of cutting in is low.

図6に示す入力画像600でも前記同様に左側に2つの矩形枠L1,L2が検出されている。この例では、
矩形枠L1(x11,y11;x12,y12)=(775,460;875,540)、
矩形枠L2(xj1,y21;x22,y22)=(727,487;827,567)、
であり、矩形枠L1において、矩形枠L2との重合度:IoMaxI=0.345、距離差率:DR=0.903、影響度:R=0.098となり、重合度と影響度が閾値0.4未満であるため、割り込み可能性は低いと判定される。先行車両L1は先行車両L2に比較的近い位置を走行しているが、自車両に対しては前方に離れており、自車線前方に車線変更しても自車両は影響を受けないため、注意喚起すべき割り込み予測の対象にはカウントされない。
In the input image 600 shown in FIG. 6, two rectangular frames L1 and L2 are detected on the left side in the same manner as described above. In this example,
Rectangular frame L1 (x11 ,y11 ;x12 ,y12 ) = (775, 460; 875, 540),
Rectangular frame L2(xj1 , y21 ; x22 , y22 )=(727, 487; 827, 567),
In the rectangular frame L1, the overlapping degree with the rectangular frame L2 is IoMaxI=0.345, the distance difference rate is DR=0.903, and the influence degree is R=0.098. Since the overlapping degree and the influence degree are less than the threshold value of 0.4, it is determined that the possibility of cutting in is low. The preceding vehicle L1 is traveling relatively close to the preceding vehicle L2, but is farther ahead of the own vehicle, and even if the preceding vehicle L1 changes lanes ahead of the own vehicle, the own vehicle will not be affected, so it is not counted as a target for cutting in prediction that requires attention.

図7に示す入力画像700では、中心線c上の中央矩形枠C1が検出されるとともに、中心線cの左側に図4と同様に2つの矩形枠L1,L2が検出されている。この例でも、左側矩形枠L1における矩形枠L2との重合度、距離差率、影響度は何れも閾値0.4以上であり、計算上は割り込み可能性がカウントされる状況である。しかし、先行車両C1は先行車両L2よりも後方を走行しており、無理に割り込むような状況とも言えない。In the input image 700 shown in Figure 7, a central rectangular frame C1 is detected on the center line c, and two rectangular frames L1 and L2 are detected to the left of the center line c, as in Figure 4. In this example, the overlap degree, distance difference rate, and influence degree between the left rectangular frame L1 and the rectangular frame L2 are all above the threshold of 0.4, so the situation is calculated to indicate a possibility of cutting in. However, the leading vehicle C1 is traveling behind the leading vehicle L2, so it cannot be said that the situation calls for a forced cut-in.

そこで、ループ処理(13L~16L,13R~16R)の開始条件を、左右何れかの領域に、最近位の中央矩形枠C1より近位側(下辺が下側)に2以上の矩形枠が検出されている場合に限定すれば、図7のような状況での割り込み予測判定を回避できる。Therefore, by limiting the start condition for the loop processing (13L-16L, 13R-16R) to when two or more rectangular frames are detected in either the left or right region closer to the nearest central rectangular frame C1 (with the bottom edge facing downwards), it is possible to avoid interrupt prediction judgment in situations like the one shown in Figure 7.

また、このような場合には、先述した割り込み予測フラグの継続時間の閾値を設定することも有効である。図7のような状況でも所定時間以上継続する場合は、車線変更が実行される可能性が高くなると言える。In such cases, it is also effective to set a threshold for the duration of the cut-in prediction flag mentioned above. Even in a situation like that shown in Figure 7, if it continues for a predetermined period of time or longer, it can be said that there is a high possibility that a lane change will be performed.

なお、上記実施形態では、重合度(IoMaxI)、距離差率(DR)、影響度(R)がそれぞれの閾値以上である場合に、当該矩形枠に対応する車両による割り込み可能性ありと判定する場合について述べたが、これらの指標のうち、重合度と距離差率は、何れも第1の車両とその先行車両(第2の車両)の実距離差を反映する指標であるため、何れか一方と影響度に基づいて割り込み予測を行うこともできる。In the above embodiment, it was described that when the degree of overlap (IoMaxI), distance difference rate (DR), and influence rate (R) are equal to or greater than their respective thresholds, it is determined that there is a possibility of an intrusion by the vehicle corresponding to the rectangular frame. However, of these indices, the degree of overlap and distance difference rate are both indices that reflect the actual distance difference between the first vehicle and its preceding vehicle (second vehicle). Therefore, it is also possible to make an intrusion prediction based on either one of these indices and the influence rate.

すなわち、重合度(IoMaxI)または距離差率(DR)が閾値以上でありかつ影響度(R)が閾値以上である場合に、当該矩形枠に対応する車両による割り込み可能性ありと判定するようにシステムを構成することもできる。In other words, the system can be configured to determine that there is a possibility of a vehicle corresponding to the rectangular frame cutting in if the overlap degree (IoMaxI) or distance difference rate (DR) is equal to or greater than a threshold and the influence degree (R) is equal to or greater than a threshold.

あるいは、距離差率(DR)が閾値以上でありかつ影響度(R)が閾値以上である場合に、当該矩形枠に対応する車両による割り込み可能性ありと判定するようにシステムを構成することもできる。Alternatively, the system can be configured to determine that there is a possibility of a vehicle corresponding to the rectangular frame cutting in if the distance difference rate (DR) is equal to or greater than a threshold and the impact rate (R) is equal to or greater than a threshold.

以上、本発明のいくつかの実施形態について述べたが、本発明は上記各実施形態に限定されるものではなく、本発明の技術的思想に基づいてさらに各種の変形および変更が可能であることを付言する。Although several embodiments of the present invention have been described above, it should be noted that the present invention is not limited to the above embodiments, and various modifications and variations are possible based on the technical concept of the present invention.

10 画像処理ユニット
20 前方カメラ(単眼カメラ)
21 測位システム
22 地図情報
23 車両情報
30 HMI装置
100 割り込み予測システム
10 Image processing unit 20 Front camera (monocular camera)
21 Positioning system 22 Map information 23 Vehicle information 30 HMI device 100 Interruption prediction system

Claims (9)

Translated fromJapanese
車両の割り込み予測システムであって、
車両の前方を撮像するように配設された単眼カメラと、
前記単眼カメラに撮像された画像を処理する画像処理ユニットと、
を備え、前記画像処理ユニットは、
前記画像から車両として認識される領域を矩形枠として抽出し、
前記矩形枠を前記画像の幅方向の左側領域に位置する左側矩形枠、右側領域に位置する右側矩形枠に分類し、
前記左側領域と前記右側領域の少なくとも一方で2以上の矩形枠が抽出された場合に、
前記2以上の矩形枠について縦方向座標が最下(最近位)の矩形枠から順に、
(a)次の矩形枠との重なり面積の可能最大面積に対する比率である重合度と、
(b)次の矩形枠との下辺の縦方向座標の比率である距離差率と、
(c)消失点座標に対する下辺の縦方向座標の比率である影響度と、
を算出し、それらに基づいて当該矩形枠に対応する車両による割り込み可能性を判定する
処理を実行するように構成されている、車両の割り込み予測システム。
A vehicle interruption prediction system, comprising:
a monocular camera disposed to capture an image of the area ahead of the vehicle;
an image processing unit that processes an image captured by the monocular camera;
The image processing unit comprises:
extracting a region recognized as a vehicle from the image as a rectangular frame;
The rectangular frames are classified into left rectangular frames located in the left region in the width direction of the image and right rectangular frames located in the right region,
When two or more rectangular frames are extracted in at least one of the left region and the right region,
Regarding the two or more rectangular frames, in order from the rectangular frame with the lowest (closest) vertical coordinate,
(a) the degree of polymerization, which is the ratio of the overlapping area with the next rectangular frame to the maximum possible area;
(b) a distance difference ratio, which is the ratio of the vertical coordinate of the bottom side of the next rectangular frame;
(c) the influence degree, which is the ratio of the vertical coordinate of the bottom side to the vanishing point coordinate;
and, based on the calculated results, executes a process of determining the possibility of an interruption by a vehicle corresponding to the rectangular frame.
前記画像処理ユニットは、
前記矩形枠を前記画像の幅方向の中央領域に位置する中央矩形枠、左側領域に位置する左側矩形枠、右側領域に位置する右側矩形枠に分類し、
前記左側領域と前記右側領域の少なくとも一方で、前記画像の縦方向座標における下側(近位側)に中央矩形枠が存在しない2以上の矩形枠が抽出された場合に、
前記2以上の矩形枠について縦方向座標が最下(最近位)の矩形枠から順に、
前記重合度と、前記距離差率と、前記影響度とを算出するように構成されている、請求項1に記載の車両の割り込み予測システム。
The image processing unit
The rectangular frames are classified into a central rectangular frame located in a central region in the width direction of the image, a left rectangular frame located in a left region, and a right rectangular frame located in a right region,
When two or more rectangular frames are extracted in at least one of the left region and the right region, and no central rectangular frame exists on the lower side (proximal side) in the vertical coordinate of the image,
Regarding the two or more rectangular frames, in order from the rectangular frame with the lowest (closest) vertical coordinate,
The vehicle cut-in prediction system according to claim 1 , configured to calculate the overlapping degree, the distance difference rate, and the influence degree.
前記重合度と前記距離差率と前記影響度とがそれぞれの閾値以上である場合に、当該矩形枠に対応する車両による割り込み可能性ありと判定する、請求項1または2に記載の車両の割り込み予測システム。The vehicle cut-in prediction system of claim 1 or 2, which determines that there is a possibility of a vehicle corresponding to the rectangular frame cutting in if the degree of overlap, the distance difference rate, and the degree of influence are equal to or greater than their respective thresholds. 前記画像処理ユニットによる中央矩形枠、左側矩形枠、右側矩形枠の前記分類は、前記画像上の自車両の幅方向中心座標が、下辺の幅方向座標に含まれる矩形枠を中央矩形枠として抽出し、下辺の幅方向座標が前記自車両中心線に対し左側にある矩形枠を左側矩形枠、右側にある矩形枠を右側矩形枠として分類する処理を含む、請求項2または3に記載の車両の割り込み予測システム。The vehicle interruption prediction system of claim 2 or 3, wherein the classification by the image processing unit into central, left, and right rectangular frames includes processing for extracting a rectangular frame whose center coordinate in the width direction of the vehicle on the image is included in the width direction coordinate of its lower side as the central rectangular frame, and classifying a rectangular frame whose lower side's width direction coordinate is on the left side of the vehicle's center line as the left rectangular frame, and a rectangular frame whose lower side's width direction coordinate is on the right side as the right rectangular frame. 前記画像処理ユニットは、衛星測位システムと地図情報のマッチング、前記画像での道路区分線認識、操舵角、ヨーレート、の少なくとも1つに基づいて、道路の曲率半径を推定し、前記曲率半径に基づいて前記画像上での前記自車両中心線を補正する処理を含んで実行するように構成されている、請求項4に記載の車両の割り込み予測システム。The vehicle cut-in prediction system of claim 4, wherein the image processing unit is configured to estimate the radius of curvature of the road based on at least one of matching between a satellite positioning system and map information, recognition of road dividing lines in the image, steering angle, and yaw rate, and to execute processing that includes correcting the center line of the vehicle on the image based on the radius of curvature. 前記画像処理ユニットは、道路勾配に基づいて前記自車両中心線を補正する処理を含んで実行するように構成されている、請求項5に記載の車両の割り込み予測システム。The vehicle interruption prediction system of claim 5, wherein the image processing unit is configured to execute processing including correction of the vehicle center line based on road gradient. 前記画像処理ユニットにより、前記左側または右側の矩形枠に対応する車両による割り込み可能性ありと判定され、かつ、車速が中車速以上である場合に乗員に報知するように構成されている、請求項1~6の何れか一項に記載の車両の割り込み予測システム。The vehicle cut-in prediction system of any one of claims 1 to 6, wherein the image processing unit is configured to notify an occupant when it determines that a vehicle corresponding to the left or right rectangular frame is likely to cut in and the vehicle speed is medium speed or higher. 前記重合度または前記距離差率が閾値以上でありかつ前記影響度が閾値以上である場合に、当該矩形枠に対応する車両による割り込み可能性ありと判定する、請求項1または2に記載の車両の割り込み予測システム。The vehicle cut-in prediction system of claim 1 or 2, which determines that there is a possibility of a vehicle corresponding to the rectangular frame cutting in if the degree of overlap or the distance difference rate is equal to or greater than a threshold and the degree of influence is equal to or greater than a threshold. 前記画像処理ユニットは、前記処理を時系列で実行し、前記割り込み可能性ありと判定された状態が所定時間持続した場合に、乗員に報知するように構成されている、請求項1~8の何れか一項に記載の車両の割り込み予測システム。The vehicle cut-in prediction system described in any one of claims 1 to 8, wherein the image processing unit is configured to execute the processing in chronological order and to notify an occupant if the state in which it is determined that there is a possibility of cutting in continues for a predetermined period of time.
JP2022005801A2022-01-182022-01-18 Vehicle interruption prediction systemActiveJP7716655B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2022005801AJP7716655B2 (en)2022-01-182022-01-18 Vehicle interruption prediction system

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2022005801AJP7716655B2 (en)2022-01-182022-01-18 Vehicle interruption prediction system

Publications (2)

Publication NumberPublication Date
JP2023104666A JP2023104666A (en)2023-07-28
JP7716655B2true JP7716655B2 (en)2025-08-01

Family

ID=87379587

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2022005801AActiveJP7716655B2 (en)2022-01-182022-01-18 Vehicle interruption prediction system

Country Status (1)

CountryLink
JP (1)JP7716655B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2000242900A (en)1999-02-242000-09-08Mitsubishi Motors Corp Interruption vehicle detection device
US20210192955A1 (en)2019-12-202021-06-24Mando CorporationVehicle and control method thereof
JP2021166038A (en)2020-04-012021-10-14株式会社デンソーPresentation control device and presentation control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2000242900A (en)1999-02-242000-09-08Mitsubishi Motors Corp Interruption vehicle detection device
US20210192955A1 (en)2019-12-202021-06-24Mando CorporationVehicle and control method thereof
JP2021166038A (en)2020-04-012021-10-14株式会社デンソーPresentation control device and presentation control program

Also Published As

Publication numberPublication date
JP2023104666A (en)2023-07-28

Similar Documents

PublicationPublication DateTitle
US11987239B2 (en)Driving assistance device
JP4420011B2 (en) Object detection device
JP5022609B2 (en) Imaging environment recognition device
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP5363921B2 (en) Vehicle white line recognition device
EP2928178B1 (en)On-board control device
US20120185167A1 (en)Road Shape Recognition Device
JP4832489B2 (en) Lane judgment device
WO2015125590A1 (en)External-environment recognition system, vehicle, and camera-dirtiness detection method
JP7662019B2 (en) In-vehicle display device, method and program
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
US20240383479A1 (en)Vehicular sensing system with lateral threat assessment
CN114093023A (en)Moving body obstruction detection device, system, method, and storage medium
JP2004310522A (en) Image processing device for vehicles
US12216470B2 (en)Vehicle control system and vehicle driving method using the vehicle control system
JP2010262437A (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP2004302621A (en)Vehicle collision preventing device
US7057502B2 (en)Vehicle drive assist apparatus
JP7716655B2 (en) Vehicle interruption prediction system
US20230150533A1 (en)Vehicle control system and vehicle driving method using the vehicle control system
US11816903B2 (en)Method for determining a type of parking space
US12125295B2 (en)Road surface marking detection device, notification system provided with the same, and road surface marking detection method
US12430925B2 (en)Vehicle control system and vehicle driving method using the vehicle control system
JP6082293B2 (en) Vehicle white line recognition device
US20240416903A1 (en)Driving assistance apparatus

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20241112

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20250620

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20250625

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20250703

R150Certificate of patent or registration of utility model

Ref document number:7716655

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp