【発明の詳細な説明】抜4九」本発明は、走行路を探索しながら車両の自動走行を行わ
せる自動走行装置に関する。DETAILED DESCRIPTION OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic driving device that allows a vehicle to automatically travel while searching for a driving route.
丈末艮生最近、自ら走行路を探索しながら、その走行路上に最適
な目標経路を設定して、車両がその目標経路上を走行す
るべく車両の走行制御を行わせるようにした自動走行装
置が開発されている。Aio TakesueRecently, an automatic driving device has been developed that searches its own driving route, sets an optimal target route on that route, and controls the vehicle so that the vehicle travels on that target route. is being developed.
従来、この種の自動走行装置にあっては、車両に取り付
けられた撮像装置により車両の進行方向の領域を撮像し
、その撮像された画像をデータ処理することによって道
路エツジなどの連続した線分の抽出を行い、その抽出さ
れた線分にもとづいて車両の進行方向における走行可能
領域を認識し、その認識された走行可能領域内に車両走
行の目標経路を設定したうえで、現在検出されている車
両の走行状態にもとづき、X−Y座標面に設定された目
標経路上に適宜設定された目標点にX−Y座標上の原点
位置にある車両を合流させるのに必要な舵角の制御目標
量を所定の演算処理によって予測的に求め、その求めら
れた舵角の制御目標量にしたがって目標経路に追従させ
るような車両の走行制御を行わせるようにしている(特
願昭63−199610号参照)。Conventionally, in this type of automatic driving device, an imaging device attached to the vehicle captures an area in the direction of travel of the vehicle, and data processing of the captured image allows continuous line segments such as road edges to be detected. Based on the extracted line segments, the travelable area in the direction of travel of the vehicle is recognized, and the target route for the vehicle is set within the recognized travelable area. Control of the steering angle necessary to bring the vehicle located at the origin position on the X-Y coordinate to a target point appropriately set on the target route set on the X-Y coordinate plane, based on the driving state of the vehicle located on the X-Y coordinate plane. The target amount is predictively determined by a predetermined calculation process, and the vehicle is controlled to follow the target route in accordance with the determined steering angle control target amount. (see issue).
しかしこのような従来の自動走行装置では、車両を目標
経路に追従して走行させるのに必要な舵角の制御目標量
を予測的な演算によって求めるようにしているので、そ
の予測要因によって目標経路に対する追従性が低下する
ことが否めないものになっている。However, in such conventional automatic driving devices, the target steering angle control amount necessary for driving the vehicle to follow the target route is determined by predictive calculation, so the target route is determined based on the predictive factors. It is undeniable that the follow-up performance will deteriorate.
l煎本発明は、目標経路に追従するための車両の走行制御を
行わせる際、何ら予測要因が含まれることがないような
車両の操舵をなして、車両の走行を目標経路に精度良く
追従させるようにした自動走行装置を提供するものであ
る。The present invention is capable of steering the vehicle in such a way that no predictive factors are included when controlling the vehicle to follow the target route, so that the vehicle can accurately follow the target route. The present invention provides an automatic traveling device that allows the vehicle to move.
10文本発明は、その目的達成のため、特に、目標経路に対す
る車両の位置偏差、目標経路の方向と車両の進行方向と
の角度偏差などの状態量を検出して、その検出された状
態量を零に収束させるべく。In order to achieve the object, the present invention detects state quantities such as the positional deviation of the vehicle with respect to a target route and the angular deviation between the direction of the target route and the traveling direction of the vehicle, and uses the detected state quantities. To converge to zero.
車両の舵角を制御対象として、フィードバック制御を行
わせるようにしている。Feedback control is performed using the steering angle of the vehicle as a control target.
その際、本発明では、フィードバック制御の一手法とし
て最適レギュレータを適用したことを特徴としている。In this case, the present invention is characterized in that an optimal regulator is applied as a method of feedback control.
以下、添付図面を参照して本発明の一実施例について詳
述する。Hereinafter, one embodiment of the present invention will be described in detail with reference to the accompanying drawings.
本発明による自動走行装置にあっては、第1図に示すよ
うに、車両の進行方向の領域を撮像することができるよ
うに車両に取り付けられたビデオカメラなどによる撮像
部1と、その撮像部1によって撮像された画像をデータ
処理して道路エツジなどの連続した線分の抽出を行う画
像処理部2と、その抽出された連続した線分にしたがっ
て道路などの車両の走行可能領域を認識する走行可能領
域!!!識部3と、その認識された走行可能領域内に車
両走行の目標経路を設定する目標経路設定部4と、車両
の走行速度Vを検出する車速センサ6と、車両の走行に
ともなうヨ一方向の角速度変化分であるヨーレートTを
検出するヨーレートセンサ7と、車両の操舵による舵角
δを検出する舵角センサ8と、それら各センサ出力に応
じて現在の車両の走行状態を検知しながら、目標経路に
追従して車両を走行させるための操舵の制御を最適レギ
ュレータを用いて行わせる制御部5と、その制御部5か
ら出される操舵の制御指令に応じて車両の操舵を行わせ
るステアリング制御部9およびステアリング駆動部IO
とによって構成されている。As shown in FIG. 1, the automatic traveling device according to the present invention includes an imaging unit 1 including a video camera or the like attached to the vehicle so as to be able to image an area in the direction of movement of the vehicle; an image processing unit 2 that processes the image captured by the image processing unit 1 to extract continuous line segments such as road edges; and recognizes a driveable area such as a road according to the extracted continuous line segments. Drivable area! ! ! a target route setting unit 4 that sets a target route for the vehicle to travel within the recognized travelable area; a vehicle speed sensor 6 that detects the vehicle travel speed V; A yaw rate sensor 7 detects the yaw rate T, which is the change in angular velocity of the vehicle, and a steering angle sensor 8 detects the steering angle δ caused by steering the vehicle. A control unit 5 that uses an optimal regulator to perform steering control for driving the vehicle while following a target route, and a steering control that performs steering of the vehicle in accordance with a steering control command issued from the control unit 5. section 9 and steering drive section IO
It is composed of.
実際には1画像処理部2.走行可能領域認識部3、目標
経路設定部4および制御部5はマイクロコンピュータに
よって置き換えられる。また、そのコンピュータにステ
アリング制御部9をも含めることが可能である。Actually, 1 image processing section 2. The travelable area recognition section 3, target route setting section 4, and control section 5 are replaced by a microcomputer. It is also possible to include the steering control section 9 in the computer.
撮像部1におけるビデオカメラとしては、S準しンズに
よるもの以外に、車速や走行中の道路状況などに応じた
適切な画像が得られるように望遠レンズや広角レンズに
よるものが設けられ、また夜間用などに赤外線カメラや
超高感度カメラなどの特殊なビデオカメラが複数設けら
れており、コンピュータの制御下において、それら複数
のビデオカメラが車速や撮像画像の状態などに応じて適
宜切り換えられて使用されるようになっている。The video camera in the imaging unit 1 is equipped with a telephoto lens or a wide-angle lens in addition to an S-semi-lens camera to obtain an appropriate image depending on the vehicle speed and road conditions. Multiple special video cameras such as infrared cameras and ultra-high sensitivity cameras are installed for various purposes such as infrared cameras and ultra-high-sensitivity cameras, and under computer control, these multiple video cameras are switched as appropriate depending on the vehicle speed, the state of the captured image, etc. It is now possible to do so.
また、撮像特性が同一の2台のビデオカメラを並設して
、2眼立体視による画像を得るようにすることも可能で
ある。Furthermore, it is also possible to arrange two video cameras with the same imaging characteristics in parallel to obtain binocular stereoscopic images.
画像処理部2における道路エツジなどの連続した線分の
抽出は、以下のようにして行われる。Extraction of continuous line segments such as road edges in the image processing section 2 is performed as follows.
まず、撮像部1から送られてくる撮像画像をサンプリン
グして、そのサンプリングされた入力画像を微分処理す
ることによって画像エツジの検出の処理を行わせたうえ
で5画像処理部2内に設けられた自動しきい値設定回路
により、そのときの入力画像の濃淡の程度に応じた最適
しきい値を自動的に設定して、そのエツジ画像の2値化
を行わせる。First, a captured image sent from the imaging unit 1 is sampled, and the sampled input image is subjected to differential processing to detect image edges. The automatic threshold setting circuit automatically sets the optimal threshold according to the degree of shading of the input image at that time, and binarizes the edge image.
なおその際、入力画像の2値化を先に行わせたうえで、
エツジ検出のための微分処理を行わせるようにしてもよ
い。また、2値化を行わせる代わりに、画像の濃淡を表
現した多値化を行わせるようにしてもよい。In this case, the input image must be binarized first, and then
Differential processing may be performed for edge detection. Further, instead of performing binarization, multi-value conversion that expresses the shading of the image may be performed.
次いで、そのエツジ検出され、2値化または多値化され
た処理画像にもとづいて、X−Y座標上の線分をρ−θ
座標上の点であられす座標変換を行わせる公知手法であ
るl(ough変換処理を行わせることにより、連続性
のある点列を結合したり、連続性のない孤立した点を除
去したりして、例えば第2図に示すような道路エツジの
連続した線分の情報を得る。Next, based on the edge-detected, binarized or multivalued processed image, the line segment on the X-Y coordinates is expressed as ρ-θ.
This is a well-known method that performs coordinate transformation on points on the coordinates. For example, information on continuous line segments of road edges as shown in FIG. 2 is obtained.
ここで、θはX−Y座標上の直線からその座標の原点に
おろした垂線の角度であり、またρはその垂線の長さで
ある。例えば、第10図に示すX−Y座標上の線分りは
、第11図に示すようにρ−θ座標上における点01と
してあられされる。Here, θ is the angle of a perpendicular drawn from a straight line on the XY coordinate to the origin of the coordinate, and ρ is the length of the perpendicular. For example, a line segment on the X-Y coordinate shown in FIG. 10 appears as point 01 on the ρ-θ coordinate as shown in FIG.
なおその際、2値化された処理画像にもとづいて、エツ
ジ追跡の処理を行わせて連続性をもった画像のエツジ部
分をわり出すようにしてもよい。At this time, edge tracking processing may be performed based on the binarized processed image to find edge portions of the image that have continuity.
また1画像エツジの連続性を求めるためのHough変
換処理およびエツジ追跡処理などの複数の処理を並列的
に行わせ、それら各処理結果から総合的に判断するよう
にすれば、より精度の高い道路エツジの情報を求めるこ
とができるようになる。さらに、車両の走行にともなっ
て入力画像の領域成長を行いながら前述の連続性ある画
像エツジの抽出のための処理を行えば、より精度の高い
道路エツジの情報の抽出を行うことができるようになる
。In addition, if multiple processes such as Hough conversion processing and edge tracking processing to determine the continuity of edges in one image are performed in parallel, and a comprehensive judgment is made from the results of each process, more accurate road You will be able to request information about Etsuji. Furthermore, if the above-mentioned process for extracting continuous image edges is performed while growing the region of the input image as the vehicle travels, it is possible to extract road edge information with higher accuracy. Become.
走行可能領域認識部3は、撮像部1におけるビデオカメ
ラによって撮像される画像が遠近投影によるものである
ため、第2図に示すような遠近投影による道路エツジの
画像を第3図に示す、ような遠近投影の影響をなくした
道路エツジの画像に変換する公知手法である射影変換処
理を行う。Since the image captured by the video camera in the imaging unit 1 is based on perspective projection, the driveable area recognition unit 3 converts the image of the road edge based on perspective projection as shown in FIG. Projective transformation processing, which is a known method, is performed to transform the road edge image into an image that eliminates the effects of perspective projection.
なお、その射影変換特性は、ビデオカメラの遠近投影の
特性にしたがって、予め走行可能領域認識部3に設定さ
れている。Note that the projective transformation characteristics are set in advance in the drivable area recognition unit 3 according to the perspective projection characteristics of the video camera.
そして、走行可能領域認識部3は、射影変換処理された
道路エツジの画像にもとづいて、例えば第4図に示すよ
うに、連続した道路エツジEl。Then, the driveable area recognition unit 3 identifies continuous road edges El as shown in FIG.
E2間を、撮像部1の撮像方向すなわち車両11の進行
方向をY軸方向としたときのX−Y座標上における車両
の走行可能領域RAとして認識する。The area between E2 is recognized as the drivable area RA of the vehicle on the X-Y coordinates when the imaging direction of the imaging unit 1, that is, the traveling direction of the vehicle 11 is set as the Y-axis direction.
なお、第4図において、P点は車両11の現在位置を示
すもので、撮像部1のビデオカメラによる撮像領域の下
端中央がP点としてX−Y座標上の原点の位置にくるよ
うに、予めビデオカメラの車両に対する搭載位置が設定
されている。In FIG. 4, point P indicates the current position of the vehicle 11, and the center of the lower end of the imaging area by the video camera of the imaging unit 1 is located at the origin on the X-Y coordinates as point P. The mounting position of the video camera on the vehicle is set in advance.
次に、走行可能領域認識部3において認識された走行可
能領域である車両前方の道路が認識されると、目標経路
設定部4において、その認識された道路上における車両
の最適な走行経路となる目標経路が以下のようにして設
定される。Next, when the road in front of the vehicle that is the recognized drivable area is recognized by the drivable area recognition unit 3, the target route setting unit 4 determines the optimum driving route for the vehicle on the recognized road. A target route is set as follows.
その目標経路は、後述するように、道路形状および車速
をも考慮したうえで、そのときの車両の走行状況に適す
るように設定されるのが望ましいが、基本的には、認識
された道路が狭いかまたは広いかによって以下のように
して一律に設定される。As will be explained later, it is desirable to set the target route in a way that is suitable for the vehicle's current driving conditions, taking into consideration the road shape and vehicle speed. It is uniformly set as follows depending on whether it is narrow or wide.
すなわち、目標経路設定部4において、道路幅が一定以
上の広軌道であると判断された場合には、例えば第4図
に示すように、左側通行路の場合、道路の左側の基準と
なるエツジから例えば1.5m程度の所定の隔離幅Wを
もってその基準エツジに沿う目標経路OC′It設定す
る。That is, when the target route setting unit 4 determines that the road is a wide track with a width of a certain level or more, for example, as shown in FIG. A target path OC'It is set along the reference edge with a predetermined separation width W of, for example, about 1.5 m.
また、目標経路設定部4において、道路幅が一定未満の
狭軌道であると判断された場合には、特に図示しないが
、その道路の中央に目標経路を設定する。Furthermore, if the target route setting unit 4 determines that the road is a narrow track with a width less than a certain level, the target route is set at the center of the road, although not particularly shown.
そしてその設定された目標経路のX−Y座標上における
位置のデータが、目標経路設定部4の内部メモリに記憶
される。Then, data on the position of the set target route on the X-Y coordinates is stored in the internal memory of the target route setting unit 4.
なお、X−Y座標上における走行可能領域および目標経
路の尺度は、撮像部1におけるビデオカメラの倍率によ
って決定される。Note that the scale of the travelable area and the target route on the XY coordinates is determined by the magnification of the video camera in the imaging section 1.
第4図中、P点から0点に至るまでの軌跡は。In Figure 4, the trajectory from point P to point 0 is.
後述するように、制御部5の制御下において車両の操舵
制御がなされることにより、P点にいる車両が目標経路
○Cに合流するまでの走行経路を示している。0点は、
そのときの車両の目標経路OCへの合流位置となる。As will be described later, the vehicle is steered under the control of the control unit 5, thereby showing a travel route taken by the vehicle at point P until it merges with the target route ○C. 0 points are
This is the merging position of the vehicle to the target route OC at that time.
また本発明では、車両の走行状態を検出して。Further, in the present invention, the running state of the vehicle is detected.
その検出された走行状態にしたがい、以下のように道路
における最適な車両の目標経路を設定するようにするこ
とも可能である。According to the detected driving state, it is also possible to set an optimal target route for the vehicle on the road as follows.
すなわち、目標経路設定部4において、例えば。That is, in the target route setting section 4, for example.
車速センサ6によって検出される車両の走行速度を読み
込んで、そのときの車速が予め設定されたしきい値以下
の低速域内にあ九ば、第5図(a)に示すように、道路
の形状に沿うように目標経路OCを設定する。The vehicle speed detected by the vehicle speed sensor 6 is read, and if the vehicle speed at that time is within the low speed range below a preset threshold, the road shape is determined as shown in FIG. 5(a). Set the target route OC to follow.
同様に、そのときの車速か予め設定されたしきい値を越
える高速域内にあれば、第5図(b)に示すように1曲
りくねった道路を走行する場合。Similarly, if the vehicle speed at that time is within a high speed range exceeding a preset threshold value, the vehicle is traveling on a winding road as shown in FIG. 5(b).
車両に作用する横方向の加速度ができるだけ軽減さ九る
ような緩い曲率をもった目標経路OCを道路内に設定す
る。A target route OC having a gentle curvature so that the lateral acceleration acting on the vehicle is reduced as much as possible is set within the road.
次に、道路上における目標経路が設定されたら。Next, once the target route on the road is set.
制御部5において、その目標経路に追従して車両を走行
させるための操舵の制御が実行される。The control unit 5 executes steering control for driving the vehicle to follow the target route.
その際1本発明では、第6Wiに示すように、車両11
の現在位置の目標経路OCに対するX軸上の位置偏差X
errおよびまたは目標経路QCの方向と車両の進行
方向との角度偏差e errを検出して、その両方また
はその何れか一方を零に収束させるような操舵を行わせ
るようにしている。In this case, in one aspect of the present invention, as shown in No. 6 Wi, the vehicle 11
Positional deviation X on the X axis of the current position of the target path OC
err and/or the angular deviation e err between the direction of the target route QC and the traveling direction of the vehicle, and steering is performed to converge either or both of them to zero.
具体的には、フィードバック制御理論の一つである公知
の最適レギュレータを利用して9位置偏差X errお
よびまたは角度偏差θerrを状態量とし、舵角δを制
御量として、その位置偏差X errおよび角度偏差θ
errを零に収束させるように車両の舵角を制御する。Specifically, using a known optimal regulator, which is one of the feedback control theories, the position deviation Angular deviation θ
The steering angle of the vehicle is controlled so that err converges to zero.
第7図に、最適レギュレータによる制御系の構成例を示
している。FIG. 7 shows an example of the configuration of a control system using an optimal regulator.
同図において、11は制御対象となる車両を示している
。また、12は積分要素、に、〜に4は状態フィードバ
ックゲイン、Tはヨーレート、■は車速、βは横すベリ
角である。In the figure, 11 indicates a vehicle to be controlled. Further, 12 is an integral element, 4 is a state feedback gain, T is a yaw rate, ■ is a vehicle speed, and β is a lateral angle.
ここでは、車両11の検出されたヨーレートTを積分要
素12によって積分することによって車両11の進行方
向の角度θをわり出し、また目標経路○CのX−Y座標
上のデータからその目標経路OCの方向の角度e re
fを得て、その角度偏差(9errを求めるようにして
いる。Here, the angle θ of the traveling direction of the vehicle 11 is calculated by integrating the detected yaw rate T of the vehicle 11 using the integral element 12, and the target route OC is calculated from the data on the X-Y coordinates of the target route ○C. Angle e re in the direction of
f is obtained, and its angular deviation (9err) is determined.
そして、ここでは、車両11の進行方向の角度θと車速
VとからX−Y座標上における現在の車両位置(Xn、
Yn)をわり出して、その車両位置のYn値に対応し
た目標経路OC上の点(Xref。Here, the current vehicle position (Xn,
Yn), and then calculate the point (Xref) on the target route OC corresponding to the Yn value at the vehicle position.
Yn)を求めて、Xn値とX ref値との偏差X e
rrを求めるようにしている。Find the deviation X e between the Xn value and the X ref value.
I am trying to find rr.
また、ここでは、車両11の実際の走行状態に即した制
御を行わせることができるように、フィードバックの状
態量として、ヨーレートTおよび横すベリ角β(または
その何れか一方)をも加味するようにしている。In addition, here, in order to perform control in accordance with the actual running state of the vehicle 11, the yaw rate T and the lateral angle β (or one of them) are also taken into consideration as feedback state quantities. That's what I do.
なお、車両11の横すべり角βは、公知のように、車両
11における車体重量1前後タイヤの各コーナリングホ
ース、ホイールベースなどの車体特性にしたがい、車両
11の車速Vおよび舵角δに応じて、所定の演算によっ
て求められるものである。As is well known, the sideslip angle β of the vehicle 11 is determined according to the vehicle body characteristics such as the cornering hoses of the front and rear tires of the vehicle 11, the wheel base, and the vehicle speed V and steering angle δ of the vehicle 11. It is determined by a predetermined calculation.
実際には1種々の車速Vおよび舵角δに応じた横すべり
角βの値を予め算出してメモリテーブルに格納しておき
、制御部5において、車速センサ6によって検出された
車速Vおよび舵角センサ8によって検出された舵角δに
応じて、そのメモリテーブルから所定の横すべり角βの
値を読み出すようにする。In practice, the values of the sideslip angle β corresponding to various vehicle speeds V and steering angles δ are calculated in advance and stored in a memory table, and the control unit 5 calculates the values of the sideslip angle β according to various vehicle speeds V and steering angles δ, and then controls the controller 5 to calculate the values of the sideslip angle β corresponding to various vehicle speeds V and steering angles δ. According to the steering angle δ detected by the sensor 8, a predetermined value of the sideslip angle β is read from the memory table.
各状態フィードバックゲインに、〜に4は、以下のよう
にして決定される。For each state feedback gain, ~4 is determined as follows.
本発明では、最適レギュレータの適用に際して、例えば
、評価関数J (u)を次式に示すように設定し、θe
rr、 Xerr、δを重要視する度合を変えながら、
そのJ (u)の値を最小にするような各重み係数’l
I+ q2prを求めて、最適な各状態フィードバック
ゲインに、−に4を決定するようにしている。In the present invention, when applying the optimal regulator, for example, the evaluation function J (u) is set as shown in the following equation, and θe
While changing the degree of emphasis on rr, Xerr, and δ,
Each weighting coefficient 'l that minimizes the value of J (u)
I + q2pr is determined, and -4 is determined as the optimum feedback gain for each state.
J (u)=5−、Cθerr” (I+ +Xe
rr” q2 + δ” i)di(1)ここで、qlは角度偏差θerrの重み係数sq2は位
置偏差X errの重み係数、rは舵角δの重み係数で
ある。J (u)=5−, Cθerr” (I+ +Xe
rr'' q2 + δ'' i) di (1) Here, ql is a weighting coefficient of the angular deviation θerr, sq2 is a weighting coefficient of the positional deviation Xerr, and r is a weighting coefficient of the steering angle δ.
最終的に、ステアリング制御部9は、制御部5から与え
られる舵角δの制御指令に応じて、ステアリング駆動部
10を介して車両11のステアリングの駆動を適宜なさ
しめて、車両11を目標経路OCに追従して走行させる
ような操舵を行わせる。Finally, the steering control section 9 appropriately drives the steering of the vehicle 11 via the steering drive section 10 in accordance with the control command for the steering angle δ given from the control section 5, so as to move the vehicle 11 along the target path OC. The vehicle is steered so that the vehicle follows the vehicle.
以上の処理が、予めその処理に要する時間を見込んだ所
定の制御周期をもってくり返し行われ、それにより車W
J11の走行が進むにしたがって、目標経路OCに追従
する車両の走行制御が継続的に行われていく。The above processing is repeated at a predetermined control cycle that takes into account the time required for the processing, and as a result, the vehicle W
As the travel of J11 progresses, travel control of the vehicle following the target route OC is continuously performed.
なお、以下に1本発明に適用される最適レギュレータの
概要について詳細する。Note that an outline of an optimal regulator applied to the present invention will be described in detail below.
一般に、第7図に示すような制御系が線形となるように
構成されたシステムにあっては、制御対象の入力ベクト
ルU(入力量)、状態ベクトル電(状態量)、出力ベク
トルy (ffi力量)の関係が、下記式(2)で示す
状態方程式および下記式(3)で示す出力方程式であら
れされる。Generally, in a system configured so that the control system is linear as shown in FIG. The relationship between the following equation (2) and the output equation (3) are expressed by the state equation shown in equation (2) below and the output equation shown in equation (3) below.
dx/d t=Ax+Bu −(2)y =C
x (3)ここで、Aはシ
ステム行列、Bは入力行列、Cは出力行列である。dx/dt=Ax+Bu-(2)y=C
x (3) where A is the system matrix, B is the input matrix, and C is the output matrix.
いま、入力ベクトルUとして、状態ベクトル電に対し、
Kなるフィードバック行列を乗じたもので置き換えた第
8図に示すような閉ループによるフィードバック制御系
を考える。Now, as the input vector U, for the state vector electric,
Consider a closed-loop feedback control system as shown in FIG. 8 in which the feedback matrix is replaced by a feedback matrix K.
ここで、評価関数を考えたとき、そのJ (u)の値を最小にするフィー
ドバック行列Kが存在し、そのKの値が次式によって与
えられる。When considering the evaluation function, there is a feedback matrix K that minimizes the value of J (u), and the value of K is given by the following equation.
K:R−IBTP ・・・(5)Q、Rは
Yellの重みを示す止定対称行列である。K:R-IBTP (5) Q and R are fixed symmetric matrices indicating the weight of Yellow.
PはRiccati方程式%式%の唯一の正定対称行列解である。P is Riccati equation%formula%is the only positive definite symmetric matrix solution of .
y” 、 u” 、 AT、 B” 、 C” 4tツ
レ(し転置行列を示している。y", u", AT, B", C" 4t tsure (shows the transposed matrix.
V”QVp @J” Ruは2次形式と呼び、スカラー
になる。V”QVp @J” Ru is called a quadratic form and becomes a scalar.
しかして、評価関数J (u)が決まれば、それを最小
にするフィードバック行列Kを求めることができる。Once the evaluation function J (u) is determined, the feedback matrix K that minimizes it can be found.
なお、評価関数J (u)における重み行列Q、 Rの
値はそれが一般にシュミレーションによって決められて
いる。Note that the values of the weight matrices Q and R in the evaluation function J (u) are generally determined by simulation.
いま、第9図に示すように、車両11における4軸Tl
l〜T14の運動を2軸TL、T2の運動に近似したモ
デルにあって、前述の状態方程式と出力方程式とを作成
してみる。Now, as shown in FIG. 9, the four axes Tl in the vehicle 11
The above-mentioned state equation and output equation will be created using a model in which the motion of l to T14 is approximated to the motion of two axes TL and T2.
同図において、Cfは前輪コーナリングホース[N]、
Crは後輪コーナリングホース[Nコ。In the same figure, Cf is the front wheel cornering hose [N],
Cr is the rear wheel cornering hose [Nco.
Qfは前輪−重心点0間の距離[ml、Qrは後輪−重
心点0間の距離[m ]である。Qf is the distance [ml] between the front wheel and the center of gravity 0, and Qr is the distance [m] between the rear wheel and the center of gravity 0.
ここで、車両重量をM[kg]、ヨ一方向の慣性モーメ
ントをI [k g 、 m/sec” ] 、前軸コ
ーナリングパワーをP f [N/radl 、後輪コ
ーナリングパワーをP r [N/rad]とすると、
車体の運動方程式は1次式によって与えられる。Here, the vehicle weight is M [kg], the moment of inertia in one direction is I [kg, m/sec''], the front axle cornering power is P f [N/radl, and the rear wheel cornering power is P r [N]. /rad], then
The equation of motion of the vehicle body is given by a linear equation.
mv−dβ/dt+2(Pf +Pr )・β+ (m
v+ (2/v)(Qf−Pf−Qr−Pr))T=2
Pf・δ ・・・(6)2(QIPf
−Qr−Pr )β + I−dT/dt+2T((I
f2 ・Pf −Qr” ・Pr)/v=2Qf−P
f・δ ・・・ (7)いま、d Xerr/ d t = v ・(eerr+β)
−(8)とし、システム状態量をx=[r、 β X err θerr
コ1とすると、状態方程式は次式のようになる。mv-dβ/dt+2(Pf+Pr)・β+(m
v+ (2/v)(Qf-Pf-Qr-Pr))T=2
Pf・δ...(6)2(QIPf
-Qr-Pr )β + I-dT/dt+2T((I
f2 ・Pf −Qr” ・Pr)/v=2Qf−P
f・δ... (7) Now, d Xerr/ d t = v ・(eerr+β)
−(8), and the system state quantity is x=[r, β X err θerr
Assuming that 1, the state equation becomes as follows.
・・・ (9)また、出力方程式は次式のようになる。... (9)Also, the output equation is as follows.
ここで。here.
a=−(Pflllf’ +Pr−Qr2 )/v
rb = (Pf−Qf−Pr−Qr)/ Ic
= 1 + (Pf−Qf−Pr−Qr)/ Id=
−(Pf +Pr)/vMe =Pf−Qf/ If =Pf/vMである。a=-(Pflllf'+Pr-Qr2)/v
rb = (Pf-Qf-Pr-Qr)/Ic
= 1 + (Pf-Qf-Pr-Qr)/Id=
-(Pf + Pr)/vMe = Pf - Qf/ If = Pf/vM.
このような状態方程式および出力方程式に関して、前記
(1)式に示す評価関数J (u)を用いて、状態フィ
ードバックゲイン行列には、以下のように求められる。Regarding such a state equation and an output equation, the state feedback gain matrix is obtained as follows using the evaluation function J (u) shown in equation (1) above.
■評価関数J (u)の重み係数[q+ r q2 p
rコを仮に決める。■Weighting coefficient of evaluation function J (u) [q+ r q2 p
Temporarily decide r.
■Riccati方程式を満たす半正定対称行Pを求め
る。(2) Find a semi-positive definite symmetric row P that satisfies the Riccati equation.
■前記(5)式にしたがって、最適な状態フィードバッ
クゲイン行列に=R−’BPを求める。(2) Find the optimal state feedback gain matrix =R-'BP according to equation (5) above.
■その求められた状態フィードバックゲイン行列Kを用
いて、制御系の目標値への応答をシュミレートする。(2) Using the obtained state feedback gain matrix K, simulate the response of the control system to the target value.
■その応答が最適になるように1重み係数[q++q2
+r]を変えながら、■〜■のステップをくり返す。■1 weighting factor [q++q2
+r], repeat steps ■~■.
以上のようにして、第7図に示した制御系における最適
な状態フィードバックゲインに1〜に4が求められる。As described above, the optimum state feedback gain in the control system shown in FIG. 7 is determined to be 1 to 4.
然果以上1本発明による自動走行装置にあっては。natural fruitAbove is the first aspect of the automatic traveling device according to the present invention.
車両に取り付けられた撮像装置により車両の進行方向に
おける走行可能領域を探索しながら、その探索された走
行可能領域内に目標経路を設定して、その目標経路に追
従させるための車両の走行制御を行わせる際、特に、目
標経路に対する車両の位置偏差、目標経路の方向と車両
の進行方向との角度偏差などの状態量を検出して、その
検出された状態量を零に収束させるべく、車両の舵角を
制御対象として最適レギュレータによるフィードバック
制御を行わせるようにしたもので、車両の走行を目標経
路に精度良く追従させることができるという優れた利点
を有している。While searching for a drivable area in the direction of travel of the vehicle using an imaging device attached to the vehicle, a target route is set within the searched drivable area, and the vehicle is controlled to follow the target route. When performing this, in particular, state quantities such as the positional deviation of the vehicle with respect to the target route and the angular deviation between the direction of the target route and the direction of travel of the vehicle are detected, and the vehicle is adjusted so that the detected state quantities converge to zero. This system is designed to perform feedback control using an optimum regulator using the steering angle of the vehicle as a control target, and has the excellent advantage of being able to make the vehicle travel accurately follow the target route.
その際、本発明では、従来のような予測要因が何ら含ま
れることなく、目標経路に対する車両の実際の走行状態
にもとづいて車両の走行を目標経路に追従させるための
舵角を決定するようにしているので、従来のように予測
要因によって目標経路から外れるようなことなく、常に
正確にその目標経路に追従して、車両走行を安定して行
わせることができるようになる。At this time, in the present invention, the steering angle for causing the vehicle to follow the target route is determined based on the actual traveling state of the vehicle with respect to the target route, without including any predictive factors as in the past. Therefore, unlike in the past, the vehicle does not deviate from the target route due to predictive factors, but can always accurately follow the target route and drive the vehicle stably.
第1図は本発明による自動走行装置の一実施例を示すブ
ロック構成図、第2図はビデオカメラによって撮像され
た画像のデータ処理を行うことによって得られた道路の
線分を示す図、第3図は第2図の画像を射影変換するこ
とによって得られた画像を示す図、第4図は認識された
道路エツジ間の走行可能領域に設定された目標経路の一
例を示す図、第5図(a)、(b)は車両の低速時およ
び高速時に道路上に設定される目標経路をそれぞれ示す
図、第6図は目標経路と車両との間における位置偏差お
よび角度偏差を示す図、第7図は車両の走行を目標経路
に追従して行わせるための制御系の構成例を示すブロッ
ク図、第8図は最適レギュレータによる状態フィードバ
ック制御系の一般的な構成を示すブロック図、第9図は
車両における4輪の運動を2輪の運動に近似したモデル
を示す図、第10図はX−Y座標上の線分を示す図、第
11図は第10図の線分をHough変換したときのρ
−θ座標上の点を示す図である。1・・・撮像部 2・・・画像処理部 3・・・走行可
能領域認識部 4・・・目標経路設定部 5・・・制御
部 6・・・車速センサ 7・・・ヨーレートセンサ
8・・・舵角センサ 9・・・ステアリング制御部 ・
°10・・・ステアリング駆動部 11・・・車両 R
A・・・走行可能領域OC・・・目標経路 X err
・・・位置偏差 θerr・・・角度偏差FIG. 1 is a block configuration diagram showing an embodiment of an automatic driving device according to the present invention, FIG. 2 is a diagram showing road line segments obtained by data processing an image captured by a video camera, and FIG. 3 is a diagram showing an image obtained by projective transformation of the image in FIG. Figures (a) and (b) are diagrams showing the target route set on the road when the vehicle is running at low speed and at high speed, respectively, and Figure 6 is a diagram showing the positional deviation and angular deviation between the target route and the vehicle. Fig. 7 is a block diagram showing an example of the configuration of a control system for making the vehicle travel along a target route; Fig. 8 is a block diagram showing a general configuration of a state feedback control system using an optimal regulator; Figure 9 shows a model that approximates the motion of the four wheels in a vehicle to the motion of two wheels, Figure 10 shows line segments on the X-Y coordinates, and Figure 11 shows the line segments in Figure 10 as Hough. ρ when converted
It is a diagram showing points on the −θ coordinate. 1... Imaging unit 2... Image processing unit 3... Drivable area recognition unit 4... Target route setting unit 5... Control unit 6... Vehicle speed sensor 7... Yaw rate sensor
8... Rudder angle sensor 9... Steering control section ・
°10...Steering drive unit 11...Vehicle R
A... Drivable area OC... Target route X err
...Position deviation θerr...Angle deviation
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2064589AJPH03265010A (en) | 1990-03-15 | 1990-03-15 | automatic driving device |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2064589AJPH03265010A (en) | 1990-03-15 | 1990-03-15 | automatic driving device |
| Publication Number | Publication Date |
|---|---|
| JPH03265010Atrue JPH03265010A (en) | 1991-11-26 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2064589APendingJPH03265010A (en) | 1990-03-15 | 1990-03-15 | automatic driving device |
| Country | Link |
|---|---|
| JP (1) | JPH03265010A (en) |
| Publication | Publication Date | Title |
|---|---|---|
| JP2844240B2 (en) | Automatic traveling device | |
| JP2835764B2 (en) | Automatic traveling device | |
| JPH03268109A (en) | Automatic traveling device | |
| JP2669031B2 (en) | Autonomous vehicles | |
| EP0354561B1 (en) | Automatic travelling apparatus and method | |
| JP2844243B2 (en) | Automatic traveling device | |
| Mutz et al. | Following the leader using a tracking system based on pre-trained deep neural networks | |
| CN102968119A (en) | Automatic visual guide vehicle for constant illumination | |
| JP2603523B2 (en) | Automatic traveling device | |
| JPH03286315A (en) | Automatic steering device | |
| JPH03265010A (en) | automatic driving device | |
| CN111596656A (en) | A heavy-duty AGV hybrid navigation device based on binocular video and magnetic sensors | |
| CN117782102A (en) | A fully automatic parking positioning and mapping method based on surround vision | |
| Cui et al. | AGV research based on inertial navigation and vision fusion | |
| JP2923664B2 (en) | Automatic traveling device | |
| JP2835766B2 (en) | Automatic traveling device | |
| JP2844236B2 (en) | Automatic traveling device | |
| EP0448060A2 (en) | Automatic travelling apparatus | |
| JP3054952B2 (en) | Automatic traveling device | |
| Avanzini et al. | A control strategy taking advantage of inter-vehicle communication for platooning navigation in urban environment | |
| JPH03265009A (en) | Automatic traveling device | |
| JP2923668B2 (en) | Automatic traveling device | |
| Yagi et al. | Active contour road model for road tracking and 3D road shape reconstruction | |
| Payá et al. | CONTINUOUS NAVIGATION OF A MOBILE ROBOT WITH AN APPEARANCE-BASED APPROACH | |
| JPH0248706A (en) | automatic driving device |