Movatterモバイル変換


[0]ホーム

URL:


JP2014181927A - Information provision device, and information provision program - Google Patents

Information provision device, and information provision program
Download PDF

Info

Publication number
JP2014181927A
JP2014181927AJP2013054785AJP2013054785AJP2014181927AJP 2014181927 AJP2014181927 AJP 2014181927AJP 2013054785 AJP2013054785 AJP 2013054785AJP 2013054785 AJP2013054785 AJP 2013054785AJP 2014181927 AJP2014181927 AJP 2014181927A
Authority
JP
Japan
Prior art keywords
area
guidance
line
sight
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013054785A
Other languages
Japanese (ja)
Inventor
Satoshi Ninomiya
智 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co LtdfiledCriticalAisin AW Co Ltd
Priority to JP2013054785ApriorityCriticalpatent/JP2014181927A/en
Publication of JP2014181927ApublicationCriticalpatent/JP2014181927A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

PROBLEM TO BE SOLVED: To suppress deterioration of visibility caused by movement of the line of sight.SOLUTION: A navigation device 1, capable of displaying guidance information overlapped on a scene viewed by a driver by using HUD 45, performs: displaying the guidance information overlapped on a guidance target (e.g., an intersection) as much as possible, minimizing movement of the line of sight of the driver; and avoiding a preceding vehicle, if the vehicle exists at a position overlapping the guidance target, and displaying the guidance information in a zone so as to limit the movement of the line of sight of the driver as much as possible, in order to prevent deterioration of visibility of information necessary for driving such as a tail lamp of the preceding vehicle, from being caused by overlapping on the guidance information.

Description

Translated fromJapanese

本発明は、情報提供装置、及び情報提供プログラムに関し、例えば、車両の運転者に情報を提供するものに関する。  The present invention relates to an information providing apparatus and an information providing program, and relates to, for example, an apparatus that provides information to a driver of a vehicle.

従来の車両用のナビゲーション装置は、運転席付近に設置した小型タッチパネル画面や車内のスピーカやマイクロフォンなどを用いて、運転者(ドライバ)からの入力を受け付けたり、道順や道路情報、商業施設の情報などの案内情報を提供したりしている。
そして、近年では、特許文献1の「車両情報表示システム」のように、ヘッドアップディスプレイ(HUD)を用いた情報提供が試みられるようになってきた。
この技術は、フロントガラスに画像などを投影することにより、運転者の前方に案内情報を表示するものである。
この技術により、運転者は、タッチパネル画面を見ることなく、所望の案内情報を得ることができる。
Conventional vehicle navigation devices use a small touch panel screen installed near the driver's seat, in-car speakers, microphones, etc. to accept input from the driver (driver), directions, road information, commercial facility information Or provide guidance information.
In recent years, attempts have been made to provide information using a head-up display (HUD) as in the “vehicle information display system” ofPatent Document 1.
This technology displays guidance information in front of the driver by projecting an image or the like on the windshield.
With this technology, the driver can obtain desired guidance information without looking at the touch panel screen.

ところで、特許文献1記載の技術は、ヘッドアップディスプレイに案内情報を表示させる際に、情報ごとに予め設定された領域に表示し、これを運転者に視認させている。
このように、従来の技術では、案内情報を外部環境に応じて予め決めた位置に表示しているが、情報によっては、フロントガラスの端に表示されるなどし、運転者の視線移動が多くて視認性が悪いという問題があった。
By the way, when displaying the guidance information on the head-up display, the technique described inPatent Document 1 displays the information in a preset area for each information and makes the driver visually recognize this.
As described above, in the conventional technology, the guidance information is displayed at a predetermined position according to the external environment. However, depending on the information, the guidance information is displayed on the edge of the windshield, and the driver's line of sight is often moved. There was a problem that visibility was bad.

特開2005−199992号公報JP 2005-199992 A

本発明は、視線移動による視認性の低下を抑制することを目的とする。  An object of this invention is to suppress the fall of the visibility by a line-of-sight movement.

本発明は、前記目的を達成するために、請求項1に記載の発明では、車両の前方方向にある案内対象を特定する特定手段と、前記特定した案内対象の案内情報を取得する案内情報取得手段と、前記車両の運転者の視界において、前記取得した案内情報に対して予め設定された表示領域を取得する表示領域取得手段と、前記運転者の視界に存在する特定対象を検知する検知手段と、前記検知した特定対象が前記視界において占める特定対象領域を設定する設定手段と、前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域に前記取得した案内情報を表示する表示手段と、を具備したことを特徴とする情報提供装置を提供する。
請求項2に記載の発明では、前記取得した表示領域が、前記運転者の視界において、前記特定した案内対象と重なる領域に設定されていることを特徴とする請求項1に記載の情報提供装置を提供する。
請求項3に記載の発明では、前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域の面積が所定の規定値を下回る場合、前記表示手段は、前記取得した表示領域、及び設定した特定対象領域の領域外に前記案内情報を表示することを特徴とする請求項1、又は請求項2に記載の情報提供装置を提供する。
請求項4に記載の発明では、前記運転者の視線を検出する視線検出手段と、前記検出した視線の履歴を記憶する視線履歴記憶手段と、前記記憶した履歴を用いて、前記視界を、視線の頻度によって複数の視線領域に区分する区分手段と、を具備し、前記表示手段は、前記領域外に前記案内情報を表示する場合、所定の視線領域に表示することを特徴とする請求項3に記載の情報提供装置を提供する。
請求項5に記載の発明では、前記所定の視線領域の面積が前記案内情報を表示するための所定の面積を満たさない場合、前記表示手段は、より頻度の低い視線領域に前記案内情報を表示することを特徴とする請求項4に記載の情報提供装置を提供する。
請求項6に記載の発明では、前記案内情報が、属性により組分けされており、前記表示手段は、当該属性の組に従って、前記表示する視線領域を選択することを特徴とする請求項5に記載の情報提供装置を提供する。
請求項7に記載の発明では、前記表示手段が、前記案内情報を表示する領域に応じて当該案内情報の表示画像を変化させることを特徴とする請求項3から請求項6までのうちの何れか1の請求項に記載の情報提供装置を提供する。
請求項8に記載の発明では、車両の前方方向にある案内対象を特定する特定機能と、前記特定した案内対象の案内情報を取得する案内情報取得機能と、前記車両の運転者の視界において、前記取得した案内情報に対して予め設定された表示領域を取得する表示領域取得機能と、前記運転者の視界に存在する特定対象を検知する検知機能と、前記検知した特定対象が前記視界において占める特定対象領域を設定する設定機能と、前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域に前記取得した案内情報を表示する表示機能と、をコンピュータで実現する情報提供プログラムを提供する。
In order to achieve the above object, according to the first aspect of the present invention, in the first aspect of the present invention, specifying means for specifying a guidance target in the forward direction of the vehicle, and guidance information acquisition for acquiring the guidance information of the specified guidance target Means, a display area obtaining means for obtaining a display area preset for the obtained guidance information, and a detecting means for detecting a specific target existing in the driver's view. And setting means for setting a specific target area occupied by the detected specific target in the field of view, and a display for displaying the acquired guidance information in an area that does not overlap the set specific target area among the acquired display areas And an information providing apparatus characterized by comprising: means.
According to a second aspect of the present invention, in the information providing apparatus according to the first aspect, the acquired display area is set in an area overlapping the identified guidance object in the driver's field of view. I will provide a.
In the invention according toclaim 3, when the area of the acquired display area that does not overlap with the set specific target area falls below a predetermined specified value, the display means includes the acquired display area, and The information providing apparatus according toclaim 1, wherein the guidance information is displayed outside a set specific target area.
According to a fourth aspect of the present invention, the line of sight is detected using the line of sight detecting means for detecting the driver's line of sight, the line of sight history storing means for storing the history of the detected line of sight, and the stored history. And a display unit for dividing the information into a plurality of line-of-sight areas according to the frequency of the display, wherein the display means displays the guidance information outside the area in a predetermined line-of-sight area. The information providing apparatus described in 1. is provided.
According to a fifth aspect of the present invention, when the area of the predetermined line-of-sight area does not satisfy the predetermined area for displaying the guidance information, the display means displays the guidance information in a line-of-sight area that is less frequent. An information providing apparatus according to claim 4 is provided.
The invention according to claim 6 is characterized in that the guidance information is grouped according to attributes, and the display means selects the line-of-sight area to be displayed according to the set of attributes. The information providing apparatus described is provided.
According to a seventh aspect of the present invention, in any one of the third to sixth aspects, the display means changes a display image of the guidance information according to a region where the guidance information is displayed. An information providing apparatus according toclaim 1 is provided.
In the invention according to claim 8, in the identification function for identifying the guidance object in the forward direction of the vehicle, the guidance information acquisition function for obtaining the guidance information of the identified guidance object, and the field of view of the driver of the vehicle, A display area acquisition function for acquiring a display area set in advance for the acquired guidance information, a detection function for detecting a specific target existing in the driver's field of view, and the detected specific target in the field of view An information providing program for realizing a setting function for setting a specific target area and a display function for displaying the acquired guidance information in an area that does not overlap the set specific target area among the acquired display areas. provide.

本発明によれば、案内情報を運転者の視線を考慮した領域に表示することにより、視線移動による視認性の低下を抑制する。  According to the present invention, the guidance information is displayed in an area in which the driver's line of sight is taken into account, thereby suppressing a decrease in visibility due to movement of the line of sight.

本実施形態のナビゲーション装置の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the navigation apparatus of this embodiment.ナビゲーション装置のシステム構成図である。It is a system configuration figure of a navigation device.視線履歴DBや視線履歴頻度判定表を説明するための図である。It is a figure for demonstrating gaze history DB and a gaze history frequency judgment table.ナビゲーション装置の機能的な構成を説明するための図である。It is a figure for demonstrating the functional structure of a navigation apparatus.HUDの表示領域を説明するための図である。It is a figure for demonstrating the display area of HUD.各表示領域を詳細に説明するための図である。It is a figure for demonstrating each display area in detail.交差点での案内情報の表示を説明するための図である。It is a figure for demonstrating the display of the guidance information in an intersection.分岐点での案内情報の表示を説明するための図である。It is a figure for demonstrating the display of the guidance information in a branch point.進入禁止の案内情報の表示を説明するための図である。It is a figure for demonstrating the display of guidance information of entry prohibition.レーンリスト案内の案内情報の表示を説明するための図である。It is a figure for demonstrating the display of the guidance information of lane list guidance.看板案内の案内情報の表示を説明するための図である。It is a figure for demonstrating the display of the guidance information of signboard guidance.案内処理の全体を説明するためのフローチャートである。It is a flowchart for demonstrating the whole guidance process.右左折系案内処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of the left-right turn type | system | group guidance process.領域探索処理を説明するためのフローチャートである。It is a flowchart for demonstrating area | region search processing.注意喚起系案内処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of an alerting | guidance system guidance process.領域探索処理を説明するためのフローチャートである。It is a flowchart for demonstrating area | region search processing.運転支援系案内処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of a driving assistance type | system | group guidance process.領域探索処理を説明するためのフローチャートである。It is a flowchart for demonstrating area | region search processing.

(1)実施形態の概要
ナビゲーション装置1(図1)は、HUD(ヘッドアップディスプレイ)45を用いて運転者の視認する情景に重畳して(重ねて)案内情報を表示することができる。
ナビゲーション装置1は、できるだけ案内対象(交差点など)に重畳して案内情報を表示することにより、運転者の視線の移動を少なくする。
そして、前方車両のブレーキランプなど、運転に必要な情報の視認性が案内情報と重なって低下するのを防ぐため、ナビゲーション装置1は、案内対象と重なる位置に前方車両がある場合には、これを避けると共に、なるべく運転者の視線の移動が少なくて済む領域に案内情報を表示する。
(1) Outline of Embodiment The navigation device 1 (FIG. 1) can display guidance information superimposed (overlaid) on a scene visually recognized by the driver using a HUD (head-up display) 45.
Thenavigation device 1 reduces the movement of the driver's line of sight by displaying the guidance information as superimposed on the guidance target (intersection etc.) as much as possible.
In order to prevent the visibility of information necessary for driving such as the brake lamp of the preceding vehicle from being overlapped with the guidance information, thenavigation device 1 is configured so that when there is a preceding vehicle at a position overlapping the guidance target, The guidance information is displayed in an area where the movement of the driver's line of sight is minimized.

(2)実施形態の詳細
図1は、本実施形態のナビゲーション装置1の概要を説明するための図である。
フロントカメラ31は、車両前方に向けて設置されており、運転者(ナビゲーション装置1のユーザ)から見た車両前方の視野画像を連続的に撮影している。
一方、視線カメラ32は、運転者の頭部に向けて設置されており、運転者の視線を監視している。
(2) Details of Embodiment FIG. 1 is a diagram for explaining an overview of anavigation device 1 according to this embodiment.
Thefront camera 31 is installed toward the front of the vehicle, and continuously captures a field image in front of the vehicle as viewed from the driver (user of the navigation device 1).
On the other hand, the line-of-sight camera 32 is installed toward the driver's head, and monitors the driver's line of sight.

情報処理装置20は、フロントカメラ31の撮影した視野画像を画像認識し、前方車両、交差点、分岐点、カーブ、看板案内など、案内情報の提供に必要な対象を特定する。
そして、情報処理装置20は、これらの情報を用いて、右左折案内、注意喚起、運転支援など、運転者が必要とする案内情報をHUD45に出力する。
これを受けて、HUD45は、案内情報を運転者が見ている情景に重畳して表示する。
情報処理装置20は、運転者の視線移動を少なくするため、案内対象と重なるように予め設定された領域に案内情報を表示するが、前方を走行する車両のブレーキランプなどの視認性を損なわないために、前方の車両を避けて表示する。
Theinformation processing apparatus 20 recognizes the field-of-view image captured by thefront camera 31, and identifies targets necessary for providing guidance information such as a preceding vehicle, an intersection, a branch point, a curve, and a signboard guide.
Then, theinformation processing apparatus 20 uses these pieces of information to output guidance information required by the driver, such as right / left turn guidance, alerting, and driving assistance, to theHUD 45.
In response to this, theHUD 45 superimposes and displays the guidance information on the scene viewed by the driver.
Theinformation processing device 20 displays guidance information in a region set in advance so as to overlap the guidance target in order to reduce the driver's line-of-sight movement, but does not impair the visibility of a brake lamp or the like of a vehicle traveling ahead. In order to avoid the vehicle ahead, display.

図2は、本実施形態で用いるナビゲーション装置のシステム構成図である。
このナビゲーション装置1は、車両に搭載され、現在位置検出装置10、情報処理装置20、撮影装置30、入出力装置40及び記憶装置50とを備えており、情報提供装置として機能する。
FIG. 2 is a system configuration diagram of the navigation apparatus used in the present embodiment.
Thenavigation device 1 is mounted on a vehicle and includes a current position detection device 10, aninformation processing device 20, aphotographing device 30, an input / output device 40, and a storage device 50, and functions as an information providing device.

現在位置検出装置10は、方位センサ12、距離センサ13、GPS受信装置14、地磁気センサ15、図示しない振動センサなどから構成されている。
方位センサ12は、基準角度(絶対方位)に対して、相対的に変化した角度を検出する手段であり、例えば、角速度を利用して角度の変化を検出するジャイロセンサを使用している。
なお、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリュームあるいは車輪部に取り付ける角度センサでもよい。
地磁気センサ15は、絶対方位を検出する手段であり、磁石に基づいてN方向の検出から、車両が何れの方向に向いているかを検出する。
ナビゲーション装置1は、方位センサ12や地磁気センサ15で検出される方位により、自車両の前方方向(即ち、進行方向)を判断することができる。
The current position detection device 10 includes anorientation sensor 12, adistance sensor 13, aGPS receiver 14, ageomagnetic sensor 15, a vibration sensor (not shown), and the like.
Theazimuth sensor 12 is a means for detecting an angle that has changed relative to a reference angle (absolute azimuth), and uses, for example, a gyro sensor that detects a change in angle using an angular velocity.
An optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, or an angle sensor attached to the wheel part may be used.
Thegeomagnetic sensor 15 is a means for detecting an absolute azimuth, and detects which direction the vehicle is directed from the detection in the N direction based on the magnet.
Thenavigation apparatus 1 can determine the forward direction (that is, the traveling direction) of the host vehicle based on the direction detected by thedirection sensor 12 or thegeomagnetic sensor 15.

距離センサ13は、車両の移動距離を計測できる手段であり、例えば、車輪の回転を検出して計数するものや、加速度を検出して2回積分するものを使用する。
図示しないが振動センサは、車両の振動を検出する。
GPS(Global Positioning System)受信装置14は、地球を周回する複数のGPS衛星からの信号を受信する。この信号には時刻情報が含まれており、情報処理装置20がこれを処理することにより、ナビゲーション装置1は、自車両の位置情報を得ることができる。
Thedistance sensor 13 is a means that can measure the moving distance of the vehicle, and for example, a sensor that detects and counts the rotation of a wheel or a sensor that detects acceleration and integrates it twice.
Although not shown, the vibration sensor detects the vibration of the vehicle.
A GPS (Global Positioning System)receiver 14 receives signals from a plurality of GPS satellites orbiting the earth. This signal includes time information, and theinformation processing device 20 processes the time information, whereby thenavigation device 1 can obtain the position information of the host vehicle.

情報処理装置20は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)24、クロック28、センサ入力インターフェイス23、通信インターフェイス25などから構成されている。
情報処理装置20は、現在位置検出装置10、撮影装置30、入出力装置40から入力される情報、及び記憶装置50に格納された情報に基づいて経路探索や経路案内などナビゲーションのための各種演算を行うとともに、ディスプレイ42、HUD45、スピーカ44といった周辺機器を制御して、演算結果をこれらに出力する。
Theinformation processing device 20 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 24, aclock 28, asensor input interface 23, acommunication interface 25, and the like.
Theinformation processing device 20 performs various calculations for navigation such as route search and route guidance based on information input from the current position detection device 10, theimaging device 30, the input / output device 40, and information stored in the storage device 50. And control peripheral devices such as thedisplay 42, theHUD 45, and thespeaker 44, and output the calculation results to them.

CPU21は、中央処理装置であって、伝送路26(バスライン)を介して情報の送受信を行い、ROM22や記憶装置50に記憶されているプログラムを実行することにより、ナビゲーション装置1全体の総括的な演算及び制御を行う。
本実施形態では、案内対象を特定し、これに関する案内情報を表示する領域を決定した後、これをHUD45に表示する。
TheCPU 21 is a central processing unit that performs transmission / reception of information via the transmission path 26 (bus line) and executes programs stored in theROM 22 and the storage device 50, so that theoverall navigation device 1 is generalized. Performs proper calculation and control.
In this embodiment, after specifying guidance object and determining the area | region which displays the guidance information regarding this, this is displayed on HUD45.

ROM22は、読み取り専用の記憶装置であって、情報処理装置20を動作させるための基本的なプログラムが記憶されている。また、記憶装置50に記憶されているナビゲーションプログラム51を、ここに格納することも可能である。
なお、ROM22を第1ROMと第2ROMの2つに分け、第2ROMに音声案内に関するナビゲーションプログラムを格納し、他のプログラムを第1ROMに格納するようにしてもよい。
TheROM 22 is a read-only storage device, and stores a basic program for operating theinformation processing apparatus 20. Further, the navigation program 51 stored in the storage device 50 can be stored here.
TheROM 22 may be divided into a first ROM and a second ROM, and a navigation program related to voice guidance may be stored in the second ROM, and other programs may be stored in the first ROM.

RAM24は、CPU21が各種演算や制御を行う際のワーキングメモリを提供し、CPU21は、RAM24のメモリ空間を用いて、画像認識処理を行ったり、案内情報を表示する領域を決定したり、後述する重畳案内図、簡易重畳案内図、簡易案内図を描画したりする。
また、RAM24は、入力装置41により入力された目的地の情報、通過地点の情報等の利用者(運転者やその他の搭乗者)が入力した情報を記憶すると共に、利用者の入力情報に基づいてCPU21により演算された結果や、経路探索された結果、又は、記憶装置50から読み込まれた地図情報を格納する。
TheRAM 24 provides a working memory when theCPU 21 performs various calculations and controls. TheCPU 21 uses the memory space of theRAM 24 to perform image recognition processing, determine an area for displaying guidance information, and the like, which will be described later. Drawing a superimposition guide map, a simple superimposition guide map, and a simple guide map.
TheRAM 24 stores information input by the user (driver and other passengers) such as destination information and passing point information input by theinput device 41 and based on user input information. The result calculated by theCPU 21, the result of the route search, or the map information read from the storage device 50 is stored.

センサ入力インターフェイス23は、方位センサ12、距離センサ13、地磁気センサ15、振動センサなどの各種センサと接続するインターフェイスである。
通信インターフェイス25は、伝送路27を介して各種周辺機器と接続するインターフェイスである。
具体的には、伝送路27を介して、GPS受信装置14、入力装置41、記憶装置50、フロントカメラ31、視線カメラ32などが接続される。
Thesensor input interface 23 is an interface connected to various sensors such as theazimuth sensor 12, thedistance sensor 13, thegeomagnetic sensor 15, and the vibration sensor.
Thecommunication interface 25 is an interface connected to various peripheral devices via thetransmission path 27.
Specifically, theGPS receiver 14, theinput device 41, the storage device 50, thefront camera 31, the line-of-sight camera 32, and the like are connected via thetransmission path 27.

クロック28は、例えば、水晶振動子などを用いて構成された発信器であり、ナビゲーション装置1の各部の動作タイミングを提供する。
また、情報処理装置20に対して、CPU21で処理されたベクトル情報をディスプレイ42やHUD45で画像情報に処理するための画像処理専用の画像プロセッサ、画像プロセッサで処理された画像情報を格納する画像メモリ、記憶装置50から読み込まれた音声情報を処理しスピーカ44に出力する音声処理専用の音声プロセッサを配設してもよい。
Theclock 28 is a transmitter configured using, for example, a crystal resonator, and provides operation timing of each part of thenavigation device 1.
Further, for theinformation processing apparatus 20, an image processor dedicated to image processing for processing vector information processed by theCPU 21 into image information by thedisplay 42 or theHUD 45, and an image memory for storing image information processed by the image processor A voice processor dedicated to voice processing for processing voice information read from the storage device 50 and outputting it to thespeaker 44 may be provided.

撮影装置30は、何れもCCD(charge−coupled device)カメラなどを用いたフロントカメラ31と視線カメラ32から構成されている。
フロントカメラ31は、進行方向の運転者の見ている情景を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。フロントカメラ31による視野画像は、運転者が運転に際して得る視野に対応している。
Theimaging device 30 includes afront camera 31 and a line-of-sight camera 32 each using a CCD (charge-coupled device) camera or the like.
Thefront camera 31 continuously captures a scene viewed by the driver in the traveling direction at a predetermined sampling rate and outputs the captured scene to theinformation processing apparatus 20. The visual field image by thefront camera 31 corresponds to the visual field that the driver obtains during driving.

視線カメラ32は、運転者の眼部を含む頭部を所定のサンプリングレートで連続的に撮影して情報処理装置20に出力する。この画像により、運転者の視線情報(視線ベクトル、焦点座標値、視点位置など、運転者が見ている点を特定する情報)が得られ、視野画像上の視線による焦点を計算することができる。運転者の視線の移動は、視線履歴としてデータベースに蓄積される。
なお、本実施形態では、フロントカメラ31と視線カメラ32は、可視光を撮影するが、赤外線カメラなど、目的に応じた特殊なカメラを用いてもよい。
The line-of-sight camera 32 continuously captures the head including the driver's eyes at a predetermined sampling rate and outputs the image to theinformation processing apparatus 20. From this image, the driver's line-of-sight information (information specifying the point of view of the driver, such as the line-of-sight vector, focus coordinate value, and viewpoint position) can be obtained, and the focus by the line of sight on the field-of-view image can be calculated. . The movement of the driver's line of sight is accumulated in the database as a line-of-sight history.
In the present embodiment, thefront camera 31 and the line-of-sight camera 32 capture visible light, but a special camera according to the purpose such as an infrared camera may be used.

入出力装置40は、入力装置41、ディスプレイ42、HUD(Head−Up Display)45、スピーカ44、マイクロフォン46などから構成されている。
入力装置41は、例えば、タッチパネル、タッチスイッチ、ジョイスティック、キースイッチなどで構成されており、例えば、利用者から目的地、通過地点、探索条件などのデータの入力を受け付ける。
The input / output device 40 includes aninput device 41, adisplay 42, a HUD (Head-Up Display) 45, aspeaker 44, amicrophone 46, and the like.
Theinput device 41 includes, for example, a touch panel, a touch switch, a joystick, a key switch, and the like, and receives input of data such as a destination, a passage point, and a search condition from a user, for example.

ディスプレイ42は、運転席付近に設置した小型のディスプレイであって、例えば、液晶ディスプレイによって構成されており、現在地周辺の地図や、目的地までの走行経路といった案内用の画面や、利用者がデータを入力するための入力画面などの画像を表示する。  Thedisplay 42 is a small display installed in the vicinity of the driver's seat. Thedisplay 42 is composed of, for example, a liquid crystal display. Displays an image such as an input screen for inputting.

HUD45は、例えば、投影機を用いてフロントガラスに画像を投影したり、あるいはフロントガラス上に設置した透明のスクリーンに画像を表示したりすることにより、運転者に情景と重畳して案内情報を提供する。即ち、HUD45による表示画面は運転者の視界に対応している。
スピーカ44は、例えば、「30メートル先を右に曲がります。」などと、運転者に音声で案内情報を提供する。
マイクロフォン46は、利用者からの入力を音声により受け付ける。例えば、目的地の設定で利用者が「○○駅」と発話すると、目的地として○○駅が入力される。
TheHUD 45, for example, projects the image on the windshield using a projector, or displays the image on a transparent screen installed on the windshield, thereby superimposing the guidance information on the driver. provide. That is, the display screen by theHUD 45 corresponds to the driver's field of view.
Thespeaker 44 provides voice guidance information to the driver, for example, “Turn right 30 meters ahead”.
Themicrophone 46 receives input from the user by voice. For example, when the user utters “XX station” in the destination setting, XX station is input as the destination.

記憶装置50は、大容量の記憶媒体と、これを駆動する駆動装置から構成されている。
記憶媒体としては、例えば、光学的記憶媒体であるDVD−ROM、CD−ROMや磁気的記憶媒体であるハードディスクなどを用いることができ、光磁気ディスク、各種半導体メモリなどの各種情報記憶媒体で構成することもできる。
なお、書き換えが必要な情報については、書き換え可能なハードディスク、フラッシュメモリなどで構成し、その他の固定的な情報についてはCD−ROM、DVD−ROMなどのROMを使用するようにしてもよい。
The storage device 50 includes a large-capacity storage medium and a drive device that drives the storage medium.
As the storage medium, for example, a DVD-ROM or CD-ROM that is an optical storage medium, a hard disk that is a magnetic storage medium, or the like can be used. The storage medium includes various information storage media such as a magneto-optical disk and various semiconductor memories. You can also
Information that needs to be rewritten may be constituted by a rewritable hard disk or flash memory, and other fixed information may be a ROM such as a CD-ROM or DVD-ROM.

記憶装置50には、ナビゲーションプログラム51、地図DB(データベース)52、案内情報DB54、交通情報DB55、画像認識用DB56、視線履歴DB57、視線履歴頻度判定表58、その他のデータが記憶されている。
ナビゲーションプログラム51は、CPU21にナビゲーションに必要な各種演算や制御を行うための機能を発揮させるためのプログラムである。
The storage device 50 stores a navigation program 51, a map DB (database) 52, aguide information DB 54, atraffic information DB 55, animage recognition DB 56, a line-of-sight history DB 57, a line-of-sight history frequency determination table 58, and other data.
The navigation program 51 is a program for causing theCPU 21 to exhibit functions for performing various calculations and controls necessary for navigation.

地図DB52は、2次元地図データと3次元地図データなどから構成されたデータベースである。
2次元地図データは、経路探索や経路案内に必要な2次元情報が登録されている。
3次元地図データは、通常の地図情報に加え、建物や信号などの構造物の形状や高さや、地形の高低といった特徴物の3次元情報が登録されている。
この3次元情報により、視野画像に対応するバーチャルな模擬画像が計算される。
更に、3次元地図データには、画像認識結果と照合するための属性(車両、交差点、カーブ、レーンなど)が特徴物に対応して記憶されている。
The map DB 52 is a database composed of 2D map data, 3D map data, and the like.
In the two-dimensional map data, two-dimensional information necessary for route search and route guidance is registered.
In the 3D map data, in addition to normal map information, 3D information of features such as the shape and height of structures such as buildings and signals, and the height of topography is registered.
Based on this three-dimensional information, a virtual simulated image corresponding to the visual field image is calculated.
Further, in the 3D map data, attributes (vehicles, intersections, curves, lanes, etc.) for matching with the image recognition result are stored corresponding to the feature objects.

案内情報DB54は、2次元地図データや3次元地図データに含まれる交差点などの右左折系の案内対象、カーブなどの注意喚起系の案内対象、レーンリストなどの運転支援系の案内対象などに対する案内情報が登録されたデータベースである。案内情報は、車両が案内地点に到達する前に読み出されて重畳案内図などに加工され、HUD45に表示される。  Theguidance information DB 54 provides guidance for right and left turn guidance targets such as intersections included in 2D map data and 3D map data, warning guidance guidance targets such as curves, and driving support guidance items such as lane lists. It is a database in which information is registered. The guidance information is read out before the vehicle reaches the guidance point, processed into a superimposed guidance map, and displayed on theHUD 45.

交通情報DB55は、例えば、ある道路のある区間が不通であるといった、経路探索や経路案内に必要な交通情報を記憶したデータベースである。
画像認識用DB56は、フロントカメラ31で撮影した視野画像から案内対象をパターン認識により抽出・認識するためのパターンを登録したデータベースである。
Thetraffic information DB 55 is a database that stores traffic information necessary for route search and route guidance, for example, that a certain section of a road is disconnected.
Theimage recognition DB 56 is a database in which patterns for extracting and recognizing a guidance target by pattern recognition from a field-of-view image captured by thefront camera 31 are registered.

より詳細には、画像認識用DB56には、車両の特徴となる画像のパターンや交差点の特徴となる画像のパターン、あるいは、カーブの特徴となる画像のパターンなどが記憶されており、情報処理装置20は、これを視野画像とマッチングして、視野画像内に存在する前方車両や交差点などの特徴物を抽出・認識する。
なお、抽出とは、視野画像からパターンが一致した部分を取り出すことであり、認識とは、取り出した部分が、例えば、車両であるとか、交差点であるとか、レーンであるなどと理解することである。
More specifically, theimage recognition DB 56 stores an image pattern serving as a vehicle feature, an image pattern serving as an intersection feature, an image pattern serving as a curve feature, and the like. 20 matches this with the visual field image, and extracts and recognizes features such as a forward vehicle and an intersection existing in the visual field image.
Note that extraction means extracting a portion having a matching pattern from the field-of-view image, and recognition means understanding that the extracted portion is, for example, a vehicle, an intersection, or a lane. is there.

図3(a)は、視線履歴DB57の詳細な構成を説明するための図である。
図に示したように、視線履歴DB57は、視線履歴DBa〜視線履歴DBeのデータベース群から構成されている。
これらデータベース群は、走行場面に応じて視線履歴を分類したものである。本実施形態では、走行場面を、場所別(市街、郊外)、及び道路種別(高速道路、一般道路、細街路)で分類している。
FIG. 3A is a diagram for explaining a detailed configuration of the line-of-sight history DB 57.
As shown in the figure, the line-of-sight history DB 57 is composed of a database group of line-of-sight history DBa to line-of-sight history DBe.
These database groups classify the line-of-sight history according to the driving scene. In this embodiment, traveling scenes are classified by location (city, suburb) and road type (highway, general road, narrow street).

このように視線履歴を走行場面で分類したのは、これら走行場面に応じて運転者の視線の動きが異なった傾向を示すためである。
例えば、車両が高速度路を走行している場合は、市街と郊外にかかわらず、視線履歴は、視線履歴DBaに記録される。また、車両が市街の一般道路を走行している場合は、視線履歴は、視線履歴DBbに記録される。以下、同様である。
The reason why the line-of-sight history is classified according to the driving scenes is that the movement of the driver's line-of-sight varies depending on the driving scenes.
For example, when the vehicle is traveling on a high speed road, the line-of-sight history is recorded in the line-of-sight history DBa regardless of the city and the suburbs. When the vehicle is traveling on a general road in the city, the line-of-sight history is recorded in the line-of-sight history DBb. The same applies hereinafter.

そして、これら視線履歴DBa〜視線履歴DBeは、視線履歴頻度の高・中・低に応じて更に細分化されている。
例えば、視線履歴DBaは、視線履歴頻度が高い場合の視線履歴DBa(高)、中程度の場合の視線履歴DBa(中)、及び低い場合の視線履歴DBa(低)から構成されている。他も同様である。
視線履歴頻度のレベル(高・中・低)は、例えば、画面の単位面積当たりの視線頻度により計測され、適当な閾値により、表示画面(フロントガラス)における視線頻度の高い領域、中程度の領域、及び低い領域を区画する。
These line-of-sight history DBa to line-of-sight history DBe are further subdivided according to the high, medium, and low line-of-sight history frequencies.
For example, the line-of-sight history DBa includes a line-of-sight history DBa (high) when the line-of-sight history frequency is high, a line-of-sight history DBa (medium) when the line is low, and a line-of-sight history DBa (low) when the line-of-sight history is low. Others are the same.
The level (high / medium / low) of the line-of-sight history frequency is measured by, for example, the line-of-sight frequency per unit area of the screen. And the lower region.

このように、視線履歴DBを視線頻度のレベルに応じて細分化したのは、後述するように、表示画面で視線履歴高領域83、視線履歴中領域84、視線履歴低領域85(図5)を走行場面ごとに設定するためである。
ここで、視線履歴高領域、視線履歴中領域、視線履歴低領域とは、それぞれ、視線履歴頻度が高い領域、中程度の領域、低い領域を意味する。
例えば、高速道路を走行している際に、表示画面に視線履歴高領域83を設定する場合、ナビゲーション装置1は、視線履歴DBa(高)を用いる。
Thus, the line-of-sight history DB is subdivided according to the line-of-sight frequency level, as will be described later, the line-of-sight historyhigh area 83, the line-of-sight history area 84, and the line-of-sight history low area 85 (FIG. 5). Is set for each traveling scene.
Here, the gaze history high region, the gaze history middle region, and the gaze history low region mean a region with a high gaze history frequency, a medium region, and a low region, respectively.
For example, when traveling on a highway, when the line-of-sight historyhigh region 83 is set on the display screen, thenavigation device 1 uses the line-of-sight history DBa (high).

なお、視線の動きの傾向は、個人差があるため、運転者ごとに視線履歴DB57を作成してもよい。この場合、視線カメラ32で顔認識して運転者を特定したり、体重や座席シートの位置などから運転者を特定したり、あるいは、運転者に運転者特定情報を入力してもらうことで運転者を特定することができる。  Note that the line-of-sight history DB 57 may be created for each driver because the line-of-sight movement tendency varies among individuals. In this case, it is possible to identify the driver by recognizing the face with the line-of-sight camera 32, identify the driver based on the weight, the position of the seat, or the like, or drive the driver by inputting driver identification information. Person can be identified.

図3(b)は、視線履歴頻度判定表58の内容を説明するための図である。
視線履歴頻度判定表58は、案内対象を案内の緊急度に応じて分類したものである。
案内情報は、案内種別により、右左折系、注意喚起系、運転支援系に分類されており、それぞれ緊急度がこの順に、高、中、低に設定されている。
FIG. 3B is a diagram for explaining the contents of the line-of-sight history frequency determination table 58.
The line-of-sight history frequency determination table 58 classifies the guidance objects according to the urgency level of guidance.
The guidance information is classified into a left / right turn system, a warning system, and a driving support system according to the guidance type, and the urgency levels are set to high, medium, and low, respectively, in this order.

右左折系の案内情報は、例えば、交差点、分岐、高速道路のインターチェンジなどでの経路案内を提供する情報である。
注意喚起系の案内情報は、例えば、カーブ、踏切、合流地点、事故多発地点、逆走禁止地点、一時停止地点などを通知する情報である。
運転支援系の案内情報は、例えば、レーンリスト、ターンリスト、看板案内などを提供する情報である。
The left-right guidance information is information that provides route guidance at intersections, branches, highway interchanges, and the like.
The alerting guidance information is information for notifying, for example, a curve, a level crossing, a junction, an accident-prone point, a reverse run prohibition point, a temporary stop point, and the like.
The driving support system guidance information is information that provides, for example, a lane list, turn list, signboard guidance, and the like.

ナビゲーション装置1は、前方車両を避けて案内情報を表示するため、案内対象から外れた位置に案内情報を表示する場合、視線履歴頻度判定表58に従って緊急度の高いものほど、視線履歴頻度の高い領域に表示する。
このため、ナビゲーション装置1は、案内対象から外れた位置に案内情報を表示する場合、右左折系の案内情報は、視線履歴高領域に表示し、注意喚起系の案内情報は、視線履歴中領域に表示し、運転支援系の案内情報は、視線履歴低領域に表示する。
なお、本実施形態では、緊急度に応じて案内情報を分類したが、他の属性を用いて分類してもよい。
このように、案内情報は、属性により組分けされており、ナビゲーション装置1は、当該属性の組に従って、表示する視線領域を選択している。
Since thenavigation apparatus 1 displays the guidance information while avoiding the preceding vehicle, when displaying the guidance information at a position outside the guidance target, the higher the degree of urgency according to the gaze history frequency determination table 58, the higher the gaze history frequency. Display in the area.
For this reason, when thenavigation apparatus 1 displays the guidance information at a position outside the guidance target, the right / left turn type guidance information is displayed in the gaze history high area, and the alerting type guidance information is in the gaze history middle area. The driving assistance system guidance information is displayed in the low line-of-sight history region.
In the present embodiment, the guidance information is classified according to the degree of urgency, but may be classified using other attributes.
Thus, the guidance information is grouped according to the attribute, and thenavigation apparatus 1 selects the line-of-sight area to be displayed according to the attribute group.

図4は、ナビゲーション装置1の機能的な構成を説明するための図である。
これら機能は、ナビゲーションプログラム51を情報処理装置20のCPU21で実行することにより実現される。
画像認識機能部60は、運転者の視野(車両前方の視界)に対応する視野画像を撮影すると共に、これを画像認識する機能部で、フロントカメラ31、撮影部61、画像処理認識部62、画像認識用DB56などから構成されている。
これらのうち、撮影部61、画像処理認識部62は、ナビゲーションプログラム51を実行することにより構成される。
FIG. 4 is a diagram for explaining a functional configuration of thenavigation device 1.
These functions are realized by executing the navigation program 51 by theCPU 21 of theinformation processing apparatus 20.
The imagerecognition function unit 60 captures a field-of-view image corresponding to the driver's field of view (field of view in front of the vehicle), and recognizes the image as afront camera 31, a photographingunit 61, an imageprocessing recognition unit 62, Theimage recognition DB 56 is used.
Among these, theimaging unit 61 and the imageprocessing recognition unit 62 are configured by executing the navigation program 51.

撮影部61は、フロントカメラ31を制御して車両の前方を撮影し、視野画像を生成する。
このように、撮影部61は、車両の運転者の視界に対応する画像を取得する画像取得手段として機能している。
画像処理認識部62は、撮影部61が生成した視野画像を画像認識用DB56に登録されたパターンと照合(パターン認識)することにより視野画像から特徴物を抽出する画像処理を行う。
そして、画像処理認識部62は、抽出した特徴物が何であるのか(例えば、車両、交差点、分岐、カーブ、踏切、レーン、看板、橋、建築物、信号機、歩行者など)を認識する。
このように、画像処理認識部62は、前記取得した画像に写っている特徴物を認識する認識手段として機能している。
The photographingunit 61 controls thefront camera 31 to photograph the front of the vehicle and generates a visual field image.
Thus, theimaging unit 61 functions as an image acquisition unit that acquires an image corresponding to the field of view of the driver of the vehicle.
The imageprocessing recognition unit 62 performs image processing for extracting a feature from the visual field image by collating (pattern recognition) the visual field image generated by the photographingunit 61 with a pattern registered in theimage recognition DB 56.
Then, the imageprocessing recognition unit 62 recognizes what the extracted features are (for example, vehicles, intersections, branches, curves, railroad crossings, lanes, signboards, bridges, buildings, traffic lights, pedestrians, etc.).
As described above, the imageprocessing recognition unit 62 functions as a recognition unit that recognizes the feature object shown in the acquired image.

画像処理認識部62は、このように特徴物を認識すると、その座標値と認識結果(車両、交差点など)を認識情報として視線情報サービス部65に出力する。
視線認識機能部63は、視線カメラ32、視線管理部64、視線情報サービス部65などから構成されている。これらのうち、視線管理部64と視線情報サービス部65は、ナビゲーションプログラム51を実行することにより構成される。
When the imageprocessing recognition unit 62 recognizes the feature object in this way, it outputs the coordinate value and the recognition result (vehicle, intersection, etc.) to the line-of-sightinformation service unit 65 as recognition information.
The line-of-sightrecognition function unit 63 includes a line-of-sight camera 32, a line-of-sight management unit 64, a line-of-sightinformation service unit 65, and the like. Among these, the line-of-sight management unit 64 and the line-of-sightinformation service unit 65 are configured by executing the navigation program 51.

視線管理部64は、視線カメラ32で撮影した運転者の頭部の画像から眼部を認識し、眼球形状の曲率から眼球中心座標を計算する。更に、視線管理部64は、眼部から黒目(瞳孔)領域を特定し、黒目(瞳孔)中心座標を計算する。
視線管理部64は、このようにして得た眼球中心座標から黒目中心座標に向かう方向を視線方向として規定し、眼球中心座標と視線方向を視線情報として視線情報サービス部65に出力する。
このように、視線管理部64は、運転者の視線を検出する視線検出手段として機能している。
The line-of-sight management unit 64 recognizes the eye part from the image of the driver's head photographed by the line-of-sight camera 32, and calculates eyeball center coordinates from the curvature of the eyeball shape. Further, the line-of-sight management unit 64 specifies a black eye (pupil) region from the eye, and calculates the black eye (pupil) center coordinates.
The line-of-sight management unit 64 defines the direction from the eyeball center coordinates thus obtained to the black-eye center coordinates as the line-of-sight direction, and outputs the eyeball center coordinates and the line-of-sight direction to the line-of-sightinformation service unit 65 as line-of-sight information.
In this way, the line-of-sight management unit 64 functions as a line-of-sight detection unit that detects the driver's line of sight.

この処理は、片眼に対して行うことができるが、両眼に対して行って結果を1つに平均化するなどしてもよい。
また、運転者が碧眼を有する場合でも瞳孔は黒いため、本手法を用いることができる。
なお、赤外線を用いる角膜反射法や強膜反射法など他の方法を用いたり、視線検出装置を運転者の眼部に装着するなど他のデバイスを用いてもよい。
This processing can be performed for one eye, but may be performed for both eyes and the results may be averaged into one.
Even when the driver has a blind eye, the pupil can be black, so this method can be used.
In addition, you may use other devices, such as using other methods, such as a cornea reflection method and a scleral reflection method using infrared rays, or mounting | wearing a driver | operator's eyes.

視線情報サービス部65は、以下のように、特徴物と認識結果、及び運転者の視線情報による視線履歴に基づいて、HUD45やスピーカ44から情報を出力する。
まず、視線情報サービス部65は、画像認識機能部60から認識情報を受け取り、視線管理部64から視線情報を受け取る。
そして、視線情報サービス部65は、視線の履歴を蓄積するため、ナビゲーション機能部68から走行場面を取得し、それに応じた視線履歴DBa〜DBeに、視線情報を所定のサンプリングレートで逐次記録する。
以下、視線情報サービス部65は、視線履歴の蓄積をしながら案内処理を行う。
このように、ナビゲーション装置1は、検出した視線の履歴を記憶する視線履歴記憶手段を備えている。
The line-of-sightinformation service unit 65 outputs information from theHUD 45 and thespeaker 44 based on the characteristic object, the recognition result, and the line-of-sight history based on the driver's line-of-sight information as described below.
First, the line-of-sightinformation service unit 65 receives recognition information from the imagerecognition function unit 60 and receives line-of-sight information from the line-of-sight management unit 64.
Then, the line-of-sightinformation service unit 65 acquires a travel scene from thenavigation function unit 68 in order to accumulate the line-of-sight history, and sequentially records the line-of-sight information in the line-of-sight histories DBa to DBe accordingly.
Hereinafter, the line-of-sightinformation service unit 65 performs guidance processing while accumulating the line-of-sight history.
As described above, thenavigation device 1 includes line-of-sight history storage means for storing the detected line-of-sight history.

視線情報サービス部65は、認識情報に含まれる特徴物から、前方車両を抽出すると共に、交差点などの案内対象を抽出する。
ここで、前方車両を抽出したのは、後述するように、運転者の視界おいて前方車両を避けて案内情報を表示するためである。
The line-of-sightinformation service unit 65 extracts a front vehicle and a guidance object such as an intersection from the features included in the recognition information.
Here, the reason why the front vehicle is extracted is that guidance information is displayed while avoiding the front vehicle in the driver's view, as will be described later.

更に、視線情報サービス部65は、ナビゲーション機能部68から現在位置と進行方向を取得し、地図DB52に記憶してある3次元地図データを用いて、運転者の視線方向の模擬画像をレイトレーシング法などの手法を用いて生成する。
模擬画像は、視野画像に対応する情景画像を3次元地図データを用いて仮想的に構成したものである。
Further, the line-of-sightinformation service unit 65 obtains the current position and the traveling direction from thenavigation function unit 68, and uses the three-dimensional map data stored in the map DB 52 to generate a simulated image of the driver's line-of-sight direction using the ray tracing method. It is generated using a technique such as
The simulated image is a virtual image obtained by using a three-dimensional map data of a scene image corresponding to the visual field image.

そして、視線情報サービス部65は、案内対象情報(案内対象の座標値と認識結果)と、模擬画像中の特徴物の座標値及び属性を照合(マッチング)する。
この照合は、例えば、案内対象の座標値と模擬画像中の特徴物の座標値を照合し、更に、案内対象の属性(交差点など)と、模擬画像中の特徴物の属性を照合することにより行う。
このマッチングは、全ての案内対象に対して行ってもよいし、あるいは、ランドマークなどの一部の案内対象に対して行ってもよい。
このようにして、視線情報サービス部65は、交差点などの撮影画像中の案内対象を特定する。
このように、ナビゲーション装置1は、車両の前方方向にある案内対象を特定する特定手段を備えている。
Then, the line-of-sightinformation service unit 65 collates (matches) the guidance target information (the guidance target coordinate value and the recognition result) with the coordinate value and attribute of the feature in the simulated image.
This collation is performed, for example, by collating the coordinate value of the guidance target with the coordinate value of the feature in the simulated image, and further collating the attribute of the guidance target (such as an intersection) with the attribute of the feature in the simulated image. Do.
This matching may be performed for all guidance targets or for some guidance targets such as landmarks.
In this way, the line-of-sightinformation service unit 65 specifies a guidance target in a captured image such as an intersection.
Thus, thenavigation apparatus 1 includes a specifying unit that specifies a guidance target in the forward direction of the vehicle.

なお、表示画像中の案内対象を3次元地図データとマッチングして特定するのは、例えば、運転者の視線先にある個別の建築物を「スカイタワーです」などと案内する場合に有効である。
本実施形態は、交通情報を案内するので、例えば、自車両の前方に認識された交差点がどの交差点であるかは、GPS受信装置14による現在位置情報からわかる。そのため、必ずしも3次元地図データによるマッチングを行わなくても実行可能である。
Note that the guidance target in the display image is specified by matching with the 3D map data, for example, when the individual building at the driver's line of sight is guided as “Sky Tower”. .
Since the present embodiment guides traffic information, for example, which intersection is the intersection recognized in front of the host vehicle can be known from the current position information by theGPS receiver 14. Therefore, it can be executed without necessarily performing matching using 3D map data.

視線情報サービス部65は、このようにして、前方の案内対象を特定すると、当該案内対象の案内情報を案内情報DB54から取得し、HUD表示制御部72や音声制御部73に出力する。
このように、ナビゲーション装置1は、特定した案内対象の案内情報を取得する案内情報取得手段を備えている。
また、視線情報サービス部65は、選択した案内対象に対する情報を運転者に提供する情報提供手段として機能している。
後述するように、視線情報サービス部65は、HUD45に案内情報を表示する場合、前方車両との位置関係によって、前方車両を避けつつ、運転者の視線移動がなるべく少なくなる領域を動的に選択して表示する。
When the line-of-sightinformation service unit 65 specifies the guidance object ahead, the guidance information of the guidance object is acquired from theguidance information DB 54 and is output to the HUDdisplay control unit 72 and thevoice control unit 73.
As described above, thenavigation device 1 includes guidance information acquisition means for acquiring the guidance information of the specified guidance target.
The line-of-sightinformation service unit 65 functions as an information providing unit that provides the driver with information on the selected guidance target.
As will be described later, when displaying the guidance information on theHUD 45, the line-of-sightinformation service unit 65 dynamically selects an area in which the driver's line-of-sight movement is minimized while avoiding the forward vehicle, depending on the positional relationship with the forward vehicle. And display.

また、視線情報サービス部65は、音声認識機能部66が音声による入力を受け付けることもできる。
例えば、運転者が「次の交差点、右折、左折どっち?」などと発話すると、これをマイクロフォン46が音声認識部67に入力し、音声認識部67が発話内容を解釈する。
そして、これに対し、視線情報サービス部65は、「右折です。」などとHUD表示制御部72や音声制御部73に出力する。
In addition, the line-of-sightinformation service unit 65 can also receive voice input from the voicerecognition function unit 66.
For example, when the driver utters “next intersection, right turn, left turn?” Or the like, themicrophone 46 inputs this to the voice recognition unit 67, and the voice recognition unit 67 interprets the utterance content.
In response to this, the line-of-sightinformation service unit 65 outputs “turn right” or the like to the HUDdisplay control unit 72 or thevoice control unit 73.

ナビゲーション機能部68は、案内処理部69、GPS受信装置14、各センサ71、地図DB52、交通情報DB55、案内情報DB54などから構成されている。
これらのうち、案内処理部69は、ナビゲーションプログラム51を実行することにより構成され、また、各センサ71は、図2の方位センサ12、距離センサ13、地磁気センサ15などから構成されている。
Thenavigation function unit 68 includes aguidance processing unit 69, theGPS receiver 14, each sensor 71, a map DB 52, atraffic information DB 55, aguidance information DB 54, and the like.
Among these, theguidance processing unit 69 is configured by executing the navigation program 51, and each sensor 71 is configured by theazimuth sensor 12, thedistance sensor 13, thegeomagnetic sensor 15 and the like of FIG.

案内処理部69は、経路探索、経路案内などディスプレイ42やスピーカ44を用いた従来のナビゲーションを行うほか、視線情報サービス部65の求めに応じて3次元地図データや案内情報を提供したり、GPS受信装置14や各センサ71によって現在位置と進行方向を知らせたりなど、視線認識機能部63がHUD45を用いて情報提供を行ったり、視線履歴を蓄積するのを支援する。  Theguidance processing unit 69 performs conventional navigation using thedisplay 42 and thespeaker 44 such as route search and route guidance, provides 3D map data and guidance information according to the request of the line-of-sightinformation service unit 65, and GPS The line-of-sightrecognition function unit 63 uses theHUD 45 to provide information and accumulates line-of-sight history, such as notifying the current position and the traveling direction by the receivingdevice 14 and each sensor 71.

HUD表示制御部72と音声制御部73は、ナビゲーションプログラム51を実行することにより構成され、それぞれ、視線情報サービス部65の出力した案内情報をHUD45に表示したり、スピーカ44が出力したりする。  The HUDdisplay control unit 72 and thevoice control unit 73 are configured by executing the navigation program 51, and display the guidance information output from the line-of-sightinformation service unit 65 on theHUD 45 and thespeaker 44, respectively.

図5は、HUD45の表示領域を説明するための図である。
ナビゲーション装置1は、HUD45による表示画面を前方車領域81、重畳案内領域82、視線履歴高領域83、視線履歴中領域84、視線履歴低領域85に区分する。
なお、HUD45の表示領域は、運転者が運転操作にともなって視認する情景と重なっており、運転者の視界に対応している。
FIG. 5 is a diagram for explaining the display area of theHUD 45.
Thenavigation device 1 divides the display screen by theHUD 45 into afront vehicle area 81, asuperimposition guidance area 82, a line-of-sight historyhigh area 83, a line-of-sight history area 84, and a line-of-sight historylow area 85.
Note that the display area of theHUD 45 overlaps with the scene that the driver visually recognizes with the driving operation, and corresponds to the driver's field of view.

前方車領域81は、画像認識された前方車両が占める領域である。前方車領域81に案内情報を表示すると、例えば、前方車両のブレーキランプの視認性が低下するなど、運転者の運転操作に影響する可能性がある。
そのため、ナビゲーション装置1では、運転者の視認性を確保する必要がある対象の占める領域を表示禁止領域としてまずHUD45上に確保する。
Theforward vehicle area 81 is an area occupied by the forward vehicle whose image is recognized. If the guidance information is displayed in theforward vehicle area 81, the driver's driving operation may be affected, for example, the visibility of the brake lamp of the forward vehicle is reduced.
Therefore, in thenavigation apparatus 1, an area occupied by an object that needs to ensure driver visibility is first secured on theHUD 45 as a display-prohibited area.

重畳案内領域82は、原則的に案内情報を表示する領域である。
重畳案内領域82は、例えば、交差点の右左折案内が交差点と重なって表示されるなど、運転者の視界において案内情報が案内対象と重畳して表示される位置に設定されている。
Thesuperimposition guidance area 82 is an area for displaying guidance information in principle.
Thesuperimposition guidance area 82 is set at a position where the guidance information is displayed superimposed on the guidance target in the driver's field of view, for example, the left / right turn guidance at the intersection is displayed overlapping the intersection.

視線履歴高領域83、視線履歴中領域84、視線履歴低領域85は、それぞれ、運転者の視線の頻度が高い領域、中程度の領域、低い領域である。
視線履歴高領域83、視線履歴中領域84、視線履歴低領域85は、走行場面に従って、視線履歴DB57から動的に生成される。
なお、本実施形態では、視線履歴低領域85は、全表示領域から視線履歴高領域83と視線履歴中領域84を除いたものとなっている。
また、図5では、各領域が分かり易いように斜線を付すなどして図示してあるが、HUD45には表示されず、運転者には視認されない。
The line-of-sight historyhigh region 83, the line-of-sight history region 84, and the line-of-sight historylow region 85 are a region where the driver's line-of-sight frequency is high, a medium region, and a low region, respectively.
The line-of-sight historyhigh area 83, the line-of-sight history area 84, and the line-of-sight historylow area 85 are dynamically generated from the line-of-sight history DB 57 according to the traveling scene.
In this embodiment, the line-of-sight historylow area 85 is obtained by removing the line-of-sight historyhigh area 83 and the line-of-sight history area 84 from the entire display area.
Further, in FIG. 5, each region is illustrated with hatching so as to be easily understood, but is not displayed on theHUD 45 and is not visually recognized by the driver.

図6は、各表示領域を詳細に説明するための図である。
図6(a)に示したように、前方車領域81は、前方車両を矩形に囲んだ領域である。図では、1台であるが、前方に複数の車両が存在する場合は、それぞれの車両ごとに前方車領域81が生成される。
FIG. 6 is a diagram for explaining each display area in detail.
As shown in FIG. 6A, thefront vehicle area 81 is an area surrounding the front vehicle in a rectangle. In the figure, although there is one vehicle, when there are a plurality of vehicles ahead, afront vehicle region 81 is generated for each vehicle.

ここで、車両は、前記運転者の視界に存在する特定対象として機能しており、ナビゲーション装置1は、前記運転者の視界に存在する特定対象を検知する検知手段を備えている。
本実施形態では、案内情報を重畳しない対象(特定対象)として前方車両を例に説明するが、その他、例えば、信号機の表示板、電光掲示板なども案内情報を重畳しない対象として考えられる。
また、前方車領域81は、検知した特定対象が前記視界において占める特定対象領域として機能しており、このため、ナビゲーション装置1は、特定対象領域を設定する設定手段を備えている。
Here, the vehicle functions as a specific target existing in the driver's field of vision, and thenavigation device 1 includes a detecting unit that detects the specific target present in the driver's field of view.
In the present embodiment, a front vehicle is described as an example of a target (specific target) on which guidance information is not superimposed. For example, a display board of a traffic light, an electric bulletin board, and the like are also considered as targets on which guidance information is not superimposed.
Further, theforward vehicle area 81 functions as a specific target area occupied by the detected specific target in the field of view. For this reason, thenavigation device 1 includes setting means for setting the specific target area.

図6(b)に示したように、重畳案内領域82は、運転者の頭部の正面付近に設定される。これは、重畳案内領域82に案内情報を表示すると案内対象と案内情報が重なって(重畳して)表示されるようにするためである。案内対象と案内情報が重なると、運転者の視線移動を著しく少なくすることができる。
このように、表示領域は、運転者の視界において、案内対象と重なる領域に設定されている。
As shown in FIG. 6B, the overlappingguide area 82 is set near the front of the driver's head. This is because when the guidance information is displayed in the superimposedguidance area 82, the guidance object and the guidance information are displayed so as to overlap (superimpose). If the guidance object and the guidance information overlap, the driver's line-of-sight movement can be significantly reduced.
Thus, the display area is set to an area overlapping with the guidance target in the driver's field of view.

本実施形態では、案内情報がより案内対象と重なるように、案内種別に応じて、右左折系用、注意喚起系用、及び運転支援系用の重畳案内領域82を用意してある。
これは、例えば、レーンリスト(運転支援系)は、交差点(右左折系)よりも手前に位置するなど、案内対象と重畳する位置が案内種別によって異なるためである。
なお、これは、一例であって、より細かく案内情報ごとに重畳案内領域82を設定してもよい。
In the present embodiment, asuperimposition guidance area 82 for right / left turn system, warning system, and driving support system is prepared according to the guidance type so that the guidance information more overlaps with the guidance target.
This is because, for example, the lane list (driving support system) is positioned in front of the intersection (right / left turn system), and the position superimposed on the guidance target differs depending on the guidance type.
This is an example, and thesuperimposition guidance area 82 may be set for each guidance information in more detail.

また、運転者の視界は、座高などにより個人差があるが、個人差を考慮しても案内情報が案内対象と重畳して表示される位置は、あまり変わらないため、重畳案内領域82の位置は、全ての運転者に対して一律に設定されている。
更に、視線カメラ32で運転者の眼部を検出し、眼部の位置に応じて調整したり、視線履歴を用いて調整したりなど、個人ごとに重畳案内領域82の位置を調整してもよい。
Further, although the driver's field of view varies depending on the seating height and the like, the position where the guidance information is superimposed and displayed on the guidance object does not change much even considering the individual difference. Is set uniformly for all drivers.
Furthermore, even if the position of thesuperimposition guidance area 82 is adjusted for each individual, such as detecting the driver's eyes with the line-of-sight camera 32 and adjusting according to the position of the eyes or using the line-of-sight history. Good.

なお、次に説明するが、重畳案内領域82から前方車領域81を除いた領域を重畳可能領域と呼ぶ。
重畳案内領域82は、車両の運転者の視界において、特定した案内情報に対して予め設定された表示領域として機能しており、このため、ナビゲーション装置1は、表示領域取得手段を備えている。
In addition, although demonstrated below, the area | region remove | excluding the front vehicle area |region 81 from the superimposition guidance area |region 82 is called a superimposable area | region.
Thesuperimposition guidance area 82 functions as a display area preset for the specified guidance information in the field of view of the driver of the vehicle. For this reason, thenavigation apparatus 1 includes a display area acquisition unit.

なお、図では、画面の中央付近に重畳案内領域82が描かれているが、右ハンドルの場合は右寄りに、左ハンドルの場合は左寄りに設定するなど、案内対象と案内情報が重畳し易い位置に設定されている。  In the figure, asuperimposition guide area 82 is drawn near the center of the screen, but the position where guidance information and guidance information can be easily superimposed is set to the right for the right handle and to the left for the left handle. Is set to

図6(c)は、重畳可能領域86を示した図である。重畳可能領域86は、重畳案内領域82から、前方車領域81と重なっている部分を除いた領域である。
重畳案内領域82は、原則として案内情報を表示する領域であるが、重畳案内領域82と前方車領域81が重なっていると、当該重なっている部分には案内情報が表示できない。
そこで、重畳可能領域86は、重畳案内領域82に前方車領域81が重なっている場合に案内情報を表示できる領域である。
このように、ナビゲーション装置1は、表示領域のうち、設定した特定対象領域と重ならない領域に案内情報を表示する表示手段を備えている。
FIG. 6C shows thesuperimposable area 86. Thesuperimposable region 86 is a region obtained by removing a portion overlapping thefront vehicle region 81 from thesuperimposition guide region 82.
Thesuperimposition guidance area 82 is an area for displaying guidance information in principle, but if thesuperimposition guidance area 82 and thefront vehicle area 81 overlap, the guidance information cannot be displayed in the overlapping portion.
Therefore, thesuperimposable area 86 is an area where guidance information can be displayed when theforward vehicle area 81 overlaps thesuperimposition guidance area 82.
As described above, thenavigation device 1 includes display means for displaying guidance information in an area that does not overlap the set specific target area.

本実施形態では、重畳可能領域86の面積が重畳案内領域82の面積の50%以上の場合は、簡易的な案内情報を重畳可能領域86に表示し、50%未満の場合は、視線履歴高領域83〜視線履歴低領域85に表示する。
このように、ナビゲーション装置1は、案内対象に案内情報を重畳するのが困難な場合でも、なるべく運転者の視線の移動が少なくなる領域に案内情報を表示する。
以上のように、ナビゲーション装置1は、表示領域(重畳案内領域82)のうち、特定対象領域(前方車領域81)と重ならない領域の面積が所定の規定値を下回る場合、取得した表示領域、及び設定した特定対象領域の領域外に前記案内情報を表示する。
In the present embodiment, when the area of thesuperimposable region 86 is 50% or more of the area of thesuperimposition guide region 82, simple guidance information is displayed in thesuperimposable region 86, and when the area is less than 50%, the line-of-sight history height is high. Displayed inarea 83 to line-of-sight historylow area 85.
Thus, even when it is difficult to superimpose the guidance information on the guidance target, thenavigation device 1 displays the guidance information in an area where the movement of the driver's line of sight is minimized.
As described above, when the area of a region that does not overlap the specific target region (the front vehicle region 81) in the display region (superimposed guidance region 82) falls below a predetermined specified value, thenavigation device 1 acquires the display region, The guide information is displayed outside the set specific target area.

図6(d)は、視線履歴高領域83、視線履歴中領域84、視線履歴低領域85を示した図である。
この例では、視線履歴高領域83は、矩形に設定されており、視線履歴中領域84は、より大きな矩形領域から視線履歴高領域83を除いた領域である。
更に、視線履歴低領域85は、画面全体から視線履歴高領域83と視線履歴中領域84を除いた領域である。これらの領域は、視線履歴DB57を用いて設定される。
ここで、視線履歴高領域83〜視線履歴低領域85は、運転者の視界に対応しており、そのため、ナビゲーション装置1は、記憶した視線の履歴を用いて、視界を、視線の頻度によって複数の視線領域に区分する区分手段を備えている。
FIG. 6D is a diagram showing a line-of-sight historyhigh area 83, a line-of-sight history area 84, and a line-of-sight historylow area 85.
In this example, the line-of-sight historyhigh area 83 is set to a rectangle, and the line-of-sight history area 84 is an area obtained by removing the line-of-sight historyhigh area 83 from a larger rectangular area.
Further, the line-of-sight historylow area 85 is an area obtained by removing the line-of-sight historyhigh area 83 and the line-of-sight history area 84 from the entire screen. These areas are set using the line-of-sight history DB 57.
Here, the line-of-sight historyhigh region 83 to the line-of-sight historylow region 85 correspond to the driver's field of view. Therefore, thenavigation device 1 uses the stored line-of-sight history to display a plurality of fields of view according to the line-of-sight frequency. The dividing means for dividing the line of sight into the line-of-sight areas is provided.

図7は、交差点(右左折系)での案内情報の表示を説明するための図である。
図7(a)は、重畳案内領域82に前方車領域81が存在しない場合を示している。この場合、重畳案内領域82の全域を案内情報の表示に使用することができる。
そのため、ナビゲーション装置1は、案内情報(この場合、交差点を右折)から重畳案内図91を生成し、道路101に重畳して表示する。重畳案内図91は、道路101に重なっているため、運転者は、視線の移動を極小にして案内情報を視認することができる。
FIG. 7 is a diagram for explaining display of guidance information at an intersection (right-left turn system).
FIG. 7A shows a case where thefront vehicle area 81 does not exist in the superimposedguide area 82. In this case, the entiresuperimposition guidance area 82 can be used for displaying guidance information.
Therefore, thenavigation device 1 generates a superimposedguide map 91 from the guidance information (in this case, turn right at the intersection) and displays the superimposedguide map 91 on theroad 101. Since the superimposedguide map 91 overlaps theroad 101, the driver can view the guide information with minimal movement of the line of sight.

図7(b)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%未満の場合を示している。
この場合、ナビゲーション装置1は、案内可能領域、即ち、重畳案内領域82から前方車領域81を除いた領域に案内情報から生成した簡易重畳案内図92を表示する。
簡易重畳案内図92は、案内対象(この場合、交差点)と、完全には重ならないが、重畳案内領域82に表示されているため、一部重なり、運転者の視線の移動を最小限にすることができる。
FIG. 7B shows a case where the ratio of thefront vehicle area 81 in theoverlap guide area 82 is less than 50% in area ratio.
In this case, thenavigation device 1 displays the simplifiedsuperimposition guide map 92 generated from the guidance information in a guideable area, that is, an area excluding thefront vehicle area 81 from thesuperimposition guidance area 82.
The simplifiedsuperimposition guide map 92 does not completely overlap with the guidance target (in this case, an intersection), but is displayed in thesuperimposition guidance area 82, so that it partially overlaps and minimizes the movement of the driver's line of sight. be able to.

簡易重畳案内図92は、重畳案内図91を簡易化したものであり、重畳案内図91より小さい図柄で表示スペースを省略している。
そして、簡易重畳案内図92は、情報の欠落を防ぐため、「30m」などと、文字情報により画像情報を補填している。
なお、重畳案内図91の場合は、案内対象と重なっているため、「30m」などの文字を表示せずとも運転者に案内情報が不足なく伝達される。
The simplified superimposition guide diagram 92 is a simplification of the superimposition guide diagram 91, and a display space is omitted with a symbol smaller than the superimposition guide diagram 91.
In the simplified superimposition guide diagram 92, image information is supplemented with character information such as “30 m” in order to prevent missing information.
In the case of the superimposed guidance diagram 91, since it overlaps with the guidance target, the guidance information is transmitted to the driver without a shortage without displaying characters such as “30 m”.

図7(c)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%以上の場合を示している。
この場合、ナビゲーション装置1は、簡易重畳案内図92に案内情報を表示することはせず、視線履歴高領域83〜視線履歴低領域85に案内情報を表示する。
FIG. 7C shows a case where the ratio of thefront vehicle area 81 in theoverlap guide area 82 is 50% or more in area ratio.
In this case, thenavigation device 1 does not display the guidance information in the simplifiedsuperimposition guide map 92 but displays the guidance information in the line-of-sight historyhigh area 83 to the line-of-sight historylow area 85.

交差点における右左折系の案内情報は、視線履歴頻度判定表58(図3)において、視線履歴頻度が「高」に設定されているため、ナビゲーション装置1は、表示領域として視線履歴高領域83を選択し、視線履歴高領域83から前方車領域81と重畳案内領域82を除いた領域に簡易案内図93を表示する。  Since the gaze history frequency is set to “high” in the gaze history frequency determination table 58 (FIG. 3), thenavigation device 1 uses the gaze historyhigh area 83 as a display area. Thesimplified guide map 93 is displayed in an area excluding theforward vehicle area 81 and the superimposedguide area 82 from the line-of-sight historyhigh area 83.

簡易案内図93は、簡易重畳案内図92をよりコンパクトにアイコン化したものである。簡易案内図93も「30m」などと文字情報で情報を補うことにより、案内情報の欠落を防いでいる。
簡易案内図93は、案内対象と重ならないものの、視線履歴高領域83に表示されるため、運転者の視線の移動を少なくすることができる。
更に、ナビゲーション装置1は、簡易案内図93を、右折の場合は、右側に表示し、左折の場合は左側に表示するなどし、運転者の視線の移動を最小限にする。
The simplified guide diagram 93 is a more compact iconized version of the simplified superimposition guide diagram 92. Thesimple guide map 93 also prevents information from being lost by supplementing the information with character information such as “30 m”.
Although thesimplified guide map 93 does not overlap with the guidance target, it is displayed in the line-of-sight historyhigh area 83, so that the movement of the driver's line of sight can be reduced.
Further, thenavigation device 1 displays thesimplified guide map 93 on the right side in the case of a right turn and on the left side in the case of a left turn, thereby minimizing the movement of the driver's line of sight.

このように、ナビゲーション装置1は、重畳案内領域82の外に案内情報を表示する場合、視線履歴高領域83〜視線履歴低領域85に表示するため、領域外に案内情報を表示する場合、所定の視線領域に表示している。
また、ナビゲーション装置1は、重畳案内図91、簡易重畳案内図92、簡易案内図93と表示領域によって表示形態を変化させるため、案内情報を表示する領域に応じて当該案内情報の表示画像を変化させている。
As described above, thenavigation device 1 displays the guidance information outside thesuperimposition guidance area 82 in the gaze historyhigh area 83 to the gaze historylow area 85. Is displayed in the line-of-sight area.
In addition, thenavigation device 1 changes the display form according to thesuperimposition guide map 91, the simplesuperimposition guide map 92, thesimple guide map 93, and the display area, so that the display image of the guide information is changed according to the display area of the guide information. I am letting.

ナビゲーション装置1は、視線履歴高領域83に他の前方車両による前方車領域81があるなど、視線履歴高領域83に十分な表示領域がない場合は、視線履歴頻度を1つ下げ、視線履歴中領域84で表示領域を探索し、視線履歴中領域84でも十分な表示領域がない場合は、視線履歴低領域85に簡易案内図93を表示する。
このように、ナビゲーション装置1は、所定の視線領域の面積が前記案内情報を表示するための所定の面積を満たさない場合、より頻度の低い視線領域に前記案内情報を表示する。
When there is not a sufficient display area in the line-of-sight historyhigh area 83, such as when the line-of-sight historyhigh area 83 has aforward vehicle area 81 due to another preceding vehicle, thenavigation apparatus 1 decreases the line-of-sight history frequency by one. When the display area is searched in thearea 84 and there is not a sufficient display area in the line-of-sight history area 84, thesimplified guide map 93 is displayed in the line-of-sight historylow area 85.
As described above, thenavigation device 1 displays the guidance information in a less frequent line-of-sight area when the area of the predetermined line-of-sight area does not satisfy the predetermined area for displaying the guidance information.

図8は、分岐点(右左折系)での案内情報の表示を説明するための図である。
図8(a)は、重畳案内領域82に前方車領域81が存在しない場合を示している。
この場合、ナビゲーション装置1は、重畳案内領域82の全域を用いることができ、道路101に重畳して重畳案内図91(この場合、左側の分岐を選択する案内情報)を表示する。
図8(b)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%未満の場合を示している。
この場合、ナビゲーション装置1は、重畳可能領域に簡易重畳案内図92を表示する。
FIG. 8 is a diagram for explaining the display of guidance information at a branch point (right-left turn system).
FIG. 8A shows a case where thefront vehicle area 81 does not exist in the overlappingguide area 82.
In this case, thenavigation apparatus 1 can use the entireoverlap guide area 82 and displays the overlap guide map 91 (in this case, guide information for selecting the left branch) superimposed on theroad 101.
FIG. 8B shows a case where the ratio of thefront vehicle area 81 in theoverlap guide area 82 is less than 50% in area ratio.
In this case, thenavigation device 1 displays the simplifiedsuperimposition guide map 92 in the superimposable region.

図8(c)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%以上の場合を示している。
分岐は、視線履歴頻度が「高」に設定されているため、ナビゲーション装置1は、表示領域として視線履歴高領域83を選択し、視線履歴高領域83から前方車領域81と重畳案内領域82を除いた領域に簡易案内図93を表示する。
視線履歴高領域83に、十分な表示領域がない場合、ナビゲーション装置1は、視線履歴中領域84、視線履歴低領域85の順に、表示スペースを探索する。
FIG. 8C shows a case where the proportion of thefront vehicle area 81 in the overlappingguide area 82 is 50% or more in area ratio.
Since the line-of-sight history frequency is set to “high” for the branch, thenavigation apparatus 1 selects the line-of-sight historyhigh area 83 as the display area, and moves theforward vehicle area 81 and the overlappingguide area 82 from the line-of-sight historyhigh area 83. Asimple guide map 93 is displayed in the excluded area.
When the line-of-sight historyhigh area 83 does not have a sufficient display area, thenavigation device 1 searches the display space in the order of the line-of-sight history area 84 and the line-of-sight historylow area 85.

図9は、進入禁止(注意喚起系)の案内情報の表示を説明するための図である。
図9(a)は、重畳案内領域82に前方車領域81が存在しない場合を示している。
この場合、ナビゲーション装置1は、重畳案内領域82の全域を用いることができ、道路101に重畳して重畳案内図91(この場合、左側進入禁止を意味する案内情報)を表示する。
図9(b)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%未満の場合を示している。
この場合、ナビゲーション装置1は、重畳可能領域に簡易重畳案内図92を表示する。
FIG. 9 is a diagram for explaining the display of guidance information for entry prohibition (attention alerting system).
FIG. 9A shows a case where thefront vehicle area 81 does not exist in the overlappingguide area 82.
In this case, thenavigation device 1 can use the entiresuperimposition guidance area 82 and displays the superimposition guide map 91 (in this case, guidance information that indicates prohibition of entering the left side) superimposed on theroad 101.
FIG. 9B shows a case where the ratio of thefront vehicle area 81 in the overlappingguide area 82 is less than 50% in area ratio.
In this case, thenavigation device 1 displays the simplifiedsuperimposition guide map 92 in the superimposable region.

図9(c)は、重畳案内領域82において前方車領域81の占める割合が面積比で50%以上の場合を示している。
進入禁止は、視線履歴頻度が「中」に設定されているため、ナビゲーション装置1は、表示領域として視線履歴中領域84を選択し、視線履歴中領域84から前方車領域81と重畳案内領域82を除いた領域に簡易案内図93を表示する。
視線履歴高領域83に、十分な表示領域がない場合、ナビゲーション装置1は、視線頻度を1つ下げ、視線履歴低領域85に簡易案内図93を表示する。
図9(d)に示した合流注意(注意喚起系)も進入禁止と同様に表示される。
FIG. 9C shows a case where the proportion of thefront vehicle area 81 in the overlappingguide area 82 is 50% or more in area ratio.
In the entry prohibition, since the line-of-sight history frequency is set to “medium”, thenavigation device 1 selects the line-of-sight history area 84 as the display area, and thevehicle area 81 and the overlappingguide area 82 from the line-of-sight history area 84 are selected. Asimple guide map 93 is displayed in the area excluding.
When there is not a sufficient display area in the line-of-sight historyhigh area 83, thenavigation device 1 lowers the line-of-sight frequency by one and displays thesimplified guide map 93 in the line-of-sight historylow area 85.
The merging notice (attention calling system) shown in FIG. 9D is also displayed in the same manner as the entry prohibition.

図10は、レーンリスト案内(運転支援系)の案内情報の表示を説明するための図である。
図10(a)は、重畳案内領域82に前方車領域81が存在しない場合を示している。
この場合、ナビゲーション装置1は、重畳案内領域82の全域を用いることができ、道路101のレーンに重畳して重畳案内図91、91(この場合、左側レーンは直進、右側レーンは直進と右折を意味する案内情報)を表示する。
FIG. 10 is a diagram for explaining display of guidance information for lane list guidance (driving support system).
FIG. 10A shows a case where thefront vehicle area 81 does not exist in the superimposedguide area 82.
In this case, thenavigation device 1 can use the entireoverlap guide area 82 and overlaps the lane of theroad 101 to overlap guide maps 91 and 91 (in this case, the left lane goes straight, the right lane goes straight and turns right). Meaning guide information) is displayed.

図10(b)は、重畳案内領域82において前方車領域81の占める割合が面積比で0%よりも大きい場合、即ち、重畳案内領域82に前方車領域81が少しでも重なった場合を示している。
レーン案内は、視線履歴頻度が「低」に設定されている。この場合、ナビゲーション装置1は、重畳案内領域82に前方車領域81が重なると、表示領域として視線履歴低領域85を選択し、視線履歴低領域85から前方車領域81と重畳案内領域82を除いた領域に簡易案内図93を表示する。
このように、ナビゲーション装置1は、重畳案内領域82に前方車領域81が重なると、その面積比にかかわらず、視線履歴低領域85に簡易案内図93を表示する。これは、運転支援系の案内情報は、緊急度が低いため、重畳可能領域86に表示するほどの重要性がないからである。
FIG. 10B shows a case where the ratio of thefront vehicle area 81 in theoverlap guide area 82 is larger than 0% in area ratio, that is, a case where thefront vehicle area 81 overlaps theoverlap guide area 82 even a little. Yes.
In the lane guidance, the line-of-sight history frequency is set to “low”. In this case, thenavigation device 1 selects the line-of-sight historylow area 85 as the display area when thefront vehicle area 81 overlaps thesuperimposition guidance area 82, and excludes thefront vehicle area 81 and thesuperimposition guidance area 82 from the line-of-sight historylow area 85. Asimple guide map 93 is displayed in the area.
As described above, when theforward vehicle area 81 overlaps the superimposedguide area 82, thenavigation device 1 displays thesimplified guide map 93 in the line-of-sight historylow area 85 regardless of the area ratio. This is because the driving assistance system guidance information has a low degree of urgency and is not so important as to be displayed in thesuperimposable area 86.

図11は、看板案内(運転支援系)の案内情報の表示を説明するための図である。
図11(a)は、重畳案内領域82に前方車領域81が存在しない場合を示している。
この場合、ナビゲーション装置1は、重畳案内領域82の全域を用いることができ、道路101に重畳して重畳案内図91(この場合、行き先案内を意味する案内情報)を表示する。
FIG. 11 is a diagram for explaining display of guidance information for signboard guidance (driving support system).
FIG. 11A shows a case where thefront vehicle area 81 does not exist in the superimposedguide area 82.
In this case, thenavigation apparatus 1 can use the entiresuperimposition guidance area 82 and superimposes it on theroad 101 to display a superimposition guide map 91 (in this case, guidance information meaning destination guidance).

図11(b)は、重畳案内領域82において前方車領域81の占める割合が面積比で0%よりも大きい場合を示している。
看板案内は、視線履歴頻度が「低」に設定されている。この場合、ナビゲーション装置1は、重畳案内領域82に前方車領域81が重なると、表示領域として視線履歴低領域85を選択し、視線履歴低領域85から前方車領域81と重畳案内領域82を除いた領域に簡易案内図93を表示する。
FIG. 11B shows a case where the ratio of thefront vehicle area 81 in the overlappingguide area 82 is larger than 0% in area ratio.
In the signage guidance, the line-of-sight history frequency is set to “low”. In this case, thenavigation device 1 selects the line-of-sight historylow area 85 as the display area when thefront vehicle area 81 overlaps thesuperimposition guidance area 82, and excludes thefront vehicle area 81 and thesuperimposition guidance area 82 from the line-of-sight historylow area 85. Asimple guide map 93 is displayed in the area.

次に、以上のように構成されたナビゲーション装置1の動作について説明する。
図12は、HUD45の表示を用いた案内処理の全体を説明するためのフローチャートである。
以下の処理は、情報処理装置20(図2)のCPU21がナビゲーションプログラム51を実行することにより行われる。
Next, the operation of thenavigation device 1 configured as described above will be described.
FIG. 12 is a flowchart for explaining the entire guidance process using the display of theHUD 45.
The following processing is performed by theCPU 21 of the information processing apparatus 20 (FIG. 2) executing the navigation program 51.

ナビゲーション装置1は、ナビゲーション機能部68により現在位置と進行方向を検出し、前方に右左折系の案内対象があるか否かを判断する(ステップ5)。
前方に右左折系の案内対象がない場合(ステップ5;N)、ナビゲーション装置1は、ステップ5で引き続き右左折系の案内対象の有無を監視する。
一方、前方に右左折系の案内対象があった場合(ステップ5;Y)、ナビゲーション装置1は、右左折系案内処理を行う(ステップ15)。
Thenavigation device 1 detects the current position and the traveling direction by thenavigation function unit 68, and determines whether or not there is a right / left turn guidance object ahead (step 5).
If there is no right-left turn guidance object ahead (step 5; N), thenavigation device 1 continues to monitor the presence of a right-left turn guidance object instep 5.
On the other hand, when there is a left / right turn guidance object ahead (step 5; Y), thenavigation device 1 performs a right / left turn guidance process (step 15).

また、ナビゲーション装置1は、ステップ5、15を行いながら、同時に前方に注意喚起系の案内対象があるか否かを判断する(ステップ20)。
前方に注意喚起系の案内対象がない場合(ステップ20;N)、ナビゲーション装置1は、ステップ20で引き続き注意喚起系の案内対象の有無を監視する。
一方、前方に注意喚起系の案内対象があった場合(ステップ20;Y)、ナビゲーション装置1は、注意喚起系案内処理を行う(ステップ25)。
In addition, thenavigation device 1 determines whether or not there is a guidance target of the alerting system ahead while performingsteps 5 and 15 (step 20).
When there is no attention-guided guidance target ahead (step 20; N), thenavigation device 1 continues to monitor the presence or absence of the attention-based guidance target instep 20.
On the other hand, when there is a guidance object of the attention system ahead (step 20; Y), thenavigation device 1 performs the attention system guidance process (step 25).

更に、ナビゲーション装置1は、ステップ5、15、20、25を行いながら、同時に前方に運転支援系の案内対象があるか否かを判断する(ステップ30)。
前方に運転支援系の案内対象がない場合(ステップ30;N)、ナビゲーション装置1は、ステップ30で引き続き運転支援系の案内対象の有無を監視する。
一方、前方に運転支援系の案内対象があった場合(ステップ30;Y)、ナビゲーション装置1は、運転支援系案内処理を行う(ステップ35)。
Further, thenavigation device 1 determines whether or not there is a driving assistance system guidance target in front while performingsteps 5, 15, 20, and 25 (step 30).
When there is no driving support system guidance target ahead (step 30; N), thenavigation device 1 continues to monitor the presence or absence of the driving support system guidance target instep 30.
On the other hand, when there is a driving assistance system guidance target ahead (step 30; Y), thenavigation device 1 performs a driving assistance system guidance process (step 35).

このように、ナビゲーション装置1は、右左折系案内処理、注意喚起系案内処理、及び、運転支援系案内処理を同時に並行して行うため、HUD45に、例えば、右左折系の交差点案内と運転支援系の看板案内が同時に表示される場合がある。
ナビゲーション装置1は、重畳案内領域82に案内情報2つ分の表示スペースが確保できる場合、交差点案内と看板案内を共に重畳案内領域82に表示し、表示スペースが確保できない場合、緊急度の低い看板案内を視線履歴頻度判定表58に従って視線履歴低領域85に表示する。
このように、ナビゲーション装置1は、複数の案内情報を表示する際に、緊急度の高いものほど運転者の視線移動が少ない領域(目に付き易い領域)に表示することができる。
As described above, thenavigation device 1 performs the right / left turn type guidance process, the alerting type guidance process, and the driving support type guidance process simultaneously in parallel. System signboard guidance may be displayed at the same time.
Thenavigation device 1 displays both intersection guidance and signboard guidance in thesuperimposition guidance area 82 when a display space for two pieces of guidance information can be secured in thesuperimposition guidance area 82. If the display space cannot be secured, the signboard with low urgency is displayed. The guidance is displayed in the line-of-sight historylow area 85 according to the line-of-sight history frequency determination table 58.
Thus, when displaying a plurality of guidance information, thenavigation device 1 can display an area with a higher degree of urgency in an area where the driver's line-of-sight movement is less (an easily visible area).

図13は、右左折系案内処理の手順を説明するためのフローチャートである。
ナビゲーション装置1は、前方車領域81を画像認識により検知する(ステップ50)。
次に、ナビゲーション装置1は、当該案内対象に対する案内情報(ここでは、右折か左折かを表す右左折情報)を取得する(ステップ55)。
次に、ナビゲーション装置1は、右左折系用の重畳案内領域82をHUD45の画面上に確保する(ステップ60)。
FIG. 13 is a flowchart for explaining the procedure of the left / right turn type guidance processing.
Thenavigation device 1 detects thefront vehicle area 81 by image recognition (step 50).
Next, thenavigation device 1 acquires guidance information (here, right / left turn information indicating whether the vehicle is turning right or left) for the guidance target (step 55).
Next, thenavigation device 1 secures the superimposedguidance area 82 for the right / left turn system on the screen of the HUD 45 (step 60).

次に、ナビゲーション装置1は、重畳可能領域86を計算し(ステップ65)、重畳可能領域86の重畳案内領域82に対する面積比が100%か否かを判断する(ステップ70)。
重畳可能領域86の重畳案内領域82に対する面積比が100%の場合(即ち、重畳案内領域82に前方車領域81が存在しない場合)(ステップ70;Y)、ナビゲーション装置1は、重畳案内図91を描画して(ステップ75)、重畳可能領域86に表示する(ステップ100)。
Next, thenavigation apparatus 1 calculates the superimposable region 86 (step 65), and determines whether or not the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is 100% (step 70).
When the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is 100% (that is, when thefront vehicle region 81 does not exist in the superimposition guide region 82) (step 70; Y), thenavigation device 1 uses thesuperimposition guide map 91. Is drawn (step 75) and displayed in the superimposable area 86 (step 100).

一方、重畳可能領域86の重畳案内領域82に対する面積比が100%でない場合(即ち、重畳案内領域82に前方車領域81が存在する場合)(ステップ70;N)、ナビゲーション装置1は、重畳可能領域86の重畳案内領域82に対する面積比が50%以上か否かを判断する(ステップ80)。  On the other hand, when the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is not 100% (that is, when theforward vehicle region 81 exists in the superimposition guide region 82) (step 70; N), thenavigation device 1 can superimpose. It is determined whether the area ratio of thearea 86 to the overlappingguide area 82 is 50% or more (step 80).

重畳可能領域86の重畳案内領域82に対する面積比が50%以上の場合(ステップ80;Y)、ナビゲーション装置1は、簡易重畳案内図92を描画して(ステップ85)、重畳可能領域86に表示する(ステップ100)。
一方、重畳可能領域86の重畳案内領域82に対する面積比が50%未満の場合(ステップ80;N)、ナビゲーション装置1は、簡易案内図93を表示する領域を探索する領域探索処理を行う(ステップ90)。
そして、ナビゲーション装置1は、簡易案内図93を描画し(ステップ95)、領域探索処理で探索された視線履歴高領域83〜視線履歴低領域85の何れかに簡易案内図93を表示する(ステップ100)。
When the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is 50% or more (step 80; Y), thenavigation apparatus 1 draws the simple superimposition guide map 92 (step 85) and displays it in thesuperimposable region 86. (Step 100).
On the other hand, when the area ratio of thesuperimposable area 86 to thesuperimposition guide area 82 is less than 50% (step 80; N), thenavigation device 1 performs an area search process for searching for an area for displaying the simple guide map 93 (step 80). 90).
Then, thenavigation apparatus 1 draws the simple guide map 93 (step 95), and displays thesimple guide map 93 in any of the line-of-sight historyhigh area 83 to the line-of-sight historylow area 85 searched in the area search process (step 95). 100).

ナビゲーション装置1は、案内情報をHUD45に表示した後(ステップ100)、ナビゲーションにより、案内対象までの距離が案内図変更可能距離未満か否かを判断する(ステップ105)。
案内図変更可能距離とは、重畳案内図91などの案内情報の表示を更新できる距離であり、案内対象から現在位置までの距離が案内図変更可能距離以上である場合、ナビゲーション装置1は、案内情報の表示形態(重畳案内図91、簡易重畳案内図92、簡易案内図93)を更新することができる。
After displaying the guidance information on the HUD 45 (step 100), thenavigation device 1 determines whether the distance to the guidance target is less than the guide map changeable distance by navigation (step 105).
The guide map changeable distance is a distance at which the display of guide information such as thesuperimposed guide map 91 can be updated. When the distance from the guidance target to the current position is equal to or greater than the guide map changeable distance, thenavigation device 1 The information display form (superimposition guide diagram 91, simple superimposition guide diagram 92, simple guide diagram 93) can be updated.

案内対象までの距離が案内図変更可能距離未満である場合(ステップ105;Y)、ナビゲーション装置1は、案内を終了し(ステップ110)、案内処理のメインルーチンにリターンする。
一方、案内対象までの距離が案内図変更可能距離以上である場合(ステップ105;N)、ナビゲーション装置1は、前方車領域81を検知し(ステップ115)、重畳可能領域86を計算する(ステップ120)。なお、重畳可能領域86の計算には、重畳案内領域82の確保が必要であるが、これは、ステップ60で確保したものを使用する。
When the distance to the guidance target is less than the guide map changeable distance (step 105; Y), thenavigation device 1 ends the guidance (step 110) and returns to the main routine of the guidance process.
On the other hand, when the distance to the guidance object is equal to or greater than the guide map changeable distance (step 105; N), thenavigation device 1 detects the forward vehicle area 81 (step 115) and calculates the superimposable area 86 (step). 120). Note that the calculation of thesuperimposable area 86 needs to secure thesuperimposition guide area 82, and this is ensured instep 60.

そして、ナビゲーション装置1は、現在表示に使用している重畳可能領域86と比較して新たに検知した重畳可能領域86が変化したか否か(即ち、100%、50%以上、50%未満の状態が変化したか否か)を判断する(ステップ125)。
ナビゲーション装置1は、重畳可能領域86が変化しない場合(ステップ125;N)、ステップ100に戻って現在の表示を継続し、変化した場合(ステップ125;Y)、ステップ70に戻って表示を更新する。
Then, thenavigation device 1 determines whether or not the newly detectedsuperimposable area 86 has changed compared to thesuperimposable area 86 currently used for display (ie, 100%, 50% or more, and less than 50%). It is determined whether or not the state has changed (step 125).
When thesuperimposable area 86 does not change (step 125; N), thenavigation device 1 returns to step 100 to continue the current display, and when changed (step 125; Y), returns to step 70 and updates the display. To do.

図14は、ステップ90の領域探索処理を説明するためのフローチャートである。
ナビゲーション装置1は、ナビゲーション機能部68より案内種別(右左折系、注意喚起系、運転支援系)、道路種別(高速道路、一般道、細街路)、場所種別(市街、郊外)を取得して(ステップ150)、現在の走行場面を特定する。
FIG. 14 is a flowchart for explaining the area search processing in step 90.
Thenavigation device 1 obtains a guidance type (right / left turn type, warning system, driving support type), road type (highway, general road, narrow street), and place type (city, suburb) from thenavigation function unit 68. (Step 150), the current driving scene is specified.

次に、ナビゲーション装置1は、取得した案内種別を視線履歴頻度判定表58(図3(b))に適用して視線履歴頻度のレベル(高・中・低)を判定する(ステップ155)。
そして、ナビゲーション装置1は、判定結果をRAM24の記憶領域に一時記憶し、以下の処理で使用するレベルに設定する(ステップ160)。この例は、右左折系のため、視線履歴頻度として「高」を設定する。なお、この設定値は、ステップ185のループ処理を経るたびに「中」、「低」と書き換えられる。
Next, thenavigation device 1 determines the level (high / medium / low) of the visual line history frequency by applying the acquired guidance type to the visual line history frequency determination table 58 (FIG. 3B) (step 155).
Then, thenavigation device 1 temporarily stores the determination result in the storage area of theRAM 24 and sets it to a level used in the following processing (step 160). Since this example is a right / left turn system, “high” is set as the line-of-sight history frequency. This set value is rewritten as “medium” or “low” every time the loop processing ofstep 185 is performed.

次に、ナビゲーション装置1は、道路種別と場所種別に基づいて、これに適合する視線履歴DBa〜視線履歴DBeを選択する(ステップ165)。
次に、ナビゲーション装置1は、ステップ160でRAM24に記憶した判定結果を参照することにより、使用する視線履歴DBのレベルを判定する(ステップ170)。
例えば、ステップ165で視線履歴DBaを選択した場合、ステップ160で一時記憶した判定結果が「高」であるため、視線履歴DBa(高)が使用するデータベースとなる。
Next, based on the road type and the location type, thenavigation device 1 selects the line-of-sight history DBa to the line-of-sight history DBe that match them (step 165).
Next, thenavigation apparatus 1 determines the level of the line-of-sight history DB to be used by referring to the determination result stored in theRAM 24 in Step 160 (Step 170).
For example, when the line-of-sight history DBa is selected instep 165, the determination result temporarily stored instep 160 is “high”, and thus the database used by the line-of-sight history DBa (high) is used.

次に、ナビゲーション装置1は、ステップ170で判定した視線履歴DBを用いて視線履歴領域をHUD45の画面上に取得する(ステップ175)。
例えば、視線履歴DB(高)を用いた場合、当該データベースによる視線履歴高領域83を取得する。
次に、ナビゲーション装置1は、取得した視線履歴領域(例えば、視線履歴高領域83)から、簡易案内図領域(前方車領域81と重畳案内領域82を除いた領域)を確保する(ステップ180)。
Next, thenavigation apparatus 1 acquires the line-of-sight history area on the screen of theHUD 45 using the line-of-sight history DB determined in step 170 (step 175).
For example, when the line-of-sight history DB (high) is used, the line-of-sight historyhigh region 83 is acquired from the database.
Next, thenavigation device 1 secures a simplified guide map area (an area excluding theforward vehicle area 81 and the superimposed guide area 82) from the acquired line-of-sight history area (for example, the line-of-sight history high area 83) (step 180). .

次に、ナビゲーション装置1は、簡易案内図領域に簡易案内図93を描画できるか否か(即ち、描画スペースがあるか否か)を判断する(ステップ185)。
描画できる場合(ステップ185;Y)、ナビゲーション装置1は、右左折系案内処理ルーチンにリターンし、描画できない場合(ステップ185;N)、ナビゲーション装置1は、視線履歴頻度を1つ下げ(ステップ190)、ステップ160に戻る。
この例では、視線履歴頻度が「高」だったのがステップ190で「中」になり、ステップ160に戻って、視線履歴頻度の判定結果としてRAM24に「中」が設定される。
以下、ナビゲーション装置1は、同様の処理を繰り返す。ただし、視線履歴頻度の判定結果が「低」の場合、視線履歴頻度をこれ以上下げられないため、この場合は、ステップ185を行わず、右左折案内処理ルーチンにリターンする。
Next, thenavigation device 1 determines whether or not thesimple guide map 93 can be drawn in the simple guide map area (that is, whether or not there is a drawing space) (step 185).
If drawing is possible (step 185; Y), thenavigation device 1 returns to the right / left turn guidance processing routine. If drawing is not possible (step 185; N), thenavigation device 1 lowers the line-of-sight history frequency by one (step 190). ), The process returns to step 160.
In this example, the line-of-sight history frequency was “high”, which becomes “medium” in step 190, the process returns to step 160, and “medium” is set in theRAM 24 as the determination result of the line-of-sight history frequency.
Thereafter, thenavigation device 1 repeats the same processing. However, when the determination result of the line-of-sight history frequency is “low”, the line-of-sight history frequency cannot be lowered any more. In this case,step 185 is not performed and the process returns to the right / left turn guidance processing routine.

図15は、注意喚起系案内処理の手順を説明するためのフローチャートである。
図13の右左折系案内処理に対応するステップには、図13のステップ番号に200を加えたステップ番号を付し、説明を簡略化、又は省略する。
ナビゲーション装置1は、前方車領域81を検知した後(ステップ250)、当該案内対象に対する案内情報(ここでは、注意喚起系の案内)を取得する(ステップ255)。
次に、ナビゲーション装置1は、注意喚起系用の重畳案内領域82をHUD45の画面上に確保する(ステップ260)。
以下、ステップ265〜325では、図13の対応するステップ65〜125と同様の処理を行う。
FIG. 15 is a flowchart for explaining the procedure of the alerting guidance process.
Steps corresponding to the right / left turn guidance processing in FIG. 13 are given step numbers obtained by adding 200 to the step numbers in FIG. 13, and description thereof will be simplified or omitted.
After detecting the forward vehicle area 81 (step 250), thenavigation device 1 acquires guidance information (here, guidance for alerting system) for the guidance target (step 255).
Next, thenavigation device 1 secures thesuperimposition guidance area 82 for the alerting system on the screen of the HUD 45 (step 260).
Thereafter, insteps 265 to 325, the same processing as incorresponding steps 65 to 125 in FIG. 13 is performed.

図16は、ステップ290の領域探索処理を説明するためのフローチャートである。
図14の領域探索処理に対応するステップには、図14のステップ番号に200を加えたステップ番号を付し、説明を簡略化、又は省略する。
ナビゲーション装置1は、ナビゲーション機能部68より案内種別、道路種別、場所種別を取得する(ステップ350)。
次に、ナビゲーション装置1は、案内種別を視線履歴頻度判定表58に適用して視線履歴頻度のレベル(高・中・低)を判定し(ステップ355)、判定結果をRAM24に設定する(ステップ360)。この例は、注意喚起系のため、視線履歴頻度として「中」を設定する。
FIG. 16 is a flowchart for explaining the region search processing in step 290.
Steps corresponding to the region search processing of FIG. 14 are given step numbers obtained by adding 200 to the step numbers of FIG. 14, and the description will be simplified or omitted.
Thenavigation device 1 acquires a guidance type, a road type, and a place type from the navigation function unit 68 (step 350).
Next, thenavigation device 1 applies the guidance type to the line-of-sight history frequency determination table 58 to determine the level of line-of-sight history frequency (high / medium / low) (step 355), and sets the determination result in the RAM 24 (step 355). 360). Since this example is an alert system, “medium” is set as the line-of-sight history frequency.

次に、ナビゲーション装置1は、道路種別と場所種別に適合する視線履歴DBa〜視線履歴DBeの何れかを選択し(ステップ365)、視線履歴領域の設定に使用する視線履歴DBのレベルを判定する(ステップ370)。ここでは、「中」と判定する。  Next, thenavigation device 1 selects one of the line-of-sight history DBa to the line-of-sight history DBe that matches the road type and the place type (step 365), and determines the level of the line-of-sight history DB used for setting the line-of-sight history region. (Step 370). Here, it is determined as “medium”.

次に、ナビゲーション装置1は、ステップ370で判定した視線履歴DBを用いて視線履歴領域をHUD45の画面上に取得する(ステップ375)。この例は、注意喚起系のため、視線履歴中領域84を取得する。
次に、ナビゲーション装置1は、視線履歴中領域84から、簡易案内図領域を確保する(ステップ380)。
Next, thenavigation apparatus 1 acquires the line-of-sight history area on the screen of theHUD 45 using the line-of-sight history DB determined in step 370 (step 375). In this example, the line-of-sight history area 84 is acquired because of the alert system.
Next, thenavigation device 1 secures a simple guide map area from the line-of-sight history area 84 (step 380).

次に、ナビゲーション装置1は、簡易案内図領域に簡易案内図93を描画できるか否かを判断する(ステップ385)。
描画できる場合(ステップ385;Y)、ナビゲーション装置1は、注意喚起系案内処理ルーチンにリターンし、描画できない場合(ステップ385;N)、ナビゲーション装置1は、RAM24に記憶した視線履歴頻度を1つ下げて「低」とし(ステップ390)、ステップ160に戻る。
Next, thenavigation device 1 determines whether or not thesimple guide map 93 can be drawn in the simple guide map area (step 385).
If drawing is possible (step 385; Y), thenavigation device 1 returns to the alerting guidance processing routine, and if drawing is not possible (step 385; N), thenavigation device 1 sets one line-of-sight history frequency stored in theRAM 24. The value is lowered to “low” (step 390), and the process returns to step 160.

図17は、運転支援系案内処理の手順を説明するためのフローチャートである。
図13の右左折系案内処理に対応するステップには、図13のステップ番号に400を加えたステップ番号を付し、説明を簡略化、又は省略する。
ナビゲーション装置1は、前方車領域81を検知した後(ステップ450)、当該案内対象に対する案内情報(ここでは、運転支援系の案内)を取得する(ステップ455)。
次に、ナビゲーション装置1は、運転支援系用の重畳案内領域82をHUD45の画面上に確保する(ステップ460)。
次に、ナビゲーション装置1は、重畳可能領域86を計算し(ステップ465)、重畳可能領域86の重畳案内領域82に対する面積比が100%か否かを判断する(ステップ470)。
重畳可能領域86の重畳案内領域82に対する面積比が100%の場合(即ち、重畳案内領域82に前方車領域81が存在しない場合)(ステップ470;Y)、ナビゲーション装置1は、重畳案内図91を描画して(ステップ475)、重畳可能領域86に表示する(ステップ500)。
FIG. 17 is a flowchart for explaining the procedure of the driving assistance system guidance process.
Steps corresponding to the right / left turn guidance process in FIG. 13 are given step numbers obtained by adding 400 to the step numbers in FIG. 13, and the description will be simplified or omitted.
After detecting the front vehicle area 81 (step 450), thenavigation device 1 acquires guidance information (here, driving assistance system guidance) for the guidance target (step 455).
Next, thenavigation apparatus 1 secures theoverlap guidance area 82 for the driving assistance system on the screen of the HUD 45 (step 460).
Next, thenavigation apparatus 1 calculates the superimposable region 86 (step 465), and determines whether the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is 100% (step 470).
When the area ratio of thesuperimposable region 86 to thesuperimposition guide region 82 is 100% (that is, when thefront vehicle region 81 does not exist in the superimposition guide region 82) (step 470; Y), thenavigation device 1 displays thesuperimposition guide map 91. Is drawn (step 475) and displayed in the superimposable area 86 (step 500).

一方、重畳可能領域86の重畳案内領域82に対する面積比が100%でない場合(ステップ470;N)、ナビゲーション装置1は、簡易案内図93を表示する領域を探索する領域探索処理を行う(ステップ490)。
以下、ステップ495〜525は、図13のステップ95〜125と同様である。
このように、運転支援系では、ナビゲーション装置1は、重畳可能領域86が100%でない場合、簡易重畳案内図92の描画は行わず、簡易案内図93を描画する。
On the other hand, when the area ratio of thesuperimposable area 86 to thesuperimposition guide area 82 is not 100% (step 470; N), thenavigation device 1 performs an area search process for searching for an area for displaying the simplified guide map 93 (step 490). ).
Hereinafter, steps 495 to 525 are the same assteps 95 to 125 in FIG. 13.
Thus, in the driving support system, when thesuperimposable area 86 is not 100%, thenavigation device 1 does not draw the simplesuperimposition guide map 92 but draws thesimple guide map 93.

図18は、ステップ490の領域探索処理を説明するためのフローチャートである。
図14の領域探索処理に対応するステップには、図14のステップ番号に400を加えたステップ番号を付し、説明を簡略化、又は省略する。
ナビゲーション装置1は、ナビゲーション機能部68より案内種別、道路種別、場所種別を取得する(ステップ550)。
次に、ナビゲーション装置1は、案内種別を視線履歴頻度判定表58に適用して視線履歴頻度のレベル(高・中・低)を判定し(ステップ555)、判定結果をRAM24に設定する(ステップ560)。この例は、運転支援系のため、視線履歴頻度として「低」を設定する。
FIG. 18 is a flowchart for explaining the region search processing instep 490.
Steps corresponding to the region search processing in FIG. 14 are given step numbers obtained by adding 400 to the step numbers in FIG. 14, and description thereof will be simplified or omitted.
Thenavigation device 1 acquires a guidance type, a road type, and a place type from the navigation function unit 68 (step 550).
Next, thenavigation device 1 applies the guidance type to the line-of-sight history frequency determination table 58 to determine the level of line-of-sight history frequency (high / medium / low) (step 555), and sets the determination result in the RAM 24 (step). 560). Since this example is a driving support system, “low” is set as the line-of-sight history frequency.

次に、ナビゲーション装置1は、道路種別と場所種別に基づいて視線履歴DBa〜視線履歴DBeを選択し(ステップ565)、視線履歴領域の設定に使用する視線履歴DBのレベルを判定する(ステップ570)。この例では、運転支援系のため、「低」と判定する。  Next, thenavigation device 1 selects the line-of-sight history DBa to the line-of-sight history DBe based on the road type and the place type (step 565), and determines the level of the line-of-sight history DB used for setting the line-of-sight history region (step 570). ). In this example, it is determined as “low” because of the driving support system.

次に、ナビゲーション装置1は、ステップ570で判定した視線履歴DBを用いて視線履歴領域をHUD45の画面上に取得する(ステップ575)。この例は、運転支援系のため、視線履歴低領域85を取得する。
次に、ナビゲーション装置1は、視線履歴低領域85において、簡易案内図領域を確保し(ステップ580)、運転支援系案内処理ルーチンにリターンする。
運転支援系では、視線履歴低領域85に案内情報を表示するため、視線履歴頻度を1つ下げるステップはない。
Next, thenavigation apparatus 1 acquires the line-of-sight history area on the screen of theHUD 45 using the line-of-sight history DB determined in step 570 (step 575). Since this example is a driving support system, the line-of-sight historylow region 85 is acquired.
Next, thenavigation device 1 secures a simple guide map area in the low line-of-sight history area 85 (step 580), and returns to the driving support system guidance processing routine.
In the driving support system, since the guide information is displayed in the line-of-sight historylow region 85, there is no step of reducing the line-of-sight history frequency by one.

以上に説明した実施形態により、次のような効果を得ることができる。
(1)重畳案内領域82は、運転者の視界において案内対象と重畳する位置に設定されている。そのため、案内対象と重畳して案内情報(重畳案内図91)を表示することができ、案内情報の視認に要する運転者の視線の移動を低減することができる。
(2)運転者の視界に車両などの案内情報の重畳表示を避ける特定対象が存在する場合に、運転者の視界における特定対象の領域を除いて案内情報を表示することができる。
(3)運転者の視線を認識するデバイスを用いることで運転者の視線を考慮した領域に案内情報を表示することができ、ユーザの視線移動による視認性の低下を抑制することができる。
(4)案内情報表示の優先度と視線の領域頻度の組み合わせにより、優先度の高い案内情報を、運転者の視線の頻度が高い領域に表示し、優先度の低い案内情報を、運転者の視線の頻度が低い領域に表示することができる。
(5)予め地点ごとのユーザ視線分布を蓄積し、それを一定の閾値ごとの視線履歴領域に分けることができ、視線履歴領域と重畳案内領域の差分、又は、重畳案内領域に案内情報を表示することができる。
According to the embodiment described above, the following effects can be obtained.
(1) Thesuperimposition guidance area 82 is set at a position where it overlaps with the guidance target in the driver's field of view. Therefore, it is possible to display the guidance information (superimposition guidance diagram 91) superimposed on the guidance object, and to reduce the movement of the driver's line of sight required for visually recognizing the guidance information.
(2) When there is a specific target in the driver's field of view that avoids superimposed display of guidance information such as a vehicle, the guide information can be displayed excluding the region of the specific target in the driver's field of view.
(3) By using a device for recognizing the driver's line of sight, guidance information can be displayed in a region in which the driver's line of sight is taken into account, and a reduction in visibility due to the movement of the user's line of sight can be suppressed.
(4) By combining the priority of the guidance information display and the area frequency of the line of sight, the high-priority guidance information is displayed in the area where the driver's line-of-sight is high, and the low-priority guidance information is displayed It is possible to display in an area where the line-of-sight frequency is low.
(5) The user gaze distribution for each point can be stored in advance, and the user gaze distribution can be divided into gaze history areas for each fixed threshold, and the guidance information is displayed in the difference between the gaze history area and the superimposed guidance area or in the superimposed guidance area can do.

1 ナビゲーション装置
10 現在位置検出装置
12 方位センサ
13 距離センサ
14 GPS受信装置
15 地磁気センサ
20 情報処理装置
28 クロック
30 撮影装置
31 フロントカメラ
32 視線カメラ
40 入出力装置
41 入力装置
42 ディスプレイ
44 スピーカ
45 HUD
46 マイクロフォン
50 記憶装置
51 ナビゲーションプログラム
52 地図DB
54 案内情報DB
55 交通情報DB
56 画像認識用DB
57 視線履歴DB
58 視線履歴頻度判定表
60 画像認識機能部
61 撮影部
62 画像処理認識部
63 視線認識機能部
64 視線管理部
65 視線情報サービス部
66 音声認識機能部
67 音声認識部
68 ナビゲーション機能部
69 案内処理部
71 各センサ
73 音声制御部
81 前方車領域
82 重畳案内領域
83 視線履歴高領域
84 視線履歴中領域
85 視線履歴低領域
86 重畳可能領域
91 重畳案内図
92 簡易重畳案内図
93 簡易案内図
101 道路
DESCRIPTION OFSYMBOLS 1 Navigation apparatus 10 Currentposition detection apparatus 12Direction sensor 13Distance sensor 14GPS receiver 15Geomagnetic sensor 20Information processing apparatus 28Clock 30Imaging apparatus 31Front camera 32 Line-of-sight camera 40 Input /output apparatus 41Input apparatus 42Display 44Speaker 45 HUD
46 Microphone 50 Storage device 51 Navigation program 52 Map DB
54 Guidance Information DB
55 Traffic Information DB
56 Image recognition database
57 Gaze History DB
58 Gaze History Frequency Determination Table 60 ImageRecognition Function Unit 61Imaging Unit 62 ImageProcessing Recognition Unit 63 Gaze Recognition Function Unit 64Gaze Management Unit 65 GazeInformation Service Unit 66 Voice Recognition Function Unit 67Voice Recognition Unit 68Navigation Function Unit 69Guide Processing Unit 69 71 Eachsensor 73Voice control unit 81Front vehicle area 82Superimposition guidance area 83 Gaze historyhigh area 84 Gaze historymiddle area 85 Gaze historylow area 86Superimposable area 91Superposition guidance map 92Simplification guidance map 93Simplified guidance map 101 Road

Claims (8)

Translated fromJapanese
車両の前方方向にある案内対象を特定する特定手段と、
前記特定した案内対象の案内情報を取得する案内情報取得手段と、
前記車両の運転者の視界において、前記取得した案内情報に対して予め設定された表示領域を取得する表示領域取得手段と、
前記運転者の視界に存在する特定対象を検知する検知手段と、
前記検知した特定対象が前記視界において占める特定対象領域を設定する設定手段と、
前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域に前記取得した案内情報を表示する表示手段と、
を具備したことを特徴とする情報提供装置。
A specifying means for specifying a guidance target in the forward direction of the vehicle;
Guidance information obtaining means for obtaining guidance information of the identified guidance target;
In a field of view of the driver of the vehicle, display area acquisition means for acquiring a display area set in advance for the acquired guidance information;
Detecting means for detecting a specific object existing in the driver's field of view;
Setting means for setting a specific target area occupied by the detected specific target in the field of view;
Display means for displaying the acquired guidance information in an area that does not overlap with the set specific target area among the acquired display areas;
An information providing apparatus comprising:
前記取得した表示領域は、前記運転者の視界において、前記特定した案内対象と重なる領域に設定されていることを特徴とする請求項1に記載の情報提供装置。  The information providing apparatus according to claim 1, wherein the acquired display area is set in an area overlapping with the identified guidance object in the driver's field of view. 前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域の面積が所定の規定値を下回る場合、前記表示手段は、前記取得した表示領域、及び設定した特定対象領域の領域外に前記案内情報を表示することを特徴とする請求項1、又は請求項2に記載の情報提供装置。  If the area of the acquired display area that does not overlap the set specific target area is less than a predetermined specified value, the display means is outside the acquired display area and the set specific target area. The information providing apparatus according to claim 1, wherein the guidance information is displayed. 前記運転者の視線を検出する視線検出手段と、
前記検出した視線の履歴を記憶する視線履歴記憶手段と、
前記記憶した履歴を用いて、前記視界を、視線の頻度によって複数の視線領域に区分する区分手段と、
を具備し、
前記表示手段は、前記領域外に前記案内情報を表示する場合、所定の視線領域に表示することを特徴とする請求項3に記載の情報提供装置。
Gaze detection means for detecting the driver's gaze;
Line-of-sight history storage means for storing the detected line-of-sight history;
Using the stored history, the dividing means for dividing the field of view into a plurality of line-of-sight areas according to the line-of-sight frequency;
Comprising
The information providing apparatus according to claim 3, wherein the display unit displays the guidance information in a predetermined line-of-sight region when the guidance information is displayed outside the region.
前記所定の視線領域の面積が前記案内情報を表示するための所定の面積を満たさない場合、前記表示手段は、より頻度の低い視線領域に前記案内情報を表示することを特徴とする請求項4に記載の情報提供装置。  5. The display means displays the guide information in a less frequent line-of-sight area when the area of the predetermined line-of-sight area does not satisfy a predetermined area for displaying the guidance information. The information providing device described in 1. 前記案内情報は、属性により組分けされており、前記表示手段は、当該属性の組に従って、前記表示する視線領域を選択することを特徴とする請求項5に記載の情報提供装置。  The information providing apparatus according to claim 5, wherein the guidance information is grouped according to attributes, and the display unit selects the line-of-sight area to be displayed according to the set of attributes. 前記表示手段は、前記案内情報を表示する領域に応じて当該案内情報の表示画像を変化させることを特徴とする請求項3から請求項6までのうちの何れか1の請求項に記載の情報提供装置。  The information according to any one of claims 3 to 6, wherein the display unit changes a display image of the guidance information according to a region where the guidance information is displayed. Providing device. 車両の前方方向にある案内対象を特定する特定機能と、
前記特定した案内対象の案内情報を取得する案内情報取得機能と、
前記車両の運転者の視界において、前記取得した案内情報に対して予め設定された表示領域を取得する表示領域取得機能と、
前記運転者の視界に存在する特定対象を検知する検知機能と、
前記検知した特定対象が前記視界において占める特定対象領域を設定する設定機能と、
前記取得した表示領域のうち、前記設定した特定対象領域と重ならない領域に前記取得した案内情報を表示する表示機能と、
をコンピュータで実現する情報提供プログラム。
A specific function for identifying a guidance object in the forward direction of the vehicle,
A guidance information acquisition function for acquiring the specified guidance target guidance information;
In the field of view of the driver of the vehicle, a display area acquisition function for acquiring a display area preset for the acquired guidance information;
A detection function for detecting a specific object present in the driver's field of view;
A setting function for setting a specific target area occupied by the detected specific target in the field of view;
A display function for displaying the acquired guidance information in an area that does not overlap with the set specific target area among the acquired display areas;
An information provision program that realizes a computer.
JP2013054785A2013-03-182013-03-18Information provision device, and information provision programPendingJP2014181927A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2013054785AJP2014181927A (en)2013-03-182013-03-18Information provision device, and information provision program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2013054785AJP2014181927A (en)2013-03-182013-03-18Information provision device, and information provision program

Publications (1)

Publication NumberPublication Date
JP2014181927Atrue JP2014181927A (en)2014-09-29

Family

ID=51700790

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2013054785APendingJP2014181927A (en)2013-03-182013-03-18Information provision device, and information provision program

Country Status (1)

CountryLink
JP (1)JP2014181927A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2017002209A1 (en)*2015-06-302017-01-05三菱電機株式会社Display control device, display control method, and display control program
EP3184365A3 (en)*2015-12-242017-07-19Lg Electronics Inc.Display device for vehicle and control method thereof
WO2017130439A1 (en)*2016-01-282017-08-03鴻海精密工業股▲ふん▼有限公司Vehicular image display system and vehicle having same image display system mounted therein
WO2017138297A1 (en)*2016-02-082017-08-17株式会社リコーImage display device and method for displaying image
CN107305136A (en)*2016-04-252017-10-31现代自动车株式会社Guider, vehicle and the method for controlling the vehicle
JP2019003312A (en)*2017-06-132019-01-10株式会社デンソーアイティーラボラトリGazing object estimation device, gazing object estimation method and program
JP2019032243A (en)*2017-08-082019-02-28アルパイン株式会社Head-up display device, navigation device, and display method
WO2019077730A1 (en)*2017-10-202019-04-25三菱電機株式会社Display control device, display control method, and display system
JP2019156296A (en)*2018-03-152019-09-19矢崎総業株式会社Vehicular display projection device
JP2020153679A (en)*2019-03-182020-09-24本田技研工業株式会社 Notification control device and notification control method
US11248926B2 (en)2017-05-162022-02-15Mitsubishi Electric CorporationDisplay control device and display control method
US11504622B1 (en)2021-08-172022-11-22BlueOwl, LLCSystems and methods for generating virtual encounters in virtual games
US11593539B2 (en)2018-11-302023-02-28BlueOwl, LLCSystems and methods for facilitating virtual vehicle operation based on real-world vehicle operation data
CN115824249A (en)*2021-09-162023-03-21北京小米移动软件有限公司 ARHUD display method, ARHUD display device and storage medium
US11691084B2 (en)2020-01-202023-07-04BlueOwl, LLCSystems and methods for training and applying virtual occurrences to a virtual character using telematics data of one or more real trips
US11697069B1 (en)2021-08-172023-07-11BlueOwl, LLCSystems and methods for presenting shared in-game objectives in virtual games
US11896903B2 (en)2021-08-172024-02-13BlueOwl, LLCSystems and methods for generating virtual experiences for a virtual game
DE112018003314B4 (en)*2017-06-302024-02-15Panasonic Intellectual Property Management Co., Ltd. Display system, information display system, method for controlling a display system, program and recording medium for a display system and mobile body
US11969653B2 (en)2021-08-172024-04-30BlueOwl, LLCSystems and methods for generating virtual characters for a virtual game
US12001764B2 (en)2018-11-302024-06-04BlueOwl, LLCSystems and methods for facilitating virtual vehicle operation corresponding to real-world vehicle operation
US12290751B2 (en)2021-08-172025-05-06Quanata, LlcSystems and methods for generating virtual maps in virtual games

Cited By (42)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
DE112015006662T5 (en)2015-06-302018-05-03Mitsubishi Electric Corporation DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
JPWO2017002209A1 (en)*2015-06-302017-06-29三菱電機株式会社 Display control apparatus, display control method, and display control program
WO2017002209A1 (en)*2015-06-302017-01-05三菱電機株式会社Display control device, display control method, and display control program
EP3184365A3 (en)*2015-12-242017-07-19Lg Electronics Inc.Display device for vehicle and control method thereof
US10924679B2 (en)2015-12-242021-02-16Lg Electronics Inc.Display device for vehicle and control method thereof
WO2017130439A1 (en)*2016-01-282017-08-03鴻海精密工業股▲ふん▼有限公司Vehicular image display system and vehicle having same image display system mounted therein
CN108602465A (en)*2016-01-282018-09-28鸿海精密工业股份有限公司Image display system for vehicle and vehicle equipped with the same
JPWO2017130439A1 (en)*2016-01-282018-11-08鴻海精密工業股▲ふん▼有限公司 Vehicle image display system and vehicle equipped with the image display system
TWI690436B (en)*2016-01-282020-04-11鴻海精密工業股份有限公司Image display system for vehicle, and vehicle mounted with the image display system
JPWO2017138297A1 (en)*2016-02-082018-11-15株式会社リコー Image display apparatus and image display method
WO2017138297A1 (en)*2016-02-082017-08-17株式会社リコーImage display device and method for displaying image
US10890762B2 (en)2016-02-082021-01-12Ricoh Company, Ltd.Image display apparatus and image display method
CN107305136A (en)*2016-04-252017-10-31现代自动车株式会社Guider, vehicle and the method for controlling the vehicle
CN107305136B (en)*2016-04-252022-10-11现代自动车株式会社Navigation device, vehicle, and method for controlling the vehicle
US11248926B2 (en)2017-05-162022-02-15Mitsubishi Electric CorporationDisplay control device and display control method
JP2019003312A (en)*2017-06-132019-01-10株式会社デンソーアイティーラボラトリGazing object estimation device, gazing object estimation method and program
DE112018003314B4 (en)*2017-06-302024-02-15Panasonic Intellectual Property Management Co., Ltd. Display system, information display system, method for controlling a display system, program and recording medium for a display system and mobile body
JP2019032243A (en)*2017-08-082019-02-28アルパイン株式会社Head-up display device, navigation device, and display method
JPWO2019077730A1 (en)*2017-10-202020-05-28三菱電機株式会社 Display control device, display control method, and display system
WO2019077730A1 (en)*2017-10-202019-04-25三菱電機株式会社Display control device, display control method, and display system
JP7099837B2 (en)2018-03-152022-07-12矢崎総業株式会社 Display projection device for vehicles
JP2019156296A (en)*2018-03-152019-09-19矢崎総業株式会社Vehicular display projection device
US12001764B2 (en)2018-11-302024-06-04BlueOwl, LLCSystems and methods for facilitating virtual vehicle operation corresponding to real-world vehicle operation
US11593539B2 (en)2018-11-302023-02-28BlueOwl, LLCSystems and methods for facilitating virtual vehicle operation based on real-world vehicle operation data
US11995384B2 (en)2018-11-302024-05-28BlueOwl, LLCSystems and methods for facilitating virtual vehicle operation based on real-world vehicle operation data
JP7280072B2 (en)2019-03-182023-05-23本田技研工業株式会社 Notification control device and notification control method
JP2020153679A (en)*2019-03-182020-09-24本田技研工業株式会社 Notification control device and notification control method
US11691084B2 (en)2020-01-202023-07-04BlueOwl, LLCSystems and methods for training and applying virtual occurrences to a virtual character using telematics data of one or more real trips
US12208335B2 (en)2020-01-202025-01-28Quanata, LlcSystems and methods for training and applying virtual occurrences to a virtual character using telematics data of one or more real trips in real-time
US11857866B2 (en)2020-01-202024-01-02BlueOwl, LLCSystems and methods for training and applying virtual occurrences with modifiable outcomes to a virtual character using telematics data of one or more real trips
US12383837B2 (en)2020-01-202025-08-12Quanata, LlcSystems and methods for training and applying virtual occurrences and granting in-game resources to a virtual character using telematics data of one or more real trips
US11707683B2 (en)2020-01-202023-07-25BlueOwl, LLCSystems and methods for training and applying virtual occurrences and granting in-game resources to a virtual character using telematics data of one or more real trips
US12246259B2 (en)2021-08-172025-03-11Quanata, LlcSystems and methods for generating virtual encounters in virtual games
US11969653B2 (en)2021-08-172024-04-30BlueOwl, LLCSystems and methods for generating virtual characters for a virtual game
US11504622B1 (en)2021-08-172022-11-22BlueOwl, LLCSystems and methods for generating virtual encounters in virtual games
US11918913B2 (en)2021-08-172024-03-05BlueOwl, LLCSystems and methods for generating virtual encounters in virtual games
US11697069B1 (en)2021-08-172023-07-11BlueOwl, LLCSystems and methods for presenting shared in-game objectives in virtual games
US12290751B2 (en)2021-08-172025-05-06Quanata, LlcSystems and methods for generating virtual maps in virtual games
US12350591B2 (en)2021-08-172025-07-08Quanata, LlcSystems and methods for generating virtual characters for a game
US12370451B2 (en)2021-08-172025-07-29Quanata, LlcSystems and methods for generating virtual experiences for a virtual game
US11896903B2 (en)2021-08-172024-02-13BlueOwl, LLCSystems and methods for generating virtual experiences for a virtual game
CN115824249A (en)*2021-09-162023-03-21北京小米移动软件有限公司 ARHUD display method, ARHUD display device and storage medium

Similar Documents

PublicationPublication DateTitle
JP2014181927A (en)Information provision device, and information provision program
US11767024B2 (en)Augmented reality method and apparatus for driving assistance
US11511627B2 (en)Display device and computer program
US12151560B2 (en)Superimposed image display device
CN107848416B (en) Display control device, display device, and display control method
US9639968B2 (en)Generating an augmented view of a location of interest
JP6323074B2 (en) Display object information display device
JP2019095213A (en)Superimposed image display device and computer program
JP7476568B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2018173862A (en)Driving support apparatus and computer program
KR20150051671A (en)A display control device using vehicles and user motion recognition and its method of operation
US9791287B2 (en)Drive assist system, method, and program
CN113165510A (en)Display control apparatus, method and computer program
JP4277678B2 (en) Vehicle driving support device
JP6448806B2 (en) Display control device, display device, and display control method
WO2016088227A1 (en)Video display device and method
JP2014037172A (en)Display controller and display control method for head-up display
JP2015215197A (en)Navigation device, navigation method, and navigation program
JP2014174091A (en)Information providing device and information providing program
JP2014174879A (en)Information processor and information program
JP2014174880A (en)Information processor and information program
JP2019095214A (en)Superimposed image display device and computer program
JP6939147B2 (en) Driving information guidance device and computer program
JP2016161483A (en)Information providing device and information providing program
JP2019087259A (en)Superposition image display device and computer program

[8]ページ先頭

©2009-2025 Movatter.jp