【0001】[0001]
【発明の属する技術分野】本発明は、目的地検索機能を
有するナビゲーションシステムに関し、特に、住所や施
設名称などの目的地特定データを音声入力できるように
したナビゲーションシステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation system having a destination search function, and more particularly to a navigation system capable of inputting destination specifying data such as an address and a facility name by voice.
【0002】[0002]
【従来の技術及び発明が解決しようとする課題】従来よ
り、入力された音声を予め記憶されている複数の比較対
象パターン候補と比較し、一致度合の高いものを認識結
果とする音声認識装置が既に実用化されており、例えば
ナビゲーションシステムにおいて設定すべき目的地を利
用者が地名を音声で入力するためなどに用いられてい
る。特に車載ナビゲーションシステムを運転手自身が利
用する場合、音声入力であればボタン操作や画面注視が
伴わないため、車両の走行中に行っても安全性が高いた
め有効である。2. Description of the Related Art Conventionally, there has been proposed a speech recognition apparatus which compares an inputted speech with a plurality of pattern candidates to be compared which are stored in advance and determines a speech having a high degree of coincidence as a recognition result. It has already been put into practical use, and is used, for example, for a user to input a destination name to be set in a navigation system by voice. In particular, when the driver uses the in-vehicle navigation system, voice input does not involve button operation or screen gaze, so that it is effective because the safety is high even when the vehicle is running.
【0003】このような機能を満たすためには、十分詳
細な地点の指定が容易にできなくてはならない。具体的
には、住所で特定するためには、県や市のレベルではな
く、市の下の町名のレベルや、町村における大字といっ
たレベルまで入力できる必要がある。また、施設名称で
特定するためには、省略しない正式名称にて音声入力す
る必要がある。In order to satisfy such a function, it is necessary to easily specify a sufficiently detailed point. Specifically, in order to specify by address, it is necessary to be able to input not the level of the prefecture or city, but also the level of the name of the town below the city or the level of the capital in the town and village. In addition, in order to specify the facility name, it is necessary to input a voice with a formal name that is not omitted.
【0004】さらに、住所で特定する場合を例に取れ
ば、利用者が例えば「愛知県刈谷市昭和町」と設定した
い場合に、「愛知県」「刈谷市」「昭和町」というよう
に県市町というレベル毎に区切って発音しなくてはなら
ないとすると利用者にとって煩わしいので、ひと続きで
入力(一括入力)できるようにすることが好ましい。[0004] Further, taking the case of specifying by address as an example, if a user wants to set, for example, "Showa-cho in Kariya city, Aichi prefecture", the user may enter "Aichi prefecture", "Kariya city", or "Showa town". Since it is troublesome for the user if the pronunciation must be divided for each level of the municipalities, it is preferable to be able to perform input (batch input) continuously.
【0005】但し、このように一括入力に対応する構成
とした場合には、逆に利用者にとって使い勝手が悪くな
る状況も想定される。それは、上述したように、住所で
特定するためには、県や市のレベルではなく、市の下の
町名のレベルや、町村における大字といったレベルまで
入力しなくてはならず、例えば「愛知県刈谷市昭和町」
と音声入力しなくてはならないこととなる。[0005] However, in the case of adopting the configuration corresponding to the batch input as described above, a situation in which the usability is degraded for the user may be assumed. That is, as described above, in order to specify by address, it is necessary to input not the level of the prefecture or city, but also the level of the name of the city under the city or the level of the capital in the town and village. Showa-cho, Kariya City "
And voice input.
【0006】しかしながら、例えば愛知県内の複数の場
所を連続して検索している場合などを考えると、ユーザ
にとって、毎回「愛知県○○市××町……」というよう
に県名から音声入力するのは面倒であり、また日常的な
感覚からすると愛知県を省略するのが普通である。さら
に、同一の市町村内の複数の場所を連続して検索してい
る場合には、市町村名まで省略するのがユーザの感覚に
沿ったものとなる。However, when a plurality of places in Aichi Prefecture are continuously searched, for example, the user must input a voice from the prefecture name such as "Aichi Prefecture XX City XX Town ..." every time. It is troublesome to do, and it is common to omit Aichi Prefecture from a daily sense. Further, when a plurality of places in the same municipalities are continuously searched, it is according to the user's sense to omit the names of the municipalities.
【0007】また、施設名称で特定する場合であって
も、同様のことが言え、例えば市役所、保健所、税務
署、警察署などの同一市町村内の複数の施設を連続して
検索している場合には、毎回、○○市役所、○○保健
所、○○税務署、○○警察署というように音声入力する
のは面倒である。つまり、最初に○○市役所を検索した
場合、続いて○○保健所を検索する場合、単に「保健
所」とだけ音声入力できるようにすることが好ましいと
考えられる。[0007] The same can be said of the case where the facility is specified by the facility name. For example, when a plurality of facilities in the same municipal office such as a city hall, a public health center, a tax office, and a police station are searched continuously. It is troublesome to input voice every time, such as XX City Hall, XX Health Center, XX Tax Office, XX Police Station. In other words, it is considered preferable that, when the XX city hall is searched first and then the XX public health center is searched, it is preferable that only the "health center" can be voice-inputted.
【0008】本発明は、このような問題を解決し、目的
地検索機能による検索履歴を考慮した音声認識を実行す
ることによって、上位階層を省略した音声入力の方が自
然な場合であっても上位階層から音声入力しなくてはな
らないという利用者の負担を軽減し、使い勝手をより向
上させたナビゲーションシステムを提供することを目的
とする。The present invention solves such a problem, and performs voice recognition in consideration of a search history by a destination search function, so that voice input omitting the upper hierarchy is more natural. An object of the present invention is to provide a navigation system in which the burden on the user of having to input voice from the upper hierarchy is reduced, and the usability is further improved.
【0009】[0009]
【課題を解決するための手段及び発明の効果】上記目的
を達成するためになされた請求項1に記載のナビゲーシ
ョンシステムによれば、利用者が音声入力手段を介して
音声を入力すると、認識手段が、その入力された音声を
予め辞書手段に記憶されている複数の比較対象パターン
候補と比較して一致度合の高いものを認識結果とし、報
知手段によって認識結果を報知する。そして、認識結果
が報知された後に所定の確定指示がなされた場合には、
確定後処理手段が、その認識結果を確定したものとして
ナビゲーション手段へ出力する。なお、認識結果の報知
後の「所定の確定指示」に関しては、やはり音声で入力
(例えば「はい」と発声することで入力)したり、確定
ボタンのようなスイッチ類の操作によって指示したりす
ることが考えられる。According to the first aspect of the present invention, there is provided a navigation system, wherein when a user inputs a voice through a voice input unit, a recognition unit is provided. Compares the input voice with a plurality of comparison target pattern candidates stored in the dictionary means in advance, and determines a recognition result having a high degree of coincidence, and notifies the recognition result by the notification means. Then, when a predetermined confirmation instruction is given after the recognition result is notified,
The post-determination processing means outputs the recognition result to the navigation means as determined. Note that the "predetermined confirmation instruction" after the notification of the recognition result is input by voice (for example, input by uttering "yes") or by operating a switch such as a confirmation button. It is possible.
【0010】ナビゲーション手段は少なくとも目的地検
索機能を有しており、その目的地検索を行う上で指定さ
れる必要のある所定の目的地特定データの指示が音声入
力手段を介して入力されると、その目的地特定データに
基づいて目的地検索を実行する。なお、目的地特定デー
タとは、例えば住所や施設名称や電話番号や郵便番号な
どである。現状のナビゲーションシステムにおいても、
検索に際して上述した住所や施設名称などを入力して検
索していく方法が採用されている。[0010] The navigation means has at least a destination search function, and when an instruction of predetermined destination specifying data which needs to be specified in performing the destination search is input through the voice input means. And performs a destination search based on the destination specifying data. The destination specifying data is, for example, an address, a facility name, a telephone number, a postal code, and the like. In the current navigation system,
At the time of search, a method of inputting the above-described address, facility name, and the like and performing a search is employed.
【0011】ここで、辞書手段に記憶されている複数の
比較対象パターン候補の内の少なくとも一部について
は、複数の語を階層的につなぎ合わせたものとして設定
されている。また、ナビゲーション手段による目的地検
索の結果である目的地の住所の上位階層を構成する語又
は語群は、参照用住所として取り込まれて参照用住所記
憶手段に記憶される。そして、音声認識手段は、その参
照用住所記憶手段に記憶されている参照用住所を入力音
声に付加したものも、比較対象パターン候補と比較する
入力音声と見なした上で音声認識を実行する。Here, at least a part of the plurality of comparison target pattern candidates stored in the dictionary means is set as a plurality of words connected hierarchically. A word or group of words constituting the upper layer of the address of the destination as a result of the destination search by the navigation means is taken in as a reference address and stored in the reference address storage means. Then, the voice recognition unit executes voice recognition on the assumption that the reference address stored in the reference address storage unit is added to the input voice as the input voice to be compared with the comparison target pattern candidate. .
【0012】したがって、複数の語が階層的につなぎ合
わせて設定されている住所については、その全てを音声
入力しなくてもよい状況が生まれる。つまり、参照用住
所として記憶されている上位階層に続く下位階層を構成
する語又は語群だけを音声入力した場合であっても、予
め辞書手段に設定されている比較対象パターン候補と比
較して音声認識されることが可能となるのである。[0012] Therefore, for an address in which a plurality of words are hierarchically connected, a situation arises in which it is not necessary to input all of the addresses by voice. In other words, even when only words or words forming the lower hierarchy that follows the upper hierarchy stored as the reference address are input by speech, they are compared with the comparison target pattern candidates set in advance in the dictionary means. It can be recognized by voice.
【0013】このことによる効果及び地名関連データに
ついて明確にするため、具体例を挙げて説明する。例え
ば愛知県内の複数の場所を連続して検索している場合な
どを考えると、ユーザにとって、毎回「愛知県○○市×
×町……」というように県名から音声入力するのは面倒
である。つまり、愛知県内の複数の場所を順次検索して
いく際には、ユーザの意識として愛知県内の場所を検索
していることは当然のこととして考えており、その中の
どの市町村についてのものかが重要となる。同様に、同
一の市町村内の複数の場所を連続して検索している場合
には、さらにその市町村内の場所を検索していることが
当然のこととなり、その中のどの地域についてのもので
あるかが重要となる。In order to clarify the effect of this and the place name related data, a specific example will be described. For example, considering a case in which a plurality of places in Aichi Prefecture are continuously searched, for example, for the user, “XX city of Aichi prefecture ×
It is troublesome to input voice from the prefecture name such as "× town ...". In other words, when searching multiple places in Aichi Prefecture sequentially, it is natural that the user is searching for a place in Aichi Prefecture as a consciousness. Is important. Similarly, if multiple locations within the same municipality are searched consecutively, it is natural that the location within that municipality is also searched. Is important.
【0014】この点に関して本発明のナビゲーションシ
ステムでは、目的地検索の結果、例えば「愛知県刈谷市
昭和町」という住所が確定されて記憶手段に地名関連デ
ータとして記憶されている場合、次のような省略した音
声入力が可能となる。つまり、例えば「愛知県犬山市○
○町」については「犬山市○○町」というように市名か
ら入力するだけでよく、また「愛知県○○市桜町」につ
いては「桜町」というように町名から入力するだけでよ
くなる。つまり、地名関連データである「愛知県刈谷市
昭和町」は、「愛知県」と「刈谷市」と「昭和町」とい
うそれぞれ地名としての異なるレベルを示す複数の語を
階層的につなぎ合わせたものであるため、その上位階層
を構成する語又は語群である「愛知県」あるいは「愛知
県刈谷市」が参照用住所として記憶されることとなる。
そのため、2回目には「犬山市○○町」とだけ音声入力
すればそれは「愛知県犬山市○○町」と音声入力したも
のと見なし、また「桜町」とだけ音声入力するだけで
も、それが「愛知県○○市桜町」と音声入力したもので
あると見なして、音声認識を実行できる。In this regard, in the navigation system of the present invention, when a destination search results in, for example, an address of "Showa-cho, Kariya-shi, Aichi" being determined and stored in the storage means as place name-related data, the following is performed. It is possible to perform abbreviated voice input. In other words, for example, "Inuyama City, Aichi Prefecture ○
For "town", it is sufficient to input only from the city name, such as "Inuyama city OO town", and for "Aichi prefecture, OO city Sakuramachi", it is sufficient to input only from the town name, such as "Sakuramachi". In other words, the place name related data "Showa-cho in Kariya city, Aichi prefecture" is a hierarchical connection of multiple words indicating different levels of place names "Aichi prefecture", "Kariya city", and "Showa town". Therefore, "Aichi Prefecture" or "Kariya City, Aichi Prefecture" which is a word or a group of words constituting the upper hierarchy is stored as a reference address.
Therefore, if you input the voice only for "Inuyama city OO town" for the second time, it is regarded as the voice input for "Aichi prefecture Inuyama city OO town". Is recognized as a voice input of "Sakuracho, Aichi, Aichi Prefecture", and the voice recognition can be executed.
【0015】ところで、上述した請求項1のナビゲーシ
ョンシステムにおいては、住所の上位階層が省略されて
いる入力音声に参照用住所を付加したものが音声入力さ
れたと見なすことで対応し、辞書手段の比較対象パター
ン候補についてはそのままであった。これに対して、請
求項2に示すように、辞書手段の比較対象パターン候補
に関して工夫を施すことで対応してもよい。In the navigation system according to the first aspect of the present invention, the input voice in which the upper layer of the address is omitted and the reference address is added is regarded as voice input, and this is handled by comparing the dictionary means. The target pattern candidate remains as it is. In order to cope with this, as described in claim 2, it is possible to deal with this by devising the comparison target pattern candidate of the dictionary means.
【0016】この場合には、辞書制御手段が次のような
処理を実行する。すなわち、ナビゲーション手段による
目的地検索の結果である目的地の住所の上位階層を構成
する語又は語群を参照用住所として取り込み、辞書手段
に記憶されている該当する比較対象パターン候補から参
照用住所の上位階層を構成する語又は語群を省略した第
2の比較対象パターン候補を新設する。そして、音声認
識手段は、辞書制御手段によって第2の比較対象パター
ン候補が新設された状態の辞書手段に記憶されている比
較対象パターン候補を用いて、前記音声認識手段が今回
の入力音声に対する比較を実行する。In this case, the dictionary control means executes the following processing. That is, a word or a group of words constituting the upper layer of the address of the destination, which is the result of the destination search by the navigation means, is taken in as a reference address, and the reference address candidate is extracted from the corresponding comparison target pattern candidates stored in the dictionary means. A second comparison target pattern candidate omitting a word or a group of words constituting the upper hierarchy of is newly provided. Then, the speech recognition means uses the comparison target pattern candidate stored in the dictionary means in a state where the second comparison target pattern candidate is newly established by the dictionary control means, and the speech recognition means compares the input speech with the current input speech. Execute
【0017】そして、確定後手段は、音声認識手段によ
る認識結果に参照用住所も加味して認識結果を確定す
る。上述の具体例を用いて説明すれば、例えば「愛知
県」という参照用住所があるために第2の比較対象パタ
ーン候補として「犬山市○○町」が設定された場合に
は、その「犬山市○○町」という認識結果に参照用住所
である「愛知県」を加味し、「愛知県犬山市○○町」が
確定した認識結果であるとしてナビゲーション手段へ出
力することとなる。また、例えば「愛知県刈谷市」とい
う参照用住所があるために第2の比較対象パターン候補
として「桜町」が設定された場合には、その「桜町」と
いう認識結果に参照用住所である「愛知県刈谷市」を加
味し、「愛知県刈谷市桜町」が確定した認識結果である
としてナビゲーション手段へ出力することとなる。Then, the determining means determines the recognition result in consideration of the reference address in addition to the recognition result by the voice recognition means. Explaining using the above specific example, for example, if “Aichi-machi” is set as the second comparison target pattern candidate because there is a reference address “Aichi prefecture”, the “Inuyama city” The reference address "Aichi" is added to the recognition result of "City XX town", and "Aichi prefecture Inuyama city XX town" is output to the navigation means as a confirmed recognition result. Further, for example, if “Sakuracho” is set as the second comparison target pattern candidate because there is a reference address “Kariya City, Aichi Prefecture”, the reference address “ With the addition of "Kariya City, Aichi Prefecture", "Sakuracho, Kariya City, Aichi Prefecture" is output to the navigation means as a confirmed recognition result.
【0018】なお、これら請求項1又は請求項2に示す
ナビゲーションシステムにおいては、上述のように住所
を目的地特定データとする場合だけでなく、目的地の名
称を目的地特定データとして音声入力する場合であって
も、同様の効果が得られる。例えば市役所、保健所、税
務署、警察署などの同一市町村内の複数の施設を連続し
て検索している場合には、例えば目的地検索の結果、
「刈谷市役所」が確定されて地名関連データとして記憶
されていれば、続いて刈谷保健所、刈谷税務署、刈谷警
察署などを検索する場合、単に「保健所」、「税務
署」、「警察署」とだけ音声入力すればよい。In the navigation system according to the first or second aspect, not only the address is used as the destination specifying data as described above, but also the name of the destination is input as the destination specifying data by voice. Even in this case, a similar effect can be obtained. For example, if you are continuously searching for multiple facilities in the same municipalities such as city hall, health center, tax office, police station, for example, as a result of the destination search,
If "Kariya City Office" is determined and stored as place name related data, then when searching for Kariya Public Health Center, Kariya Tax Office, Kariya Police Station, etc., simply search for "Health Center", "Tax Office", "Police Station" All you have to do is voice input.
【0019】このように、目的地検索機能による検索履
歴を考慮した音声認識を実行することによって、上位階
層を省略した音声入力の方が自然な場合であっても上位
階層から音声入力しなくてはならないという利用者の負
担を軽減し、使い勝手をより向上させることができる。As described above, by performing the speech recognition in consideration of the search history by the destination search function, even when the speech input omitting the upper hierarchy is more natural, the speech input from the upper hierarchy is not performed. It is possible to reduce the burden on the user that it should not be used, and to further improve the usability.
【0020】また、参照用住所については、直前の目的
地検索において得たもののみを記憶しておいてもよい
が、過去の所定回数分の目的地検索において得た複数の
参照用住所を記憶したり用いたりすることが考えられ
る。つまり、目的地として頻繁に検索する対象は、例え
ば都道府県や市町村レベルで考えた場合に同一エリア内
となることが多いと考えられる。したがって、参照用住
所記憶手段の記憶容量や音声認識手段における処理負荷
が過大にならなければ、ある程度多数の地名関連データ
を記憶しておくことが、利用者の負担軽減及び使い勝手
の向上につながる。As the reference address, only the address obtained in the immediately preceding destination search may be stored, but a plurality of reference addresses obtained in a predetermined number of past destination searches are stored. Or use it. That is, it is conceivable that an object frequently searched for as a destination often falls within the same area when considered at the prefectural or municipal level, for example. Therefore, if the storage capacity of the reference address storage means and the processing load on the voice recognition means do not become excessive, storing a large number of place-name related data will reduce the burden on the user and improve the usability.
【0021】また、請求項4に示すように、参照用住所
の取込を許可あるいは禁止する指示を利用者が入力する
ための指示入力手段を備え、その指示入力手段によって
参照用住所の取込が許可されている場合に限り、参照用
住所の取込が実行されるよう構成してもよい。これは、
利用者の判断で適切な地名関連データのみを記憶してお
くようにした方が都合がよい場合もあるからである。According to a fourth aspect of the present invention, there is provided an instruction input means for allowing a user to input an instruction to permit or prohibit the acquisition of the reference address, and the instruction input means acquires the reference address. The configuration may be such that the reference address is fetched only when is permitted. this is,
This is because it may be more convenient to store only appropriate place name related data at the discretion of the user.
【0022】また、ナビゲーション手段に関して言え
ば、請求項5に示すように、上述した目的地検索により
確定された目的地を、その周辺の地図と共に、目的地が
区別可能な状態で表示手段に表示することが考えられ
る。目的地を検索した場合には、その目的地の地点を地
図上で示すことが一般的に採用されている。As for the navigation means, the destination determined by the above-described destination search is displayed on the display means together with a map around the destination in a state where the destination can be distinguished. It is possible to do. When a destination is searched, it is generally employed to show the point of the destination on a map.
【0023】さらに、前記認識結果の報知に関しては請
求項6に示すように、認識結果の内容を音声として出力
することによって行うことが考えられる。カーナビゲー
ションシステムなどの車載機器用として用いる場合に
は、音声で出力されれば、ドライバーは視点を表示装置
にずらしたりする必要がないので、安全運転のより一層
の確保の点では有利であると言える。但し、音声出力に
限定されるものではなく、画面上に文字または記号を表
示できる表示装置に、認識結果の内容を、文字または記
号による画像にて表示することにより行ったり、音声及
び画像の両方にて報知するようにしてもよいし、それら
以外の報知の手法を採用してもよい。車載機器として適
用する場合に音声出力が有利であることを述べたが、も
ちろん車両が走行中でない状況もあるので、音声及び画
像の両方で報知すれば、ドライバーは表示による確認と
音声による確認との両方が可能となる。Further, the notification of the recognition result may be performed by outputting the contents of the recognition result as voice, as described in claim 6. When used for in-vehicle equipment such as car navigation systems, if audio is output, the driver does not need to shift his or her viewpoint to the display device, which is advantageous in terms of further ensuring safe driving. I can say. However, the present invention is not limited to audio output, and the content of the recognition result may be displayed on a display device capable of displaying characters or symbols on a screen by displaying images of the characters or symbols. May be notified, or other notification methods may be employed. It was mentioned that voice output is advantageous when applied as an in-vehicle device, but of course there are also situations where the vehicle is not running, so if both the voice and the image are used, the driver can confirm with the display and with the voice Both are possible.
【0024】[0024]
【発明の実施の形態】図1は本発明の実施形態のナビゲ
ーションシステム2の概略構成を示すブロック図であ
る。本ナビゲーションシステム2は、位置検出器4、地
図データ入力器6、操作スイッチ群8、これらに接続さ
れた制御回路10、制御回路10に接続された外部メモ
リ12、表示装置14及びリモコンセンサ15及び音声
認識装置30を備えている。なお制御回路10は通常の
コンピュータとして構成されており、内部には、周知の
CPU、ROM、RAM、I/O及びこれらの構成を接
続するバスラインが備えられている。FIG. 1 is a block diagram showing a schematic configuration of a navigation system 2 according to an embodiment of the present invention. The navigation system 2 includes a position detector 4, a map data input device 6, an operation switch group 8, a control circuit 10 connected thereto, an external memory 12 connected to the control circuit 10, a display device 14, a remote control sensor 15, The voice recognition device 30 is provided. The control circuit 10 is configured as an ordinary computer, and includes a well-known CPU, ROM, RAM, I / O, and a bus line for connecting these components.
【0025】前記位置検出器4は、いずれも周知のジャ
イロスコープ18、距離センサ20、及び衛星からの電
波に基づいて車両の位置を検出するGPS(Global Pos
itioning System )のためのGPS受信機22を有して
いる。これらのセンサ等18,20,22は各々が性質
の異なる誤差を持っているため、複数のセンサにより、
各々補間しながら使用するように構成されている。な
お、精度によっては上述した内の一部で構成してもよ
く、更に、地磁気センサ、ステアリングの回転センサ、
各転動輪の車輪センサ等を用いてもよい。The position detector 4 is a GPS (Global Pos.) That detects the position of a vehicle based on radio waves from a well-known gyroscope 18, a distance sensor 20, and satellites.
and a GPS receiver 22 for the itioning system). Each of these sensors 18, 20, and 22 has an error having a different property.
Each is configured to be used while interpolating. It should be noted that depending on the accuracy, it may be constituted by a part of the above, and furthermore, a geomagnetic sensor, a steering rotation sensor,
A wheel sensor or the like for each rolling wheel may be used.
【0026】地図データ入力器6は、位置検出の精度向
上のためのいわゆるマップマッチング用データ、地図デ
ータ及び目印データを含む各種データを入力するための
装置である。媒体としては、そのデータ量からCD−R
OMを用いるのが一般的であるが、メモリカード等の他
の媒体を用いても良い。The map data input device 6 is a device for inputting various data including so-called map matching data, map data and landmark data for improving the accuracy of position detection. As a medium, CD-R
Although OM is generally used, another medium such as a memory card may be used.
【0027】表示装置14はカラー表示装置であり、表
示装置14の画面には、位置検出器4から入力された車
両現在位置マークと、地図データ入力器6より入力され
た地図データと、更に地図上に表示する誘導経路や後述
する設定地点の目印等の付加データとを重ねて表示する
ことができる。The display device 14 is a color display device. On the screen of the display device 14, the vehicle current position mark input from the position detector 4, the map data input from the map data input device 6, and the map data It is possible to superimpose and display additional data such as a guidance route displayed above and a mark of a set point described later.
【0028】また、本ナビゲーションシステム2は、リ
モートコントロール端末(以下、リモコンと称する。)
15aを介してリモコンセンサ15から、あるいは操作
スイッチ群8により目的地の位置を入力すると、現在位
置からその目的地までの最適な経路を自動的に選択して
誘導経路を形成し表示する、いわゆる経路案内機能も備
えている。このような自動的に最適な経路を設定する手
法は、ダイクストラ法等の手法が知られている。操作ス
イッチ群8は、例えば、表示装置14と一体になったタ
ッチスイッチもしくはメカニカルなスイッチ等が用いら
れ、各種入力に使用される。The navigation system 2 is a remote control terminal (hereinafter, referred to as a remote controller).
When the position of the destination is input from the remote control sensor 15 via the operation switch group 8 via the remote control sensor 15a, an optimum route from the current position to the destination is automatically selected, and a guidance route is formed and displayed. It also has a route guidance function. As a technique for automatically setting the optimum route, a technique such as the Dijkstra method is known. The operation switch group 8 is, for example, a touch switch integrated with the display device 14 or a mechanical switch, and is used for various inputs.
【0029】そして、音声認識装置30は、上記操作ス
イッチ群8あるいはリモコン15aが手動操作により目
的地などを指示するために用いられるのに対して、利用
者が音声で入力することによっても同様に目的地などを
指示することができるようにするための装置である。The voice recognition device 30 is used when the operation switch group 8 or the remote controller 15a is manually operated to indicate a destination or the like, and similarly, when the user inputs by voice. This is a device that allows the user to specify a destination or the like.
【0030】この音声認識装置30は、「音声認識手
段」としての音声認識部31と、対話制御部32と、音
声合成部33と、音声入力部34と、「音声入力手段」
としてのマイク35と、PTT(Push-To-Talk)スイッ
チ36と、スピーカ37とを備えている。The speech recognition apparatus 30 includes a speech recognition unit 31 as a "speech recognition unit", a dialogue control unit 32, a speech synthesis unit 33, a speech input unit 34, and a "speech input unit".
, A PTT (Push-To-Talk) switch 36, and a speaker 37.
【0031】音声認識部31は、音声入力部34から入
力された音声データを、対話制御部32からの指示によ
り入力音声の認識処理を行い、その認識結果を対話制御
部32に返す。すなわち、音声入力部34から取得した
音声データに対し、記憶している辞書データを用いて照
合を行ない、複数の比較対象パターン候補と比較して一
致度の高い上位比較対象パターンを対話制御部32へ出
力する。入力音声中の単語系列の認識は、音声入力部3
4から入力された音声データを順次音響分析して音響的
特徴量(例えばケプストラム)を抽出し、この音響分析
によって得られた音響的特徴量時系列データを得る。そ
して、周知のDPマッチング法によって、この時系列デ
ータをいくつかの区間に分け、各区間が辞書データとし
て格納されたどの単語に対応しているかを求める。The voice recognition unit 31 performs a recognition process on the voice data input from the voice input unit 34 according to an instruction from the dialog control unit 32, and returns the recognition result to the dialog control unit 32. That is, the voice data acquired from the voice input unit 34 is collated using the stored dictionary data, and a higher-level comparison target pattern having a higher degree of matching as compared with a plurality of comparison target pattern candidates is determined. Output to The recognition of the word sequence in the input voice is performed by the voice input unit 3
The sound data inputted from the step 4 are sequentially subjected to acoustic analysis to extract an acoustic feature (for example, cepstrum), and to obtain acoustic feature time-series data obtained by the acoustic analysis. Then, the time-series data is divided into several sections by a well-known DP matching method, and a word corresponding to each section stored as dictionary data is determined.
【0032】対話制御部32は、その認識結果及び自身
が管理する内部状態から、音声合成部33への応答音声
の発声指示や、システム自体の処理を実行する制御回路
10に対して例えばナビゲート処理のために必要な目的
地を通知して設定処理を実行させるよう指示する処理を
実行する。このような処理が確定後処理であり、結果と
して、この音声認識装置30を利用すれば、上記操作ス
イッチ群8あるいはリモコン15aを手動しなくても、
音声入力により目的地の指示などが可能となるのであ
る。From the recognition result and the internal state managed by itself, the dialogue control unit 32 navigates, for example, to the control circuit 10 which instructs the voice synthesizer 33 to produce a response voice and executes processing of the system itself. A process for notifying a destination necessary for the process and instructing to execute the setting process is executed. Such processing is post-confirmation processing. As a result, if this voice recognition device 30 is used, the operation switch group 8 or the remote controller 15a can be operated without manual operation.
It is possible to specify a destination by voice input.
【0033】また音声入力部34は、マイク35にて取
り込んだ周囲の音声をデジタルデータに変換して音声認
識部31に出力するものである。本実施形態において
は、利用者がPTTスイッチ36を押しながらマイク3
5を介して音声を入力するという使用方法である。具体
的には、音声入力部34はPTTスイッチ36が押され
たかどうかを判断しており、PTTスイッチ36が押さ
れている場合にはマイク35を介しての音声入力処理を
実行するが、押されていない場合にはその音声入力処理
を実行しないようにしている。したがって、PTTスイ
ッチ36が押されている間にマイク35を介して入力さ
れた音声データのみが音声認識部31へ出力されること
となる。The voice input section 34 converts the surrounding voice captured by the microphone 35 into digital data and outputs the digital data to the voice recognition section 31. In the present embodiment, the user presses the PTT switch 36 while pressing the microphone 3.
This is a usage method of inputting a voice through the terminal 5. Specifically, the voice input unit 34 determines whether or not the PTT switch 36 has been pressed. When the PTT switch 36 has been pressed, the voice input unit 34 executes voice input processing via the microphone 35. If not, the voice input process is not executed. Therefore, only the voice data input via the microphone 35 while the PTT switch 36 is pressed is output to the voice recognition unit 31.
【0034】ここで、音声認識部31と対話制御部32
についてさらに説明する。図2は、この音声認識部31
と対話制御部32の構成をさらに詳しく示したものであ
り、(A),(B)の2つの構成例を説明する。まず、
図2(A)に示す構成では、音声認識部31が照合部3
1aと辞書部31bとで構成されており、対話制御部3
2が記憶部32a、入力部32b及び後処理部32cで
構成されている。音声認識部31においては、照合部3
1aが、音声入力部34から取得した音声データに対
し、辞書部31b内に記憶されている辞書データを用い
て照合を行なうのである。但し、対話制御部32の記憶
部32aに参照用住所があれば、その参照用住所を音声
データに付加したものも入力された音声であると一時的
に見なして比較対象パターン候補と照合を行なう。この
照合の詳細については後述する。Here, the voice recognition unit 31 and the dialogue control unit 32
Will be further described. FIG. 2 shows the voice recognition unit 31.
4 shows the configuration of the dialogue control unit 32 in more detail, and two configuration examples (A) and (B) will be described. First,
In the configuration shown in FIG. 2A, the voice recognition unit 31
1a and a dictionary unit 31b.
2 comprises a storage unit 32a, an input unit 32b, and a post-processing unit 32c. In the voice recognition unit 31, the matching unit 3
1a compares the voice data acquired from the voice input unit 34 with the dictionary data stored in the dictionary unit 31b. However, if there is a reference address in the storage unit 32a of the dialogue control unit 32, the data obtained by adding the reference address to the voice data is temporarily regarded as the input voice, and is compared with the comparison target pattern candidate. . The details of this collation will be described later.
【0035】そして、照合部31aにて複数の比較対象
パターン候補と比較されて一致度が高いとされた上位比
較対象パターンは、対話制御部32の記憶部32aへ出
力すされることとなる。ところで、本実施形態の辞書部
31bに記憶されている辞書データは、比較対象パター
ン候補となる語彙そのもののデータだけでなく、その比
較対象パターンとなる語彙が複数の語を階層的につなぎ
合わせたものである場合、その階層構造を示すデータも
記憶されている。具体的には、語彙を構成する音節デー
タが図3に示すように木(tree)構造の各辺(図3にお
いて矢印(→)で示す)に割り付けられている。なお、
図3において一重丸(○)は頂点を表し、二重丸(◎)
は受理頂点、すなわち単語に対する頂点を表す。そし
て、図3中の矢印Aで示す頂点が「根」となり、そこか
ら先行順走査(preorder traversal)にしたがって各辺
に割り付けられ音節を辿ることで単語が完成する。ここ
で「先行順走査」とは、根を訪問し、次に子を根とする
部分木を順番に走査(この走査も先行順走査である。)
していくことを指す。なお、ここで、「親」とは直前の
頂点、「子」とは次の頂点、「兄弟」とは同じ親を持つ
頂点同士をそれぞれ意味する。Then, the higher-order comparison target pattern which is compared with the plurality of comparison target pattern candidates by the collating unit 31a and is determined to have a high degree of coincidence is output to the storage unit 32a of the dialogue control unit 32. By the way, the dictionary data stored in the dictionary unit 31b of the present embodiment includes not only the data of the vocabulary itself as a comparison target pattern candidate, but also a vocabulary serving as the comparison target pattern in which a plurality of words are hierarchically connected. If it is, data indicating the hierarchical structure is also stored. More specifically, syllable data constituting a vocabulary is assigned to each side of a tree structure (indicated by an arrow (→) in FIG. 3) as shown in FIG. In addition,
In FIG. 3, a single circle (○) represents a vertex, and a double circle (◎).
Represents the accepted vertex, ie, the vertex for the word. Then, the vertex indicated by the arrow A in FIG. 3 becomes the “root”, from which the word is completed by tracing syllables assigned to each side according to preorder traversal. Here, "preceding forward scanning" means that a root is visited, and then a subtree having a child as a root is sequentially scanned (this scanning is also a forward scanning).
It refers to doing. Here, “parent” means the immediately preceding vertex, “child” means the next vertex, and “sibling” means vertices having the same parent.
【0036】例えば図3に示す具体例では、「あいちけ
んかりやししょうわちょう(愛知県刈谷市昭和町)」と
いう一つの認識対象単語は、「あいちけん(愛知県)」
と「かりやし(刈谷市)」と「しょうわちょう(昭和
町)」という3つの語が階層的につなぎ合わせたもので
ある。したがって、このように3階層となっているとい
うことが図3に矢印B,Cで示す受理頂点の存在によっ
て判る。つまり、受理頂点はそこまで辿ってきた音節デ
ータで単語が構成されることを示すが、逆にその受理頂
点から下流側にさらに音節データがある場合には、その
受理頂点よりも上流側が上位階層となり、下流側が下位
階層となる。例えば、図3に矢印Bで示す受理頂点を考
えると、上流側の「あいちけん(愛知県)」が上位階層
であり、下流側の「かりやし(刈谷市)……」が下位階
層である。つまり、この場合には県を示す語が上位階層
で、市レベル以下を示す語が下位階層となる。また、図
3に矢印Cで示す受理頂点を考えると、上流側の「あい
ちけんかりやし(愛知県刈谷市)」が上位階層であり、
図3には示していないが下流側の例えば「しょうわちょ
う(昭和町)」が下位階層となる。For example, in the specific example shown in FIG. 3, one recognition target word "Aichiken Kariyashi Showacho (Kawatani City, Aichi Prefecture)" is "Aichiken (Aichi Prefecture)".
And "Kariyashi (Kariya City)" and "Showawacho (Showa-cho)" are connected hierarchically. Therefore, it can be seen that there are three hierarchies by the existence of the reception vertices indicated by arrows B and C in FIG. In other words, the accepted vertex indicates that a word is composed of the syllable data that has been traced to it. Conversely, if there is more syllable data downstream from the accepted vertex, the upstream side of the accepted vertex is in the upper hierarchy. And the downstream side is the lower hierarchy. For example, considering the reception vertex indicated by the arrow B in FIG. 3, "Aichiken (Aichi Prefecture)" on the upstream side is the upper layer, and "Kariyashi (Kariya City) ..." on the downstream side is the lower layer. is there. That is, in this case, the word indicating the prefecture is the upper hierarchy, and the word indicating the city level or lower is the lower hierarchy. Also, considering the receiving vertex indicated by arrow C in FIG. 3, “Aichiken Kariyashi (Kariya City, Aichi Prefecture)” on the upstream side is the upper hierarchy,
Although not shown in FIG. 3, for example, “Showacho (Showa-cho)” on the downstream side is a lower layer.
【0037】以上は辞書部31bに記憶されている辞書
データの説明として、愛知県刈谷市昭和町という具体例
で説明したが、基本的には都道府県を最上位階層とし、
市レベルを2番目の階層、町レベルを3番目の階層とし
て他の地名についてもデータが設定されている。なお、
「基本的に」といったのは、県の次の市レベルで「町」
や「村」が来る地名もあるからである。As described above, the dictionary data stored in the dictionary unit 31b has been described with a specific example of Showa-cho, Kariya city, Aichi prefecture.
Data is set for other place names with the city level as the second level and the town level as the third level. In addition,
"Basically" means "town" at the next city level in the prefecture
And "villages" come in some places.
【0038】辞書部31bの説明はこれで終わることと
する。上述したように、音声認識部31においては、照
合部31aが、音声入力部34から取得した音声データ
に対し、辞書部31b内に記憶されている複数の比較対
象パターン候補と比較して一致度の高い上位比較対象パ
ターンを対話制御部32の記憶部32aへ出力する。そ
して記憶部32aでは、この上位比較対象パターンを記
憶しておく。また、入力部32bは制御回路10からの
外部状況を入力するのであるが、その入力した外部状況
も記憶部32aに記憶される。この場合の外部状況と
は、例えば表示装置14において地図が表示されたこと
や、その表示された地図に関連する住所データなどであ
る。The description of the dictionary section 31b is completed here. As described above, in the voice recognition unit 31, the matching unit 31a compares the voice data acquired from the voice input unit 34 with the plurality of comparison target pattern candidates stored in the dictionary unit 31b to determine the degree of matching. Is output to the storage unit 32a of the interaction control unit 32. The storage unit 32a stores the upper comparison target pattern. The input unit 32b inputs an external situation from the control circuit 10, and the inputted external situation is also stored in the storage unit 32a. The external situation in this case is, for example, that a map is displayed on the display device 14 or address data related to the displayed map.
【0039】そして、後処理部32cでは、例えば上記
所定の確定指示がなされた場合に制御回路10へデータ
を送って所定の処理をするように指示する「確定後処
理」を実行したり、あるいは音声合成部33へ音声デー
タを送って発音させるように指示する処理を実行する。
なお、この場合の制御回路10へ送るデータとしては、
最終的な認識結果としての上位比較対象パターンの全て
でもよいし、あるいはその内の最上位のものだけでもよ
い。The post-processing section 32c executes "post-confirmation processing" for sending data to the control circuit 10 and instructing it to perform predetermined processing, for example, when the above-mentioned predetermined confirmation instruction is issued, or A process for instructing the voice synthesizing unit 33 to transmit the voice data and generate a sound is executed.
The data to be sent to the control circuit 10 in this case includes
All of the upper comparison target patterns as the final recognition result may be used, or only the uppermost pattern may be used.
【0040】一方、図2(B)に示す構成では、音声認
識部31が照合部131aと辞書部131bとで構成さ
れており、対話制御部32が記憶部132a、入力部1
32b、後処理部132c及び辞書制御部132dで構
成されている。上記図2(A)に示す構成では、対話制
御部32の記憶部32aに参照用住所があれば、その参
照用住所を音声データに付加したものも入力された音声
であると一時的に見なして比較対象パターン候補と照合
を行なうようにしていたが、図2(B)の構成では、照
合部31aにおける照合処理に先だって、対話制御部3
2の辞書制御部132dが辞書部31bに記憶されてい
る辞書データの制御を行なう。具体的には、記憶部13
2aに記憶されている参照用住所を参照して省略可能な
上位階層リストを作成し、その省略可能な上位階層部分
を辞書部31b内に記憶されている辞書データから一時
的に省略する。このように辞書制御がなされた辞書デー
タを用いて照合部31aが照合処理を実行するのであ
る。On the other hand, in the configuration shown in FIG. 2B, the voice recognition unit 31 is composed of a collation unit 131a and a dictionary unit 131b, and the dialogue control unit 32 is composed of a storage unit 132a and an input unit 1
32b, a post-processing unit 132c, and a dictionary control unit 132d. In the configuration shown in FIG. 2A, if there is a reference address in the storage unit 32a of the dialogue control unit 32, a voice obtained by adding the reference address to the voice data is also temporarily regarded as the input voice. In the configuration of FIG. 2B, the dialogue control unit 3 performs the matching with the comparison target pattern candidate before the matching process in the matching unit 31a.
The second dictionary control unit 132d controls the dictionary data stored in the dictionary unit 31b. Specifically, the storage unit 13
An upper layer list that can be omitted is created with reference to the reference address stored in 2a, and the upper layer part that can be omitted is temporarily omitted from the dictionary data stored in the dictionary unit 31b. The collation unit 31a executes the collation processing using the dictionary data thus controlled.
【0041】なお、後処理部132cの動作は、上記図
2(A)の場合と同様なので、ここでは説明を省略す
る。次に、本実施形態のナビゲーションシステム2の動
作について説明する。なお、音声認識装置30に関係す
る部分が特徴であるので、ナビゲーションシステムとし
ての一般的な動作を簡単に説明した後、音声認識装置3
0に関係する部分の動作について詳しく説明することと
する。The operation of the post-processing unit 132c is the same as that in the case of FIG. Next, the operation of the navigation system 2 of the present embodiment will be described. Since the features related to the voice recognition device 30 are characteristic, a general operation as a navigation system will be briefly described, and then the voice recognition device 3 will be described.
The operation of the portion related to 0 will be described in detail.
【0042】ナビゲーションシステム2の電源オン後
に、表示装置14上に表示されるメニューから、ドライ
バーがリモコン15a(操作スイッチ群8でも同様に操
作できる。以後の説明においても同じ)により、案内経
路を表示装置14に表示させるために経路情報表示処理
を選択した場合、あるいは、音声認識装置30を介して
希望するメニューをマイク35を介して音声入力するこ
とで、対話制御部32から制御回路10へ、リモコン1
5aを介して選択されるのを同様の指示がなされた場
合、次のような処理を実施する。After the power of the navigation system 2 is turned on, the driver displays a guidance route from a menu displayed on the display device 14 by using the remote controller 15a (the same operation can be performed with the operation switches 8; the same applies to the following description). When the route information display process is selected to be displayed on the device 14, or by inputting a desired menu through the microphone 35 through the voice recognition device 30, the dialogue control unit 32 sends the menu to the control circuit 10. Remote control 1
When the same instruction is given to select the item via 5a, the following processing is performed.
【0043】すなわち、ドライバーが表示装置14上の
地図に基づいて、音声あるいはリモコンなどの操作によ
って目的地を入力すると、GPS受信機22から得られ
る衛星のデータに基づき車両の現在地が求められ、目的
地と現在地との間に、ダイクストラ法によりコスト計算
して、現在地から目的地までの最も短距離の経路を誘導
経路として求める処理が行われる。そして、表示装置1
4上の道路地図に重ねて誘導経路を表示して、ドライバ
ーに適切なルートを案内する。このような誘導経路を求
める計算処理や案内処理は一般的に良く知られた処理で
あるので説明は省略する。That is, when the driver inputs a destination by voice or a remote control operation based on a map on the display device 14, the current position of the vehicle is obtained based on satellite data obtained from the GPS receiver 22. A process is performed between the ground and the current location to calculate the cost by the Dijkstra method and determine the shortest route from the current location to the destination as a guidance route. And the display device 1
4. A guidance route is displayed on the road map above to guide the driver to an appropriate route. The calculation process and the guidance process for obtaining such a guide route are generally well-known processes, and a description thereof will be omitted.
【0044】次に、音声認識装置30における動作につ
いて、目的地を検索するために、その目的地検索を行う
上で指定される必要のある目的地特定データを音声入力
する場合を例にとって説明する。図4,図5は、その場
合の音声認識部31及び対話制御部32における処理を
示すフローチャートであり、図4は音声認識に関する処
理、図5は参照用住所取込に関する処理を示している。
なお、これらのフローチャートは、音声認識部31及び
対話制御部32が図2(A)に示す構成を備えているこ
とを前提とした処理を示している。Next, the operation of the voice recognition device 30 will be described by taking as an example a case where, in order to search for a destination, destination specifying data which must be specified in performing the destination search is input by voice. . 4 and 5 are flowcharts showing processing in the voice recognition unit 31 and the dialogue control unit 32 in this case. FIG. 4 shows processing related to voice recognition, and FIG. 5 shows processing related to capturing a reference address.
Note that these flowcharts show processing on the premise that the voice recognition unit 31 and the dialog control unit 32 have the configuration shown in FIG.
【0045】まず図4の音声認識に関する処理について
説明する。最初のステップS10においては音声入力が
あるかどうかを判断する。上述したように、PTTスイ
ッチ36が押されている間にマイク35を介して入力さ
れた音声データのみが音声入力部34から音声認識部3
1へ出力されるので、この音声入力部34からの音声入
力があるかどうかを判断する。First, the processing related to speech recognition in FIG. 4 will be described. In the first step S10, it is determined whether or not there is a voice input. As described above, only the voice data input via the microphone 35 while the PTT switch 36 is pressed is transmitted from the voice input unit 34 to the voice recognition unit 3.
1, it is determined whether or not there is a voice input from the voice input unit 34.
【0046】音声入力があれば、S20へ移行して音声
認識処理を実行する。この音声認識処理は、取得した音
声データに対して辞書部31b内に記憶されている辞書
データを用いて照合を行なう。続くS30では、S20
での音声認識処理によって認識が成功したかどうかを判
断する。認識が成功していれば(S30:YES)、S
40に移行し、S20での音声認識処理による認識結果
が、「はい」という音声入力であるかどうかを判断す
る。そして、「はい」という音声入力でなければ(S4
0:NO)、続くS50にて認識結果が所定カテゴリに
属するものであるかどうかを判断する。ここでは経路案
内のための目的地を設定する処理を前提としているの
で、この所定カテゴリとは、地名・住所に関するカテゴ
リである。If there is a voice input, the flow shifts to S20 to execute voice recognition processing. In the voice recognition processing, the acquired voice data is collated using the dictionary data stored in the dictionary unit 31b. In subsequent S30, S20
It is determined whether or not the recognition has been successful by the voice recognition processing in. If the recognition is successful (S30: YES), S
The process proceeds to S40, and it is determined whether or not the recognition result obtained by the voice recognition processing in S20 is a voice input of “Yes”. If it is not a voice input of "Yes" (S4
0: NO), and in subsequent S50, it is determined whether or not the recognition result belongs to a predetermined category. Here, it is assumed that a process for setting a destination for route guidance is performed, and thus the predetermined category is a category relating to a place name and an address.
【0047】所定カテゴリであれば(S50:YE
S)、S60へ移行して、その認識結果を音声にて応答
する処理を実行する。これは、音声合成部33及びスピ
ーカを介して認識結果を音声として出力する処理であ
る。それに対して、所定カテゴリでなければ(S50:
NO)、S70へ移行してその他の処理を実行する。S
60あるいはS70の処理の後は本ルーチンを一旦終了
し、再度S10の音声入力待ちとなる。If the category is a predetermined category (S50: YE
S), the process proceeds to S60, and a process of responding to the recognition result by voice is executed. This is a process of outputting the recognition result as voice via the voice synthesis unit 33 and the speaker. On the other hand, if the category is not the predetermined category (S50:
NO), and proceeds to S70 to execute other processing. S
After the processing of S60 or S70, the present routine is terminated once, and the voice input of S10 is waited again.
【0048】また、S40にて肯定判断、すなわち認識
結果が「はい」という音声入力であった場合には、S8
0へ移行して認識結果を確定する。そして続くS90に
て、所定の確定後処理を実行する。この場合の確定後処
理とは、認識結果としての「経路案内のための目的地」
に関するデータを、制御回路10へ(図1参照)へ出力
する処理などとなる。そして、このような確定後処理が
終了した後は本ルーチンを一旦終了し、再度S10の音
声入力待ちとなる。On the other hand, if the judgment in S40 is affirmative, that is, if the recognition result is a voice input of "yes", the process proceeds to S8.
The process proceeds to 0 to determine the recognition result. Then, in subsequent S90, predetermined post-determination processing is executed. The post-confirmation processing in this case is the "destination for route guidance" as the recognition result.
And the like to output data on the control circuit 10 to the control circuit 10 (see FIG. 1). Then, after such post-determination processing is completed, the present routine is terminated once, and the process waits for the voice input in S10 again.
【0049】一方、S30にて否定判断、すなわち認識
成功でなければ、S100へ移行し、認識を失敗した場
合の特定の処理(S100〜S150)を行う。但し、
この中で参照用住所を参照した再度の音声認識処理(S
110)があるので、それに関連する参照用住所取込に
関する処理を図5を参照して説明しておく。On the other hand, if a negative determination is not made in S30, that is, if the recognition is not successful, the process proceeds to S100, and specific processing (S100 to S150) when the recognition fails is performed. However,
The voice recognition processing (S) is performed again with reference to the reference address.
110), the processing related to the reference address fetching related thereto will be described with reference to FIG.
【0050】図5の処理は定期的に起動されて実行され
るものであり、最初のステップS210においては、制
御回路10が表示装置14に地図を表示したかどうかを
判断する。そして、地図を表示していれば(S210:
YES)、その表示された地図に関連する住所データを
取り込む(S220)。これらの処理は、図2(A)を
参照して上述したように、対話制御部32の入力部32
bが、制御回路10から入力した外部状況に基づいて行
う。The process shown in FIG. 5 is started and executed periodically. In the first step S210, the control circuit 10 determines whether or not a map is displayed on the display device 14. If a map is displayed (S210:
YES), address data related to the displayed map is fetched (S220). These processes are performed by the input unit 32 of the dialog control unit 32 as described above with reference to FIG.
b is performed based on the external situation input from the control circuit 10.
【0051】そして、S220にて実行した住所の取り
込みが初めてであるかどうかを判断し(S230)、初
めての取込であれば(S230:YES)、カウンタC
NTを0にし(S250)、初めての取込でなければ
(S230:NO)、カウンタCNTをインクリメント
(CNT←CNT+1)してから(S240)、S26
0へ移行する。Then, it is determined whether or not the address fetching executed in S220 is the first time (S230). If it is the first time fetching (S230: YES), the counter C is read.
NT is set to 0 (S250), and if it is not the first capture (S230: NO), the counter CNT is incremented (CNT ← CNT + 1) (S240), and then S26
Move to 0.
【0052】S260では、S220にて取り込んだ住
所を、図2(A)に示した対話制御部32内の記憶部3
2aに設定されたバッファ[CNT]に記憶する。これ
で本ルーチンを終了する。なお、地図を表示していない
場合には(S210:NO)、S220以降の処理を実
行することなく、本ルーチンを終了する。In S260, the address fetched in S220 is stored in the storage unit 3 in the dialogue control unit 32 shown in FIG.
The data is stored in the buffer [CNT] set in 2a. This ends the routine. When the map is not displayed (S210: NO), this routine ends without executing the processing of S220 and thereafter.
【0053】ここで、S260での参照用住所の記憶処
理について補足説明する。この場合に記憶する住所は、
いわゆる上位階層に相当する部分のみである。つまり、
「愛知県刈谷市」の場合の「愛知県」、「愛知県刈谷市
桜町」の場合の「愛知県刈谷市」といった具合である。Here, the supplementary explanation of the storage processing of the reference address in S260 will be given. The address to remember in this case is
Only the part corresponding to the so-called upper layer. That is,
"Aichi Prefecture" in the case of "Kariya City, Aichi Prefecture", and "Kariya City, Aichi Prefecture" in the case of "Sakuramachi, Kariya City, Aichi Prefecture".
【0054】図4の処理に戻り、S100では、カウン
タCNTを0にリセットし、続くS110にて、対話制
御部32内の記憶部32a(図2(A)参照)に設定さ
れたバッファ[CNT]に記憶された住所を付加した状
態で、再度、音声認識処理を実行する。つまり、記憶さ
れた住所が「愛知県」であれば、その愛知県を頭に付加
したものが音声入力されたと見なして、音声認識を行
う。Returning to the processing of FIG. 4, in S100, the counter CNT is reset to 0, and in S110, the buffer [CNT] set in the storage unit 32a (see FIG. The voice recognition process is executed again with the address stored in [] added. In other words, if the stored address is "Aichi prefecture", the voice recognition is performed assuming that the voice with the Aichi prefecture added to the head is input.
【0055】続くS120では、S110での音声認識
処理によって認識が成功したかどうかを判断し、認識が
成功していれば(S120:YES)、S40に移行す
る。このS40以降の処理については上述したので説明
は繰り返さない。これに対して、S110での音声認識
処理によって認識が成功しなかった場合には(S12
0:NO)、S130へ移行してカウンタCNTが最大
値MAX以上であるかどうかを判断する。そして、カウ
ンタCNTが最大値MAX未満である場合には(S13
0:NO)、そのカウンタCNTをインクリメント(C
NT←CNT+1)してから(S140)、S110へ
戻る。At S120, it is determined whether or not the recognition is successful by the voice recognition processing at S110. If the recognition is successful (S120: YES), the process proceeds to S40. Since the processing after S40 has been described above, the description will not be repeated. On the other hand, when the recognition is not successful by the voice recognition processing in S110 (S12
0: NO), and proceeds to S130 to determine whether the counter CNT is equal to or greater than the maximum value MAX. If the counter CNT is less than the maximum value MAX (S13
0: NO), the counter CNT is incremented (C
(NT ← CNT + 1) (S140), and then return to S110.
【0056】つまり、バッファ[CNT]に記憶された
住所を順番に付加した状態で、認識が成功するまで音声
認識処理を繰り返し行うのである。そして、音声認識が
成功した時点で(S120:YES)、S40へ移行す
る。なお、記憶された全ての住所を付加しても認識が成
功しなかった場合には(S130:YES)、S150
へ移行して所定のエラー処理を行う。例えば、認識が失
敗したことを音声にて応答するなどの処理である。That is, in a state where addresses stored in the buffer [CNT] are sequentially added, the voice recognition processing is repeatedly performed until the recognition succeeds. Then, when the voice recognition is successful (S120: YES), the process proceeds to S40. If the recognition is not successful even if all the stored addresses are added (S130: YES), S150 is executed.
Then, predetermined error processing is performed. For example, it is a process of responding by voice that the recognition has failed.
【0057】なお、本実施例においては、図5のS22
0にて取り込んだ住所(参照用住所)をCNTに対応さ
せて記憶させていた。この最大値MAXに関しては、例
えばMAX=0とすれば、直前の地図表示にて得られた
参照用住所のみを記憶しておくこととなる。但し、現実
的には過去のある程度の回数分の参照用住所を記憶して
おくことが好ましい。つまり、目的地として頻繁に検索
する対象は、例えば都道府県や市町村レベルで考えた場
合に同一エリア内となることが多いと考えられる。した
がって、対話制御部32内の記憶部32aの記憶容量や
音声認識部31の照合部31aにおける処理負荷が過大
にならなければ、ある程度多数の参照用住所を記憶して
おくことが、利用者の負担軽減及び使い勝手の向上につ
ながる。In this embodiment, S22 in FIG.
The address (reference address) taken in at 0 is stored in association with the CNT. For this maximum value MAX, for example, if MAX = 0, only the reference address obtained in the immediately preceding map display is stored. However, in practice, it is preferable to store reference addresses for a certain number of times in the past. That is, it is conceivable that an object frequently searched for as a destination often falls within the same area when considered at the prefectural or municipal level, for example. Therefore, unless the storage capacity of the storage unit 32a in the dialogue control unit 32 or the processing load on the matching unit 31a of the voice recognition unit 31 becomes excessive, it is necessary for the user to store a relatively large number of reference addresses. This reduces the burden and improves usability.
【0058】以上説明した処理を行うことによって、本
実施形態のナビゲーションシステム2は次の効果を発揮
する。例えば愛知県内の複数の場所を連続して検索して
いる場合などを考えると、ユーザにとって、毎回「愛知
県○○市××町……」というように県名から音声入力す
るのは面倒である。つまり、愛知県内の複数の場所を順
次検索していく際には、ユーザの意識として愛知県内の
場所を検索していることは当然のこととして考えてお
り、その中のどの市町村についてのものかが重要とな
る。同様に、同一の市町村内の複数の場所を連続して検
索している場合には、さらにその市町村内の場所を検索
していることが当然のこととなり、その中のどの地域に
ついてのものであるかが重要となる。By performing the processing described above, the navigation system 2 of the present embodiment has the following effects. For example, considering a case in which a plurality of places in Aichi Prefecture are continuously searched, it is troublesome for the user to input a voice from a prefecture name such as "Aichi Prefecture XX City XX Town ..." every time. is there. In other words, when searching multiple places in Aichi Prefecture sequentially, it is natural that the user is searching for a place in Aichi Prefecture as a consciousness. Is important. Similarly, if multiple locations within the same municipality are searched consecutively, it is natural that the location within that municipality is also searched. Is important.
【0059】この点に関して本ナビゲーションシステム
2では、目的地検索の結果、例えば「愛知県刈谷市」と
いう住所が確定されて地図表示がなされ、参照用住所と
して「愛知県」が記憶されている場合には、次のような
省略した音声入力であっても音声認識が可能となる。つ
まり、例えば「愛知県犬山市○○町」については「犬山
市○○町」というように市名から入力するだけでよい。
また、例えば「愛知県刈谷市桜町」という住所が確定さ
れて地図表示がなされ、参照用住所として「愛知県刈谷
市」が記憶されている場合には、「愛知県○○市桜町」
については「桜町」というように町名から入力するだけ
でよくなる。In this regard, in the navigation system 2, as a result of the destination search, for example, an address “Kariya City, Aichi Prefecture” is determined and displayed on a map, and “Aichi Prefecture” is stored as a reference address. , Speech recognition is possible even with the following omitted speech input. That is, for example, "Inuyama City, Aichi Prefecture XX Town" may be simply input from the city name, such as "Inuyama City XX Town".
Further, for example, when the address “Sakuracho, Aichi Prefecture” is determined and a map is displayed, and “Kariya City, Aichi Prefecture” is stored as a reference address, “Sakuracho, Aichi Prefecture XX City” is stored.
For, you only need to enter the name of the town, such as "Sakuramachi".
【0060】また、上述のように住所を目的地特定デー
タとする場合だけでなく、目的地の名称を目的地特定デ
ータとして音声入力する場合であっても、同様のことが
言える。例えば市役所、保健所、税務署、警察署などの
同一市町村内の複数の施設を連続して検索している場合
には、例えば目的地検索の結果、「刈谷市役所」が確定
されて地名関連データとして記憶されていれば、続いて
刈谷保健所、刈谷税務署、刈谷警察署などを検索する場
合、単に「保健所」、「税務署」、「警察署」とだけ音
声入力すればよい。The same applies not only when the address is used as the destination specifying data as described above, but also when the name of the destination is input as the destination specifying data by voice. For example, when a plurality of facilities in the same municipal office such as a city hall, a public health office, a tax office, and a police station are continuously searched, for example, as a result of a destination search, `` Kariya city office '' is determined and stored as place name related data. Then, when searching for the Kariya Public Health Center, the Kariya Tax Office, the Kariya Police Station, etc., the user may simply input the words "health center", "tax office", and "police station".
【0061】このように、目的地検索機能による検索履
歴を考慮した音声認識を実行することによって、上位階
層を省略した音声入力の方が自然な場合であっても上位
階層から音声入力しなくてはならないという利用者の負
担を軽減し、使い勝手をより向上させることができる。As described above, by performing the speech recognition in consideration of the search history by the destination search function, even when the speech input omitting the upper hierarchy is more natural, the speech input from the upper hierarchy is not performed. It is possible to reduce the burden on the user that it should not be used, and to further improve the usability.
【0062】ところで、図4,図5のフローチャートに
示す処理内容は、図2(A)に示す構成を前提としたも
のであったが、図2(B)に示す構成を前提とした場合
について説明しておく。この場合も基本的な処理は同じ
であるが、図5のS220にて取り込んだ参照用の住所
の取り扱い方が異なる。つまり、図2(A)に示す構成
を前提とした場合には、図5のS220にて取り込んだ
参照用の住所をそのままバッファ[CNT]に記憶させ
ておき、図2(B)に示す構成を前提とした場合には、
その参照用住所を辞書データ自体に反映させることとな
る。すなわち、辞書部31bに記憶されている該当する
比較対象パターン候補から参照用住所を構成する語を省
略した第2の比較対象パターン候補を新設することとな
る。上述した具体例で言えば、「犬山市○○町」という
市名からの比較対象パターン候補や、「桜町」という町
名からの比較対象パターン候補などがこれに相当する。
したがって、これらの比較対象パターン候補も一時的に
辞書データに加えた状態で音声認識処理を行うこととな
る。The processing contents shown in the flow charts of FIGS. 4 and 5 are based on the configuration shown in FIG. 2A. Let me explain. In this case as well, the basic processing is the same, but the handling of the reference address taken in S220 in FIG. 5 is different. That is, on the premise of the configuration shown in FIG. 2A, the reference address fetched in S220 of FIG. 5 is stored in the buffer [CNT] as it is, and the configuration shown in FIG. Assuming that
The reference address is reflected in the dictionary data itself. That is, a second comparison target pattern candidate in which the words constituting the reference address are omitted from the corresponding comparison target pattern candidates stored in the dictionary unit 31b is newly provided. In the specific example described above, a comparison target pattern candidate from the city name "Inuyama City OO Town" or a comparison target pattern candidate from the "Sakuracho" town name corresponds to this.
Therefore, the voice recognition processing is performed in a state where these comparison target pattern candidates are also temporarily added to the dictionary data.
【0063】そして、この場合の後処理部132cにて
実行される確定後処理は、次のようなものとなる。例え
ば「愛知県」という参照用住所があるために比較対象パ
ターン候補として「犬山市○○町」が新設された場合に
は、その「犬山市○○町」という認識結果に参照用住所
である「愛知県」を加味し、「愛知県犬山市○○町」が
確定した認識結果であるとして制御回路10へ出力する
こととなる。また、例えば「愛知県刈谷市」という参照
用住所があるために比較対象パターン候補として「桜
町」が新設された場合には、その「桜町」という認識結
果に参照用住所である「愛知県刈谷市」を加味し、「愛
知県刈谷市桜町」が確定した認識結果であるとして制御
回路10へ出力することとなる。The post-determination process executed by the post-processing unit 132c in this case is as follows. For example, if there is a reference address "Aichi prefecture" and "Inuyama city OO town" is newly established as a comparison target pattern candidate, the recognition result "Inuyama city OO town" indicates the reference address. Taking into account "Aichi Prefecture", "Aichi Prefecture Inuyama City XX Town" is output to the control circuit 10 as a confirmed recognition result. Further, for example, when “Sakuracho” is newly established as a comparison target pattern because there is a reference address “Kariya City, Aichi Prefecture”, the reference address “Kariya Aichi Prefecture” is added to the recognition result of “Sakuracho”. Taking the city into account, “Sakura-cho, Kariya-shi, Aichi” is output to the control circuit 10 as a confirmed recognition result.
【0064】以上、本発明はこのような実施形態に何等
限定されるものではなく、本発明の主旨を逸脱しない範
囲において種々なる形態で実施し得る。 (1)例えば、参照用住所の記憶を許可あるいは禁止す
る指示を利用者が入力するための指示入力手段を備え、
参照用住所の記憶が許可されている場合に限って記憶す
るように構成してもよい。これは、利用者の判断で適切
な参照用住所のみを記憶しておくようにした方が都合が
よい場合もあるからである。As described above, the present invention is not limited to such embodiments at all, and can be implemented in various forms without departing from the gist of the present invention. (1) For example, there is provided instruction input means for allowing a user to input an instruction to permit or prohibit storage of a reference address,
The configuration may be such that the reference address is stored only when the storage of the reference address is permitted. This is because it may be more convenient to store only an appropriate reference address at the discretion of the user.
【0065】(2)上記実施形態では、「報知手段」と
してスピーカ37を用い、音声出力により認識結果を報
知するようにしたが、このように音声で出力されれば、
認識結果の確認のためにドライバーが視点を移動する必
要がないので、一層の安全運転に貢献できる。つまり、
ナビゲーションシステム2を車載機器用として用いてい
るので、このような音声出力には利点がある。もちろ
ん、画面上に文字または記号を表示することにより認識
結果を報知してもよいし、音声を出力することにより報
知すると共に画面上に文字または記号を表示することに
より報知するようにしてもよい。そして、画面上に認識
結果を表示させる場合には、ナビゲーションシステム2
の地図情報を表示するための表示装置14(図1参照)
に表示させるような構成を採用することもできる。(2) In the above-described embodiment, the speaker 37 is used as the "notifying means" and the recognition result is notified by voice output.
The driver does not need to move his / her viewpoint to check the recognition result, which can contribute to further safe driving. That is,
Since the navigation system 2 is used for in-vehicle devices, such audio output has advantages. Of course, the recognition result may be notified by displaying a character or a symbol on the screen, or may be notified by outputting a voice and may be notified by displaying the character or the symbol on the screen. . When displaying the recognition result on the screen, the navigation system 2
Display device 14 for displaying map information of the map (see FIG. 1)
May be adopted.
【0066】(2)ナビゲーションシステム2は、車載
機器として用いられる場合だけではなく、例えば携帯型
ナビゲーションシステムなどでもよい。但し、これまで
説明したように車載機器用として用いる場合には利用者
がドライバーであることが考えられ、その場合には運転
自体が最重要であり、それ以外の車載機器については、
なるべく運転に支障がないことが好ましい。したがっ
て、車載機器としてのナビゲーションシステム2を前提
とした音声認識装置の場合には、より一層の利点があ
る。(2) The navigation system 2 is not limited to the case where it is used as a vehicle-mounted device, but may be, for example, a portable navigation system. However, as described above, when used for in-vehicle devices, the user may be a driver, and in that case, driving itself is the most important, and for other in-vehicle devices,
It is preferable that there is no problem in driving as much as possible. Therefore, in the case of the speech recognition device on the premise of the navigation system 2 as the vehicle-mounted device, there is a further advantage.
【図1】 本発明の実施の形態としてのナビゲーション
システムの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a navigation system as an embodiment of the present invention.
【図2】 音声認識装置における音声認識部と対話制御
部の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a speech recognition unit and a dialogue control unit in the speech recognition device.
【図3】 音声認識部内の辞書部に記憶されている辞書
データを示す説明図である。FIG. 3 is an explanatory diagram showing dictionary data stored in a dictionary unit in a voice recognition unit.
【図4】 音声認識装置における音声認識に関する処理
を示すフローチャートである。FIG. 4 is a flowchart showing processing related to speech recognition in the speech recognition device.
【図5】 音声認識装置における参照用住所取込に関す
る処理を示すフローチャートである。FIG. 5 is a flowchart showing processing relating to a reference address fetch in the voice recognition device.
2…ナビゲーションシステム 4…位置検出器 6…地図データ入力器 8…操作スイッチ
群 10…制御回路 12…外部メモリ 14…表示装置 15…リモコンセ
ンサ 15a…リモコン 18…ジャイロ
スコープ 20…距離センサ 22…GPS受信
機 30…音声認識装置 31…音声認識部 31a…照合部 31b…辞書部 32…対話制御部 32a…記憶部 32b…入力部 32c…後処理部 33…音声合成部 34…音声入力部 35…マイク 36…PTTスイ
ッチ 37…スピーカ 132a…記憶部 132b…入力部 132c…後処理部 132d…辞書制
御部Reference Signs List 2 navigation system 4 position detector 6 map data input device 8 operation switch group 10 control circuit 12 external memory 14 display device 15 remote control sensor 15 a remote control 18 gyroscope 20 distance sensor 22 GPS Receiver 30 Voice recognition device 31 Voice recognition unit 31a Matching unit 31b Dictionary unit 32 Dialogue control unit 32a Storage unit 32b Input unit 32c Post-processing unit 33 Voice synthesis unit 34 Voice input unit 35 Microphone 36 PTT switch 37 Speaker 132a Storage unit 132b Input unit 132c Post-processing unit 132d Dictionary control unit
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP28792898AJP3890774B2 (en) | 1998-10-09 | 1998-10-09 | Navigation system |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP28792898AJP3890774B2 (en) | 1998-10-09 | 1998-10-09 | Navigation system |
| Publication Number | Publication Date |
|---|---|
| JP2000122685Atrue JP2000122685A (en) | 2000-04-28 |
| JP3890774B2 JP3890774B2 (en) | 2007-03-07 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP28792898AExpired - Fee RelatedJP3890774B2 (en) | 1998-10-09 | 1998-10-09 | Navigation system |
| Country | Link |
|---|---|
| JP (1) | JP3890774B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002073080A (en)* | 2000-09-01 | 2002-03-12 | Fujitsu Ten Ltd | Voice interactive system |
| JP2002318136A (en)* | 2001-02-15 | 2002-10-31 | Navigation Technol Corp | Space construction word list for automatic voice recognition program and its forming method |
| WO2005055198A1 (en)* | 2003-12-04 | 2005-06-16 | Toyota Infotechnology Center Co., Ltd. | Shortcut names for use in a speech recognition system |
| US6963801B2 (en) | 2002-09-05 | 2005-11-08 | Denso Corporation | Vehicle navigation system having position correcting function and position correcting method |
| JP2005338274A (en)* | 2004-05-25 | 2005-12-08 | Mitsubishi Electric Corp | Spoken dialogue device |
| US7231343B1 (en) | 2001-12-20 | 2007-06-12 | Ianywhere Solutions, Inc. | Synonyms mechanism for natural language systems |
| EP1698859A4 (en)* | 2003-12-26 | 2009-02-11 | Panasonic Corp | NAVIGATION DEVICE |
| JP2015184487A (en)* | 2014-03-24 | 2015-10-22 | 株式会社東芝 | Voice processor and voice processing method |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002073080A (en)* | 2000-09-01 | 2002-03-12 | Fujitsu Ten Ltd | Voice interactive system |
| JP2002318136A (en)* | 2001-02-15 | 2002-10-31 | Navigation Technol Corp | Space construction word list for automatic voice recognition program and its forming method |
| US7231343B1 (en) | 2001-12-20 | 2007-06-12 | Ianywhere Solutions, Inc. | Synonyms mechanism for natural language systems |
| US6963801B2 (en) | 2002-09-05 | 2005-11-08 | Denso Corporation | Vehicle navigation system having position correcting function and position correcting method |
| WO2005055198A1 (en)* | 2003-12-04 | 2005-06-16 | Toyota Infotechnology Center Co., Ltd. | Shortcut names for use in a speech recognition system |
| US7292978B2 (en) | 2003-12-04 | 2007-11-06 | Toyota Infotechnology Center Co., Ltd. | Shortcut names for use in a speech recognition system |
| EP1698859A4 (en)* | 2003-12-26 | 2009-02-11 | Panasonic Corp | NAVIGATION DEVICE |
| JP2005338274A (en)* | 2004-05-25 | 2005-12-08 | Mitsubishi Electric Corp | Spoken dialogue device |
| JP2015184487A (en)* | 2014-03-24 | 2015-10-22 | 株式会社東芝 | Voice processor and voice processing method |
| Publication number | Publication date |
|---|---|
| JP3890774B2 (en) | 2007-03-07 |
| Publication | Publication Date | Title |
|---|---|---|
| JP4736982B2 (en) | Operation control device, program | |
| US20110288871A1 (en) | Information presentation system | |
| JP4997796B2 (en) | Voice recognition device and navigation system | |
| JP2001216129A (en) | Command input device | |
| JP4930486B2 (en) | Voice recognition system and navigation device | |
| JP2000122685A (en) | Navigation system | |
| JP2000338993A (en) | Voice recognition device and navigation system using this device | |
| JP2010039099A (en) | Speech recognition and in-vehicle device | |
| JP3474089B2 (en) | Navigation device | |
| JP2005275228A (en) | Navigation device | |
| JP3580643B2 (en) | Voice recognition method and voice recognition device | |
| JP3718088B2 (en) | Speech recognition correction method | |
| JP2947143B2 (en) | Voice recognition device and navigation device | |
| JP2001027540A (en) | Navigation method to use function of voice recognition | |
| JP3818352B2 (en) | Navigation device and storage medium | |
| JP3700533B2 (en) | Speech recognition apparatus and processing system | |
| JP3358498B2 (en) | Voice recognition device and navigation system | |
| JP3654262B2 (en) | Voice recognition device and navigation system | |
| JP3911835B2 (en) | Voice recognition device and navigation system | |
| JP2005114964A (en) | Method and processor for speech recognition | |
| JP2001075589A (en) | Method and device for voice recognition | |
| JPH11325946A (en) | Car navigation system | |
| JP2001005480A (en) | User uttering discriminating device and recording medium | |
| JP2877045B2 (en) | Voice recognition device, voice recognition method, navigation device, navigation method, and automobile | |
| JPH11231892A (en) | Voice recognition device |
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20041111 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20060711 | |
| A521 | Request for written amendment filed | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20060906 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20061114 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20061127 | |
| R150 | Certificate of patent or registration of utility model | Free format text:JAPANESE INTERMEDIATE CODE: R150 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20091215 Year of fee payment:3 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20101215 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20111215 Year of fee payment:5 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20121215 Year of fee payment:6 | |
| LAPS | Cancellation because of no payment of annual fees |