【0001】[0001]
【発明の属する技術分野】本発明は、ビデオゲーム装置
に関し、特に、音声入力を使用してゲームを展開するゲ
ーム装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video game device, and more particularly, to a game device that develops a game using voice input.
【0002】[0002]
【従来の技術】従来、音声に単に反応するゲームを行う
ゲーム装置は存在したが、CPUの能力等の限界によ
り、遊戯者の言葉の認識や認識語数が不十分であった。
このため、遊戯者の音声による指示に従って多様なゲー
ム展開を行えるまでには至っていない。2. Description of the Related Art Heretofore, there have been game machines for playing a game that simply responds to voice, but the recognition of the words of the player and the number of recognized words have been insufficient due to the limitations of the CPU and the like.
For this reason, various game developments cannot be performed in accordance with the instructions given by the player's voice.
【0003】また、従来、遊戯者とエネミー(ゲームの
敵)とが言葉によって対戦するようなゲーム装置は提供
されていない。Conventionally, there has not been provided a game apparatus in which a player and an enemy (enemy of the game) compete with each other by words.
【0004】[0004]
【発明が解決しようとする課題】よって、本発明は、遊
戯者の発する言葉をゲーム要素とするゲーム装置を提供
することを目的とする。SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a game device in which words spoken by a player are used as game elements.
【0005】また、本発明は、遊戯者の発した言葉とエ
ネミーの発した言葉同士が対戦要素となるゲーム装置を
提供することを目的とする。It is another object of the present invention to provide a game device in which words spoken by a player and words spoken by an enemy are battle elements.
【0006】また、本発明は、言葉に特性を持たせるこ
とによって、言葉による一種のじゃんけんゲームを提供
することを目的とする。It is another object of the present invention to provide a kind of rock-paper-scissors game by giving words a characteristic.
【0007】また、本発明は、遊戯者の発する言葉の意
味と音量をゲームパラメータとするゲーム装置を提供す
ることを目的とする。Another object of the present invention is to provide a game device in which the meaning and volume of words spoken by a player are used as game parameters.
【0008】また、本発明は、音声認識の認識率に応じ
てゲームパラメータが変化するゲーム装置を提供するこ
とを目的とする。It is another object of the present invention to provide a game device in which game parameters change according to the recognition rate of voice recognition.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するた
め、本発明のゲーム装置は、音声による言葉を音声信号
に変換する音声入力手段と、音声信号を、言葉を表す言
葉コード信号に変換する手段と、入力された音声信号の
少なくとも強さ(大きさ)を判別する強度判別手段と、
予め複数の言葉コード信号にそれぞれ対応する複数のオ
ブジェクトデータを記憶する記憶手段と、変換された言
葉コード信号に対応するオブジェクトデータを選択する
オブジェクト選択手段と、選択されたオブジェクトデー
タに音声信号の強さに基づいて処理を行うオブジェクト
データ処理手段と、を備える。In order to achieve the above object, a game device according to the present invention provides a voice input means for converting a voiced word into a voice signal, and converts the voice signal into a word code signal representing the word. Means, and intensity determination means for determining at least the strength (magnitude) of the input audio signal;
Storage means for storing in advance a plurality of object data respectively corresponding to a plurality of word code signals; object selection means for selecting object data corresponding to the converted word code signal; Object data processing means for performing processing based on the data.
【0010】かかる構成とすることによって、音声入力
された言葉オブジェクトを選択すると共に音声入力の強
度によって選択された言葉オブジェクトに変化を加える
ことが可能となる。[0010] With this configuration, it is possible to select a speech-inputted word object and change the selected word object according to the strength of the speech input.
【0011】また、本発明のゲーム装置は、音声による
言葉を音声信号に変換する音声入力手段と、音声信号
を、言葉を表す言葉コード信号に変換する手段と、入力
された音声信号の少なくとも強さを判別する強度判別手
段と、予め複数の言葉コード信号にそれぞれ対応する複
数のオブジェクトデータを記憶する記憶手段と、変換さ
れた言葉コード信号に対応するオブジェクトデータを選
択するオブジェクト選択手段と、選択されたオブジェク
トデータに音声信号の強さに基づいて処理を行うオブジ
ェクトデータ処理手段と、処理されたオブジェクトデー
タによって仮想空間に形成される文字オブジェクトを飛
翔させる飛翔手段と、文字オブジェクトと対象体との衝
突と、この衝突によるダメージを判定する衝突判定手段
と、衝突の判定結果に従ってゲームの展開を決定する結
果処理手段と、を備える。[0011] Also, the game device of the present invention has a voice input means for converting a voice word into a voice signal, a means for converting a voice signal into a word code signal representing a word, and at least a strong voice signal of the input voice signal. An intensity discriminating means for discriminating a plurality of word code signals, a storage means for storing a plurality of object data respectively corresponding to a plurality of word code signals in advance, an object selecting means for selecting object data corresponding to the converted word code signal, Object data processing means for performing processing on the processed object data based on the strength of the audio signal; flying means for flying a character object formed in the virtual space by the processed object data; Collision, collision determination means for determining damage caused by the collision, and collision determination result Therefore and a result processing means for determining the development of the game.
【0012】かかる構成とすることによって、音声入力
によって言葉オブジェクトを発声させ、この言葉オブジ
ェクト弾丸のように飛ばしてゲームを展開することが可
能となる。With this configuration, it is possible to develop a game by causing a word object to be uttered by voice input and skipping the word object like a bullet.
【0013】また、本発明のゲーム装置は、音声による
言葉を音声信号に変換する音声入力手段と、音声信号
を、言葉を表す言葉コード信号に変換する手段と、入力
された音声信号の少なくとも強さ及び長さを判別する音
声パラメータ抽出手段と、予め複数のゲームキャラクタ
を記憶する記憶手段と、音声信号の少なくとも強さ及び
長さに基づいてゲームキャラクタを選択するキャラクタ
選択手段と、を備える。[0013] Further, the game device of the present invention has a voice input means for converting a word by voice into a voice signal, a means for converting a voice signal into a word code signal representing a word, and at least strong voice of the input voice signal. The apparatus includes voice parameter extracting means for determining the length and length, storage means for storing a plurality of game characters in advance, and character selecting means for selecting a game character based on at least the strength and length of the voice signal.
【0014】かかる構成とすることによって、音声入力
により、ゲームキャラクタの選択が可能となる。With this configuration, it is possible to select a game character by voice input.
【0015】好ましくは、オブジェクトデータは、モニ
タ画面に表示されるべき三次元表示された文字の形態を
含み、オブジェクトデータ処理手段は、この文字の形態
の表面に音声の強さによって決定される材質のテクスチ
ャを貼込む。Preferably, the object data includes a form of a three-dimensionally displayed character to be displayed on a monitor screen, and the object data processing means includes, on the surface of the form of the character, a material determined by the intensity of sound. Paste the texture of.
【0016】かかる構成とすることによって、音声によ
り、文字オブジェクトの材質を決定することが可能とな
る。With this configuration, the material of the character object can be determined by voice.
【0017】好ましくは、衝突判定手段は、文字オブジ
ェクトが対象体に衝突して、該対象体に与えるダメージ
を判定する要素として少なくとも材質を用いる。Preferably, the collision judging means uses at least a material as an element for judging damage to the target object when the character object collides with the target object.
【0018】かかる構成とすることによって、材質の硬
軟によって相手に与えるダメージが設定される。With this configuration, the damage to the opponent due to the hardness of the material is set.
【0019】好ましくは、飛翔手段は、材質を飛翔速度
の決定要素とする。材質に応じて文字オブジェクトの飛
翔速度が決定されることにより、臨場感が増す。Preferably, the flying means uses the material as a determinant of the flying speed. By determining the flying speed of the character object according to the material, the sense of realism is increased.
【0020】好ましくは、衝突判定手段は、文字オブジ
ェクト同士が衝突する場合に、予め文字オブジェクトに
定められた文字属性によって勝敗を決する。Preferably, when the character objects collide with each other, the collision determining means determines a win or loss based on a character attribute predetermined for the character object.
【0021】かかる構成とすることによって、文字によ
る「じゃんけん」の要素を組入れることが可能となり、
面白い。With this configuration, it is possible to incorporate the element of "paper-scissors" using characters.
interesting.
【0022】また、本発明のゲーム装置は、音声認識が
エラーとなるか、認識の正答確率が低い場合には、特定
のオブジェクトを出力し、このオブジェクトの表面に音
声の強さによって決定される材質のテクスチャを貼込
む。Further, the game apparatus of the present invention outputs a specific object when the speech recognition results in an error or the probability of a correct answer is low, and is determined by the strength of the speech on the surface of this object. Paste the texture of the material.
【0023】これにより、認識エラーとなった場合で
も、ゲームを続行できる。Thus, even if a recognition error occurs, the game can be continued.
【0024】また、本発明のゲーム装置は、音声認識が
エラーとなるか、認識の正答確率が低い場合には、特定
のオブジェクトを出力し、このオブジェクトのゲームパ
ラメータを変え、例えば、勝敗における属性の能力を下
げるようにして、音声認識が低かったことの結果をゲー
ムに反映させる。Further, the game device of the present invention outputs a specific object when voice recognition results in an error or the probability of correct answer is low, and changes the game parameters of this object. And the result of the low voice recognition is reflected in the game.
【0025】[0025]
【発明の実施の形態】図1は、本発明が実施されるゲー
ム装置の外観を示している。DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an external appearance of a game device in which the present invention is implemented.
【0026】まず、システム構成の概略を図1及び図2
を参照して説明する。図1は、コンピュータシステムと
してのゲーム装置を説明する説明図である。図2は、こ
のゲーム装置の制御系を説明するブロック図である。First, the outline of the system configuration is shown in FIGS.
This will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating a game device as a computer system. FIG. 2 is a block diagram illustrating a control system of the game device.
【0027】ゲーム装置(ホスト)1は、ゲームプログ
ラム等を実行するCPU1a、ゲーム装置としての制御
プログラム、データ、OS等を記憶するROM1b、ゲ
ームアプリケーションプログラムやデータを記憶するC
D−ROM装置1c、CPU1aと各部間のデータ転送
を制御するバスコントローラ1d、CPU1aのプログ
ラムやデータを保持し、データ処理に使用されるRAM
1e、描画データから画像信号を形成する描画プロセッ
サ1f、音声データから音声信号を形成する音響プロセ
ッサ1g、CPU1a及び外部の周辺装置相互間のデー
タ転送を中継するペリフェラルインタフェース1h、等
によって構成される。RAM1eの一部の領域はペリフ
ェラルデータ処理のためのワークRAMとして使用さ
れ、いわゆるDMA動作が可能になされている。画像信
号及び音声信号はモニタ4、例えばテレビジョンに供給
され、映像と音声が出力される。周辺装置は、基本周辺
装置2と拡張周辺装置3とからなる。基本周辺装置2は
コネクタ1iを介してペリフェラルコントローラ1hと
接続され、拡張周辺装置3は基本周辺装置2に接続され
る。基本周辺装置2及び拡張周辺装置3は、ホストに対
して電気的(あるいは論理構造的)には並列に接続され
る。基本周辺装置2は、例えば、ゲームコントローラで
あり、拡張周辺装置3は、例えば、音声入力装置、音声
出力装置、光線銃モジュール、振動装置、メモリ装置等
である。この例では、マイクによる音声入力装置3が接
続されている。The game apparatus (host) 1 includes a CPU 1a for executing a game program and the like, a ROM 1b for storing a control program as the game apparatus, data, an OS, and the like, and a C for storing a game application program and data.
A D-ROM device 1c, a bus controller 1d that controls data transfer between the CPU 1a and each unit, a RAM that holds programs and data of the CPU 1a and is used for data processing.
1e, a drawing processor 1f for forming an image signal from drawing data, an acoustic processor 1g for forming a sound signal from sound data, a CPU 1a, and a peripheral interface 1h for relaying data transfer between external peripheral devices. Part of the area of the RAM 1e is used as a work RAM for peripheral data processing, and a so-called DMA operation is enabled. The image signal and the audio signal are supplied to the monitor 4, for example, a television, and the video and the audio are output. The peripheral device includes a basic peripheral device 2 and an extended peripheral device 3. The basic peripheral device 2 is connected to a peripheral controller 1h via a connector 1i, and the extended peripheral device 3 is connected to the basic peripheral device 2. The basic peripheral device 2 and the extended peripheral device 3 are electrically (or logically) connected in parallel to the host. The basic peripheral device 2 is, for example, a game controller, and the extended peripheral device 3 is, for example, a voice input device, a voice output device, a light gun module, a vibration device, a memory device, and the like. In this example, a voice input device 3 using a microphone is connected.
【0028】図3は、基本周辺装置2であるゲームコン
トローラ2の例を説明する図であり、2aは「決定や音
声入力」の際に使用するAボタン、2bはキャンセルを
指令するBボタン、2cはXボタン、2dはYボタン、
2eはスタートボタン、2fは「選択」の際にカーソル
やハイライト表示の移動に使用する方向ボタン、2gは
キャラクタの移動に使用するアナログ方向キー、であ
る。ゲームコントローラ2は、マイクロコンピュータシ
ステムによって構成され、各ボタンの操作を信号データ
としてゲーム装置1に送出する。それにより、ゲーム装
置にはボタン操作を示すフラグが設定される。ゲームコ
ントローラ2には、図1に示すように、音声入力装置3
が装着される。音声入力装置3は、音声信号をA/D変
換してデータ信号とし、ゲームコントローラ2を経由し
てゲーム装置1に出力する。また、ゲームコントローラ
2には、必要により、ゲーム結果等を保存するメモリカ
ードが装着される。FIG. 3 is a diagram for explaining an example of the game controller 2 which is the basic peripheral device 2, wherein 2a is an A button used for "decision and voice input", 2b is a B button for instructing cancellation, 2c is an X button, 2d is a Y button,
2e is a start button, 2f is a direction button used for moving a cursor or highlight display at the time of "selection", and 2g is an analog direction key used for moving a character. The game controller 2 is configured by a microcomputer system, and sends operation of each button to the game device 1 as signal data. Thereby, a flag indicating a button operation is set in the game device. As shown in FIG. 1, the game controller 2 includes a voice input device 3
Is attached. The voice input device 3 A / D converts the voice signal into a data signal, and outputs the data signal to the game device 1 via the game controller 2. Further, a memory card for storing a game result or the like is attached to the game controller 2 as necessary.
【0029】図4は、ゲーム装置のコンピュータシステ
ムによってなされる音声認識を機能的に説明する説明図
であり、遊戯者の発声は、音声入力装置3のマイクによ
って、音声信号に変換される。この音声信号は、コント
ローラ2のAボタンがオンにされると、A/D変換器に
よってデータ信号に変換されてバッファメモリ(RAM
1e)に格納される。格納される音声データ量は、メモ
リ容量を考慮し、例えば、5秒程度に設定することが出
来る。Aボタンがオフになると、音声認識を開始する。
音声認識は、不特定人の音声認識に適した一般話者認識
用のアルゴリズムで音声を認識する音声認識部14と、
特定者の音声認識に適した特定話者認識用のアルゴリズ
ムで音声を認識する音声認識部15とが用意され、いず
れかを選択可能である。簡易設定では、一般話者用認識
が設定されている。音声認識部14又は15が言葉認識
のパラメータを抽出すると、選択部17は、パラメータ
と言葉の対応表を予め記憶しているデータベース16か
ら抽出パラメータに対応する言葉(言葉コード)を選択
する。データベース16には、後述の、図10に示す対
戦用の言葉(戦闘用語)、この関連事項(後述の属性、
攻撃度、難易度等)、図示しない、コマンドに相当する
言葉や魔法の呪文等が含まれる。データベース16はC
D−ROM1cからRAM1eに導入される。該当する
言葉がなかった場合、エラーが生じている場合、認識率
が低い場合には、エラー出力を行う。例えば、「?」、
「!」を選択文字として出力する。FIG. 4 is an explanatory diagram for functionally explaining voice recognition performed by the computer system of the game device. The utterance of the player is converted into a voice signal by the microphone of the voice input device 3. When the A button of the controller 2 is turned on, this audio signal is converted into a data signal by an A / D converter, and the data signal is stored in a buffer memory (RAM).
1e). The amount of audio data to be stored can be set to, for example, about 5 seconds in consideration of the memory capacity. When the A button is turned off, speech recognition starts.
The voice recognition includes a voice recognition unit 14 that recognizes voice using an algorithm for general speaker recognition suitable for voice recognition of an unspecified person;
A speech recognition unit 15 for recognizing speech using a specific speaker recognition algorithm suitable for speech recognition of a particular person is prepared, and either one can be selected. In the simple setting, recognition for general speakers is set. When the speech recognition unit 14 or 15 extracts a parameter for word recognition, the selection unit 17 selects a word (word code) corresponding to the extracted parameter from a database 16 in which a parameter-word correspondence table is stored in advance. The database 16 includes battle words (combat terms) shown in FIG. 10 described later, and related items (attributes,
Attack level, difficulty level, etc.), words, magic spells, etc., not shown, corresponding to commands are included. Database 16 is C
The data is introduced from the D-ROM 1c to the RAM 1e. If there is no corresponding word, if an error has occurred, or if the recognition rate is low, an error is output. For example, "?"
"!" Is output as the selected character.
【0030】図5は、音声認識の際の、CPU1aの動
作を説明するフローチャートである。CPUは図示しな
いフラグ監視プログラムによってAボタンが操作された
かどうかを監視している(S22)。遊戯者は、Aボタ
ンを押して言葉を喋り、喋り終るとAボタンを離す。A
ボタンのオンが検出されると(S22;Yes)、図示
しないタイマ、例えば、5秒を掲示するタイマをオンに
する(S24)。音声入力装置3から供給されるデータ
信号をRAM1eのバッファメモリとして確保された領
域に格納することを許容する。なお、音声データの格納
は、ペリフェラルコントローラ1hによってDMA動作
として行うことが出来る(S26)。遊戯者がAボタン
を離した(オフ)かどうかを判別する(S28)。FIG. 5 is a flowchart for explaining the operation of the CPU 1a at the time of voice recognition. The CPU monitors whether or not the A button has been operated by a flag monitoring program (not shown) (S22). The player presses the A button to speak the word, and releases the A button when the speaking is completed. A
When the ON of the button is detected (S22; Yes), a timer (not shown), for example, a timer for displaying 5 seconds is turned on (S24). The data signal supplied from the voice input device 3 is allowed to be stored in an area secured as a buffer memory of the RAM 1e. The storage of the audio data can be performed as a DMA operation by the peripheral controller 1h (S26). It is determined whether or not the player has released the A button (off) (S28).
【0031】Aボタンが離されると(S28;YE
S)、音声認識を開始し、言葉を識別をするためのパラ
メータを抽出する(S30)。抽出データには、音量、
及び音声の長さが含まれる(S32)。抽出したパラメ
ータによって、データベース16から該当する言葉を選
択する(S34)。該当する言葉がない場合、正答確率
が基準よりも低い場合(S36;YES)、認識エラー
フラグをオンに設定する。この場合、例えば、データベ
ース16から該当語として「!」、「?」を選ぶことが
できる。「!」、「?」の文字オブジェクトに、後述す
るように音量に応じたテクスチャを貼るようにしても良
い。また、必要により、認識できない旨の表示をモニタ
画面に行う(S40)。該当語が選択された場合には、
言葉選択済フラグをオンにし、選択された言葉をRAM
1eの所定のエリアに出力する(S38)。その後、本
ルーチンから元の処理に戻る。When the A button is released (S28; YE)
S), speech recognition is started, and parameters for identifying words are extracted (S30). Extracted data includes volume,
And the length of the voice (S32). A corresponding word is selected from the database 16 according to the extracted parameters (S34). If there is no corresponding word, and if the correct answer probability is lower than the reference (S36; YES), the recognition error flag is set to ON. In this case, for example, “!” And “?” Can be selected as the corresponding words from the database 16. As will be described later, a texture corresponding to the volume may be attached to the character objects "!" And "?". If necessary, a message indicating that the image cannot be recognized is displayed on the monitor screen (S40). If the word is selected,
Turn on the word selected flag and RAM the selected word
Output to a predetermined area of 1e (S38). Then, the process returns from the present routine to the original process.
【0032】Aボタンがオン状態であると(S28;N
o)、タイムアウトをチェックする(S42)。なお、
タイムアウトせずに音声認識することとしても良い。そ
れにより、エラーが生じた場合には、該当語として
「!」、「?」を選ぶ。タイムアウトでない場合(S4
2;No)には、音声データの取込みを継続する(S2
6,S28,S42)。Aボタンのオン状態が継続さ
れ、タイムアウトになった場合、例えば、Aボタンをオ
ン後、5秒を経過した場合(S42;Yes)、タイム
アウト処理を行う。タイムアウト処理では、例えば、タ
イムアウトフラグをオンに設定し、RAM1eに取込ん
だ音声データをリセットする。また、モニタ画面に時間
オーバーを表示する。その後終了する。このようにし
て、音声認識のサブルーチンが行われる。If the A button is on (S28; N
o), a timeout is checked (S42). In addition,
Voice recognition may be performed without timeout. As a result, when an error occurs, “!” And “?” Are selected as corresponding words. If not timeout (S4
2; No), the acquisition of the audio data is continued (S2).
6, S28, S42). If the ON state of the A button is continued and a timeout occurs, for example, if 5 seconds have elapsed after the A button was turned on (S42; Yes), a timeout process is performed. In the time-out process, for example, the time-out flag is set to ON, and the audio data taken into the RAM 1e is reset. Also, the time over is displayed on the monitor screen. Then, the process ends. In this way, the speech recognition subroutine is performed.
【0033】次に、図4を参照してゲーム全体の流れに
ついて説明する。ゲームの流れは、大別して、ゲーム装
置の立上がり時の起動処理(S2)、遊戯者が操作する
キャラクタを選択するコトダマシ選択処理(S4)、遊
戯者に対戦する敵(エネミー)キャラクタを選択する対
戦コトダマシ選択処理(S6)、対戦を行う戦闘(対
戦)処理(S8)、戦闘結果の表示やデータ保存などを
行う終了処理(S10)等に分類される。Next, the flow of the whole game will be described with reference to FIG. The flow of the game is roughly divided into a start-up process (S2) at the time of startup of the game device, a Kotodamashi selection process (S4) for selecting a character operated by the player, and a match for selecting an enemy (enemy) character to play against the player. The processing is classified into a Kotodamashi selection process (S6), a battle (battle) process for performing a battle (S8), and a termination process (S10) for displaying a battle result, storing data, and the like.
【0034】起動処理においては、情報記録媒体として
のCD−ROM1cをセットし、電源を投入すると、C
PU1aはROM1bからブートプログラムを実行し、
CD−ROM1cからプログラム及びデータをRAM1
eに導入し、プログラムを実行する。モニタ4の画面に
ゲームタイトルを表示し、スタートボタン2eの操作に
よる「スタート」の入力を待つ(S2)。In the start-up process, when the CD-ROM 1c as an information recording medium is set and the power is turned on,
PU1a executes a boot program from ROM1b,
Copy programs and data from CD-ROM 1c to RAM 1
e and execute the program. The game title is displayed on the screen of the monitor 4, and input of "start" by operating the start button 2e is waited (S2).
【0035】スタートボタン2eの操作によって、遊戯
者のコトダマシ(キャラクタ)の選択(決定)モードに
移行する。図7は、キャラクタの選択モードを説明する
フローチャートである。CPU1aは、フラグ監視によ
って、キャラクタ決定モードであることを判別すると
(S52;Yes)、音声認識処理を行う(S54)。
遊戯者は、適当な言葉、例えば、「コトダマシー」と発
声する。この発声の音量と、音声の長さを表す各パラメ
ータを読取る(図5参照)。発声の音量と、音声の長さ
に基づいてキャラクタを選択する。By operating the start button 2e, the mode is shifted to the selection (decision) mode of the player's play (character). FIG. 7 is a flowchart illustrating the character selection mode. When the CPU 1a determines that the mode is the character determination mode by flag monitoring (S52; Yes), the CPU 1a performs a voice recognition process (S54).
The player utters an appropriate word, for example, "Kotodamasshi". The volume of this utterance and the parameters representing the length of the voice are read (see FIG. 5). A character is selected based on the volume of the utterance and the length of the voice.
【0036】図8は、キャラクタ選択を説明する説明図
である。音量の大小によって、例えば、3段階に分類さ
れる。また、音声の長さによって、例えば、3段階に分
類される。各分類に対応してキャラクタが割当てられ
る。例えば、音量大、長さ大の場合には、「てやんで
い」キャラクタが選択される。識別できない場合(認識
エラー)には、特定のキャラクタ、例えば、「ぺこぺ
こ」が選択される。キャラクタが選択されると、データ
ベースから対応する画像データ、ゲームパラメータが読
出され、キャラクタをモニタ画面に表示する。なお、音
声認識だけでキャラクタを選択しても良い。FIG. 8 is an explanatory diagram for explaining character selection. For example, it is classified into three stages according to the loudness of the volume. Further, the sound is classified into, for example, three stages according to the length of the sound. Characters are assigned to each classification. For example, if the volume is large and the length is large, the character "Tayadenai" is selected. If the character cannot be identified (recognition error), a specific character, for example, “ぺ こ ぺ こ” is selected. When a character is selected, the corresponding image data and game parameters are read from the database, and the character is displayed on a monitor screen. Note that a character may be selected only by voice recognition.
【0037】図9は、選択された、遊戯者の分身となる
キャラクタを表示した例を示している。画面には、選択
されたキャラクタの外観、名前、例えば、「てやんで
い」が表示される。また、キャラクタ「てやんでい」の
能力を示すステータスとして、ヒットポイントHP、当
該キャラクタの個々の言葉が持っている攻撃力を示す攻
撃力、エネミーからの攻撃に耐える能力を示す防御力、
が数値で表示される。画面には、遊戯者がエネミーに対
して発すべき言葉(ことだま)が表示される。この例で
は、「テヤンデイ」、「スットコドッコイ」、「バカヤ
ロー」の3つである。遊戯者は、この内の1つを選択し
て発声する。表示語数は、任意数に設定可能である。表
示語は、音声認識のデータベース16に予め含まれてい
る(S58)。FIG. 9 shows an example in which a selected character which is a substitute of a player is displayed. On the screen, the appearance and the name of the selected character, for example, “Tendei” are displayed. Also, as the status indicating the ability of the character "Teyandei", the hit point HP, the attack power indicating the attack power of each word of the character, the defense power indicating the ability to withstand an attack from the enemy,
Is displayed numerically. The screen displays words (kotodama) to be played by the player to the enemy. In this example, there are three items, “Theyanday”, “Sukkodokoi”, and “Bakayaro”. The player selects one of these and speaks. The number of display words can be set to any number. The display words are included in the speech recognition database 16 in advance (S58).
【0038】次に、遊戯者がスタートボタン2e又はA
ボタン2aを押すと、戦闘モードに移行する。まず、エ
ネミーのキャラクタが選択される(S6)。エネミーの
キャラクタは、遊戯者に割当てられたキャラクタ及び遊
戯者と対戦して負けたキャラクタ以外のキャラクタが選
択される。選択は、例えば、乱数を用いてランダムに行
う。Next, the player presses the start button 2e or A
When the button 2a is pressed, the mode shifts to the battle mode. First, an enemy character is selected (S6). As the enemy character, a character other than the character assigned to the player and the character losing by playing with the player is selected. The selection is made at random using, for example, a random number.
【0039】図10は、各キャラクタのデータベースの
例を示す図である。各キャラクタには、第1乃至第3の
言葉が割当てられる。この言葉は、エネミーキャラクタ
が遊戯者のキャラクタに向けて発する言葉(言霊)であ
る。更に、各言葉には、属性、攻撃力、難易度、が定義
される。属性は、そのキャラクタが属している性質であ
る。例えば、「火」、「水」、「土」、「風」といった
属性である。「火」は「水」に弱く、「水」は「土」に
弱く、「土」は「風」に弱く、「風」は「火」に弱いと
いったじゃんけんに似た強弱関係を作ることが出来る。
この属性は、当該キャラクタの発する各言葉(3つの言
葉)に共通する。攻撃力は、前述したように、そのキャ
ラクタの個々の言葉が持っている攻撃力である。難易度
は、個々の言葉を発したときの認識のし易さである。キ
ャラクタは任意数用意することが出来る。FIG. 10 is a diagram showing an example of a database of each character. First to third words are assigned to each character. This word is a word (spirit) that the enemy character utters toward the player character. Further, attributes, attack power, and difficulty are defined for each word. The attribute is a property to which the character belongs. For example, the attributes are “fire”, “water”, “earth”, and “wind”. "Fire" is weak to "water", "water" is weak to "soil", "soil" is weak to "wind", and "wind" is weak to "fire". I can do it.
This attribute is common to each word (three words) emitted by the character. The attack power is the attack power of the individual words of the character as described above. Difficulty is the ease with which individual words can be recognized. Any number of characters can be prepared.
【0040】図11は、戦闘(対戦)処理(S8)を説
明するフローチャートである。コンピュータシステム内
に形成された仮想三次元空間に、オブジェクトが配置さ
れて対戦する場所(戦闘フィールド)が形成される(S
102)。遊戯者キャラクタが戦闘フィールドに配置さ
れる(S104)。図12は、遊戯者キャラクタが仮想
カメラに背を向けて戦闘フィールドに立っている様子を
示している。次に、図13に示すように、エネミーキャ
ラクタが登場し、カメラ位置が遊戯者のキャラクタの正
面となるように変更される。FIG. 11 is a flowchart for explaining the battle (battle) process (S8). In a virtual three-dimensional space formed in the computer system, a place (battle field) where the objects are arranged and played against each other is formed (S).
102). A player character is placed on the battle field (S104). FIG. 12 shows a state where the player character is standing on the battle field with his / her back to the virtual camera. Next, as shown in FIG. 13, the enemy character appears, and the camera position is changed to be in front of the player's character.
【0041】CPU1aは、画面に、「FIGHT」の
文字を表示する。これにより、戦闘開始となる。遊戯者
がAボタン2aを押すと、ゲーム進行が一次中断し、既
述音声認識モードとなる。遊戯者のキャラクタは、発声
のアクションを開始し、図14に示すように、発声のた
めの部分で一時停止し、ゲームの進行において発せられ
る音の音量(大きさ、強さ)を小さくする。遊戯者が発
声すると、音声認識によって遊戯者の言葉を判別する
(S108、図5参照)。音声認識が終了すると、遊戯
者のキャラクタは発声のアクションの続きを行う。既述
したように、音声認識を開始して、例えば、5秒を経過
しても遊戯者がAボタンを離さなかった場合には、タイ
ムアウトして、不発に終る(S44)。The CPU 1a displays the characters "FIGHT" on the screen. This starts the battle. When the player presses the A button 2a, the game progress is temporarily interrupted, and the mode is set to the voice recognition mode described above. The player's character starts the action of utterance, and pauses at the part for utterance as shown in FIG. 14 to reduce the volume (loudness, intensity) of the sound emitted during the progress of the game. When the player utters, the player's words are determined by voice recognition (S108, see FIG. 5). When the voice recognition ends, the player character continues the utterance action. As described above, if the player does not release the A button even after elapse of 5 seconds after the start of the voice recognition, for example, the time-out occurs and the operation ends unsuccessfully (S44).
【0042】CPUは、認識された言葉及び音量を読取
る(S110)。言葉に対応した画面に表示する3D表
現の文字オブジェクトのデータをデータベース16から
選択する。この文字オブジェクトに音量に応じたテクス
チャを張付ける。The CPU reads the recognized words and volume (S110). The data of the character object of the 3D expression to be displayed on the screen corresponding to the word is selected from the database 16. A texture corresponding to the volume is attached to this character object.
【0043】図16は、このような例を示しており、
「てやんでい」の文字オブジェクトに、音量が低い場合
には、「木」のテクスチャを、音量が中程度の場合に
は、「石」のテクスチャを、音量が大の場合には、「金
属」のテクスチャを張付ける。従って、発声した文字
は、声の大きさによって、文字オブジェクトの材質が変
化する。材質により、文字オブジェクトが相手に与える
ダメージや、相手に向ってミサイルや弾丸のように飛ぶ
速さが変化する。また、発声後、次の音声認識が出来る
ようになるまでの時間(待機時間)も材質によって変え
ることが出来る。例えば、「木」は軽くて素早く飛ぶ
が、攻撃力は弱い。但し、連射しやすい。「石」は重く
て硬い石である。攻撃力は最強であるが、あまり早く飛
ばない。連射には向かない。「金属」は最も硬く、それ
なりに速く飛ぶ。木と石の中間的な性質を持つ(S11
2)。すなわち、音声の大きさによって文字オブジェク
トの仮想空間における物理的特性が特徴付けられる。FIG. 16 shows such an example.
If the volume is low, the "wood" texture is given a "wood" texture, if the volume is medium, the "stone" texture is given, and if the volume is high, "Metal" texture. Therefore, in the uttered character, the material of the character object changes depending on the volume of the voice. Depending on the material, the damage given to the opponent by the character object and the speed at which the character object flies toward the opponent like a missile or a bullet changes. In addition, the time (standby time) until the next voice recognition can be performed after the utterance can be changed depending on the material. For example, "trees" are light and fly quickly, but have low attack power. However, it is easy to fire continuously. "Stone" is a heavy and hard stone. Attack is the strongest, but does not fly too fast. Not suitable for rapid fire. "Metal" is the hardest and flies reasonably fast. It has an intermediate property between wood and stone (S11
2). That is, the physical characteristics of the character object in the virtual space are characterized by the volume of the voice.
【0044】文字オブジェクトが完成すると、仮想三次
元空間に配置され、遊戯者のキャラクタから、図15に
示すように、エネミーキャラクタに向って文字オブジェ
クト(言葉の弾丸)が発射される(S114)。CPU
1aは、遊戯者のキャラクタの口の位置と、エネミーキ
ャラクタの中心位置とを読出し、両位置を結ぶ直線を求
めて文字オブジェクトの飛翔軌道とする。文字オブジェ
クトの物理的特性に応じて文字オブジェクトをエネミー
キャラクタに向って移動する。When the character object is completed, the character object (word bullet) is fired from the player's character toward the enemy character as shown in FIG. 15 (S114). CPU
1a reads the position of the mouth of the player's character and the center position of the enemy character, finds a straight line connecting both positions, and sets the straight line as the flight trajectory of the character object. The character object is moved toward the enemy character according to the physical characteristics of the character object.
【0045】一方、対戦相手のエネミーも、割当てられ
た言葉(実施例では3つ)の中からランダムに言葉を選
択し(S116)、ランダムに材質を選択し、当該材質
のテクスチャを文字オブジェクトに張付ける(S11
6)。エネミーキャラクタの口の位置から遊戯者のキャ
ラクタの中心位置に向う軌道を計算し、文字オブジェク
トを言葉の弾丸として遊戯者のキャラクタに向けて発射
する(S118)。なお、相手方のキャラクタのパラメ
ータ(エネミーのパラメータ)に基づいて言葉や材質を
選択するようにしても良い。On the other hand, the opponent's enemy also randomly selects a word from the assigned words (three in the embodiment) (S116), selects a material at random, and converts the texture of the material into a character object. Attach (S11
6). The trajectory from the position of the enemy character's mouth to the center position of the player's character is calculated, and the character object is fired at the player's character as a word bullet (S118). Note that words and materials may be selected based on parameters (enemy parameters) of the character of the other party.
【0046】次に、文字オブジェクトとキャラクタとの
衝突判定を行う。CPU1aは、キャラクタの位置と文
字オブジェクトの位置とを画像フレームの周期で追跡
し、両者の衝突を判別する。キャラクタと文字オブジェ
クトが触れた状態で遊戯者にダメージを連想させるダメ
ージモーションを再生する。また、ダメージの計算をし
て、相手キャラクタのヒットポイントHPを減らす。例
えば、計算は以下のように行う。 ダメージ=((キャラクタの攻撃力+文字の攻撃力)×
文字の材質)−キャラクタの防御力 ここで、例えば、キャラクタの攻撃力は、図10に示す
属性であり、前述の「火」、「水」、「土」…に相当
し、当該キャラクタに割当てられた各文字について共通
である。文字の攻撃力は、例えば、図10に示すよう
な、「横」、「斜め」、「拡散」のような表示に関する
属性である。文字毎に設定される。文字の材質は、例え
ば、図16に示すような、テクスチャの材質に関する属
性である。キャラクタの防御力は、各キャラクタに定義
された攻撃に対して耐えられる程度を示す属性である。
なお、認識率が低いために、あるいは認識エラーによっ
て、「!」、「?」のオブジェクトが選択された場合に
は、上記攻撃力や材質のゲームパラメータを低い値とす
ることが出来る。それにより、音声認識されるように発
声しなかったペナルティーとしてエネミーに対する遊戯
者のキャラクタの攻撃力を低く設定することが出来る。Next, a collision between the character object and the character is determined. The CPU 1a tracks the position of the character and the position of the character object in the cycle of the image frame, and determines a collision between the two. A damage motion that reminds a player of damage while the character and the character object are in contact with each other is reproduced. Also, the damage is calculated and the hit points HP of the opponent character are reduced. For example, the calculation is performed as follows. Damage = ((Character Attack + Text Attack) x
Here, for example, the attack power of the character is an attribute shown in FIG. 10 and corresponds to the above-mentioned “fire”, “water”, “soil”... And is assigned to the character. Common for each character given. The character's attack power is an attribute related to display such as “horizontal”, “diagonal”, and “diffusion” as shown in FIG. Set for each character. The material of the character is, for example, an attribute related to the material of the texture as shown in FIG. The defense power of a character is an attribute indicating the degree of resistance to an attack defined for each character.
If the object of “!” Or “?” Is selected due to a low recognition rate or due to a recognition error, the game parameters of the offensive power and the material can be set to low values. As a result, the player's character's attack power on the enemy can be set low as a penalty that did not produce speech recognition.
【0047】また、文字オブジェクト同士の軌道が重な
った場合にも、衝突が生じる。文字オブジェクト同士の
衝突では、破壊・相殺が起る。前述のように、言葉毎に
属性が定められており(図10参照)、それらの属性を
参照して衝突時の判定を行う。A collision also occurs when the trajectories of the character objects overlap. In the collision between character objects, destruction and offset occur. As described above, attributes are determined for each word (see FIG. 10), and the collision is determined by referring to those attributes.
【0048】例えば、図17に示すように、属性の異な
るものが衝突した場合には、文字の属性の力関係に従っ
て強者が残り、弱者が消滅する。残った文字オブジェク
トは相手のキャラクタに向って進む。なお、図17に示
すように、文字オブジェクトの表現態様によって、力関
係を決めても良い。例えば、「斜め表示」よりも「拡散
表示」の方が強く、「拡散表示」よりも「横表示」の方
が強く、「横表示」よりも「斜め表示」の方が強い。こ
の場合には、じゃんけんのように勝敗が決せられる。出
現する表現形態は、ランダムに決まるようにすることも
出来る。文字属性の同じもの同士が衝突した場合には、
文字オブジェクトは相殺して消滅する。For example, as shown in FIG. 17, when objects having different attributes collide, a strong person remains and a weak person disappears according to the power relationship of the character attribute. The remaining character objects move toward the other character. As shown in FIG. 17, the power relationship may be determined according to the expression mode of the character object. For example, “diffuse display” is stronger than “diagonal display”, “horizontal display” is stronger than “diffuse display”, and “diagonal display” is stronger than “horizontal display”. In this case, the victory or defeat is decided like a rock-paper-scissor. Appearing expression forms can be determined at random. If the same character attributes collide,
The character objects cancel out and disappear.
【0049】遊戯者は、自己のキャラクタに向って飛ん
でくる文字オブジェクトを、文字オブジェクトの飛翔中
に限り、アナログ方向キー2gを操作することによって
回避することが可能である。アナログ方向キー2gの操
作によって、キャラクタを左右に1〜2キャラクタ分、
移動することが出来る。但し、拡散状態である同時複数
の文字オブジェクトの回避は、他よりも難しい(S12
0)。The player can avoid the character object flying toward his own character by operating the analog direction key 2g only while the character object is flying. By operating the analog direction key 2g, the character is moved left and right by 1-2 characters,
You can move. However, it is more difficult to avoid a plurality of simultaneous text objects in a diffused state than others (S12).
0).
【0050】勝敗は、例えば、ヒットポイントが0にな
った方が負けとする(S122)。両者のヒットポイン
トが0でない場合には、ゲームを継続することが出来る
(S122;継続)。遊戯者が勝った場合には、画面に
「WIN」が表示される。この場合、例えば、遊戯者に
用意された籠の中に負けたエネミーキャラクタを集める
ことが出来る。このエネミーキャラクタを後の対戦にお
いて自己のキャラクタとして使用することが出来る。遊
戯者が負けた場合には、「LOSE」の文字が表示され
る(S122;終了)。遊戯者が勝った場合には、更
に、他のエネミーとの対戦が可能である(S4〜S
8)。The winner is lost when the hit point becomes 0 (S122). When both hit points are not 0, the game can be continued (S122; continue). If the player wins, "WIN" is displayed on the screen. In this case, for example, the lost enemy characters can be collected in a basket prepared for the player. This enemy character can be used as its own character in a later battle. If the player has lost, the character "LOSE" is displayed (S122; end). If the player wins, further competition with another enemy is possible (S4 to S4).
8).
【0051】ゲームが終了すると、終了画面となり、遊
戯者が獲得したキャラクタはメモリカードに保存するこ
とが出来る。スタートボタン22eを押すと、再対戦が
可能である(S10)。When the game is over, an end screen is displayed, and the characters obtained by the player can be stored in the memory card. When the start button 22e is pressed, a rematch is possible (S10).
【0052】このように、本発明の実施の形態によれ
ば、遊戯者の発声が文字オブジェクトとなり、文字の弾
丸としてエネミーキャラクタに向けて発射される。エネ
ミーキャラクタも文字オブジェクトを文字の弾丸として
遊戯者のキャラクタに向けた発射する。この文字が、キ
ャラクタに当るとダメージを与え、その分ヒットポイン
トHPが減少し、勝敗を決する。従って、素早く、明瞭
な声を発することによってシューティングゲームの面白
さを味わえる。また、声を出すことによる面白さがあ
る。文字同士がぶつかって壊れていく面白さがある。As described above, according to the embodiment of the present invention, the utterance of the player becomes a character object, and is fired toward the enemy character as a character bullet. The enemy character also fires the character object at the player character as a character bullet. When this character hits the character, it causes damage, and the hit point HP is reduced by that amount, and the result is determined. Therefore, the player can enjoy the fun of the shooting game by quickly and clearly speaking. In addition, there is fun by making a voice. There is fun that characters collide and break.
【0053】図18は、本ゲーム中で行われる音声認識
の応用例を示している。図5に示す音声認識に続いて、
本ルーチンを実行する。認識エラー(S40)、タイム
アウト(S44)が生じずに、音声認識が終了すると
(S82;Yes)、該当語を読取る(S84)。この
語をデータベースから検索する。データベースには、言
葉と対応する内容(あるいは定義)が多数保存されてい
る。FIG. 18 shows an application example of voice recognition performed in the game. Following the speech recognition shown in FIG.
Execute this routine. When the speech recognition is completed without a recognition error (S40) and timeout (S44) (S82; Yes), the corresponding word is read (S84). Retrieve this word from the database. The database stores many contents (or definitions) corresponding to words.
【0054】当該語がコマンドかどうかを判別する(S
86)。コマンドであると(S86;Yes)、コマン
ドに対応する処理を行う(S88)。例えば、ゲーム中
に特定の言葉を喋ると、特定の場面への移動ができる。
「カメラ」の後に、「前」、「後」、「右」、「左」等
の方向を言葉で指示すると、カメラの位置及び視点方向
が変更され、画面がその方向に向く。声でゲームモード
を選択したり、ゲーム内の特定の者を指定することがで
きる。例えば、「ジャンプ」等の言葉により自己のキャ
ラクタへ動作の指示を行うことが出来る。It is determined whether the word is a command (S
86). If it is a command (S86; Yes), processing corresponding to the command is performed (S88). For example, speaking a specific word during a game can move to a specific scene.
When a direction such as “front”, “rear”, “right”, “left”, etc. is indicated by words after “camera”, the position of the camera and the viewpoint direction are changed, and the screen faces in that direction. You can select a game mode by voice or specify a specific person in the game. For example, an operation instruction can be given to the own character using words such as “jump”.
【0055】当該語が戦闘用語かどうかを判別する(S
90)。戦闘用語であると(S90;Yes)、戦闘に
対応する既述ステップS110以降の処理を行うに対応
する処理を行う(S92)。It is determined whether the word is a battle term (S
90). If it is a battle term (S90; Yes), a process corresponding to performing the processes after step S110 corresponding to the battle is performed (S92).
【0056】当該語が魔法かどうかを判別する(S9
4)。魔法であると(S94;Yes)、魔法に対応す
る魔法処理を行うに対応する処理を行う(S96)。こ
れにより、遊戯者がある特定の呪文を喋ると、特定の魔
法が使用できるようになる。It is determined whether the word is magic (S9).
4). If it is magic (S94; Yes), processing corresponding to performing magic processing corresponding to magic is performed (S96). This allows certain magic to be used when the player speaks a certain spell.
【0057】音声認識が出来なかった場合や、該当語に
対応する内容が登録されていない場合には、終了する
(S82No、S94No)。If the voice recognition has failed, or if the content corresponding to the word has not been registered, the process ends (No in S82, No in S94).
【0058】なお、音声認識部を、一般話者用から特定
話者用に切替えることによって、特定のユーザの音声を
覚えることが出来、認識率を上げたり、他のユーザの声
には、反応しないようにすることが可能になる。By switching the voice recognition unit from a general speaker to a specific speaker, it is possible to memorize the voice of a specific user, increase the recognition rate, and respond to the voice of another user. It becomes possible not to be.
【0059】[0059]
【発明の効果】以上説明しように、本発明によれば、遊
戯者が入力した音声を音声認識によって、文字に変換
し、この文字に対応する文字オブジェクトを形成し、音
声の強さに応じて文字オブジェクトの属性を定義するよ
うにしたので、例えば、文字オブジェクトを弾丸のよう
にして相手に向ってとばすことが可能となる。これによ
り、音声を発する、言葉を選んで相手に勝つというゲー
ムを実現でき、面白い。As described above, according to the present invention, a voice input by a player is converted into a character by voice recognition, and a character object corresponding to the character is formed. Since the attribute of the character object is defined, for example, the character object can be skipped toward the opponent like a bullet. This makes it possible to realize a game in which a voice is emitted, a word is selected, and the opponent is beaten, which is interesting.
【図1】図1は、ゲーム装置の全体を説明する説明図で
ある。FIG. 1 is an explanatory diagram illustrating the entire game device.
【図2】図2は、ゲーム装置の制御系を説明するブロッ
ク図である。FIG. 2 is a block diagram illustrating a control system of the game device.
【図3】図3は、ゲームコントローラの例を説明する説
明図である。FIG. 3 is an explanatory diagram illustrating an example of a game controller.
【図4】図4は、音声認識を説明する機能ブロック図で
ある。FIG. 4 is a functional block diagram illustrating voice recognition.
【図5】図5は、音声認識を説明するフローチャートで
ある。FIG. 5 is a flowchart illustrating speech recognition.
【図6】図6は、ゲームの全体的な流れを概略的に説明
するフローチャートである。FIG. 6 is a flowchart schematically illustrating an overall flow of the game.
【図7】図7は、遊戯者のキャラクタを決定する手順を
説明するフローチャートである。FIG. 7 is a flowchart illustrating a procedure for determining a player character;
【図8】図8は、音量と長さによるキャラクタ選択を説
明する説明図である。FIG. 8 is an explanatory diagram illustrating character selection based on volume and length.
【図9】図9は、ステータスが表示された遊戯者のキャ
ラクタの例を説明する説明図である。FIG. 9 is an explanatory diagram illustrating an example of a player character whose status is displayed;
【図10】図10は、各キャラクタの発する言葉と、各
言葉に定義された内容(属性等)を説明する説明図であ
る。FIG. 10 is an explanatory diagram illustrating words uttered by each character and contents (attributes and the like) defined in each word;
【図11】図11は、戦闘(対戦)処理を説明するフロ
ーチャートである。FIG. 11 is a flowchart illustrating a battle (battle) process.
【図12】図12は、仮想空間のゲームフィールドへの
キャラクタ登場を説明する説明図である。FIG. 12 is an explanatory diagram illustrating appearance of a character in a game field in a virtual space.
【図13】図13は、対戦開始時のキャラクタの様子を
説明する説明図である。FIG. 13 is an explanatory diagram illustrating a state of a character at the start of a battle.
【図14】図14は、音声認識開始時のキャラクタの様
子を説明する説明図である。FIG. 14 is an explanatory diagram illustrating a state of a character at the start of speech recognition.
【図15】図15は、文字オブジェクトが飛翔して相手
のキャラクタに衝突するところを説明する説明図であ
る。FIG. 15 is an explanatory diagram illustrating a place where a character object flies and collides with a partner character.
【図16】図16は、音量によって文字オブジェクトの
材質が定義される様子を説明する説明図である。FIG. 16 is an explanatory diagram illustrating how the material of the character object is defined by the volume.
【図17】図17は、文字オブジェクト同士の衝突の際
の、勝敗の優劣の判断を説明する説明図である。FIG. 17 is an explanatory diagram for explaining the determination of the victory or defeat in the event of a collision between character objects.
【図18】図18は、音声認識の他の使用例を説明する
フローチャートである。FIG. 18 is a flowchart illustrating another example of use of speech recognition.
1 ゲーム装置 2 ゲームコントローラ(周辺装置) 3 音声入力装置(拡張周辺装置) 4 モニタ DESCRIPTION OF SYMBOLS 1 Game device 2 Game controller (peripheral device) 3 Voice input device (extended peripheral device) 4 Monitor
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP26126199AJP4154682B2 (en) | 1999-09-14 | 1999-09-14 | Game device |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP26126199AJP4154682B2 (en) | 1999-09-14 | 1999-09-14 | Game device |
| Publication Number | Publication Date |
|---|---|
| JP2001079265Atrue JP2001079265A (en) | 2001-03-27 |
| JP2001079265A5 JP2001079265A5 (en) | 2006-11-02 |
| JP4154682B2 JP4154682B2 (en) | 2008-09-24 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP26126199AExpired - Fee RelatedJP4154682B2 (en) | 1999-09-14 | 1999-09-14 | Game device |
| Country | Link |
|---|---|
| JP (1) | JP4154682B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6912500B2 (en)* | 2001-01-29 | 2005-06-28 | Hewlett-Packard Development Company, L.P. | Facilitation of speech recognition in user interface |
| JP2007175289A (en)* | 2005-12-28 | 2007-07-12 | Konami Digital Entertainment:Kk | Game device, display control method, and program |
| US7452268B2 (en) | 2002-08-07 | 2008-11-18 | Sony Computer Entertainment America Inc. | System and method for modifying actions of a group of characters via group interactions |
| US7909698B2 (en) | 2003-09-12 | 2011-03-22 | Namco Bandai Games, Inc. | Input device, input determination method, game system, game system control method, program, and information storage medium |
| JP2014191647A (en)* | 2013-03-27 | 2014-10-06 | Konami Digital Entertainment Co Ltd | Information processing device, information processing system, information processing method, and program |
| US9108108B2 (en) | 2007-09-05 | 2015-08-18 | Sony Computer Entertainment America Llc | Real-time, contextual display of ranked, user-generated game play advice |
| US9126116B2 (en) | 2007-09-05 | 2015-09-08 | Sony Computer Entertainment America Llc | Ranking of user-generated game play advice |
| WO2016088410A1 (en)* | 2014-12-02 | 2016-06-09 | ソニー株式会社 | Information processing device, information processing method, and program |
| US9833707B2 (en) | 2012-10-29 | 2017-12-05 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
| US10128914B1 (en) | 2017-09-06 | 2018-11-13 | Sony Interactive Entertainment LLC | Smart tags with multiple interactions |
| JP2019028725A (en)* | 2017-07-31 | 2019-02-21 | 有限会社ふりーむ | Method and program for operating and controlling object displayed on display means by using sound volume value |
| US10561942B2 (en) | 2017-05-15 | 2020-02-18 | Sony Interactive Entertainment America Llc | Metronome for competitive gaming headset |
| WO2023210149A1 (en)* | 2022-04-26 | 2023-11-02 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
| JP2025513182A (en)* | 2022-05-31 | 2025-04-24 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | VIRTUAL OBJECT INTERACTION METHOD, DEVICE, APPARATUS, AND COMPUTER PROGRAM |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6912500B2 (en)* | 2001-01-29 | 2005-06-28 | Hewlett-Packard Development Company, L.P. | Facilitation of speech recognition in user interface |
| US9216354B2 (en) | 2002-08-07 | 2015-12-22 | Sony Computer Entertainment America Llc | Attribute-driven gameplay |
| US8096863B2 (en) | 2002-08-07 | 2012-01-17 | Sony Computer Entertainment America Llc | Emotion-based game character manipulation |
| US8172656B2 (en) | 2002-08-07 | 2012-05-08 | Sony Computer Entertainment America Llc | Attribute-driven gameplay |
| US8727845B2 (en) | 2002-08-07 | 2014-05-20 | Sony Computer Entertainment America Llc | Attribute-driven gameplay |
| US7452268B2 (en) | 2002-08-07 | 2008-11-18 | Sony Computer Entertainment America Inc. | System and method for modifying actions of a group of characters via group interactions |
| US7909698B2 (en) | 2003-09-12 | 2011-03-22 | Namco Bandai Games, Inc. | Input device, input determination method, game system, game system control method, program, and information storage medium |
| JP2007175289A (en)* | 2005-12-28 | 2007-07-12 | Konami Digital Entertainment:Kk | Game device, display control method, and program |
| US10486069B2 (en) | 2007-09-05 | 2019-11-26 | Sony Interactive Entertainment America Llc | Ranking of user-generated game play advice |
| US9108108B2 (en) | 2007-09-05 | 2015-08-18 | Sony Computer Entertainment America Llc | Real-time, contextual display of ranked, user-generated game play advice |
| US9126116B2 (en) | 2007-09-05 | 2015-09-08 | Sony Computer Entertainment America Llc | Ranking of user-generated game play advice |
| US9833707B2 (en) | 2012-10-29 | 2017-12-05 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
| US9950259B2 (en) | 2012-10-29 | 2018-04-24 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
| JP2014191647A (en)* | 2013-03-27 | 2014-10-06 | Konami Digital Entertainment Co Ltd | Information processing device, information processing system, information processing method, and program |
| JPWO2016088410A1 (en)* | 2014-12-02 | 2017-09-14 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| WO2016088410A1 (en)* | 2014-12-02 | 2016-06-09 | ソニー株式会社 | Information processing device, information processing method, and program |
| US10642575B2 (en) | 2014-12-02 | 2020-05-05 | Sony Corporation | Information processing device and method of information processing for notification of user speech received at speech recognizable volume levels |
| US10561942B2 (en) | 2017-05-15 | 2020-02-18 | Sony Interactive Entertainment America Llc | Metronome for competitive gaming headset |
| JP2019028725A (en)* | 2017-07-31 | 2019-02-21 | 有限会社ふりーむ | Method and program for operating and controlling object displayed on display means by using sound volume value |
| US10128914B1 (en) | 2017-09-06 | 2018-11-13 | Sony Interactive Entertainment LLC | Smart tags with multiple interactions |
| US10541731B2 (en) | 2017-09-06 | 2020-01-21 | Sony Interactive Entertainment LLC | Smart tags with multiple interactions |
| WO2023210149A1 (en)* | 2022-04-26 | 2023-11-02 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
| JP2025513182A (en)* | 2022-05-31 | 2025-04-24 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | VIRTUAL OBJECT INTERACTION METHOD, DEVICE, APPARATUS, AND COMPUTER PROGRAM |
| Publication number | Publication date |
|---|---|
| JP4154682B2 (en) | 2008-09-24 |
| Publication | Publication Date | Title |
|---|---|---|
| US6340330B1 (en) | Game machine and information storage medium | |
| US6162120A (en) | Competitive video game apparatus, method of playing video game, and computer-readable recording medium | |
| JP3933698B2 (en) | Voice recognition device, voice recognition method, and game machine using the same | |
| JP4154682B2 (en) | Game device | |
| JP3345719B2 (en) | Game control method, game device, and recording medium | |
| JP5121669B2 (en) | GAME PROGRAM, GAME NETWORK SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD | |
| JP2005095403A (en) | GAME PROCESSING METHOD, GAME DEVICE, GAME PROGRAM, AND STORAGE MEDIUM THEREOF | |
| JP4756632B2 (en) | GAME PROGRAM AND GAME DEVICE | |
| US8021220B2 (en) | Shooting game apparatus, storage medium storing a shooting game program, and target control method | |
| JPH0975552A (en) | Shooting game device and calculation method thereof | |
| JP3883480B2 (en) | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE | |
| EP1216731A2 (en) | Object controlling method | |
| JP2002282533A (en) | Game program, recording medium with game program recorded thereon, story development processing method in role playing game, and game device | |
| JP2008229290A (en) | Battle system | |
| JP2005027885A (en) | Controller by phone voice control | |
| JP3262769B2 (en) | Shooting game device and its calculation method | |
| JP3996174B2 (en) | GAME DEVICE, GAME PROGRESSING METHOD, AND GAME PROGRESSING PROGRAM | |
| JP3256467B2 (en) | VIDEO GAME DEVICE, CONTROL METHOD THEREOF, AND RECORDING MEDIUM FOR VIDEO GAME | |
| JP2009028217A (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
| JP4993592B2 (en) | GAME DEVICE, GAME PROGRESSING METHOD, AND GAME PROGRESSING PROGRAM | |
| JP2002085835A (en) | Video game device simulating team sport | |
| JP4128576B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
| JP4163647B2 (en) | Game device | |
| JP3262770B2 (en) | Shooting game device and arithmetic method thereof | |
| JP2005319041A (en) | Game program and game apparatus |
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20060914 | |
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20060914 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20080109 | |
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20080306 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20080401 | |
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20080528 | |
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20080613 | |
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20080626 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20110718 Year of fee payment:3 | |
| R150 | Certificate of patent or registration of utility model | Free format text:JAPANESE INTERMEDIATE CODE: R150 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20110718 Year of fee payment:3 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120718 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120718 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120718 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20120718 Year of fee payment:4 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20130718 Year of fee payment:5 | |
| FPAY | Renewal fee payment (event date is renewal date of database) | Free format text:PAYMENT UNTIL: 20130718 Year of fee payment:5 | |
| R250 | Receipt of annual fees | Free format text:JAPANESE INTERMEDIATE CODE: R250 | |
| R250 | Receipt of annual fees | Free format text:JAPANESE INTERMEDIATE CODE: R250 | |
| LAPS | Cancellation because of no payment of annual fees |