【0001】[0001]
【発明の属する技術分野】本発明は、インタラクティブ
な入出力が可能な表示システムを利用して対戦型ゲーム
を行うことができるゲーム装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game device capable of playing a competitive game using a display system capable of interactive input and output.
【0002】[0002]
【従来の技術】例えばコンピュータ装置などを利用した
ゲーム装置では、様々なプログラムやアプリケーション
などのもとで各種ゲームを実行できるようにされる。こ
のようなゲームは、一般にユーザがコンピュータ装置の
モニタ画面を見ながらマウスやキーボードあるいは専用
のジョイスティック等の入力装置を操作することによっ
て楽しむことができるようになっている。2. Description of the Related Art For example, in a game device using a computer device or the like, various games can be executed under various programs and applications. Generally, such a game can be enjoyed by a user operating an input device such as a mouse, a keyboard, or a dedicated joystick while watching a monitor screen of a computer device.
【0003】[0003]
【発明が解決しようとする課題】ところで、上記したよ
うなコンピュータ装置等を利用したゲーム装置におい
て、例えば複数のユーザが参加できる対戦型ゲームを実
行する場合は、ジョイスティックなどの入力装置を複数
用意することで、複数のユーザが参加することが可能と
される。しかしながら、この場合は一般にゲーム画像を
表示するモニタ画面が一つしかないため、このモニタ画
面には共通のゲーム画像しか表示することができず、例
えば対戦するチーム単位の個別情報を表示するといった
ことはできなかった。By the way, in a game device using the above-mentioned computer device or the like, when executing a competitive game in which a plurality of users can participate, for example, a plurality of input devices such as joysticks are prepared. This allows a plurality of users to participate. However, in this case, since there is generally only one monitor screen for displaying game images, only a common game image can be displayed on this monitor screen. For example, individual information for each team to be played is displayed. Could not.
【0004】また、近年インターネット等の通信ネット
ワークの普及に伴って、通信ネットワークを介して接続
された複数のコンピュータ装置を利用して複数のユーザ
が参加するゲームなども提案されている。このような通
信ネットワークを介して接続された複数のコンピュータ
装置間で対戦型ゲームを実行した場合は、例えばチーム
ごとの個別情報を各コンピュータ装置のモニタ画面上に
表示させることが可能となる。[0004] In recent years, with the spread of communication networks such as the Internet, a game in which a plurality of users participate using a plurality of computer devices connected via the communication network has been proposed. When a competitive game is executed between a plurality of computer devices connected via such a communication network, for example, individual information for each team can be displayed on a monitor screen of each computer device.
【0005】しかしながら、この場合は各コンピュータ
装置のモニタ画面は比較的小さいモニタ装置によって構
成され、このようなモニタ画面上にゲームを進行してい
く上で必要な全てのゲーム画像を表示することになるた
め、このようにして行われるゲームは臨場感に欠けるも
のであった。[0005] However, in this case, the monitor screen of each computer device is constituted by a relatively small monitor device, and all the game images necessary for progressing the game are displayed on such a monitor screen. Therefore, the game played in this way lacks a sense of reality.
【0006】また、例えばゲームの臨場感を高めるた
め、チームごとの個別情報を表示するモニタ装置と共に
比較的大画面のモニタ装置を用意し、この大画面のモニ
タ装置に共通のゲーム画像を表示するといったことも考
えられるが、大画面のモニタ装置を用意するためにはコ
ストがかかると共に、設置するためのスペースなどが必
要になるといった問題点があった。For example, in order to enhance the sense of reality of the game, a monitor device having a relatively large screen is prepared together with a monitor device displaying individual information for each team, and a common game image is displayed on the monitor device having the large screen. However, there is a problem that preparing a large-screen monitor device is costly and requires a space for installation.
【0007】そこで本発明は、特に対戦型ゲームを実行
する際に、チームごとの個別情報を表示することができ
ると共に、全体のゲーム画像を比較的大画面で表示する
ことができるゲーム装置を比較的簡易な構成により提供
することを目的とする。Therefore, the present invention provides a game apparatus which can display individual information for each team and display a whole game image on a relatively large screen, especially when a competitive game is executed. It is intended to provide a simple configuration.
【0008】[0008]
【課題を解決するための手段】本発明は上記した課題を
考慮して、半透明面と、この半透明面側の方向から入射
する所定の波長帯域の光又は電磁波のみを像として捉え
る撮像手段と、この撮像手段が受像すべき所定の波長帯
域の光又は電磁波を半透明面に対して輻射する輻射手段
と、撮像手段から入力された撮像信号に基づいて、半透
明面に対して与えられた入力情報が反映される検出用画
像情報を生成し、この検出用画像情報に基づいて画像入
力情報を検出する画像入力情報検出手段と、個体を識別
可能な識別情報を有すると共にゲームに関する操作に応
じた操作情報を出力可能な外部操作装置と通信を行うこ
とのできる通信手段と、撮像手段が撮像すべき光又は電
磁波の波長帯域を含まない可視光による画像を半透明面
に対して投影表示可能に設けられる投影表示手段と、通
信手段を介して入力された外部操作装置からの操作情
報、又は画像入力情報検出手段からの画像入力情報に基
づいて、少なくとも、所定の規則に従ったゲーム用画像
を投影表示させるための投影表示手段に対する表示制御
を含む所要の制御処理を実行可能な制御処理手段とを備
え、制御処理手段は、画像入力情報又は操作情報として
与えられる識別情報を認識可能に構成されると共に、識
別情報に基づいて、外部操作装置ごとに対応して生成し
た個別情報を、その個別情報が対応する外部操作装置に
てのみ受信入力可能なように送信するための、通信手段
に対する制御を実行可能に構成されている。SUMMARY OF THE INVENTION In view of the above-mentioned problems, the present invention has an image pickup means for capturing only a translucent surface and light or electromagnetic waves of a predetermined wavelength band incident from the direction of the translucent surface as an image. And radiating means for radiating light or an electromagnetic wave in a predetermined wavelength band to be received by the imaging means to the translucent surface, based on an imaging signal input from the imaging means, and provided to the translucent surface. Image input information detecting means for generating image information for detection on which the input information is reflected and detecting the image input information based on the image information for detection, and having identification information capable of identifying an individual and performing operations related to the game. Communication means capable of communicating with an external operation device capable of outputting the corresponding operation information; and an image formed by visible light which does not include the wavelength band of light or electromagnetic waves to be imaged by the imaging means, is projected and displayed on a translucent surface. Based on operation information from an external operation device input through communication means or image input information from image input information detection means provided at least for a game according to a predetermined rule. Control processing means capable of executing required control processing including display control for projection display means for projecting and displaying an image, the control processing means being capable of recognizing identification information given as image input information or operation information. A communication unit configured to transmit the individual information generated for each external operation device based on the identification information so that the individual information can be received and input only by the external operation device corresponding to the individual information. Is configured to be executable.
【0009】上記構成においては、例えば半透明面に近
づいた物理的対象によって撮像手段に入射する光又は電
磁波の状態が変化するのであるが、本発明ではこのよう
な光又は電磁波の状態変化を画像情報として捉えること
になる。そして、このようにして得られる操作情報に応
じて外部操作装置に対して所要の情報信号を送信するこ
とが可能とされる。そして、半透明面に対して投影表示
手段から画像を投影表示することによって半透明面を情
報入力パネル兼表示パネルとして機能させることができ
る。また、この半透明面は、例えば単に半透明性を有す
るプレート状の材を用いれば良いことから、その材質の
選定によっては容易に大型化を実現することができる。In the above arrangement, the state of light or electromagnetic wave incident on the image pickup means changes depending on, for example, a physical object approaching the translucent surface. In the present invention, such a change in state of light or electromagnetic wave is imaged. It will be caught as information. Then, a required information signal can be transmitted to the external operation device according to the operation information obtained in this manner. By projecting and displaying an image from the projection display means on the translucent surface, the translucent surface can function as an information input panel and a display panel. In addition, since the translucent surface may be made of, for example, a plate-shaped material having translucency, it is possible to easily increase the size of the translucent surface by selecting the material.
【0010】[0010]
【発明の実施の形態】先ず、図1及び図2を参照して、
本発明の実施の形態の基本的な構成について説明する。
本発明のゲーム装置は、これより説明する基本的な構成
をもとに実現されるものである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, referring to FIGS.
The basic configuration of the embodiment of the present invention will be described.
The game device of the present invention is realized based on the basic configuration described below.
【0011】図1は、本発明の実施の形態としてのゲー
ム装置の基本的構成を概念的に示している。本実施の形
態としてのゲーム装置1は、半透明面2、赤外線発光ダ
イオード素子(LED:Light Emitted Diode )パネ
ル3、CCD(Charge Coupled Device) カメラ4、プロ
ジェクタ5、及び制御装置6を備えて構成される。赤外
線LEDパネル3、CCDカメラ4、及びプロジェクタ
5は半透明面2の背面側に対して設けられる。FIG. 1 conceptually shows a basic configuration of a game device according to an embodiment of the present invention. The game device 1 according to the present embodiment includes a translucent surface 2, an infrared light emitting diode (LED) panel 3, a CCD (Charge Coupled Device) camera 4, a projector 5, and a control device 6. Is done. The infrared LED panel 3, the CCD camera 4, and the projector 5 are provided on the back side of the translucent surface 2.
【0012】半透明面2は、例えば透明なガラス板に対
してトレーシングペーパーのような見え方をする半透明
膜を貼り合わせる、あるいは磨りガラスのような半透明
の性質を有するものを利用するなどして形成され、後述
するようなユーザの操作によって入力情報が与えられる
操作パネルと、入力情報に応じた各種応答表示が行われ
る表示パネルとの両者の機能を併せ持つものとされる。As the translucent surface 2, for example, a translucent film that looks like tracing paper is attached to a transparent glass plate, or a translucent material such as frosted glass is used. The control panel has both functions of an operation panel to which input information is given by a user's operation as described later and a display panel for displaying various responses in accordance with the input information.
【0013】赤外線LEDパネル3は、例えばパネル面
に対して多数の赤外線LEDが集合的に配列されること
によって構成され、上記赤外線LEDから発光出力され
る赤外線光が半透明面の背面全体に対して照射されるよ
うに設けられる。上記赤外線LEDは制御装置6によっ
て定常的に赤外線を発光するように駆動される。なお、
赤外線LEDパネル3としては、発光出力される赤外線
光が半透明面2全体に対して照射されるのに充分な数の
赤外線LEDが設けられればよい。また、後述するよう
に、初期の赤外線画像に対する現在の赤外線画像の差分
に基づいて半透明面2側から反射してくる画像情報を得
るようにされることから、半透明面2全体に対して照射
される赤外線光量が一律であるべき必要もない。従って
赤外線LEDパネル3のサイズは、半透明面2よりもは
るかに小さいもので済ませることができる。The infrared LED panel 3 is constituted, for example, by arranging a large number of infrared LEDs collectively on the panel surface, and the infrared light emitted and output from the infrared LEDs is applied to the entire back surface of the translucent surface. It is provided so as to be irradiated. The infrared LED is driven by the control device 6 so as to constantly emit infrared light. In addition,
The infrared LED panel 3 may be provided with a sufficient number of infrared LEDs to emit the emitted infrared light to the entire translucent surface 2. Further, as described later, image information reflected from the translucent surface 2 side is obtained based on the difference between the current infrared image and the initial infrared image. There is no need for the amount of infrared light to be irradiated to be uniform. Therefore, the size of the infrared LED panel 3 can be much smaller than that of the translucent surface 2.
【0014】CCDカメラ4は、撮像素子としてCCD
を用いたカメラ装置であり、この場合には、半透明面2
に映る画像光として赤外線光の成分のみを撮像すること
により、半透明面2に対して行われた操作を画像情報と
して認識するために設けられる。このため、CCDカメ
ラ4の光学系の部分に対しては、赤外線領域の波長帯域
のみを透過する赤外線透過フィルタ4aが設けられる。
また、CCDカメラ4により撮影される構図として半透
明面2全体が含まれるようにその配置位置が設定され
る。The CCD camera 4 has a CCD as an image sensor.
In this case, the translucent surface 2
It is provided to recognize an operation performed on the translucent surface 2 as image information by capturing only an infrared light component as image light reflected on the image. For this reason, an infrared transmission filter 4a that transmits only the wavelength band in the infrared region is provided for the optical system of the CCD camera 4.
The arrangement position is set so that the composition photographed by the CCD camera 4 includes the entire translucent surface 2.
【0015】プロジェクタ5は、制御装置6から供給さ
れる画像情報に基づいて、可視光による画像光を半透明
面2の背面に対して投影表示する。例えばユーザは、半
透明面2に投影表示されたプロジェクタ5の画像を、半
透明面2の前面側から観察することができる。ここで、
プロジェクタ5の光学系には赤外線領域の波長を遮断す
る赤外線遮断フィルタ5aが設けられているが、これに
より、半透明面2に投影表示される画像光には赤外線が
含まれなくなるため、プロジェクタ5の投影画像は、C
CDカメラ4からは不可視となる。The projector 5 projects and displays image light of visible light on the back surface of the translucent surface 2 based on the image information supplied from the control device 6. For example, the user can observe the image of the projector 5 projected and displayed on the translucent surface 2 from the front side of the translucent surface 2. here,
The optical system of the projector 5 is provided with an infrared cutoff filter 5a that cuts off wavelengths in the infrared region. Is the projected image of C
Invisible from the CD camera 4.
【0016】制御装置6は、例えばマイクロコンピュー
タを備えて構成され、CCDカメラ4から供給される撮
像信号から画像情報(映像データ)を得て、更にこの画
像情報をもとに入力情報を得る。そして、この入力情報
に基づいて、例えばプロジェクタ5により半透明面2に
表示させる画像に関する表示制御を実行する他、各種所
要の制御処理を行う。また、赤外線LEDパネル3の赤
外線LEDの発光駆動を行う。なお、上記赤外線LED
パネル3、CCDカメラ4及びプロジェクタ5の配置位
置は、それぞれが果たすべき役割が充分機能することを
考慮して設定されればよい。The control device 6 includes, for example, a microcomputer, obtains image information (video data) from an image pickup signal supplied from the CCD camera 4, and further obtains input information based on the image information. Then, based on the input information, for example, display control relating to an image to be displayed on the translucent surface 2 by the projector 5 is performed, and various necessary control processes are performed. Further, the infrared LED of the infrared LED panel 3 is driven to emit light. In addition, the infrared LED
The arrangement positions of the panel 3, the CCD camera 4, and the projector 5 may be set in consideration of the role that each should play.
【0017】図2は、上記制御装置6の内部構成例を示
すブロック図である。この図に示す制御装置6におい
て、LED駆動部10は、赤外線LEDパネル3に設け
られた複数の赤外線LEDを発光駆動するための回路部
位である。FIG. 2 is a block diagram showing an example of the internal configuration of the control device 6. In the control device 6 shown in this figure, the LED driving unit 10 is a circuit part for driving the emission of a plurality of infrared LEDs provided on the infrared LED panel 3.
【0018】画像入力部11は、CCDカメラ4から供
給された撮像信号について所要の信号処理を施すことに
よって映像信号を生成して入力画像処理部12に供給す
る。つまり、画像入力部11では、半透明面2側からC
CDカメラ4を介して入射してきた赤外線光を映像情報
として出力する。The image input unit 11 generates a video signal by performing necessary signal processing on the image pickup signal supplied from the CCD camera 4 and supplies the image signal to the input image processing unit 12. That is, in the image input unit 11, C
The infrared light incident via the CD camera 4 is output as video information.
【0019】入力画像処理部12では、例えば画像入力
部11から供給された映像信号をデジタル信号による映
像信号データに変換する。入力画像処理部12において
は、この映像信号データに基づいて得られる「画像情報
(例えばフレーム単位の映像データ)」を利用して所要
の解析処理等を実行することで、半透明面2に対して行
われた操作等に基づく入力情報を得るようにされる。こ
こで画像情報に基づいて得られる入力情報としては、例
えば、半透明面2に対して操作を行っている操作体の画
像上の位置(座標)や画像の信号レベルなどが用いられ
る。この入力情報はデータベース駆動部14に伝送され
る。また、上記映像信号データは、画像合成部17に対
しても供給可能とされている。The input image processing unit 12 converts, for example, a video signal supplied from the image input unit 11 into digital video signal data. The input image processing unit 12 performs a required analysis process or the like using “image information (eg, video data in units of frames)” obtained based on the video signal data, so that the translucent surface 2 Input information based on the operation performed by the user. Here, as the input information obtained based on the image information, for example, the position (coordinates) on the image of the operating tool operating the translucent surface 2 and the signal level of the image are used. This input information is transmitted to the database driver 14. Further, the video signal data can be supplied to the image synthesizing unit 17.
【0020】しきい値制御部13は、入力画像処理部1
2にて実行される入力情報に関する処理に必要なしきい
値を設定して入力画像処理部12に伝送する。上記入力
画像処理部12では、しきい値制御部13において設定
されるしきい値を利用して画像情報について解析を行う
など所要の処理を実行することで逐次必要とされる入力
情報を識別する。また、本実施の形態では後述するよう
にして入力画像データのフレーム差分を算出することに
より、現在の半透明面2の画像状態(検出画像情報)を
得るようにされるが、フレーム差分演算に利用する基準
値(基準画像入力レベル)等の情報も、後述するように
して、しきい値制御部13に格納されるものとする。The threshold control unit 13 includes the input image processing unit 1
The threshold value necessary for the processing related to the input information executed in step 2 is set and transmitted to the input image processing unit 12. The input image processing unit 12 identifies necessary input information by performing necessary processing such as analyzing image information using a threshold value set by the threshold value control unit 13. . In the present embodiment, the current image state (detected image information) of the translucent surface 2 is obtained by calculating the frame difference of the input image data as described later. It is also assumed that information such as a reference value (reference image input level) to be used is stored in the threshold control unit 13 as described later.
【0021】データベース駆動部14は、入力画像処理
部12により得られた入力情報を取り込み、この入力情
報に基づいて適宜所要の処理を実行する。この際、デー
タベース駆動部14が実行すべき制御処理に必要なプロ
グラムデータはデータベースメモリ15に格納されてお
り、データベース駆動部14は、データベースメモリ1
5に格納されたプログラムデータに基づいて所要の制御
処理を実行することになる。The database driving unit 14 takes in the input information obtained by the input image processing unit 12, and executes necessary processing appropriately based on the input information. At this time, the program data necessary for the control processing to be executed by the database driving unit 14 is stored in the database memory 15, and the database driving unit 14
The required control processing is executed based on the program data stored in the storage unit 5.
【0022】画像生成部16は、データベース駆動部1
4の制御によって、必要な画像データ(デジタル信号に
よる映像信号データ)を生成して画像合成部17に出力
する。画像合成部17においては、必要があれば上記画
像生成部16から供給された映像信号データに対して、
入力画像処理部12から供給された映像信号データを合
成してRGB信号生成部18に対して出力する。RGB
信号生成部18では、上記画像合成部17から供給され
た映像信号データについて、例えばアナログによるRG
B信号に変換してプロジェクタ5に対して出力する。こ
れにより、プロジェクタ5からは、半透明面2に対して
行われる操作に応答した映像による画像光が半透明面2
に対して照射出力されることになる。The image generating unit 16 includes the database driving unit 1
Under the control of (4), necessary image data (video signal data by digital signal) is generated and output to the image synthesizing unit 17. In the image synthesizing unit 17, if necessary, the video signal data supplied from the image generating unit 16 is
The video signal data supplied from the input image processing unit 12 is synthesized and output to the RGB signal generation unit 18. RGB
The signal generating unit 18 converts the video signal data supplied from the image
The signal is converted into a B signal and output to the projector 5. As a result, the image light of the video in response to the operation performed on the translucent surface 2 is output from the projector 5.
Is output.
【0023】次に、上記構成による本実施の形態のゲー
ム装置1における入力情報の検出方法について説明す
る。前述のように、図1に示す半透明面2全体に対して
は、その背面から赤外線LEDパネル3により赤外線光
が照射されるのであるが、この赤外線光は半透明面2が
半透明性を有することから、全ての赤外線光が半透明面
2を通過するのではなく、幾分かの赤外線光がその半透
明性の作用によって反射されることになる。そして、本
実施の形態においては半透明面2に対して何も操作が行
われていないとされる状態のもとで、半透明面2にて反
射される赤外線光をCCDカメラ4により撮像して得ら
れる映像信号データの初期レベルを「基準入力画像レベ
ル」として記憶する。この基準入力画像レベルは、入力
された映像信号データに基づいて例えば1フレームにお
ける画素ごとの信号レベルを検出することにより行うよ
うにすればよい。この検出処理は、入力画像処理部12
により行われるものとされる。このようにして検出され
た基準入力画像レベルの情報はしきい値検出部13に伝
送され、ここで保持されることになる。Next, a description will be given of a method of detecting input information in the game apparatus 1 of the present embodiment having the above configuration. As described above, the entirety of the translucent surface 2 shown in FIG. 1 is irradiated with infrared light from the back by the infrared LED panel 3, and the translucent surface 2 has a translucency. As a result, not all infrared light passes through the translucent surface 2, but some infrared light is reflected by its translucent action. In the present embodiment, under the condition that no operation is performed on the translucent surface 2, the infrared light reflected by the translucent surface 2 is imaged by the CCD camera 4. The initial level of the obtained video signal data is stored as the “reference input image level”. The reference input image level may be determined, for example, by detecting the signal level of each pixel in one frame based on the input video signal data. This detection processing is performed by the input image processing unit 12.
It is assumed to be performed by. The information on the reference input image level detected in this way is transmitted to the threshold value detection unit 13 and is held here.
【0024】上記基準入力画像レベルの検出処理は、例
えば図3のフローチャートに示すものとなる。この図に
示すように、先ず入力画像処理部12では、ステップS
101において、CCDカメラ4から画像入力部11を
介して供給された映像信号から得られる1フレーム分の
画像データに基づいて、上述のようにして画素ごとに信
号レベルを検出し、この検出結果を基準入力画像レベル
Lintとして得る。なお、具体的には画素ごとの輝度
信号成分のレベルを検出してこれを基準入力画像レベル
Lintとすることが考えられる。入力画像処理部12
は、続くステップS102において、上記基準入力画像
レベルLintをしきい値制御部13に伝送して記憶さ
せるように処理を実行する。The process of detecting the reference input image level is, for example, as shown in the flowchart of FIG. As shown in this figure, first, in the input image processing unit 12, step S
At 101, a signal level is detected for each pixel as described above based on one frame of image data obtained from a video signal supplied from the CCD camera 4 via the image input unit 11, and the detection result is obtained. Obtained as the reference input image level Lint. Specifically, it is conceivable to detect the level of the luminance signal component for each pixel and use this as the reference input image level Lint. Input image processing unit 12
Performs a process to transmit the reference input image level Lint to the threshold control unit 13 and store it in the subsequent step S102.
【0025】なお、基準入力画像レベルLintを検出
してしきい値制御部13に記憶させる処理(上記図3に
示す処理動作)は、例えば当該ゲーム装置1の電源オン
時などに実行させたり、あるいは何らかのユーザの指示
によって必要なときに基準入力画像レベルLintを更
新させるように構成することが考えられる。The process of detecting the reference input image level Lint and storing it in the threshold value control unit 13 (the processing operation shown in FIG. 3) can be executed, for example, when the power of the game apparatus 1 is turned on. Alternatively, a configuration may be considered in which the reference input image level Lint is updated when necessary by an instruction of a user.
【0026】上記のようにして基準入力画像レベルLi
ntの情報が保持された状態のもとで、入力情報として
扱われる画像情報は次のようにして得るようにされる。
図4は、入力情報のもととなる画像情報(以下、この
「画像情報」については特に「検出画像情報」という)
を得るための入力画像処理部12の処理動作を示すフロ
ーチャートである。この場合、入力画像処理部12は、
先ずステップS201において現在の入力画像レベルL
prsを検出する処理を実行する。ここでいう入力画像
レベルLprsは、現在においてCCDカメラ4により
撮像された、赤外線光に基づく半透明面2の画像につい
てのフレーム単位のデータであり、このフレーム単位の
画像データにおける画素ごとの信号レベルを検出して得
られる情報である。続いて、入力画像処理部12はステ
ップS202において、基準入力画像レベルLintと
上記現在の入力画像レベルLprsの差分を演算する
(L=Lprs−Lint)ことによって差分入力画像
レベルLを算出する。具体的には、基準入力画像レベル
Lintと上記入力画像レベルLprsとして得られた
データ値を、同一位置の画素ごとに差分を求めることに
よって差分入力画像レベルLを得るようにされる。従っ
て、差分入力画像レベルLとしては、常に基準入力画像
レベルLintに対する現在の入力画像レベルLprs
との信号レベル差が画素ごとに得られることになる。そ
して、入力画像処理部12は、ステップS203に進
み、上記差分入力画像レベルLに基づいて、現在の検出
画像情報(フレーム単位で画素ごとのレベル情報を有す
る形式の映像データ)を生成するようにされる。As described above, the reference input image level Li
Under the state where the information of nt is held, the image information treated as the input information is obtained as follows.
FIG. 4 shows image information as a source of input information (hereinafter, this “image information” is particularly referred to as “detected image information”).
5 is a flowchart illustrating a processing operation of the input image processing unit 12 for obtaining the image data. In this case, the input image processing unit 12
First, in step S201, the current input image level L
A process for detecting prs is executed. The input image level Lprs here is frame-by-frame data of an image of the translucent surface 2 based on infrared light, which is currently captured by the CCD camera 4, and is a signal level for each pixel in the frame-based image data. This is information obtained by detecting. Subsequently, in step S202, the input image processing unit 12 calculates a difference between the reference input image level Lint and the current input image level Lprs (L = Lprs-Lint) to calculate a difference input image level L. Specifically, the difference input image level L is obtained by calculating a difference between the reference input image level Lint and the data value obtained as the input image level Lprs for each pixel at the same position. Therefore, the difference input image level L is always the current input image level Lprs with respect to the reference input image level Lint.
Is obtained for each pixel. Then, the input image processing unit 12 proceeds to step S203, and generates current detected image information (video data in a format having level information for each pixel on a frame basis) based on the difference input image level L. Is done.
【0027】上記のごとき検出画像情報の検出動作を、
実際のユーザの半透明面2の前面側での動きと共に説明
する。例えばユーザは、半透明面2の前面側において赤
外線を反射可能な何らかの物体を利用して半透明面2の
前面側において操作を行うようにするのであるが、ここ
では、説明の簡単のためにユーザ自身の指や身体を用い
ることとする。ここで、例えば図1に示すように半透明
面2の前面側においてユーザが半透明面2から遠く離れ
た距離にいるときには、例えば半透明面2を通過してユ
ーザの身体に反射するとされる赤外線光量は少ないこと
から、そのほとんどが半透明面2の前面から背面を通過
して戻ることはない。このとき、上述した基準入力画像
レベルLintと上記現在の入力画像レベルLprsと
は同等であり、入力画像処理部12では、差分入力画像
レベルLとしてほぼ0であると検出することになる。つ
まり、差分入力画像レベルLに基づいて生成される検出
画像情報としては、初期状態と同様の変化の無いとされ
る状態が得られることになる。The detection operation of the detected image information as described above is performed as follows.
This will be described together with the actual movement of the user on the front side of the translucent surface 2. For example, the user performs an operation on the front side of the translucent surface 2 using some object that can reflect infrared rays on the front side of the translucent surface 2. The user's own finger or body is used. Here, for example, when the user is far away from the translucent surface 2 on the front side of the translucent surface 2 as shown in FIG. Since the amount of infrared light is small, most of the light does not return from the front to the back of the translucent surface 2. At this time, the above-described reference input image level Lint is equal to the current input image level Lprs, and the input image processing unit 12 detects that the difference input image level L is almost 0. That is, as the detected image information generated based on the difference input image level L, a state in which there is no change similar to the initial state is obtained.
【0028】ここで、例えば上記の状態からユーザが徐
々に半透明面2に対して近づいていったとすると、半透
明面2を通過してユーザの身体に反射する赤外線光のう
ち、半透明面2を通過して背面側に到達する光量が次第
に増加していくことになる。この状態を、入力画像処理
部12からみた場合には、ユーザの身体に対応する画像
部分の基準入力画像レベルLintに対する現在の入力
画像レベルLprsのレベルが徐々に増加していく状態
として捉えられる。これに応じて、検出画像情報として
は算出される差分入力画像レベルLに応じて、半透明面
2に接近するユーザの姿が徐々に捉えられていくことに
なる。そして、半透明面2に対して例えばユーザの体が
非常に接近した状態(しきい値の設定にもよるが例えば
半透明面2から30cm以内)では、その人体に反射し
た赤外線光がほとんど半透明面2を通過して背面側に到
達することになるので、その身体形状がより鮮明な状態
の検出画像情報が生成されることになる。Here, for example, if the user gradually approaches the translucent surface 2 from the above-described state, of the infrared light that passes through the translucent surface 2 and is reflected on the user's body, the translucent surface 2, the amount of light reaching the back side gradually increases. When viewed from the input image processing unit 12, this state is regarded as a state where the level of the current input image level Lprs with respect to the reference input image level Lint of the image portion corresponding to the user's body gradually increases. In response to this, the user's appearance approaching the translucent surface 2 is gradually captured according to the difference input image level L calculated as the detected image information. In a state where the user's body is very close to the translucent surface 2 (for example, within 30 cm from the translucent surface 2 depending on the setting of the threshold), the infrared light reflected on the human body is almost half. Since the light passes through the transparent surface 2 and reaches the back side, detected image information in a state where the body shape is clearer is generated.
【0029】また、ここでユーザがその身体を半透明面
2からある程度距離を置いた状態で、例えば自身の指を
手前にかざして半透明面2の非常に近い位置にあるよう
にしたとする。この場合、半透明面2に近接するユーザ
の指は他の身体部分よりも多くの赤外線光を反射するた
め、入力画像処理部12において得られる画像情報とし
ては、ユーザの指にあたる位置の画像領域のレベルが強
く、その背景となる部分においてユーザの身体部分にあ
たる位置の画像領域のレベルは半透明面2からの距離に
応じて弱くなることになる。そして、例えばこの状態の
もとで、しきい値制御部13にて設定された所定のしき
い値と検出画像情報とを比較すれば、容易にユーザの指
にあたる部分のみの画像を背景から分離させることが可
能であり、同様にしきい値の設定によっては、半透明面
2から離れた距離にあるユーザの身体部分のみを抽出し
た画像情報を得ることも可能である。このようなしきい
値は、前述のように実際に必要とされる条件に応じた値
がしきい値制御部13において設定されるものである。It is also assumed here that the user has his / her body at a certain distance from the translucent surface 2 and, for example, holds his / her finger toward the user so as to be very close to the translucent surface 2. . In this case, since the user's finger near the translucent surface 2 reflects more infrared light than other body parts, the image information obtained in the input image processing unit 12 includes an image area at a position corresponding to the user's finger. Is high, and the level of the image area at the position corresponding to the body part of the user in the background becomes weaker according to the distance from the translucent surface 2. Then, for example, in this state, if a predetermined threshold value set by the threshold value control unit 13 is compared with the detected image information, the image of only the portion corresponding to the user's finger can be easily separated from the background. Similarly, depending on the setting of the threshold value, it is also possible to obtain image information in which only the body part of the user located at a distance from the translucent surface 2 is extracted. As described above, the threshold value is set in the threshold value control unit 13 in accordance with the actually required condition as described above.
【0030】このようにして、半透明面2の前面側の状
態を検出する構成を採ることにより、この半透明面2を
例えばインタラクティブなインターフェイスのための操
作パネルとして機能させる場合には次のような利点が得
られる。先ず、本実施の形態では半透明面2側からの赤
外線の反射光量によって得られる画像に基づいて入力情
報を得ることになるので、入力情報を与えるための物理
的対象としては、特に特殊なポインティングデバイスを
必要とせず、1つには、赤外線を反射する物体であれば
その種類は問わないことになる。つまり、操作体として
は、上述のように人体全体もしくはその一部や、その他
の何らかの物体を問題なく使用することができる。ま
た、例えば黒色は赤外線光を反射せずに吸収する作用が
あることなど利用し、後述するようにして、例えば黒色
による特定パターンの図柄を半透明面2に対して与える
ことで、この図柄のパターンを特定の意義を有する入力
情報(ID情報)として扱うようにすることも可能とな
る。さらには、CCDカメラ4により赤外線光の光量変
化が撮像さえされればこれを入力情報として扱えること
になるので、入力情報として例えば赤外線を発光させる
ポインティングデバイスなどを用いて、積極的に半透明
面2に対して赤外線光を与えるような方法を採ることも
可能である。By adopting a configuration for detecting the state of the front side of the translucent surface 2 in this manner, when the translucent surface 2 functions as, for example, an operation panel for an interactive interface, the following is performed. Advantages are obtained. First, in this embodiment, input information is obtained based on an image obtained by the amount of reflected infrared light from the translucent surface 2 side. Therefore, as a physical object for providing input information, a special pointing No device is required, and one type of object reflects infrared light. That is, as described above, the whole or a part of the human body or any other object can be used without any problem as the operation body. Also, for example, utilizing the fact that black has an effect of absorbing infrared light without reflecting it, for example, by giving a pattern of a specific pattern of black to the translucent surface 2 as described later, It is also possible to handle the pattern as input information (ID information) having a specific significance. Further, as long as the change in the amount of infrared light is imaged by the CCD camera 4, the change can be treated as input information. It is also possible to adopt a method in which infrared light is given to 2.
【0031】また、例えばタッチパネルなどでは操作パ
ネル面に対して指などの操作体を接触させる必要がある
が、本実施の形態の場合には操作体の位置や動きは赤外
線光の反射として検出されればよいことから、半透明面
2に操作体を接触させる必要性はなく、その前面の空間
において操作を行うような方法を採ることができる。更
に、本実施の形態では、半透明面2側からの赤外線の反
射光により得られる画像に基づいて入力情報を得るため
に、画像認識さえ可能であれば複数の操作体(即ち入力
情報)を同時に認識することが可能である。In the case of a touch panel, for example, it is necessary to bring an operating body such as a finger into contact with the operation panel surface. In the case of the present embodiment, the position and movement of the operating body are detected as reflections of infrared light. Therefore, there is no need to bring the operating tool into contact with the translucent surface 2, and a method of performing an operation in the space in front of the operating tool can be adopted. Further, in the present embodiment, in order to obtain input information based on an image obtained by reflected light of infrared rays from the translucent surface 2 side, a plurality of operating tools (that is, input information) are required if image recognition is possible. It is possible to recognize at the same time.
【0032】また、上述したように赤外線の反射光量
は、操作体の半透明面2に対する距離に応じて変化する
ために、例えば操作体の半透明面2からの距離を入力情
報として利用することも考えられる。Further, as described above, since the amount of reflected infrared light changes according to the distance of the operating tool to the translucent surface 2, for example, the distance of the operating tool from the translucent surface 2 is used as input information. Is also conceivable.
【0033】更に、半透明面2は前述のように例えば透
明のガラス板などに対してトレーシングペーパーのよう
な半透明の薄膜を組み合わせたり、磨りガラスのような
ものを利用するなどの簡略な手段により構成可能とさ
れ、特にパネル構造として表示のための駆動回路などを
設ける必要がないので、低コストで容易に大型化を実現
することができ、この点で大型化が困難なタッチパネル
などとは大きく異なる。Further, as described above, the translucent surface 2 is formed by a simple method such as combining a transparent glass plate or the like with a translucent thin film such as tracing paper, or using a material such as frosted glass. Means, it is not necessary to provide a driving circuit for display as a panel structure, so that the size can be easily increased at a low cost, and a touch panel, etc., which is difficult to increase in size in this respect. Are very different.
【0034】そして、半透明面2は画像表示パネルとし
ての機能も有することから、例えば後述するように操作
対象となるメニュー画面のようなものを表示させた上
で、ユーザがこのメニュー画面に対して指などにより操
作を行えるようにするなどの直接的な操作を実現するこ
とも容易に可能となる。このように、本実施の形態とし
てのゲーム装置1では、その入力情報を入力するのに多
くの可能性が得られるために、これまでには無かったよ
うなインタラクティブな入出力環境を容易に構築するこ
とができる。Since the translucent surface 2 also has a function as an image display panel, for example, after displaying a menu screen to be operated as will be described later, the user touches the menu screen. It is also possible to easily realize a direct operation such as an operation with a finger or the like. As described above, in the game apparatus 1 according to the present embodiment, since there are many possibilities for inputting the input information, an interactive input / output environment that has not been available can be easily constructed. can do.
【0035】これまでの説明による構成を踏まえて、半
透明面2に対して行われた操作により得られた入力情報
に応答した本実施の形態のゲーム装置1の動作として、
ユーザがメニュー操作を行う場合を例に挙げ、これにつ
いて図5及び図6を参照して説明する。Based on the configuration described above, the operation of the game apparatus 1 according to the present embodiment in response to input information obtained by an operation performed on the translucent surface 2 is as follows.
An example in which the user performs a menu operation will be described with reference to FIGS. 5 and 6.
【0036】図5には、ユーザがゲーム装置1を利用し
てメニュー操作を行う場合が示されており、ここでは半
透明面2を前面側からみた状態が示されている。例えば
この図に示すように、ユーザが半透明面2の前面に近づ
いたとすると、先ず、ゲーム装置1の制御装置6では、
このときに得られる検出画像情報に基づいてユーザが近
づいた半透明面2上の位置を認識する。そして、半透明
面2上においてユーザが近づいたと認識された位置に対
応させて、図のようにメニュー画面Mを表示するように
表示制御を行う。このメニュー画面Mは当然のこととし
てプロジェクタ5から半透明面2に対して投影された画
像である。FIG. 5 shows a case where the user performs a menu operation using the game apparatus 1, and here, a state in which the translucent surface 2 is viewed from the front side is shown. For example, as shown in this figure, if the user approaches the front of the translucent surface 2, first, the control device 6 of the game device 1
The position on the translucent surface 2 to which the user has approached is recognized based on the detected image information obtained at this time. Then, display control is performed so that the menu screen M is displayed as shown in the figure, corresponding to the position on the translucent surface 2 where the user is recognized as approaching. The menu screen M is an image projected on the translucent surface 2 from the projector 5 as a matter of course.
【0037】そして、ユーザ自身が位置している付近の
半透明面2上にメニュー画面Mが表示された状態のもと
で、例えばユーザは自身の指を用いて、メニュー画面M
において操作項目が表示されている任意の領域を指さす
ように指定したとする。このとき、ユーザの指先は、半
透明面2上から3cm〜30cm程度の範囲内の距離に
あるようにされる。Then, in a state where the menu screen M is displayed on the translucent surface 2 near where the user himself is located, for example, the user uses his / her finger to make the menu screen M
It is assumed that the user designates an arbitrary area in which the operation item is displayed. At this time, the user's fingertip is located at a distance within a range of about 3 cm to 30 cm from the translucent surface 2.
【0038】これにより、例えばメニュー画面Mにおい
ては、ユーザが指し示した操作項目の領域が選択された
ことを示す何らかの指示表示(例えば選択領域に対する
カーソルの配置表示や所定の形態による強調表示など)
が行われることになる。この強調表示のための表示制御
は、検出画像情報に基づいてユーザの指が指し示してい
る領域の座標を検出することにより実現される。ここで
は、上記のようにして指示表示が開始された状態から所
定時間(例えば数秒程度)経過したときにエンター操作
が行われたとみなすこととする。そして、ユーザがエン
ター操作を行った、つまり、特定の操作項目が強調表示
された状態を所定時間以上維持させたとすると、指定さ
れた操作項目に従った所要の制御動作を実行することに
なる。例えば、指定された操作項目に従って、他の階層
のメニュー画面を表示させたり、当該ゲーム装置1に対
して所望の動作を実行させたりすることになる。あるい
は、当該ゲーム装置1が何らかの外部機器を制御可能に
構成されており、メニュー画面がその外部機器の動作に
ついての操作制御を行うためのものであるとすれば、指
定された操作項目に従って外部機器の動作を制御するこ
とになる。なお、ユーザが半透明面2の前面から離れて
いき、ユーザと半透明面2との間にある程度以上の距離
があいた場合には、それまで表示されていたメニュー画
面Mは自動的に消去されるものとされる。Thus, for example, on the menu screen M, any indication indicating that the area of the operation item pointed to by the user has been selected (for example, display of a cursor on the selected area, highlighting in a predetermined form, etc.)
Will be performed. The display control for the highlighting is realized by detecting the coordinates of the area indicated by the user's finger based on the detected image information. Here, it is assumed that the enter operation has been performed when a predetermined time (for example, about several seconds) has elapsed from the state where the instruction display was started as described above. If the user performs an enter operation, that is, if a state where a specific operation item is highlighted is maintained for a predetermined time or more, a required control operation according to the specified operation item is executed. For example, a menu screen of another hierarchy is displayed or a desired operation is performed on the game apparatus 1 in accordance with the designated operation item. Alternatively, if the game device 1 is configured to be able to control some external device, and the menu screen is for controlling the operation of the operation of the external device, the external device may be controlled in accordance with the designated operation item. Will be controlled. When the user moves away from the front of the translucent surface 2 and there is a certain distance or more between the user and the translucent surface 2, the menu screen M that has been displayed is automatically deleted. It is assumed that.
【0039】ここで、図6のフローチャートに、上記図
5に示した利用例に対応して実行される制御装置6の処
理動作を示す。この図に示す処理動作は、主として制御
装置6内の入力画像処理部12が検出画像情報に基づい
て入力情報を認識すると共に、データベース駆動部14
がデータベースメモリ15に格納されたプログラムに従
って、上記入力情報に基づいて適宜処理動作を実行する
ことにより実現されるものである。Here, the flowchart of FIG. 6 shows the processing operation of the control device 6 executed corresponding to the application example shown in FIG. The processing operation shown in this figure is mainly based on the fact that the input image processing unit 12 in the control device 6 recognizes the input information based on the detected image information and the database driving unit 14
Is executed by appropriately executing a processing operation based on the input information in accordance with a program stored in the database memory 15.
【0040】この図に示すルーチンにおいては、先ずス
テップS301において現在の検出画像情報から入力情
報として「接近体」が検出されるか否かについて判別を
行う。ここで、「接近体」とは半透明面2に対して所定
の距離範囲まで接近した何らかの検出対象(図5ではユ
ーザ自身の身体とされている)をいうものとされる。こ
の「接近体」の検出は、例えば入力画像処理部12が検
出画像情報と接近体の検出用に設定されたしきい値(し
きい値制御部13により設定される)を比較して、例え
ば検出画像情報のある領域においてこのしきい値以上の
値が得られた場合には「接近体有り」と検出し、しきい
値以上の値が得られる領域がない場合には、「接近体無
し」と検出することになる。上記接近体検出用のしきい
値は、例えば通常、人体(ユーザ)が半透明面2にある
程度(例えば数十cm)近づいたときに検出画像情報と
して得られる人体部分の画像レベルに基づいて設定され
ればよい。In the routine shown in this figure, first, in step S301, it is determined whether or not an "approaching object" is detected as input information from the current detected image information. Here, the “approaching body” refers to any detection target (in FIG. 5, the user's own body) that has approached the translucent surface 2 to a predetermined distance range. The detection of the “approaching object” is performed, for example, by the input image processing unit 12 comparing the detected image information with a threshold value (set by the threshold value control unit 13) set for detecting the approaching object. If a value equal to or greater than this threshold value is obtained in a certain area of the detected image information, it is detected as “approaching object”. ". The threshold value for detecting the approaching body is set, for example, based on the image level of the human body part obtained as the detection image information when the human body (user) approaches the translucent surface 2 to some extent (for example, several tens of cm). It should be done.
【0041】上記ステップS301において接近体が検
出されなかった場合にはステップS308に進んで、こ
こで現在メニュー画面Mが表示中であるか否かについて
判別が行われ、ここでメニュー画面Mが表示されていな
い場合には元のルーチンに戻る(即ち再度ステップS3
01の処理に移行する)が、メニュー画面Mが表示中の
状態である場合にはステップS309に進み、メニュー
画面Mを消去するための制御処理を実行する。このメニ
ュー画面Mの消去処理は、例えばデータベース駆動部1
4が画像生成部16に対するメニュー画面Mの画像デー
タの生成処理を停止することで実現される。If no approaching object is detected in step S301, the process proceeds to step S308, where it is determined whether or not the menu screen M is currently being displayed. Here, the menu screen M is displayed. If not, the process returns to the original routine (ie, step S3 again).
01), if the menu screen M is being displayed, the process proceeds to step S309 to execute a control process for deleting the menu screen M. The erasing process of this menu screen M is performed, for example, by
4 is realized by stopping the process of generating the image data of the menu screen M for the image generating unit 16.
【0042】これに対して、ステップS301において
接近体が検出された場合には、ステップS302に進ん
で、半透明面2上における上記接近体の位置を検出する
ことが行われる。この処理は、例えば検出画像情報にお
ける接近体の部分が占有する領域の座標を検出すること
で可能となる。この場合、検出すべき座標としては接近
体の領域の所定の一地点であっても、所定規則に従って
求められる複数地点であっても構わなく実際の使用環境
等に応じて任意に設定されればよい。On the other hand, if an approaching object is detected in step S301, the flow advances to step S302 to detect the position of the approaching object on the translucent surface 2. This processing can be performed, for example, by detecting the coordinates of the area occupied by the approaching object portion in the detected image information. In this case, the coordinates to be detected may be a predetermined one point in the area of the approaching object or a plurality of points obtained according to a predetermined rule, and may be set arbitrarily according to the actual use environment and the like. Good.
【0043】続くステップS303においては、上記ス
テップS302にて検出された接近体の位置に応じた半
透明面2の領域に対してメニュー画面Mを表示させるた
めの制御を実行する。この制御処理は、例えばデータベ
ース駆動部14がデータベースメモリ15に格納されて
いるメニュー画面表示用のプログラムに基づいて、画像
生成部16において所要の種類のメニュー画面の画像デ
ータが作成されるように制御を行うことになる。In the following step S303, control for displaying the menu screen M in the area of the translucent surface 2 corresponding to the position of the approaching object detected in the above step S302 is executed. In this control process, for example, the database drive unit 14 controls the image generation unit 16 to generate image data of a required type of menu screen based on a menu screen display program stored in the database memory 15. Will be done.
【0044】この際、データベース駆動部14は、ステ
ップS302にて検出された接近体の位置に対応する表
示領域に対して、例えばメニュー画面の画像データをマ
ッピングするようにして、表示用画像データを作成す
る。この結果、最終的にプロジェクタ5から投影される
画像としては、半透明面2におけるユーザが近づいた位
置に対してメニュー画面Mが表示されたものとなる。At this time, the database driving section 14 maps the display image data to the display area corresponding to the position of the approaching object detected in step S302, for example, by mapping the image data of the menu screen. create. As a result, as the image finally projected from the projector 5, the menu screen M is displayed at a position on the translucent surface 2 where the user approaches.
【0045】上記ステップS303の処理が実行された
後は、ステップS304において、現在表示中のメニュ
ー画面Mの操作項目とされる表示領域内において、「操
作体」が検出されたか否かについて判別が行われる。こ
こで、「操作体」とは半透明面2の前面において至近距
離(しきい値の設定にもよるが3cm〜30cm程度)
にある物体(検出対象)のことをいうものとされる。つ
まり、図5においてはメニュー画面Mを指し示す指が対
象となる。そして、この「操作体」の検出処理は、先
ず、操作体検出用としてしきい値制御部13において設
定されたしきい値と、検出画像情報の画像レベルとを比
較することにより、操作体の有無を検出することが行わ
れる。このとき設定されるしきい値としては、半透明面
2の前面において至近距離にある物体を背景から分離し
て検出する必要上、前述した接近体検出用のしきい値よ
りも大きい値が設定される。そして、例えばしきい値と
比較した結果、操作体が検出されたとすれば、その操作
体が検出された検出画像情報上の座標位置を検出し、こ
の検出位置とメニュー画面Mが表示されているとされる
画像情報上の位置が一致しているか否かを判別すること
で、現在表示中のメニュー画面の表示領域内における操
作体の有無を検出することになる。After the processing in step S303 is executed, in step S304, it is determined whether or not an "operating tool" is detected in a display area that is an operation item of the currently displayed menu screen M. Done. Here, the “operation body” is a close distance in front of the translucent surface 2 (about 3 cm to 30 cm depending on the setting of the threshold).
(Detection target). That is, in FIG. 5, the finger pointing to the menu screen M is targeted. The detection process of the “operating object” is performed by first comparing the threshold value set by the threshold value control unit 13 for detecting the operating object with the image level of the detected image information. The presence or absence is detected. The threshold set at this time is set to a value larger than the threshold for detecting an approaching object described above because it is necessary to detect an object at a close distance in front of the translucent surface 2 separately from the background. Is done. Then, for example, if the operation tool is detected as a result of comparison with the threshold value, the coordinate position on the detected image information where the operation tool is detected is detected, and the detected position and the menu screen M are displayed. By determining whether or not the positions on the image information match, the presence or absence of the operating tool in the display area of the currently displayed menu screen is detected.
【0046】上記ステップS304においてメニュー画
面Mの操作項目とされる表示領域内において操作体が検
出されない場合とは、検出画像情報上に操作体が検出さ
れなかった(ユーザが至近距離で半透明面2上を指し示
していないような状態)か、或いは、検出画像情報上に
操作体を検出したとしても、この操作体の検出位置(座
標)がメニュー画面Mの表示領域内に対応する画像情報
上の領域に無かった(ユーザが至近距離で半透明面2上
を指し示していた位置がメニュー画面Mの操作項目以外
の領域であったような状態)ことになるが、このような
場合にはステップS301に戻るようにされる。In step S304, the case where no operation tool is detected in the display area that is an operation item of the menu screen M means that no operation tool is detected on the detected image information (the user is close to the translucent surface at a close distance). 2), or even if an operating tool is detected on the detected image information, the detected position (coordinates) of this operating tool is displayed on the image information corresponding to the display area of the menu screen M. (The state in which the position where the user points on the translucent surface 2 at a close distance is an area other than the operation items on the menu screen M). The process returns to S301.
【0047】なお、ここで操作体が人体の手又は指に特
定されるような場合には、ステップS304における操
作体の検出処理として、例えば、データベースメモリ1
5に対して操作時に現れる人体の手又は指の形状の情報
を記憶させておき、この手又は指の形状の情報と、検出
画像情報として得られた画像形状とを比較して、その一
致状態をみて操作体の検出の有無を識別するように構成
することが可能である。即ち、本発明では、画像情報か
ら入力情報を検出するために、検出画像情報に得られる
画像の形状に基づいても、これを何らかの意義を有する
入力情報の1つとして認識可能なわけである。If the operating tool is specified as a human hand or finger, the processing for detecting the operating tool in step S304 may be performed, for example, in the database memory 1
5 is stored with information on the shape of the hand or finger of the human body appearing at the time of operation, and the information on the shape of the hand or finger is compared with the image shape obtained as the detected image information, and the matching state is determined. Thus, it is possible to identify the presence or absence of the detection of the operation tool. That is, in the present invention, in order to detect the input information from the image information, the input information can be recognized as one of the input information having some significance even based on the shape of the image obtained in the detected image information.
【0048】ステップS304においてメニュー画面M
の操作項目とされる表示領域内において操作体が検出さ
れたと判別された場合には、ステップS305に進ん
で、操作体が検出された位置に対応するメニュー画面M
の操作項目について指示表示が行われるように制御を実
行してステップS306に進む。In step S304, menu screen M
If it is determined that the operating tool has been detected in the display area that is the operation item of (1), the process proceeds to step S305, and the menu screen M corresponding to the position where the operating tool has been detected is displayed.
The control is executed so that the instruction display is performed for the operation item of, and the process proceeds to step S306.
【0049】ステップS306の処理はエンター操作の
待機処理となる。前述のように、ここでのエンター操作
は、指示表示が開始された状態から所定時間経過したと
きに確定されるものと規定している。そこで、ステップ
S306においては、ステップS304にて検出された
操作体の検出状態が所定時間以上維持されるか否かにつ
いて検出を行うようにしている。この検出処理は、入力
画像処理部12において現在の検出画像の状態遷移を監
視することにより行われる。そして、例えば現在の検出
画像情報上から操作体が検出されなくなったり、あるい
は現在の検出画像情報上における操作体の検出位置が、
ステップS304にて検出されたメニュー画面Mの操作
項目とされる表示領域内から外れたことが検出されたよ
うな場合には、ステップS306からステップS301
以降の処理に戻ることになる。(この処理により、例え
ばユーザがこれまでとは異なるメニュー画面M上の操作
項目を指し示すように、その指定位置を変更した場合に
は、新たに指定されたメニュー画面M上の操作項目に対
して指示表示が行われたりすることになる。)The process in step S306 is a standby process for the enter operation. As described above, the enter operation here is defined as being determined when a predetermined time has elapsed from the state where the instruction display is started. Therefore, in step S306, it is determined whether or not the detection state of the operating tool detected in step S304 is maintained for a predetermined time or longer. This detection process is performed by monitoring the state transition of the current detected image in the input image processing unit 12. Then, for example, the operating tool is no longer detected from the current detected image information, or the detection position of the operating tool on the current detected image information is
If it is detected in step S304 that the user has deviated from the display area that is the operation item of the menu screen M detected, the process proceeds from step S306 to step S301.
The process returns to the subsequent steps. (By this processing, for example, when the user changes the designated position so as to point to an operation item on the menu screen M different from the past, the operation item on the newly specified menu screen M is An instruction display is performed.)
【0050】これに対して、ステップS306におい
て、直前のステップS304にて検出された操作体の検
出状態が所定時間以上維持されたと判別された場合に
は、エンター操作が行われたものとしてステップS30
7に進む。ステップS307においては、メニュー画面
M上において操作体が検出された位置の操作項目に応じ
た所要の制御処理が実行される。このステップにおける
処理は、データベース駆動部14がデータベースメモリ
15に格納されたプログラムに従って実行する。On the other hand, when it is determined in step S306 that the detection state of the operating tool detected in the immediately preceding step S304 has been maintained for a predetermined time or more, it is determined that the enter operation has been performed and step S30 is performed.
Go to 7. In step S307, a required control process according to the operation item at the position where the operation tool is detected on the menu screen M is executed. The processing in this step is executed by the database driving unit 14 according to a program stored in the database memory 15.
【0051】以下、これまで説明してきた本実施の形態
とされるゲーム装置1の基本的な構成及び入力情報の検
出方法を踏まえて、実際に本実施の形態のゲーム装置に
よって実現可能なゲームの具体例について説明する。Hereinafter, based on the basic configuration of the game apparatus 1 according to the present embodiment described above and the method of detecting input information, a game that can be actually realized by the game apparatus of the present embodiment will be described. A specific example will be described.
【0052】図7は、本実施の形態とされるゲーム装置
1を利用してゲームを行っている様子が示されている。
ここでは、後述するようにして複数のユーザがチームに
分かれて参加する対戦型ゲームを行っているものとされ
る。なお、この図において図1と同一部分については同
一番号を付して説明は省略する。また、この図7におい
て赤外線透過フィルタ4aと赤外線遮断フィルタ5aの
図示は省略されているが、図1の場合と同様にCCDカ
メラ4とプロジェクタ5に対して備えられているもので
ある。FIG. 7 shows a state in which a game is played using the game apparatus 1 according to the present embodiment.
Here, it is assumed that a plurality of users are playing a competitive game in which the users are divided into teams and participate as described later. In this figure, the same parts as those in FIG. Although the illustration of the infrared transmission filter 4a and the infrared cutoff filter 5a is omitted in FIG. 7, they are provided for the CCD camera 4 and the projector 5 as in the case of FIG.
【0053】図7において、半透明面2Aはテーブル面
として設置されている。つまり、4本のテーブル脚F,
F,F,Fにより支持される。この場合、半透明面2の
下面側に対して図示するように赤外線LEDパネル3、
CCDカメラ4、プロジェクタ5(及び制御装置6)、
送受信部20が設けられる。なお、この場合には制御装
置6の設置位置は特に半透明面2Aの下面側で有る必要
はなく、例えば半透明面2A(テーブル)の下面側のス
ペースに余裕を与えることを考慮して、これ以外の位置
に設置することも考えられる。In FIG. 7, the translucent surface 2A is provided as a table surface. That is, four table legs F,
Supported by F, F, F. In this case, the infrared LED panel 3, as shown in FIG.
CCD camera 4, projector 5 (and control device 6),
A transmission / reception unit 20 is provided. In this case, the installation position of the control device 6 does not need to be particularly on the lower surface side of the translucent surface 2A. For example, in consideration of giving a margin to the space on the lower surface side of the translucent surface 2A (table), It is also conceivable to install them in other positions.
【0054】送受信部20は、例えば次に説明する携帯
情報端末(PDA:Personal Digital Assistants )2
2から赤外線によって送信されてくるデータ信号を受信
して制御装置6に伝送したり、あるいは携帯情報端末
(以下、「PDA」という)22に対して制御装置6か
ら伝送されてくるデータ信号を赤外線によって送信する
ことが可能とされる。The transmitting / receiving unit 20 is, for example, a portable information terminal (PDA: Personal Digital Assistants) 2 described below.
2 receives the data signal transmitted by infrared from the control device 6 and transmits the data signal to the control device 6, or transmits the data signal transmitted from the control device 6 to the portable information terminal (hereinafter referred to as “PDA”) 22 Can be transmitted.
【0055】PDA22a,22bは、この場合にはチ
ームごとに1つづつ与えられ、主としてゲーム進行に関
する操作を行うために備えられる。このPDA22に
は、ユーザがゲームを進めるための所要の入力操作を行
うことができる操作部と、所用の画像を表示することが
できる表示部が設けられている。また、赤外線により送
受信を行うことができる例えば赤外線通信機能が備えら
れており、ユーザがゲームを進めるための所要の入力操
作を行った場合は、その操作に対応した操作情報を上記
制御装置6に対して送信したり、あるいは制御装置6か
ら送受信部20を介して送信されてくる各種データ信号
を受信して表示部に表示することが可能とされる。In this case, the PDAs 22a and 22b are provided one by one for each team, and are provided mainly for performing operations relating to the progress of the game. The PDA 22 is provided with an operation unit that allows a user to perform a required input operation for advancing a game, and a display unit that can display a required image. Further, for example, an infrared communication function capable of performing transmission and reception by infrared rays is provided, and when a user performs a required input operation for advancing a game, operation information corresponding to the operation is transmitted to the control device 6. , Or various data signals transmitted from the control device 6 via the transmission / reception unit 20 to be displayed on the display unit.
【0056】また、このPDA22には個体識別のため
のIDパターンが底面に貼りつけられている。このID
パターンは、後述するようにして制御装置6においてP
DA22a,22bの識別のために利用されるものであ
る。An ID pattern for individual identification is attached to the bottom of the PDA 22. This ID
The pattern is stored in the control device 6 as described below.
It is used for identifying the DAs 22a and 22b.
【0057】ここで、PDA22a,22bに底面に設
けられているIDパターンの一例を図8に示す。この図
8に示すIDパターン30aは、例えば白地のPDA2
2に対して、黒色の特定のパターンによる、いわゆる2
次元バーコードといわれる図柄により描かれている。そ
して、例えば図7に示されているユーザがPDA22
a,22bを半透明面2上においたとすると、黒色は赤
外線光を反射せずに吸収する作用を有することから、制
御装置6で得られる検出画像情報としては、ちょうど図
8に示したようなIDパターン30aの画像となる。FIG. 8 shows an example of an ID pattern provided on the bottom surface of each of the PDAs 22a and 22b. The ID pattern 30a shown in FIG.
2 is a so-called 2 by a black specific pattern.
It is drawn by a pattern called a dimensional barcode. Then, for example, the user shown in FIG.
Assuming that a and 22b are placed on the translucent surface 2, black has an action of absorbing infrared light without reflecting it, so that the detected image information obtained by the controller 6 is exactly as shown in FIG. An image of the ID pattern 30a is obtained.
【0058】ここで、このような送受信部20を備えた
本実施の形態とされるゲーム装置1の具体的な内部構成
を図9に示す。なお、この図では半透明面2Aが省略さ
れているが当然のこととして赤外線LEDパネル3、C
CDカメラ4、及びプロジェクタ5がその背面に有るよ
うに設けられているものとされる。また、図2と同一部
分には同一番号を付し説明は省略するが、本実施の形態
では対戦型ゲームの処理を実行するためのゲームプログ
ラムがデータベースメモリ15に格納されることにな
る。Here, FIG. 9 shows a specific internal configuration of the game apparatus 1 according to the present embodiment having such a transmission / reception section 20. In this figure, the translucent surface 2A is omitted, but it goes without saying that the infrared LED panels 3, C
It is assumed that the CD camera 4 and the projector 5 are provided so as to be on the rear surface thereof. Although the same parts as those in FIG. 2 are denoted by the same reference numerals and description thereof is omitted, in the present embodiment, a game program for executing the processing of the competitive game is stored in the database memory 15.
【0059】送受信部20は、PDA22から赤外線に
よって送信されてくる操作情報を受信してデータベース
駆動部14に対して供給するようにされている。そし
て、データベース駆動部14は、この操作情報に基づい
て半透明面2Aに表示するコマ21やゲームの背景画像
を画像生成部16で生成するような処理を実行させるこ
とになる。また、データベース駆動部14からデータ信
号が伝送されてきた時は、このデータ信号をPDA22
に対して送信するようにされる。The transmission / reception unit 20 receives operation information transmitted from the PDA 22 by infrared rays and supplies the operation information to the database driving unit 14. Then, the database driving unit 14 causes the image generation unit 16 to execute processing for generating the frame 21 displayed on the translucent surface 2A and the background image of the game based on the operation information. When a data signal is transmitted from the database driving unit 14, the data signal is transmitted to the PDA 22.
To be sent to.
【0060】なお、本実施に形態における送受信部20
は、赤外線によってデータ信号を送信したり、PDA2
2からの操作情報を受信する送受信部とされているが、
例えば送信先であるPDA22に電波を送受信すること
ができる送受信部が備えられている場合は、電波によっ
て空間伝送を行うことができる送受信部するというよう
に適宜変更することが可能とされる。The transmitting / receiving unit 20 in the present embodiment
Transmits data signals by infrared rays,
2 is a transmitting and receiving unit that receives the operation information from
For example, when the transmitting / receiving unit capable of transmitting / receiving a radio wave is provided to the PDA 22 as the transmission destination, it is possible to appropriately change the transmitting / receiving unit to be able to perform spatial transmission by the radio wave.
【0061】図7に示すような対戦型ゲームは、例えば
複数のユーザが2つのチーム(AチームとBチーム)に
別れて対戦形式で行うゲームとされており、この対戦型
ゲームを開始するにあたっては、まずゲームを行うため
の初期設定を行う必要がある。このため、ユーザがPD
A22に対してゲームを開始するための操作を行った場
合は初期設定モードに移行することになる。The competitive game as shown in FIG. 7 is a game in which a plurality of users are divided into two teams (Team A and Team B) and played in a competitive style. First, it is necessary to make initial settings for playing a game. Therefore, if the user
When the operation for starting the game is performed on A22, the mode shifts to the initial setting mode.
【0062】初期設定モードにおいては、例えば先ずゲ
ームに使用するコマ21a,21bをAチーム又はBチ
ームに分けるためのメッセージが表示される。そして、
ユーザが例えばPDA22a,22bからコマ21a,
21bのチーム分けを行うための所定の入力操作を行う
ことで、制御装置6では、Aチームとして設定されたコ
マ21aに対してAチームに対応するグループIDを付
与すると共に、Bチームとされたコマ21bに対しては
Bチームに対応するグループIDを付与して保持するこ
とになる。In the initial setting mode, for example, a message for dividing the frames 21a and 21b used in the game into the A team or the B team is displayed. And
For example, when the user sends the frames 21a,
By performing a predetermined input operation for classifying the team 21b, the control device 6 assigns the group ID corresponding to the team A to the frame 21a set as the team A and sets the frame 21 as the team B. A group ID corresponding to the team B is assigned to the top 21b and held.
【0063】このようにして、ゲームに使用するコマ2
1a,21bに対してグループIDが付与されると、次
に例えばゲームに使用されるPDA22a,22bのチ
ーム分けを行うためのメッセージが表示される。この場
合ゲーム装置では、例えば始めにAチームに属すること
になるPDAを設定するモードに移行するものとされ、
このモード状態のもとでAチームのユーザがメッセージ
に従ってAチームが使用するPDA22aを、そのPD
A22aの底面に貼りつけられているIDパターンを制
御装置6が認識できるように半透明面2A上に載置す
る。これにより、制御装置6はAチームに属することに
なるPDA22aのIDパターンを認識して、このID
パターンとAチームのグループIDを対応させて保持す
ることになる。Thus, the frame 2 used in the game is
When the group IDs are assigned to 1a and 21b, a message for dividing the PDAs 22a and 22b used for the game into teams is displayed next. In this case, in the game device, for example, it is assumed that the mode shifts to a mode for setting a PDA that initially belongs to team A,
In this mode state, the user of team A reads the PDA 22a used by team A according to the message,
The ID pattern attached to the bottom surface of A22a is placed on translucent surface 2A so that control device 6 can recognize the ID pattern. Thereby, the control device 6 recognizes the ID pattern of the PDA 22a belonging to the team A, and
The pattern and the group ID of team A are held in association with each other.
【0064】例えば、続いてBチームが使用するPDA
を設定するモードでは、上記と同様にしてBチームのユ
ーザがPDA22bの底面に貼りつけられているIDパ
ターンを制御装置6が認識できるように半透明面2A上
に載置する。これにより、制御装置6はPDA22bの
IDパターンを認識してこのIDパターンとBチームの
グループIDを対応させて保持することになる。For example, a PDA subsequently used by Team B
In the mode for setting, the user of team B is placed on the translucent surface 2A so that the control device 6 can recognize the ID pattern attached to the bottom surface of the PDA 22b in the same manner as described above. Thus, the control device 6 recognizes the ID pattern of the PDA 22b and holds the ID pattern and the group ID of the team B in association with each other.
【0065】なお、上記したようなPDA22a,21
bのグループIDの設定は、ユーザがPDA22を半透
明面2A上に置くことなく、例えばPDA22aから所
定の操作を行い、上記IDパターンと同様、PDAを特
定するためのIDコード情報を送信するようにして設定
することも可能である。The PDA 22a, 21 as described above
The setting of the group ID b is performed by, for example, performing a predetermined operation from the PDA 22a without the user placing the PDA 22 on the translucent surface 2A, and transmitting ID code information for specifying the PDA in the same manner as the ID pattern. It is also possible to set as.
【0066】また、本実施の形態においては、PDA2
2a,22bがチームごとに1つづつ与えられているも
のとして説明しているが、例えば各チームに複数のユー
ザが参加している場合は、各チームごとに複数のPDA
22a,22bを設けるようにすることも可能とされ
る。In the present embodiment, PDA2
Although 2a and 22b are described as being provided one by one for each team, for example, when a plurality of users participate in each team, a plurality of PDAs are provided for each team.
It is also possible to provide 22a, 22b.
【0067】このようにして初期設定が行われた後、ゲ
ームが開始されるものとされ、例えば図7に示すような
各チームのコマ21a,21bや背景画像といったゲー
ム画像が半透明面2Aに表示されることになる。そし
て、各チームに別れたユーザがPDA22を操作しなが
ら、予め決められたルールに従ってゲームを進めていく
ことになる。このようなゲームの進行は、PDA22か
らの操作情報に基づいて、制御装置6が例えば半透明面
2Aに表示されるコマ21を進めていく等の表示制御な
どを実行することで実現される。After the initial setting is performed in this manner, the game is started. For example, as shown in FIG. 7, game images such as the frames 21a and 21b of each team and background images are displayed on the translucent surface 2A. Will be displayed. Then, the user who has separated into each team proceeds with the game according to a predetermined rule while operating the PDA 22. The progress of such a game is realized by the control device 6 executing display control such as advancing the frame 21 displayed on the translucent surface 2A based on the operation information from the PDA 22.
【0068】このようにゲームが進行している途中で、
例えばAチームのユーザが個別情報(チームごとに特有
のゲームに関する情報で対戦相手チームに知られてはな
らない情報)を得たい場合は、AチームのユーザがPD
A22aを自チームのコマ21aの上に載置にする。こ
の場合制御装置6は、このPDA22aの底面に貼りつ
けられているIDパターン30aの画像を入力情報とし
て識別し、この識別した入力情報の座標位置を検出す
る。そしてこの検出した入力情報の座標位置に基づい
て、例えばPDA22aの座標位置が半透明面2A上に
表示されるコマ21aの座標位置と一致すると判別し、
且つ、PDA22aとコマ21aのチームが一致すると
判別した時に、例えばそのコマ21aに与えられている
個別情報をPDA22aにおいてのみ受信させるように
送信することで、Aチームの個別情報がPDA22aの
表示画面にのみ表示されることになる。As described above, while the game is in progress,
For example, if the user of team A wants to obtain individual information (information related to a game unique to each team and must not be known to the opponent team), the user of team A needs
A22a is placed on the top 21a of the own team. In this case, the control device 6 identifies the image of the ID pattern 30a attached to the bottom surface of the PDA 22a as input information, and detects the coordinate position of the identified input information. Then, based on the detected coordinate position of the input information, for example, it is determined that the coordinate position of the PDA 22a matches the coordinate position of the frame 21a displayed on the translucent surface 2A,
Further, when it is determined that the team of the PDA 22a and the team of the frame 21a match, for example, by transmitting the individual information given to the frame 21a so as to be received only by the PDA 22a, the individual information of the team A is displayed on the display screen of the PDA 22a. Only will be displayed.
【0069】これは例えば制御装置6から送受信部20
を介して個別情報を送信する時に、PDA22aに対し
て送信する個別情報に送信先のPDA22aを特定する
ためのID情報を付加すればよい。これによりPDA2
2a,22bは制御装置6からの送信信号を受信するこ
とになるが、PDA22a,22bは先ず送信信号に含
まれるID情報を識別する。ここで、例えばBチームの
PDA22bにおいては識別したID情報が自身の有す
るIDと一致しないため、以降のデータ取り込み処理が
行われない。これに対して、送信信号のID情報と自身
のID情報が一致したPDA22aにおいては、受信信
号から個別情報を抽出して取り込み個別情報を提示する
ための表示を行うように動作することになる。This is performed, for example, from the control device 6 to the transmission / reception unit 20.
When transmitting the individual information via the PDA 22a, ID information for specifying the PDA 22a of the transmission destination may be added to the individual information transmitted to the PDA 22a. This allows PDA2
2a and 22b receive the transmission signal from the control device 6, and the PDAs 22a and 22b first identify the ID information included in the transmission signal. Here, for example, in the PDA 22b of the team B, since the identified ID information does not match the own ID, the subsequent data fetch process is not performed. On the other hand, in the PDA 22a in which the ID information of the transmission signal matches the ID information of the PDA 22a, the PDA 22a operates so as to extract the individual information from the received signal, display the acquired individual information.
【0070】このように本実施の形態とされるゲーム装
置においては、比較的大画面として構成することができ
る半透明面上2Aに全体のゲーム画像を表示すると共
に、各チームごとに関する個別情報をPDA22の表示
画面上に表示させるようにしている。このためユーザは
通常、比較的大画面とされる半透明面2A上に表示され
るゲーム画像を見ながらゲームを進行させていくことに
なるため、臨場感のあるゲームを楽しむことができると
共に、PDA22a,22bの表示画面上にチームごと
の個別情報が表示されるので、相手チームにわからない
ようにチームごとに作戦を立てるといったことが可能に
なり、対戦型ゲームをより楽しく行うことができるよう
になる。As described above, in the game device according to the present embodiment, the entire game image is displayed on the translucent surface 2A which can be configured as a relatively large screen, and individual information on each team is displayed. It is displayed on the display screen of the PDA 22. Therefore, the user normally proceeds with the game while watching the game image displayed on the translucent surface 2A, which is a relatively large screen, so that the user can enjoy a realistic game, Since individual information for each team is displayed on the display screens of the PDAs 22a and 22b, it is possible to make a strategy for each team so that the opponent team does not know it, so that the competitive game can be played more enjoyably. Become.
【0071】次に、上記したような対戦型ゲームを実行
する場合の制御装置6の処理動作例について説明する。
上記したような対戦型ゲームを実行するにあたっては、
先ず前述したように初期設定としてゲームに使用するコ
マ21(半透明面2A上にプロジェクタ5から投影表示
される)及びPDA22を各チームごとに分けることが
行われるが、先ずこの時の処理動作を図10に示すフロ
ーチャートを参照して簡単に説明する。Next, a description will be given of an example of the processing operation of the control device 6 when the above-mentioned battle type game is executed.
When running a competitive game as described above,
First, as described above, the frames 21 (projected and displayed on the translucent surface 2A from the projector 5) and the PDA 22 used for the game are divided into the teams as the initial settings. First, the processing operation at this time is described. This will be briefly described with reference to the flowchart shown in FIG.
【0072】この場合、制御装置6は、先ずコマ21の
グループIDを付与するためのモードとなり、ステップ
S401において、半透明面2A上にゲームに使用する
全てのコマ21に付与するための処理動作を実行する。
このような処理動作は、制御装置6のデータベース駆動
部14がデータベースメモリ15に格納されているプロ
グラムに基づいて、画像生成部16においてコマ21の
画像データを生成することで実現されることになる。In this case, the control device 6 first enters a mode for assigning the group ID of the frame 21. In step S401, the processing operation for assigning all the frames 21 used in the game on the translucent surface 2A is performed. Execute
Such a processing operation is realized when the database driving unit 14 of the control device 6 generates the image data of the frame 21 in the image generating unit 16 based on the program stored in the database memory 15. .
【0073】そしてステップS402において、半透明
面2A上に表示されたコマ21に対してチームのグルー
プIDを付与するための処理動作を実行することにな
る。この処理動作としては、まずデータベース駆動部1
4がデータベースメモリ15に格納されているプログラ
ムに基づいて、画像生成部16においてゲームに使用す
るコマ21をAチーム又はBチームに分けるためのメッ
セージ画像を生成し、このメッセージ画像をプロジェク
タ5から半透明面2Aに対して投影表示させるような制
御を実行する。そして、これに応答して送受信部20で
受信された操作情報に基づいて、例えばAチームとされ
たコマ21aに対してAチームのグループIDを付与す
ると共に、Bチームとされたコマ21bに対してはBチ
ームのグループIDを付与してデータベースメモリ15
に保持させることで実現することができる。Then, in step S402, a processing operation for assigning the group ID of the team to the frame 21 displayed on the translucent surface 2A is executed. As this processing operation, first, the database driving unit 1
4, based on the program stored in the database memory 15, generates a message image for dividing the frame 21 used in the game into the A team or the B team in the image generation unit 16, The control for projecting and displaying on the transparent surface 2A is executed. In response to this, based on the operation information received by the transmission / reception unit 20, for example, the group ID of the team A is given to the frame 21a of the team A, and the group 21b of the team B is given to the frame 21b. To the database memory 15
Can be realized by having
【0074】上記のようにしてコマ21に対してグルー
プIDを付与した後は、PDA22に対してグループI
Dを付与するためのモードとなり、ステップS403に
移行することになる。ステップS403において、デー
タベース駆動部14はゲームに使用するPDA22に対
してグループIDを付与するための処理動作を実行する
ことになる。この処理動作としては、データベース駆動
部14がデータベースメモリ15に格納されているプロ
グラムに基づいて、画像生成部16において例えばゲー
ムに使用されるPDAのチーム分けを行うためのメッセ
ージ画像を生成し、このメッセージ画像をプロジェクタ
5から半透明面2Aに対して投影表示させるような制御
を実行する。そして、これに応答してユーザがPDA2
2a,22bをIDパターン30aを認識できるように
半透明面2A上に載置することで入力画像処理部12か
ら得られることになるPDA22a,22bのIDパタ
ーンを認識して、このIDパターンのID情報とグルー
プIDを対応させてデータベースメモリ15に保持する
ことで実現される。After the group ID is assigned to the frame 21 as described above, the group I is assigned to the PDA 22.
The mode becomes the mode for providing D, and the process proceeds to step S403. In step S403, the database driving unit 14 executes a processing operation for assigning a group ID to the PDA 22 used for the game. In this processing operation, the database driving unit 14 generates a message image for performing PDA teaming used in a game, for example, in the image generation unit 16 based on a program stored in the database memory 15. Control is performed such that the message image is projected and displayed from the projector 5 on the translucent surface 2A. Then, in response to this, the user sets the PDA2
By mounting the 2a and 22b on the translucent surface 2A so that the ID pattern 30a can be recognized, the ID patterns of the PDAs 22a and 22b obtained from the input image processing unit 12 are recognized, and the IDs of the ID patterns are recognized. This is realized by storing the information and the group ID in the database memory 15 in association with each other.
【0075】なお、各チームに属することになるPDA
22a,22bが複数ある場合でも、当該ゲーム装置1
の入力画像処理部12において検出される検出画像情報
は、先に説明したような半透明面2A側から赤外線の反
射光により得られるため、半透明面2A上に複数のPD
A22a,22bを載置した場合でも同時に複数のID
パターン30aを認識することが可能とされる。The PDA belonging to each team
Even if there are a plurality of game devices 22a and 22b,
Since the detected image information detected by the input image processing unit 12 is obtained from the translucent surface 2A by the infrared reflected light as described above, a plurality of PDs are placed on the translucent surface 2A.
Even if A22a and 22b are placed, multiple IDs
The pattern 30a can be recognized.
【0076】上記のようにして初期設定が行われた後、
本実施の形態とされる対戦型ゲームが開始され、ユーザ
がPDA22a,22bの操作を行うと、PDA22
a,22bから操作情報が送信されることになる。そし
て、制御装置6はPDA22a,22bから送信されて
くる操作情報に基づいて、対応するコマ21a,21b
を進めるといった表示制御を実行することになる。この
ような処理動作は、データベース駆動部14がPDA2
2a,22bから操作情報に含まれているID情報を識
別し、データベースメモリ15に保持しているID情報
とグループIDとの対応テーブルから対応するグループ
のコマ21a,21bを判別して表示を制御することで
実現される。After the initial setting is performed as described above,
When the competitive game according to the present embodiment is started and the user operates the PDA 22a, 22b, the PDA 22
Operation information is transmitted from a and 22b. Then, the control device 6 determines the corresponding frames 21a, 21b based on the operation information transmitted from the PDAs 22a, 22b.
Is performed. Such a processing operation is performed when the database driving unit 14
The ID information included in the operation information is identified from 2a and 22b, and the frames 21a and 21b of the corresponding group are determined from the correspondence table between the ID information and the group ID held in the database memory 15 to control the display. It is realized by doing.
【0077】ここで例えばAチームのユーザがPDA2
2aをコマ21a上に載置した場合、すなわち上述した
ようにユーザが自チームのコマ21に与えられている個
別情報を表示させるための操作が行われた場合の制御装
置6における処理動作を図11に示すフローチャートを
参照して説明する。Here, for example, when the user of the team A is PDA2
2A illustrates the processing operation of the control device 6 when the 2a is placed on the top 21a, that is, when the user performs an operation for displaying the individual information given to the top 21 of the own team as described above. This will be described with reference to the flowchart shown in FIG.
【0078】この場合ステップS501において、制御
装置6は検出画像情報に基づいて得られる入力情報とし
て何らかのIDパターン30aが認識されるのを待機し
ており、ここでIDパターン30aが認識されたと判別
されると、ステップS502に進んでステップS501
において認識したIDパターン30aの検出画像情報上
における位置情報posを検出することになる。In this case, in step S501, the control device 6 waits for any ID pattern 30a to be recognized as input information obtained based on the detected image information. Here, it is determined that the ID pattern 30a has been recognized. Then, the process proceeds to step S502 and proceeds to step S501.
Then, the position information pos on the detected image information of the ID pattern 30a recognized in is detected.
【0079】ステップS502において、IDパターン
30aの位置情報posを検出するとステップS503
に進んで、この位置情報posと半透明面2A上に表示
しているコマ21の座標位置が一致しているかどうか判
別することになる。ここで、IDパターン30aの位置
情報posと半透明面2A上に表示しているコマ21の
座標位置が一致すると判別した場合は、ステップS50
4に進んで、位置情報posを検出したIDパターン3
0aによって特定されるPDA22のグループIDと、
このPDA22aが載置された位置に対応するコマ21
のグループIDが一致するかどうかの判別を行うことに
なる。When the position information pos of the ID pattern 30a is detected in step S502, step S503 is performed.
Then, it is determined whether or not the position information pos matches the coordinate position of the frame 21 displayed on the translucent surface 2A. If it is determined that the position information pos of the ID pattern 30a matches the coordinate position of the frame 21 displayed on the translucent surface 2A, the process proceeds to step S50.
4, the ID pattern 3 where the position information pos is detected
0a, the group ID of the PDA 22 specified by
The frame 21 corresponding to the position where the PDA 22a is placed
It is determined whether or not the group IDs match.
【0080】ステップS504において、PDA22a
とコマ21のグループIDが一致すると判別した場合
は、ステップS505に進んで対応するPDA22aに
対してコマ21aの固有の個別情報を送信するような制
御を実行することになる。この場合、制御装置6から送
信される送信信号は、例えば対応するコマ21aに対応
する個別情報に、コマ21aの表示位置に置かれたPD
A22aを示すID情報を付加して送信するようにされ
る。これにより前述したようにコマ21aの表示位置に
置かれたPDAのみ個別情報を受信して表示することが
できる。In step S504, the PDA 22a
If it is determined that the group ID of the frame 21 matches the group ID of the frame 21, the process proceeds to step S505, and control is performed to transmit the individual information unique to the frame 21a to the corresponding PDA 22a. In this case, the transmission signal transmitted from the control device 6 includes, for example, the PD placed at the display position of the frame 21a in the individual information corresponding to the corresponding frame 21a.
ID information indicating A22a is transmitted. As a result, as described above, only the PDA placed at the display position of the frame 21a can receive and display the individual information.
【0081】一方、ステップS503において、IDパ
ターン30aの位置情報posと表示するコマ21の位
置情報が一致しないと判別した場合、あるいはステップ
S504において、PDA22aと、このPDA22a
が載置された位置に対応するコマ21のグループIDが
一致しないと判別した場合は、コマ21aの個別情報を
送信することなくもとのルーチンに戻ることになる。On the other hand, if it is determined in step S503 that the position information pos of the ID pattern 30a does not match the position information of the frame 21 to be displayed, or in step S504, the PDA 22a and this PDA 22a
If it is determined that the group ID of the frame 21 corresponding to the position on which the is mounted does not match, the routine returns to the original routine without transmitting the individual information of the frame 21a.
【0082】ところで、上述したような本実施の形態で
は、テーブルの下側に少なくとも赤外線LEDパネル
3、CCDカメラ4、プロジェクタ5を配置してやる必
要があるが、例えば床からテーブル面(半透明面2A)
までの高さ(距離)はさほど多く取ることができないた
め、CCDカメラ4やプロジェクタ5が半透明面2A全
体をカバーできるのに必要な直線距離を得ることが難し
い場合が生じる。そこで、この場合は図11に示すよう
に半透明面2A(テーブル面)の下側に光路を反射によ
り変更させるミラーMRを配置させ、赤外線LEDパネ
ル3、CCDカメラ4、及びプロジェクタ5などの装置
はテーブルの横側に配置することが考えられる。In the present embodiment as described above, it is necessary to arrange at least the infrared LED panel 3, the CCD camera 4, and the projector 5 below the table, but, for example, from the floor to the table surface (semi-transparent surface 2A). )
Since the height (distance) cannot be so large, it may be difficult to obtain a linear distance necessary for the CCD camera 4 and the projector 5 to cover the entire translucent surface 2A. Therefore, in this case, as shown in FIG. 11, a mirror MR for changing the optical path by reflection is arranged below the translucent surface 2A (table surface), and devices such as an infrared LED panel 3, a CCD camera 4, and a projector 5 are arranged. May be arranged on the side of the table.
【0083】なお、ミラーMRの代わりに、所定の光透
過率と反射率が設定されたハーフミラーMRを用いるこ
とも考えられる。このようなハーフミラーMRを用いた
場合には、例えば、赤外線LEDパネル3はテーブルの
横側に配置せずに、テーブル下部の床面部分に設置する
ことなどが可能となってそれだけ設置自由度が高くな
る。It is conceivable to use a half mirror MR having a predetermined light transmittance and reflectance set in place of the mirror MR. When such a half mirror MR is used, for example, the infrared LED panel 3 can be installed on the floor portion below the table without being arranged on the side of the table, and the degree of freedom of installation can be increased accordingly. Will be higher.
【0084】ところで、本実施の形態のゲーム装置に適
用される表示装置1としては、図1に示す構成におい
て、例えば赤外線LEDパネル3の代わりにマイクロ波
発生器を設け、また、CCDカメラ4の代わりにマイク
ロ波受信器を設けて構成することも考えられる。この場
合、図2に示す制御装置6においては、LED駆動部1
0(図1参照)の代わりに、マイクロ波発生器を駆動す
るためのマイクロ波駆動回路が備えられる。また、マイ
クロ波受信器から供給される受信マイクロ波を入力して
例えば所定形式のデータに変換して出力する画像信号入
力回路と、この画像信号入力回路から供給されるマイク
ロ波の受信データを入力して所要の処理を行うことによ
り、例えば検出画像情報を得ると共にこの検出画像情報
に基づいて操作情報を得る入力データ処理回路が設けら
れる必要がある。画像信号入力回路及び入力データ処理
回路は、それぞれ図2に示す画像入力部11及び入力画
像処理部12に代わる機能回路部である。また、操作情
報検出用の媒体としてマイクロ波を利用するため、CC
Dカメラ4に備えられた赤外線透過フィルタ4aや、プ
ロジェクタ5に備えられた赤外線遮断フィルタ5aは不
要となる。By the way, as the display device 1 applied to the game device of the present embodiment, for example, a microwave generator is provided instead of the infrared LED panel 3 in the configuration shown in FIG. Instead, a microwave receiver may be provided. In this case, in the control device 6 shown in FIG.
Instead of 0 (see FIG. 1), a microwave drive circuit for driving the microwave generator is provided. Also, an image signal input circuit that receives a microwave supplied from a microwave receiver, converts the received microwave into, for example, data in a predetermined format, and outputs the received signal. Then, it is necessary to provide an input data processing circuit which obtains detected image information and obtains operation information based on the detected image information by performing required processing. The image signal input circuit and the input data processing circuit are functional circuit units that replace the image input unit 11 and the input image processing unit 12 shown in FIG. 2, respectively. In addition, since microwaves are used as a medium for detecting operation information,
The infrared transmission filter 4a provided in the D camera 4 and the infrared cutoff filter 5a provided in the projector 5 become unnecessary.
【0085】このように、それが照射された物体に反射
する性質を有するマイクロ波のような媒体を操作情報の
検出に利用するように構成しても、これまで説明してき
た実施の形態(赤外線を操作情報の検出に利用した例)
と同様にして本発明としてのゲーム装置を構成すること
が可能である。As described above, even when a medium such as a microwave having the property of reflecting the object irradiated with the medium is used for detecting the operation information, the embodiment described so far (infrared ray Example of using to detect operation information)
It is possible to configure the game device as the present invention in the same manner as described above.
【0086】なお、上記した本発明のゲーム装置で実行
可能とされるゲームは、あくまでも一例であり、これに
限定されることなく他にも各種考えられるものである。
また、本実施の形態においては音声出力系の説明は省略
したが、各種ゲーム音声の出力を行うことは可能であ
る。また、本実施の形態においては、半透明面2が水平
に設置してある状態(テーブル状)とした場合について
説明したきたが、本発明としての半透明面2の機能(表
示パネル機能及び操作パネル機能)を考慮すればこれに
限定されることなく、半透明面2を球面状などの曲面と
して形成することも可能である。The game that can be executed by the game device of the present invention is merely an example, and the present invention is not limited to this, and various other games can be considered.
Although the description of the audio output system is omitted in the present embodiment, it is possible to output various game sounds. Also, in the present embodiment, the case where the translucent surface 2 is set horizontally (table shape) has been described, but the function of the translucent surface 2 (display panel function and operation) as the present invention is described. The translucent surface 2 can be formed as a curved surface such as a spherical surface without being limited to this, in consideration of the panel function).
【0087】また、本実施の形態においては、制御装置
6からデータ信号を送受信部20から赤外線を用いて送
信する場合について説明したが、例えば赤外線LEDパ
ネル3から発光出力されるLEDの発光強度を変化させ
ることによって、赤外線LEDパネル3を送信部として
機能させることも可能である。Further, in the present embodiment, a case has been described where the data signal is transmitted from the control device 6 using the infrared rays from the transmission / reception section 20. By changing it, the infrared LED panel 3 can also function as a transmission unit.
【0088】[0088]
【発明の効果】以上、説明したように本発明は、例えば
半透明面に近づいた物理的対象によって撮像手段に入射
する光又は電磁波の状態が変化するのであるが、このよ
うな光又は電磁波の状態変化を画像情報として捉えるこ
とになる。そして、このようにして得られる操作情報に
応じて外部操作装置に対して所要の情報信号を送信する
ことが可能とされる。そして、半透明面に対して投影表
示手段から画像を投影表示することによって、情報入力
パネル兼表示パネルとして機能させるようにしている。
従って、この半透明面上にゲームの全体画像を表示する
と共に、外部操作装置を半透明面上に載置した際に得ら
れるIDパターンの認識情報(例えばその位置情報も含
む)に基づいて、外部操作装置に個別情報を送信するこ
とができるようになり、対戦型ゲームをより楽しく行う
ことができるようになる。As described above, according to the present invention, the state of light or electromagnetic waves incident on the imaging means changes depending on, for example, a physical object approaching a translucent surface. The state change is captured as image information. Then, a required information signal can be transmitted to the external operation device according to the operation information obtained in this manner. Then, an image is projected and displayed from the projection display means on the translucent surface, so as to function as an information input panel and a display panel.
Therefore, the entire image of the game is displayed on the translucent surface, and based on the ID pattern recognition information (for example, including its position information) obtained when the external operation device is placed on the translucent surface, The individual information can be transmitted to the external operation device, so that the competitive game can be played more enjoyably.
【0089】また、上記のように情報入力パネル兼表示
パネルとされる半透明面としては、例えば単に半透明性
を有するプレート状の材を用いれば良いことから、例え
ば従来のCRT、液晶ディスプレイなどの表示デバイス
やタッチパネル(タブレット)などの入力装置を組み合
わせて大型化を図る場合に比べて、より簡易な構成で実
現することができる。Further, as the translucent surface serving as both the information input panel and the display panel as described above, for example, a plate-like material having translucency may be simply used. For example, a conventional CRT, liquid crystal display, etc. This can be realized with a simpler configuration than in a case where a display device or an input device such as a touch panel (tablet) is combined to increase the size.
【図1】本発明の実施の形態としてのゲーム装置の基本
的な構成例を示す概念図である。FIG. 1 is a conceptual diagram showing a basic configuration example of a game device as an embodiment of the present invention.
【図2】図1に示すゲーム装置に備えられる制御装置の
内部構成を示す図である。FIG. 2 is a diagram showing an internal configuration of a control device provided in the game device shown in FIG.
【図3】基準入力画像レベルを検出及び保持するための
処理動作を示すフローチャートである。FIG. 3 is a flowchart illustrating a processing operation for detecting and holding a reference input image level.
【図4】検出画像情報を生成するための処理動作を示す
フローチャートである。FIG. 4 is a flowchart illustrating a processing operation for generating detected image information.
【図5】図1に示すゲーム装置の利用例としてメニュー
画面に対する操作例を示す説明図である。FIG. 5 is an explanatory diagram showing an operation example on a menu screen as a usage example of the game device shown in FIG. 1;
【図6】図5に示すメニュー画面に対する操作を実現す
るための処理動作を示すフローチャートである。FIG. 6 is a flowchart showing a processing operation for realizing an operation on the menu screen shown in FIG. 5;
【図7】本実施の形態のゲーム装置において対戦型ゲー
ムを実行させた時に半透明面に表示される表面画像を示
した図である。FIG. 7 is a diagram showing a front surface image displayed on a semi-transparent surface when a competitive game is executed in the game device of the embodiment.
【図8】IDパターンの一例を示した図である。FIG. 8 is a diagram showing an example of an ID pattern.
【図9】本発明の実施の形態としてのゲーム装置に備え
られる制御装置の内部構成を示す図である。FIG. 9 is a diagram showing an internal configuration of a control device provided in the game device according to the embodiment of the present invention.
【図10】本発明の実施の形態としてのゲーム装置で対
戦型ゲームを実行した時の初期設定時の処理動作を示す
フローチャートである。FIG. 10 is a flowchart showing a processing operation at an initial setting when a competitive game is executed by the game device according to the embodiment of the present invention;
【図11】本発明の実施の形態としてのゲーム装置で対
戦型ゲームを実行した時の個別情報を表示させるための
処理動作を示すフローチャートである。FIG. 11 is a flowchart showing a processing operation for displaying individual information when a competitive game is executed in the game device according to the embodiment of the present invention.
【図12】本実施の形態のゲーム装置に適用される表示
装置の他の配置例を示した図である。FIG. 12 is a diagram showing another arrangement example of the display device applied to the game device of the present embodiment.
1 表示装置、2 半透明面、3 赤外線LEDパネ
ル、4 CCDカメラ、5 プロジェクタ、6 制御装
置、10 LED駆動部、11 画像入力部、12 入
力画像処理部、13 しきい値制御部、14 データベ
ース駆動部、15データベースメモリ、16 画像生成
部、17 画像合成部、18 RGB信号生成部、20
送受信部、21 コマ、22 PDAReference Signs List 1 display device, 2 translucent surface, 3 infrared LED panel, 4 CCD camera, 5 projector, 6 control device, 10 LED drive unit, 11 image input unit, 12 input image processing unit, 13 threshold control unit, 14 database Drive unit, 15 database memory, 16 image generation unit, 17 image synthesis unit, 18 RGB signal generation unit, 20
Transceiver, 21 frames, 22 PDAs
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9220498AJPH1157216A (en) | 1997-08-15 | 1997-08-15 | Game device |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9220498AJPH1157216A (en) | 1997-08-15 | 1997-08-15 | Game device |
| Publication Number | Publication Date |
|---|---|
| JPH1157216Atrue JPH1157216A (en) | 1999-03-02 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9220498AWithdrawnJPH1157216A (en) | 1997-08-15 | 1997-08-15 | Game device |
| Country | Link |
|---|---|
| JP (1) | JPH1157216A (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003099196A (en)* | 2001-09-20 | 2003-04-04 | Ricoh Co Ltd | Image projection device for supporting meetings |
| US6788289B2 (en) | 2000-02-08 | 2004-09-07 | Seiko Epson Corporation | System and method of pointed position detection system, projector and program |
| WO2004088496A1 (en)* | 2003-03-31 | 2004-10-14 | Toshiba Matsushita Display Technology Co., Ltd. | Display device and information terminal device |
| JP2005261643A (en)* | 2004-03-18 | 2005-09-29 | Sony Computer Entertainment Inc | Information processor and entertainment system |
| JP2005266014A (en)* | 2004-03-16 | 2005-09-29 | Tokyo Institute Of Technology | Image recognition apparatus, method and program for visually handicapped person |
| JP2006178205A (en)* | 2004-12-22 | 2006-07-06 | Olympus Imaging Corp | Digital platform device |
| JP2006190268A (en)* | 2004-12-31 | 2006-07-20 | Samsung Electronics Co Ltd | Touch position detection device, touch position detection method, and touch screen display device |
| JP2008033845A (en)* | 2006-07-31 | 2008-02-14 | Sharp Corp | Input device, display device, control method, and program |
| JPWO2006059611A1 (en)* | 2004-12-03 | 2008-06-05 | 株式会社セガ | Game device |
| JP2008276219A (en)* | 2008-04-15 | 2008-11-13 | Olympus Imaging Corp | Digital platform device |
| JP2008279046A (en)* | 2007-05-10 | 2008-11-20 | Taito Corp | Game machine equipped with movable card holder |
| JP2009066350A (en)* | 2007-09-18 | 2009-04-02 | Namco Bandai Games Inc | Program, information storage medium, and dialogue output judgment control device |
| JP2010063844A (en)* | 2008-09-12 | 2010-03-25 | Sega Corp | Game apparatus |
| JP2010063843A (en)* | 2008-09-12 | 2010-03-25 | Sega Corp | Game device |
| JP2010068878A (en)* | 2008-09-16 | 2010-04-02 | Sega Corp | Game apparatus and pattern matching method therefor |
| JP2010539590A (en)* | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | Gesture-based user interaction processing |
| JP2011043855A (en)* | 2010-11-22 | 2011-03-03 | Olympus Imaging Corp | Digital platform device |
| JP2011060337A (en)* | 2004-08-31 | 2011-03-24 | Panasonic Electric Works Co Ltd | Gesture switch |
| US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
| US9229107B2 (en) | 2007-11-12 | 2016-01-05 | Intellectual Ventures Holding 81 Llc | Lens system |
| US9247236B2 (en) | 2008-03-07 | 2016-01-26 | Intellectual Ventures Holdings 81 Llc | Display with built in 3D sensing capability and gesture control of TV |
| JP2018055708A (en)* | 2017-11-30 | 2018-04-05 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6788289B2 (en) | 2000-02-08 | 2004-09-07 | Seiko Epson Corporation | System and method of pointed position detection system, projector and program |
| JP2003099196A (en)* | 2001-09-20 | 2003-04-04 | Ricoh Co Ltd | Image projection device for supporting meetings |
| US7522149B2 (en) | 2003-03-31 | 2009-04-21 | Toshiba Matsushita Display Technology Co., Ltd. | Display device and information terminal device |
| WO2004088496A1 (en)* | 2003-03-31 | 2004-10-14 | Toshiba Matsushita Display Technology Co., Ltd. | Display device and information terminal device |
| JP2005266014A (en)* | 2004-03-16 | 2005-09-29 | Tokyo Institute Of Technology | Image recognition apparatus, method and program for visually handicapped person |
| JP2005261643A (en)* | 2004-03-18 | 2005-09-29 | Sony Computer Entertainment Inc | Information processor and entertainment system |
| JP2011060337A (en)* | 2004-08-31 | 2011-03-24 | Panasonic Electric Works Co Ltd | Gesture switch |
| JPWO2006059611A1 (en)* | 2004-12-03 | 2008-06-05 | 株式会社セガ | Game device |
| EP1818087B1 (en)* | 2004-12-03 | 2016-01-20 | SEGA Games Co., Ltd. | Gaming machine |
| JP2011240147A (en)* | 2004-12-03 | 2011-12-01 | Sega Corp | Game machine |
| JP2006178205A (en)* | 2004-12-22 | 2006-07-06 | Olympus Imaging Corp | Digital platform device |
| US7535489B2 (en) | 2004-12-22 | 2009-05-19 | Olympus Imaging Corp. | Digital platform apparatus |
| JP2006190268A (en)* | 2004-12-31 | 2006-07-20 | Samsung Electronics Co Ltd | Touch position detection device, touch position detection method, and touch screen display device |
| US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
| JP2008033845A (en)* | 2006-07-31 | 2008-02-14 | Sharp Corp | Input device, display device, control method, and program |
| JP2008279046A (en)* | 2007-05-10 | 2008-11-20 | Taito Corp | Game machine equipped with movable card holder |
| US9058058B2 (en) | 2007-09-14 | 2015-06-16 | Intellectual Ventures Holding 67 Llc | Processing of gesture-based user interactions activation levels |
| US10990189B2 (en) | 2007-09-14 | 2021-04-27 | Facebook, Inc. | Processing of gesture-based user interaction using volumetric zones |
| US10564731B2 (en) | 2007-09-14 | 2020-02-18 | Facebook, Inc. | Processing of gesture-based user interactions using volumetric zones |
| US9811166B2 (en) | 2007-09-14 | 2017-11-07 | Intellectual Ventures Holding 81 Llc | Processing of gesture-based user interactions using volumetric zones |
| JP2010539590A (en)* | 2007-09-14 | 2010-12-16 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | Gesture-based user interaction processing |
| JP2009066350A (en)* | 2007-09-18 | 2009-04-02 | Namco Bandai Games Inc | Program, information storage medium, and dialogue output judgment control device |
| US9229107B2 (en) | 2007-11-12 | 2016-01-05 | Intellectual Ventures Holding 81 Llc | Lens system |
| US9247236B2 (en) | 2008-03-07 | 2016-01-26 | Intellectual Ventures Holdings 81 Llc | Display with built in 3D sensing capability and gesture control of TV |
| US10831278B2 (en) | 2008-03-07 | 2020-11-10 | Facebook, Inc. | Display with built in 3D sensing capability and gesture control of tv |
| JP2008276219A (en)* | 2008-04-15 | 2008-11-13 | Olympus Imaging Corp | Digital platform device |
| JP2010063844A (en)* | 2008-09-12 | 2010-03-25 | Sega Corp | Game apparatus |
| JP2010063843A (en)* | 2008-09-12 | 2010-03-25 | Sega Corp | Game device |
| JP2010068878A (en)* | 2008-09-16 | 2010-04-02 | Sega Corp | Game apparatus and pattern matching method therefor |
| JP2011043855A (en)* | 2010-11-22 | 2011-03-03 | Olympus Imaging Corp | Digital platform device |
| JP2018055708A (en)* | 2017-11-30 | 2018-04-05 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| Publication | Publication Date | Title |
|---|---|---|
| JPH1157216A (en) | Game device | |
| JP3968477B2 (en) | Information input device and information input method | |
| US20210003977A1 (en) | Systems and methods of gestural interaction in a pervasive computing environment | |
| JP6139105B2 (en) | Dart game machine | |
| CN103329079B (en) | Camera-based multi-touch interaction and lighting system and method | |
| JP3880561B2 (en) | Display system | |
| US7862179B2 (en) | Dual-mode projection apparatus and method for locating a light spot in a projected image | |
| JP2009140498A (en) | Information input/output device and information input/output method | |
| JP2010522922A (en) | System and method for tracking electronic devices | |
| EP2218252A1 (en) | Dual-mode projection apparatus and method for locating a light spot in a projected image | |
| JP6727081B2 (en) | Information processing system, extended input device, and information processing method | |
| JP2006294032A (en) | Display system, display control device, display apparatus, display method, and user interface device | |
| JP4296607B2 (en) | Information input / output device and information input / output method | |
| EP2279505A1 (en) | Interactive systems and methods and powerless remote control | |
| JPH1138967A (en) | Electronic musical instrument | |
| JP4712754B2 (en) | Information processing apparatus and information processing method | |
| JP4687820B2 (en) | Information input device and information input method | |
| US20030067438A1 (en) | Wireless beam-pen pointing device | |
| JPH1139094A (en) | Electronic conference system | |
| JP2007272927A (en) | Information input/output device and information input/output method | |
| JPH1142366A (en) | Game machine | |
| US9962606B2 (en) | Game apparatus | |
| JP2003330612A (en) | Information input / output system, program and storage medium | |
| JP2016177101A (en) | Display device, display control method, and program | |
| US20250203063A1 (en) | System with integration of flat display and floating image display and operating method |
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed | Free format text:JAPANESE INTERMEDIATE CODE: A300 Effective date:20041102 |