Movatterモバイル変換


[0]ホーム

URL:


JP4964833B2 - Information presentation control apparatus and information presentation control method - Google Patents

Information presentation control apparatus and information presentation control method
Download PDF

Info

Publication number
JP4964833B2
JP4964833B2JP2008163765AJP2008163765AJP4964833B2JP 4964833 B2JP4964833 B2JP 4964833B2JP 2008163765 AJP2008163765 AJP 2008163765AJP 2008163765 AJP2008163765 AJP 2008163765AJP 4964833 B2JP4964833 B2JP 4964833B2
Authority
JP
Japan
Prior art keywords
user
information presentation
optical
information
optical signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008163765A
Other languages
Japanese (ja)
Other versions
JP2010003264A (en
Inventor
陽子 石井
睦裕 中茂
稔 小林
隆子 石原
伸一郎 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT IncfiledCriticalNippon Telegraph and Telephone Corp
Priority to JP2008163765ApriorityCriticalpatent/JP4964833B2/en
Publication of JP2010003264ApublicationCriticalpatent/JP2010003264A/en
Application grantedgrantedCritical
Publication of JP4964833B2publicationCriticalpatent/JP4964833B2/en
Expired - Fee Relatedlegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Description

Translated fromJapanese

この発明は、ユーザに情報を提示するシステムで使用される情報提示制御装置及び情報提示制御方法に関する。  The present invention relates to an information presentation control device and an information presentation control method used in a system for presenting information to a user.

従来、例えば広告情報や案内情報を提示するシステムとしては、大画面ディスプレイを用いたシステムが一般的である。この種のシステムは、一度に多数の人に情報を提示できるという利点を持つ反面、個人にとっては提示された情報が自分に向けられた情報だと感じられないため、提示された情報に興味を持つまでに至らないことが多い。  Conventionally, for example, a system using a large screen display is generally used as a system for presenting advertisement information or guidance information. While this type of system has the advantage of being able to present information to many people at once, it does not feel that the information presented is personally directed to the individual, and is therefore interested in the information presented. In many cases it does not lead to holding.

そこで、例えばプロジェクタを使用してユーザの手の平に情報を光学的に投影させるシステムが提案されている(例えば、非特許文献1を参照。)。このシステムによれば、ユーザごとにそれぞれ情報を提示することができるので、ユーザにとっては提示された情報が自分に向けられた情報だと感じられ、これにより情報に対し興味を抱かせることが可能となる。
また、ユーザに対し音声等を含むオーディオ信号を送信することで、ユーザ一人ひとりに音声メッセージ等の情報を提示できるようにする提案もなされている(特許文献1を参照。)。
Thus, a system that optically projects information on the palm of the user using, for example, a projector has been proposed (see, for example, Non-Patent Document 1). According to this system, information can be presented for each user, so that the user can feel that the information presented is directed to him / her, and this can make him interested in the information. It becomes.
In addition, a proposal has been made so that information such as a voice message can be presented to each user by transmitting an audio signal including voice or the like to the user (see Patent Document 1).

特開2001−245004号公報JP 2001-245004 A

石井、小林、“Palm Display Interface:情報の付加価値を生み出すインタフェース”、電子情報通信学会 信学技報、MVE2006-48,Vol.106, No.234, pp.31-36Ishii, Kobayashi, “Palm Display Interface: An interface that creates added value of information”, IEICE Technical Report, MVE2006-48, Vol.106, No.234, pp.31-36

ところが、プロジェクタを使用するシステムはユーザに対し個々に映像を提示することは可能であるが、音声メッセージをユーザごとに提示することができない。一方、オーディオ信号を送信するものはユーザごとに音声情報を提示することは可能であるが、映像情報を提示する場合には大型ディスプレイ等に頼る以外にない。  However, a system using a projector can present an image individually to a user, but cannot present a voice message for each user. On the other hand, a device that transmits an audio signal can present audio information for each user. However, when presenting video information, there is no choice but to rely on a large display or the like.

この発明は上記事情に着目してなされたもので、その主たる目的は、映像情報と音声情報の両方を不特定多数の人に見聞きされることなくユーザごとに提示できるようにした情報提示制御装置及び情報提示制御方法を提供することにある。  The present invention has been made paying attention to the above circumstances, and its main purpose is to provide an information presentation control apparatus capable of presenting both video information and audio information for each user without being seen or heard by an unspecified number of people. And providing an information presentation control method.

上記目的を達成するためにこの発明の一観点は、ユーザを撮像する撮像ユニットと、上記ユーザの身体の一部を利用した擬似的な情報提示媒体に映像コンテンツ情報を投影するための投影ユニットと、上記ユーザが所持する、光信号を受信して音声に変換する光/音声変換ユニットに向けて光信号を送信する光送信ユニットにそれぞれ接続される情報提示制御装置にあって、
上記撮像ユニットにより撮像された上記ユーザの映像データから、上記光送信ユニットから送信される光信号の上記情報提示媒体による反射光を検出し、この反射光の検出結果をもとに当該ユーザの情報提示媒体の動き検出し、この情報提示媒体の動きが検出された場合に、当該情報提示媒体に対し上記投影ユニットにより映像コンテンツ情報を投影させ、かつ上記ユーザが所持する光/音声変換ユニットに向けて、上記光送信ユニットから音声コンテンツ情報に対応する光信号を送信させるようにしたものである。
In order to achieve the above object, an aspect of the present invention includes an imaging unit that images a user, a projection unit that projects video content information on a pseudo information presentation medium using a part of the user's body, and In the information presentation control device connected to each of the optical transmission units possessed by the user and transmitting the optical signal toward the optical / audio conversion unit that receives the optical signal and converts it into sound,
From the video data of the user imaged by the imaging unit, thereflected light by the information presentation medium of the optical signal transmitted from the optical transmission unit is detected, and the user information isdetected based onthe detection result of thereflected light. When the movement of the presentation medium is detected, and the movement of the information presentation medium is detected, the video content information is projected onto the information presentation medium by the projection unit, and directed to the light / sound conversion unit possessed by the user. Thus, an optical signal corresponding to the audio content information is transmitted from the optical transmission unit.

したがって、例えばユーザが予め決められた位置に手の平を差し出すと、その動きが検出されて当該手の平に映像コンテンツ情報が投影される。また、音声コンテンツ情報が光信号に変換されてユーザに向け送信され、この光信号がユーザの光/音声変換ユニットで音声コンテンツに変換されて出力される。このため、映像コンテンツ及び音声コンテンツはいずれも不特定多数の人に見聞きされることなくユーザに提示されることになる。
また、上記撮像ユニットにより撮像された上記ユーザの映像データから、上記光送信ユニットから送信される光信号の上記情報提示媒体による反射光を検出し、この反射光の検出結果をもとに当該ユーザの情報提示媒体の動き検出するようにしているので、映像データからユーザの情報提示媒体の動きを簡単な処理でかつ正に検出することが可能となる。また、音声コンテンツ情報の光信号を送信するために使用する光送信ユニットを情報提示媒体の動き検出にも利用するため、新たな発光手段を設ける必要がなく、システム構成の複雑化及び大型化を招かずに済む利点がある。
Therefore, for example, when the user presents the palm at a predetermined position, the movement is detected and the video content information is projected onto the palm. Also, the audio content information is converted into an optical signal and transmitted to the user, and this optical signal is converted into audio content by the user's optical / audio conversion unit and output. For this reason, both video content and audio content are presented to the user without being seen or heard by an unspecified number of people.
Moreover, the reflected light by the information presentation medium of the optical signal transmitted from the optical transmission unit is detected from the video data of the user captured by the imaging unit, and the user is detected based on the detection result of the reflected light. Since the movement of the information presentation medium is detected, the movement of the user's information presentation medium can be detected from the video data with simple processing. In addition, since the optical transmission unit used for transmitting the optical signal of the audio content information is also used for motion detection of the information presentation medium, it is not necessary to provide a new light emitting means, and the system configuration is complicated and enlarged. There is an advantage of not inviting.

またこの発明は、観点の異なる以下のような構成要素を備えることも特徴とする。
第1の構成要素は、上記光信号を送信させる際に、上記情報提示媒体の動きが検出された場合に、上記映像コンテンツ情報の投影動作と同期して、上記音声コンテンツ情報に対応する光信号を上記光送信ユニットから送信させるものである。
このようにすると、映像コンテンツ情報の投影動作と同期して音声コンテンツ情報がユーザに提示される。このため、例えば映像コンテンツの提示と音声コンテンツの提示が同時に開始され、かつ両コンテンツの提示動作が相互に対応付けられて進行するため、より一層ユーザの興味を惹くコンテンツ提示を実現できる。
The present invention is also characterized by comprising the following components with different viewpoints.
The first component is an optical signal corresponding to the audio content information in synchronization with the projection operation of the video content information when the movement of the information presentation medium is detected when transmitting the optical signal. Are transmitted from the optical transmission unit.
In this way, the audio content information is presented to the user in synchronization with the video content information projection operation. For this reason, for example, presentation of video content and presentation of audio content are started at the same time, and the presentation operation of both contents proceeds in association with each other, so that it is possible to realize content presentation that further attracts the user's interest.

第2の構成要素は、上記ユーザが所持する固有の所持物をさらに検出し、上記光信号を送信させる際に、予め記憶された複数の音声コンテンツ情報の中から、上記検出された固有の所持物に対応付けられた音声コンテンツ情報を選択し、この選択された音声コンテンツ情報に対応する光信号を上記光送信ユニットから送信させるようにしたものである。
このようにすると、ユーザが所持する所持物に応じて当該ユーザに対応する音声コンテンツを提示することが可能となる。また、ユーザが複数存在する場合に、これらのユーザごとにその所持物に応じて個別に音声コンテンツを提示することが可能となる。
The second component further detects the inherent possession possessed by the user, and transmits the optical signal to transmit the optical signal and the detected inherent possession from among a plurality of pieces of audio content information stored in advance. Audio content information associated with an object is selected, and an optical signal corresponding to the selected audio content information is transmitted from the optical transmission unit.
If it does in this way, according to the possession which a user possesses, it becomes possible to show the audio contents corresponding to the user concerned. In addition, when there are a plurality of users, it is possible to present audio contents individually for each of these users according to their belongings.

すなわちこの発明の一観点によれば、映像情報と音声情報の両方を不特定多数の人に見聞きされることなくユーザごとに提示することを可能にした情報提示制御装置及び情報提示制御方法を提供することができる。  That is, according to one aspect of the present invention, there is provided an information presentation control device and an information presentation control method capable of presenting both video information and audio information for each user without being seen or heard by an unspecified number of people. can do.

以下、図面を参照してこの発明に係わる実施形態を説明する。
(第1の実施形態)
図1は、この発明の第1の実施形態に係わる情報提示制御装置を含む情報提示システムの概略構成図である。このシステムは、天井等のユーザ4の上方位置にカメラ1、プロジェクタ2及び光送信器6を設置し、これらのカメラ1、プロジェクタ2及び光送信器6を情報提示制御装置(以後単に制御装置と呼称する)3に接続したものとなっている。
Embodiments according to the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram of an information presentation system including an information presentation control apparatus according to the first embodiment of the present invention. In this system, acamera 1, a projector 2, and an optical transmitter 6 are installed above auser 4 such as a ceiling, and thecamera 1, projector 2, and optical transmitter 6 are connected to an information presentation control device (hereinafter simply referred to as a control device). It is connected to 3).

カメラ1は、下方に存在するユーザ4とその手の平5を含む所定の範囲を撮像し、その映像信号を制御装置3へ出力する。プロジェクタ2は、制御装置3から出力される映像信号を光学像に変換し、この光学像を情報提示媒体としての上記ユーザの手の平5に投影する。光送信器6は例えばLED(Light Emitting Diode)アレイにより構成され、制御装置3から出力される発光駆動信号に応じて発光動作を行い、その光信号を上記ユーザ4に向け送信する。ユーザ4はイヤホン7を装着している。イヤホン7には光受信器8が設けられている。光受信器8は、上記光送信器6から送信された光信号を受信してアナログ電気信号からなる音声信号に変換する。この音声信号はイヤホン7のスピーカから出力される。  Thecamera 1 picks up an image of a predetermined range including theuser 4 and thepalm 5 present below and outputs the video signal to thecontrol device 3. The projector 2 converts the video signal output from thecontrol device 3 into an optical image, and projects the optical image on thepalm 5 of the user's hand as an information presentation medium. The optical transmitter 6 is composed of, for example, an LED (Light Emitting Diode) array, performs a light emission operation according to a light emission drive signal output from thecontrol device 3, and transmits the optical signal to theuser 4. Theuser 4 wears theearphone 7. Theearphone 7 is provided with an optical receiver 8. The optical receiver 8 receives the optical signal transmitted from the optical transmitter 6 and converts it into an audio signal composed of an analog electric signal. This audio signal is output from the speaker of theearphone 7.

制御装置3は、例えばパーソナル・コンピュータからなり、以下のように構成される。図2はそのハードウエア及びソフトウエアの構成を示すブロック図である。すなわち、制御装置3は、中央処理ユニット(CPU;Central Processing Unit)を備える。そしてこのCPU11に、バス12を介して、プログラムメモリ13A、データベース14、カメラインタフェース(カメラI/F)15、プロジェクタインタフェース(プロジェクタI/F)16、光送信器インタフェース(光送信器I/F)17及び入出力インタフェース(入出力I/F)18を接続したものとなっている。  Thecontrol device 3 is composed of, for example, a personal computer and is configured as follows. FIG. 2 is a block diagram showing the configuration of the hardware and software. That is, thecontrol device 3 includes a central processing unit (CPU). TheCPU 11 is connected to theprogram memory 13A, thedatabase 14, the camera interface (camera I / F) 15, the projector interface (projector I / F) 16, and the optical transmitter interface (optical transmitter I / F) via thebus 12. 17 and an input / output interface (input / output I / F) 18 are connected.

カメラI/F15は、上記カメラ1から出力された撮像信号を受信し、ディジタル化された撮像データに変換してCPU11へ出力する。プロジェクタI/F16は、データベース14から読み出された提示対象の映像データをアナログ映像信号に変換し、このアナログ映像信号を上記プロジェクタ2へ出力する。光送信器I/F17は、データベース14から読み出された提示対象の音声データを発光駆動信号に変換し、この発光駆動信号を上記光送信器6へ出力する。  The camera I /F 15 receives the imaging signal output from thecamera 1, converts it into digitized imaging data, and outputs it to theCPU 11. The projector I / F 16 converts the presentation target video data read from thedatabase 14 into an analog video signal, and outputs the analog video signal to the projector 2. The optical transmitter I /F 17 converts the audio data to be presented read from thedatabase 14 into a light emission drive signal, and outputs this light emission drive signal to the optical transmitter 6.

入出力I/F18には、入力デバイス19及び表示デバイス20が接続されている。これらの入力デバイス19及び表示デバイス20は、システムの保守管理を行うために使用される。例えば、入力デバイス19はキーボード及びマウスからなり、ユーザ又はシステムオペレータがデータベース14に映像コンテンツ及び音声コンテンツを記憶させるための操作を行う際に使用される。表示デバイス20は例えば液晶表示器からなり、制御装置3の動作状態を表す情報等を表示するために使用される。  Aninput device 19 and adisplay device 20 are connected to the input / output I /F 18. Theseinput device 19 anddisplay device 20 are used for system maintenance management. For example, theinput device 19 includes a keyboard and a mouse, and is used when a user or a system operator performs an operation for storing video content and audio content in thedatabase 14. Thedisplay device 20 is composed of a liquid crystal display, for example, and is used for displaying information indicating the operation state of thecontrol device 3.

データベース14には、映像データ記憶領域と、音声データ記憶領域と、制御データ記憶領域が設けられている。映像データ記憶領域には、ユーザに提示すべき映像コンテンツのデータが記憶される。音声データ記憶領域には、ユーザに提示すべき音声コンテンツのデータが記憶される。これらの映像コンテンツ及び音声コンテンツは、相互に対応付けられて1つのマルチメディアコンテンツを構成する。
なお、映像コンテンツと音声コンテンツを別ファイルとせずに、映像コンテンツに音声コンテンツを含めたタイプのファイルとして記憶させるようにしてもよい。また、映像コンテンツ及び音声コンテンツに、さらにテキストデータ等のデータを含めるようにしてもよい。この種のタイプのコンテンツファイルを再生する場合は、読み出したコンテンツファイルを映像コンテンツと音声コンテンツ、さらにはデータに分離し、この分離したメディアごとに再生する。制御データ記憶領域には、ユーザ4の手の平5の特徴を表す情報が記憶されている。手の平5の特徴を表す情報は、例えば形状、大きさ及び色を表す情報からなる。
Thedatabase 14 is provided with a video data storage area, an audio data storage area, and a control data storage area. The video data storage area stores video content data to be presented to the user. The audio data storage area stores audio content data to be presented to the user. These video content and audio content are associated with each other to form one multimedia content.
Note that the video content and the audio content may be stored as a file of a type including the audio content in the video content, instead of being separate files. Further, data such as text data may be further included in the video content and the audio content. When reproducing this type of content file, the read content file is separated into video content, audio content, and data, and is reproduced for each of the separated media. Information representing the characteristics of thepalm 5 of theuser 4 is stored in the control data storage area. The information representing the feature of thepalm 5 includes information representing the shape, size, and color, for example.

プログラムメモリ13Aには、この発明の第1の実施形態を実施するためのアプリケーション・プログラムとして、ユーザ動作検出プログラム131aと、映像生成提示制御プログラム132aと、音声提示制御プログラム133が格納されている。
ユーザ動作検出プログラム131aは、予め設定された周期でカメラ1から出力された映像信号をカメラI/F15を介して映像データとして取り込み、この映像データに対し画像処理を行ってユーザ4の手の平5を認識し、その位置を検出する処理を、上記CPU11に実行させる。
Theprogram memory 13A stores a user action detection program 131a, a video generation /presentation control program 132a, and a voicepresentation control program 133 as application programs for carrying out the first embodiment of the present invention.
The user operation detection program 131a takes in a video signal output from thecamera 1 as a video data via the camera I /F 15 at a preset cycle, performs image processing on the video data, and obtains thepalm 5 of theuser 4. TheCPU 11 is caused to execute processing for recognizing and detecting the position.

映像生成提示制御プログラム132aは、上記ユーザ動作検出プログラム131aにより、ユーザ4の手の平5の位置が予め定められた情報提示エリア内に移動したことが検出された場合に、データベース14から予め記憶してある映像コンテンツのデータを読み出す。そして、この読み出された映像コンテンツのデータをプロジェクトI/F16に供給して、プロジェクタ2からユーザ4の手の平5に対し上記映像コンテンツに対応する光学像を投影させるための処理を、上記CPU11に実行させる。  The video generation /presentation control program 132a stores in advance from thedatabase 14 when the user motion detection program 131a detects that the position of thepalm 5 of theuser 4 has moved into a predetermined information presentation area. Read data of certain video content. Then, theCPU 11 performs processing for supplying the read video content data to the project I /F 16 and projecting an optical image corresponding to the video content on thepalm 5 of theuser 4 from the projector 2. Let it run.

音声提示制御プログラム133は、ユーザの有無に関係なく、データベース14から予め記憶された音声コンテンツのデータを周期的に繰り返し読み出す。そして、この読み出された音声コンテンツのデータを光送信器I/F17に供給して、光送信器6から上記音声コンテンツに対応する光信号を出力させる処理を、上記CPU11に実行させる。  The audiopresentation control program 133 periodically and repeatedly reads the audio content data stored in advance from thedatabase 14 regardless of the presence or absence of the user. Then, theCPU 11 executes a process of supplying the read audio content data to the optical transmitter I /F 17 and outputting an optical signal corresponding to the audio content from the optical transmitter 6.

次に、以上のように構成された情報提示システムの動作を、制御装置3の制御手順に従い説明する。なお、情報提示媒体の種類はユーザ4の手の平5とし、その形状、大きさ及び色を表す情報がデータベース14に予め記憶されているものとして説明を行う。図3は制御装置3の制御手順と制御内容を示すフローチャートである。  Next, the operation of the information presentation system configured as described above will be described according to the control procedure of thecontrol device 3. It is assumed that the type of information presentation medium is thepalm 5 of theuser 4 and information indicating the shape, size and color is stored in thedatabase 14 in advance. FIG. 3 is a flowchart showing a control procedure and control contents of thecontrol device 3.

制御装置1のCPU11は、先ずステップS31において音声提示制御プログラム133を起動し、データベース14から提示対象の音声コンテンツのデータを周期的に繰り返し読み出す。そして、この読み出された音声コンテンツのデータを復号したのち、光送信器I/F17に供給する。光送信器I/F17は、上記供給された音声コンテンツの復号データを発光駆動信号に変換し、この変換された発光駆動信号を光送信器6に供給する。この結果、光送信器6からは上記音声コンテンツに対応する光信号が送信される。  First, in step S31, theCPU 11 of thecontrol device 1 starts the voicepresentation control program 133, and periodically and repeatedly reads the data of the voice content to be presented from thedatabase 14. The read audio content data is decoded and then supplied to the optical transmitter I /F 17. The optical transmitter I /F 17 converts the supplied decoded data of the audio content into a light emission drive signal, and supplies the converted light emission drive signal to the optical transmitter 6. As a result, an optical signal corresponding to the audio content is transmitted from the optical transmitter 6.

この送信された光信号は、例えば図4に示すようにユーザ4のイヤホン7に設けられた光受信器8で受信され、アナログ音声信号に変換される。そして、このアナログ音声信号はイヤホン7のスピーカから出力される。かくして、ユーザは音声コンテンツを聞くことが可能となる。  The transmitted optical signal is received by an optical receiver 8 provided in theearphone 7 of theuser 4 as shown in FIG. 4, for example, and converted into an analog audio signal. The analog audio signal is output from the speaker of theearphone 7. Thus, the user can listen to the audio content.

また、制御装置1のCPU11はステップS32においてユーザ動作検出プログラム131aを起動し、情報提示対象であるユーザ4の手の平5の動きを検出する処理を以下のように実行する。
すなわち、先ずステップS32により、カメラ1から出力された撮像信号をカメラI/F15を介して映像データとして取り込む。そして、ステップS33において、上記取り込んだ映像データと、予めデータベース14に記憶しておいたユーザ4が存在しないときの映像データとの差分処理を行う。そして、その差分情報から、撮像データ内に存在するユーザ4の人体領域を検出する。このとき、ユーザ4の人体領域のサイズがしきい値を超えている場合には、当該人体領域に対し縮小処理を行う。なお、この縮小処理の結果、人体領域を分割できる場合には、複数のユーザ4の人体の重なり合いが起きていると認識し、その領域の数を撮像データ内に存在するユーザ4の人数として認識する。
Moreover, CPU11 of thecontrol apparatus 1 starts the user operation | movement detection program 131a in step S32, and performs the process which detects the motion of thepalm 5 of theuser 4 who is information presentation object as follows.
That is, first, in step S32, the image pickup signal output from thecamera 1 is captured as video data via the camera I /F 15. In step S33, a difference process is performed between the captured video data and the video data stored in thedatabase 14 in advance when theuser 4 does not exist. And the human body area | region of theuser 4 which exists in imaging data is detected from the difference information. At this time, if the size of the human body region of theuser 4 exceeds the threshold value, the reduction processing is performed on the human body region. If the human body region can be divided as a result of the reduction processing, it is recognized that the human bodies of the plurality ofusers 4 are overlapping, and the number of the regions is recognized as the number ofusers 4 existing in the imaging data. To do.

続いてCPU11は、上記検出された人体領域の重心点を検出し、さらに上記縮小処理前の人体領域について肌色抽出処理を行う。そして、この抽出された肌色領域の中から、手の平の大きさに当てはまる大きさの領域を抽出し、これを手の平候補領域とする。続いて、先に求めた人体領域の重心点に近い肌色領域を上記手の平候補領域から選択し、この選択した手の平候補領域を手の平5の領域と認識する。次に、この認識した手の平5の位置が、予め設定した情報提示エリアに入っているか否かをステップS34で判定し、入っていなければ映像コンテンツの提示を行わずにそのまま処理を終了する。  Subsequently, theCPU 11 detects the barycentric point of the detected human body region, and further performs a skin color extraction process on the human body region before the reduction process. Then, an area having a size corresponding to the size of the palm is extracted from the extracted skin color area, and is set as a palm candidate area. Subsequently, a skin color area close to the center of gravity of the human body area obtained previously is selected from the palm candidate areas, and the selected palm candidate area is recognized as thepalm 5 area. Next, it is determined in step S34 whether or not the recognized position of thepalm 5 is within the preset information presentation area. If not, the process is terminated without presenting the video content.

一方、認識した手の平5の位置が、予め設定した情報提示エリアに入っていると判定されたとする。そうするとCPU11は、ステップS35により映像生成提示制御プログラム132aを起動し、データベース14の映像データ記憶領域から提示対象の映像コンテンツのデータを読み出す。そして、ステップS36により、上記読み出された映像コンテンツのデータをプロジェクタI/F16に送る。この結果、プロジェクタI/F16から上記映像コンテンツのデータがプロジェクタ2に送られ、これによりプロジェクタ2によりユーザ4の手の平5上に上記映像コンテンツに対応する光学像が投影される。
図4はその様子の一例を示すもので、この例では箱形をなす物体の映像Vaが提示された場合を示している。かくして、ユーザ4は自身の手の平5において映像コンテンツを確認することができる。
On the other hand, it is assumed that the recognized position of thepalm 5 is determined to be within a preset information presentation area. Then, theCPU 11 starts the video generation /presentation control program 132a in step S35, and reads the video content data to be presented from the video data storage area of thedatabase 14. In step S36, the read video content data is sent to the projector I /F 16. As a result, the video content data is sent from the projector I /F 16 to the projector 2, whereby the projector 2 projects an optical image corresponding to the video content onto thepalm 5 of theuser 4.
FIG. 4 shows an example of such a situation, and in this example, a case where an image Va of a box-shaped object is presented. Thus, theuser 4 can confirm the video content in thepalm 5 of his / her hand.

なお、上記映像コンテンツのデータをプロジェクタI/F16に送る際に、上記検出された手の平4の領域の位置を表す座標情報を送り、プロジェクタI/F16により、上記検出された手の平4の領域の位置を表す座標情報に基づいてプロジェクタ2による光学像の投影方向が手の平5の位置に正確に向くように制御するようにしてもよい。また、ユーザ動作検出プログラム131により手の平5の領域のサイズを検出し、この検出した手の平5の領域のサイズに応じて光学像の投影サイズを制御するようにしてもよく、さらにはユーザ動作検出プログラム131により手の平5の向きを検出し、この向きに応じて光学像の投影向きを制御するようにしてもよい。  When the video content data is sent to the projector I /F 16, coordinate information indicating the position of the detectedpalm 4 area is sent, and the projector I /F 16 detects the position of the detectedpalm 4 area. Control may be performed so that the projection direction of the optical image by the projector 2 is accurately directed to the position of thepalm 5 on the basis of the coordinate information representing. Further, the size of thepalm 5 region may be detected by the user motion detection program 131, and the projection size of the optical image may be controlled in accordance with the detected size of thepalm 5 region. The direction of thepalm 5 may be detected by 131, and the projection direction of the optical image may be controlled according to this direction.

さらに、提示対象の映像コンテンツのデータは、データベース14に記憶されている複数の映像コンテンツのデータの中から、ランダム又は手の平5の領域のサイズに対応するものを少なくとも1つ選択すればよい。その他、図示しないウエブサイトから通信ネットワークを介して上記手の平のサイズに対応する映像コンテンツのデータをダウンロードし、この映像コンテンツのデータを投影させるようにしてもよい。また、複数の映像コンテンツのデータを提示する場合には、これらの映像コンテンツのデータをCPU11において二次元平面上に並ぶように編集してプロジェクタ2に送ったり、複数の映像コンテンツのデータを一定の時間間隔で順次プロジェクタ2に送信するようにすればよい。  Furthermore, as the data of the video content to be presented, at least one data corresponding to the size of the region of the palm or thepalm 5 may be selected from a plurality of video content data stored in thedatabase 14. In addition, video content data corresponding to the palm size may be downloaded from a website (not shown) via a communication network, and the video content data may be projected. When presenting data of a plurality of video contents, theCPU 11 edits the data of the video contents so that they are arranged on a two-dimensional plane and sends the data to the projector 2, or the data of the plurality of video contents is fixed. What is necessary is just to transmit to the projector 2 sequentially at time intervals.

以上述べたように第1の実施形態では、音声コンテンツのデータを光送信器6から光信号としてユーザ4に向けて送信し、この光信号をユーザ4が装着したイヤホン7の光受信器8で受信して音声信号に変換してスピーカから出力する。またそれと共に、ユーザ4の手の平5の動きをカメラ1の映像データをもとに検出して、手の平5が情報提示エリアに入った場合に、映像コンテンツのデータをデータベース14から読み出してプロジェクタ2から上記手の平5に投影するようにしている。
したがって、映像コンテンツ及び音声コンテンツをいずれも不特定多数の人に見聞きされることなくユーザに提示することが可能となる。
As described above, in the first embodiment, the audio content data is transmitted from the optical transmitter 6 to theuser 4 as an optical signal, and this optical signal is transmitted by the optical receiver 8 of theearphone 7 worn by theuser 4. Received, converted to audio signal and output from speaker. At the same time, the movement of thepalm 5 of theuser 4 is detected based on the video data of thecamera 1, and when thepalm 5 enters the information presentation area, the video content data is read from thedatabase 14 and from the projector 2. The image is projected on thepalm 5.
Therefore, both video content and audio content can be presented to the user without being seen or heard by an unspecified number of people.

(第2の実施形態)
この発明の第2の実施形態は、ユーザ4の手の平5が情報提示エリアに移動したことが検出された場合に、プロジェクタ2による映像コンテンツの投影動作を開始すると共に、この映像コンテンツの投影動作と同期して、音声コンテンツデータの光信号を光送信器6から送信させるようにしたものである。
(Second Embodiment)
According to the second embodiment of the present invention, when it is detected that thepalm 5 of theuser 4 has moved to the information presentation area, the projection operation of the video content by the projector 2 is started, and the projection operation of the video content is In synchronism, the optical signal of the audio content data is transmitted from the optical transmitter 6.

図5は、この発明の第2の実施形態に係わる制御装置3のハードウエア及びソフトウエアの構成を示す機能ブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
プログラム13Bには、この発明の第2の実施形態を実施するためのアプリケーション・プログラムとして、先に述べたユーザ動作検出プログラム131a及び映像生成提示制御プログラム132aに加え、音声生成提示制御プログラム134aが新たに格納されている。
FIG. 5 is a functional block diagram showing the hardware and software configurations of thecontrol device 3 according to the second embodiment of the present invention. In the figure, the same parts as those in FIG.
The program 13B includes a voice generation /presentation control program 134a as an application program for carrying out the second embodiment of the present invention, in addition to the user action detection program 131a and the video generation /presentation control program 132a described above. Stored in

音声生成提示制御プログラム134aは、上記ユーザ動作検出プログラム131aにより、ユーザ4の手の平5の位置が予め定められた情報提示エリア内に移動したことが検出された場合に、データベース14から予め記憶してある音声コンテンツのデータを読み出す。そして、この読み出された音声コンテンツのデータを光送信器I/F17に供給して、光送信器6から上記音声コンテンツに対応する光信号を出力させる処理を、上記CPU11に実行させる。  The voice generation /presentation control program 134a is stored in advance from thedatabase 14 when the user motion detection program 131a detects that the position of thepalm 5 of theuser 4 has moved into a predetermined information presentation area. Read data of some audio content. Then, theCPU 11 executes a process of supplying the read audio content data to the optical transmitter I /F 17 and outputting an optical signal corresponding to the audio content from the optical transmitter 6.

次に、以上のように構成された情報提示システムの動作を、制御装置3の制御手順に従い説明する。図6は制御装置3の制御手順と制御内容を示すフローチャートである。
制御装置1のCPU11は、先ずステップS61においてユーザ動作検出プログラム131aを起動し、カメラ1から出力された撮像信号をカメラI/F15を介して映像データとして取り込む。そして、ステップS62において、上記取り込んだ映像データをもとにユーザ4の手の平5を認識する。そして、認識した手の平5の位置が、予め設定した情報提示エリアに入っているか否かをステップS63により判定し、入っていなければ映像コンテンツの提示を行わずにそのまま処理を終了する。なお、ユーザ4の手の平5の動きの検出は、前記第1の実施形態で述べた処理手順及び処理内容と同一なので、ここでの説明は省略する。
Next, the operation of the information presentation system configured as described above will be described according to the control procedure of thecontrol device 3. FIG. 6 is a flowchart showing the control procedure and control contents of thecontrol device 3.
First, in step S61, theCPU 11 of thecontrol device 1 activates the user operation detection program 131a, and captures an imaging signal output from thecamera 1 as video data via the camera I /F 15. In step S62, thepalm 5 of theuser 4 is recognized based on the captured video data. Then, in step S63, it is determined whether or not the recognized position of thepalm 5 is in the preset information presentation area. If not, the process is terminated without presenting the video content. Note that the detection of the movement of thepalm 5 of theuser 4 is the same as the processing procedure and the processing content described in the first embodiment, and a description thereof will be omitted here.

上記認識したユーザ4の手の平5の位置が、予め設定した情報提示エリアに入ったと判定されたとする。そうするとCPU11は、ステップS64により映像生成提示制御プログラム132aを起動し、データベース14の映像データ記憶領域から提示対象の映像コンテンツのデータを読み出す。そして、ステップS65により、上記読み出された映像コンテンツのデータをプロジェクタI/F16に送る。この結果、プロジェクタI/F16から上記映像コンテンツのデータがプロジェクタ2に送られ、これにより例えば図4に示すようにプロジェクタ2によりユーザ4の手の平5上に上記映像コンテンツに対応する光学像が投影される。  Assume that it is determined that the recognized position of thepalm 5 of theuser 4 has entered a preset information presentation area. Then, theCPU 11 starts the video generation /presentation control program 132a in step S64, and reads the video content data to be presented from the video data storage area of thedatabase 14. In step S65, the read video content data is sent to the projector I /F 16. As a result, data of the video content is sent from the projector I /F 16 to the projector 2, whereby an optical image corresponding to the video content is projected on thepalm 5 of theuser 4 by the projector 2, for example, as shown in FIG. 4. The

またCPU11は、上記認識したユーザ4の手の平5の位置が情報提示エリアに入ったことが検出されると、ステップS66において音声生成提示制御プログラム134aを起動し、データベース14から提示対象の音声コンテンツのデータを読み出す。このとき、音声コンテンツの読み出し動作においては、先に読み出した映像コンテンツと対応する音声コンテンツが選択され、さらに上記投影開始した映像コンテンツと時間位置が一致するように音声コンテンツの頭出しが行われる。そしてCPU11は、ステップS67により、上記読み出された音声コンテンツのデータを復号したのち光送信器I/F17に供給する。光送信器I/F17では、上記供給された音声コンテンツの復号データを発光駆動信号に変換し、この変換された発光駆動信号を光送信器6に供給する。この結果、光送信器6からは上記音声コンテンツに対応する光信号が送信される。  In addition, when theCPU 11 detects that the recognized position of thepalm 5 of theuser 4 has entered the information presentation area, theCPU 11 activates the voice generation /presentation control program 134a in step S66, and stores the voice content to be presented from thedatabase 14. Read data. At this time, in the audio content reading operation, the audio content corresponding to the previously read video content is selected, and the audio content is cued so that the time position coincides with the video content started to be projected. In step S67, theCPU 11 decodes the read audio content data and supplies the decoded data to the optical transmitter I /F 17. The optical transmitter I /F 17 converts the supplied decoded data of the audio content into a light emission drive signal, and supplies the converted light emission drive signal to the optical transmitter 6. As a result, an optical signal corresponding to the audio content is transmitted from the optical transmitter 6.

この送信された光信号は、例えば図4に示したようにユーザ4のイヤホン7に設けられた光受信器8で受信され、アナログ音声信号に変換される。そして、このアナログ音声信号はイヤホン7のスピーカから出力される。かくして、ユーザは音声コンテンツを聞くことが可能となる。  The transmitted optical signal is received by an optical receiver 8 provided in theearphone 7 of theuser 4 as shown in FIG. 4, for example, and converted into an analog audio signal. The analog audio signal is output from the speaker of theearphone 7. Thus, the user can listen to the audio content.

以上述べたように第2の実施形態では、ユーザ4の手の平5が情報提示エリアに移動したことが検出された場合に、プロジェクタ2による映像コンテンツの投影動作を開始すると共に、この映像コンテンツの投影動作と同期して、音声コンテンツデータの光信号を光送信器6から送信させるようにしている。したがって、内容が対応する映像コンテンツと音声コンテンツの提示動作を同時に開始することができる。このため、より一層ユーザ4の興味を惹くようなコンテンツ提示が可能となる。  As described above, in the second embodiment, when it is detected that thepalm 5 of theuser 4 has moved to the information presentation area, the projection operation of the video content by the projector 2 is started and the projection of the video content is performed. In synchronization with the operation, an optical signal of audio content data is transmitted from the optical transmitter 6. Accordingly, it is possible to simultaneously start the video content and audio content presentation operations corresponding to the contents. For this reason, it is possible to present content that further attracts the interest of theuser 4.

(第3の実施形態)
この発明の第3の実施形態は、ユーザが所持する固有の所持物、例えばIDカードを検出し、音声コンテンツの光信号を光送信器6から送信させる際に、予め記憶された複数の音声コンテンツ情報の中から、上記検出された固有の所持物に対応付けられた音声コンテンツを選択し、この選択された音声コンテンツに対応する光信号を上記光送信器6から送信させるようにしたものである。
(Third embodiment)
In the third embodiment of the present invention, a plurality of audio contents stored in advance are detected when an optical card of an audio content is transmitted from the optical transmitter 6 by detecting a unique item possessed by the user, for example, an ID card. The audio content associated with the detected unique possession is selected from the information, and the optical signal corresponding to the selected audio content is transmitted from the optical transmitter 6. .

図7は、この発明の第3の実施形態に係わる制御装置3のハードウエア及びソフトウエアの構成を示す機能ブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
プログラム13Cには、この発明の第3の実施形態を実施するためのアプリケーション・プログラムとして、先に述べたユーザ動作検出プログラム131a及び映像生成提示制御プログラム132aに加え、音声生成提示制御プログラム134bと、装置検出プログラム135が格納されている。
FIG. 7 is a functional block diagram showing the hardware and software configurations of thecontrol device 3 according to the third embodiment of the present invention. In the figure, the same parts as those in FIG.
Theprogram 13C includes an audio generation /presentation control program 134b as an application program for carrying out the third embodiment of the present invention, in addition to the user action detection program 131a and the image generation /presentation control program 132a described above, Adevice detection program 135 is stored.

装置検出プログラム135は、カメラ1により得られたユーザの映像データに対し画像処理を行ってユーザ4が所持している装置、例えばIDカードを検出してそのID番号を認識する処理を、上記CPU11に実行させる。なお、ID番号は例えばバーコード又は二次元コードにより表される。  Thedevice detection program 135 performs processing on the user's video data obtained by thecamera 1 to detect a device possessed by theuser 4, for example, an ID card, and recognize the ID number. To run. The ID number is represented by, for example, a barcode or a two-dimensional code.

音声生成提示制御プログラム134bは、上記ユーザ動作検出プログラム131aにより、ユーザ4の手の平5の位置が予め定められた情報提示エリア内に移動したことが検出された場合に、上記装置検出プログラム135からID番号の認識データを取り込み、データベース14から上記ID番号に対応する音声コンテンツのデータを読み出す。そして、この読み出された音声コンテンツのデータを光送信器I/F17に供給して、光送信器6から上記音声コンテンツに対応する光信号を出力させる処理を、上記CPU11に実行させる。  When the user motion detection program 131a detects that the position of thepalm 5 of theuser 4 has moved into a predetermined information presentation area, the voice generation /presentation control program 134b receives an ID from thedevice detection program 135. The number recognition data is taken in, and the audio content data corresponding to the ID number is read from thedatabase 14. Then, theCPU 11 executes a process of supplying the read audio content data to the optical transmitter I /F 17 and outputting an optical signal corresponding to the audio content from the optical transmitter 6.

次に、以上のように構成された情報提示システムの動作を、制御装置3の制御手順に従い説明する。図8は制御装置3の制御手順と制御内容を示すフローチャートである。なお、同図において前記図6と同一部分には同一符号を付してある。
制御装置1のCPU11は、先ずステップS61においてユーザ動作検出プログラム131aを起動し、カメラ1から出力された撮像信号をカメラI/F15を介して映像データとして取り込む。そして、ステップS62において、上記取り込んだ映像データをもとにユーザ4の手の平5を認識する。そして、認識した手の平5の位置が、予め設定した情報提示エリアに入っているか否かをステップS63により判定し、入っていなければ映像コンテンツの提示を行わずにそのまま処理を終了する。なお、ユーザ4の手の平5の動きの検出は、前記第1の実施形態で述べた処理手順及び処理内容と同一なので、ここでの説明は省略する。
Next, the operation of the information presentation system configured as described above will be described according to the control procedure of thecontrol device 3. FIG. 8 is a flowchart showing the control procedure and control contents of thecontrol device 3. In the figure, the same parts as those in FIG.
First, in step S61, theCPU 11 of thecontrol device 1 activates the user operation detection program 131a, and captures an imaging signal output from thecamera 1 as video data via the camera I /F 15. In step S62, thepalm 5 of theuser 4 is recognized based on the captured video data. Then, in step S63, it is determined whether or not the recognized position of thepalm 5 is in the preset information presentation area. If not, the process is terminated without presenting the video content. Note that the detection of the movement of thepalm 5 of theuser 4 is the same as the processing procedure and the processing content described in the first embodiment, and a description thereof will be omitted here.

上記認識したユーザ4の手の平5の位置が、予め設定した情報提示エリアに入ったと判定されたとする。そうするとCPU11は、ステップS64により映像生成提示制御プログラム132aを起動し、データベース14の映像データ記憶領域から提示対象の映像コンテンツのデータを読み出す。そして、ステップS65により、上記読み出された映像コンテンツのデータをプロジェクタI/F16に送る。この結果、プロジェクタI/F16から上記映像コンテンツのデータがプロジェクタ2に送られ、これにより例えば図4に示すようにプロジェクタ2によりユーザ4の手の平5上に上記映像コンテンツに対応する光学像が投影される。  Assume that it is determined that the recognized position of thepalm 5 of theuser 4 has entered a preset information presentation area. Then, theCPU 11 starts the video generation /presentation control program 132a in step S64, and reads the video content data to be presented from the video data storage area of thedatabase 14. In step S65, the read video content data is sent to the projector I /F 16. As a result, data of the video content is sent from the projector I /F 16 to the projector 2, whereby an optical image corresponding to the video content is projected on thepalm 5 of theuser 4 by the projector 2, for example, as shown in FIG. 4. The

またCPU11は、上記認識したユーザ4の手の平5の位置が情報提示エリアに入ったことが検出されると、ステップS81において装置検出プログラム135を起動する。そして、先にステップS61により取り込んだカメラ1の映像データから、ユーザ4が例えば首から下げるか又は胸ポケットに止めているIDカードの画像を認識し、さらにこの画像からID番号を読み取る。続いてステップS82において音声生成提示制御プログラム134aを起動し、上記読み取ったID番号に対応する音声コンテンツのデータをデータベース14から選択的に読み出す。そして、上記投影を開始した映像コンテンツと時間位置を一致させるように音声コンテンツの頭出しをする。  Further, when detecting that the recognized position of thepalm 5 of theuser 4 has entered the information presentation area, theCPU 11 activates theapparatus detection program 135 in step S81. Then, from the video data of thecamera 1 previously captured in step S61, the image of the ID card that theuser 4 has lowered from the neck or held in the breast pocket is recognized, and the ID number is read from this image. Subsequently, in step S82, the voice generation /presentation control program 134a is activated, and the voice content data corresponding to the read ID number is selectively read from thedatabase 14. Then, the audio content is cued so as to match the time position with the video content that has been projected.

続いてステップS83において、上記音声コンテンツのデータを復号したのち光送信器I/F17に供給する。光送信器I/F17では、上記供給された音声コンテンツの復号データを発光駆動信号に変換し、この変換された発光駆動信号を光送信器6に供給する。この結果、光送信器6からは上記音声コンテンツに対応する光信号が送信される。  In step S83, the audio content data is decoded and then supplied to the optical transmitter I /F 17. The optical transmitter I /F 17 converts the supplied decoded data of the audio content into a light emission drive signal, and supplies the converted light emission drive signal to the optical transmitter 6. As a result, an optical signal corresponding to the audio content is transmitted from the optical transmitter 6.

この送信された光信号は、例えば図4に示したようにユーザ4のイヤホン7に設けられた光受信器8で受信され、アナログ音声信号に変換される。そして、このアナログ音声信号はイヤホン7のスピーカから出力される。かくして、ユーザは自身宛の音声コンテンツを、手の平5に投影された上記映像コンテンツの映像と同期する状態で聞くことが可能となる。  The transmitted optical signal is received by an optical receiver 8 provided in theearphone 7 of theuser 4 as shown in FIG. 4, for example, and converted into an analog audio signal. The analog audio signal is output from the speaker of theearphone 7. Thus, the user can listen to the audio content addressed to himself / herself in a state of being synchronized with the video content image projected onto thepalm 5.

なお、複数のユーザ4,4,…に同時に音声コンテンツの光信号を送信する場合には、複数の光送信器6,6,…を設けてこれらの光送信器6,6,…をそれぞれ発光駆動するか、或いは1個の光送信器6を時分割に発光駆動することにより、複数のユーザ4,4,…に向け見かけ上並行して送信することにより、実現できる。  When simultaneously transmitting optical signals of audio contents to a plurality ofusers 4, 4,..., A plurality of optical transmitters 6, 6,. It can be realized by driving or transmitting one optical transmitter 6 in a time-sharing manner and transmitting it to a plurality ofusers 4, 4,.

以上述べたように第3の実施形態では、ユーザ4の手の平5が情報提示エリアに移動したことが検出された場合に、プロジェクタ2による映像コンテンツの投影動作を開始すると共に、この映像コンテンツの投影動作と同期して、音声コンテンツデータの光信号を光送信器6から送信させるようにしている。しかも、ユーザ4が所持するIDカードのID番号をカメラ1の映像データをもとに読み取り、このID番号に対応する音声コンテンツを選択してユーザ4に提示するようにしている。
このため、ユーザが所持するIDカードの番号に応じて当該ユーザに対応する音声コンテンツを選択して提示することが可能となる。また、ユーザが複数存在する場合に、これらのユーザごとにそのIDカードの番号に応じて個別に音声コンテンツを提示することが可能となる。
As described above, in the third embodiment, when it is detected that thepalm 5 of theuser 4 has moved to the information presentation area, the projection operation of the video content by the projector 2 is started and the projection of the video content is performed. In synchronization with the operation, an optical signal of audio content data is transmitted from the optical transmitter 6. Moreover, the ID number of the ID card possessed by theuser 4 is read based on the video data of thecamera 1, and the audio content corresponding to this ID number is selected and presented to theuser 4.
For this reason, it becomes possible to select and present the audio content corresponding to the user according to the number of the ID card possessed by the user. In addition, when there are a plurality of users, it is possible to present audio contents individually for each of these users according to the ID card number.

なお、以上の説明ではユーザ4が所持する装置としてIDカードを使用し、このIDカードの番号をカメラ1の映像データから認識する場合を例にとって説明した。しかし、それに限らず、IDカードの色をもとにユーザを特定するようにしてもよい。また、IDカードにRFID(Radio Frequency IDentification)タグを埋め込んでおき、このRFIDタグをリーダにより読み取ることによりユーザを特定するようにしてもよい。さらには、ユーザ4が所持する装置として携帯電話機等の携帯端末を使用し、この携帯端末との間で通信を行うか、又は当該携帯端末に内蔵されたRFIDタグを読み取ることによりユーザを特定するようにしてもよい。  In the above description, an example has been described in which an ID card is used as the device possessed by theuser 4 and the ID card number is recognized from the video data of thecamera 1. However, the present invention is not limited to this, and the user may be specified based on the color of the ID card. Alternatively, an RFID (Radio Frequency IDentification) tag may be embedded in the ID card, and the user may be specified by reading the RFID tag with a reader. Furthermore, a mobile terminal such as a mobile phone is used as a device possessed by theuser 4 and communication is performed with the mobile terminal, or the user is specified by reading an RFID tag built in the mobile terminal. You may do it.

また、IDカードの代わりに、既にユーザ4が身につけているイヤホン7を利用し、このイヤホン7の固有の形状や色を映像データから認識することによりユーザを特定してもよい。さらに、イヤホン7にバーコードや二次元コード、マーク等の固有の識別コードまたは記号を付してこれを読み取るようにしたり、イヤホン7にRFIDタグを埋め込んでおいて、このRFIDタグをリーダにより読み取ることによりユーザを特定するようにしてもよい。  Further, instead of the ID card, theearphone 7 already worn by theuser 4 may be used, and the user may be identified by recognizing the unique shape and color of theearphone 7 from the video data. Furthermore, a unique identification code or symbol such as a bar code, a two-dimensional code, or a mark is attached to theearphone 7 so as to read it, or an RFID tag is embedded in theearphone 7 and the RFID tag is read by a reader. Thus, the user may be specified.

(第4の実施形態)
この発明の第4の実施形態は、ユーザ4の手の平5の動きを検出する際に、カメラ1により撮像された上記ユーザ4の映像データから、上記光送信器6から送信される光信号の上記手の平5による反射光を検出して、この反射光の検出結果をもとに当該ユーザ4の手の平5の動き検出するようにしたものである。
(Fourth embodiment)
In the fourth embodiment of the present invention, when detecting the movement of thepalm 5 of theuser 4, the optical signal transmitted from the optical transmitter 6 is detected from the video data of theuser 4 captured by thecamera 1. The reflected light from thepalm 5 is detected, and the movement of thepalm 5 of theuser 4 is detected based on the detection result of the reflected light.

図9は、この発明の第4の実施形態に係わる制御装置3のハードウエア及びソフトウエアの構成を示す機能ブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
プログラム13Dには、この発明の第4の実施形態を実施するためのアプリケーション・プログラムとして、光信号動作検出プログラム136を有するユーザ動作検出プログラム131bと、映像生成提示制御プログラム132aと、音声提示制御プログラム133が格納されている。
FIG. 9 is a functional block diagram showing the hardware and software configurations of thecontrol device 3 according to the fourth embodiment of the present invention. In the figure, the same parts as those in FIG.
Theprogram 13D includes, as application programs for implementing the fourth embodiment of the present invention, a useroperation detection program 131b having an optical signaloperation detection program 136, a video generationpresentation control program 132a, and a voice presentation control program. 133 is stored.

光信号動作検出プログラム136は、カメラ1により撮像されたユーザ4の映像データから、光送信器6から送信された光信号の上記手の平5による反射光を検出し、この反射光の検出結果をもとに当該ユーザ4の手の平5の動き検出する処理を、上記CPU11に実行させる。  The optical signaloperation detection program 136 detects the reflected light from thepalm 5 of the optical signal transmitted from the optical transmitter 6 from the video data of theuser 4 imaged by thecamera 1, and also displays the detection result of the reflected light. Then, theCPU 11 is caused to execute processing for detecting the movement of thepalm 5 of theuser 4.

次に、このような制御装置3を用いた情報提示動作を説明する。
例えばユーザ4の手の平5には、光を反射するシール等を貼付するか又は手袋をしておく。或いは、ユーザ4の手に光を反射する情報提示用のシートを持たせる。そして、カメラ1の映像データからユーザ4が検出されると、CPU11は光信号動作検出プログラム136を起動し、光送信器I/Fを介して光送信器6を発光駆動させてユーザ4に対し光を発光させる。
Next, an information presentation operation using such acontrol device 3 will be described.
For example, a sticker or the like that reflects light is attached to thepalm 5 of theuser 4 or a glove is put on. Alternatively, an information presentation sheet that reflects light is held in the hand of theuser 4. When theuser 4 is detected from the video data of thecamera 1, theCPU 11 activates the optical signaloperation detection program 136 to drive the optical transmitter 6 to emit light via the optical transmitter I / F. Light is emitted.

この状態で、CPU11はカメラ1の映像データをカメラI/F15を介して取り込み、この取り込んだ映像データ中から、上記光発光器6から発光された光の上記手の平5による反射光像を検出する。この反射光像は、その輝度が画像データ中の他の領域に比べて高くなるので、画像データをしきい値と比較することにより容易に検出可能である。CPU11は、上記反射光像によりユーザ4の手の平5を認識し、ユーザ4の手の平5の位置が予め設定した情報提示エリアに入ったか否かを判定する。  In this state, theCPU 11 captures the video data of thecamera 1 via the camera I /F 15 and detects a reflected light image of the light emitted from the light emitter 6 by thepalm 5 from the captured video data. . Since this reflected light image has a higher brightness than other areas in the image data, it can be easily detected by comparing the image data with a threshold value. TheCPU 11 recognizes thepalm 5 of theuser 4 from the reflected light image, and determines whether or not the position of thepalm 5 of theuser 4 has entered a preset information presentation area.

上記認識したユーザ4の手の平5の位置が、予め設定した情報提示エリアに入ったと判定されると、CPU11は映像生成提示制御プログラム132aを起動し、データベース14の映像データ記憶領域から提示対象の映像コンテンツのデータを読み出す。そして、上記読み出された映像コンテンツのデータをプロジェクタI/F16に送る。この結果、プロジェクタI/F16から上記映像コンテンツのデータがプロジェクタ2に送られ、これにより例えば図4に示すようにプロジェクタ2によりユーザ4の手の平5上に上記映像コンテンツに対応する光学像が投影される。  When it is determined that the recognized position of thepalm 5 of theuser 4 has entered the preset information presentation area, theCPU 11 activates the video generation /presentation control program 132a and displays the video to be presented from the video data storage area of thedatabase 14. Read content data. Then, the read video content data is sent to the projector I /F 16. As a result, data of the video content is sent from the projector I /F 16 to the projector 2, whereby an optical image corresponding to the video content is projected on thepalm 5 of theuser 4 by the projector 2, for example, as shown in FIG. 4. The

このように第4の実施形態では、ユーザ4の手の平5の動きを検出する際に、光送信器6からユーザ4の手の平5に向け光を発光し、この状態でカメラ1により撮像された上記ユーザ4の映像データから、上記光送信器6から送信される光信号の上記手の平5による反射光を検出して、この反射光の検出結果をもとに当該ユーザ4の手の平5の動き検出するようにしている。  As described above, in the fourth embodiment, when detecting the movement of thepalm 5 of theuser 4, light is emitted from the optical transmitter 6 toward thepalm 5 of theuser 4, and the image captured by thecamera 1 in this state is emitted. The reflected light from thepalm 5 of the optical signal transmitted from the optical transmitter 6 is detected from the video data of theuser 4, and the movement of thepalm 5 of theuser 4 is detected based on the detection result of the reflected light. I am doing so.

したがって、カメラ1の映像データからユーザ4の手の平5の動きを簡単な処理でかつ正確に検出することが可能となる。しかも、音声コンテンツの光信号を送信するために使用する光送信器6を上記手の平5の動き検出にも利用するため、新たな発光手段を設ける必要がなく、これによりシステム構成を安価にすることができる。  Therefore, it is possible to detect the movement of thepalm 5 of theuser 4 from the video data of thecamera 1 with simple processing and accurately. Moreover, since the optical transmitter 6 used for transmitting the optical signal of the audio content is also used for detecting the movement of thepalm 5, there is no need to provide a new light emitting means, thereby reducing the system configuration. Can do.

(その他の実施形態)
前記第4の実施形態において、光送信器6をカメラ1によりユーザを撮像する際の照明としても使用するようにしてもよい。その他、制御装置の構成と、その処理手順及び処理内容、撮像ユニット、投影ユニット、光送信ユニットの種類やその構成等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
(Other embodiments)
In the fourth embodiment, the optical transmitter 6 may be used as illumination when thecamera 1 captures an image of the user. In addition, the configuration of the control device, the processing procedure and processing contents thereof, the types and configurations of the imaging unit, the projection unit, and the optical transmission unit can be variously modified and implemented without departing from the scope of the present invention.

要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。  In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明の第1の実施形態に係わる情報提示制御装置を含む情報提示システムの概略構成図である。It is a schematic block diagram of the information presentation system containing the information presentation control apparatus concerning 1st Embodiment of this invention.この発明の第1の実施形態に係わる情報提示制御装置のハードウエア及びソフトウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the information presentation control apparatus concerning 1st Embodiment of this invention, and software.図2に示した情報提示制御装置の制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the control procedure and control content of the information presentation control apparatus shown in FIG.図1に示した情報提示システムによる情報提示動作の一例を説明するための図。The figure for demonstrating an example of the information presentation operation | movement by the information presentation system shown in FIG.この発明の第2の実施形態に係わる情報提示制御装置のハードウエア及びソフトウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the information presentation control apparatus concerning 2nd Embodiment of this invention, and software.図5に示した情報提示制御装置の制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the control procedure and control content of the information presentation control apparatus shown in FIG.この発明の第3の実施形態に係わる情報提示制御装置のハードウエア及びソフトウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the information presentation control apparatus concerning 3rd Embodiment of this invention, and software.図7に示した情報提示制御装置の制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the control procedure and control content of the information presentation control apparatus shown in FIG.この発明の第4の実施形態に係わる情報提示制御装置のハードウエア及びソフトウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the information presentation control apparatus concerning 4th Embodiment of this invention, and software.

符号の説明Explanation of symbols

1…カメラ、2…プロジェクタ、3…制御装置、4…ユーザ、5…手の平、6…光送信器、7…イヤホン、8…光受信器、11…CPU、12…バス、13…プログラムメモリ、14…データベース、15…カメラI/F、16…プロジェクタI/F、17…光送信器I/F、18…入出力I/F、19…入力デバイス、20…表示デバイス、131a,131b…ユーザ動作検出プログラム、132a…映像生成提示制御プログラム、133…音声提示制御プログラム、134a,134b…音声生成提示制御プログラム、135…装置検出プログラム、136…光信号動作検出プログラム。  DESCRIPTION OFSYMBOLS 1 ... Camera, 2 ... Projector, 3 ... Control apparatus, 4 ... User, 5 ... Palm, 6 ... Optical transmitter, 7 ... Earphone, 8 ... Optical receiver, 11 ... CPU, 12 ... Bus, 13 ... Program memory, DESCRIPTION OFSYMBOLS 14 ... Database, 15 ... Camera I / F, 16 ... Projector I / F, 17 ... Optical transmitter I / F, 18 ... Input / output I / F, 19 ... Input device, 20 ... Display device, 131a, 131b ... User Motion detection program, 132a ... Video generation / presentation control program, 133 ... Sound presentation control program, 134a, 134b ... Sound generation / presentation control program, 135 ... Device detection program, 136 ... Light signal motion detection program.

Claims (6)

Translated fromJapanese
ユーザを撮像する撮像ユニットと、前記ユーザの身体の一部を利用した擬似的な情報提示媒体に映像コンテンツ情報を投影するための投影ユニットと、前記ユーザが所持する、光信号を受信して音声に変換する光/音声変換ユニットに向けて光信号を送信する光送信ユニットにそれぞれ接続される情報提示制御装置であって、
前記撮像ユニットにより撮像された前記ユーザの映像データから、前記光送信ユニットから送信される光信号の前記情報提示媒体による反射光を検出し、この反射光の検出結果をもとに、当該ユーザの情報提示媒体の動き検出する手段と、
前記情報提示媒体の動きが検出された場合に、当該情報提示媒体に対し前記投影ユニットにより映像コンテンツ情報を投影させる手段と、
前記ユーザが所持する光/音声変換ユニットに向けて、前記光送信ユニットから音声コンテンツ情報に対応する光信号を送信させる手段と
を具備することを特徴とする情報提示制御装置。
An imaging unit for imaging a user, a projection unit for projecting video content information onto a pseudo information presentation medium using a part of the user's body, and an audio signal received by the user to receive sound An information presentation control device connected to each of the optical transmission units for transmitting an optical signal toward the optical / sound conversion unit for conversion to
From the video data of the user imaged by the imaging unit, thereflected light by the information presentation medium of the optical signal transmitted from the optical transmission unit is detected, and based onthe detection result of thereflected light , the user's Meansfor detecting movementof the information presentation medium;
Means for projecting video content information by the projection unit onto the information presentation medium when movement of the information presentation medium is detected;
An information presentation control apparatus comprising: means for transmitting an optical signal corresponding to audio content information from the optical transmission unit toward an optical / audio conversion unit possessed by the user.
前記光信号を送信させる手段は、前記情報提示媒体の動きが検出された場合に、前記映像コンテンツ情報の投影動作と同期して、前記音声コンテンツ情報に対応する光信号を前記光送信ユニットから送信させることを特徴とする請求項1記載の情報提示制御装置。  The means for transmitting the optical signal transmits the optical signal corresponding to the audio content information from the optical transmission unit in synchronization with the projection operation of the video content information when the movement of the information presentation medium is detected. The information presentation control apparatus according to claim 1, wherein: 前記ユーザが所持する固有の所持物を検出する手段を、さらに具備し、
前記光信号を送信させる手段は、予め記憶された複数の音声コンテンツ情報の中から、前記検出された固有の所持物に対応付けられた音声コンテンツ情報を選択し、この選択された音声コンテンツ情報に対応する光信号を前記光送信ユニットから送信させることを特徴とする請求項1又は2記載の情報提示制御装置。
A means for detecting a unique belonging possessed by the user;
The means for transmitting the optical signal selects audio content information associated with the detected unique belonging from a plurality of pieces of audio content information stored in advance, and selects the selected audio content information. 3. The information presentation control apparatus according to claim 1, wherein a corresponding optical signal is transmitted from the optical transmission unit.
ユーザを撮像する撮像ユニットと、前記ユーザの身体の一部を利用した擬似的な情報提示媒体に映像コンテンツ情報を投影するための投影ユニットと、前記ユーザが所持する、光信号を受信して音声に変換する光/音声変換ユニットに向けて光信号を送信する光送信ユニットにそれぞれ接続される情報提示制御装置に用いられる情報提示制御方法であって、
前記撮像ユニットにより撮像された前記ユーザの映像データから、前記光送信ユニットから送信される光信号の前記情報提示媒体による反射光を検出し、この反射光の検出結果をもとに、当該ユーザの情報提示媒体の動き検出する過程と、
前記情報提示媒体の動きが検出された場合に、当該情報提示媒体に対し前記投影ユニットにより映像コンテンツ情報を投影させる過程と、
前記ユーザが所持する光/音声変換ユニットに向けて、前記光送信ユニットから音声コンテンツ情報に対応する光信号を送信させる過程と
を具備することを特徴とする情報提示制御方法。
An imaging unit for imaging a user, a projection unit for projecting video content information onto a pseudo information presentation medium using a part of the user's body, and an audio signal received by the user to receive sound An information presentation control method used for an information presentation control device connected to an optical transmission unit that transmits an optical signal toward an optical / sound conversion unit that converts to
From the video data of the user imaged by the imaging unit, thereflected light by the information presentation medium of the optical signal transmitted from the optical transmission unit is detected, and based onthe detection result of thereflected light , the user's Detecting the movementof the information presentation medium;
Projecting video content information by the projection unit onto the information presentation medium when movement of the information presentation medium is detected;
And a step of transmitting an optical signal corresponding to the audio content information from the optical transmission unit to an optical / audio conversion unit possessed by the user.
前記光信号を送信させる過程は、前記情報提示媒体の動きが検出された場合に、前記映像コンテンツ情報の投影動作と同期して、前記音声コンテンツ情報に対応する光信号を前記光送信ユニットから送信させることを特徴とする請求項記載の情報提示制御方法。The process of transmitting the optical signal includes transmitting an optical signal corresponding to the audio content information from the optical transmission unit in synchronization with a projection operation of the video content information when a movement of the information presentation medium is detected. The information presentation control method according to claim4, wherein: 前記ユーザが固有の所持物を所持している場合に、
前記ユーザが固有の所持物を検出する過程を、さらに具備し、
前記光信号を送信させる過程は、予め記憶された複数の音声コンテンツ情報の中から、前記検出された固有の所持物に対応付けられた音声コンテンツ情報を選択し、この選択された音声コンテンツ情報に対応する光信号を前記光送信ユニットから送信させることを特徴とする請求項4又は5記載の情報提示制御方法。
If the user has his / her own personal belongings,
Further comprising the step of detecting the unique belongings of the user;
In the process of transmitting the optical signal, audio content information associated with the detected unique belonging is selected from a plurality of audio content information stored in advance, and the selected audio content information is selected. 6. The information presentation control method according to claim4 , wherein a corresponding optical signal is transmitted from the optical transmission unit.
JP2008163765A2008-06-232008-06-23 Information presentation control apparatus and information presentation control methodExpired - Fee RelatedJP4964833B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2008163765AJP4964833B2 (en)2008-06-232008-06-23 Information presentation control apparatus and information presentation control method

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2008163765AJP4964833B2 (en)2008-06-232008-06-23 Information presentation control apparatus and information presentation control method

Publications (2)

Publication NumberPublication Date
JP2010003264A JP2010003264A (en)2010-01-07
JP4964833B2true JP4964833B2 (en)2012-07-04

Family

ID=41584906

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2008163765AExpired - Fee RelatedJP4964833B2 (en)2008-06-232008-06-23 Information presentation control apparatus and information presentation control method

Country Status (1)

CountryLink
JP (1)JP4964833B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP5550670B2 (en)*2012-03-282014-07-16株式会社デンソーアイティーラボラトリ Information processing device
JP2015018485A (en)*2013-07-122015-01-29株式会社ニコン Electronic control apparatus, control method, and control program
JP6349886B2 (en)*2014-01-302018-07-04株式会社リコー Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
JP6931757B2 (en)*2016-09-232021-09-08株式会社インテロール Signage devices, display methods, and programs
CN111093066A (en)*2019-12-032020-05-01耀灵人工智能(浙江)有限公司Dynamic plane projection method and system
JP7436829B2 (en)2020-04-062024-02-22株式会社デンソーウェーブ optical reading system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP4256850B2 (en)*2005-02-042009-04-22日本電信電話株式会社 Information presenting apparatus, information presenting method, and information presenting program
JP2007081719A (en)*2005-09-132007-03-29Onkyo Corp Network type content playback system and its controller and client
JP4352409B2 (en)*2005-09-282009-10-28日本ビクター株式会社 Multimedia coded data separation and transmission device

Also Published As

Publication numberPublication date
JP2010003264A (en)2010-01-07

Similar Documents

PublicationPublication DateTitle
CN102498725B (en)Mobile device which automatically determines operating mode
US11880410B2 (en)Systems and methods for proactive information discovery with multiple senses
JP4964833B2 (en) Information presentation control apparatus and information presentation control method
US11165728B2 (en)Electronic device and method for delivering message by to recipient based on emotion of sender
CN104813642A (en)Methods, apparatuses and computer readable medium for triggering a gesture recognition mode and device pairing and sharing via non-touch gestures
US8169469B2 (en)Information processing device, information processing method and computer readable medium
JP5605725B2 (en) Information notification system, information notification method, information processing apparatus, control method thereof, and control program
KR102330637B1 (en)System, server, method and recording medium for providing augmented reality photocard
US11978007B2 (en)System, apparatus and method for compressing and storing data based on the amount of change in the sensed data used for state management of logistics
US20160373165A1 (en)Method for communication between electronic devices through interaction of users with objects
CN114512132B (en) Content display method, device and electronic device
KR20110018343A (en) Generate message to be sent
US8620113B2 (en)Laser diode modes
US10593077B2 (en)Associating digital ink markups with annotated content
JP4268667B2 (en) Audio information recording device
JP6048475B2 (en) Content output apparatus and program
KR20170129045A (en)Electronic pen for contents streaming service, system and method for providing contents streaming service using the electronic pen
US10541006B2 (en)Information processor, information processing method, and program
KR102167588B1 (en)Video producing service device based on contents received from a plurality of user equipments, video producing method based on contents received from a plurality of user equipments and computer readable medium having computer program recorded therefor
JP2017090918A (en)Content output apparatus and program
KR102527585B1 (en)Mobile terminal and method for controlling the same
JP4248589B2 (en) Speech recognition system
JP2018165879A (en)Electronic blackboard system and display method
KR20120101206A (en)System and method for providing real-time gquestion and answer using image recognition
KR20210141235A (en)Electronic device for transmitting or receiving signal to or from devices in communication group based on information obtained from external device and controlling method thereof

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20100805

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20111007

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20111025

A521Written amendment

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20111226

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20120228

A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20120328

R150Certificate of patent or registration of utility model

Free format text:JAPANESE INTERMEDIATE CODE: R150

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20150406

Year of fee payment:3

S531Written request for registration of change of domicile

Free format text:JAPANESE INTERMEDIATE CODE: R313531

R350Written notification of registration of transfer

Free format text:JAPANESE INTERMEDIATE CODE: R350

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp