Movatterモバイル変換


[0]ホーム

URL:


JP7685831B2 - Entertainment Systems and Programs - Google Patents

Entertainment Systems and Programs
Download PDF

Info

Publication number
JP7685831B2
JP7685831B2JP2020218578AJP2020218578AJP7685831B2JP 7685831 B2JP7685831 B2JP 7685831B2JP 2020218578 AJP2020218578 AJP 2020218578AJP 2020218578 AJP2020218578 AJP 2020218578AJP 7685831 B2JP7685831 B2JP 7685831B2
Authority
JP
Japan
Prior art keywords
display device
display
information
content
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020218578A
Other languages
Japanese (ja)
Other versions
JP2022103751A (en
Inventor
通就 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco LtdfiledCriticalKabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2020218578ApriorityCriticalpatent/JP7685831B2/en
Publication of JP2022103751ApublicationCriticalpatent/JP2022103751A/en
Priority to JP2025083747Aprioritypatent/JP2025114850A/en
Application grantedgrantedCritical
Publication of JP7685831B2publicationCriticalpatent/JP7685831B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Description

Translated fromJapanese

本発明は、エンターテインメントシステム及びプログラム等に関する。The present invention relates to an entertainment system and a program.

従来より2つの表示画像の組み合わせによるコンテンツ画像をユーザに視認させるシステムが知られている。特許文献1のシステムは、特定色が透過される透過画像を表示する透過型モニターと、当該透過画像と組み合わせることによりゲーム画面を形成する基礎画面を、透過型モニターの後方に投影するプロジェクタとを備えている。そして透過画像と基礎画面の組み合わせにより情報提供用画像を形成する。Systems that allow users to view a content image that is a combination of two display images are known. The system in Patent Document 1 includes a transmissive monitor that displays a transmissive image that allows a specific color to be transmitted, and a projector that projects a basic screen that forms a game screen by combining the transmissive image onto the rear of the transmissive monitor. An information providing image is then formed by combining the transmissive image with the basic screen.

特開2015-146913号公報JP 2015-146913 A

しかしながら、これまでは、第1表示装置と第2表示装置との連動制御を行って、第1表示装置の表示物等に関連するコンテンツ情報を、ユーザに通知するようなシステムについては提案されていなかった。However, until now, there has been no proposal for a system that controls the linkage between the first and second display devices to notify the user of content information related to the display items on the first display device.

本開示によれば、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム及びプログラム等を提供できる。The present disclosure provides an entertainment system and program that can notify a user of content information related to a first display device in a system using a first display device and a second display device.

本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、を含み、前記コンテンツ処理部は、検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。One aspect of the present disclosure relates to an entertainment system using a first display device and a second display device on which the display image of the first display device is visible, the entertainment system including a gaze area detection unit that detects the gaze area of the user on the display screen of the first display device based on information on the user's line of sight, and a content processing unit that performs processing to make the user view a content image in which the display image of the second display device is added to the display image of the first display device, the content processing unit performing a notification process to notify the user of content information corresponding to the detected gaze area using the second display device. Another aspect of the present disclosure relates to a program that causes a computer to function as each of the above-mentioned units, or a computer-readable information storage medium that stores the program.

本開示の一態様によれば、第1表示装置の表示画面でのユーザの注視領域が検出される。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、注視領域に対応するコンテンツ情報を、第2表示装置を用いてユーザに通知する通知処理が行われる。このようにすれば、ユーザは、第1表示装置の表示画面において自身が注視した注視領域に対応するコンテンツ情報を、第2表示装置を利用して知ることが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。According to one aspect of the present disclosure, a user's gaze area on the display screen of the first display device is detected. A process is performed in which the user is allowed to view a content image in which the display image of the second display device is added to the display image of the first display device. At this time, a notification process is performed in which the user is notified of content information corresponding to the gaze area using the second display device. In this way, the user can use the second display device to know content information corresponding to the gaze area that the user is gazing at on the display screen of the first display device. Therefore, it is possible to provide an entertainment system or the like that can notify the user of content information related to the first display device in a system using the first and second display devices.

また本開示の一態様では、前記通知処理は、前記第2表示装置を用いて前記コンテンツ情報を表示する処理であってもよい。In one aspect of the present disclosure, the notification process may be a process of displaying the content information using the second display device.

このようにすれば、ユーザは、第1表示装置の表示画面において自身が注視した注視領域に対応するコンテンツ情報を、第2表示装置の表示画像により視覚的に認識できるようになる。In this way, the user can visually recognize the content information corresponding to the area of interest that the user is gazing at on the display screen of the first display device through the display image of the second display device.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様に応じて、前記コンテンツ情報の通知態様を変化させてもよい。In one aspect of the present disclosure, the content processing unit may change the notification mode of the content information depending on the information of the display object displayed on the first display device or the display mode of the first display device.

このようにすれば、第1表示装置の表示画像に第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。In this way, in an entertainment system that allows a user to view a content image in which a display image of a second display device is added to a display image of a first display device, it becomes possible to notify the user of appropriate content information according to the display object or display mode of the first display device.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行ってもよい。In one aspect of the present disclosure, the content processing unit may perform display control of an object displayed on the second display device according to information about the display object of the first display device or a display mode of the first display device.

このようにすれば、第1表示装置の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置に表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, an object whose display is controlled according to the display state or display object of the first display device can be displayed on the second display device, and the user can view a content image in which an image of the object is added to the display image of the first display device.

また本開示の一態様では、前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、前記コンテンツ処理部は、前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定してもよい。In one aspect of the present disclosure, the information on the display object is information on a gaze display object gazed upon by the user on the display screen of the first display device, and the content processing unit may set a display position of the object displayed on the second display device according to the information on the gaze display object or the display mode of the first display device.

このようにすれば、第1表示装置の注視表示物の情報又は第1表示装置の表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, the object can be displayed at a display position that corresponds to the information on the gaze object of the first display device or the display mode of the first display device, allowing the user to view a content image in which the image of the object is added to the display image of the first display device.

また本開示の一態様では、前記表示物の情報は、前記第1表示装置の前記表示画面において前記ユーザにより注視された注視表示物の情報であり、前記コンテンツ処理部は、前記注視表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定してもよい。In one aspect of the present disclosure, the information on the display object is information on a gaze display object gazed upon by the user on the display screen of the first display device, and the content processing unit may set the display mode of the object displayed on the second display device according to the information on the gaze display object or the display mode of the first display device.

このようにすれば、第1表示装置の注視表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, the object is displayed in a display mode that corresponds to the information or display mode of the gaze object of the first display device, and the user can view a content image in which the image of the object is added to the display image of the first display device.

また本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記第1表示装置に表示される表示物の情報又は前記第1表示装置の表示態様の情報を取得する情報取得部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部を含み、前記コンテンツ処理部は、コンテンツ情報を前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、前記第1表示装置の前記表示物の情報又は前記第1表示装置の前記表示態様に応じて、前記コンテンツ情報の通知態様を変化させるエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。Another aspect of the present disclosure relates to an entertainment system using a first display device and a second display device on which a display image of the first display device is visible, the entertainment system including an information acquisition unit that acquires information on an object displayed on the first display device or information on a display mode of the first display device, and a content processing unit that performs processing to cause the user to view a content image in which a display image of the second display device is added to a display image of the first display device, the content processing unit performing a notification process to notify the user of content information using the second display device, and changing the notification mode of the content information according to the information on the object of the first display device or the display mode of the first display device. Another aspect of the present disclosure relates to a program that causes a computer to function as each of the above-mentioned units, or a computer-readable information storage medium that stores the program.

本開示の一態様によれば、第1表示装置に表示される表示物の情報又は表示態様の情報が取得される。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、第1表示装置の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理が行われる。このようにすれば、第1表示装置の表示画像に第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。According to one aspect of the present disclosure, information on the display object or information on the display mode displayed on the first display device is acquired. A process is also performed in which the user is allowed to view a content image in which the display image of the second display device is added to the display image of the first display device. At this time, a process is performed in which the notification mode of the content information is changed according to the information on the display object or the display mode of the first display device. In this way, in an entertainment system in which the user is allowed to view a content image in which the display image of the second display device is added to the display image of the first display device, it is possible to notify the user of appropriate content information according to the display object or the display mode of the first display device. Therefore, it is possible to provide an entertainment system or the like that can notify the user of content information related to the first display device in a system using the first display device and the second display device.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示されるオブジェクトの表示制御を行ってもよい。In one aspect of the present disclosure, the content processing unit may perform display control of an object displayed on the second display device according to information about the display object of the first display device or a display mode of the first display device.

このようにすれば、第1表示装置の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置に表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, an object whose display is controlled according to the display state or display object of the first display device can be displayed on the second display device, and the user can view a content image in which an image of the object is added to the display image of the first display device.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示位置を設定してもよい。In one aspect of the present disclosure, the content processing unit may set a display position of the object displayed on the second display device according to information about the display object of the first display device or a display mode of the first display device.

このようにすれば、第1表示装置の表示物の情報又は表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, the object can be displayed at a display position that corresponds to the information or display mode of the display item on the first display device, and the user can view a content image in which the image of the object is added to the display image on the first display device.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置の前記表示物の情報又は前記第1表示装置の表示態様に応じて、前記第2表示装置に表示される前記オブジェクトの表示態様を設定してもよい。In one aspect of the present disclosure, the content processing unit may set the display mode of the object displayed on the second display device according to the information of the display object of the first display device or the display mode of the first display device.

このようにすれば、第1表示装置の表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。In this way, the object can be displayed in a display mode that corresponds to the information or display mode of the display item on the first display device, and the user can view a content image in which the image of the object is added to the display image on the first display device.

また本開示の一態様では、前記第2表示装置に表示される前記オブジェクトは、前記第1表示装置に表示される前記表示物に関連するオブジェクトであってもよい。In one aspect of the present disclosure, the object displayed on the second display device may be an object related to the display object displayed on the first display device.

このようにすれば、第1表示装置の表示物に関連するオブジェクトを、第1表示装置の表示画像に重畳表示されるオブジェクトとして、第2表示装置により表示できるようになる。In this way, an object related to the display object of the first display device can be displayed by the second display device as an object superimposed on the display image of the first display device.

また本開示の一態様では、前記第1表示装置の前記表示物の情報は、前記表示物のパラメータ情報、前記表示物の表示位置情報又は前記表示物の表示態様情報であってもよい。In one aspect of the present disclosure, the information on the display object of the first display device may be parameter information on the display object, display position information on the display object, or display mode information on the display object.

このようにすれば、表示物のパラメータ情報、表示位置情報又は表示態様情報に応じて、第2表示装置を用いて通知されるコンテンツ情報の通知態様を変化させることなどが可能になる。In this way, it becomes possible to change the notification mode of the content information notified using the second display device depending on the parameter information, display position information, or display mode information of the displayed object.

また本開示の一態様は、第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、前記第2表示装置のカメラにより前記第1表示装置を撮影した撮影画像の解析処理を行う画像解析部と、前記第1表示装置の表示画像に対して前記第2表示装置の表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、を含み、前記コンテンツ処理部は、前記撮影画像の前記解析処理の結果に基づくコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行うエンターテインメントシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。Another aspect of the present disclosure relates to an entertainment system using a first display device and a second display device on which a display image of the first display device is visible, the entertainment system including an image analysis unit that performs an analysis process of a captured image of the first display device by a camera of the second display device, and a content processing unit that performs a process of making the user view a content image in which the display image of the second display device is added to the display image of the first display device, the content processing unit performing a notification process of notifying the user of content information based on the result of the analysis process of the captured image using the second display device. Another aspect of the present disclosure relates to a program that causes a computer to function as each of the above-mentioned units, or a computer-readable information storage medium that stores the program.

本開示の一態様によれば、第2表示装置が有するカメラにより第1表示装置を撮影した撮影画像の解析処理が行われる。また第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像をユーザに視認させる処理が行われる。そして、この際に、撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置を用いてユーザに通知する通知処理が行われる。このようにすれば、ユーザは、第2表示装置のカメラにより第1表示装置を撮影することで得られた撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置を利用して知ることが可能になる。従って、第1表示装置と第2表示装置を用いたシステムにおいて第1表示装置に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。According to one aspect of the present disclosure, an analysis process is performed on a captured image of the first display device by a camera of the second display device. A process is also performed in which the user is allowed to view a content image in which the display image of the second display device is added to the display image of the first display device. At this time, a notification process is performed to notify the user of content information based on the results of the analysis process of the captured image using the second display device. In this way, the user can use the second display device to know content information based on the results of the analysis process of the captured image obtained by capturing an image of the first display device with the camera of the second display device. Therefore, it is possible to provide an entertainment system or the like that can notify the user of content information related to the first display device in a system using the first and second display devices.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置と前記第2表示装置の位置関係に応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させてもよい。In one aspect of the present disclosure, the content processing unit may change the display content of the first display device or the second display device, or the notification mode of the content information, depending on the positional relationship between the first display device and the second display device.

このようにすれば、第1表示装置と第2表示装置の位置関係に応じた適切な表示内容で、第1表示装置又は第2表示装置に画像を表示したり、或いは第1表示装置と第2表示装置の位置関係に応じた適切な通知態様で、第2表示装置によりコンテンツ情報をユーザに通知できるようになる。In this way, an image can be displayed on the first or second display device with appropriate display content according to the relative positions of the first and second display devices, or content information can be notified to the user by the second display device in an appropriate notification manner according to the relative positions of the first and second display devices.

また本開示の一態様では、前記コンテンツ処理部は、前記第1表示装置と前記第2表示装置の位置関係と、前記第1表示装置に表示される表示物の情報とに応じて、前記第1表示装置又は前記第2表示装置の表示内容、或いは前記コンテンツ情報の通知態様を変化させてもよい。In one aspect of the present disclosure, the content processing unit may change the display content of the first display device or the second display device, or the notification mode of the content information, depending on the positional relationship between the first display device and the second display device and information on an object displayed on the first display device.

このようにすれば、第1表示装置と第2表示装置の位置関係と第1表示装置の表示物の情報に応じた適切な表示内容で、第1表示装置又は第2表示装置に画像を表示したり、或いは当該位置関係と表示物の情報に応じた適切な通知態様で、第2表示装置によりコンテンツ情報をユーザに通知できるようになる。In this way, an image can be displayed on the first or second display device with appropriate display content according to the positional relationship between the first and second display devices and the information of the displayed object on the first display device, or content information can be notified to the user by the second display device in an appropriate notification manner according to the positional relationship and the information of the displayed object.

本実施形態のエンターテインメントシステムのシステム構成例。2 shows an example of a system configuration of the entertainment system according to the present embodiment.第1表示装置の表示画像に対して第2表示装置の表示画像が付加されたコンテンツ画像の説明図。FIG. 11 is an explanatory diagram of a content image in which a display image of a second display device is added to a display image of a first display device.ユーザの注視領域に対応するコンテンツ情報を第2表示装置を用いてユーザに通知する通知処理の説明図。11 is an explanatory diagram of a notification process for notifying a user of content information corresponding to the user's gaze area using a second display device.振動や音声を用いたコンテンツ情報の通知処理の説明図。11A and 11B are explanatory diagrams of a notification process of content information using vibration and sound.第2表示装置の一例である透過型HMDを示す図。FIG. 4 is a diagram showing a see-through type HMD as an example of a second display device.本実施形態のエンターテインメントシステムの構成例を示すブロック図。1 is a block diagram showing an example of the configuration of an entertainment system according to an embodiment of the present invention.図7(A)、図7(B)は本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す図。7A and 7B are diagrams showing an example of the hardware configuration of the entertainment system of this embodiment.本実施形態の処理例を説明するフローチャート。4 is a flowchart illustrating a processing example of the present embodiment.本実施形態の処理例を説明するフローチャート。4 is a flowchart illustrating a processing example of the present embodiment.本実施形態の詳細な処理例を説明するフローチャート。5 is a flowchart illustrating a detailed processing example of the embodiment.図11(A)、図11(B)は第1表示装置の表示物の情報又は表示態様に応じた第2表示装置のオブジェクトの表示位置の設定手法の説明図。11A and 11B are diagrams illustrating a method for setting the display position of an object on the second display device according to information or a display mode of a display object on the first display device.第1表示装置の表示物の情報又は表示態様に応じた第2表示装置のオブジェクトの表示態様の設定手法の説明図。11 is an explanatory diagram of a method for setting the display mode of an object on the second display device according to information or a display mode of a display object on the first display device.第1表示装置の表示物の情報の説明図。FIG. 4 is an explanatory diagram of information displayed on the first display device.第1表示装置と第2表示装置の位置関係に応じて第1表示装置又は第2表示装置の表示内容、或いはコンテンツ情報の通知態様を変化させる手法の説明図。11 is an explanatory diagram of a method for changing the display content of the first display device or the second display device, or the notification mode of content information, depending on the positional relationship between the first display device and the second display device.図15(A)、図15(B)は実空間の認識処理による実空間情報の取得処理の説明図。15A and 15B are explanatory diagrams of a process for acquiring real space information by a process for recognizing a real space.実空間の認識処理を用いて第1表示装置と第2表示装置の位置関係を検出する手法の説明図。11 is an explanatory diagram of a method for detecting the positional relationship between the first display device and the second display device using a recognition process of the real space.第1表示装置から第2表示装置側に表示物が移動して見えるようにユーザに認識させる手法の説明図。11 is an explanatory diagram of a technique for making a user recognize that a displayed object appears to move from a first display device to a second display device.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。The present embodiment will be described below. Note that the present embodiment described below does not unduly limit the contents of the claims. Furthermore, not all of the configurations described in the present embodiment are necessarily essential components.

1.エンターテインメントシステム
図1に本実施形態のエンターテインメントシステムのシステム構成例を示す。本実施形態のエンターテインメントシステムは、第1表示装置10と第2表示装置200を用いて実現される。例えば本実施形態のエンターテインメントシステムは、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200を用いてユーザに対して種々のエンターテインメントコンテンツを提供するシステムである。第1表示装置10は、例えばメインの表示装置である。具体的には第1表示装置10は、PC(パーソナルコンピュータ)などの情報処理装置のモニター(ディスプレイ)や、テレビのモニターや、ゲーム装置のモニターや、或いはライブやクラブの会場に設置される大型モニターなどである。図1では、第1表示装置10には、例えばキャラクタCH1、CH2、CH3とキャラクタCE1、CE2、CE3とが対戦するゲームコンテンツの画像が表示されている。第2表示装置200は、例えばサブの表示装置である。例えば第2表示装置200は、第1表示装置10の表示画像が視認可能な表示装置である。例えばユーザは、第2表示装置200の表示部により、第1表示装置10の表示画像の視認が可能になっている。図1では、第2表示装置200として透過型HMD(広義にはHMD、透過型表示装置)が用いられている。透過型HMDは、ユーザが装着する透過型の頭部装着型表示装置(Head Mounted Display)である。透過型HMDは例えば光学透過型のHMDである。
1. Entertainment System FIG. 1 shows an example of the system configuration of the entertainment system of this embodiment. The entertainment system of this embodiment is realized by using afirst display device 10 and asecond display device 200. For example, the entertainment system of this embodiment is a system that provides various entertainment contents to a user by using thefirst display device 10 and thesecond display device 200 on which the display image of thefirst display device 10 can be viewed. Thefirst display device 10 is, for example, a main display device. Specifically, thefirst display device 10 is a monitor (display) of an information processing device such as a PC (personal computer), a television monitor, a game device monitor, or a large monitor installed at a venue of a live show or a club. In FIG. 1, thefirst display device 10 displays an image of a game content in which characters CH1, CH2, and CH3 compete against characters CE1, CE2, and CE3. Thesecond display device 200 is, for example, a sub display device. For example, thesecond display device 200 is a display device on which the display image of thefirst display device 10 can be viewed. For example, a user can view a display image of thefirst display device 10 through a display unit of thesecond display device 200. In Fig. 1, a transmissive HMD (HMD in a broad sense, transmissive display device) is used as thesecond display device 200. The transmissive HMD is a transmissive head mounted display worn by a user. The transmissive HMD is, for example, an optical transmissive HMD.

なお、以下では、第2表示装置200が透過型HMDである場合を主に例にとり説明するが、第2表示装置200は、透過型HMD以外の透過型表示装置であってもよい。例えば透過型HMDは、ユーザが頭部に装着する表示装置であるが、第2表示装置200は、ユーザが頭部に装着しないタイプの透過型表示装置であってもよい。例えば第2表示装置200は、ユーザが手に所持したり、ユーザが所望の場所に置いて使用する透過型表示装置であってもよい。或いは、第2表示装置200は、透過型表示装置以外の表示装置であってもよく、例えばカメラによる第1表示装置10の撮影画像が表示部に表示されることで、第1表示装置10の表示画像の視認が可能になるような表示装置であってもよい。Note that, in the following, thesecond display device 200 will be mainly described as a transmissive HMD, but thesecond display device 200 may be a transmissive display device other than a transmissive HMD. For example, a transmissive HMD is a display device that the user wears on the head, but thesecond display device 200 may be a transmissive display device that the user does not wear on the head. For example, thesecond display device 200 may be a transmissive display device that the user holds in his/her hand or places in a desired location for use. Alternatively, thesecond display device 200 may be a display device other than a transmissive display device, and may be a display device that displays an image of thefirst display device 10 captured by a camera on a display unit, thereby enabling the display image of thefirst display device 10 to be viewed.

図2は、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像の説明図である。本実施形態では、第1表示装置10の表示画像IMDに対して、第2表示装置200の表示画像IMHが付加(重畳)されたコンテンツ画像をユーザに視認させる処理が行われる。例えば第2表示装置200が透過型HMDである場合には、第1表示装置10の表示画像IMDは、第2表示装置200の光学素子を透過してユーザに視認される。そして第2表示装置200の表示画像IMHが、第2表示装置200を透過する第1表示装置10の表示画像IMDに対して重ねて表示される。第2表示装置200の表示画像IMHは、例えば第2表示装置200により表示される虚像である。後述する図5を例にとれば、表示画像IMHは、第2表示装置200である透過型HMD202の表示装置243の表示画像である。こうすることで、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像をユーザに視認させることが可能になる。2 is an explanatory diagram of a content image in which the display image IMH of thesecond display device 200 is added to the display image IMD of thefirst display device 10. In this embodiment, a process is performed to allow the user to view a content image in which the display image IMH of thesecond display device 200 is added (superimposed) to the display image IMD of thefirst display device 10. For example, when thesecond display device 200 is a transmissive HMD, the display image IMD of thefirst display device 10 is transmitted through the optical element of thesecond display device 200 and viewed by the user. The display image IMH of thesecond display device 200 is displayed superimposed on the display image IMD of thefirst display device 10 that transmits through thesecond display device 200. The display image IMH of thesecond display device 200 is, for example, a virtual image displayed by thesecond display device 200. Taking FIG. 5 described later as an example, the display image IMH is a display image of thedisplay device 243 of thetransmissive HMD 202, which is thesecond display device 200. This allows the user to visually recognize a content image in which the display image IMH of thesecond display device 200 is added to the display image IMD of thefirst display device 10.

なお図2では、コンテンツ画像として、ゲームコンテンツの画像の例が示されている。しかしながら、本実施形態のコンテンツ画像は、このようなゲームコンテンツの画像には限定されず、配信動画、映画、環境映像、観光映像又はシミュレーション映像などの種々のコンテンツ(視覚コンテンツ)の画像を想定できる。In FIG. 2, an example of an image of game content is shown as the content image. However, the content image in this embodiment is not limited to such an image of game content, and can be an image of various content (visual content) such as streaming video, movies, environmental footage, sightseeing footage, or simulation footage.

また第2表示装置200が、透過型HMD以外の透過型表示装置である例えば透過型タブレット端末である場合には、第1表示装置10の表示画像IMDは、透過型タブレット端末を透過してユーザに表示される。そして、透過型タブレット端末を透過した表示画像IMDと、透過型タブレット端末により生成された表示画像IMHとがユーザに表示されることで、第1表示装置10の表示画像IMD(透過画像)に対して、第2表示装置200の表示画像IMHが付加されたコンテンツ画像を、ユーザが視認できるようになる。また第2表示装置200が、透過型表示装置以外の表示装置である例えばスマートフォン、携帯型ゲーム装置等の端末装置である場合には、例えば第1表示装置10の表示画像IMDをカメラにより撮影する。そしてカメラの撮影画像に対して、第2表示装置200により生成された表示画像IMHを重畳表示することで、第1表示装置10の表示画像IMD(撮影画像)に対して、第2表示装置200の表示画像IMHが付加されたコンテンツ画像を、ユーザが視認できるようになる。In addition, when thesecond display device 200 is a transparent display device other than a transparent HMD, for example, a transparent tablet terminal, the display image IMD of thefirst display device 10 is displayed to the user through the transparent tablet terminal. Then, the display image IMD transmitted through the transparent tablet terminal and the display image IMH generated by the transparent tablet terminal are displayed to the user, so that the user can visually recognize a content image in which the display image IMH of thesecond display device 200 is added to the display image IMD (transparent image) of thefirst display device 10. In addition, when thesecond display device 200 is a terminal device such as a smartphone or a portable game device, which is a display device other than a transparent display device, for example, the display image IMD of thefirst display device 10 is photographed by a camera. Then, the display image IMH generated by thesecond display device 200 is superimposed on the image photographed by the camera, so that the user can visually recognize a content image in which the display image IMH of thesecond display device 200 is added to the display image IMD (photographed image) of thefirst display device 10.

そして図2では、第2表示装置200を用いて、第1表示装置10に関連するコンテンツ情報が表示画像IMHとして表示される。第1表示装置10に関連するコンテンツ情報は、具体的には例えば第1表示装置10に表示される表示物又は第1表示装置10の表示内容に関連するコンテンツ情報である。例えば第1表示装置10には表示物としてキャラクタCH1等が表示されている。そして、このキャラクタCH1に関連するコンテンツ情報が、表示画像IMHとして第2表示装置200に表示され、第1表示装置10の表示画像IMDに対して、このコンテンツ情報の表示画像IMHが重ねて表示される。図2では、表示画像IMHにより通知されるコンテンツ情報は、ゲーム情報であり、第1表示装置10の表示物であるキャラクタCH1に関連するゲーム情報である。具体的にはコンテンツ情報であるゲーム情報は、キャラクタCH1のヒットポイント(HP)、マジックポイント(MP)、経験値(EXP)、レベル(LV)、装備品(EQP)などの情報である。表示画像IMHにおいては、ヒットポイント(HP)の情報は、ヒットポイントゲージのオブジェクトOB1により表示され、マジックポイント(MP)の情報は、マジックポイントゲージのオブジェクトOB2により表示されている。経験値(EXP)、レベル(LV)の情報は、各々、経験値、レベルを表す数字のオブジェクトOB3、OB4により表示され、装備品(EQP)の情報は、装備品を表象するアイコンのオブジェクトOB5により表示されている。In FIG. 2, the content information related to thefirst display device 10 is displayed as a display image IMH using thesecond display device 200. The content information related to thefirst display device 10 is specifically, for example, content information related to the display object displayed on thefirst display device 10 or the display contents of thefirst display device 10. For example, thefirst display device 10 displays a character CH1 or the like as a display object. The content information related to this character CH1 is displayed as a display image IMH on thesecond display device 200, and the display image IMH of this content information is superimposed on the display image IMD of thefirst display device 10. In FIG. 2, the content information notified by the display image IMH is game information, and is game information related to the character CH1, which is the display object of thefirst display device 10. Specifically, the game information, which is content information, is information such as the hit points (HP), magic points (MP), experience points (EXP), level (LV), and equipment (EQP) of the character CH1. In the display image IMH, hit point (HP) information is displayed by a hit point gauge object OB1, and magic point (MP) information is displayed by a magic point gauge object OB2. Experience point (EXP) and level (LV) information are displayed by numerical objects OB3 and OB4 representing experience points and level, respectively, and equipment (EQP) information is displayed by an icon object OB5 representing equipment.

このように本実施形態では、第1表示装置10の表示物又は表示内容等に関連するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行っている。図2を例にとれば、第1表示装置10の表示物であるキャラクタCH1に関連するコンテンツ情報(HP、MP、EXP、LV、EQP)を、第2表示装置200を用いてユーザに通知している。具体的には、キャラクタCH1に関連するコンテンツ情報の表示画像IMHを、第2表示装置200(表示装置243)を用いて表示して、第1表示装置10の表示画像IMDに重ねてユーザに視認させることで、コンテンツ情報をユーザに通知している。即ち、この場合のコンテンツ情報の通知処理は、第2表示装置200を用いてコンテンツ情報(表示画像IMH)を表示する処理である。In this manner, in this embodiment, a notification process is performed in which content information related to the display object or display content of thefirst display device 10 is notified to the user using thesecond display device 200. Taking FIG. 2 as an example, content information (HP, MP, EXP, LV, EQP) related to the character CH1, which is the display object of thefirst display device 10, is notified to the user using thesecond display device 200. Specifically, the display image IMH of the content information related to the character CH1 is displayed using the second display device 200 (display device 243) and superimposed on the display image IMD of thefirst display device 10 so that the user can view it, thereby notifying the user of the content information. That is, the notification process of the content information in this case is a process of displaying the content information (display image IMH) using thesecond display device 200.

このように本実施形態では、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像(図2)をユーザに視認させる処理を行う。また本実施形態では、ユーザの視線方向の情報に基づいて、第1表示装置10の表示画面でのユーザの注視領域を検出する。そして検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。In this manner, in this embodiment, a process is performed in which the user is made to view a content image (FIG. 2) in which the display image IMH of thesecond display device 200 is added to the display image IMD of thefirst display device 10. Also, in this embodiment, the user's gaze area on the display screen of thefirst display device 10 is detected based on information about the user's line of sight. Then, a notification process is performed in which thesecond display device 200 is used to notify the user of content information corresponding to the detected gaze area.

例えば図3では、ユーザUSの視線方向LSが検出されている。ユーザUSの視線方向LSは、例えば第2表示装置200の方向(向く方向)を検出することで検出できる。具体的には視線方向LSの情報は、第2表示装置200の方向等のトラッキング処理により取得できる。或いはユーザUSの視線を直接に検出する視線トラッキング処理(アイトラッキング処理)によりユーザUSの視線方向LSを検出してもよい。或いはカメラにより第1表示装置10を撮影する場合には、カメラの撮影方向をユーザUSの視線方向LSと見なして検出してもよい。この場合には、カメラをユーザUSと見なすことができ、ユーザUSの注視領域はカメラの注視領域になる。或いは透過型タブレット端末等の透過型表示装置が向く方向を、ユーザUSの視線方向と見なしてもよい。この場合には、ユーザUSの注視領域は、透過型表示装置が向く方向が注視する領域(向く方向に沿った線が第1表示装置10の表示画面に交わる領域)になる。3, for example, the line of sight direction LS of the user US is detected. The line of sight direction LS of the user US can be detected, for example, by detecting the direction (facing direction) of thesecond display device 200. Specifically, information on the line of sight direction LS can be acquired by tracking the direction of thesecond display device 200, etc. Alternatively, the line of sight direction LS of the user US may be detected by a line of sight tracking process (eye tracking process) that directly detects the line of sight of the user US. Alternatively, when thefirst display device 10 is photographed by a camera, the photographing direction of the camera may be considered to be the line of sight direction LS of the user US and detected. In this case, the camera can be considered as the user US, and the gaze area of the user US becomes the gaze area of the camera. Alternatively, the direction in which a transparent display device such as a transparent tablet terminal faces may be considered to be the line of sight direction of the user US. In this case, the gaze area of the user US becomes the area in which the direction in which the transparent display device faces is gazed (the area where a line along the facing direction intersects with the display screen of the first display device 10).

そして図3に示すようにユーザUSの視線方向LSを検出することで、第1表示装置10の表示画面でのユーザUSの注視領域ARGを検出できる。例えば視線方向LS(カメラの撮影方向、透過型表示装置が向く方向)を延長した線が第1表示装置10の表示画面に交差する位置を求めることなどで、注視領域ARG(カメラ、透過型表示装置の注視領域)を検出できる。この場合には、第1表示装置10と第2表示装置200(ユーザ、カメラ)との位置関係を求めておくことが望ましい。例えば第2表示装置200から見た第1表示装置10の相対的な位置関係を求め、この位置関係の情報と視線方向LSの情報とに基づいて、ユーザUSが注視(注目)する領域である注視領域ARG(注目領域)を検出する。そして検出された注視領域ARGに対応するコンテンツ情報を第2表示装置200を用いてユーザUSに通知する通知処理を行う。図3では、注視領域ARGに対応するコンテンツ情報である表示画像IMHを、第1表示装置10の表示画像IMDに重ねて表示する通知処理を行っている。例えば図3では、ユーザUSは、第1表示装置10の表示画像IMDのうち、キャラクタCH1を注視しており、このキャラクタCH1の表示領域が注視領域ARGになっている。従って、キャラクタCH1が表示される注視領域ARGに対応するコンテンツ情報として、図2に示すようにキャラクタCH1のヒットポイント、マジックポイント、経験値、レベル、装備品などのキャラクタのステータス情報が、第2表示装置200の表示画像IMH(虚像)として表示される。即ち、キャラクタCH1のヒットポイント、マジックポイント、経験値、レベル、装備品を表すオブジェクトOB1、OB2、OB3、OB4、OB5の画像が、第2表示装置200の表示装置243の表示画像IMHとして、第1表示装置10の表示画像IMDに重ねて表示される。As shown in FIG. 3, the gaze direction LS of the user US is detected, and the gaze area ARG of the user US on the display screen of thefirst display device 10 can be detected. For example, the gaze area ARG (the gaze area of the camera and the transmissive display device) can be detected by determining the position where a line extending the gaze direction LS (the shooting direction of the camera, the direction in which the transmissive display device faces) intersects with the display screen of thefirst display device 10. In this case, it is desirable to determine the positional relationship between thefirst display device 10 and the second display device 200 (user, camera). For example, the relative positional relationship of thefirst display device 10 as seen from thesecond display device 200 is determined, and the gaze area ARG (attention area), which is the area that the user US is gazing (attention), is detected based on the information on this positional relationship and the information on the gaze direction LS. Then, a notification process is performed to notify the user US of content information corresponding to the detected gaze area ARG using thesecond display device 200. In FIG. 3, a notification process is performed in which a display image IMH, which is content information corresponding to the gaze area ARG, is displayed superimposed on the display image IMD of thefirst display device 10. For example, in FIG. 3, the user US is gazing at the character CH1 in the display image IMD of thefirst display device 10, and the display area of this character CH1 is the gaze area ARG. Therefore, as content information corresponding to the gaze area ARG in which the character CH1 is displayed, character status information such as the hit points, magic points, experience points, level, and equipment of the character CH1 is displayed as a display image IMH (virtual image) of thesecond display device 200 as shown in FIG. That is, images of objects OB1, OB2, OB3, OB4, and OB5 representing the hit points, magic points, experience points, level, and equipment of the character CH1 are displayed superimposed on the display image IMD of thefirst display device 10 as the display image IMH of thedisplay device 243 of thesecond display device 200.

このようにすれば、ユーザUSが、第1表示装置10の表示画像IMDにおいて自身が注目するキャラクタCH1を注視することで、そのキャラクタCH1に関連するコンテンツ情報であるヒットポイント、マジックポイント、経験値、レベル、装備品などの情報が、ユーザUSに通知されるようになる。これにより、ユーザUSは、キャラクタCH1を注視するだけで、自身が注目するキャラクタCH1に関連する各種のコンテンツ情報を知ることが可能になる。また例えば第1表示装置10に表示される全てのキャラクタCH1~CH3、CE1~CE3について、ヒットポイント、マジックポイント等のコンテンツ情報(ステータス情報)の表示画像IMHを、表示画像IMDに重ねて表示してしまうと、これらのコンテンツ情報の表示が邪魔になって、ユーザUSにとって見にくい表示になってしまう。この点、ユーザUSの注視領域ARGに対応するコンテンツ情報だけを表示するようにすれば、コンテンツ情報の表示が邪魔になってユーザUSにとって見にくい表示なってしまう事態を防止できる。In this way, when the user US gazes at the character CH1 of interest in the display image IMD of thefirst display device 10, the user US is notified of content information related to the character CH1, such as hit points, magic points, experience points, level, and equipment. This allows the user US to know various content information related to the character CH1 of interest simply by gazing at the character CH1. Also, for example, if the display image IMH of content information (status information) such as hit points and magic points for all characters CH1 to CH3 and CE1 to CE3 displayed on thefirst display device 10 is displayed superimposed on the display image IMD, the display of this content information becomes a nuisance and the display becomes difficult for the user US to see. In this regard, if only the content information corresponding to the gaze area ARG of the user US is displayed, it is possible to prevent a situation in which the display of the content information becomes a nuisance and the display becomes difficult for the user US to see.

このように図3の通知処理は、第2表示装置200を用いてコンテンツ情報を表示する処理である。このようにコンテンツ情報の通知処理として、コンテンツ情報の表示処理を行うようにすれば、ユーザUSは、注視領域ARGに対応するコンテンツ情報の内容を視覚的に容易に認識できるようになる。但し本実施形態の通知処理はこのようなコンテンツ情報の表示処理には限定されない。例えば図4では振動や音声により通知処理が行われている。具体的には第1表示装置10の表示画面にはレアキャラクタRCHが出現している。例えばユーザUSの視線方向LSの注視領域にレアキャラクタRCHが出現している。このように第1表示装置10(注視領域)にレアキャラクタRCHなどの特定の表示物が出現した場合に、第2表示装置200に設けられた振動デバイス(振動機構)を振動させて、レアキャラクタRCHが出現したことをユーザUSに通知する。或いは第2表示装置200に内蔵されるスピーカ又は第2表示装置200とは別体に設けられたヘッドフォンのスピーカからの音声により、レアキャラクタRCHが出現したことをユーザUSに通知する。このように、第1表示装置10の表示物又は表示内容に関連するコンテンツ情報(注視領域に対応するコンテンツ情報)の通知処理は、第2表示装置200の振動デバイスを振動させる処理や、第2表示装置200に対応して設けられる音出力部192(図6)による音声等の音の出力処理であってもよい。或いは、第2表示装置200に、ユーザUSが視認できる発光素子を設け、この発光素子の発光により、コンテンツ情報の通知処理を実現してもよい。このようにコンテンツ情報の通知処理の通知態様としては種々の態様を想定できる。3 is a process of displaying content information using thesecond display device 200. If the content information display process is performed as the content information notification process, the user US can easily visually recognize the content of the content information corresponding to the gaze area ARG. However, the notification process of this embodiment is not limited to such a content information display process. For example, in FIG. 4, the notification process is performed by vibration or sound. Specifically, a rare character RCH appears on the display screen of thefirst display device 10. For example, the rare character RCH appears in the gaze area of the line of sight LS of the user US. When a specific display object such as the rare character RCH appears in the first display device 10 (gaze area) in this way, the vibration device (vibration mechanism) provided in thesecond display device 200 is vibrated to notify the user US that the rare character RCH has appeared. Alternatively, the user US is notified that the rare character RCH has appeared by sound from a speaker built into thesecond display device 200 or a speaker of headphones provided separately from thesecond display device 200. In this way, the notification process of content information related to the displayed object or display content of the first display device 10 (content information corresponding to the gaze area) may be a process of vibrating the vibration device of thesecond display device 200, or a process of outputting sound such as voice by a sound output unit 192 (FIG. 6) provided corresponding to thesecond display device 200. Alternatively, a light-emitting element that can be seen by the user US may be provided in thesecond display device 200, and the notification process of the content information may be realized by the light emission of this light-emitting element. In this way, various notification modes of the notification process of the content information can be assumed.

また第1ユーザ、第2ユーザというように複数のユーザがエンターテインメントのコンテンツを楽しむ場合には、第1ユーザに対応する第1コンテンツ情報を、第1ユーザが装着する第1透過型HMD等の第2表示装置を用いて第1ユーザに通知し、第2ユーザに対応する第2コンテンツ情報を、第2ユーザが装着する第2透過型HMD等の第3表示装置を用いて第2ユーザに通知すればよい。具体的には、第1ユーザの視線方向の情報に基づいて第1注視領域を検出し、第1注視領域に応じた第1コンテンツ情報を、第1ユーザが装着する第1透過型HMD等の第2表示装置を用いて第1ユーザに通知する。また第2ユーザの視線方向の情報に基づいて第2注視領域を検出し、第2注視領域に応じた第2コンテンツ情報を、第2ユーザが装着する第2透過型HMD等の第3表示装置を用いて第2ユーザに通知する。このようにすれば、例えば第1ユーザには、第1表示装置10の表示画像IMDに対して、第1コンテンツ情報だけが重畳された第1コンテンツ画像が表示され、第2ユーザには、第1表示装置10の表示画像IMDに対して、第2コンテンツ情報だけが重畳された第2コンテンツ画像が表示されるようになる。従って、第1ユーザは、第1ユーザが注目する第1コンテンツ情報だけを視認できるようになり、第2ユーザは、第2ユーザが注目する第2コンテンツ情報だけを視認できるようになるため、各ユーザにとって見やすい表示態様のコンテンツ画像を表示することが可能になる。In addition, when multiple users such as a first user and a second user enjoy entertainment content, the first content information corresponding to the first user may be notified to the first user using a second display device such as a first see-through HMD worn by the first user, and the second content information corresponding to the second user may be notified to the second user using a third display device such as a second see-through HMD worn by the second user. Specifically, a first gaze area is detected based on information on the line of sight of the first user, and the first content information corresponding to the first gaze area is notified to the first user using a second display device such as a first see-through HMD worn by the first user. Also, a second gaze area is detected based on information on the line of sight of the second user, and the second content information corresponding to the second gaze area is notified to the second user using a third display device such as a second see-through HMD worn by the second user. In this way, for example, a first content image in which only the first content information is superimposed on the display image IMD of thefirst display device 10 is displayed to the first user, and a second content image in which only the second content information is superimposed on the display image IMD of thefirst display device 10 is displayed to the second user. Therefore, the first user can only view the first content information that the first user focuses on, and the second user can only view the second content information that the second user focuses on, making it possible to display a content image in a display mode that is easy for each user to view.

また、以上では、コンテンツがゲームコンテンツである場合について説明したが、本実施形態のコンテンツはこれに限定されず、配信動画、映画、環境映像、観光映像又はシミュレーション映像のコンテンツであってもよい。例えば仮想的なキャラクタが踊ったり、歌ったりする配信動画のコンテンツである場合には、そのキャラクタについての情報をコンテンツ情報として通知すればよい。また映画のコンテンツの場合には、各種の説明画面や字幕情報などをコンテンツ情報として通知すればよい。観光映像のコンテンツの場合には、例えばユーザの注視領域での種々の観光情報を、コンテンツ情報として通知すればよい。シミュレーション映像のコンテンツの場合には、シミュレーションの対象となるものについての種々の情報を、コンテンツ情報として通知すればよい。Although the above describes the case where the content is game content, the content in this embodiment is not limited to this and may be streaming video, movie, environmental video, sightseeing video, or simulation video content. For example, if the content is streaming video content in which a virtual character dances or sings, information about the character may be notified as content information. In the case of movie content, various explanatory screens and subtitle information may be notified as content information. In the case of sightseeing video content, for example, various types of sightseeing information in the user's gaze area may be notified as content information. In the case of simulation video content, various types of information about the subject of the simulation may be notified as content information.

図5に第2表示装置200の一例である透過型HMD202(広義にはHMD、透過型表示装置)の一例を示す。図5の透過型HMDは光学透過型HMDの例である。Figure 5 shows an example of a transmissive HMD 202 (broadly speaking, an HMD or transmissive display device) which is an example of thesecond display device 200. The transmissive HMD in Figure 5 is an example of an optical transmissive HMD.

図5の透過型HMD202はテンプル部240とゴーグル部242を有する。テンプル部240にはスピーカが内蔵されている。ゴーグル部242には表示装置243とホログラフィック光学素子244が設けられている。例えばこれらの表示装置243、ホログラフィック光学素子244等により、透過型HMD202(広義には第2表示装置)の表示部30を実現できる。表示装置243には、マイクロディスプレイ、ミラー、プリズム等により構成される表示ユニットが設けられている。表示装置243には左眼用の表示ユニットと右眼用の表示ユニットが設けられており、これにより立体視が実現される。また左眼用、右眼用の各表示ユニットに一対のマイクロディスプレイを設けることで虚像の位置を可変にできる。The see-throughHMD 202 in FIG. 5 has atemple section 240 and agoggle section 242. Thetemple section 240 has a built-in speaker. Thegoggle section 242 is provided with adisplay device 243 and a holographicoptical element 244. For example, thedisplay device 243, the holographicoptical element 244, etc. can realize thedisplay section 30 of the see-through HMD 202 (broadly speaking, the second display device). Thedisplay device 243 is provided with a display unit composed of a microdisplay, a mirror, a prism, etc. Thedisplay device 243 is provided with a display unit for the left eye and a display unit for the right eye, which realizes stereoscopic vision. In addition, the position of the virtual image can be changed by providing a pair of microdisplays in each of the display units for the left eye and the right eye.

表示装置243からの表示光は、ホログラフィック光学素子244の導光板内部を屈折しながら、ユーザの眼前に導光される。そしてホログラフィック光学素子244により表示光を眼球方向に屈折させて、眼球に表示光を送る。これにより眼前に虚像(ホログラムの再生像)があるように見えるようになる。ホログラフィック光学素子244の導光板はコンバイナーとも呼ばれ、ハーフミラーであるコンバイナーにより、外界の実像と虚像が重なって見えるようになり、AR(Augmented Reality)やMR(Mixed Reality)などの実現が可能になる。The display light from thedisplay device 243 is guided in front of the user's eyes while being refracted inside the light guide plate of the holographicoptical element 244. The display light is then refracted by the holographicoptical element 244 toward the eyeball, and sent to the eyeball. This makes it appear as if a virtual image (a reconstructed image of a hologram) is in front of the eye. The light guide plate of the holographicoptical element 244 is also called a combiner, and the combiner, which is a half mirror, allows the real image of the outside world to be seen superimposed on a virtual image, making it possible to realize AR (Augmented Reality) and MR (Mixed Reality), etc.

またゴーグル部242には、RGBカメラ246、デプスカメラ247、環境認識カメラ248、249が設けられている。RGBカメラ246を用いることでユーザの正面方向の撮影が可能になる。デプスカメラ247を用いることで正面方向での奥行き情報を取得できる。なおゴーグル部242にはデプスカメラ用のエミッター(不図示)が設けられている。環境認識カメラ248、249を用いることでユーザの周囲の環境認識が可能になる。またゴーグル部242には、加速度センサやジャイロセンサなどにより構成されるモーションセンサである慣性計測ユニット(IMU)が内蔵されている。透過型HMD202の位置情報や方向情報は、ゴーグル部242に設けられたカメラによる撮像画像と慣性計測ユニットからの測定情報などに基づいて検出され、これによりヘッドトラッキングが実現される。そして透過型HMD202の位置情報や方向情報を検出することで、ユーザの位置情報や方向情報(視線方向情報)の取得も可能になる。またRGBカメラ246やデプスカメラ247などを用いた処理により、ユーザの周囲に居る他のユーザの位置情報(相対的な位置情報)、方向情報(相対的な方向情報)、或いは姿勢情報を取得できる。例えばキネクト(登録商標)と呼ばれる処理によりこれらの情報を取得する。例えば姿勢情報を取得することで、他のユーザがどのようなアクションを行ったかを検出できるようになる。Thegoggle unit 242 is provided with anRGB camera 246, adepth camera 247, andenvironment recognition cameras 248 and 249. TheRGB camera 246 can be used to capture the user in the front direction. Thedepth camera 247 can be used to obtain depth information in the front direction. Thegoggle unit 242 is provided with an emitter for the depth camera (not shown). Theenvironment recognition cameras 248 and 249 can be used to recognize the environment around the user. Thegoggle unit 242 also has an inertial measurement unit (IMU) built in, which is a motion sensor composed of an acceleration sensor, a gyro sensor, and the like. The position information and direction information of the see-throughHMD 202 are detected based on the captured image by the camera provided in thegoggle unit 242 and the measurement information from the inertial measurement unit, thereby realizing head tracking. The position information and direction information of the see-throughHMD 202 can also be obtained by detecting the position information and direction information of the see-throughHMD 202. Furthermore, by processing using theRGB camera 246, thedepth camera 247, etc., it is possible to obtain position information (relative position information), direction information (relative direction information), or posture information of other users around the user. For example, this information is obtained by processing called Kinect (registered trademark). For example, by obtaining posture information, it becomes possible to detect what actions other users have performed.

図5の透過型HMD202によれば、例えば表示装置243、ホログラフィック光学素子244等により実現される表示部30により、表示画像IMDと表示画像IMHをユーザに視認させることが可能になる。例えば第1表示装置10の表示画像IMDについては、ホログラフィック光学素子244によるコンバイナーにより、透過画像(外界の実像)としてユーザに視認させることができる。また表示画像IMHについては、透過型HMD202の表示装置243に表示することで、虚像としてユーザに視認させることができる。これにより、第1表示装置10の表示画像IMD(透過画像)に対して透過型HMD202の表示画像IMH(虚像)が付加されたコンテンツ画像をユーザに視認させる処理を実現できるようになる。According to thetransmissive HMD 202 in FIG. 5, thedisplay unit 30, which is realized by, for example, thedisplay device 243, the holographicoptical element 244, etc., allows the user to view the display image IMD and the display image IMH. For example, the display image IMD of thefirst display device 10 can be viewed by the user as a transmitted image (a real image of the outside world) by a combiner using the holographicoptical element 244. In addition, the display image IMH can be displayed on thedisplay device 243 of thetransmissive HMD 202, allowing the user to view it as a virtual image. This makes it possible to realize a process of allowing the user to view a content image in which the display image IMD (transmissive image) of thefirst display device 10 is added to the display image IMH (virtual image) of thetransmissive HMD 202.

なお透過型HMD202は図5の構成に限定されるものでなく、例えば表示部30の構成や虚像表示の手法等について、種々の変形実施が可能である。また透過型HMD202を用いる場合に、ユーザの操作入力は、例えば不図示のコントローラをユーザが操作することで実現してもよいし、アイトラッキングなどによりユーザの視線が入力用表示物の方を向いていることを検出することで実現してもよい。或いは透過型HMD202に設けられるモーションセンサによりユーザの頭の動き等を検出することで、ユーザの操作入力を検出してもよい。Note that the see-throughHMD 202 is not limited to the configuration shown in FIG. 5, and various modifications are possible, for example, with respect to the configuration of thedisplay unit 30 and the method of displaying a virtual image. When using the see-throughHMD 202, the user's operational input may be realized, for example, by the user operating a controller (not shown), or may be realized by detecting that the user's line of sight is directed toward an input display object using eye tracking or the like. Alternatively, the user's operational input may be detected by detecting the user's head movement or the like using a motion sensor provided in the see-throughHMD 202.

また前述したように第2表示装置200は、透過型HMD202には限定されず、透過型ディスプレイを有し、ユーザが例えば手に持って使用する透過型タブレット端末などの透過型表示装置であってよいし、スマートフォン、携帯型ゲーム装置又はタブレット端末等のカメラ機能を有する端末装置であってもよい。As mentioned above, thesecond display device 200 is not limited to thetransparent HMD 202, but may be a transparent display device having a transparent display and a transparent tablet terminal that the user holds in his/her hand, or may be a terminal device having a camera function such as a smartphone, a portable game device, or a tablet terminal.

図6は、本実施形態のエンターテインメントシステム(ゲームシステム、コンテンツ提供システム、処理システム)の構成例を示すブロック図である。なお、本実施形態のアミューズメントシステムは図6の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。Figure 6 is a block diagram showing an example configuration of an entertainment system (game system, content providing system, processing system) of this embodiment. Note that the amusement system of this embodiment is not limited to the configuration of Figure 6, and various modifications are possible, such as omitting some of the components or adding other components.

操作部160は、ユーザ(プレーヤ)が種々の入力(操作)を行うためのものである。操作部160は、例えば操作ボタン、方向指示キー、キーボード、ジョイスティック又はレバー等により実現できる。或いは上述のように操作部160の機能を、アイトラッキングやモーションなどを用いて実現してもよい。Theoperation unit 160 allows the user (player) to perform various inputs (operations). Theoperation unit 160 can be realized, for example, by operation buttons, directional keys, a keyboard, a joystick, or a lever. Alternatively, as described above, the functions of theoperation unit 160 may be realized using eye tracking, motion, or the like.

撮像部162(カメラ)は、被写体(撮像対象物)の撮影を行うものである。撮像部162は、例えばCCDやCMOSセンサなどの画像センサや、フォーカスレンズ等により構成される光学系などにより実現できる。カメラである撮像部162は例えば第2表示装置200に設けられる。The imaging unit 162 (camera) captures an image of a subject (object to be imaged). Theimaging unit 162 can be realized by, for example, an image sensor such as a CCD or CMOS sensor, or an optical system including a focus lens, etc. Theimaging unit 162, which is a camera, is provided in, for example, thesecond display device 200.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、例えばコンテンツの情報を記憶する。コンテンツの情報は、コンテンツを構成する画像や音の情報などである。コンテンツの画像情報は、例えばコンテンツを構成するオブジェクト(表示物)の情報などである。Thestorage unit 170 stores various types of information. Thestorage unit 170 functions as a work area for theprocessing unit 100, thecommunication unit 196, and the like. Programs and data required to execute programs are held in thisstorage unit 170. The functions of thestorage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), a hard disk drive (HDD), a solid state drive (SSD), an optical disk device, or the like. Thestorage unit 170 stores, for example, content information. Content information is information about images and sounds that make up the content. Image information about the content is, for example, information about objects (displays) that make up the content.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。Theinformation storage medium 180 is a computer-readable medium that stores programs, data, and the like. Theinformation storage medium 180 can be realized by an optical disk (DVD, BD, CD), HDD, or semiconductor memory (ROM). Theprocessing unit 100 performs various processes of this embodiment based on the programs (data) stored in theinformation storage medium 180. That is, theinformation storage medium 180 stores programs (programs for causing the computer to execute the processes of each unit) for causing a computer (a device equipped with an input device, processing unit, storage unit, and output unit) to function as each unit of this embodiment.

第1表示装置10は、例えばメインのモニターであり、テレビモニター、PC用のモニター、ゲーム装置のモニター、或いはライブ施設やアミューズメント施設などの施設に設置されるモニターなどにより実現される。表示部30は、第2表示装置200(透過型HMD202等)に設けられるディスプレイである。第1表示装置10、表示部30は、例えばLCD又は有機ELディスプレイなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドフォン等により実現できる。Thefirst display device 10 is, for example, a main monitor, and is realized by a television monitor, a monitor for a PC, a monitor for a game device, or a monitor installed in a facility such as a live venue or an amusement facility. Thedisplay unit 30 is a display provided in the second display device 200 (such as a see-through HMD 202). Thefirst display device 10 and thedisplay unit 30 can be realized by, for example, an LCD or an organic EL display. Thesound output unit 192 outputs the sound generated by this embodiment, and this function can be realized by a speaker or headphones, etc.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。Thecommunication unit 196 communicates with the outside (other devices) via a wired or wireless network, and its function can be realized by hardware such as a communication ASIC or a communication processor, or by communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。The programs (data) for causing a computer to function as each part of this embodiment may be distributed from an information storage medium held by a server (host device) to information storage medium 180 (or storage unit 170) via a network andcommunication unit 196. Such use of the information storage medium by a server can also be included within the scope of this embodiment.

処理部100(プロセッサ)は、記憶部170に記憶されるプログラム、データや、操作部160の操作情報などに基づいて、情報取得処理、注視領域検出処理、画像解析処理、位置関係検出処理、或いはコンテンツ処理などを行う。The processing unit 100 (processor) performs information acquisition processing, gaze area detection processing, image analysis processing, positional relationship detection processing, content processing, etc. based on the programs and data stored in thememory unit 170 and operation information of theoperation unit 160.

処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。Each process of the present embodiment performed by each part of theprocessing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. The functions of each part of the processor may be realized by individual hardware, or the functions of each part may be realized by integrated hardware. For example, the processor includes hardware, and the hardware may include at least one of a circuit that processes digital signals and a circuit that processes analog signals. For example, the processor may be configured with one or more circuit devices (e.g., ICs, etc.) mounted on a circuit board, or one or more circuit elements (e.g., resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to a CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may also be a hardware circuit using an ASIC. The processor may also include an amplifier circuit, a filter circuit, etc. that processes analog signals. The memory (storage unit 170) may be a semiconductor memory such as an SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk drive (HDD), or an optical storage device such as an optical disk drive. For example, the memory stores computer-readable instructions, and the instructions are executed by the processor to realize the processing of each part of theprocessing unit 100. The instructions here may be a set of instructions constituting a program, or may be instructions that instruct the hardware circuitry of the processor to operate.

処理部100は、情報取得部102、注視領域検出部104、画像解析部105、位置関係検出部106、コンテンツ処理部110を含む。コンテンツ処理部110は通知処理部112を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。Theprocessing unit 100 includes aninformation acquisition unit 102, a gazearea detection unit 104, animage analysis unit 105, a positionalrelationship detection unit 106, and acontent processing unit 110. Thecontent processing unit 110 includes anotification processing unit 112. As described above, each process of this embodiment executed by each of these units can be realized by a processor (or a processor and a memory). Note that various modifications are possible, such as omitting some of these components (each unit) or adding other components.

情報取得部102は、処理部100の処理に必要な種々の情報を取得する処理を行う。例えば情報取得部102は、ユーザの視線方向の情報を取得する。例えば第2表示装置200を用いたトラッキング処理などによりユーザの視線方向の情報が取得される。例えばトラッキング処理により、第2表示装置200の方向(向く方向)をユーザの視線方向として検出する。或いはアイトラッキング処理を行って、ユーザの視線方向を検出してもよい。第2表示装置200の位置や方向は、カメラによる撮像画像や慣性計測ユニットからの測定情報などに基づいて検出できる。或いは、第2表示装置200に発光部を設け、この発光部からの光を、外部に設けられたカメラなどにより撮像することで、第2表示装置200の位置や方向を検出してもよい。或いは、外部に設けられた発光部からの光を、第2表示装置200に設けられた受光部(カメラ)により撮像することで、第2表示装置200の位置や方向を検出してもよい。また情報取得部102は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する。表示物の情報は、例えば表示物の位置情報、表示物の表示態様情報(色、形状、明度又は透明度等)、或いは表示物がキャラクタである場合には、キャラクタについての種々の情報(ステータスパラメータなどのパラメータ情報等)などである。第1表示装置10の表示態様の情報は、第1表示装置10の表示画面の明るさ、色合い又はコントラストなどの情報である。Theinformation acquisition unit 102 performs a process of acquiring various information necessary for the processing of theprocessing unit 100. For example, theinformation acquisition unit 102 acquires information on the user's line of sight direction. For example, information on the user's line of sight direction is acquired by a tracking process using thesecond display device 200. For example, the direction (facing direction) of thesecond display device 200 is detected as the user's line of sight direction by a tracking process. Alternatively, the user's line of sight direction may be detected by performing an eye tracking process. The position and direction of thesecond display device 200 can be detected based on an image captured by a camera or measurement information from an inertial measurement unit. Alternatively, a light emitting unit may be provided in thesecond display device 200, and the position and direction of thesecond display device 200 may be detected by capturing light from the light emitting unit provided externally with a light receiving unit (camera) provided in thesecond display device 200. Theinformation acquisition unit 102 also acquires information on the displayed object displayed on thefirst display device 10 or information on the display mode of thefirst display device 10. The information on the displayed object is, for example, position information on the displayed object, display mode information on the displayed object (color, shape, brightness, transparency, etc.), or, if the displayed object is a character, various information on the character (parameter information such as status parameters, etc.). The information on the display mode of thefirst display device 10 is information such as the brightness, color tone, or contrast of the display screen of thefirst display device 10.

注視領域検出部104は、ユーザの注視領域を検出する処理を行う。例えば注視領域検出部104は、第1表示装置10の表示画面でのユーザの注視領域を検出する。例えば情報取得部102で取得された視線方向の情報に基づいて、第1表示装置10の表示画面においてユーザが注視している領域である注視領域を検出する。例えば注視領域検出部104は、視線方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。The gazearea detection unit 104 performs a process to detect the user's gaze area. For example, the gazearea detection unit 104 detects the user's gaze area on the display screen of thefirst display device 10. For example, based on information on the gaze direction acquired by theinformation acquisition unit 102, the gazearea detection unit 104 detects the gaze area, which is the area on the display screen of thefirst display device 10 where the user is gazing. For example, the gazearea detection unit 104 finds an intersection between a line along the gaze direction and the display screen of thefirst display device 10, and detects the area including the found intersection as the user's gaze area.

なお注視領域は、ユーザが実際に視線方向を向けて注視する領域には限定されない。例えば第2表示装置200のカメラにより第1表示装置10を撮影することで、第1表示装置10の表示画像を視認可能にする例では、ユーザの注視領域は、カメラが注視する領域とすることができる。例えばカメラの向く方向をユーザの視線方向と見なして、注視領域検出部104は、カメラの向く方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。この場合に、コンテンツ処理部110は、第1表示装置10の表示画面での当該交点の位置をユーザが視認できるように、当該交点の位置に、マーカ等の交点位置識別用の表示物を表示することが望ましい。或いは、透過型タブレット端末等の透過型表示装置である第2表示装置200を第1表示装置10の方に向けることで、第1表示装置10の表示画像を視認可能にする例では、ユーザの注視領域は、第2表示装置200を向けることで注視する領域とすることができる。即ち、例えば第2表示装置200の向く方向をユーザの視線方向と見なす。第2表示装置200の向く方向は、例えば第2表示装置200の主面に直交する方向であり、例えば表示部30(表示画面)に直交する方向である。そして注視領域検出部104は、第2表示装置200の向く方向に沿った線と第1表示装置10の表示画面との交点を求め、求められた交点を含む領域を、ユーザの注視領域として検出する。この場合にも、コンテンツ処理部110は、第1表示装置10の表示画面での当該交点の位置をユーザが視認できるように、例えば当該交点の位置に、マーカ等の交点位置識別用の表示物を表示することが望ましい。The gaze area is not limited to the area that the user actually gazes at by directing the line of sight. For example, in an example in which the display image of thefirst display device 10 is made visible by photographing thefirst display device 10 with the camera of thesecond display device 200, the user's gaze area can be the area gazed at by the camera. For example, the direction in which the camera faces is regarded as the user's gaze direction, and the gazearea detection unit 104 obtains an intersection between a line along the direction in which the camera faces and the display screen of thefirst display device 10, and detects the area including the obtained intersection as the user's gaze area. In this case, it is desirable for thecontent processing unit 110 to display an indicator such as a marker for identifying the intersection position at the position of the intersection so that the user can visually recognize the position of the intersection on the display screen of thefirst display device 10. Alternatively, in an example in which the display image of thefirst display device 10 is made visible by directing thesecond display device 200, which is a transmissive display device such as a transmissive tablet terminal, toward thefirst display device 10, the user's gaze area can be the area gazed at by directing thesecond display device 200. That is, for example, the direction in which thesecond display device 200 faces is regarded as the user's line of sight. The direction in which thesecond display device 200 faces is, for example, a direction perpendicular to the main surface of thesecond display device 200, for example, a direction perpendicular to the display unit 30 (display screen). The gazearea detection unit 104 then obtains an intersection between a line along the direction in which thesecond display device 200 faces and the display screen of thefirst display device 10, and detects the area including the obtained intersection as the user's gaze area. In this case as well, it is desirable for thecontent processing unit 110 to display an object for identifying the intersection position, such as a marker, at the position of the intersection so that the user can visually recognize the position of the intersection on the display screen of thefirst display device 10.

画像解析部105は、撮影画像の解析処理を行う。例えば第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。カメラは例えば撮像部162であり、図5の透過型HMD202の場合には、例えばRGBカメラ246などである。また第2表示装置200が、スマートフォン、携帯型ゲーム装置又はタブレット端末等の端末装置である場合には、撮影画像を撮影するカメラは、例えば当該端末装置が有するカメラである。画像解析部105は、例えばカメラの撮影画像に映る第1表示装置10の表示画像等の解析処理を行う。例えば画像解析部105は、第1表示装置10の表示画像の表示内容や、第1表示装置10の表示態様の解析処理を行う。或いは画像解析部105は、第1表示装置10の表示画面でのユーザの注視領域を検出するための画像解析処理を行ってもよい。Theimage analysis unit 105 performs an analysis process of the captured image. For example, theimage analysis unit 105 performs an analysis process of the captured image of thefirst display device 10 captured by the camera of thesecond display device 200. The camera is, for example, theimaging unit 162, and in the case of the see-throughHMD 202 of FIG. 5, is, for example, theRGB camera 246. In addition, in the case where thesecond display device 200 is a terminal device such as a smartphone, a portable game device, or a tablet terminal, the camera that captures the captured image is, for example, a camera that the terminal device has. Theimage analysis unit 105 performs an analysis process of the display image of thefirst display device 10 that is captured by the camera, for example. For example, theimage analysis unit 105 performs an analysis process of the display content of the display image of thefirst display device 10 or the display mode of thefirst display device 10. Alternatively, theimage analysis unit 105 may perform an image analysis process to detect the user's gaze area on the display screen of thefirst display device 10.

位置関係検出部106は、第1表示装置10と第2表示装置200の位置関係を検出する。例えば位置関係検出部106は、第1表示装置10に対する第2表示装置200の相対的な位置関係を検出する。ここで位置関係は、第1表示装置10の位置と第2表示装置200の位置の関係であってもよいし、第1表示装置10の方向(向く方向)と第2表示装置200の方向(向く方向)の関係であってもよい。例えば位置関係は、第1表示装置10に対する第2表示装置200の相対的な方向関係であってもよい。一例としては、位置関係検出部106は、第2表示装置200に設けられたカメラ(RGBカメラ、デプスカメラ、環境認識カメラ等)を用いて実空間の認識処理を行い、この認識処理により得られた実空間情報に基づいて、第2表示装置200に対する第1表示装置10の相対的な位置関係を検出する。或いは、第1表示装置10にマーカを設置し、このマーカを用いて第2表示装置200と第1表示装置10の位置関係を検出してもよい。例えば第1表示装置10に複数のマーカ(ARマーカ等)を設置し、第2表示装置200のカメラにより、これらの複数のマーカを撮像し、得られた撮像画像の解析処理を行うことで、第2表示装置200に対する第1表示装置10の相対的な位置関係を検出する。The positionalrelationship detection unit 106 detects the positional relationship between thefirst display device 10 and thesecond display device 200. For example, the positionalrelationship detection unit 106 detects the relative positional relationship of thesecond display device 200 with respect to thefirst display device 10. Here, the positional relationship may be the relationship between the position of thefirst display device 10 and the position of thesecond display device 200, or the relationship between the direction (facing direction) of thefirst display device 10 and the direction (facing direction) of thesecond display device 200. For example, the positional relationship may be the relative directional relationship of thesecond display device 200 with respect to thefirst display device 10. As an example, the positionalrelationship detection unit 106 performs a recognition process of the real space using a camera (RGB camera, depth camera, environment recognition camera, etc.) provided on thesecond display device 200, and detects the relative positional relationship of thefirst display device 10 with respect to thesecond display device 200 based on the real space information obtained by this recognition process. Alternatively, a marker may be installed on thefirst display device 10, and the positional relationship between thesecond display device 200 and thefirst display device 10 may be detected using this marker. For example, multiple markers (such as AR markers) are placed on thefirst display device 10, and the camera of thesecond display device 200 captures images of these multiple markers, and the captured images are analyzed to detect the relative positional relationship of thefirst display device 10 to thesecond display device 200.

コンテンツ処理部110は、種々のコンテンツ処理を行う。コンテンツ処理は、例えば、コンテンツの画像の表示処理や、コンテンツの音の出力処理などのコンテンツに関する種々の処理である。コンテンツの画像の表示処理は、コンテンツの画像を生成して表示する処理には限定されず、コンテンツの画像の表示を指示したり、表示されるコンテンツの画像の内容を指示する処理であってもよい。コンテンツ処理部110は、通知処理部112を含む。通知処理部112は、コンテンツ情報を、第2表示装置200を用いてユーザに通知する処理を行う。例えば、ユーザの注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する処理を行う。Thecontent processing unit 110 performs various content processing. The content processing is, for example, various processing related to the content, such as display processing of the image of the content and output processing of the sound of the content. The display processing of the image of the content is not limited to the processing of generating and displaying the image of the content, but may be the processing of instructing the display of the image of the content or instructing the content of the image of the content to be displayed. Thecontent processing unit 110 includes anotification processing unit 112. Thenotification processing unit 112 performs processing to notify the user of content information using thesecond display device 200. For example, the processing to notify the user of content information corresponding to the user's gaze area using thesecond display device 200.

そして、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200を用いた本実施形態のエンターテインメントシステムは、図6に示すように注視領域検出部104とコンテンツ処理部110を含む。The entertainment system of this embodiment, which uses afirst display device 10 and asecond display device 200 on which the display image of thefirst display device 10 is visible, includes a gazearea detection unit 104 and acontent processing unit 110, as shown in FIG. 6.

注視領域検出部104は、ユーザの視線方向の情報に基づいて、第1表示装置10の表示画面でのユーザの注視領域を検出する。例えば注視領域検出部104は、情報取得部102で取得されたユーザの視線方向の情報に基づいて、ユーザの注視領域を検出する。例えば第2表示装置200のトラッキング処理により取得されたユーザの視線方向の情報に基づいて、注視領域を検出する。或いはカメラの向く方向や透過型表示装置である第2表示装置200が向く方向から注視領域を検出する。The gazearea detection unit 104 detects the user's gaze area on the display screen of thefirst display device 10 based on information on the user's gaze direction. For example, the gazearea detection unit 104 detects the user's gaze area based on information on the user's gaze direction acquired by theinformation acquisition unit 102. For example, the gaze area is detected based on information on the user's gaze direction acquired by a tracking process of thesecond display device 200. Alternatively, the gaze area is detected from the direction in which the camera faces or the direction in which thesecond display device 200, which is a transmissive display device, faces.

コンテンツ処理部110は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。例えば図2に示すように、第1表示装置10の表示画像IMDに対して第2表示装置200の表示画像IMHが付加されたコンテンツ画像をユーザに視認させるための制御処理を、第2表示装置200等に対して行う。例えばコンテンツ処理部110は、表示画像IMDが透過画像としてユーザに表示され、表示画像IMHが虚像又は実像の重畳画像としてユーザに表示されるように、第2表示装置200を制御する。Thecontent processing unit 110 performs processing to allow the user to view a content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10. For example, as shown in FIG. 2, thecontent processing unit 110 performs control processing on thesecond display device 200, etc. to allow the user to view a content image in which the display image IMH of thesecond display device 200 is added to the display image IMD of thefirst display device 10. For example, thecontent processing unit 110 controls thesecond display device 200 so that the display image IMD is displayed to the user as a transparent image, and the display image IMH is displayed to the user as a superimposed image of a virtual image or a real image.

そしてコンテンツ処理部110は、検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば注視領域が検出された場合に、注視領域に対応するコンテンツ情報を、例えば第2表示装置200のハードウェア(表示部、音出力部、振動デバイス又は発光素子等)を利用してユーザに通知する処理を行う。例えば注視領域の表示物の情報、表示内容、表示態様、ステータス情報又はイベント発生情報等を通知する処理を行う。注視領域に対応するコンテンツ情報は、例えば注視領域に関連するコンテンツ情報である。具体的には注視領域に対応するコンテンツ情報は、注視領域に表示される表示物、注視領域での表示内容、注視領域の表示態様、或いは注視領域で発生するイベントなどに関連する情報である。コンテンツ情報は、エンターテインメントシステムが実現するエンターテインメントコンテンツに関する情報である。エンターテインメントコンテンツがゲームコンテンツである場合には、コンテンツ情報はゲーム情報である。ゲーム情報は、例えばゲームに登場する表示物の情報、ゲーム進行情報、ゲームステータス情報、又はゲームをプレイするユーザの情報などである。表示物の情報は、表示物のパラメータ情報、表示位置情報又は表示態様情報などである。或いはコンテンツ情報は、配信動画、映画、環境映像、観光映像又はシミュレーション映像などのエンターテインメントコンテンツについての種々の情報である。例えばコンテンツ情報は、これらのコンテンツの内容に関する情報、コンテンツのステータス情報、コンテンツの進行情報、或いはコンテンツの説明情報などである。Then, thecontent processing unit 110 performs a notification process to notify the user of the content information corresponding to the detected gaze area using thesecond display device 200. For example, when a gaze area is detected, thecontent processing unit 110 performs a process to notify the user of the content information corresponding to the gaze area using, for example, the hardware (display unit, sound output unit, vibration device, light-emitting element, etc.) of thesecond display device 200. For example, a process to notify information of the displayed object in the gaze area, the display content, the display mode, the status information, or the event occurrence information, etc. The content information corresponding to the gaze area is, for example, content information related to the gaze area. Specifically, the content information corresponding to the gaze area is information related to the displayed object displayed in the gaze area, the display content in the gaze area, the display mode of the gaze area, or the event occurring in the gaze area. The content information is information related to the entertainment content realized by the entertainment system. When the entertainment content is game content, the content information is game information. The game information is, for example, information of the displayed object appearing in the game, game progress information, game status information, or information of the user playing the game. The displayed object information is parameter information, display position information, display mode information, etc. of the displayed object. Alternatively, the content information may be various information about entertainment content such as streaming videos, movies, environmental videos, sightseeing videos, or simulation videos. For example, the content information may be information about the content of these contents, content status information, content progress information, or content description information.

またコンテンツ情報の通知処理は、例えば第2表示装置200を用いてコンテンツ情報を表示する処理である。例えば通知処理は、コンテンツ情報の画像を第2表示装置200の表示装置243に表示する処理である。例えば通知処理は、コンテンツ情報の画像を、第1表示装置10の表示画像に重畳される画像として表示する処理である。但し通知処理は、これに限定されず、コンテンツ情報についての音の出力処理、振動処理、或いは発光素子の発光処理などであってもよい。The content information notification process is, for example, a process of displaying the content information using thesecond display device 200. For example, the notification process is a process of displaying an image of the content information on thedisplay device 243 of thesecond display device 200. For example, the notification process is a process of displaying an image of the content information as an image superimposed on the display image of thefirst display device 10. However, the notification process is not limited to this, and may be a sound output process, a vibration process, or a light emission process of a light-emitting element for the content information.

またコンテンツ処理部110は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様に応じて、コンテンツ情報の通知態様を変化させる。表示物の情報は、表示物のパラメータ情報、表示位置情報又は表示態様情報などである。第1表示装置10の表示態様は、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などである。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。Thecontent processing unit 110 also changes the notification mode of the content information according to the information of the display object displayed on thefirst display device 10 or the display mode of thefirst display device 10. The information of the display object is parameter information, display position information, display mode information, etc. of the display object. The display mode of thefirst display device 10 is the brightness, color, contrast, display content, etc. of the display screen of thefirst display device 10. For example, thecontent processing unit 110 changes the notification content, notification display object, notification position, notification event, notification timing, etc. of the content information according to the information of the display object or the display mode of thefirst display device 10.

例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えば第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させる処理として、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの表示・非表示を決定したり、オブジェクトの表示態様を変化させる。例えば第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定する。For example, thecontent processing unit 110 performs display control of objects displayed on thesecond display device 200 in accordance with the information of the display object of thefirst display device 10 or the display mode of thefirst display device 10. For example, thecontent processing unit 110 performs display control of objects displayed on thesecond display device 200 as a process for changing the notification mode of content information in accordance with the information or display mode of the display object of thefirst display device 10. For example, thecontent processing unit 110 determines whether to display or not display an object, or changes the display mode of the object in accordance with the information or display mode of the display object of thefirst display device 10. For example, the display mode of the object, such as the color, brightness, size, shape, transparency, or contour, is set in accordance with the information or display mode of the display object of thefirst display device 10.

例えば表示物の情報は、第1表示装置10の表示画面においてユーザにより注視された注視表示物の情報である。そしてコンテンツ処理部110は、第1表示装置10での注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。即ち注視表示物の情報又は第1表示装置10の表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置を設定(決定)する。例えばコンテンツ処理部110は、ユーザの注視表示物が決定されると、その注視表示物の位置に対応する位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは注視表示物の大きさや形状に応じた位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な位置に、第2表示装置200でのオブジェクトを表示する制御を行う。なお本実施形態では、記載の明確化のために、第2表示装置200の表示装置243に表示される表示物(図2のOB1~OB5等)を、第1表示装置10の「表示物」と区別して、「オブジェクト」と記載することとする。このオブジェクトは、第2表示装置200により、第1表示装置10の表示画像への重畳画像として表示されるオブジェクトである。For example, the information on the display object is information on the gaze display object gazed upon by the user on the display screen of thefirst display device 10. Thecontent processing unit 110 then sets the display position of the object displayed on thesecond display device 200 according to the information on the gaze display object on thefirst display device 10 or the display mode of thefirst display device 10. That is, as display control of the object according to the information on the gaze display object or the display mode of thefirst display device 10, the display position of the object displayed on thesecond display device 200 is set (determined). For example, when the user's gaze display object is determined, thecontent processing unit 110 controls the display of the object on thesecond display device 200 at a position corresponding to the position of the gaze display object. Alternatively, thecontent processing unit 110 controls the display of the object on thesecond display device 200 at a position according to the size or shape of the gaze display object. Alternatively, thecontent processing unit 110 controls the display of the object on thesecond display device 200 at an appropriate position according to the display mode or display content of the display screen of thefirst display device 10. In this embodiment, for the sake of clarity, the display objects (OB1 to OB5 in FIG. 2, etc.) displayed on thedisplay device 243 of thesecond display device 200 will be described as "objects" to distinguish them from the "display objects" of thefirst display device 10. These objects are displayed by thesecond display device 200 as superimposed images on the display image of thefirst display device 10.

またコンテンツ処理部110は、注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。即ち第1表示装置10の注視表示物の情報又は表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示態様を設定(決定)する。例えばコンテンツ処理部110は、ユーザの注視表示物が決定されると、その注視表示物に対応する表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは注視表示物の明るさ、色、形状、又は大きさに応じた表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。Thecontent processing unit 110 also sets the display mode of the object displayed on thesecond display device 200 according to the information of the gaze object or the display mode of thefirst display device 10. That is, the display mode of the object displayed on thesecond display device 200 is set (determined) as display control of the object according to the information or display mode of the gaze object of thefirst display device 10. For example, when thecontent processing unit 110 determines the user's gaze object, it controls to display the object on thesecond display device 200 in a display mode corresponding to the gaze object. Alternatively, it controls to display the object on thesecond display device 200 in a display mode according to the brightness, color, shape, or size of the gaze object. Alternatively, it controls to display the object on thesecond display device 200 in an appropriate display mode according to the display mode or display content of the display screen of thefirst display device 10.

また本実施形態のエンターテインメントシステムは、情報取得部102とコンテンツ処理部110を含む。そして情報取得部102は、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する。またコンテンツ処理部110は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。そしてコンテンツ処理部110は、コンテンツ情報を第2表示装置200を用いてユーザに通知する通知処理を行い、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。The entertainment system of this embodiment also includes aninformation acquisition unit 102 and acontent processing unit 110. Theinformation acquisition unit 102 acquires information on the display object displayed on thefirst display device 10 or information on the display mode of thefirst display device 10. Thecontent processing unit 110 performs processing to allow the user to view a content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10. Thecontent processing unit 110 performs notification processing to notify the user of the content information using thesecond display device 200, and changes the notification mode of the content information depending on the information or display mode of the display object of thefirst display device 10. For example, thecontent processing unit 110 changes the notification content, notification display object, notification position, notification event, notification timing, etc. of the content information depending on the information or display mode of the display object of thefirst display device 10.

この場合にコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えば第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させる処理として、第2表示装置200に表示されるオブジェクトの表示制御を行う。例えばコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、オブジェクトの表示・非表示を決定したり、オブジェクトの表示態様を変化させる。In this case, thecontent processing unit 110 performs display control of the object displayed on thesecond display device 200 in accordance with the information or display mode of the display object of thefirst display device 10. For example, thecontent processing unit 110 performs display control of the object displayed on thesecond display device 200 as a process for changing the notification mode of content information in accordance with the information or display mode of the display object of thefirst display device 10. For example, thecontent processing unit 110 determines whether to display or hide the object, or changes the display mode of the object, in accordance with the information or display mode of the display object of thefirst display device 10.

具体的にはコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。即ち表示物の情報又は第1表示装置10の表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置を設定(決定)する。例えばコンテンツ処理部110は、第1表示装置10の表示物の位置に対応する位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは表示物の大きさや形状に応じた位置に、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な位置に、第2表示装置200でのオブジェクトを表示する制御を行う。Specifically, thecontent processing unit 110 sets the display position of an object displayed on thesecond display device 200 according to the information or display mode of the displayed object of thefirst display device 10. That is, as display control of the object according to the information of the displayed object or the display mode of thefirst display device 10, thecontent processing unit 110 sets (determines) the display position of the object displayed on thesecond display device 200. For example, thecontent processing unit 110 controls the display of an object on thesecond display device 200 at a position corresponding to the position of the displayed object on thefirst display device 10. Alternatively, thecontent processing unit 110 controls the display of an object on thesecond display device 200 at a position according to the size or shape of the displayed object. Alternatively, thecontent processing unit 110 controls the display of an object on thesecond display device 200 at an appropriate position according to the display mode or display content of the display screen of thefirst display device 10.

またコンテンツ処理部110は、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。即ち第1表示装置10の表示物の情報又は表示態様に応じたオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示態様を設定(決定)する。例えばコンテンツ処理部110は、第1表示装置10の表示物に対応する表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは表示物の明るさ、色、形状、又は大きさに応じた表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。或いは第1表示装置10の表示画面の表示態様や表示内容に応じた適切な表示態様で、第2表示装置200でのオブジェクトを表示する制御を行う。Thecontent processing unit 110 also sets the display mode of the object displayed on thesecond display device 200 according to the information or display mode of the display object of thefirst display device 10. That is, thecontent processing unit 110 sets (determines) the display mode of the object displayed on thesecond display device 200 as display control of the object according to the information or display mode of the display object of thefirst display device 10. For example, thecontent processing unit 110 controls the display of the object on thesecond display device 200 in a display mode corresponding to the display object of thefirst display device 10. Alternatively, thecontent processing unit 110 controls the display of the object on thesecond display device 200 in a display mode according to the brightness, color, shape, or size of the display object. Alternatively, thecontent processing unit 110 controls the display of the object on thesecond display device 200 in an appropriate display mode according to the display mode or display content of the display screen of thefirst display device 10.

また第2表示装置200に表示されるオブジェクトは、第1表示装置10に表示される表示物に関連するオブジェクトである。例えば第2表示装置200のオブジェクトは、第1表示装置10の表示物に対して予め関連づけられているオブジェクトである。例えば第2表示装置200のオブジェクトは、第1表示装置10の表示物に対応づけられて記憶部170に記憶される。例えば第1表示物には、第1オブジェクト(第1オブジェクト群)が関連づけられており、第2表示物には、第2オブジェクト(第2オブジェクト群)が関連づけられている。そして例えば第1表示装置10に表示物が表示されると、この表示物に関連づけられたオブジェクトが第2表示装置200に表示される。The objects displayed on thesecond display device 200 are also objects related to the objects displayed on thefirst display device 10. For example, the objects on thesecond display device 200 are objects that are associated in advance with the objects on thefirst display device 10. For example, the objects on thesecond display device 200 are stored in thestorage unit 170 in correspondence with the objects on thefirst display device 10. For example, a first object (first object group) is associated with the first object, and a second object (second object group) is associated with the second object. Then, for example, when an object is displayed on thefirst display device 10, the object associated with this object is displayed on thesecond display device 200.

また第1表示装置10の表示物の情報は、例えば表示物のパラメータ情報、表示物の表示位置情報又は表示物の表示態様情報である。表示物のパラメータの情報は、表示物の状態や状況を表すパラメータの情報であり、例えばゲームに登場する表示物のゲームパラメータの情報である。例えば表示物がゲームのキャラクタである場合には、パラメータ情報は、当該キャラクタに対応づけて記憶部170の記憶されるキャラクタのゲームのパラメータ情報である。例えばキャラクタのステータス、能力、レベル又は属性等を表すパラメータの情報である。表示物の表示位置情報は、例えば第1表示装置10の表示画面での位置座標、表示エリア又は表示場所等についての情報である。表示物の表示位置情報は、仮想的な3次元空間での表示物の位置情報であってもよい。表示物の表示態様情報は、例えば表示物の色合い、明るさ、大きさ、形状、透明度又はテクスチャ等の情報である。The information on the display object of thefirst display device 10 is, for example, parameter information on the display object, display position information on the display object, or display mode information on the display object. The parameter information on the display object is information on parameters that represent the state or situation of the display object, for example, information on game parameters of the display object that appears in a game. For example, if the display object is a game character, the parameter information is game parameter information of the character that is stored in thestorage unit 170 in association with the character. For example, it is information on parameters that represent the character's status, ability, level, or attributes. The display position information on the display object is, for example, information on the position coordinates, display area, or display location on the display screen of thefirst display device 10. The display position information on the display object may be position information on the display object in a virtual three-dimensional space. The display mode information on the display object is, for example, information on the color, brightness, size, shape, transparency, or texture of the display object.

また本実施形態のエンターテインメントシステムは、画像解析部105とコンテンツ処理部110を含む。画像解析部105は、第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。例えば情報取得部102が、第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の情報を取得し、画像解析部105が、取得された撮影画像の解析処理を行う。例えばカメラの撮影画像に映る第1表示装置10の表示画像等の解析処理を行う。例えば画像解析部105は、第1表示装置10に表示される表示物又は第1表示装置10の表示態様の解析処理を行う。或いは画像解析部105は、第1表示装置10の表示画面でのユーザの注視領域を検出するための画像解析処理を行う。The entertainment system of this embodiment also includes animage analysis unit 105 and acontent processing unit 110. Theimage analysis unit 105 performs analysis processing of a captured image of thefirst display device 10 captured by the camera of thesecond display device 200. For example, theinformation acquisition unit 102 acquires information of the captured image of thefirst display device 10 captured by the camera of thesecond display device 200, and theimage analysis unit 105 performs analysis processing of the acquired captured image. For example, analysis processing of a display image of thefirst display device 10 shown in the captured image of the camera, etc. For example, theimage analysis unit 105 performs analysis processing of a display object displayed on thefirst display device 10 or a display mode of thefirst display device 10. Alternatively, theimage analysis unit 105 performs image analysis processing to detect a user's gaze area on the display screen of thefirst display device 10.

そしてコンテンツ処理部110は、撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて、第1表示装置10に表示される表示物の情報や、第1表示装置10の表示態様が特定される。そしてコンテンツ処理部110は、特定された第1表示装置10の表示物の情報又は第1表示装置10の表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。即ちコンテンツ処理部110は、撮影画像の解析処理の結果に基づき特定された表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。具体的には、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。或いは、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて、第1表示装置10の表示画面でのユーザの注視領域が検出される。そしてコンテンツ処理部110は、カメラの撮影画像の解析処理の結果に基づき検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えばカメラの撮影画像の解析処理の結果に基づき、ユーザにより注視された注視表示物が特定されたとする。この場合には、コンテンツ処理部110は、注視表示物の情報又は第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する処理を行ったり、第2表示装置200に表示されるオブジェクトの表示態様を設定する処理を行う。Then, thecontent processing unit 110 performs a notification process to notify the user of content information based on the result of the analysis process of the captured image using thesecond display device 200. For example, based on the result of the analysis process of the captured image of the camera that captured thefirst display device 10, information on the displayed object displayed on thefirst display device 10 and the display mode of thefirst display device 10 are specified. Then, thecontent processing unit 110 performs a process to change the notification mode of the content information according to the specified information on the displayed object of thefirst display device 10 or the display mode of thefirst display device 10. That is, thecontent processing unit 110 performs a process to change the notification mode of the content information according to the information on the displayed object or the display mode specified based on the result of the analysis process of the captured image. Specifically, thecontent processing unit 110 performs display control of the object displayed on thesecond display device 200 according to the information on the displayed object or the display mode of thefirst display device 10. Alternatively, based on the result of the analysis process of the captured image of the camera that captured thefirst display device 10, the user's gaze area on the display screen of thefirst display device 10 is detected. Then, thecontent processing unit 110 performs a notification process to notify the user of content information corresponding to the gaze area detected based on the result of the analysis process of the captured image of the camera using thesecond display device 200. For example, let us say that the gaze object gazed upon by the user is identified based on the results of the analysis process of the image captured by the camera. In this case, thecontent processing unit 110 performs a process of setting the display position of the object displayed on thesecond display device 200 or a process of setting the display mode of the object displayed on thesecond display device 200 according to the information of the gaze object or the display mode of thefirst display device 10.

またコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば位置関係検出部106が、第1表示装置10と第2表示装置200の位置関係を検出すると、コンテンツ処理部110は、検出された位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容を変化させたり、コンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10で表示される表示物の種類又は表示態様等を変化させたり、第2表示装置200で表示されるオブジェクトの種類又は表示態様等を変化させる。或いはコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。Thecontent processing unit 110 also changes the display contents of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, depending on the positional relationship between thefirst display device 10 and thesecond display device 200. For example, when the positionalrelationship detection unit 106 detects the positional relationship between thefirst display device 10 and thesecond display device 200, thecontent processing unit 110 changes the display contents of thefirst display device 10 or thesecond display device 200, or changes the notification mode of the content information, depending on the detected positional relationship. For example, thecontent processing unit 110 changes the type or display mode of the display object displayed on thefirst display device 10, or changes the type or display mode of the object displayed on thesecond display device 200, depending on the positional relationship between thefirst display device 10 and thesecond display device 200. Alternatively, thecontent processing unit 110 changes the notification content, notification display object, notification position, notification event, notification timing, etc. of the content information, depending on the positional relationship between thefirst display device 10 and thesecond display device 200.

またコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10に表示される表示物の情報とに応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えばコンテンツ処理部110は、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10の表示物の情報とにより、第1表示装置10に表示される表示物の種類又は表示態様等を変化させたり、第2表示装置200に表示されるオブジェクトの種類又は表示態様を変化させたり、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。In addition, thecontent processing unit 110 changes the display content of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, depending on the positional relationship between thefirst display device 10 and thesecond display device 200 and the information of the displayed object displayed on thefirst display device 10. For example, thecontent processing unit 110 changes the type or display mode of the displayed object displayed on thefirst display device 10, changes the type or display mode of the object displayed on thesecond display device 200, or changes the notification content, notification display object, notification position, notification event, notification timing, etc. of the content information, depending on the positional relationship between thefirst display device 10 and thesecond display device 200 and the information of the displayed object on thefirst display device 10.

図7(A)、図7(B)に、本実施形態のエンターテインメントシステムのハードウェアの実現構成例を示す。図7(A)では、情報処理装置40が、有線又は無線により第1表示装置10及び第2表示装置200に通信接続されている。そして情報処理装置40が第1表示装置10及び第2表示装置200の制御処理を行う。情報処理装置40は、例えばパーソナルコンピュータ(PC)、ゲーム装置、或いは通信端末装置である。パーソナルコンピュータはデスクトップPC、ノートPC又はタブレット型PCなどである。ゲーム装置は家庭用ゲーム装置であってもよいし、アミューズメント施設に設置される業務用ゲーム装置であってもよい。通信端末装置は例えばスマートフォン等の携帯型の通信端末装置である。例えば図7(A)では、情報処理装置40が、第1表示装置10での表示画像の表示処理を行うと共に、第2表示装置200での表示画像の表示処理を行う。第1表示装置10での表示処理は情報処理装置40と第1表示装置10の分散処理により実現でき、第2表示装置200での表示処理は情報処理装置40と第2表示装置200の分散処理により実現できる。そして情報処理装置40が、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させる処理を行う。例えば情報処理装置40が、第1表示装置10の表示画像の情報を第1表示装置10に送信し、第2表示装置200の表示画像の情報を第2表示装置200に送信する。そして、第2表示装置200において、第1表示装置10の表示画像の透過画像に対して、第2表示装置200の表示画像を重畳表示する処理が行われる。7(A) and 7(B) show examples of the hardware configuration of the entertainment system of this embodiment. In FIG. 7(A), theinformation processing device 40 is connected to thefirst display device 10 and thesecond display device 200 by wire or wireless communication. Theinformation processing device 40 performs control processing of thefirst display device 10 and thesecond display device 200. Theinformation processing device 40 is, for example, a personal computer (PC), a game device, or a communication terminal device. The personal computer is a desktop PC, a notebook PC, a tablet PC, or the like. The game device may be a home game device or an arcade game device installed in an amusement facility. The communication terminal device is, for example, a portable communication terminal device such as a smartphone. For example, in FIG. 7(A), theinformation processing device 40 performs display processing of a display image on thefirst display device 10 and display processing of a display image on thesecond display device 200. The display processing on thefirst display device 10 can be realized by distributed processing of theinformation processing device 40 and thefirst display device 10, and the display processing on thesecond display device 200 can be realized by distributed processing of theinformation processing device 40 and thesecond display device 200. Theinformation processing device 40 then performs a process of allowing the user to view a content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10. For example, theinformation processing device 40 transmits information on the display image of thefirst display device 10 to thefirst display device 10, and transmits information on the display image of thesecond display device 200 to thesecond display device 200. Then, in thesecond display device 200, a process is performed in which the display image of thesecond display device 200 is superimposed on the transparent image of the display image of thefirst display device 10.

図7(B)では、第2表示装置200、サーバ50、情報処理装置40が、ネットワーク60を介して通信接続されている。ネットワーク60(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。サーバ50は、エンターテインメントシステムの運営者が運営するサーバであり、例えばエンターテインメントシステムの各種の制御処理や管理処理を実行する。図7(B)では、本実施形態のエンターテインメントシステムの各処理は、例えば情報処理装置40、サーバ50、第2表示装置200の分散処理などにより実現できる。図7(B)では、例えば情報処理装置40が、第1表示装置10での表示画像の表示処理を行い、第2表示装置200が、第2表示装置200での表示画像の表示処理を行う。そしてサーバ50が、情報処理装置40、第2表示装置200の各種の制御処理や管理処理を行う。例えばサーバ50は、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させるための制御処理や管理処理を行うことができる。In FIG. 7B, thesecond display device 200, theserver 50, and theinformation processing device 40 are connected to each other through anetwork 60. The network 60 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN, and can include a dedicated line (dedicated cable) for direct connection, a LAN using Ethernet (registered trademark), a telephone communication network, a cable network, a wireless LAN, and other communication networks. The communication method can be wired or wireless. Theserver 50 is a server operated by the operator of the entertainment system, and executes, for example, various control processes and management processes of the entertainment system. In FIG. 7B, each process of the entertainment system of this embodiment can be realized by, for example, distributed processing of theinformation processing device 40, theserver 50, and thesecond display device 200. In FIG. 7B, for example, theinformation processing device 40 performs display processing of the display image on thefirst display device 10, and thesecond display device 200 performs display processing of the display image on thesecond display device 200. Theserver 50 performs various control processes and management processes of theinformation processing device 40 and thesecond display device 200. For example, theserver 50 can perform control and management processes to allow the user to view a content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2. Method of the Present Embodiment Next, the method of the present embodiment will be described in detail.

2.1 第2表示装置を用いた通知処理
本実施形態のエンターテインメントシステムは、図1で説明したように、第1表示装置10と、第1表示装置10の表示画像が視認可能な第2表示装置200とを用いたエンターテインメントシステムである。そして本実施形態では第2表示装置を用いた種々の通知処理を実現する。図8は本実施形態の処理例を説明するフローチャートである。
2.1 Notification process using the second display device As described in Fig. 1, the entertainment system of this embodiment is an entertainment system using thefirst display device 10 and thesecond display device 200 on which the display image of thefirst display device 10 is visible. In this embodiment, various notification processes are realized using the second display device. Fig. 8 is a flowchart explaining a processing example of this embodiment.

まず本実施形態のエンターテインメントシステムは、図3で説明したように、ユーザUSの視線方向LSの情報を取得する(ステップS1)。例えばユーザUSが装着する第2表示装置200の方向等のトラッキング処理を行うことで、ユーザUSの視線方向LSを検出する。或いは、ユーザUSの視線トラッキング(アイトラッキング)を行うことでユーザUSの視線方向LSを検出してもよい。First, the entertainment system of this embodiment acquires information on the gaze direction LS of the user US as described in FIG. 3 (step S1). For example, the gaze direction LS of the user US is detected by performing a tracking process on the direction of thesecond display device 200 worn by the user US. Alternatively, the gaze direction LS of the user US may be detected by performing gaze tracking (eye tracking) of the user US.

次にエンターテインメントシステムは、図3に示すように、ユーザUSの視線方向LSの情報に基づいて、第1表示装置10の表示画面でのユーザUSの注視領域ARGを検出する(ステップS2)。例えば図3では、ユーザUSは、自身の操作キャラクタであるキャラクタCH1を注視しており、このキャラクタCH1の配置位置に対応する領域が注視領域ARGとして検出されている。一例としては、ユーザUSの視線方向LSに沿った線と第1表示装置10の表示画面との交点を含む領域が、注視領域ARGとして検出される。なお、前述したように、第2表示装置200のカメラの向く方向や、第2表示装置200である透過型表示装置の向く方向に基づいて、注視領域ARGを検出してもよい。Next, as shown in FIG. 3, the entertainment system detects the gaze area ARG of the user US on the display screen of thefirst display device 10 based on information on the line of sight LS of the user US (step S2). For example, in FIG. 3, the user US is gazing at the character CH1, which is the character that the user US operates, and the area corresponding to the position of this character CH1 is detected as the gaze area ARG. As an example, the area including the intersection of a line along the line of sight LS of the user US and the display screen of thefirst display device 10 is detected as the gaze area ARG. Note that, as described above, the gaze area ARG may be detected based on the direction in which the camera of thesecond display device 200 faces or the direction in which the transmissive display device, which is thesecond display device 200, faces.

そしてエンターテインメントシステムは、第1表示装置10の表示画像に対して第2表示装置200の表示画像が付加されたコンテンツ画像をユーザUSに視認させる処理を行う際に、注視領域ARGに対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う(ステップS3)。例えば図3では、第1表示装置10の表示画面においてユーザUSが注視する注視領域ARGには、キャラクタCH1が表示されている。そして注視領域ARGに対応するコンテンツ情報として、第1表示装置10の表示物であるキャラクタCH1についての情報を通知する。具体的には図2に示すように、注視領域ARGに位置するキャラクタCH1のステータス情報を、第1表示装置10の表示画像IMDに重畳される第2表示装置200の表示画像IMHとしてユーザUSに表示する。このようにすれば、ユーザUSは、第1表示装置10の表示画面において自身が注視した注視領域ARGに対応するコンテンツ情報を、第2表示装置200を利用して知ることが可能になる。即ち、ユーザUSは、第1表示装置10の表示画面において自身が所望する領域を注視するだけで、その注視領域ARGに対応するコンテンツ情報を取得できるようになる。従って、第1表示装置10と第2表示装置200を用いたシステムにおいて第1表示装置10に関連するコンテンツ情報をユーザに対して通知することができるエンターテインメントシステム等の提供が可能になる。例えば第1表示装置10と第2表示装置200を用いたエンターテインメントシステムにおいて興趣性の高い演出制御を実現できる。Then, when the entertainment system performs a process of making the user US view the content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10, it performs a notification process of notifying the user of content information corresponding to the gaze area ARG using the second display device 200 (step S3). For example, in FIG. 3, a character CH1 is displayed in the gaze area ARG that the user US gazes at on the display screen of thefirst display device 10. Then, as content information corresponding to the gaze area ARG, information about the character CH1, which is a display object of thefirst display device 10, is notified. Specifically, as shown in FIG. 2, the status information of the character CH1 located in the gaze area ARG is displayed to the user US as the display image IMH of thesecond display device 200 superimposed on the display image IMD of thefirst display device 10. In this way, the user US can know the content information corresponding to the gaze area ARG that he or she gazes at on the display screen of thefirst display device 10 by using thesecond display device 200. That is, the user US can obtain content information corresponding to the gaze area ARG by simply gazing at the desired area on the display screen of thefirst display device 10. Therefore, it is possible to provide an entertainment system or the like that can notify the user of content information related to thefirst display device 10 in a system using thefirst display device 10 and thesecond display device 200. For example, highly entertaining performance control can be realized in an entertainment system using thefirst display device 10 and thesecond display device 200.

また本実施形態では、図8のステップS3の通知処理として、第2表示装置200を用いてコンテンツ情報を表示する処理を行っている。即ち図2、図3に示すように、第2表示装置200を用いてコンテンツ情報に対応する表示画像IMHを、第1表示装置10の表示画像IMDに対して重畳表示することで、注視領域ARGに対応するコンテンツ情報をユーザに通知している。このようにすれば、ユーザUSは、第1表示装置10の表示画面において自身が注視した注視領域ARGに対応するコンテンツ情報を、第2表示装置200の表示画像IMHにより視覚的に認識できるようになる。即ち、ユーザUSは、第1表示装置10の表示画面において自身が所望する領域を注視するだけで、その注視領域ARGに対応するコンテンツ情報を、第2表示装置200の表示画像IMHにより視認できるようになり、第1表示装置10と第2表示装置200を用いたエンターテインメントシステムにおける好適なユーザインターフェースを実現できる。なお、コンテンツ情報をユーザUSに通知する通知処理は、図2、図3に示すような画像表示による通知処理には限定されず、図4で説明したように、振動、音又は発光等による通知処理であってもよい。In this embodiment, the notification process of step S3 in FIG. 8 involves displaying content information using thesecond display device 200. That is, as shown in FIGS. 2 and 3, thesecond display device 200 is used to superimpose a display image IMH corresponding to the content information on the display image IMD of thefirst display device 10 to notify the user of content information corresponding to the gaze area ARG. In this way, the user US can visually recognize the content information corresponding to the gaze area ARG that the user gazes at on the display screen of thefirst display device 10 through the display image IMH of thesecond display device 200. That is, the user US can visually recognize the content information corresponding to the gaze area ARG through the display image IMH of thesecond display device 200 simply by gazing at a desired area on the display screen of thefirst display device 10, thereby realizing a suitable user interface in an entertainment system using thefirst display device 10 and thesecond display device 200. The notification process for notifying the user US of content information is not limited to the image display process shown in Figs. 2 and 3, but may be a vibration, sound, light emission, or other notification process as described in Fig. 4.

また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる。図9はこの場合の本実施形態の処理例を説明するフローチャートである。In this embodiment, the notification mode of the content information is changed according to the information or display mode of the display object of thefirst display device 10. FIG. 9 is a flowchart explaining an example of the processing of this embodiment in this case.

まずエンターテインメントシステムは、第1表示装置10に表示される表示物の情報又は第1表示装置10の表示態様の情報を取得する(ステップS11)。図1を例にとれば、第1表示装置10に表示されるキャラクタCH1~CH3、CE1~CE3や背景表示物などの表示物の情報や、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などの表示態様の情報を取得する。この表示物の情報や表示態様の情報は、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて取得してもよい。そして第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる(ステップS12)。例えば第1表示装置10の表示物の情報又は表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。例えば第1表示装置10の表示物が第1表示物である場合、或いは第1表示装置10の表示態様が第1表示態様である場合には、第1通知内容、第1通知表示物、第1通知位置、第1通知イベント又は第1通知タイミングでコンテンツ情報を通知する。第1表示装置10の表示物が第2表示物である場合、或いは第1表示装置10の表示態様が第2表示態様である場合には、第2通知内容、第2通知表示物、第2通知位置、第2通知イベント又は第2通知タイミングでコンテンツ情報を通知する。First, the entertainment system acquires information on the display object displayed on thefirst display device 10 or information on the display mode of the first display device 10 (step S11). Taking FIG. 1 as an example, information on the display object such as the characters CH1-CH3, CE1-CE3 and background display object displayed on thefirst display device 10, and information on the display mode such as the brightness, color, contrast or display content of the display screen of thefirst display device 10 are acquired. This information on the display object and information on the display mode may be acquired based on the results of an analysis process of the image captured by the camera that captured thefirst display device 10. Then, the notification mode of the content information is changed according to the information on the display object or the display mode of the first display device 10 (step S12). For example, the notification content, notification display object, notification position, notification event, notification timing, etc. of the content information are changed according to the information on the display object or the display mode of thefirst display device 10. For example, when the display object of thefirst display device 10 is the first display object, or when the display mode of thefirst display device 10 is the first display mode, the content information is notified with the first notification content, the first notification display object, the first notification position, the first notification event, or the first notification timing. When the display object of thefirst display device 10 is the second display object, or when the display mode of thefirst display device 10 is the second display mode, the content information is notified with the second notification content, the second notification display object, the second notification position, the second notification event, or the second notification timing.

具体的にはエンターテインメントシステムは、第1表示装置10の表示物に応じた通知内容又は通知表示物のコンテンツ情報を、ユーザに通知する。例えば第1表示装置10の表示物がキャラクタである場合には、キャラクタに対応する通知内容のコンテンツ情報を通知したり、キャラクタに対応する通知表示物を表示する通知処理を行う。例えばキャラクタの情報を知らせる通知内容のコンテンツ情報を通知したり、キャラクタに関連する通知表示物を表示する。また第1表示装置10の表示物に応じた通知イベントのコンテンツ情報を通知したり、第1表示装置10の表示物に応じた通知タイミングでコンテンツ情報を通知する。例えば第1表示装置10の表示物がキャラクタである場合には、キャラクタに関連する通知イベントが発生するようなコンテンツ情報を通知したり、キャラクタの登場タイミング等に対応する通知タイミングでコンテンツ情報を通知する。或いは、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容等の表示態様に応じて、コンテンツ情報の通知内容、通知表示物、通知位置、通知イベント又は通知タイミング等を変化させる。例えば第1表示装置10の表示態様に適した通知内容又は通知表示物のコンテンツ情報を、ユーザに通知する。或いは、第1表示装置10の表示態様に適した通知位置でコンテンツ情報を通知したり、第1表示装置10の表示態様に適した通知イベントが発生するようなコンテンツ情報を通知したり、第1表示装置10の表示態様に適した通知タイミングで、コンテンツ情報を通知する。このように本実施形態によれば、第1表示装置10の表示物の情報又は表示態様に応じてコンテンツ情報の通知態様を変化させているため、第1表示装置10の表示物又は表示態様に適した通知態様で、コンテンツ情報をユーザに通知できるようになる。従って、第1表示装置10の表示画像に第2表示装置200の表示画像が付加されたコンテンツ画像をユーザに視認させるエンターテインメントシステムにおいて、第1表示装置10の表示物又は表示態様に応じた適切なコンテンツ情報をユーザに通知することが可能になる。Specifically, the entertainment system notifies the user of the notification content or content information of the notification display object corresponding to thefirst display device 10. For example, when the display object of thefirst display device 10 is a character, the system performs a notification process of notifying the user of the content information of the notification content corresponding to the character, or displaying the notification display object corresponding to the character. For example, the system notifies the user of the content information of the notification content that notifies the user of the character's information, or displays the notification display object related to the character. The system also notifies the user of the content information of the notification event corresponding to the display object of thefirst display device 10, or notifies the user of the content information at a notification timing corresponding to the display object of thefirst display device 10. For example, when the display object of thefirst display device 10 is a character, the system notifies the user of the content information of the notification event that occurs related to the character, or notifies the user of the content information at a notification timing corresponding to the appearance timing of the character. Alternatively, the system changes the notification content of the content information, the notification display object, the notification position, the notification event, or the notification timing, etc., according to the display mode such as the brightness, color, contrast, or display content of the display screen of thefirst display device 10. For example, the system notifies the user of the notification content or content information of the notification display object that is suitable for the display mode of thefirst display device 10. Alternatively, the content information is notified at a notification position suitable for the display mode of thefirst display device 10, or content information that generates a notification event suitable for the display mode of thefirst display device 10 is notified, or content information is notified at a notification timing suitable for the display mode of thefirst display device 10. In this way, according to the present embodiment, the notification mode of the content information is changed according to the information or display mode of the display object of thefirst display device 10, so that the content information can be notified to the user in a notification mode suitable for the display object or display mode of thefirst display device 10. Therefore, in an entertainment system that allows the user to view a content image in which the display image of thesecond display device 200 is added to the display image of thefirst display device 10, it becomes possible to notify the user of appropriate content information according to the display object or display mode of thefirst display device 10.

また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示制御を行う。このようにすれば、第1表示装置10の表示物又は表示態様に応じて表示制御されるオブジェクトを第2表示装置200に表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様を反映させたオブジェクトの表示制御を行って、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。図10はこの場合の本実施形態の処理例を説明するフローチャートである。In addition, in this embodiment, display control of an object displayed on thesecond display device 200 is performed according to the information or display mode of the display object of thefirst display device 10. In this manner, an object whose display is controlled according to the display object or display mode of thefirst display device 10 is displayed on thesecond display device 200, and it becomes possible for the user to visually recognize a content image in which an image of the object is added to the display image of thefirst display device 10. Therefore, display control of an object that reflects the display object or display mode of thefirst display device 10 can be performed to realize notification processing of content information using the object. Figure 10 is a flowchart that explains an example of processing in this embodiment in this case.

まずエンターテインメントシステムは、第1表示装置10に表示される表示物(注視表示物)の情報又は第1表示装置10の表示態様の情報を取得する(ステップS21)。例えば表示物のパラメータ情報、表示位置情報又は表示態様情報などの表示物の情報や、第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容などの表示態様の情報を取得する。この表示物の情報や表示態様の情報は、第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて取得してもよい。そして第1表示装置10の表示物(注視表示物)の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置又は表示態様の設定する(ステップS22)。即ち、第1表示装置10の表示物の情報又は表示態様に応じた第2表示装置200のオブジェクトの表示制御として、第2表示装置200に表示されるオブジェクトの表示位置又は表示態様を設定する制御を行う。First, the entertainment system acquires information on the display object (the gazed display object) displayed on thefirst display device 10 or information on the display mode of the first display device 10 (step S21). For example, information on the display object such as parameter information, display position information, or display mode information of the display object, or information on the display mode such as the brightness, color, contrast, or display content of the display screen of thefirst display device 10 is acquired. This information on the display object or the display mode may be acquired based on the results of an analysis process of an image captured by a camera that captured thefirst display device 10. Then, depending on the information or display mode of the display object (the gazed display object) of thefirst display device 10, the display position or display mode of the object displayed on thesecond display device 200 is set (step S22). That is, as display control of the object of thesecond display device 200 depending on the information or display mode of the display object of thefirst display device 10, control is performed to set the display position or display mode of the object displayed on thesecond display device 200.

このように本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。このようにすれば、第1表示装置10の表示物の情報又は表示態様に応じた表示位置にオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様に応じた表示位置にオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。In this manner, in this embodiment, the display position of an object displayed on thesecond display device 200 is set according to the information or display mode of the display object of thefirst display device 10. In this manner, an object is displayed at a display position according to the information or display mode of the display object of thefirst display device 10, and it becomes possible for the user to visually recognize a content image in which an image of the object is added to the display image of thefirst display device 10. Therefore, it becomes possible to realize a notification process of content information using an object by displaying an object at a display position according to the information or display mode of the display object of thefirst display device 10.

例えば図11(A)では、第1表示装置10の表示物であるキャラクタCH1は、第1表示装置10の表示画面の左側の位置に表示されている。この場合には、第2表示装置200において表示画像IMHとして表示されるオブジェクトOB1、OB2の表示位置も左側の位置に設定する。また図11(B)では、第1表示装置10の表示物であるキャラクタCH1は、第1表示装置10の表示画面の右側の位置に表示されている。この場合には、第2表示装置200に表示されるオブジェクトOB1、OB2の表示位置も右側の位置に設定する。即ち第1表示装置10の表示物の情報である表示物の位置情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定している。或いは、表示物の形状又は大きさの情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定してもよい。例えば第1表示装置10での表示物の表示位置、形状又は大きさなどの表示物の情報を判断して、当該表示物の視認を妨げない表示位置に、第2表示装置200におけるオブジェクトを表示する。このようにすれば、第1表示装置10の表示物の表示位置、形状又は大きさなどの表示物の情報に応じた適切な表示位置に、第2表示装置200におけるオブジェクトを表示できるようになる。或いは、本実施形態では、第1表示装置10の表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定してもよい。例えば第1表示装置10の明るさ、色合い、コントラスト又は表示内容などの表示態様を判断して、オブジェクトを用いたコンテンツ情報の通知に好適な表示位置に、第2表示装置200におけるオブジェクトを表示する。或いは第1表示装置10の表示態様を判断して、第1表示装置10における表示を妨げない表示位置に、第2表示装置200におけるオブジェクトを表示する。このようにすれば、第1表示装置10の表示態様に応じた適切な表示位置に、第2表示装置200におけるオブジェクトを表示できるようになる。For example, in FIG. 11(A), the character CH1, which is a display object of thefirst display device 10, is displayed at the left position of the display screen of thefirst display device 10. In this case, the display positions of the objects OB1 and OB2 displayed as the display image IMH on thesecond display device 200 are also set to the left position. Also, in FIG. 11(B), the character CH1, which is a display object of thefirst display device 10, is displayed at the right position of the display screen of thefirst display device 10. In this case, the display positions of the objects OB1 and OB2 displayed on thesecond display device 200 are also set to the right position. That is, the display position of the object displayed on thesecond display device 200 is set according to the position information of the display object, which is the information of the display object of thefirst display device 10. Alternatively, the display position of the object displayed on thesecond display device 200 may be set according to the information of the shape or size of the display object. For example, the information of the display object, such as the display position, shape or size of the display object on thefirst display device 10, is determined, and the object on thesecond display device 200 is displayed at a display position that does not interfere with the visibility of the display object. In this way, it becomes possible to display the object on thesecond display device 200 at an appropriate display position according to the information of the displayed object, such as the display position, shape, or size of the displayed object on thefirst display device 10. Alternatively, in this embodiment, the display position of the object displayed on thesecond display device 200 may be set according to the display mode of thefirst display device 10. For example, the display mode of thefirst display device 10, such as brightness, color, contrast, or display content, is determined, and the object on thesecond display device 200 is displayed at a display position suitable for notifying content information using the object. Alternatively, the display mode of thefirst display device 10 is determined, and the object on thesecond display device 200 is displayed at a display position that does not interfere with the display on thefirst display device 10. In this way, it becomes possible to display the object on thesecond display device 200 at an appropriate display position according to the display mode of thefirst display device 10.

また本実施形態では、第1表示装置10の表示物の情報又は表示態様に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば第2表示装置200におけるオブジェクトの色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定する。このようにすれば、第1表示装置10の表示物の情報又は表示態様に応じた表示態様でオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の表示物又は表示態様に応じた表示態様でオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。In addition, in this embodiment, the display mode of the object displayed on thesecond display device 200 is set according to the information or display mode of the display object of thefirst display device 10. For example, the display mode of the object on thesecond display device 200, such as color, brightness, size, shape, transparency, or contour, is set. In this way, it is possible to display the object in a display mode according to the information or display mode of the display object of thefirst display device 10, and to allow the user to visually recognize a content image in which the image of the object is added to the display image of thefirst display device 10. Therefore, it is possible to realize a notification process of content information using the object by displaying the object in a display mode according to the display object or display mode of thefirst display device 10.

例えば図12では、第1表示装置10の表示物であるキャラクタCH1の情報に応じて、第2表示装置200の表示画像IMHのオブジェクトOB1、OB2の色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定している。例えば表示物であるキャラクタCH1に応じた色合い、明るさに、第2表示装置200におけるオブジェクトOB1、OB2の色合い、明るさを設定する。例えばキャラクタCH1と同様の色合い、明るさにオブジェクトOB1、OB2の色合い、明るさを設定する。或いは表示物であるキャラクタCH1に応じた大きさ、形状に、第2表示装置200におけるオブジェクトOB1、OB2の大きさ、形状を設定する。例えばキャラクタCH1が大きい場合には、オブジェクトOB1、OB2も大きくしたり、キャラクタCH1の形状に対応する形状のオブジェクトOB1、OB2を表示する。なお第1表示装置10にどのような表示物が表示されているかは、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定できる。For example, in FIG. 12, the display mode such as the color, brightness, size, shape, transparency or contour of the objects OB1 and OB2 of the display image IMH of thesecond display device 200 is set according to the information of the character CH1, which is a display object of thefirst display device 10. For example, the color and brightness of the objects OB1 and OB2 in thesecond display device 200 are set to the color and brightness according to the character CH1, which is a display object. For example, the color and brightness of the objects OB1 and OB2 are set to the same color and brightness as the character CH1. Alternatively, the size and shape of the objects OB1 and OB2 in thesecond display device 200 are set to the size and shape according to the character CH1, which is a display object. For example, if the character CH1 is large, the objects OB1 and OB2 are also made large, or the objects OB1 and OB2 are displayed in a shape corresponding to the shape of the character CH1. Note that the type of display object displayed on thefirst display device 10 can be identified based on the results of an analysis process of the image captured by the camera that captured thefirst display device 10, for example.

また図12では、第1表示装置10の表示画面(IMD)の明るさ、色合い、コントラスト又は表示内容等の表示態様に応じて、第2表示装置200の表示画像IMHのオブジェクトOB1、OB2の色合い、明るさ、大きさ、形状、透明度又は輪郭等の表示態様を設定している。例えば第1表示装置10の表示画面(IMD)が明るい場合には、明るい表示画面においても第2表示装置200により表示されるオブジェクトOB1、OB2の視認度が高くなるように、オブジェクトOB1、OB2の表示態様を設定する。例えば第1表示装置10の表示画面(IMD)が明るい場合には、第2表示装置200におけるオブジェクトOB1、OB2の色合いを黒くしたり、透明度を下げたり(不透明度を上げたり)、或いはオブジェクトOB1、OB2の輪郭が目立つようにオブジェクトOB1、OB2の表示態様を設定する。また第1表示装置10の表示画面の色合いに応じた色合いに、第2表示装置200におけるオブジェクトOB1、OB2の色合いを設定する。例えば第2表示装置200におけるオブジェクトOB1、OB2の色合いを、第1表示装置10の表示画面と同様の色合いに設定したり、表示画面においてオブジェクトOB1、OB2の視認性が高まるような色合いに設定する。或いは、第2表示装置200におけるオブジェクトOB1、OB2の大きさ又は形状等を、第1表示装置10の表示内容である表示コンテンツに応じた大きさ、形状又は透明度等に設定する。例えば第2表示装置200におけるオブジェクトOB1、OB2の大きさ、形状又は透明度等を、第1表示装置10の表示コンテンツの視認の妨げにならないような大きさ、形状又は透明度に設定する。なお、環境光の明るさを検出する環境光センサを設け、この環境光センサの検出結果に基づいて、第2表示装置200により表示されるオブジェクトOB1、OB2の表示制御を行ってもよい。また第1表示装置10の表示画面の明るさ、色合い、コントラスト又は表示内容等の表示態様は、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定することができる。In FIG. 12, the display modes of the objects OB1 and OB2 of the display image IMH of thesecond display device 200, such as the color, brightness, size, shape, transparency, or contour, are set according to the display modes of the brightness, color, contrast, or display contents of the display screen (IMD) of thefirst display device 10. For example, when the display screen (IMD) of thefirst display device 10 is bright, the display modes of the objects OB1 and OB2 are set so that the visibility of the objects OB1 and OB2 displayed by thesecond display device 200 is high even on a bright display screen. For example, when the display screen (IMD) of thefirst display device 10 is bright, the display modes of the objects OB1 and OB2 on thesecond display device 200 are set so that the color of the objects OB1 and OB2 on thesecond display device 200 is darkened, the transparency is lowered (opacity is increased), or the contours of the objects OB1 and OB2 are made conspicuous. The color of the objects OB1 and OB2 on thesecond display device 200 is set to a color according to the color of the display screen of thefirst display device 10. For example, the color of the objects OB1 and OB2 in thesecond display device 200 is set to the same color as that of the display screen of thefirst display device 10, or to a color that enhances the visibility of the objects OB1 and OB2 on the display screen. Alternatively, the size or shape of the objects OB1 and OB2 in thesecond display device 200 is set to a size, shape, transparency, etc. that corresponds to the display content that is the display content of thefirst display device 10. For example, the size, shape, transparency, etc. of the objects OB1 and OB2 in thesecond display device 200 is set to a size, shape, or transparency that does not interfere with the visibility of the display content of thefirst display device 10. Note that an ambient light sensor that detects the brightness of ambient light may be provided, and the display control of the objects OB1 and OB2 displayed by thesecond display device 200 may be performed based on the detection result of this ambient light sensor. In addition, the display mode of the brightness, color, contrast, display content, etc. of the display screen of thefirst display device 10 can be specified based on the result of analysis processing of the image captured by the camera that captured thefirst display device 10, for example.

また第1表示装置10の表示画面においてユーザにより注視された注視表示物を検出する場合には、注視表示物の情報に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。例えば図3では、ユーザの視線方向LSの情報に基づいてユーザの注視領域ARGが検出され、これによりユーザの注視表示物であるキャラクタCH1が検出されている。この場合に、検出された注視表示物(キャラクタCH1)の情報に応じて、第2表示装置200に表示されるオブジェクト(OB1、OB2)の表示位置を設定する。例えば注視表示物のパラメータ情報、表示位置又は表示態様等に応じて、第2表示装置200に表示されるオブジェクトの表示位置を設定する。例えば注視表示物の表示位置の近くに、第2表示装置200におけるオブジェクトを表示したり、注視表示物の大きさ又は形状に応じた適切な表示位置に、オブジェクトを表示する。このようにすれば、第1表示装置10の注視表示物の情報に応じた表示位置にオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の注視表示物に応じた表示位置にオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。なお、第1表示装置10の表示画面においてユーザにより注視された注視表示物は、例えば第1表示装置10を撮影したカメラの撮影画像の解析処理の結果に基づいて特定することができる。In addition, when detecting a gaze display object gazed at by a user on the display screen of thefirst display device 10, the display position of the object displayed on thesecond display device 200 is set according to the information of the gaze display object. For example, in FIG. 3, the user's gaze area ARG is detected based on the information of the user's line of sight LS, and the character CH1, which is the user's gaze display object, is detected. In this case, the display position of the object (OB1, OB2) displayed on thesecond display device 200 is set according to the information of the detected gaze display object (character CH1). For example, the display position of the object displayed on thesecond display device 200 is set according to the parameter information, display position, display mode, etc. of the gaze display object. For example, the object on thesecond display device 200 is displayed near the display position of the gaze display object, or the object is displayed at an appropriate display position according to the size or shape of the gaze display object. In this way, it is possible to display the object at a display position according to the information of the gaze display object of thefirst display device 10, and to allow the user to view a content image in which the image of the object is added to the display image of thefirst display device 10. Therefore, it is possible to realize a content information notification process using an object by displaying the object at a display position corresponding to the gaze object of thefirst display device 10. Note that the gaze object gazed upon by the user on the display screen of thefirst display device 10 can be identified based on the results of an analysis process of an image captured by a camera that captures thefirst display device 10, for example.

また第1表示装置10の表示画面においてユーザにより注視された注視表示物を検出する場合に、注視表示物の情報に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば図3のように、ユーザの注視表示物であるキャラクタCH1が検出された場合に、検出された注視表示物(キャラクタCH1)の情報に応じて、第2表示装置200に表示されるオブジェクト(OB1、OB2)の表示態様を設定する。例えば注視表示物のパラメータ情報、表示位置又は表示態様等に応じて、第2表示装置200に表示されるオブジェクトの表示態様を設定する。例えば注視表示物のパラメータ情報に応じて、オブジェクトの色合い、明るさ、大きさ、形状又は透明度等の表示態様を変化させる。或いは、注視表示物の色合い、明るさ、大きさ又は形状等に対応する色合い、明るさ、大きさ又は形状等のオブジェクトを、第2表示装置200により表示する。このようにすれば、第1表示装置10の注視表示物の情報に応じた表示態様でオブジェクトを表示して、第1表示装置10の表示画像に対して当該オブジェクトの画像が付加されたコンテンツ画像を、ユーザに視認させることが可能になる。従って、第1表示装置10の注視表示物に応じた表示態様でオブジェクトを表示して、当該オブジェクトを用いたコンテンツ情報の通知処理を実現できるようになる。In addition, when detecting a gaze display object gazed at by a user on the display screen of thefirst display device 10, the display mode of the object displayed on thesecond display device 200 is set according to the information of the gaze display object. For example, as shown in FIG. 3, when a character CH1, which is a gaze display object of the user, is detected, the display mode of the object (OB1, OB2) displayed on thesecond display device 200 is set according to the information of the detected gaze display object (character CH1). For example, the display mode of the object displayed on thesecond display device 200 is set according to the parameter information, display position or display mode of the gaze display object. For example, the display mode of the object, such as the color, brightness, size, shape or transparency, of the object is changed according to the parameter information of the gaze display object. Alternatively, the object, such as the color, brightness, size or shape, corresponding to the color, brightness, size or shape of the gaze display object, is displayed by thesecond display device 200. In this way, the object is displayed in a display mode according to the information of the gaze display object of thefirst display device 10, and the user can view a content image in which the image of the object is added to the display image of thefirst display device 10. Therefore, it is possible to display an object in a display mode that corresponds to the gaze object of thefirst display device 10, and realize a notification process of content information using the object.

また第2表示装置200に表示されるオブジェクトは、第1表示装置10に表示される表示物に関連するオブジェクトである。例えば図2において、第2表示装置200に表示されるオブジェクトOB1~OB5は、第1表示装置10の表示物であるキャラクタCH1のステータス情報等をユーザに知らせるオブジェクトであり、表示物であるキャラクタCH1に関連するオブジェクトである。このようにすれば、第1表示装置10の表示物に関連するオブジェクトを、第1表示装置10の表示画像に重畳表示されるオブジェクトとして、第2表示装置200により表示できるようになる。これにより、第1表示装置10の表示画像に対して、当該表示画像の表示物に関連するオブジェクトを、第2表示装置200により重畳表示して、当該オブジェクトによるコンテンツ情報をユーザに通知できるようになる。The objects displayed on thesecond display device 200 are also objects related to the objects displayed on thefirst display device 10. For example, in FIG. 2, the objects OB1 to OB5 displayed on thesecond display device 200 are objects that inform the user of status information, etc., of the character CH1, which is an object of thefirst display device 10, and are objects related to the character CH1, which is an object. In this way, the objects related to the objects of thefirst display device 10 can be displayed by thesecond display device 200 as objects superimposed on the display image of thefirst display device 10. This makes it possible to superimpose an object related to the object of the display image of thefirst display device 10 on the display image of thefirst display device 10 by thesecond display device 200, and to notify the user of content information by the object.

また第1表示装置10の表示物の情報は、図13に示すように、表示物のパラメータ情報、表示位置情報又は表示態様情報である。表示物のパラメータ情報は、キャラクタ等の表示物のステータス、能力、レベル又は属性等を表すパラメータの情報である。また表示物の表示位置情報は、例えば表示物の位置座標、表示エリア又は表示場所等である。表示物の表示態様は、例えば表示物の色合い、明るさ、大きさ、形状又は透明度等である。このようにすれば、表示物のパラメータ情報、表示位置情報又は表示態様情報に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知態様を変化させることなどが可能になる。In addition, the information on the displayed object of thefirst display device 10 is parameter information, display position information, or display mode information of the displayed object, as shown in FIG. 13. The parameter information of the displayed object is parameter information that indicates the status, ability, level, or attributes of the displayed object, such as a character. The display position information of the displayed object is, for example, the position coordinates, display area, or display location of the displayed object. The display mode of the displayed object is, for example, the color, brightness, size, shape, or transparency of the displayed object. In this way, it becomes possible to change the notification mode of the content information notified using thesecond display device 200 according to the parameter information, display position information, or display mode information of the displayed object.

また本実施形態では、例えば第2表示装置200のカメラにより第1表示装置10を撮影した撮影画像の解析処理を行う。そして、当該撮影画像の解析処理の結果に基づくコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えばカメラの撮影画像の解析処理の結果に基づき特定された表示物の情報又は表示態様に応じたコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。例えば解析処理の結果に基づき特定された表示物の情報又は表示態様に応じて、コンテンツ情報の通知態様を変化させる処理を行う。或いはカメラの撮影画像の解析処理の結果に基づき検出された注視領域に対応するコンテンツ情報を、第2表示装置200を用いてユーザに通知する通知処理を行う。In this embodiment, for example, an analysis process is performed on a captured image of thefirst display device 10 captured by the camera of thesecond display device 200. Then, a notification process is performed to notify the user of content information based on the results of the analysis process of the captured image using thesecond display device 200. For example, a notification process is performed to notify the user of content information corresponding to information or a display mode of a display object identified based on the results of the analysis process of the image captured by the camera using thesecond display device 200. For example, a process is performed to change the notification mode of the content information depending on information or a display mode of a display object identified based on the results of the analysis process. Alternatively, a notification process is performed to notify the user of content information corresponding to a gaze area detected based on the results of the analysis process of the image captured by the camera using thesecond display device 200.

2.2 位置関係に応じた処理
本実施形態では図14に示すように、第1表示装置10と第2表示装置200の位置関係を検出する。この位置関係は、第1表示装置10の位置と第2表示装置200の位置の関係であってもよいし、第1表示装置10と第2表示装置200との間の距離の関係や、第1表示装置10の方向と第2表示装置200の方向の関係などであってもよい。また図14では、第2表示装置200が透過型HMDである場合の例を示しているが、第1表示装置10との位置関係が検出される第2表示装置200は、透過型HMD以外の透過型表示装置や、カメラを有する端末装置などであってもよい。
2.2 Processing According to Positional Relationship In this embodiment, as shown in Fig. 14, the positional relationship between thefirst display device 10 and thesecond display device 200 is detected. This positional relationship may be the relationship between the position of thefirst display device 10 and the position of thesecond display device 200, or the relationship between the distance between thefirst display device 10 and thesecond display device 200, or the relationship between the direction of thefirst display device 10 and the direction of thesecond display device 200. In addition, Fig. 14 shows an example in which thesecond display device 200 is a transmissive HMD, but thesecond display device 200, the positional relationship with thefirst display device 10 of which is detected, may be a transmissive display device other than a transmissive HMD, a terminal device having a camera, or the like.

そして本実施形態では、第1表示装置10と第2表示装置200の位置関係に応じて、第1表示装置10又は第2表示装置200の表示内容、或いは第2表示装置200を用いて通知されるコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が第1位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を第1表示内容にしたり、或いは第2表示装置200を用いてコンテンツ情報を第1通知態様で通知する。また第1表示装置10と第2表示装置200が第2位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を第2表示内容にしたり、或いは第2表示装置200を用いてコンテンツ情報を第2通知態様で通知する。このようにすれば、第1表示装置10と第2表示装置200の位置関係に応じた適切な表示内容で、第1表示装置10又は第2表示装置200に画像を表示したり、或いは第1表示装置10と第2表示装置200の位置関係に応じた適切な通知態様で、第2表示装置200によりコンテンツ情報をユーザに通知できるようになる。In this embodiment, the display content of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information notified using thesecond display device 200 is changed depending on the positional relationship between thefirst display device 10 and thesecond display device 200. For example, when thefirst display device 10 and thesecond display device 200 are in a first positional relationship, the display content of thefirst display device 10 or thesecond display device 200 is set to the first display content, or the content information is notified using thesecond display device 200 in a first notification mode. When thefirst display device 10 and thesecond display device 200 are in a second positional relationship, the display content of thefirst display device 10 or thesecond display device 200 is set to the second display content, or the content information is notified using thesecond display device 200 in a second notification mode. In this way, an image can be displayed on thefirst display device 10 or thesecond display device 200 with appropriate display content according to the relative positions of thefirst display device 10 and thesecond display device 200, or content information can be notified to the user by thesecond display device 200 in an appropriate notification format according to the relative positions of thefirst display device 10 and thesecond display device 200.

例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を、距離が遠くてもユーザが視認可能な表示内容にする。一方、第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、第1表示装置10又は第2表示装置200の表示内容を、例えば距離が遠いときに比べて情報の詳細度が高い表示内容にする。また第1表示装置10と第2表示装置200の方向関係に応じて、第1表示装置10又は第2表示装置200の表示内容を変化させてもよい。例えば第2表示装置200の向く方向が、第1表示装置10に対して正対しており、第1表示装置10の正面側から真っ直ぐに表示画面の方に向いている場合には、第1表示装置10又は第2表示装置200の表示内容を第1表示内容にする。例えば情報の詳細度が高い表示内容にする。一方、第2表示装置200の向く方向が、第1表示装置10に対して斜め方向になっている場合に、第1表示装置10又は第2表示装置200の表示内容を第2表示内容にする。例えば情報の詳細度が低く、情報を簡素化して伝える表示内容にしたり、非表示状態にする。For example, when thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance between them is far, the display content of thefirst display device 10 or thesecond display device 200 is made to be a display content that the user can view even if the distance is far. On the other hand, when thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance between them is close, the display content of thefirst display device 10 or thesecond display device 200 is made to be a display content with a higher degree of information detail than when the distance is far. In addition, the display content of thefirst display device 10 or thesecond display device 200 may be changed depending on the directional relationship between thefirst display device 10 and thesecond display device 200. For example, when the direction in which thesecond display device 200 faces thefirst display device 10 and faces straight from the front side of thefirst display device 10 toward the display screen, the display content of thefirst display device 10 or thesecond display device 200 is made to be the first display content. For example, the display content with a higher degree of information detail is made. On the other hand, when thesecond display device 200 faces in an oblique direction with respect to thefirst display device 10, the display content of thefirst display device 10 or thesecond display device 200 becomes the second display content. For example, the display content may be one that conveys information in a simplified manner with a low level of detail, or may be in a non-display state.

また第1表示装置10と第2表示装置200の位置関係に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、コンテンツ情報の通知内容又は通知表示物を、距離が遠い場合用の通知内容又は通知表示物にする。例えば距離が近い場合に比べて、情報の詳細度が低い通知内容の通知にしたり、簡素化された通知表示物によりコンテンツ情報を通知する。一方、第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、コンテンツ情報の通知内容又は通知表示物を、距離が近い場合用の通知内容又は通知表示物にする。例えば距離が遠い場合に比べて、情報の詳細度が高い通知内容の通知にしたり、より精細な形状の通知表示物によりコンテンツ情報を通知する。或いは、第1表示装置10と第2表示装置200の位置関係に応じた適切な通知位置にコンテンツ情報を表示する。例えば第1表示装置10の表示画面において、第2表示装置200の位置から視認しやすい領域にコンテンツ情報が表示されるようにする。In addition, the notification mode such as the notification content, notification display, or notification position of the content information notified using thesecond display device 200 is changed according to the positional relationship between thefirst display device 10 and thesecond display device 200. For example, when thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance is far, the notification content or notification display of the content information is set to a notification content or notification display for when the distance is far. For example, compared to when the distance is close, the notification content is set to a notification content with a lower degree of detail of the information, or the content information is notified using a simplified notification display. On the other hand, when thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance is close, the notification content or notification display of the content information is set to a notification content or notification display for when the distance is close. For example, compared to when the distance is far, the notification content is set to a notification content with a higher degree of detail of the information, or the content information is notified using a notification display with a finer shape. Alternatively, the content information is displayed at an appropriate notification position according to the positional relationship between thefirst display device 10 and thesecond display device 200. For example, the content information is displayed in an area on the display screen of thefirst display device 10 that is easily visible from the position of thesecond display device 200.

また図4のようにコンテンツ情報が音、振動又は発光により通知するものである場合に、第1表示装置10と第2表示装置200の位置関係に応じて、音、振動又は発光によるコンテンツ情報の通知態様を変化させてもよい。例えば第1表示装置10と第2表示装置200の距離が遠い位置関係である場合には、音又は振動を小さくしたり、発光を弱くし、距離が近い位置関係である場合には、音又は振動を大きくしたり、発光を強くする。また第1表示装置10と第2表示装置200の位置関係に応じて、コンテンツ情報の通知のオン、オフを制御してもよい。例えば第1表示装置10と第2表示装置200の距離が近い位置関係である場合には、コンテンツ情報の通知をオンにし、距離が遠い位置関係である場合には、コンテンツ情報の通知をオフにする。或いは、第1表示装置10の方向と第2表示装置200の方向の関係が、第2表示装置200から見て第1表示装置10の表示画面を視認しやすい関係である場合には、コンテンツ情報の通知をオンにし、視認しくい関係である場合には、コンテンツ情報の通知をオフにする。In addition, when the content information is notified by sound, vibration, or light emission as shown in FIG. 4, the notification mode of the content information by sound, vibration, or light emission may be changed according to the positional relationship between thefirst display device 10 and thesecond display device 200. For example, when thefirst display device 10 and thesecond display device 200 are far from each other, the sound or vibration may be reduced or the light emission may be weakened, and when the distance is close, the sound or vibration may be increased or the light emission may be strengthened. Also, the notification of the content information may be controlled to be turned on or off according to the positional relationship between thefirst display device 10 and thesecond display device 200. For example, when thefirst display device 10 and thesecond display device 200 are close to each other, the notification of the content information may be turned on, and when the distance is far, the notification of the content information may be turned off. Alternatively, when the relationship between the direction of thefirst display device 10 and the direction of thesecond display device 200 is such that the display screen of thefirst display device 10 is easily visible from thesecond display device 200, the notification of the content information may be turned on, and when the relationship is such that the display screen of thefirst display device 10 is difficult to view, the notification of the content information may be turned off.

また本実施形態では、第1表示装置10と第2表示装置200の位置関係と、第1表示装置10に表示される表示物の情報とに応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させてもよい。即ち、第1表示装置10と第2表示装置200の位置関係のみならず、第1表示装置10に表示される表示物の情報も考慮して、第1表示装置10又は第2表示装置200の表示内容を変化させたり、コンテンツ情報の通知態様を変化させる。このようにすれば、第1表示装置10と第2表示装置200の位置関係と第1表示装置10の表示物の情報に応じた適切な表示内容で、第1表示装置10又は第2表示装置200に画像を表示したり、或いは第1表示装置10と第2表示装置200の位置関係と表示物の情報に応じた適切な通知態様で、第2表示装置200によりコンテンツ情報をユーザに通知できるようになる。In addition, in this embodiment, the display contents of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information may be changed depending on the positional relationship between thefirst display device 10 and thesecond display device 200 and the information of the displayed object displayed on thefirst display device 10. That is, the display contents of thefirst display device 10 or thesecond display device 200 are changed or the notification mode of the content information is changed, taking into account not only the positional relationship between thefirst display device 10 and thesecond display device 200 but also the information of the displayed object displayed on thefirst display device 10. In this way, an image can be displayed on thefirst display device 10 or thesecond display device 200 with appropriate display contents according to the positional relationship between thefirst display device 10 and thesecond display device 200 and the information of the displayed object on thefirst display device 10, or thesecond display device 200 can notify the user of the content information in an appropriate notification mode according to the positional relationship between thefirst display device 10 and thesecond display device 200 and the information of the displayed object.

例えば第1表示装置10と第2表示装置200の距離が近い位置関係であったり、或いは第2表示装置200から見て第1表示装置10の表示画面を視認しやすい関係であるなどの所定の位置関係であることを条件に、第1表示装置10の表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)であることを条件に、第1表示装置10又は第2表示装置200の表示内容を、第1表示装置10の表示物の情報に応じた表示内容に設定する。或いは、第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)であることを条件に、前述の図9で説明したように、第1表示装置10の表示物の情報に応じて、コンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200が所定の位置関係であることを条件に、第1表示装置10の表示物の情報に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。或いは、第1表示装置10と第2表示装置200が所定の位置関係(距離が近い関係又は視認しやすい関係等)である場合には、第1表示装置10の表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる変化処理を行う一方で、第1表示装置10と第2表示装置200が所定の位置関係ではない場合には、当該変化処理を行わないようにする。For example, on the condition that thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance between them is close, or the display screen of thefirst display device 10 is easily visible from thesecond display device 200, the display contents of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, are changed according to the information of the display object of thefirst display device 10. For example, on the condition that thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance between them is close, or the display screen of thefirst display device 10 is easily visible from thesecond display device 200, the display contents of thefirst display device 10 or thesecond display device 200 are set to display contents according to the information of the display object of thefirst display device 10. Alternatively, on the condition that thefirst display device 10 and thesecond display device 200 are in a positional relationship where the distance between them is close, or the display screen of thefirst display device 10 is easily visible, the notification mode of the content information is changed according to the information of the display object of thefirst display device 10, as described above in FIG. 9. For example, on condition that thefirst display device 10 and thesecond display device 200 are in a predetermined positional relationship, the notification state of the content information notified using thesecond display device 200, such as the notification display object or notification position, is changed according to the information of the display object of thefirst display device 10. Alternatively, when thefirst display device 10 and thesecond display device 200 are in a predetermined positional relationship (such as a close distance or an easily visible relationship), a change process is performed to change the display content of thefirst display device 10 or thesecond display device 200 or the notification state of the content information according to the information of the display object of thefirst display device 10, while when thefirst display device 10 and thesecond display device 200 are not in the predetermined positional relationship, the change process is not performed.

また図3に示すようにユーザの注視表示物(CH1)が検出される場合には、第1表示装置10と第2表示装置200が所定の位置関係であることを条件に、注視表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば第1表示装置10と第2表示装置200の距離が近い位置関係であるときに、第1表示装置10の表示画面でのユーザの注視表示物が検出された場合に、注視表示物の情報に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる。例えば注視表示物の表示に適した内容になるように、第1表示装置10又は第2表示装置200の表示内容を設定する。或いは、前述したように、注視表示物のパラメータ情報、位置情報又は表示態様等に応じて、第2表示装置200を用いて通知されるコンテンツ情報の通知内容、通知表示物又は通知位置等の通知態様を変化させる。このようにすることで、第1表示装置10と第2表示装置200の位置関係を反映させながら、第1表示装置10の注視表示物の情報に応じたコンテンツ情報の種々の通知処理を実現できるようになる。Also, as shown in FIG. 3, when a user's gaze display object (CH1) is detected, the display contents of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, are changed according to the information of the gaze display object, provided that thefirst display device 10 and thesecond display device 200 are in a predetermined positional relationship. For example, when thefirst display device 10 and thesecond display device 200 are in a close positional relationship and a user's gaze display object is detected on the display screen of thefirst display device 10, the display contents of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, are changed according to the information of the gaze display object. For example, the display contents of thefirst display device 10 or thesecond display device 200 are set so that the contents are suitable for displaying the gaze display object. Alternatively, as described above, the notification mode of the notification contents, notification display object, notification position, etc. of the content information notified using thesecond display device 200 is changed according to the parameter information, position information, display mode, etc. of the gaze display object. In this way, it is possible to realize various notification processes of content information according to the information of the gaze object of thefirst display device 10 while reflecting the positional relationship between thefirst display device 10 and thesecond display device 200.

次に第1表示装置10と第2表示装置200の位置関係の検出処理の一例について説明する。図5で説明した第2表示装置200では、ユーザの周囲の実空間の認識処理を行うことにより実空間情報を取得し、取得された実空間情報に基づいて、実空間に対応する仮想空間を生成することができる。例えば図15(A)では、実空間に机DKや壁WLなどの物体が存在している。この実空間を、図5の第2表示装置200に設けられたカメラによりスキャンする認識処理を行うことで、実空間情報を取得する。具体的には図15(B)に示すように、実空間情報としてメッシュポリゴンのデータを取得する。この実空間の認識処理は例えばリアルタイムに実行され、ユーザの周囲の実空間が順次にスキャンされて実空間情報が取得される。例えばIDに対応づけられた空間データが順次に取得されて、実空間情報として図6の記憶部170に蓄積されて記憶される。この実空間情報は、デプス情報(奥行き値)も有しており、このデプス情報を用いることで、例えば仮想空間のオブジェクトと実空間の物体との隠面消去処理も可能になる。また実空間情報に基づいて仮想空間を生成することで、仮想的なオブジェクト(キャラクタ、配置オブジェクト)と、実空間の物体(机DK、壁WL)とのインタラクションが可能になる。例えば仮想的なオブジェクトと実空間の物体とのヒット処理(衝突処理)なども可能になり、これまでにないタイプのAR(Augmented Reality)やMR(Mixed Reality)の実現が可能になる。また、このような実空間の認識処理による実空間情報は、ユーザの位置情報や方向情報の取得処理にも利用できる。例えば実空間情報に基づいて、ユーザとユーザの周囲の物体との位置関係や距離関係を把握できる。従って、慣性計測ユニットの検出結果と実空間情報を用いることで、より正確なユーザの位置情報や方向情報を取得することが可能になる。Next, an example of the detection process of the positional relationship between thefirst display device 10 and thesecond display device 200 will be described. In thesecond display device 200 described in FIG. 5, real space information is acquired by performing a recognition process of the real space around the user, and a virtual space corresponding to the real space can be generated based on the acquired real space information. For example, in FIG. 15(A), objects such as a desk DK and a wall WL exist in the real space. This real space is acquired by performing a recognition process of scanning the real space with a camera provided in thesecond display device 200 of FIG. 5. Specifically, as shown in FIG. 15(B), mesh polygon data is acquired as real space information. This real space recognition process is executed, for example, in real time, and the real space around the user is scanned sequentially to acquire real space information. For example, space data associated with an ID is acquired sequentially, and is accumulated and stored in thestorage unit 170 of FIG. 6 as real space information. This real space information also has depth information (depth value), and by using this depth information, for example, hidden surface removal processing between an object in the virtual space and an object in the real space is also possible. Furthermore, by generating a virtual space based on real space information, it becomes possible to have interactions between virtual objects (characters, placed objects) and real space objects (desks DK, walls WL). For example, it also becomes possible to perform hit processing (collision processing) between virtual objects and real space objects, making it possible to realize unprecedented types of AR (Augmented Reality) and MR (Mixed Reality). Furthermore, real space information obtained by such real space recognition processing can also be used to obtain position information and directional information of a user. For example, the positional relationship and distance relationship between a user and objects around the user can be understood based on real space information. Therefore, by using the detection results of the inertial measurement unit and real space information, it becomes possible to obtain more accurate position information and directional information of a user.

そして図16に示すように、第2表示装置200のカメラ等を用いた実空間の認識処理により、第2表示装置200から見た第1表示装置10についての実空間情報を取得する。具体的には、第1表示装置10のメッシュポリゴンのデータを取得する。そして第1表示装置10の実空間情報であるメッシュポリゴンのデータに基づいて、例えば第1表示装置10のコーナー部に対して複数の仮想的なマーカMK1、MK2、MK3を設定する。図16では、第1表示装置10の例えば少なくとも3つのコーナー部に対して仮想的なマーカMK1、MK2、MK3が設定されている。これらのマーカMK1~MK3は例えばマーカレスのARにおける仮想的なマーカである。そして、これらの仮想的なマーカMK1~MK3を用いて、第1表示装置10と第2表示装置200の位置関係を検出する。例えば第2表示装置200の位置とマーカMK1~MK3の位置の距離を求めることで、第1表示装置10と第2表示装置200の位置関係を検出できる。このようにすれば、第2表示装置200のカメラ等を用いた実空間の認識処理を有効利用して、第1表示装置10と第2表示装置200との位置関係を検出できる。そして前述したように、検出された位置関係等に応じて、第1表示装置10又は第2表示装置200の表示内容、或いはコンテンツ情報の通知態様を変化させる処理を実現できるようになる。As shown in FIG. 16, the real space information of thefirst display device 10 as seen from thesecond display device 200 is obtained by a recognition process of the real space using a camera or the like of thesecond display device 200. Specifically, mesh polygon data of thefirst display device 10 is obtained. Then, based on the mesh polygon data, which is the real space information of thefirst display device 10, for example, multiple virtual markers MK1, MK2, and MK3 are set for the corners of thefirst display device 10. In FIG. 16, virtual markers MK1, MK2, and MK3 are set for at least three corners of thefirst display device 10, for example. These markers MK1 to MK3 are virtual markers in, for example, markerless AR. Then, the positional relationship between thefirst display device 10 and thesecond display device 200 is detected using these virtual markers MK1 to MK3. For example, the positional relationship between thefirst display device 10 and thesecond display device 200 can be detected by determining the distance between the position of thesecond display device 200 and the positions of the markers MK1 to MK3. In this way, the positional relationship between thefirst display device 10 and thesecond display device 200 can be detected by effectively utilizing the recognition process of the real space using the camera of thesecond display device 200, etc. As described above, it becomes possible to realize a process of changing the display content of thefirst display device 10 or thesecond display device 200, or the notification mode of the content information, depending on the detected positional relationship, etc.

また本実施形態では、図17に示すように、第1表示装置10の表示物に対応するオブジェクトOBが、第1表示装置10の画面から飛び出して来るようなARやMRの画像表示を行ってもよい。例えば図3で説明したように第1表示装置10の表示画面でのユーザの注視表示物を検出し、検出された注視表示物に対応するオブジェクトOBが、第1表示装置10の画面から第2表示装置200の方に移動して来るような画像を、第2表示装置200を利用してユーザに視認させる表示処理を行う。例えば立体視表示における視差を制御することで、このような表示処理を実現できる。このようにすることで、検出された注視領域(注視表示物)に対応するコンテンツ情報であるオブジェクトOBを、第2表示装置200を用いてユーザに通知する通知処理を実現できる。In this embodiment, as shown in FIG. 17, an AR or MR image may be displayed in which an object OB corresponding to an object displayed on thefirst display device 10 appears to pop out from the screen of thefirst display device 10. For example, as described in FIG. 3, a display object that the user is gazing at is detected on the display screen of thefirst display device 10, and a display process is performed using thesecond display device 200 to allow the user to view an image in which an object OB corresponding to the detected gaze object moves from the screen of thefirst display device 10 toward thesecond display device 200. For example, such a display process can be realized by controlling the parallax in the stereoscopic display. In this way, a notification process can be realized in which thesecond display device 200 is used to notify the user of the object OB, which is content information corresponding to the detected gaze area (gaze object).

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第2表示装置等)と共に記載された用語(透過型HMD等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また情報取得処理、注視領域検出処理、画像解析処理、コンテンツ処理、通知処理、位置関係検出処理等も本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。Although the present embodiment has been described in detail above, those skilled in the art will easily understand that many modifications are possible that do not substantially deviate from the novel matters and effects of the present disclosure. Therefore, all such modifications are intended to be included in the scope of the present disclosure. For example, a term (such as a see-through HMD) described at least once in the specification or drawings together with a different term with a broader or equivalent meaning (such as a second display device) can be replaced with that different term anywhere in the specification or drawings. In addition, information acquisition processing, gaze area detection processing, image analysis processing, content processing, notification processing, positional relationship detection processing, etc. are not limited to those described in the present embodiment, and equivalent methods, processing, and configurations are also included in the scope of the present disclosure.

10…第1表示装置、30…表示部、40…情報処理装置、50…サーバ、
60…ネットワーク、100…処理部、102…情報取得部、104…注視領域検出部、
105…画像解析部、106…位置関係検出部、110…コンテンツ処理部、
112…通知処理部、160…操作部、162…撮像部、170…記憶部、
180…情報記憶媒体、192…音出力部、196…通信部、200…第2表示装置、
202…透過型HMD、240…テンプル部、242…ゴーグル部、243…表示装置、
244…ホログラフィック光学素子、246…RGBカメラ、247…デプスカメラ、
248、249…環境認識カメラ、
ARG…注視領域、CH1~CH3、CE1~CE3…キャラクタ、
IMD、IMH…表示画像、LS…視線方向、MK1~MK3…マーカ、
OB、OB1~OB5…オブジェクト、RCH…レアキャラクタ、US…ユーザ
10: first display device, 30: display unit, 40: information processing device, 50: server,
60: network, 100: processing unit, 102: information acquisition unit, 104: gaze area detection unit,
105: image analysis unit, 106: positional relationship detection unit, 110: content processing unit,
112: notification processing unit, 160: operation unit, 162: imaging unit, 170: storage unit,
180... Information storage medium, 192... Sound output unit, 196... Communication unit, 200... Second display device,
202: See-through HMD, 240: Temple section, 242: Goggle section, 243: Display device,
244...holographic optical element, 246...RGB camera, 247...depth camera,
248, 249...Environment recognition camera,
ARG... gaze area, CH1 to CH3, CE1 to CE3... character,
IMD, IMH...display image, LS...line of sight direction, MK1 to MK3...markers,
OB, OB1 to OB5: Objects, RCH: Rare characters, US: Users

Claims (2)

Translated fromJapanese
第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムであって、
ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、
前記第1表示装置の第1表示画像に対して前記第2表示装置の第2表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部と、
を含み、
前記コンテンツ処理部は、
検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、
前記コンテンツ処理部は、
前記第1表示装置と前記第2表示装置の位置関係に応じて前記第2表示装置の表示内容変化させ
前記第1表示装置の前記第1表示画像に対して前記第2表示装置の前記第2表示画像が付加される領域は、前記第1表示画像の表示領域の内側領域であり、
前記コンテンツ処理部は、
前記第1表示装置と前記第2表示装置の距離が近い位置関係である場合には、前記第1表示装置と前記第2表示装置の距離が遠い場合に比べて、前記第2表示装置の表示内容を、情報の詳細度が高い表示内容にすることを特徴とするエンターテインメントシステム。
An entertainment system using a first display device and a second display device on which a display image of the first display device can be viewed,
a gaze area detection unit that detects a gaze area of the user on a display screen of the first display device based on information on a gaze direction of the user;
a content processing unit that performs processing for causing the user to visually recognize a content image in which thesecond display image of the second display device is added to thefirst display image of the first display device;
Including,
The content processing unit includes:
performing a notification process of notifying the user of content information corresponding to the detected gaze area using the second display device;
The content processing unit includes:
changing displaycontent of the second display device according to a positional relationship between the first display deviceand the second display device;
a region in which the second display image of the second display device is added to the first display image of the first display device is an inner region of a display region of the first display image,
The content processing unit includes:
An entertainment system characterized in that when the first display device and the second display device are positioned close to each other, the display content of the second display device is displayed with a higher level of detail than when the first display device and the second display device are positioned farther apart .
第1表示装置と、前記第1表示装置の表示画像が視認可能な第2表示装置とを用いたエンターテインメントシステムに用いられるプログラムであって、
ユーザの視線方向の情報に基づいて、前記第1表示装置の表示画面での前記ユーザの注視領域を検出する注視領域検出部と、
前記第1表示装置の第1表示画像に対して前記第2表示装置の第2表示画像が付加されたコンテンツ画像を前記ユーザに視認させる処理を行うコンテンツ処理部として、
コンピュータを機能させ、
前記コンテンツ処理部は、
検出された前記注視領域に対応するコンテンツ情報を、前記第2表示装置を用いて前記ユーザに通知する通知処理を行い、
前記コンテンツ処理部は、
前記第1表示装置と前記第2表示装置の位置関係に応じて前記第2表示装置の表示内容変化させ
前記第1表示装置の前記第1表示画像に対して前記第2表示装置の前記第2表示画像が付加される領域は、前記第1表示画像の表示領域の内側領域であり、
前記コンテンツ処理部は、
前記第1表示装置と前記第2表示装置の距離が近い位置関係である場合には、前記第1表示装置と前記第2表示装置の距離が遠い場合に比べて、前記第2表示装置の表示内容を、情報の詳細度が高い表示内容にすることを特徴とするプログラム。
A program for use in an entertainment system using a first display device and a second display device on which a display image of the first display device can be viewed,
a gaze area detection unit that detects a gaze area of the user on a display screen of the first display device based on information on a gaze direction of the user;
a content processing unit that performs processing for causing the user to visually recognize a content image in which thesecond display image of the second display device is added to thefirst display image of the first display device,
Make your computer work
The content processing unit includes:
performing a notification process of notifying the user of content information corresponding to the detected gaze area using the second display device;
The content processing unit includes:
changing displaycontent of the second display device according to a positional relationship between the first display deviceand the second display device;
a region in which the second display image of the second display device is added to the first display image of the first display device is an inner region of a display region of the first display image,
The content processing unit includes:
A program characterized in that, when the first display device and the second display device are positioned close to each other, the display content of the second display device is displayed with a higher level of detail than when the first display device and the second display device are positioned farther apart .
JP2020218578A2020-12-282020-12-28 Entertainment Systems and ProgramsActiveJP7685831B2 (en)

Priority Applications (2)

Application NumberPriority DateFiling DateTitle
JP2020218578AJP7685831B2 (en)2020-12-282020-12-28 Entertainment Systems and Programs
JP2025083747AJP2025114850A (en)2020-12-282025-05-20 Entertainment Systems and Programs

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2020218578AJP7685831B2 (en)2020-12-282020-12-28 Entertainment Systems and Programs

Related Child Applications (1)

Application NumberTitlePriority DateFiling Date
JP2025083747ADivisionJP2025114850A (en)2020-12-282025-05-20 Entertainment Systems and Programs

Publications (2)

Publication NumberPublication Date
JP2022103751A JP2022103751A (en)2022-07-08
JP7685831B2true JP7685831B2 (en)2025-05-30

Family

ID=82279647

Family Applications (2)

Application NumberTitlePriority DateFiling Date
JP2020218578AActiveJP7685831B2 (en)2020-12-282020-12-28 Entertainment Systems and Programs
JP2025083747APendingJP2025114850A (en)2020-12-282025-05-20 Entertainment Systems and Programs

Family Applications After (1)

Application NumberTitlePriority DateFiling Date
JP2025083747APendingJP2025114850A (en)2020-12-282025-05-20 Entertainment Systems and Programs

Country Status (1)

CountryLink
JP (2)JP7685831B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2015176588A (en)2014-03-182015-10-05株式会社東芝Display device, image display system and information processing method
JP2016507970A (en)2013-01-042016-03-10ヴァジックス コーポレーションVuzix Corporation Bidirectional wearable portable smart device
JP2016119567A (en)2014-12-192016-06-30シャープ株式会社Image processing system, image processing method, electronic apparatus, and image processing program
JP6160154B2 (en)2013-03-222017-07-12セイコーエプソン株式会社 Information display system using head-mounted display device, information display method using head-mounted display device, and head-mounted display device
JP6240353B1 (en)2017-03-082017-11-29株式会社コロプラ Method for providing information in virtual space, program therefor, and apparatus therefor
JP6255731B2 (en)2013-06-172018-01-10コニカミノルタ株式会社 Display system, display method, and display terminal
JP6264014B2 (en)2013-12-172018-01-24セイコーエプソン株式会社 Head-mounted display device
JP2018137505A (en)2017-02-202018-08-30セイコーエプソン株式会社Display device and control method thereof
JP2018207517A (en)2018-08-172018-12-27株式会社コロプラ Method executed by computer for controlling display in head mounted device, program for causing computer to execute the method, and information processing apparatus
WO2020003361A1 (en)2018-06-252020-01-02マクセル株式会社Head-mounted display, head-mounted display linking system, and method for same
JP6638195B2 (en)2015-03-022020-01-29セイコーエプソン株式会社 DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP6733401B2 (en)2016-07-282020-07-29セイコーエプソン株式会社 Display system, display device, information display method, and program
JP6759451B2 (en)2016-09-302020-09-23株式会社ソニー・インタラクティブエンタテインメント Systems and methods to reduce the impact of human tracking device occlusion
JP2020167660A (en)2019-03-292020-10-08株式会社ソニー・インタラクティブエンタテインメントImage data transmission method, content processing device, head-mounted display, relay device, and content processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US10545623B2 (en)*2013-10-042020-01-28Sony CorporationInformation processing device and information processing method to coordinate with a plurality of information processing devices
JP2016031373A (en)*2014-07-252016-03-07セイコーエプソン株式会社 Display device, display method, display system, and program
JP2019068143A (en)*2017-09-282019-04-25日本精機株式会社Display unit, display control method and program

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2016507970A (en)2013-01-042016-03-10ヴァジックス コーポレーションVuzix Corporation Bidirectional wearable portable smart device
JP6160154B2 (en)2013-03-222017-07-12セイコーエプソン株式会社 Information display system using head-mounted display device, information display method using head-mounted display device, and head-mounted display device
JP6255731B2 (en)2013-06-172018-01-10コニカミノルタ株式会社 Display system, display method, and display terminal
JP6264014B2 (en)2013-12-172018-01-24セイコーエプソン株式会社 Head-mounted display device
JP2015176588A (en)2014-03-182015-10-05株式会社東芝Display device, image display system and information processing method
JP2016119567A (en)2014-12-192016-06-30シャープ株式会社Image processing system, image processing method, electronic apparatus, and image processing program
JP6638195B2 (en)2015-03-022020-01-29セイコーエプソン株式会社 DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP6733401B2 (en)2016-07-282020-07-29セイコーエプソン株式会社 Display system, display device, information display method, and program
JP6759451B2 (en)2016-09-302020-09-23株式会社ソニー・インタラクティブエンタテインメント Systems and methods to reduce the impact of human tracking device occlusion
JP2018137505A (en)2017-02-202018-08-30セイコーエプソン株式会社Display device and control method thereof
JP6240353B1 (en)2017-03-082017-11-29株式会社コロプラ Method for providing information in virtual space, program therefor, and apparatus therefor
WO2020003361A1 (en)2018-06-252020-01-02マクセル株式会社Head-mounted display, head-mounted display linking system, and method for same
JP2018207517A (en)2018-08-172018-12-27株式会社コロプラ Method executed by computer for controlling display in head mounted device, program for causing computer to execute the method, and information processing apparatus
JP2020167660A (en)2019-03-292020-10-08株式会社ソニー・インタラクティブエンタテインメントImage data transmission method, content processing device, head-mounted display, relay device, and content processing system

Also Published As

Publication numberPublication date
JP2022103751A (en)2022-07-08
JP2025114850A (en)2025-08-05

Similar Documents

PublicationPublication DateTitle
JP6845111B2 (en) Information processing device and image display method
JP2023542847A (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP5148660B2 (en) Program, information storage medium, and image generation system
US9724609B2 (en)Apparatus and method for augmented reality
JP7144796B2 (en) Simulation system and program
US11695908B2 (en)Information processing apparatus and information processing method
JP2007042073A (en) Video presentation system, video presentation method, program for causing computer to execute video presentation method, and storage medium
US10515481B2 (en)Method for assisting movement in virtual space and system executing the method
US11768576B2 (en)Displaying representations of environments
US20190114841A1 (en)Method, program and apparatus for providing virtual experience
JP2011258158A (en)Program, information storage medium and image generation system
US10403048B2 (en)Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
WO2017056892A1 (en)Image generation device, image generation method, and image generation program
JP6530453B2 (en) Game program and game system
JP2020174329A (en)Information processing device, display method, and computer program
GB2582106A (en)Display device and display device control method
JP7685831B2 (en) Entertainment Systems and Programs
US20230221833A1 (en)Methods for displaying user interface elements relative to media content
JP7325833B2 (en) Game program, game processing method, and game device
JP7619771B2 (en) Entertainment Systems and Programs
JP5213913B2 (en) Program and image generation system
US12429945B2 (en)Information processing apparatus and adjustment screen display method
JP7319686B2 (en) Game program, game processing method, and game device
KR102772657B1 (en) Game program, game processing method and game device
JP7733481B2 (en) Information processing device and image generating method

Legal Events

DateCodeTitleDescription
A711Notification of change in applicant

Free format text:JAPANESE INTERMEDIATE CODE: A711

Effective date:20230630

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20231108

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20240521

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20240522

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20240722

RD02Notification of acceptance of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7422

Effective date:20240722

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20241112

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20250114

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20250422

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20250520

R150Certificate of patent or registration of utility model

Ref document number:7685831

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150


[8]ページ先頭

©2009-2025 Movatter.jp