Movatterモバイル変換


[0]ホーム

URL:


JP5674441B2 - Information processing system, control method thereof, and program - Google Patents

Information processing system, control method thereof, and program
Download PDF

Info

Publication number
JP5674441B2
JP5674441B2JP2010269635AJP2010269635AJP5674441B2JP 5674441 B2JP5674441 B2JP 5674441B2JP 2010269635 AJP2010269635 AJP 2010269635AJP 2010269635 AJP2010269635 AJP 2010269635AJP 5674441 B2JP5674441 B2JP 5674441B2
Authority
JP
Japan
Prior art keywords
tag
image data
computer graphics
graphics image
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010269635A
Other languages
Japanese (ja)
Other versions
JP2012118882A (en
Inventor
和宏 笹尾
和宏 笹尾
昇 庵原
昇 庵原
武蔵リカルド 岡本
武蔵リカルド 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions CorpfiledCriticalNS Solutions Corp
Priority to JP2010269635ApriorityCriticalpatent/JP5674441B2/en
Publication of JP2012118882ApublicationCriticalpatent/JP2012118882A/en
Application grantedgrantedCritical
Publication of JP5674441B2publicationCriticalpatent/JP5674441B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Description

Translated fromJapanese

本発明は、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な技術に関するものである。  The present invention relates to a technology capable of synthesizing and presenting real-space video and computer graphics image data.

従来、「時間」、「距離」、「エアタグの種類」を指定すると、指定した条件に合致するタグのみを表示し、煩雑に表示されていたタグを整理する技術が知られている(例えば、非特許文献1参照)。  Conventionally, when “time”, “distance”, and “type of air tag” are specified, only tags that meet the specified conditions are displayed, and the tags that have been displayed complicatedly are known (for example, Non-patent document 1).

また、タグが集まっているところをユーザが長押しすると、周りのタグが吸い寄せられて、螺旋状に回り出し、奥から手前にタグが順々に回り、ユーザは気になるタグを見つけたらタップして当該タグに係る詳細を参照することができる技術が知られている(例えば、非特許文献2参照)。  In addition, when the user presses and holds the place where the tag is gathered, the surrounding tag is sucked in, spirals out, the tag rotates in order from the back to the front, and the user taps when finding the tag of interest A technique that can refer to details of the tag is known (for example, see Non-Patent Document 2).

ところで、AR(Augmented Reality)は、現実空間に情報を付加させる技術であり、現実空間に関する情報は、方位が非常に大きな意味を持つ。例えば、「日本に初めて訪れた外国人が、雷門を目印に浅草寺を探し、お参りする」といった場合、往路に至っては雷門の位置を知らせる情報(例えば、“雷門”と大きく書かれたタグ)が価値ある情報であるが、復路に至っては既に知っている情報なので、情報の価値は半減する。  By the way, AR (Augmented Reality) is a technique for adding information to the real space, and the information related to the real space has a very significant orientation. For example, in the case of “a foreigner visiting Japan for the first time looking for Sensoji Temple with Kaminarimon as a landmark and visiting,” the information that informs the location of Kaminarimon (for example, a tag that reads “Kaminarimon”) Although it is valuable information, the value of the information is halved because it is already known information when it comes back.

Sekai Camera Support Center、インターネット<http://support.sekaicamera.com/ja/service>Sekai Camera Support Center, Internet <http://support.sekaicamera.com/en/service>ふぉーんなハナシ セカイカメラのセカイを楽しむ小技、インターネット<http://plusd.itmedia.co.jp/mobile/articles/0910/01/news114.html>Fun Hanashi Seika Enjoying the Sekai Camera Sekai, the Internet <http://plusd.itmedia.co.jp/mobile/articles/0910/01/news114.html>

しかしながら、非特許文献1、2に開示された技術は何れの場合も、雷門に向けてスマートフォンを翳せば、一様に“雷門”と大きくタグが表示されてしまう。このように現実空間の映像に付加される情報は、方位によって情報の価値は変わるのに、それが考慮されないまま一様に表示されていた。  However, in any of the techniques disclosed inNon-Patent Documents 1 and 2, if the smartphone is pointed toward Kaminarimon, the tag will be uniformly displayed as “Kaminarimon”. As described above, the information added to the image in the real space is displayed uniformly without taking into consideration the value of the information depending on the direction.

そこで、本発明の目的は、オブジェクトから見て有用な方位範囲の地点であるか、そうでない方位範囲の地点であるかに応じて、当該オブジェクトに関するコンピュータグラフィックス画像データの見せ方を変えることにある。  Accordingly, an object of the present invention is to change the way in which computer graphics image data relating to an object is displayed depending on whether the point is a point of a useful azimuth range as viewed from the object or a point of a azimuth range that is not so. is there.

本発明の情報処理システムは、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムであって、前記拡張現実感提示装置の位置及び姿勢を検知する検知手段と、前記検知手段による検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第1の解析手段と、前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御手段と、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する第2の管理手段と、経路及び進行方向を設定する設定手段と、前記設定手段により設定された経路及び進行方向に基づいて、前記コンピュータグラフィックス画像データに対応するオブジェクトの現実空間の位置から見て有用な方位範囲を推定する推定手段と、前記推定手段による推定結果に応じて、前記第2の管理手段における該当する方位範囲の評価情報を更新する更新手段と、を有し、前記制御手段は、前記第1の解析手段による解析結果に対応する前記第2の管理手段における方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする。
本発明の情報処理システムの制御方法は、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法であって、前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップと、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する管理ステップと、を含み、前記制御ステップでは、前記解析ステップによる解析結果に対応する前記管理ステップにおける方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする。
本発明のプログラムは、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法をコンピュータに実行させるためのプログラムであって、前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップと、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する管理ステップと、をコンピュータに実行させ、前記制御ステップでは、前記解析ステップによる解析結果に対応する前記管理ステップにおける方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする。
An information processing system according to the present invention is an information processing system including an augmented reality presentation device capable of combining and presenting a video of real space and computer graphics image data, and includes the augmented reality presentation device. Based on the detection means for detecting the position and orientation, and the detection result of the detection means, the azimuth range to which the augmented reality presentation device belongs as viewed from the position of the object in the real space corresponding to the computer graphics image data First analysis means for analyzing, control means for switching the computer graphics image data to be presented in the augmented reality presentation device in accordance with the analysis result by the first analysis means, andthe computer graphics image data Evaluation for each azimuth range viewed from the position of the object in the real space corresponding to A second management unit that manages information; a setting unit that sets a path and a traveling direction; and a real space of an object corresponding to the computer graphics image data based on the path and the traveling direction set by the setting unit An estimation unit that estimates a useful azimuth range when viewed from the position of, and an update unit that updates evaluation information of the corresponding azimuth range in the second management unit according to an estimation result by the estimation unit , the control means, according to the evaluation information of the bearing range in the second management unit corresponding to the analysis result of the first analysis unit, Ruswitches the computer graphics image data to be presented in the augmented reality presentation apparatus It is characterized by that.
The control method of the information processing system of the present invention is a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting video in real space and computer graphics image data, A detection step for detecting the position and orientation of the augmented reality presentation device, and the augmented reality presentation device as seen from the position of the object in the real space corresponding to the computer graphics image data based on the detection result of the detection step An analysis step for analyzing which azimuth range belongs to, a control step for switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step, andthe computer graphics image data Real space object corresponding to A management step for managing evaluation information for each azimuth range viewed from a position, and in the control step, the augmented reality presentation is performed according to the evaluation information of the azimuth range in the management step corresponding to the analysis result by the analysis step. The computer graphics image data presented in the apparatus is switched .
The program of the present invention is a program for causing a computer to execute a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data. And detecting the position and orientation of the augmented reality presentation device, and based on the detection result of the detecting step, the augmented reality as viewed from the position of the object in the real space corresponding to the computer graphics image data. An analysis step for analyzing which azimuth range the sensation presentation device belongs to, a control step for switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step, andthe computer graphic Compatible with image data A management step for managing evaluation information for each azimuth range viewed from the position of the object in the real space, and in the control step, the azimuth range in the management step corresponding to the analysis result by the analysis step is according to the evaluation information, wherein toswitch between the computer graphics image data to be presented in the augmented reality presentation apparatus.

本実施形態によれば、オブジェクトから見て有用な方位範囲の地点であるか、そうでない方位範囲の地点であるかに応じて、当該オブジェクトに関するコンピュータグラフィックス画像データの見せ方を変えることができる。  According to the present embodiment, it is possible to change the way the computer graphics image data related to the object is displayed depending on whether the point is in a useful azimuth range or not in the azimuth range. .

本発明の第1の実施形態に係るARタグ表示システムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of an AR tag display system according to a first embodiment of the present invention.本発明の実施形態におけるタグ管理サーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the tag management server in embodiment of this invention.本発明の実施形態における携帯端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the portable terminal in embodiment of this invention.本発明の実施形態に係るARタグ表示システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the AR tag display system which concerns on embodiment of this invention.本実施形態に係るARタグ表示システムの動作を具体的に説明するためのストーリーを示す図である。It is a figure which shows the story for demonstrating concretely the operation | movement of the AR tag display system which concerns on this embodiment.図4の401、403に示す経路をユーザが携帯端末を翳しながら歩いている場合におけるARタグ表示システムの動作について説明するための図である。It is a figure for demonstrating operation | movement of the AR tag display system in case the user is walking on the route | root shown to 401, 403 of FIG.携帯端末の画面表示例を示す図である。It is a figure which shows the example of a screen display of a portable terminal.図4の402、404に示す経路をユーザが携帯端末を翳しながら歩いている場合におけるARタグ表示システムの動作について説明するための図である。It is a figure for demonstrating operation | movement of the AR tag display system in case the user is walking on the path | route shown by 402, 404 of FIG.携帯端末の画面表示例を示す図である。It is a figure which shows the example of a screen display of a portable terminal.ユーザが携帯端末の画面上に表示されているタグをタップした場合に起動する処理を示すフローチャートである。It is a flowchart which shows the process started when a user taps the tag currently displayed on the screen of a portable terminal.ユーザによって設定された散歩道に基づいて、タグ管理テーブルの評価値を更新する処理を具体的に説明するための図である。It is a figure for demonstrating concretely the process which updates the evaluation value of a tag management table based on the promenade set by the user.本発明の第3の実施形態に係るARタグ表示システムの構成を概略的に示す図である。It is a figure which shows schematically the structure of the AR tag display system which concerns on the 3rd Embodiment of this invention.本発明の第3の実施形態に係るAR表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the AR display system which concerns on the 3rd Embodiment of this invention.図10のステップS1004〜S1008を具体的に説明するための図である。It is a figure for demonstrating concretely step S1004-S1008 of FIG.本発明の第4の実施形態において使用する三次元タグの一例を説明するための図である。It is a figure for demonstrating an example of the three-dimensional tag used in the 4th Embodiment of this invention.本発明の第4の実施形態に係るARタグ表示システムの構成を概略的に示す図である。It is a figure which shows schematically the structure of the AR tag display system which concerns on the 4th Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。  DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図1に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末10と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ20とで構成される。なお、図1においては、説明の簡単のため、携帯端末10、タグ管理サーバ20をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。  First, a first embodiment of the present invention will be described. FIG. 1 is a diagram schematically showing the configuration of an AR tag display system according to the first embodiment of the present invention. As shown in FIG. 1, the AR tag display system according to the present embodiment includes amobile terminal 10 with a camera function possessed by a user, atag management server 20 for managing tags displayed in combination with real-world video, Consists of. In FIG. 1, for simplicity of explanation, onemobile terminal 10 and onetag management server 20 are shown, but there may actually be an arbitrary number of each.

携帯端末10は、位置姿勢検知部101、評価受付部102及び提示部103を備える。提示部103は、タグを表すコンピュータグラフィックス画像データを、現実空間の映像と合成して表示する。即ち、携帯端末10は、カメラによって撮影された現実空間の映像を液晶ディスプレイ等に表示し、表示した現実空間の映像にコンピュータグラフィックス画像データを合成表示することにより、拡張された現実感を演出する。以下では、このように拡張された現実感を与えるコンピュータグラフィックス画像データの合成表示を、AR(Augmented Reality)表示と称することがある。  Themobile terminal 10 includes a position /orientation detection unit 101, anevaluation reception unit 102, and apresentation unit 103. Thepresentation unit 103 combines the computer graphics image data representing the tag with the video in the real space and displays it. That is, themobile terminal 10 displays an image of a real space photographed by the camera on a liquid crystal display or the like, and produces an expanded sense of reality by combining and displaying computer graphics image data on the displayed real space image. To do. Hereinafter, the combined display of computer graphics image data that gives such an expanded sense of reality may be referred to as AR (Augmented Reality) display.

なお、以下で説明する実施形態においては、AR表示を行うデバイスであるAR表示デバイスの例として携帯端末型のAR表示デバイスを挙げているが、これに限られない。例えば、ユーザの頭部に装着される眼鏡型のHMD(Head Mounted Display)も適用できる。HMDは、現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データを表示することにより、拡張された現実感を演出する。また、HMDには、非透過型、ビデオ透過型、光学透過型等の様々な方式がある。合成表示(AR表示)とは、いずれかの方式によってHMDのレンズに映し出される現実空間の映像に対し、その映像に整合する位置にコンピュータグラフィックス画像データを合成表示することであって、例えば、光学透過型方式であれば、シースルーで見る現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データが合成表示され、ビデオ透過型であれば、ビデオカメラで撮影した現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データが合成表示される。その他、移動車両の運転席の視線方向に設置され、光学的に透過して映し出される現実空間の映像にコンピュータグラフィックス画像データを合成表示するようなヘッドアップディスプレイ型のAR表示デバイスであってもよい。  In the embodiment described below, a mobile terminal type AR display device is cited as an example of an AR display device that is a device that performs AR display, but is not limited thereto. For example, a glasses-type HMD (Head Mounted Display) worn on the user's head can also be applied. The HMD produces an expanded sense of reality by displaying computer graphics image data at a position that matches the video in the real space. In addition, there are various types of HMD such as non-transmission type, video transmission type, and optical transmission type. The composite display (AR display) is to display the computer graphics image data in a position matching the video with respect to the real space video displayed on the lens of the HMD by any method. If the optical transmission type is used, computer graphics image data is synthesized and displayed at a position that matches the real space image seen through, and if it is a video transmission type, the real space image taken by the video camera is displayed. The computer graphics image data is synthesized and displayed at the matching position. In addition, even a head-up display type AR display device that is installed in the line of sight of the driver's seat of a moving vehicle and displays computer graphics image data in combination with a real space image that is optically transmitted and projected. Good.

また、現実空間の映像に整合させてコンピュータグラフィックス画像データを表示させる際に、現実空間の映像中のオブジェクトとコンピュータグラフィックス画像データとの座標合わせが行われる。座標合わせの手法としては、本実施形態においては、位置姿勢検知部101が携帯端末10の位置(緯度、経度)と姿勢(方向、仰角)とを検知し、提示部103が位置及び姿勢に基づいて携帯端末10を所持するユーザが現実空間のどこを見ているかを推定し、推定した位置に整合するようにコンピュータグラフィックス画像データを合成する。  In addition, when computer graphics image data is displayed in alignment with an image in the real space, coordinates between the object in the image in the real space and the computer graphics image data are performed. As a coordinate matching method, in the present embodiment, the position /orientation detection unit 101 detects the position (latitude, longitude) and orientation (direction, elevation angle) of themobile terminal 10, and thepresentation unit 103 is based on the position and orientation. Then, it is estimated where in the real space the user holding themobile terminal 10 is looking, and computer graphics image data is synthesized so as to match the estimated position.

評価受付部102は、携帯端末10の画面上に表示されるタグがユーザによってタップされると、その回数に応じた評価値の入力を受け付ける。例えば、ユーザによって或るタグが3回タップされると、当該タグに対する+3ポイントの評価値の入力を受け付ける。なお、タップに限定する必要はなく、ユーザの音声をマイクロフォンとAD変換器によりデジタル信号として記録し、スペクトラムアナライザなどを用いて音声解析した結果を、評価値の入力として受け付けても良い。例えば、ユーザが「雷門最高!」としゃべると、音声解析の結果とそれを自然言語処理することで、雷門に関するタグに対する+100ポイントの評価値の入力を受け付ける。その他、ユーザの位置をGPS等で計測して、ユーザが当該タグの傍を通過したか否かを判別し、通過すれば当該タグに対する+10ポイントの評価値の入力を受け付けても良い。その他、タグをユーザが凝視する行為等、タグを意識しているとする動作のパターンに応じた評価値の入力動作が考えられる。  When the tag displayed on the screen of themobile terminal 10 is tapped by the user, theevaluation receiving unit 102 receives an input of an evaluation value corresponding to the number of times. For example, when a tag is tapped three times by the user, an input of an evaluation value of +3 points for the tag is accepted. Note that the user's voice is not necessarily limited to taps, and a user's voice may be recorded as a digital signal by a microphone and an AD converter, and a voice analysis result using a spectrum analyzer or the like may be accepted as an evaluation value input. For example, when the user speaks of “Kaminarimon best!”, An input of an evaluation value of +100 points for the tag related to Kaminarimon is accepted by processing the result of speech analysis and natural language processing. In addition, the user's position may be measured by GPS or the like to determine whether or not the user has passed by the tag, and if it passes, input of an evaluation value of +10 points for the tag may be accepted. In addition, an operation of inputting an evaluation value according to an operation pattern that the user is conscious of the tag, such as an action of the user staring at the tag, can be considered.

タグ管理サーバ20は、表示タグ解析部201、タグ表示指示部202、タグ管理テーブル203及び表示態様管理テーブル204を備える。表示タグ解析部201は、携帯端末10から位置及び姿勢を受信し、ユーザが現実空間のどのオブジェクトを見ているか解析する。そして、表示タグ解析部201は、そのオブジェクトから見てユーザがどの方位範囲に位置するかを解析し、オブジェクトのタグのタグID及び解析した方位範囲に対応する評価点をタグ管理テーブル203から取得する。表示タグ解析部201は、オブジェクトのタグのタグID、位置及び評価点をタグ表示指示部202に対して出力する。  Thetag management server 20 includes a displaytag analysis unit 201, a tagdisplay instruction unit 202, a tag management table 203, and a display mode management table 204. The displaytag analysis unit 201 receives the position and orientation from themobile terminal 10 and analyzes which object in the real space the user is looking at. Then, the displaytag analysis unit 201 analyzes in which azimuth range the user is located when viewed from the object, and acquires the tag ID of the tag of the object and an evaluation point corresponding to the analyzed azimuth range from the tag management table 203. To do. The displaytag analysis unit 201 outputs the tag ID, position, and evaluation score of the object tag to the tagdisplay instruction unit 202.

タグ管理テーブル203には、タグID及び位置毎に、方位範囲、評価点が管理されている。ここでいう位置とは、現実空間におけるオブジェクトの位置であり、当該オブジェクトに対応するタグが合成表示される位置でもある。また、方位範囲とは、オブジェクトの位置を基準として見た方位範囲を意味する。タグ管理サーバ20は、携帯端末10の評価受付部102から評価値を受信すると、タグ管理テーブル203の該当するレコードの評価値を更新する。  The tag management table 203 manages azimuth ranges and evaluation points for each tag ID and position. The position here is the position of the object in the real space, and is also the position where the tag corresponding to the object is displayed in a synthesized manner. The azimuth range means an azimuth range viewed with reference to the position of the object. When thetag management server 20 receives the evaluation value from theevaluation receiving unit 102 of themobile terminal 10, thetag management server 20 updates the evaluation value of the corresponding record in the tag management table 203.

表示態様管理テーブル204は、評価点に対応する表示態様が管理されている。タグ表示指示部202は、表示タグ解析部201からタグID、位置及び評価点を取得すると、評価点に対応する表示態様を表示態様管理テーブル204から取得する。タグ表示指示部202は、タグIDに対応するコンピュータグラフィックス画像データ、位置及び表示態様を携帯端末10に対して送信する。なお、図1に示す表示態様管理テーブル204では、0から50までの評価点に対しては「小サイズ表示」が対応付けられ、51以上の評価点に対しては「大サイズ表示」が対応付けられている。他の実施形態として、0から50までの評価点に対しては「非表示」、51以上の評価点に対しては「表示」というように表示自体を制御してもよい。その他の表示態様としては、評価点が高い方を、より目立つ色や太い字体で表示する、或いは、重ねて見せる際に評価点が高い方をより前面に表示するなど、評価点に応じて目立つデザインやレイアウトに表示態様を制御してもよい。  The display mode management table 204 manages the display mode corresponding to the evaluation points. When the tagdisplay instruction unit 202 acquires the tag ID, the position, and the evaluation score from the displaytag analysis unit 201, the tagdisplay instruction unit 202 acquires the display mode corresponding to the evaluation point from the display mode management table 204. The tagdisplay instruction unit 202 transmits the computer graphics image data, position, and display mode corresponding to the tag ID to themobile terminal 10. In the display mode management table 204 shown in FIG. 1, “small size display” is associated with evaluation points from 0 to 50, and “large size display” is associated with 51 or more evaluation points. It is attached. As another embodiment, the display itself may be controlled such that “not displayed” is given to evaluation points from 0 to 50, and “displayed” is given to 51 or more evaluation points. As other display modes, the one with a higher evaluation score is displayed in a more prominent color or bold font, or the one with a higher evaluation score is displayed in front in a superimposed manner, depending on the evaluation score. The display mode may be controlled by design or layout.

携帯端末10の提示部103は、コンピュータグラフィックス画像データ、位置及び表示態様を受信すると、コンピュータグラフィックス画像データをその表示態様で現実空間の映像に合成表示する。即ち、「小サイズ表示」の表示態様であれば、提示部103はコンピュータグラフィックス画像データを小サイズで表示し、「大サイズ表示」の表示態様であれば、提示部103はコンピュータグラフィックス画像データを大サイズで表示する。なお、携帯端末10にキャッシュ(高速な記憶装置)機能を備え、上記タグ表示指示部202が携帯端末10に対して送信したコンピュータグラフィックス画像データ等をキャッシュして、処理の高速化を図ってもよい。この場合、提示部103は、キャッシュよりコンピュータグラフィックス画像データ、位置及び表示態様等を受信し、コンピュータグラフィックス画像データをその表示態様で現実空間の映像に合成表示する。  When receiving the computer graphics image data, the position, and the display mode, thepresentation unit 103 of themobile terminal 10 synthesizes and displays the computer graphics image data on the real space video in the display mode. That is, if the display mode is “small size display”, thepresentation unit 103 displays the computer graphics image data in a small size. If the display mode is “large size display”, thepresentation unit 103 displays the computer graphics image data. Display data in large size. Themobile terminal 10 has a cache (high-speed storage device) function, and the computer graphics image data transmitted from the tagdisplay instruction unit 202 to themobile terminal 10 is cached to speed up the processing. Also good. In this case, thepresentation unit 103 receives the computer graphics image data, the position, the display mode, and the like from the cache, and synthesizes and displays the computer graphics image data on the real space video in the display mode.

図2−1は、本実施形態におけるタグ管理サーバ20のハードウェア構成を示す図である。図2−1において、CPU12101は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM12102或いはHDD12105には、CPU12101の制御プログラムであるオペレーティングシステム(OS)や、後述する各種機能を実現するためのプログラムが記憶されている。RAM12103は、CPU12101の主メモリ、ワークエリア、一時退避領域等として機能する。通信I/Fコントローラ12104は、ネットワークを介して外部機器(例えば、携帯端末10)との通信制御処理を実行する。なお、HDD12105の代替手段として、SDD(Solid State Drive)を用いてもよい。  FIG. 2A is a diagram illustrating a hardware configuration of thetag management server 20 in the present embodiment. In FIG. 2A, theCPU 12101 comprehensively controls each device and controller connected to the system bus. The ROM 12102 or the HDD 12105 stores an operating system (OS) that is a control program for theCPU 12101 and programs for realizing various functions described below. TheRAM 12103 functions as a main memory, work area, temporary save area, and the like for theCPU 12101. The communication I /F controller 12104 executes communication control processing with an external device (for example, the mobile terminal 10) via a network. As an alternative to the HDD 12105, SDD (Solid State Drive) may be used.

図2−2は、本実施形態における携帯端末10のハードウェア構成を示す図である。図2−2において、CPU12201は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM12202には、CPU12201の制御プログラムであるOSや、後述する各種機能を実現するためのプログラムが記憶されている。RAM12203は、CPU12201の主メモリ、ワークエリア、一時退避領域等として機能する。通信I/Fコントローラ12204は、ネットワークを介して外部機器(例えば、タグ管理サーバ20)との通信制御処理を実行する。ディスプレイコントローラ12205は、ディスプレイ12206における画像表示を制御する。  FIG. 2-2 is a diagram illustrating a hardware configuration of themobile terminal 10 in the present embodiment. In FIG. 2B, theCPU 12201 comprehensively controls each device and controller connected to the system bus. The ROM 12202 stores an OS that is a control program for theCPU 12201 and programs for realizing various functions described below. TheRAM 12203 functions as a main memory, work area, temporary save area, and the like for theCPU 12201. The communication I /F controller 12204 executes communication control processing with an external device (for example, the tag management server 20) via a network. Adisplay controller 12205 controls image display on thedisplay 12206.

図3は、本実施形態に係るARタグ表示システムの処理の流れを示すフローチャートである。以下、図1及び図3を参照しながら、本実施形態に係るARタグ表示システムの処理について説明する。  FIG. 3 is a flowchart showing a process flow of the AR tag display system according to the present embodiment. Hereinafter, the process of the AR tag display system according to the present embodiment will be described with reference to FIGS. 1 and 3.

携帯端末10の位置姿勢検知部101は、携帯端末10の位置及び姿勢を検知する(ステップS301)。次に、携帯端末10は、位置姿勢検知部101によって検知された位置及び姿勢をタグ管理サーバ20に対して送信する(ステップS302)。  The position /orientation detection unit 101 of themobile terminal 10 detects the position and orientation of the mobile terminal 10 (step S301). Next, themobile terminal 10 transmits the position and orientation detected by the position andorientation detection unit 101 to the tag management server 20 (step S302).

タグ管理サーバ20は、携帯端末10から位置及び姿勢を受信する(ステップS303)。次に、タグ管理サーバ20の表示タグ解析部201は、上記位置及び姿勢に基づいて、携帯端末10を所持するユーザがどのオブジェクトを見ているかを解析する。そして、表示タグ解析部201は、オブジェクトから見てユーザがどの方位範囲に位置するかを解析し、オブジェクトのタグのタグID及び当該方位範囲に対応する評価点をタグ管理テーブル203から取得し、タグID、位置及び評価点をタグ表示指示部202に対して出力する(ステップS304)。  Thetag management server 20 receives the position and orientation from the mobile terminal 10 (step S303). Next, the displaytag analysis unit 201 of thetag management server 20 analyzes which object the user holding themobile terminal 10 is looking at based on the position and orientation. Then, the displaytag analysis unit 201 analyzes in which azimuth range the user is located when viewed from the object, acquires the tag ID of the tag of the object and the evaluation point corresponding to the azimuth range from the tag management table 203, The tag ID, position, and evaluation score are output to the tag display instruction unit 202 (step S304).

次に、タグ表示指示部202は、表示タグ解析部201からタグID、位置及び評価点を取得し、評価点に対応する表示態様を表示態様管理テーブル204から取得する(ステップS305)。タグ表示指示部202は、タグIDに対応するコンピュータグラフィックス画像データ、位置及び表示態様を携帯端末10に対して送信する(ステップS306)。  Next, the tagdisplay instruction unit 202 acquires a tag ID, a position, and an evaluation score from the displaytag analysis unit 201, and acquires a display mode corresponding to the evaluation score from the display mode management table 204 (step S305). The tagdisplay instruction unit 202 transmits the computer graphics image data, the position, and the display mode corresponding to the tag ID to the mobile terminal 10 (step S306).

携帯端末10は、タグ管理サーバ20から、コンピュータグラフィックス画像データ、位置及び表示態様を受信する(ステップS307)。次に、携帯端末10の提示部103は、その表示態様でコンピュータグラフィックス画像データを現実空間の映像に合成表示する(ステップS308)。  Themobile terminal 10 receives the computer graphics image data, the position, and the display mode from the tag management server 20 (step S307). Next, thepresentation unit 103 of themobile terminal 10 displays the computer graphics image data in a composite manner on the real space video in the display mode (step S308).

以下、具体的なストーリーを例に挙げて、本実施形態に係るARタグ表示システムの動作を具体的に説明する。ここで例に挙げるストーリーは、「ユーザは、浅草駅から雷門を目印に浅草寺に向かい、浅草寺でお参りをした後、仲見世通りにある「雷おこし本舗」にてお土産を買って、浅草駅に帰る」である。図4は、当該ストーリーにおけるユーザの経路を示す図である。図4の401及び402は、当該ストーリーの往路の一部を示しており、403及び404は、当該ストーリーの復路の一部を示している。図4の401は、浅草駅から雷門の近くの地点Aまでの経路である。図4の402は、雷門をくぐって雷おこし本舗の近くの地点Bまでの経路である。図4の403は、浅草寺から雷おこし本舗の近くの地点Cまでの経路である。図4の404は、雷おこし本舗から雷門の近くの地点Dまでの経路である。  Hereinafter, the operation of the AR tag display system according to the present embodiment will be specifically described by taking a specific story as an example. The story given here is, for example, “Users go to Sensoji Temple from Asakusa Station with Kaminarimon as a landmark, visit them at Sensoji Temple, then buy souvenirs at“ Raikanoshi Honpo ”on Nakamise Street and return to Asakusa Station. It is. FIG. 4 is a diagram illustrating a route of the user in the story. In FIG. 4, 401 and 402 indicate a part of the outward path of the story, and 403 and 404 indicate a part of the return path of the story. 401 in FIG. 4 is a route from Asakusa Station to point A near Kaminarimon.Reference numeral 402 in FIG. 4 denotes a route from the Kaminarimon to point B near the main thunder-raising main office. 403 in FIG. 4 is a route from Sensoji Temple to the point C near the lightning wake main office. 404 of FIG. 4 is a path | route from the lightning origin main office to the point D near Kaminarimon.

先ず、図5−1を参照しながら、図4の401に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図5−1(a)に示すように、ユーザが携帯端末10を翳しながら雷門付近の地点Aまで歩いてくると、表示タグ解析部201は、携帯端末10が地点Aに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、ユーザが携帯端末10の画面上で雷門を閲覧しており、且つ、ユーザが雷門の位置(x1,y1)から見て1°〜90°の方位範囲に位置することを解析し、タグ管理テーブル203から該当するレコードの評価点を取得する。First, the operation of the AR tag display system when the user is walking along the route indicated by 401 in FIG. 4 while holding themobile terminal 10 will be described with reference to FIG. As shown in FIG. 5A, when the user walks to the point A near Kaminarimon while holding themobile terminal 10, the displaytag analysis unit 201 receives it when themobile terminal 10 is located at the point A. The user is viewing the Kaminarimon on the screen of theportable terminal 10 based on the position and orientation of theportable terminal 10 and the user sees 1 ° to 90 ° from the Kaminarimon position (x1 , y1 ). And the evaluation score of the corresponding record is acquired from the tag management table 203.

図5−1(b)は、タグ管理テーブル203の関連個所を抜粋した図である。表示タグ解析部201は、携帯端末10から受信した携帯端末10の位置及び姿勢に基づいて、ユーザが携帯端末10の画面上でどのオブジェクトをどの方位範囲から見ているかを解析し、その解析結果に該当するレコードの評価点をタグ管理テーブル203から取得する。ここでは、ユーザが見ているオブジェクトは位置(x1,y1)の雷門であり、且つ、ユーザは当該雷門のタグから見て方位範囲1°〜90°に位置する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード501の評価点+90を取得する。FIG. 5-1 (b) is a diagram excerpting relevant portions of the tag management table 203. The displaytag analysis unit 201 analyzes which object the user views from which azimuth range on the screen of themobile terminal 10 based on the position and orientation of themobile terminal 10 received from themobile terminal 10, and the analysis result The evaluation score of the record corresponding to is acquired from the tag management table 203. Here, the object that the user is looking at is the Kaminarimon gate at the position (x1 , y1 ), and the user is located in the azimuth range 1 ° to 90 ° as seen from the tag of the Kaminarimon gate. Accordingly, the displaytag analysis unit 201 acquires the evaluation score +90 of the record 501 from the tag management table 203.

表示タグ解析部201は、レコード501から取得した評価点+90、タグID“001”に対応するコンピュータグラフィックス画像データ及び位置(x1,y1)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“001”に対応するコンピュータグラフィックス画像データ、「大サイズ表示」を示す表示態様及び位置(x1,y1)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“001”に対応する雷門のタグのコンピュータグラフィックス画像データを、「大サイズ表示」の表示態様で、現実空間の位置(x1,y1)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草駅から雷門付近の地点Aに到着すると、携帯端末10の画面上において、雷門のタグのコンピュータグラフィックス画像データが大きなサイズで表示されることになる。The displaytag analysis unit 201 outputs the computer graphics image data and the position (x1 , y1 ) corresponding to the evaluation point +90 acquired from therecord 501 and the tag ID “001” to the tagdisplay instruction unit 202. The tagdisplay instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “001” and the display mode and position (x1 , y1 ) indicating “large size display” to themobile terminal 10. As a result, thepresentation unit 103 of themobile terminal 10 displays the computer graphics image data of the Kaminarimon tag corresponding to the tag ID “001” in the “large size display” display mode (x1 , y1 ) Composite display. That is, when the user arrives at the point A near Kaminarimon from Asakusa Station while holding themobile terminal 10, the computer graphics image data of the Kaminarimon tag is displayed in a large size on the screen of themobile terminal 10.

図5−2(a)は、ユーザが携帯端末10を翳しながら浅草駅から雷門付近の地点Aに到着した場合における携帯端末10の画面表示例を示す図である。図5−2(a)に示すように、携帯端末10の画面上では、現実空間における雷門の映像521の近傍に、雷門のタグのコンピュータグラフィックス画像データ522が大きなサイズで表示される。  FIG. 5A is a diagram illustrating a screen display example of themobile terminal 10 when the user arrives at the point A near Kaminarimon from Asakusa Station while holding themobile terminal 10. As shown in FIG. 5A, on the screen of themobile terminal 10, computergraphics image data 522 of the Kaminarimon tag is displayed in a large size in the vicinity of theKaminarimon video 521 in the real space.

次に、同じく図5−1を参照しながら、図4の403に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図5−1(a)に示すように、ユーザが携帯端末10を翳しながら雷おこし本舗から雷門付近の地点Dまで歩いてくると、ユーザは携帯端末10の画面上で位置(x1,y1)の雷門を見ており、且つ、ユーザは雷門の位置(x1,y1)から見て方位181°〜270°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Dに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ解析テーブル203から該当するレコードの評価点を取得する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード502の評価点+20を取得する。Next, the operation of the AR tag display system when the user is walking along the route indicated by 403 in FIG. 4 while holding themobile terminal 10 will be described with reference to FIG. As shown in FIG. 5A, when the user walks from the main office to the point D near Kaminarimon while stroking themobile terminal 10, the user moves the position (x1 , y1) on the screen of the mobile terminal 10. ) And the user is located in the azimuth range of 181 ° to 270 ° from the position (x1 , y1 ) of the Kaminarimon. The displaytag analysis unit 201 analyzes these matters based on the position and orientation of themobile terminal 10 received when themobile terminal 10 is located at the point D, and determines the evaluation score of the corresponding record from the tag analysis table 203. get. Accordingly, the displaytag analysis unit 201 acquires the evaluation score +20 of the record 502 from the tag management table 203.

表示タグ解析部201は、レコード502から取得した評価点+20、タグID“001”に対応するコンピュータグラフィックス画像データ及び位置(x1,y1)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“001”に対応するコンピュータグラフィックス画像データ、「小サイズ表示」を示す表示態様及び位置(x1,y1)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“001”に対応する雷門のタグのコンピュータグラフィックス画像データを「小サイズ表示」の表示態様で、現実空間の位置(x1,y1)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草寺から雷付近の地点Dに到着すると、携帯端末10の画面上において、雷門のタグのコンピュータグラフィックス画像データが小さなサイズで表示されることになる。The displaytag analysis unit 201 outputs the computer graphics image data and the position (x1 , y1 ) corresponding to the evaluation score +20 and the tag ID “001” acquired from therecord 502 to the tagdisplay instruction unit 202. The tagdisplay instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “001” and the display mode and position (x1 , y1 ) indicating “small size display” to themobile terminal 10. Thereby, thepresentation unit 103 of themobile terminal 10 displays the computer graphics image data of the Kaminarimon tag corresponding to the tag ID “001” in the display mode of “small size” in the position (x1 , y1 of the real space). ). That is, when the user arrives at a point D near thunder from Sensoji while holding themobile terminal 10, the computer graphics image data of the Kaminarimon tag is displayed in a small size on the screen of themobile terminal 10.

図5−2(b)は、ユーザが携帯端末10を翳しながら浅草寺から雷門付近の地点Dに到着した場合における携帯端末10の画面表示例を示す図である。図5−2(b)に示すように、携帯端末10の画面上では、現実空間における雷門の映像523の近傍に、雷門のタグのコンピュータグラフィックス画像データ524が小さなサイズで表示される。  FIG. 5B is a diagram illustrating a screen display example of themobile terminal 10 when the user arrives at the point D near Kaminarimon from Sensoji while holding themobile terminal 10. As shown in FIG. 5B, on the screen of themobile terminal 10, computergraphics image data 524 of the Kaminarimon tag is displayed in a small size near theKaminarimon video 523 in the real space.

次に、図6−1を参照しながら、図4の402に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図6−1(a)に示すように、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bまで歩いてくると、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗の位置(x2,y2)から見て271°〜360°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Bに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ管理テーブル203から該当するレコードの評価点を取得する。Next, the operation of the AR tag display system when the user is walking on the route indicated by 402 in FIG. 4 while holding themobile terminal 10 will be described with reference to FIG. As shown in FIG. 6A, when the user walks from Kaminarimon to the point B near the main office while holding themobile terminal 10, the user moves to a position (x2 , y2 on the screen of the mobile terminal 10. ) And the user is located in the azimuth range of 271 ° to 360 ° when viewed from the position (x2 , y2 ) of the lightning main office. The displaytag analysis unit 201 analyzes these matters based on the position and orientation of themobile terminal 10 received when themobile terminal 10 is located at the point B, and determines the evaluation score of the corresponding record from the tag management table 203. get.

図6−1(b)は、タグ管理テーブル203の関連箇所を抜粋した図である。上述したように、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗(位置(x2,y2))から見て271°〜360°の方位範囲に位置する。そのため、表示タグ解析部201は、タグ管理テーブル203からレコード601の評価点+25を取得する。FIG. 6B is an extracted diagram of relevant portions of the tag management table 203. As described above, the user is looking at the lightning occurrence main office at the position (x2 , y2 ) on the screen of themobile terminal 10, and the user is viewing 271 from the lightning occurrence main office (position (x2 , y2 )). Located in the azimuth range of ° to 360 °. Therefore, the displaytag analysis unit 201 acquires the evaluation score +25 of the record 601 from the tag management table 203.

表示タグ解析部201は、レコード601から取得した評価点+25、タグID“002”に対応するコンピュータグラフィックス画像データ及び位置(x2,y2)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“002”に対応するコンピュータグラフィックス画像データ、「小サイズ表示」を示す表示態様及び位置(x2,y2)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、雷おこし本舗のタグのコンピュータグラフィックス画像データを、「小サイズ表示」の表示態様で、現実空間の位置(x2,y2)に合成表示する。即ち、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bに到着すると、携帯端末10の画面上において、雷おこし本舗のタグのコンピュータグラフィックス画像データが小さなサイズで表示されることになる。The displaytag analysis unit 201 outputs the computer graphics image data and the position (x2 , y2 ) corresponding to the evaluation score +25 acquired from therecord 601 and the tag ID “002” to the tagdisplay instruction unit 202. The tagdisplay instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “002” and the display mode and position (x2 , y2 ) indicating “small size display” to themobile terminal 10. As a result, thepresentation unit 103 of themobile terminal 10 synthesizes and displays the computer graphics image data of the tag of the lightning honpo at the position (x2 , y2 ) in the real space in the “small size display” display mode. That is, when the user strikes theportable terminal 10 and reaches the point B near the main office from Kaminarimon, the computer graphics image data of the tag of the main terminal is displayed in a small size on the screen of theportable terminal 10. .

図6−2(a)は、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bに到着した場合における携帯端末10の画面表示例を示す図である。図6−2(a)に示すように、携帯端末10の画面上では、現実空間における雷おこし本舗の映像621の近傍に、雷おこし本舗のタグのコンピュータグラフィックス画像データ622が小さなサイズで表示される。  FIG. 6A is a diagram illustrating a screen display example of themobile terminal 10 when the user reaches the point B near the main office by thundering from Kaminarimon while holding themobile terminal 10. As shown in FIG. 6A, on the screen of themobile terminal 10, computergraphics image data 622 of the tag of the lightning honpo is displayed in a small size in the vicinity of theimage 621 of the lightning honpo in real space. .

次に、同じく図6−1を参照しながら、図4の403に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図6−1(a)に示すように、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cまで歩いてくると、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗の位置(x2,y2)から見て181°〜270°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Cに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ解析テーブル203から該当するレコードの評価点を取得する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード602の評価点+80を取得する。Next, the operation of the AR tag display system when the user is walking on the route indicated by 403 in FIG. 4 while holding themobile terminal 10 will be described with reference to FIG. As shown in FIG. 6A, when the user walks from Senso-ji Temple to the point C near the main office while stroking themobile terminal 10, the user is positioned on the screen of the mobile terminal 10 (x2 , y2 ) And the user is located in the azimuth range of 181 ° to 270 ° when viewed from the position (x2 , y2 ) of the lightning generation main office. The displaytag analysis unit 201 analyzes these items based on the position and orientation of themobile terminal 10 received when themobile terminal 10 is located at the point C, and determines the evaluation score of the corresponding record from the tag analysis table 203. get. Therefore, the displaytag analysis unit 201 acquires the evaluation score +80 of the record 602 from the tag management table 203.

表示タグ解析部201は、レコード602から参照した評価点+80、タグID“002”に対応するコンピュータグラフィックス画像データ及び位置(x2,y2)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“002”に対応するコンピュータグラフィックス画像データ、「大サイズ表示」を示す表示態様及び位置(x2,y2)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“002”に対応する雷おこし本舗のタグのコンピュータグラフィックス画像データを、「大サイズ表示」の表示態様で、現実空間の位置(x2,y2)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cに到着すると、携帯端末10の画面上において、雷おこし本舗のタグのコンピュータグラフィックス画像データが大きなサイズで表示されることになる。The displaytag analysis unit 201 outputs the computer graphics image data and the position (x2 , y2 ) corresponding to the evaluation score +80 and the tag ID “002” referenced from therecord 602 to the tagdisplay instruction unit 202. The tagdisplay instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “002”, the display mode and the position (x2 , y2 ) indicating “large size display” to themobile terminal 10. Thereby, thepresentation unit 103 of themobile terminal 10 displays the computer graphics image data of the tag of the lightning honpo corresponding to the tag ID “002” in the real space position (x2 , synthesizing displayed on the y2). That is, when the user arrives at the point C near the main office from Senso-ji while holding themobile terminal 10, the computer graphics image data of the tag of the main office is displayed in a large size on the screen of themobile terminal 10. .

図6−2(b)は、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cに到着した場合における携帯端末10の画面表示例を示す図である。図6−2(b)に示すように、携帯端末10の画面上では、現実空間の雷おこし本舗の映像623の近傍に、雷おこし本舗のタグのコンピュータグラフィックス画像データ624が大きなサイズで表示される。  FIG. 6B is a diagram illustrating a screen display example of themobile terminal 10 when the user reaches the point C near the main office by thundering from Sensoji while holding themobile terminal 10. As shown in FIG. 6B, on the screen of themobile terminal 10, computergraphics image data 624 of the tag of the lightning main office is displayed in a large size in the vicinity of the lightningmain office image 623 in the real space. .

図7は、ユーザが携帯端末10の画面上に表示されているタグをタップした場合に起動する、評価点の設定処理を示すフローチャートである。ここで説明するユーザとは、上述した説明におけるユーザとは必ずしも一致しない。即ち、上述した説明におけるユーザは単に携帯端末10に表示されるタグを頼りにしながら街中を歩く観光者であるのに対し、図7の説明で登場するユーザとは、このような観光者に対して、各オブジェクトについてタグを表示するのに有用であると考える方位範囲を推奨する者である。  FIG. 7 is a flowchart illustrating evaluation point setting processing that is started when the user taps a tag displayed on the screen of themobile terminal 10. The user described here does not necessarily match the user in the above description. That is, the user in the above description is a tourist who walks around the city simply relying on the tag displayed on themobile terminal 10, whereas the user who appears in the description of FIG. Thus, it is a person who recommends an orientation range that is considered useful for displaying a tag for each object.

以下、図7を用いて、評価点の設定処理について説明する。ユーザは、携帯端末10を翳しながら歩いている際に、画面上に表示されるタグのうち、表示が有用であったと考えるタグをタップする。タグがタップされると、携帯端末10の評価受付部102は、タップされた回数を示す回数情報と、タップされたタグのタグIDと、タップされた時点において位置姿勢検知部101が検知した携帯端末10の位置及び姿勢とをタグ管理サーバ20に対して送信する(ステップS701)。  Hereinafter, the evaluation point setting process will be described with reference to FIG. The user taps a tag that is considered to be useful among tags displayed on the screen while walking while holding themobile terminal 10. When the tag is tapped, theevaluation receiving unit 102 of the mobile terminal 10 counts the number of times tapped, the tag ID of the tapped tag, and the mobile detected by the position andorientation detection unit 101 at the time of tapping. The position and orientation of the terminal 10 are transmitted to the tag management server 20 (step S701).

タグ管理サーバ20は、携帯端末10から、回数情報とタグIDと携帯端末10の位置及び姿勢とを受信する(ステップS702)。タグ管理サーバ20は、携帯端末10の位置及び姿勢に基づいて、当該タグIDのオブジェクトから見て携帯端末10がどの方位範囲に位置するかを解析し、当該タグID及び解析した方位範囲に該当するレコードの評価点を、回数情報で示される回数分のポイントを加算する(ステップS703)。  Thetag management server 20 receives the frequency information, the tag ID, and the position and orientation of the mobile terminal 10 from the mobile terminal 10 (step S702). Based on the position and orientation of themobile terminal 10, thetag management server 20 analyzes in which azimuth range themobile terminal 10 is located when viewed from the object of the tag ID, and corresponds to the tag ID and the analyzed azimuth range The points for the number of times indicated by the number of times information are added to the evaluation points of the record to be performed (step S703).

ユーザは、自分にとって有用であると思ったタグに対してはタップ操作を行うことにより、その時点における当該タグに対応するオブジェクトから見た携帯端末10の属する方位範囲の評価点を加算する。図4の例では、401の経路は雷門を初めて通過する経路であるため、地点Aでは雷門のタグは有用なものとして当該タグをタップする。これにより、図5−1(b)の501のレコードに示すように、評価点が高く設定されることになる。また、図4の402の経路は雷おこし本舗の近くを通過するが、雷おこし本舗は浅草寺にお参りした後に立ち寄るオブジェクトであるため、ユーザは地点Bでは雷おこし本舗のタグをタップしない。従って、図6−1(b)の601のレコードに示すように、評価点は低いままとなる。  The user performs a tap operation on a tag that is thought to be useful to the user, and thereby adds the evaluation score of the azimuth range to which themobile terminal 10 belongs as viewed from the object corresponding to the tag at that time. In the example of FIG. 4, since theroute 401 is a route that passes through Kaminarimon for the first time, the tag of Kaminarimon is tapped at point A as being useful. As a result, as shown in therecord 501 in FIG. 5B, the evaluation score is set high. Further, although theroute 402 in FIG. 4 passes near the lightning generator main office, the user does not tap the lightning generator main office tag at the point B because the lightning generator main office is an object that stops after visiting the Sensoji Temple. Therefore, as shown in therecord 601 in FIG. 6B, the evaluation score remains low.

また、図4の402の経路は浅草寺にお参りした後に雷おこし本舗の近くを通過するものであるが、このとき、雷おこし本舗のタグは有用なものとなるので、地点Cでは雷おこし本舗のタグをタップする。これにより、図5−1(b)の502のレコードに示すように、評価点が高く設定されることになる。また、図4の404の経路は雷おこし本舗を通過して雷門に向かう経路であるが、このとき、雷門は2度目の通過であるため、地点Dでは雷門のタグをタップしない。従って、図6−1(b)のレコードに示すように、評価点は低いままとなる。  In addition, theroute 402 in FIG. 4 passes near Senso-ji Temple, and passes near the lightning main office. At this time, the tag for lightning main office is useful, so tap the lightning main office tag at point C. To do. Thereby, as shown in therecord 502 in FIG. 5B, the evaluation score is set high. Further, theroute 404 in FIG. 4 is a route that passes through the thunderhead main office and heads for Kaminarimon. At this time, Kaminarimon is not tapped at point D because Kaminarimon is the second passage. Therefore, as shown in the record in FIG. 6B, the evaluation score remains low.

以上の評価点の設定処理を行うことにより、各オブジェクトから見て有用な方位範囲と考えられる地点では当該オブジェクトのタグを目立つように表示し、そうでないと考えられる方位範囲の地点では当該オブジェクトのタグは目立たないように表示することが可能となる。即ち、本実施形態によれば、オブジェクトから見て有用な方位範囲の地点であるかそうでない方位範囲の地点であるかに応じて、当該オブジェクトのタグの見せ方を変えることができる。  By performing the above evaluation point setting process, the tag of the object is displayed prominently at a point considered to be a useful azimuth range when viewed from each object, and at a point of the azimuth range considered to be not, the object's tag is displayed. Tags can be displayed inconspicuously. That is, according to the present embodiment, it is possible to change the way the tag of the object is displayed depending on whether the point is in a useful azimuth range as viewed from the object or not.

なお、本実施形態では、タップされた回数分、評価値のポイントを加算することについてのみ説明したが、ユーザが所定の操作を行うことにより、評価値のポイントを減算するようにしてもよい。これにより、例えば子供等には案内したくないようなオブジェクトについては、タグの表示を消極的な方向に制御することが可能となる。  In the present embodiment, only the evaluation value points are added for the number of times tapped. However, the evaluation value points may be subtracted by the user performing a predetermined operation. This makes it possible to control the tag display in a negative direction for an object that is not desired to be guided to children, for example.

また、有用なタグをタップするのではなく、ユーザが携帯端末10を操作して、そのタグを含む画像データを撮影し、タグ管理サーバ20に対して送信するようにしてもよい。タグ管理サーバ20は、携帯端末10から送信された画像データを解析することにより、携帯端末10が翳されているオブジェクトと、当該オブジェクトから見てどの方位範囲に携帯端末10が位置するかを判定し、タグ管理テーブル203の該当するレコードの評価値を更新するようにしてもよい。この場合、タグ管理サーバ20は、画像データ解析のために必要な画像マッチング用の画像データを予め準備しており、携帯端末10から受信した画像データと画像マッチング用の画像データとを照合することにより、上述した解析が行われる。  Instead of tapping a useful tag, the user may operate themobile terminal 10 to capture image data including the tag and transmit it to thetag management server 20. Thetag management server 20 analyzes the image data transmitted from themobile terminal 10 to determine the object on which themobile terminal 10 is deceived and in which azimuth range themobile terminal 10 is located when viewed from the object. Then, the evaluation value of the corresponding record in the tag management table 203 may be updated. In this case, thetag management server 20 prepares image data for image matching necessary for image data analysis in advance, and collates the image data received from themobile terminal 10 with the image data for image matching. Thus, the above-described analysis is performed.

次に、本発明の第2の実施形態について説明する。本実施形態は、ユーザがお気に入りの散歩道を設定し、設定された散歩道に従って評価点を更新するものである。なお、ここでの散歩道の設定では、携帯端末10の画面上に表示される地図情報を、オブジェクト間を結ぶようにユーザが指でなぞることにより(例えば、浅草駅→雷門→浅草寺→雷おこし本舗→浅草寺)、散歩道の経路及び進行方向を設定する。散歩道の設定方法は、その経路及び進行方向が設定できればよいため、上記の方法に限定されない。例えば、携帯端末10を所持するユーザが実際に歩いた経路及び進行方向をGPS(global positioning system)で検知し、その検知結果を散歩道として設定してもよい。また、本実施形態に係るARタグ表示システムの構成は、図1に示した構成と同様であるため、以下の説明においても図1の符号を用いるものとする。  Next, a second embodiment of the present invention will be described. In the present embodiment, a user sets a favorite walking path, and the evaluation score is updated according to the set walking path. In the setting of the walking path here, the user traces the map information displayed on the screen of themobile terminal 10 with his / her finger so as to connect the objects (for example, Asakusa Station → Kaminarimon → Senso-ji Temple → Raikanashi Honpo → Senso-ji Temple), the path of the promenade and the direction of travel are set. The setting method of the promenade is not limited to the above method because it is only necessary to set the route and the traveling direction. For example, the route and direction of travel of the user who has themobile terminal 10 may be detected by GPS (global positioning system), and the detection result may be set as a walking path. Further, the configuration of the AR tag display system according to the present embodiment is the same as the configuration shown in FIG. 1, and therefore, the reference numerals in FIG. 1 are used in the following description.

携帯端末10は、設定された散歩道をタグ管理サーバ20に対して送信する。タグ管理サーバ20は、受信した散歩道から、各オブジェクトについてユーザにとって有用であると推定される方位範囲には評価値を加算し、そうではないと推定される方位範囲には評価値を加算しない。  Themobile terminal 10 transmits the set walking path to thetag management server 20. Thetag management server 20 adds an evaluation value to the azimuth range estimated to be useful to the user for each object from the received walking path, and does not add an evaluation value to the azimuth range estimated otherwise.

ユーザにとって有用であると推定される方位範囲とは、ユーザの経路が属する方位範囲であって、且つ、その方位範囲がユーザの進行方向とは逆の方位を含む方位範囲である。即ち、ユーザによって有用であると推定される方位範囲とは、ユーザがオブジェクトに対して近付く動きをする方位範囲である。反対に、ユーザにとって有用でないと推定される方位範囲とは、ユーザの経路が属しない方位範囲であるか、或いは、ユーザの経路が属する方位範囲であるが、その方位範囲がユーザの進行方向とは逆の方位を含まない方位範囲である。即ち、ユーザにとって有用でないと推定される方位範囲とは、ユーザがオブジェクトに対して近付く動きをしない方位範囲である。但し、同じオブジェクトを2回目以降に通過する場合には、2回目以降の通過時にはタグの表示価値は低く、2回目以降の通過時に関する有用な方位範囲の推定は行わない。  The azimuth range estimated to be useful to the user is an azimuth range to which the user's route belongs, and the azimuth range includes an azimuth opposite to the traveling direction of the user. That is, the azimuth range estimated to be useful by the user is an azimuth range in which the user moves toward the object. On the other hand, the azimuth range estimated not to be useful to the user is an azimuth range to which the user's route does not belong, or an azimuth range to which the user's route belongs. Is an azimuth range that does not include the opposite azimuth. That is, the azimuth range estimated to be unusable for the user is an azimuth range in which the user does not move toward the object. However, when the same object passes after the second time, the display value of the tag is low at the second time and after, and a useful azimuth range for the second time and after is not estimated.

図8は、ユーザによって設定された散歩道に基づいて、タグ管理テーブル203の評価値を更新する処理を具体的に説明するための図である。上述した方位範囲の定義によれば、浅草駅から雷門へ向かう際の地点Aは、雷門から見て1°〜90°の方位範囲に位置し、且つ、この方位範囲はユーザの進行方向の逆の方位を含むため、雷門から見て1°〜90°の方位範囲は、ユーザにとって有用な方位範囲となる。  FIG. 8 is a diagram for specifically explaining the process of updating the evaluation value of the tag management table 203 based on the promenade set by the user. According to the definition of the azimuth range described above, the point A when heading from Asakusa Station to Kaminarimon is located in the azimuth range of 1 ° to 90 ° when viewed from Kaminarimon, and this azimuth range is the reverse of the user's traveling direction. Therefore, an azimuth range of 1 ° to 90 ° viewed from Kaminarimon is a useful azimuth range for the user.

また、雷門から浅草寺に向かう際の地点Bは、雷門から見て181°〜270°の方位範囲に位置するが、この方位範囲はユーザの進行方向の逆の方位を含まない。従って、雷門から見て181°〜270°の方位範囲は、ユーザにとって有用な方位範囲ではない。また、地点Bは、雷おこし本舗から見て271°〜360°の方位範囲に位置するが、この方位範囲はユーザの進行方向の逆の方位を含まない。従って、雷おこし本舗から見て271°〜360°の方位範囲も、ユーザにとって有用な方位範囲ではない。  Further, the point B when heading from Kaminarimon to Sensoji Temple is located in the azimuth range of 181 ° to 270 ° as seen from Kaminarimon, but this azimuth range does not include the opposite direction of the user's traveling direction. Therefore, the azimuth range of 181 ° to 270 ° as viewed from Kaminarimon is not a useful azimuth range for the user. Further, the point B is located in the azimuth range of 271 ° to 360 ° as viewed from the lightning occurrence main office, but this azimuth range does not include the opposite direction of the user's traveling direction. Therefore, the azimuth range of 271 ° to 360 ° as viewed from the lightning wake main office is not a useful azimuth range for the user.

浅草寺から雷おこし本舗に向かう際の地点Cは、雷おこし本舗から見て181°〜270°の方位範囲に位置し、且つ、この方位範囲はユーザの進行方向の逆の方位を含むため、雷おこし本舗から見て181°〜270°の方位範囲は、ユーザにとって有用な方位範囲となる。  The point C when heading for the thunderstorm main office from Senso-ji Temple is located in the azimuth range of 181 ° to 270 ° when viewed from the thunderstorm main office, and this azimuth range includes a direction opposite to the direction of travel of the user. The azimuth range of 181 ° to 270 ° as seen is a azimuth range useful for the user.

また、雷おこし本舗から雷門に向かう際の地点Dは、雷門は2回目以降の通過となるため、有用な方位範囲の推定は行われない。従って、図8において、雷門、雷おこし本舗の各オブジェクトについて斜線で示す方位範囲について評価値の加算が行われる。  In addition, since the Kaminarimon is the second or later passage at the point D when heading to Kaminarimon from Kaminashikoshi Honpo, a useful azimuth range is not estimated. Therefore, in FIG. 8, the evaluation values are added for the azimuth ranges indicated by the oblique lines with respect to the objects of Kaminarimon and Thunderstorm Honpo.

以上により、ユーザのお気に入りの散歩道がタグ管理テーブル203における評価値に反映される。これにより、他のユーザが上記散歩道を携帯端末10を翳しながら歩いた場合、浅草駅から雷門に向かう際の地点Aでは雷門のタグが大きく表示される傾向となる。また、浅草寺から雷おこし本舗に向かう際の地点Cでも雷おこし本舗のタグは大きく表示される傾向となる。このように本実施形態によれば、或るユーザが設定したお気に入りの散歩道から有用な方位範囲を自動的に推定し、その推定結果を他のユーザが同じような散歩道を歩いた場合のタグ表示に反映させている。  As described above, the user's favorite walking path is reflected in the evaluation value in the tag management table 203. Thereby, when another user walks while walking theportable terminal 10 on the promenade, the tag of Kaminarimon tends to be displayed at a point A when heading to Kaminarimon from Asakusa Station. In addition, the tag of the thunderstorm main office tends to be displayed greatly at the point C when heading to the thunderstorm main office from Sensoji Temple. As described above, according to the present embodiment, a useful azimuth range is automatically estimated from a favorite walking path set by a certain user, and the estimated result is displayed as a tag when another user walks on a similar walking path. It is reflected in.

次に、本発明の第3の実施形態について説明する。図9は、本発明の第3の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図9に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末110と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ120とで構成される。なお、図9においては、説明の簡単のため、携帯端末110、タグ管理サーバ120をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。また、携帯端末110、タグ管理サーバ120のハードウェア構成は図2−1、図2−2に示した構成と同様である。  Next, a third embodiment of the present invention will be described. FIG. 9 is a diagram schematically showing a configuration of an AR tag display system according to the third embodiment of the present invention. As shown in FIG. 9, the AR tag display system according to the present embodiment includes amobile terminal 110 with a camera function possessed by a user, atag management server 120 for managing tags displayed in combination with images in real space, Consists of. In FIG. 9, for simplicity of explanation, onemobile terminal 110 and onetag management server 120 are shown, but there may actually be an arbitrary number of each. The hardware configurations of themobile terminal 110 and thetag management server 120 are the same as the configurations shown in FIGS.

本実施形態における携帯端末110は、位置姿勢検知部1101及び提示部1103を備える。位置姿勢検知部1101は図1の位置姿勢検知部101と同じ構成であり、提示部1103は図1の提示部103と同じ構成である。  Themobile terminal 110 according to the present embodiment includes a position /orientation detection unit 1101 and apresentation unit 1103. The position /orientation detection unit 1101 has the same configuration as the position /orientation detection unit 101 in FIG. 1, and thepresentation unit 1103 has the same configuration as thepresentation unit 103 in FIG.

本実施形態におけるタグ管理サーバ120は、表示タグ解析部1201、広告料金算出部1202及びタグ管理テーブル1203を備える。タグ管理テーブル1203には、現実空間における位置、タグID、方位範囲、広告提供主ID、広告料金(円/日)、広告期間が対応付けて管理されている。例えば、現実空間における位置(x3,y3)に関しては、タグID“003”とタグID“004”とが対応付けられている。即ち、位置(x3,y3)にはタグID“003”とタグID“004”との2つのタグが存在することが定義されている。Thetag management server 120 in this embodiment includes a displaytag analysis unit 1201, an advertisementfee calculation unit 1202, and a tag management table 1203. In the tag management table 1203, the position in the real space, the tag ID, the azimuth range, the advertisement provider ID, the advertisement fee (yen / day), and the advertisement period are managed in association with each other. For example, for the position (x3 , y3 ) in the real space, the tag ID “003” and the tag ID “004” are associated with each other. That is, it is defined that there are two tags of the tag ID “003” and the tag ID “004” at the position (x3 , y3 ).

タグID“003”には、方位範囲1°〜180°が対応付けられている。これは、携帯端末110が位置(x3,y3)から見て方位範囲1°〜180°に位置し、且つ、携帯端末110が位置(x3,y3)側に翳されている場合、タグID“003”のタグのコンピュータグラフィックス画像データが携帯端末110上で表示されることを意味する。また、タグID“004”には、方位範囲181°〜360°が対応付けられている。これは、携帯端末110が位置(x3,y3)から見て方位範囲181°〜360°に位置し、且つ、携帯端末110が位置(x3,y3)側に翳されている場合、タグID“004”のタグのコンピュータグラフィックス画像データが携帯端末110上で表示されることを意味する。The tag ID “003” is associated with an azimuth range of 1 ° to 180 °. This is the case where themobile terminal 110 is located in the azimuth range of 1 ° to 180 ° when viewed from the position (x3 , y3 ), and themobile terminal 110 is placed on the position (x3 , y3 ) side. This means that the computer graphics image data of the tag with the tag ID “003” is displayed on theportable terminal 110. The tag ID “004” is associated with an azimuth range of 181 ° to 360 °. This is when themobile terminal 110 is located in the azimuth range 181 ° to 360 ° when viewed from the position (x3 , y3 ), and themobile terminal 110 is placed on the position (x3 , y3 ) side. This means that the computer graphics image data of the tag with the tag ID “004” is displayed on theportable terminal 110.

例えば、携帯端末110が位置(x3,y3)から見て方位範囲1°〜180°に位置し、携帯端末110が位置(x3,y3)側に翳されているかどうかの判断は、携帯端末110の位置及び姿勢に基づいて行われる。即ち、携帯端末110の位置が位置(x3,y3)から見て方位範囲1°〜180°に属するかどうかが判定され、また、携帯端末110が位置(x3,y3)側に翳されているかどうかは、携帯端末110の位置及び姿勢から携帯端末110のカメラが現実空間の位置(x3,y3)側を向いているかどうかを判定することによって識別される。For example, whether or not themobile terminal 110 is located in the azimuth range of 1 ° to 180 ° when viewed from the position (x3 , y3 ) and themobile terminal 110 is placed on the position (x3 , y3 ) side is determined. This is performed based on the position and orientation of themobile terminal 110. That is, it is determined whether the position of themobile terminal 110 belongs to the azimuth range of 1 ° to 180 ° when viewed from the position (x3 , y3 ), and themobile terminal 110 is moved to the position (x3 , y3 ) side. Whether or not the user is deceived is identified by determining whether or not the camera of themobile terminal 110 faces the position (x3 , y3 ) in the real space from the position and orientation of themobile terminal 110.

表示タグ解析部1201は、携帯端末110の位置及び姿勢を携帯端末110から受信すると、携帯端末110がどの位置から見てどの方位範囲に位置し、携帯端末110が当該位置側に翳されているかを解析し、解析結果に合致するレコードをタグ管理テーブル1203から抽出する。例えば、表示タグ解析部1201は、携帯端末110が位置(x3,y3)から見て1°〜180°の方位範囲に位置し、且つ、携帯端末110が位置(x3,y3)に対して翳されていると解析した場合、タグ管理テーブル1203の最上段のレコードを抽出する。レコードを抽出すると、表示タグ解析部1201は、当該レコードにおけるタグID“003”のタグのコンピュータグラフィックス画像データを携帯端末110に対して送信する。携帯端末110は、タグID“003”のタグのコンピュータグラフィックス画像データを、現実空間の位置(x3,y3)に合成表示する。これにより、ユーザは、携帯端末10の画面上においてタグID“003”のタグを閲覧することができる。When the displaytag analysis unit 1201 receives the position and orientation of the mobile terminal 110 from themobile terminal 110, themobile terminal 110 is located in which azimuth range as viewed from which position, and themobile terminal 110 is placed on the position side. And a record that matches the analysis result is extracted from the tag management table 1203. For example, in the displaytag analysis unit 1201, themobile terminal 110 is located in an azimuth range of 1 ° to 180 ° when viewed from the position (x3 , y3 ), and themobile terminal 110 is located at the position (x3 , y3 ). When it is analyzed that the user is deceived, the topmost record in the tag management table 1203 is extracted. When the record is extracted, the displaytag analysis unit 1201 transmits the computer graphics image data of the tag with the tag ID “003” in the record to theportable terminal 110. Theportable terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “003” at the position (x3 , y3 ) in the real space. Thereby, the user can view the tag with the tag ID “003” on the screen of themobile terminal 10.

また、タグID“003”には、広告提供主ID“aaa”が対応付けられており、タグID“004”には、広告提供主ID“bbb”が対応付けられている。これは、タグID“003”のタグは、広告提供主ID“aaa”の広告提供主による広告であり、タグID“004”のタグは、広告提供主ID“bbb”の広告提供主による広告であることを意味している。即ち、タグID“003”のタグ及びタグID“004”のタグは、携帯端末110の画面上で現実空間に合成表示されることによって、それを参照するユーザに対する広告としての機能を果たす。  The tag ID “003” is associated with the advertisement provider ID “aaa”, and the tag ID “004” is associated with the advertisement provider ID “bbb”. The tag with the tag ID “003” is an advertisement by the advertisement provider with the advertisement provider ID “aaa”, and the tag with the tag ID “004” is an advertisement by the advertisement provider with the advertisement provider ID “bbb”. It means that. That is, the tag with the tag ID “003” and the tag with the tag ID “004” are combined and displayed in the real space on the screen of themobile terminal 110, thereby serving as an advertisement for the user who refers to the tag.

また、タグID“003”には、広告料金(円/日)“10,000”が対応付けられており、タグID“004”には、広告料金(円/日)“5,000”が対応付けられている。これは、タグID“003”のタグの1日当たりの広告料金が10,000円であり、タグID“004”のタグの1日当たりの広告料金が5,000円であることを意味する。  The tag ID “003” is associated with the advertisement fee (yen / day) “10,000”, and the tag ID “004” is associated with the advertisement fee (yen / day) “5,000”. It is associated. This means that the advertising fee per day for the tag with the tag ID “003” is 10,000 yen, and the advertising fee per day for the tag with the tag ID “004” is 5,000 yen.

また、タグID“003”には、広告期間“H22,8,1〜”が対応付けられており、タグID“004”には、広告期間“H22,8,5〜”が対応付けられている。これは、タグID“003”のタグを広告として掲載(合成表示)している期間が平成20年8月1日から現在に至るまでであることを意味し、タグID“004”のタグを広告として形成(合成表示)している期間が平成20年8月5日から現在に至るまでであることを意味する。  The tag ID “003” is associated with the advertisement period “H22, 8, 1”, and the tag ID “004” is associated with the advertisement period “H22, 8, 5”. Yes. This means that the tag ID “003” tag has been posted as an advertisement (synthesized display) from August 1, 2008 to the present, and the tag with the tag ID “004” It means that the period formed (synthesized and displayed) as an advertisement is from August 5, 2008 to the present.

広告料金算出部1202は、タグ毎或いは広告提供主毎に広告料金を算出する。タグ毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/日)と広告期間とを乗算し、タグIDをキーにして集計する。また、広告提供主毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/日)と広告期間とを乗算し、広告提供主IDをキーにして集計する。  The advertisementfee calculation unit 1202 calculates an advertisement fee for each tag or each advertisement provider. When calculating the advertisement fee for each tag, the advertisementfee calculation unit 1202 multiplies the advertisement fee (yen / day) by the advertisement period for each record in the tag management table 1203, and tabulates using the tag ID as a key. Further, when calculating the advertisement fee for each advertisement provider, the advertisementfee calculation unit 1202 multiplies the advertisement fee (yen / day) by the advertisement period for each record in the tag management table 1203, and sets the advertisement provider ID as a key. And aggregate.

図10は、本発明の第3の実施形態に係るAR表示システムの動作を示すフローチャートである。先ず携帯端末110は、携帯端末110の位置及び姿勢を検知する(ステップS1001)。次に携帯端末110は、検知した位置及び姿勢をタグ管理サーバ120に対して送信する(ステップS1002)。  FIG. 10 is a flowchart showing the operation of the AR display system according to the third embodiment of the present invention. First, themobile terminal 110 detects the position and orientation of the mobile terminal 110 (step S1001). Next, themobile terminal 110 transmits the detected position and orientation to the tag management server 120 (step S1002).

タグ管理サーバ120は、携帯端末110から位置及び姿勢を受信する(ステップS1003)。次にタグ管理サーバ120は、携帯端末110の位置及び姿勢に基づいて、携帯端末110がどの位置に対して翳され、また、携帯端末110が当該位置から見てどの方位範囲に位置するかを解析する(ステップS1004)。次にタグ管理サーバ120は、ステップS1004の解析結果に合致するレコードをタグ管理テーブル1203から抽出する(ステップS1005)。次にタグ管理サーバ120は、抽出した各レコードのタグIDのタグのコンピュータグラフィックス画像データ及び位置を携帯端末110に対して送信する(ステップS1006)。  Thetag management server 120 receives the position and orientation from the mobile terminal 110 (step S1003). Next, based on the position and orientation of themobile terminal 110, thetag management server 120 determines which position themobile terminal 110 is deceived from, and in which azimuth range when themobile terminal 110 is viewed from the position. Analysis is performed (step S1004). Next, thetag management server 120 extracts a record that matches the analysis result of step S1004 from the tag management table 1203 (step S1005). Next, thetag management server 120 transmits the computer graphics image data and the position of the tag with the tag ID of each extracted record to the portable terminal 110 (step S1006).

携帯端末110は、タグ管理サーバ120からタグのコンピュータグラフィックス画像データ及び位置を受信する(ステップS1007)。次に携帯端末110は、タグのコンピュータグラフィックス画像データを現実空間の当該位置に合成表示する(ステップS1008)。  Themobile terminal 110 receives the computer graphics image data and position of the tag from the tag management server 120 (step S1007). Next, theportable terminal 110 synthesizes and displays the computer graphics image data of the tag at the position in the real space (step S1008).

図11は、図10のステップS1004〜S1008を具体的に説明するための図である。図11において、携帯端末110が地点Gに位置し、位置(x3,y3)に向けて翳されている場合、タグ管理サーバ120の表示タグ解析部1201は、携帯端末110の位置及び姿勢から、携帯端末110が位置(x3,y3)に翳され、且つ、携帯端末110が位置(x3,y3)から見て1°〜180°の方位範囲に位置すると判定する。従って、表示タグ解析部1201は、タグ管理テーブル1203の最上段のレコードを抽出し、タグID“003”のタグのコンピュータグラフィックス画像データ及び位置(x3,y3)を携帯端末110に対して送信する。これにより、携帯端末110は、タグID“003”のタグのコンピュータグラフィックス画像データを現実空間における位置(x3,y3)に合成表示する。FIG. 11 is a diagram for specifically explaining steps S1004 to S1008 of FIG. In FIG. 11, when themobile terminal 110 is located at the point G and is turned toward the position (x3 , y3 ), the displaytag analysis unit 1201 of thetag management server 120 displays the position and orientation of themobile terminal 110. from theportable terminal 110 is held over the position (x3, y3), and determines that themobile terminal 110 is located in the azimuth range of 1 ° to 180 ° as viewed from the position (x3, y3). Accordingly, the displaytag analysis unit 1201 extracts the uppermost record of the tag management table 1203 and sends the computer graphics image data and position (x3 , y3 ) of the tag with the tag ID “003” to theportable terminal 110. To send. Thereby, theportable terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “003” at the position (x3 , y3 ) in the real space.

一方、携帯端末110が地点Hに位置し、位置(x3,y3)に向けて翳されている場合、タグ管理サーバ120の表示タグ解析部1201は、携帯端末110の位置及び姿勢から、携帯端末110が位置(x3,y3)に翳され、且つ、携帯端末110が位置(x3,y3)から見て181°〜360°の方位範囲に位置すると判定する。従って、表示タグ解析部1201は、タグ管理テーブル1203の上から2段目のレコードを抽出し、タグID“004”のタグのコンピュータグラフィックス画像データ及び位置(x3,y3)を携帯端末110に対して送信する。これにより、携帯端末110は、タグID“004”のタグのコンピュータグラフィックス画像データを現実空間における位置(x3,y3)に合成表示する。On the other hand, when themobile terminal 110 is located at the point H and is deceived toward the position (x3 , y3 ), the displaytag analysis unit 1201 of thetag management server 120 uses the position and orientation of themobile terminal 110 as follows: It is determined that themobile terminal 110 is placed at the position (x3 , y3 ) and themobile terminal 110 is located in the azimuth range of 181 ° to 360 ° when viewed from the position (x3 , y3 ). Therefore, the displaytag analysis unit 1201 extracts the second-stage record from the top of the tag management table 1203, and stores the computer graphics image data and position (x3 , y3 ) of the tag with the tag ID “004” in the portable terminal. 110 is transmitted. Thereby, themobile terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “004” at the position (x3 , y3 ) in the real space.

このように本実施形態においては、同じ位置に対して携帯端末110が翳されていても、当該位置から見てどの方位範囲から携帯端末110が翳されているかに応じて異なるタグを当該位置に合成表示させている。例えば、タグの位置から見て交通量が多い方位範囲から翳された携帯端末110には広告料金の高いタグを提示し、交通量の少ない方位範囲から翳された携帯端末110には広告料金の低いタグを提示するようにしてもよい。これにより、方位によって生じる広告効果を考慮した広告を提供することができる。  As described above, in the present embodiment, even if themobile terminal 110 is deceived with respect to the same position, a different tag is assigned to the position depending on from which azimuth range theportable terminal 110 is deceived when viewed from the position. Composite display. For example, a tag with a high advertising fee is presented to themobile terminal 110 deceived from an azimuth range with a large amount of traffic when viewed from the tag position, and an advertising fee is presented to aportable terminal 110 deceived from an azimuth range with a small amount of traffic. A low tag may be presented. Thereby, it is possible to provide an advertisement in consideration of the advertisement effect caused by the direction.

次に、本発明の第4の実施形態について説明する。図12は、本発明の第4の実施形態において使用する三次元タグの一例を説明するための図である。本実施形態において、図12に示す三次元タグは現実空間における(x5,y5)の位置に合成表示される。図12(a)は、初期状態における三次元タグの状態を側面から示しており、図12(b)は、初期状態における三次元タグの状態を上方から示している。図12に示す例の三次元タグは円柱形状であり、側面に広告aのタグ、広告bのタグ、広告cのタグ、広告dのタグが配置されている。即ち、図12(b)に示すように、三次元タグの位置(x5,y5)から見て1°〜90°には広告aのタグが配置され、(x5,y5)から見て91°〜180°には広告bのタグが配置され、(x5,y5)から見て181°〜270°には広告cのタグが配置され、(x5,y5)から見て271°〜360°には広告dのタグが配置されている。Next, a fourth embodiment of the present invention will be described. FIG. 12 is a diagram for explaining an example of a three-dimensional tag used in the fourth embodiment of the present invention. In the present embodiment, the three-dimensional tag shown in FIG. 12 is synthesized and displayed at the position (x5 , y5 ) in the real space. FIG. 12A shows the state of the three-dimensional tag in the initial state from the side, and FIG. 12B shows the state of the three-dimensional tag in the initial state from above. The three-dimensional tag of the example shown in FIG. 12 has a cylindrical shape, and the tag of the advertisement a, the tag of the advertisement b, the tag of the advertisement c, and the tag of the advertisement d are arranged on the side surface. That is, as shown in FIG. 12B, the tag of the advertisement a is arranged at 1 ° to 90 ° when viewed from the position (x5 , y5 ) of the three-dimensional tag, and from (x5 , y5 ) found in it 91 ° to 180 ° is arranged tag ad b, from the 181 ° to 270 ° as viewed from the (x5, y5) is arranged tag ad c, (x5, y5) A tag of the advertisement d is arranged at 271 ° to 360 ° as viewed.

三次元タグは、ユーザの1回のタップ操作毎に、位置(x5,y5)を軸に90°回転する。初期状態においては、広告aのタグが携帯端末110の画面の正面を向いており、ユーザのタップ操作の度に三次元タグが90°ずつ回転し、広告bのタグ→広告cのタグ→広告d→広告aの順で画面の正面を向くようにしている。The three-dimensional tag rotates 90 ° about the position (x5 , y5 ) for each tap operation of the user. In an initial state, the tag of the advertisement a faces the front of the screen of themobile terminal 110, and the 3D tag rotates by 90 ° every time the user performs a tap operation. The tag of the advertisement b → the tag of the advertisement c → the advertisement The front of the screen is directed in the order of d → advertisement a.

図13は、本発明の第4の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図13に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末210と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ220とで構成される。なお、図13においては、説明の簡単のため、携帯端末210、タグ管理サーバ220をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。また、携帯端末210、タグ管理サーバ220のハードウェア構成は図2−1、図2−2に示した構成と同様である。  FIG. 13 is a diagram schematically showing the configuration of an AR tag display system according to the fourth embodiment of the present invention. As shown in FIG. 13, the AR tag display system according to the present embodiment includes amobile terminal 210 with a camera function possessed by a user, atag management server 220 for managing tags displayed in combination with real-space video, Consists of. In FIG. 13, for simplicity of explanation, onemobile terminal 210 and onetag management server 220 are shown, but there may actually be an arbitrary number of each. The hardware configurations of themobile terminal 210 and thetag management server 220 are the same as the configurations shown in FIGS.

本実施形態における携帯端末210は、位置姿勢検知部2101及び提示部2103を備える。位置姿勢検知部2101は図1の位置姿勢検知部101と同じ構成であり、提示部2103は図1の提示部103と同じ構成である。  Themobile terminal 210 in this embodiment includes a position /orientation detection unit 2101 and apresentation unit 2103. The position /orientation detection unit 2101 has the same configuration as the position /orientation detection unit 101 in FIG. 1, and thepresentation unit 2103 has the same configuration as thepresentation unit 103 in FIG.

本実施形態におけるタグ管理サーバ220は、表示タグ解析部2201、広告料金算出部2202及びタグ管理テーブル2203を備える。タグ管理テーブル2203には、現実空間における位置、タグID、方位範囲、広告提供主ID、広告料金(円/回数)、参照回数が対応付けられて管理されている。現実空間における位置(x5,y5)に関しては、タグID“007”、タグID“008”、タグID“009”、タグID“010”が対応付けられている。即ち、位置(x5,y5)には、タグID“007”のタグ、タグID“008”のタグ、タグID“009”のタグ、タグID“010”のタグの4つのタグが合成表示されることが定義されている。つまり、図12に示すように、位置(x5,y5)において4つのタグ(広告aのタグ、広告bのタグ、広告cのタグ、広告dのタグ)が配置されていることを意味している。Thetag management server 220 in this embodiment includes a displaytag analysis unit 2201, an advertisementfee calculation unit 2202, and a tag management table 2203. The tag management table 2203 manages the position in the real space, the tag ID, the azimuth range, the advertisement provider ID, the advertisement fee (yen / number of times), and the number of times of reference. Regarding the position (x5 , y5 ) in the real space, tag ID “007”, tag ID “008”, tag ID “009”, and tag ID “010” are associated with each other. That is, at the position (x5 , y5 ), four tags of a tag ID “007”, a tag ID “008”, a tag ID “009”, and a tag ID “010” are combined. It is defined to be displayed. That is, as shown in FIG. 12, it means that four tags (a tag for the advertisement a, a tag for the advertisement b, a tag for the advertisement c, and a tag for the advertisement d) are arranged at the position (x5 , y5 ). doing.

タグ管理テーブル2203においては、第3の実施形態と同様に、位置、タグID、方位範囲、広告提供主ID、広告料金(円/回数)が管理されている。これらを管理する意義は第3の実施形態と同様である。また、タグ管理テーブル2203においては参照回数が管理されている。参照回数は、該当するタグが画面の正面を向くように表示され、ユーザによって閲覧できるようにした回数である。即ち、ユーザのタップ操作によって各タグが順次画面の正面を向くように表示される度に、夫々のタグの参照回数が加算されていく。  In the tag management table 2203, as in the third embodiment, the position, tag ID, azimuth range, advertisement provider ID, and advertisement fee (yen / number of times) are managed. The significance of managing these is the same as in the third embodiment. In the tag management table 2203, the number of references is managed. The number of times of reference is the number of times that the corresponding tag is displayed facing the front of the screen and can be viewed by the user. That is, each time the tags are displayed so as to face the front of the screen sequentially by the user's tap operation, the reference count of each tag is added.

広告料金算出部2202は、所定の期間毎、又は管理者の操作に応じて、タグ毎或いは広告提供主毎に広告料金を算出する。タグ毎に広告料金を算出する場合、広告料金算出部2202は、タグ管理テーブル2203のレコード毎に広告料金(円/回数)と参照回数とを乗算し、タグIDをキーにして集計する。また、広告提供主毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/回数)と参照回数とを乗算し、広告提供主IDをキーにして集計する。  The advertisementfee calculation unit 2202 calculates an advertisement fee for each tag or each advertisement provider in accordance with a predetermined period or according to an operation of the administrator. When calculating the advertisement fee for each tag, the advertisementfee calculation unit 2202 multiplies the advertisement fee (yen / number of times) by the reference number for each record in the tag management table 2203, and tabulates using the tag ID as a key. Further, when calculating the advertisement fee for each advertisement provider, the advertisementfee calculation unit 1202 multiplies the advertisement fee (yen / count) and the reference count for each record of the tag management table 1203, and sets the advertisement provider ID as a key. And aggregate.

上述した実施形態においては、タグ管理サーバが携帯端末の位置及び姿勢に基づいて合成表示させるタグを解析していたが、この解析処理を携帯端末側に実行させるようにしてもよい。即ち、携帯端末側に、上述した表示タグ解析部、タグ表示指示部、タグ管理テーブル及び表示態様管理テーブルを備え、携帯端末が自らの位置及び姿勢に基づいて、合成表示させるタグやその表示サイズを判断すればよい。さらに、携帯端末の位置及び姿勢だけで合成表示させるタグを判定するのではなく、各オブジェクトから携帯端末までの距離に所定の閾値を設け、携帯端末からその閾値より遠い距離のオブジェクトのタグは表示させないようにしてもよい。携帯端末からあまりにも遠い位置にあるオブジェクトのタグは表示させても意味がないので、この閾値を設けることにより不要なタグを振り分けることができる。  In the embodiment described above, the tag management server analyzes the tag to be synthesized and displayed based on the position and orientation of the mobile terminal. However, the analysis process may be executed on the mobile terminal side. That is, the portable terminal is provided with the above-described display tag analysis unit, tag display instruction unit, tag management table, and display mode management table, and the tag that the portable terminal displays in combination based on its own position and orientation and its display size Can be judged. Furthermore, instead of determining a tag to be synthesized and displayed based only on the position and orientation of the mobile terminal, a predetermined threshold is set for the distance from each object to the mobile terminal, and tags for objects at a distance farther than the threshold from the mobile terminal are displayed. It may not be allowed to. Since it is meaningless to display the tag of an object that is too far away from the mobile terminal, unnecessary tags can be assigned by providing this threshold value.

上述した実施形態においては、説明の分かり易さの便宜上、位置姿勢検知部は方位角を扱っていたが、方位角だけでなく仰角を加えても良い。例えば、地磁気センサーやジャイロセンサーや画像解析等或いはそれら組み合わせによって仰角に関する情報を取得し、位置座標や方位角や仰角によって、タグの表示を制御することができる。これにより、角度によって見え難さが変わる場合を考慮した表示制御が可能になる。  In the embodiment described above, the position / orientation detection unit handles the azimuth for the sake of convenience of explanation. However, not only the azimuth but also an elevation angle may be added. For example, information on the elevation angle can be acquired by a geomagnetic sensor, a gyro sensor, image analysis, or a combination thereof, and the display of the tag can be controlled by the position coordinates, the azimuth angle, and the elevation angle. As a result, it is possible to perform display control in consideration of the case where visibility is changed depending on the angle.

10、110、210:携帯端末、20、120、220:タグ管理サーバ、101、1101、2101:位置姿勢検知部、102:評価受付部、103、1103、2103:提示部、201、1201、2201:表示タグ解析部、202:タグ表示指示部、203、1203、2203:タグ管理テーブル、204:表示態様管理テーブル、1202、2202:広告料金算出部  10, 110, 210: mobile terminal, 20, 120, 220: tag management server, 101, 1101, 2101: position and orientation detection unit, 102: evaluation reception unit, 103, 1103, 2103: presentation unit, 201, 1201, 2011 : Display tag analysis unit, 202: tag display instruction unit, 203, 1203, 2203: tag management table, 204: display mode management table, 1202, 2202: advertisement fee calculation unit

Claims (10)

Translated fromJapanese
現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムであって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知手段と、
前記検知手段による検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第1の解析手段と、
前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御手段と
前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する第2の管理手段と、
経路及び進行方向を設定する設定手段と、
前記設定手段により設定された経路及び進行方向に基づいて、前記コンピュータグラフィックス画像データに対応するオブジェクトの現実空間の位置から見て有用な方位範囲を推定する推定手段と、
前記推定手段による推定結果に応じて、前記第2の管理手段における該当する方位範囲の評価情報を更新する更新手段と、
を有し、
前記制御手段は、前記第1の解析手段による解析結果に対応する前記第2の管理手段における方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする情報処理システム。
An information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data,
Detection means for detecting the position and orientation of the augmented reality presentation device;
First analysis means for analyzing which azimuth range the augmented reality presentation device belongs to as viewed from the position of an object in the real space corresponding to the computer graphics image data, based on a detection result by the detection means;
Control means for switching the computer graphics image data to be presented in the augmented reality presentation device in accordance with an analysis result by the first analysis means;
Second management means for managing evaluation information for each azimuth range viewed from the position of an object in the real space corresponding to the computer graphics image data;
Setting means for setting a route and a traveling direction;
Estimating means for estimating a useful azimuth range when viewed from the position of the object corresponding to the computer graphics image data in the real space, based on the path and the traveling direction set by the setting means;
Updating means for updating evaluation information of the corresponding azimuth range in the second management means according to the estimation result by the estimation means;
Have
The control means, according to the evaluation information of the bearing range in the second management unit corresponding to the analysis result of the first analysis unit, toswitch between the computer graphics image data to be presented in the augmented reality presentation apparatus An information processing system characterized by
現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムであって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知手段と、
前記検知手段による検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第1の解析手段と、
前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御手段と、
前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する第1の管理手段と、
を有し、
前記制御手段は、前記第1の解析手段による解析結果に対応する前記第1の管理手段における方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする情報処理システム。
An information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data,
Detection means for detecting the position and orientation of the augmented reality presentation device;
First analysis means for analyzing which azimuth range the augmented reality presentation device belongs to as viewed from the position of an object in the real space corresponding to the computer graphics image data, based on a detection result by the detection means;
Control means for switching the computer graphics image data to be presented in the augmented reality presentation device in accordance with an analysis result by the first analysis means;
First management means for managing evaluation information for each azimuth range viewed from the position of an object in real space corresponding to the computer graphics image data;
Have
The control means switches the computer graphics image data to be presented in the augmented reality presentation device according to the evaluation information of the azimuth range in the first management means corresponding to the analysis result by the first analysis means. A featured information processing system.
記拡張現実感提示装置において提示される前記コンピュータグラフィックス画像データに対する所定の操作を受け付ける受付手段と、
前記受付手段により前記コンピュータグラフィックス画像データに対する前記所定の操作を受け付けた場合、当該受付時における前記拡張現実感提示装置の位置及び姿勢に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第2の解析手段と、
前記第2の解析手段による解析結果に応じて、前記第1の管理手段における該当する方位範囲の評価情報を更新する更新手段と
を更に有することを特徴とする請求項2に記載の情報処理システム。
And accepting means for accepting a predetermined operation to the computer graphics image data to be presented in theprevious SL augmented reality presentation apparatus,
When the predetermined operation for the computer graphics image data is received by the reception unit, the real space corresponding to the computer graphics image data is based on the position and orientation of the augmented reality presentation device at the time of the reception. Second analysis means for analyzing which azimuth range the augmented reality presentation device belongs to as viewed from the position of the object;
Updating means for updating evaluation information of the corresponding azimuth range in the first management means according to the analysis result by the second analysis means;
The information processing system accordingto claim 2,further comprising:
前記制御手段は、前記第1の解析手段による解析結果に応じて、前記コンピュータグラフィックス画像データの表示態様を切り替えることを特徴とする請求項1又は2に記載の情報処理システム。The information processing system according to claim 1, wherein the control unit switchesa display mode of thecomputer graphics image data according to an analysis result by the first analysis unit . 前記制御手段は、前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データの種類を切り替えることを特徴とする請求項1又は2に記載の情報処理システム。The said control means switches the kind of the said computer graphics image data shown in the said augmented reality presentation apparatus according to the analysis result by the said 1st analysis means, The said 1or 2 characterized by the above-mentioned. Information processing system. 前記制御手段は、前記拡張現実感提示装置における所定の操作を受け付けることにより、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データの種類を切り替えることを特徴とする請求項1又は2に記載の情報処理システム。The control means, by receiving a predetermined operation in the augmented reality presentation apparatus, in claim 1or 2, characterized in that switching the computer graphics type of image data to be presented in the augmented reality presentation apparatus The information processing system described. 前記コンピュータグラフィックス画像データの種類毎に、単位期間当たりの料金と提示期間とを管理する第3の管理手段を更に有することを特徴とする請求項5に記載の情報処理システム。  6. The information processing system according to claim 5, further comprising third management means for managing a charge per unit period and a presentation period for each type of the computer graphics image data. 前記コンピュータグラフィックス画像データの種類毎に、単位提示回数当たりの料金と提示回数とを管理する第4の管理手段を更に有することを特徴とする請求項6に記載の情報処理システム。  7. The information processing system according to claim 6, further comprising fourth management means for managing a charge per unit presentation count and a presentation count for each type of the computer graphics image data. 現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法であって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、
前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、
前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップと
前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する管理ステップと、
を含み、
前記制御ステップでは、前記解析ステップによる解析結果に対応する前記管理ステップにおける方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする情報処理システムの制御方法。
A control method for an information processing system having an augmented reality presentation device capable of combining and presenting a video of real space and computer graphics image data,
A detection step of detecting the position and orientation of the augmented reality presentation device;
Based on the detection result of the detection step, an analysis step for analyzing which azimuth range the augmented reality presentation device belongs to when viewed from the position of the object in the real space corresponding to the computer graphics image data;
A control step of switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step;
A management step for managing evaluation information for each azimuth range viewed from the position of an object in the real space corresponding to the computer graphics image data;
Including
In the control step, the computer graphics image data to bepresented in the augmented reality presentation device is switched in accordance with the evaluation information of the azimuth range in the management step corresponding to the analysis result in the analysis step. Control method.
現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法をコンピュータに実行させるためのプログラムであって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、
前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、
前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップと
前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する管理ステップと、
をコンピュータに実行させ、
前記制御ステップでは、前記解析ステップによる解析結果に対応する前記管理ステップにおける方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とするプログラム。
A program for causing a computer to execute a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data,
A detection step of detecting the position and orientation of the augmented reality presentation device;
Based on the detection result of the detection step, an analysis step for analyzing which azimuth range the augmented reality presentation device belongs to when viewed from the position of the object in the real space corresponding to the computer graphics image data;
A control step of switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step;
A management step for managing evaluation information for each azimuth range viewed from the position of an object in the real space corresponding to the computer graphics image data;
To the computer,
In the control step, the computer graphics image data to be presented in the augmented reality presentation device is switched in accordance with the evaluation information of the azimuth range in the management step corresponding to the analysis result in the analysis step .
JP2010269635A2010-12-022010-12-02 Information processing system, control method thereof, and programActiveJP5674441B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2010269635AJP5674441B2 (en)2010-12-022010-12-02 Information processing system, control method thereof, and program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2010269635AJP5674441B2 (en)2010-12-022010-12-02 Information processing system, control method thereof, and program

Publications (2)

Publication NumberPublication Date
JP2012118882A JP2012118882A (en)2012-06-21
JP5674441B2true JP5674441B2 (en)2015-02-25

Family

ID=46501596

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2010269635AActiveJP5674441B2 (en)2010-12-022010-12-02 Information processing system, control method thereof, and program

Country Status (1)

CountryLink
JP (1)JP5674441B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP5803103B2 (en)*2010-12-282015-11-04キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, portable terminal, control method thereof, and program
JP6130841B2 (en)*2012-09-072017-05-17日立マクセル株式会社 Receiver
JP6160154B2 (en)*2013-03-222017-07-12セイコーエプソン株式会社 Information display system using head-mounted display device, information display method using head-mounted display device, and head-mounted display device
JP5580924B1 (en)*2013-08-302014-08-27ヤフー株式会社 Distribution device, terminal device, distribution method, and distribution program
KR20180014246A (en)*2014-01-242018-02-07피씨엠에스 홀딩스, 인크.Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with the real world places
JP2015228050A (en)*2014-05-302015-12-17ソニー株式会社Information processing device and information processing method
JP2019057057A (en)2017-09-202019-04-11富士ゼロックス株式会社Information processing apparatus, information processing system, and program
JP7224894B2 (en)*2018-12-202023-02-20キヤノン株式会社 Information processing device, information processing method and program
DE112019006107B4 (en)*2019-01-112025-03-27Mitsubishi Electric Corporation Authoring device, authoring method and authoring program
JP7116200B2 (en)*2021-01-062022-08-09株式会社三井住友銀行 AR platform system, method and program
JP2023018253A (en)*2021-07-272023-02-08キヤノン株式会社 Image processing device, image processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN1647142A (en)*2002-02-252005-07-27精工爱普生株式会社Advertisement system, advertisement method, and program thereof
US7391424B2 (en)*2003-08-152008-06-24Werner Gerhard LonsingMethod and apparatus for producing composite images which contain virtual objects
JP3861866B2 (en)*2003-09-112006-12-27日本電気株式会社 3D graphics display device
JP2005092164A (en)*2003-09-122005-04-07Ac & T:Kk Multi-purpose electronic signage system and electronic signage distribution method
JP2005108108A (en)*2003-10-012005-04-21Canon Inc Three-dimensional CG operation device and method, and position and orientation sensor calibration device
JP2006059136A (en)*2004-08-202006-03-02Seiko Epson Corp Viewer device and program thereof
JP2011242816A (en)*2008-09-092011-12-01Tonchidot CorpSystem capable of adding virtual information to visual field information and displaying it

Also Published As

Publication numberPublication date
JP2012118882A (en)2012-06-21

Similar Documents

PublicationPublication DateTitle
JP5674441B2 (en) Information processing system, control method thereof, and program
US20230417567A1 (en)Augmented reality maps
US9940692B2 (en)Augmented reality overlays based on an optically zoomed input
EP2506222B1 (en)Augmented reality apparatus, method and program
US20090289955A1 (en)Reality overlay device
TWI269024B (en)Navigation system
CN104731337B (en)Method for representing virtual information in true environment
KR100985737B1 (en)Method, terminal device and computer-readable recording medium for providing information on an object included in visual field of the terminal device
US20210025729A1 (en)Street-Level Guidance Via Route Path
US9235933B2 (en)Wearable display system that displays previous runners as virtual objects on a current runner&#39;s path
US9767610B2 (en)Image processing device, image processing method, and terminal device for distorting an acquired image
US20150070275A1 (en)Systems and methods for navigating a scene using deterministic movement of an electronic device
JP2012068481A (en)Augmented reality expression system and method
US20110288763A1 (en)Method and apparatus for displaying three-dimensional route guidance
AU2013401486A1 (en)Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US20150066359A1 (en)System and apparatus for processing information, image display apparatus, control method and computer program
KR102027565B1 (en)A Method For Providing Augmented Reality Walking Navigation Service Using a 3D Character
JP6345381B2 (en) Augmented reality system
CN111124128B (en)Position prompting method and related product
JP4710217B2 (en) Information presenting apparatus, information presenting method, information presenting system, and computer program
KR102578119B1 (en)Smart glasses operation method interworking to mobile device
US10650037B2 (en)Enhancing information in a three-dimensional map
KR20120043439A (en)Space image output system improving the roving of advertisement
KR20060117140A (en) Constellation information providing service using a mobile communication terminal.
Au et al.Mirrormap: augmenting 2d mobile maps with virtual mirrors

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20131107

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20140714

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20140826

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20141009

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20141209

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20141222

R150Certificate of patent or registration of utility model

Ref document number:5674441

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250


[8]ページ先頭

©2009-2025 Movatter.jp