Movatterモバイル変換


[0]ホーム

URL:


JP2010086408A - Information processor, information processing method, program and information storage medium - Google Patents

Information processor, information processing method, program and information storage medium
Download PDF

Info

Publication number
JP2010086408A
JP2010086408AJP2008256599AJP2008256599AJP2010086408AJP 2010086408 AJP2010086408 AJP 2010086408AJP 2008256599 AJP2008256599 AJP 2008256599AJP 2008256599 AJP2008256599 AJP 2008256599AJP 2010086408 AJP2010086408 AJP 2010086408A
Authority
JP
Japan
Prior art keywords
motion data
identifier
rule
data
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008256599A
Other languages
Japanese (ja)
Other versions
JP5015109B2 (en
Inventor
Tomoji Kawaguchi
智史 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment IncfiledCriticalSony Computer Entertainment Inc
Priority to JP2008256599ApriorityCriticalpatent/JP5015109B2/en
Priority to US13/121,318prioritypatent/US8724849B2/en
Priority to EP09817726.4Aprioritypatent/EP2343685B1/en
Priority to PCT/JP2009/066749prioritypatent/WO2010038693A1/en
Priority to CN200980139029.5Aprioritypatent/CN102171726B/en
Publication of JP2010086408ApublicationCriticalpatent/JP2010086408A/en
Application grantedgrantedCritical
Publication of JP5015109B2publicationCriticalpatent/JP5015109B2/en
Activelegal-statusCriticalCurrent
Anticipated expirationlegal-statusCritical

Links

Images

Landscapes

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor reducing the time and effort of a producer when producing CG by using motion data. <P>SOLUTION: A rule data storing part 62 stores a plurality of rule data showing rules for determining the movement of a moving object shown by an identifier on the basis of the movement of a predetermined moving object in association with the identifier of the moving object. An identifier receiving part 50 receives the identifier of the moving object. A basic motion data acquiring part 58 acquires basic motion data showing the movement of the predetermined moving object. A rule data selecting part 64 selects rule data to be associated with the received identifier among rule data stored in the rule data storing part 62. A generation motion data generating part 66 applies a rule shown by the selected rule data to basic motion data to be acquired, and generates generation motion data showing the movement of the moving object shown by the received identifier. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

Translated fromJapanese

本発明は、情報処理装置、情報処理方法、プログラム及び情報記憶媒体に関する。  The present invention relates to an information processing apparatus, an information processing method, a program, and an information storage medium.

ビデオカメラなどで撮像される人間などの移動体の動きを情報処理装置に取り込むモーションキャプチャに関する技術が知られている。例えば、ビデオカメラで移動体を撮像することにより生成される一連の画像に基づいて、その移動体の動きを示すモーションデータを生成する情報処理装置が存在する。  A technique relating to motion capture that captures the movement of a moving body such as a human being imaged by a video camera or the like into an information processing apparatus is known. For example, there is an information processing apparatus that generates motion data indicating the movement of a moving object based on a series of images generated by imaging the moving object with a video camera.

モーションキャプチャなどにより生成されるモーションデータは、コンピュータグラフィックス(CG)を制作する際などに活用されている。例えば、人間の動きを撮像することにより生成されるモーションデータを用いて、人間の動きを表すCGを容易に制作することができる。しかし、例えば、クモの動きを表すCGを制作する場面では、人間の動きを撮像することにより生成されるモーションデータに対して適切な加工を施すなどの工夫をする必要があった。このように、従来は、モーションデータを利用してCGを制作する際には、制作者の手間がかかっていた。特に、所定の移動体の動きを示すモーションデータを用いて、他の移動体の動きを表すCGを制作する際には、制作者の手間がかかっていた。  Motion data generated by motion capture or the like is utilized when producing computer graphics (CG). For example, a CG representing a human motion can be easily produced using motion data generated by imaging a human motion. However, for example, in a scene where a CG representing the movement of a spider is produced, it has been necessary to devise appropriate processing such as processing the motion data generated by imaging the human movement. As described above, conventionally, when a CG is produced using motion data, it takes time for the producer. In particular, when producing CG representing the movement of another moving body using motion data indicating the movement of a predetermined moving body, it takes time for the creator.

本発明は、上記課題に鑑みてなされたものであって、モーションデータを利用してCGを制作する際における制作者の手間を軽減することができる情報処理装置、情報処理方法、プログラム及び情報記憶媒体を提供することを目的とする。  The present invention has been made in view of the above-described problems, and is an information processing apparatus, an information processing method, a program, and an information storage that can reduce the labor of a creator when producing a CG using motion data. The purpose is to provide a medium.

上記課題を解決するために、本発明に係る情報処理装置は、所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理装置であって、移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを複数記憶する規則データ記憶手段と、移動体の識別子を受け付ける識別子受付手段と、前記基礎モーションデータを取得する基礎モーションデータ取得手段と、前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付手段が受け付ける識別子と関連付けられる規則データを選択する規則データ選択手段と、前記基礎モーションデータ取得手段により取得される基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を適用して、前記識別子受付手段が受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成手段と、を含むことを特徴とする。  In order to solve the above problems, an information processing apparatus according to the present invention is an information processing apparatus that generates generated motion data indicating the movement of another moving body based on basic motion data indicating the movement of a predetermined moving body. A rule data storage means for storing a plurality of rule data indicating rules for determining the movement of the moving object indicated by the identifier based on the movement of the predetermined moving object in association with the identifier of the moving object; An identifier receiving means for receiving an identifier, a basic motion data acquiring means for acquiring the basic motion data, and a plurality of rule data stored in the rule data storage means are associated with an identifier received by the identifier receiving means. Rule data selection means for selecting rule data, and basic motion data acquired by the basic motion data acquisition means Generating motion data generating means for generating generated motion data indicating the motion of the moving body indicated by the identifier received by the identifier receiving means by applying the rule indicated by the rule data selected by the rule data selecting means to the data, It is characterized by including.

また、本発明に係る情報処理方法は、所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理方法であって、移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを規則データ記憶手段に複数記憶させるステップと、前記基礎モーションデータを取得する基礎モーションデータ取得ステップと、移動体の識別子を受け付ける識別子受付ステップと、前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付ステップで受け付ける識別子と関連付けられる規則データを選択する規則データ選択ステップと、前記基礎モーションデータ取得ステップにより取得される基礎モーションデータに、前記規則データ選択ステップにより選択される規則データが示す規則を適用して、前記識別子受付ステップで受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成ステップと、を含むことを特徴とする。  An information processing method according to the present invention is an information processing method for generating generated motion data indicating the movement of another moving body based on basic motion data indicating the movement of a predetermined moving body. In association with an identifier, a step of storing in the rule data storage means a plurality of rule data indicating rules for determining the movement of the moving body indicated by the identifier based on the movement of the predetermined moving body, and acquiring the basic motion data The rule data associated with the identifier received in the identifier receiving step is selected from the basic motion data acquisition step, the identifier receiving step for receiving the identifier of the moving object, and the plurality of rule data stored in the rule data storage means Obtained by the rule data selection step and the basic motion data acquisition step. A generated motion data generating step for generating generated motion data indicating the motion of the moving object indicated by the identifier received in the identifier receiving step by applying the rule indicated by the rule data selected in the rule data selecting step to the basic motion data It is characterized by including these.

また、本発明に係るプログラムは、所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理装置としてコンピュータを機能させるプログラムであって、移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを規則データ記憶手段に複数記憶させる手段、前記基礎モーションデータを取得する基礎モーションデータ取得手段、移動体の識別子を受け付ける識別子受付手段、前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付手段が受け付ける識別子と関連付けられる規則データを選択する規則データ選択手段、前記基礎モーションデータ取得手段により取得される基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を適用して、前記識別子受付手段が受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成手段、として前記コンピュータを機能させることを特徴とする。  The program according to the present invention is a program that causes a computer to function as an information processing apparatus that generates generated motion data indicating the movement of another moving body based on basic motion data indicating the movement of a predetermined moving body. A means for storing a plurality of rule data in a rule data storage means in association with an identifier of a mobile object, and indicating a rule for determining a motion of the mobile object indicated by the identifier based on the motion of the predetermined mobile object, the basic motion data Among the plurality of rule data stored in the rule data storage means, and the rule data associated with the identifier received by the identifier reception means. Selected by the rule data selection means to be selected and the basic motion data acquisition means. Generated motion data for generating motion data indicating the motion of the moving body indicated by the identifier received by the identifier receiving means by applying the rule indicated by the rule data selected by the rule data selecting means to the basic motion data to be generated The computer is caused to function as generation means.

また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に格納することもできる。  The above program can also be stored in a computer-readable information storage medium.

本発明によると、所定の移動体の動きを示す基礎モーションデータに基づいて、識別子受付手段が受け付ける識別子に応じた移動体の動きを示すモーションデータが生成されるので、モーションデータを利用してCGを制作する際における制作者の手間を軽減することができる。  According to the present invention, the motion data indicating the motion of the mobile body corresponding to the identifier received by the identifier receiving means is generated based on the basic motion data indicating the motion of the predetermined mobile body. Can reduce the time and effort of the creator when producing

本発明の一態様では、前記基礎モーションデータが、各フレームにおける前記所定の移動体の位置を示しており、前記規則データ記憶手段が、前記識別子が示す移動体の各フレームにおける位置を、前記所定の移動体の各フレームにおける位置に基づいて決定する規則を示す規則データを記憶し、前記基礎モーションデータ取得手段が、前記基礎モーションデータを順次取得し、前記生成モーションデータ生成手段が、順次取得される前記各基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を順次適用して、前記識別子受付手段が受け付ける識別子が示す移動体の各フレームにおける位置を示す前記生成モーションデータを順次生成することを特徴とする。こうすれば、各フレームにおける移動体の位置が示された生成モーションデータを、基礎モーションデータが示す各フレームにおける移動体の位置に基づいて生成することができる。  In one aspect of the present invention, the basic motion data indicates the position of the predetermined moving body in each frame, and the rule data storage means sets the position of the moving body indicated by the identifier in each frame. Rule data indicating rules to be determined based on the position of each moving body in each frame is stored, the basic motion data acquisition means sequentially acquires the basic motion data, and the generated motion data generation means is sequentially acquired. The generated motion data indicating the position in each frame of the moving body indicated by the identifier received by the identifier receiving means by sequentially applying the rules indicated by the rule data selected by the rule data selecting means to each basic motion data Are sequentially generated. In this way, the generated motion data indicating the position of the moving body in each frame can be generated based on the position of the moving body in each frame indicated by the basic motion data.

また、この態様では、前記規則データ記憶手段が、前記識別子が示す移動体の各フレームにおける位置を、前記所定の移動体の、互いに異なる複数のフレームにおける位置の組合せに基づいて決定する規則を示す規則データを記憶してもよい。こうすれば、異なるフレームにおける所定の移動体の位置に基づいて、生成モーションデータが生成されるので、生成モーションデータのバリエーションを豊かにすることができる。  Further, in this aspect, the rule data storage means indicates a rule for determining the position of the moving body indicated by the identifier in each frame based on a combination of positions of the predetermined moving body in a plurality of different frames. Rule data may be stored. By so doing, the generated motion data is generated based on the position of the predetermined moving body in different frames, so that variations of the generated motion data can be enriched.

また、本発明の一態様では、前記基礎モーションデータが、前記所定の移動体に含まれる複数の要素それぞれの動きを示しており、前記規則データ記憶手段が、複数の要素が含まれる移動体の識別子に関連付けて、当該識別子が示す移動体に含まれる複数の要素それぞれの動きを前記所定の移動体に含まれる複数の要素それぞれの動きに基づいて決定する規則を示す規則データを記憶し、前記生成モーションデータ生成手段が、前記識別子受付手段が受け付ける識別子が示す移動体に含まれる複数の要素それぞれの動きを示す生成モーションデータを生成することを特徴とする。こうすれば、生成モーションデータが示す、識別子受付手段が受け付ける識別子に応じた移動体に含まれる要素それぞれの動きを、所定の移動体に含まれる要素それぞれの動きに対応づけることができる。  In one aspect of the present invention, the basic motion data indicates movement of each of a plurality of elements included in the predetermined moving body, and the rule data storage means is a moving body including a plurality of elements. In association with the identifier, storing rule data indicating a rule for determining the movement of each of the plurality of elements included in the moving body indicated by the identifier based on the movement of each of the plurality of elements included in the predetermined moving body, The generated motion data generating means generates generated motion data indicating the motion of each of the plurality of elements included in the moving object indicated by the identifier received by the identifier receiving means. In this way, the movement of each element included in the moving body corresponding to the identifier received by the identifier receiving unit indicated by the generated motion data can be associated with the movement of each element included in the predetermined moving body.

また、この態様では、前記規則データ記憶手段が、前記所定の移動体又は前記識別子が示す移動体のうちの一方に含まれる複数の要素それぞれの位置の組合せと、他方に含まれる1つの要素とを対応づける規則を示す規則データを記憶してもよい。こうすれば、所定の移動体に含まれる複数の要素の位置の組合せに基づいて、識別子受付手段が受け付ける識別子に応じた移動体に含まれる1つの要素の位置を算出すること、あるいは、所定の移動体に含まれる1つの要素の位置に基づいて、識別子受付手段が受け付ける識別子に応じた移動体に含まれる複数の要素それぞれの位置を算出することが可能となる。  Further, in this aspect, the rule data storage means includes a combination of positions of a plurality of elements included in one of the predetermined mobile body or the mobile body indicated by the identifier, and one element included in the other. The rule data indicating the rule for associating with each other may be stored. In this way, the position of one element included in the moving body corresponding to the identifier received by the identifier receiving means is calculated based on the combination of the positions of the plurality of elements included in the predetermined moving body, or Based on the position of one element included in the moving body, it is possible to calculate the position of each of the plurality of elements included in the moving body according to the identifier received by the identifier receiving unit.

以下、本発明の一実施形態について図面に基づき詳細に説明する。  Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る情報処理システム1のハードウェア構成の一例を示す図である。図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置2と、携帯型ゲーム装置3と、を含んでいる。そして、図2は、本実施形態に係る携帯型ゲーム装置3の一例を示す斜視図である。  FIG. 1 is a diagram illustrating an example of a hardware configuration of aninformation processing system 1 according to the present embodiment. As shown in FIG. 1, theinformation processing system 1 according to the present embodiment includes aninformation processing device 2 and aportable game device 3. FIG. 2 is a perspective view showing an example of theportable game apparatus 3 according to the present embodiment.

情報処理装置2は、制御部21、記憶部22、通信部23、ユーザインタフェース(UI)部24、を含んで構成される。制御部21、記憶部22、通信部23、UI部24、はバスを介して接続される。  Theinformation processing apparatus 2 includes acontrol unit 21, astorage unit 22, acommunication unit 23, and a user interface (UI)unit 24. Thecontrol unit 21, thestorage unit 22, thecommunication unit 23, and theUI unit 24 are connected via a bus.

情報処理装置2の制御部21はCPU等のプログラム制御デバイスであり、情報処理装置2にインストールされるプログラムに従って動作する。  Thecontrol unit 21 of theinformation processing apparatus 2 is a program control device such as a CPU, and operates according to a program installed in theinformation processing apparatus 2.

情報処理装置2の記憶部22は、RAM等の記憶素子やハードディスクなどである。情報処理装置2の記憶部22には、情報処理装置2の制御部21によって実行されるプログラムなどが記憶される。また、情報処理装置2の記憶部22は、情報処理装置2の制御部21のワークメモリとしても動作する。なお、本実施形態にて、情報処理装置2の記憶部22が記憶する他のデータについては後述する。  Thestorage unit 22 of theinformation processing apparatus 2 is a storage element such as a RAM or a hard disk. Thestorage unit 22 of theinformation processing device 2 stores a program executed by thecontrol unit 21 of theinformation processing device 2. In addition, thestorage unit 22 of theinformation processing device 2 also operates as a work memory of thecontrol unit 21 of theinformation processing device 2. In the present embodiment, other data stored in thestorage unit 22 of theinformation processing apparatus 2 will be described later.

情報処理装置2の通信部23は、例えば、ネットワークインタフェースなどであり、情報処理装置2の制御部21から入力される指示に従って、情報を送信する。また、この情報処理装置2の通信部23は、LANなどのネットワークを介して受信される情報を情報処理装置2の制御部21に出力する。  Thecommunication unit 23 of theinformation processing apparatus 2 is a network interface, for example, and transmits information according to an instruction input from thecontrol unit 21 of theinformation processing apparatus 2. Thecommunication unit 23 of theinformation processing apparatus 2 outputs information received via a network such as a LAN to thecontrol unit 21 of theinformation processing apparatus 2.

情報処理装置2のUI部24は、ディスプレイ、マイク、スピーカ、ボタンなどであり、利用者が行った操作の内容や、利用者が入力した音声を制御部21に出力する。また、この情報処理装置2のUI部24は、情報処理装置2の制御部21から入力される指示に従って情報を表示出力したり音声出力したりする。  TheUI unit 24 of theinformation processing apparatus 2 is a display, a microphone, a speaker, a button, and the like, and outputs the content of the operation performed by the user and the voice input by the user to thecontrol unit 21. In addition, theUI unit 24 of theinformation processing device 2 displays and outputs information according to an instruction input from thecontrol unit 21 of theinformation processing device 2.

図2に示すように、本実施形態に係る携帯型ゲーム装置3の筐体30の形状は、箱形である。そして、図1に示すように、本実施形態に係る携帯型ゲーム装置3は、制御部31、記憶部32、通信部33、表示部34、操作部35、撮像部36、距離測定部37、を備えている。  As shown in FIG. 2, the shape of thehousing 30 of theportable game apparatus 3 according to the present embodiment is a box shape. As shown in FIG. 1, theportable game apparatus 3 according to the present embodiment includes acontrol unit 31, astorage unit 32, acommunication unit 33, adisplay unit 34, anoperation unit 35, animaging unit 36, adistance measurement unit 37, It has.

携帯型ゲーム装置3の制御部31はCPU等のプログラム制御デバイスであり、携帯型ゲーム装置3の記憶部32に格納されたプログラムに従って動作する。  Thecontrol unit 31 of theportable game apparatus 3 is a program control device such as a CPU, and operates according to a program stored in thestorage unit 32 of theportable game apparatus 3.

携帯型ゲーム装置3の記憶部32は、RAM等の記憶素子やハードディスクなどである。携帯型ゲーム装置3の記憶部32には、携帯型ゲーム装置3の制御部31によって実行されるプログラムなどが格納される。具体的には、例えば、携帯型ゲーム装置3の制御部31で実行されるゲームプログラムが格納される。このゲームプログラムは、例えば、ディスク、CD−ROM、DVD−ROM等の情報伝達媒体を介して、あるいは、インターネット等の通信ネットワークを介して携帯型ゲーム装置3に供給される。また、携帯型ゲーム装置3の記憶部32は、携帯型ゲーム装置3の制御部31のワークメモリとしても動作する。  Thestorage unit 32 of theportable game apparatus 3 is a storage element such as a RAM or a hard disk. Thestorage unit 32 of theportable game device 3 stores a program executed by thecontrol unit 31 of theportable game device 3. Specifically, for example, a game program executed by thecontrol unit 31 of theportable game apparatus 3 is stored. This game program is supplied to theportable game apparatus 3 via an information transmission medium such as a disk, CD-ROM, DVD-ROM or the like, or via a communication network such as the Internet. Thestorage unit 32 of theportable game apparatus 3 also operates as a work memory of thecontrol unit 31 of theportable game apparatus 3.

携帯型ゲーム装置3の通信部33は、例えば、ネットワークインタフェースなど(具体的には、例えば、無線LANモジュール)であり、携帯型ゲーム装置3の制御部31から入力される指示に従って、情報処理装置2などへ情報を送信する。また、この携帯型ゲーム装置3の通信部33は、受信される情報を携帯型ゲーム装置3の制御部31に出力する。  Thecommunication unit 33 of theportable game apparatus 3 is, for example, a network interface or the like (specifically, for example, a wireless LAN module), and the information processing apparatus according to an instruction input from thecontrol unit 31 of theportable game apparatus 3 Send information to 2 etc. In addition, thecommunication unit 33 of theportable game apparatus 3 outputs the received information to thecontrol unit 31 of theportable game apparatus 3.

本実施形態においては、情報処理装置2の通信部23、及び、携帯型ゲーム装置3の通信部33は、LANなどのネットワークに接続されており互いに通信することができるようになっている。なお、ネットワークは有線であっても無線であっても構わない。  In the present embodiment, thecommunication unit 23 of theinformation processing device 2 and thecommunication unit 33 of theportable game device 3 are connected to a network such as a LAN and can communicate with each other. The network may be wired or wireless.

携帯型ゲーム装置3の表示部34は、例えば液晶ディスプレイ等であり、携帯型ゲーム装置3の制御部31からの指示に従って、画像の表示を行う。本実施形態では、携帯型ゲーム装置3の表示部34は、携帯型ゲーム装置3の筐体30の正面中央部に設けられている。ここで、携帯型ゲーム装置3の制御部31は、携帯型ゲーム装置3の表示部34に、表示される画像の解像度やアスペクト比などといった属性を併せて指示してもよい。また、携帯型ゲーム装置3の制御部31は、実行するプログラムに含まれる、画像の解像度やアスペクト比などといった属性を示す属性情報の内容に従って携帯型ゲーム装置3の表示部34に表示される画像の属性を指示してもよい。  Thedisplay unit 34 of theportable game device 3 is, for example, a liquid crystal display, and displays an image in accordance with an instruction from thecontrol unit 31 of theportable game device 3. In the present embodiment, thedisplay unit 34 of theportable game apparatus 3 is provided in the center of the front surface of thehousing 30 of theportable game apparatus 3. Here, thecontrol unit 31 of theportable game apparatus 3 may instruct thedisplay unit 34 of theportable game apparatus 3 together with attributes such as the resolution and aspect ratio of the displayed image. Further, thecontrol unit 31 of theportable game apparatus 3 displays an image displayed on thedisplay unit 34 of theportable game apparatus 3 in accordance with the contents of attribute information indicating attributes such as image resolution and aspect ratio included in the program to be executed. You may indicate the attribute.

携帯型ゲーム装置3の操作部35は、例えば、操作部材(具体的には、例えば、十字キーやボタン)であり、当該操作部材に対する操作に応じた出力データを携帯型ゲーム装置3の制御部31に対して出力する。携帯型ゲーム装置3の制御部31は、この出力データを取得することで、当該出力データを用いてプレイヤの操作部材に対する操作に応じた処理を実行する。本実施形態では、携帯型ゲーム装置3の操作部35は、携帯型ゲーム装置3の表示部34の左右に設けられている。すなわち、携帯型ゲーム装置3の操作部35は、携帯型ゲーム装置3の筐体30の正面左側及び正面右側に分かれて配置されている。  Theoperation unit 35 of theportable game apparatus 3 is, for example, an operation member (specifically, for example, a cross key or a button), and output data corresponding to an operation on the operation member is output to the control unit of theportable game apparatus 3. 31 is output. Thecontrol unit 31 of theportable game apparatus 3 acquires the output data, and executes processing corresponding to the operation of the player on the operation member by using the output data. In the present embodiment, theoperation unit 35 of theportable game apparatus 3 is provided on the left and right of thedisplay unit 34 of theportable game apparatus 3. In other words, theoperation unit 35 of theportable game apparatus 3 is arranged separately on the front left side and the front right side of thehousing 30 of theportable game apparatus 3.

携帯型ゲーム装置3の撮像部36は、例えば、公知のデジタルカメラを含んで構成され、所定時間(例えば1/60秒)ごとに、白黒、グレイスケール又はカラーの画像(例えば、JPEG形式の画像)を生成する。なお、携帯型ゲーム装置3の撮像部36は、標準カメラであっても、望遠カメラであっても、広角カメラであっても構わない。本実施形態では、携帯型ゲーム装置3の撮像部36は、携帯型ゲーム装置3の表示部34の上側に設けられている。すなわち、携帯型ゲーム装置3の撮像部36は、筐体30の正面中央付近上側に設けられている。  Theimaging unit 36 of theportable game device 3 includes, for example, a known digital camera, and is a black and white, grayscale, or color image (for example, an image in JPEG format) every predetermined time (for example, 1/60 seconds). ) Is generated. Note that theimaging unit 36 of theportable game apparatus 3 may be a standard camera, a telephoto camera, or a wide-angle camera. In the present embodiment, theimaging unit 36 of theportable game device 3 is provided on the upper side of thedisplay unit 34 of theportable game device 3. That is, theimaging unit 36 of theportable game apparatus 3 is provided on the upper side near the front center of thehousing 30.

携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3と、その外部に存在する外部物体との距離を測定する。携帯型ゲーム装置3の距離測定部37は、例えば、携帯型ゲーム装置3の撮像部36と、外部物体(より具体的には、例えば、外部物体の表面)との距離(以下、物体距離と呼ぶ。)を測定し、物体距離を示す距離データを生成する。  Thedistance measuring unit 37 of theportable game device 3 measures the distance between theportable game device 3 and an external object existing outside theportable game device 3. Thedistance measuring unit 37 of theportable game apparatus 3 is, for example, a distance between theimaging unit 36 of theportable game apparatus 3 and an external object (more specifically, for example, the surface of the external object) (hereinafter referred to as object distance). To generate distance data indicating the object distance.

本実施形態では、携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3の撮像部36によって生成される画像に含まれる各画素と、各画素に対応する物体距離とを対応づけた距離データを生成する。すなわち、本実施形態では、携帯型ゲーム装置3の撮像部36によって生成される画像内の画素の位置と、携帯型ゲーム装置3の距離測定部37で測定される物体距離とは一対一で対応づけられる。  In the present embodiment, thedistance measuring unit 37 of theportable game apparatus 3 associates each pixel included in the image generated by theimaging unit 36 of theportable game apparatus 3 with the object distance corresponding to each pixel. Generate distance data. That is, in the present embodiment, there is a one-to-one correspondence between the pixel position in the image generated by theimaging unit 36 of theportable game device 3 and the object distance measured by thedistance measurement unit 37 of theportable game device 3. It is attached.

携帯型ゲーム装置3の距離測定部37は、具体的には、例えば、複数のレンズから構成されるステレオカメラであり、それぞれのレンズの視差に基づいて、外部物体と携帯型ゲーム装置3との距離を測定する。携帯型ゲーム装置3の距離測定部37は、ステレオカメラにはもちろん限定されず、携帯型ゲーム装置3の距離測定部37は、赤外線を出力して、その赤外線が撮像対象オブジェクトに反射して戻ってくるまでの時間を測定して、その測定された時間に基づいて、外部物体と携帯型ゲーム装置3との距離を測定しても構わない。また、携帯型ゲーム装置3の距離測定部37が、焦点距離の異なる複数のレンズから構成され、これらのレンズのうち、外部物体に対してピントが合ったレンズに基づいて、外部物体と携帯型ゲーム装置3との距離を測定しても構わない。なお、本実施形態では、携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3の撮像部36と一体的に形成されており、表示部34の上側に設けられている。すなわち、携帯型ゲーム装置3の距離測定部37は、正面中央付近上側に設けられている。  Specifically, thedistance measuring unit 37 of theportable game apparatus 3 is, for example, a stereo camera composed of a plurality of lenses. Based on the parallax of each lens, the distance between the external object and theportable game apparatus 3 is determined. Measure distance. Of course, thedistance measuring unit 37 of theportable game apparatus 3 is not limited to a stereo camera, and thedistance measuring unit 37 of theportable game apparatus 3 outputs infrared rays, and the infrared rays are reflected back to the imaging target object. You may measure the time until it comes and measure the distance between the external object and theportable game apparatus 3 based on the measured time. In addition, thedistance measuring unit 37 of theportable game apparatus 3 includes a plurality of lenses having different focal lengths, and among these lenses, the external object and the portable type are based on a lens that is in focus with respect to the external object. The distance from thegame apparatus 3 may be measured. In the present embodiment, thedistance measuring unit 37 of theportable game apparatus 3 is formed integrally with theimaging unit 36 of theportable game apparatus 3 and is provided on the upper side of thedisplay unit 34. That is, thedistance measuring unit 37 of theportable game apparatus 3 is provided on the upper side near the front center.

本実施形態では、携帯型ゲーム装置3の撮像部36が、所定の時間(例えば1/60秒)ごとに、被写体ユーザ40の動く様子を撮像し、順次、ユーザ画像42(フレーム画像)を生成する(図3参照)。ここで、順次生成されるユーザ画像42には、フレームの識別子であるフレームID44が関連付けられる(図4参照)。図3に、順次生成されるユーザ画像42のうちの1つの一例を示す。ここで、被写体ユーザ40は移動体の一例として示しているにすぎない。撮像部36が、被写体ユーザ40以外の移動体が動く様子を撮像して、その移動体の画像を生成するようにしても構わない。  In the present embodiment, theimaging unit 36 of theportable game apparatus 3 captures the movement of thesubject user 40 every predetermined time (for example, 1/60 seconds), and sequentially generates a user image 42 (frame image). (See FIG. 3). Here, aframe ID 44, which is a frame identifier, is associated with the sequentially generated user images 42 (see FIG. 4). FIG. 3 shows an example of one of theuser images 42 that are sequentially generated. Here, thesubject user 40 is only shown as an example of a moving object. Theimaging unit 36 may capture an image of a moving body other than thesubject user 40 and generate an image of the moving body.

そして、携帯型ゲーム装置3の通信部33が、互いに関連付けられているフレームID44とユーザ画像42とを含む画像データ46を情報処理装置2に送信する。そして、情報処理装置2の通信部23がこの画像データ46を受信する。図4に、画像データ46のデータ構造の一例を示す。  Then, thecommunication unit 33 of theportable game apparatus 3 transmitsimage data 46 including theframe ID 44 and theuser image 42 associated with each other to theinformation processing apparatus 2. Then, thecommunication unit 23 of theinformation processing apparatus 2 receives thisimage data 46. FIG. 4 shows an example of the data structure of theimage data 46.

次に、本実施形態に係る情報処理装置2により実現される機能を説明する。図5は、本実施形態に係る情報処理装置2の機能ブロック図である。図5に示すように、本実施形態に係る情報処理装置2は、機能的には、識別子受付部50、受付識別子データ保持部52、移動体要素データ記憶部54、基礎モーションデータ生成部56、基礎モーションデータ取得部58、モーションデータ記憶部60、規則データ記憶部62、規則データ選択部64、生成モーションデータ生成部66、画像生成部68を含むものとして機能する。識別子受付部50、基礎モーションデータ生成部56、基礎モーションデータ取得部58、規則データ選択部64、生成モーションデータ生成部66、画像生成部68は情報処理装置2の制御部21を主として実現されている。受付識別子データ保持部52、移動体要素データ記憶部54、モーションデータ記憶部60、規則データ記憶部62は情報処理装置2の記憶部22を主として実現されている。これらの要素は、コンピュータである情報処理装置2にインストールされたプログラムを、情報処理装置2に含まれるCPU等の制御部21で実行することにより実現されている。なお、このプログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ可読な情報伝達媒体を介して、あるいは、インターネットなどの通信ネットワークを介して情報処理装置2に供給される。  Next, functions realized by theinformation processing apparatus 2 according to the present embodiment will be described. FIG. 5 is a functional block diagram of theinformation processing apparatus 2 according to the present embodiment. As shown in FIG. 5, theinformation processing apparatus 2 according to the present embodiment functionally includes anidentifier receiving unit 50, a received identifierdata holding unit 52, a mobile elementdata storage unit 54, a basic motiondata generation unit 56, It functions as including a basic motiondata acquisition unit 58, a motiondata storage unit 60, a ruledata storage unit 62, a ruledata selection unit 64, a generated motiondata generation unit 66, and animage generation unit 68. Theidentifier receiving unit 50, the basic motiondata generating unit 56, the basic motiondata acquiring unit 58, the ruledata selecting unit 64, the generated motiondata generating unit 66, and theimage generating unit 68 are realized mainly by thecontrol unit 21 of theinformation processing apparatus 2. Yes. The reception identifierdata holding unit 52, the moving body elementdata storage unit 54, the motiondata storage unit 60, and the ruledata storage unit 62 are realized mainly by thestorage unit 22 of theinformation processing apparatus 2. These elements are realized by executing a program installed in theinformation processing apparatus 2, which is a computer, by thecontrol unit 21 such as a CPU included in theinformation processing apparatus 2. Note that this program is supplied to theinformation processing apparatus 2 via a computer-readable information transmission medium such as a CD-ROM or DVD-ROM or via a communication network such as the Internet.

識別子受付部50は、移動体の識別子を受け付ける。本実施形態では、識別子受付部50は、図6に示すような、移動体選択画面70(第1移動体選択画面)を情報処理装置2のディスプレイなどのUI部24に表示出力する。移動体選択画面70には、移動体の種類を示す移動体名ボタン72が複数表示されている。それぞれの移動体名ボタン72は、その移動体の識別子である移動体ID74と関連付けられている(図7参照)。そして、ユーザにより移動体名ボタン72(例えば、「人間」と表示されている移動体名ボタン72)がクリックされると、識別子受付部50は、その移動体名ボタン72に関連付けられている移動体ID74(例えば、「1」)を取得して、取得した移動体ID74の値を、受付識別子データ76に含まれる第1移動体ID74−1の値に設定する(図7参照)。そして、識別子受付部50は、図6に示す移動体選択画面70と同様の画面構成である、移動体選択画面70(第2移動体選択画面(図示せず))を情報処理装置2のディスプレイなどのUI部24に表示出力する。そして、ユーザにより移動体名ボタン72(例えば、「クモ」と表示されている移動体名ボタン72)がクリックされると、識別子受付部50は、その移動体名ボタン72に関連付けられている移動体ID74(例えば、「2」)を取得して、取得した移動体ID74の値を、受付識別子データ76に含まれる第2移動体ID74−2の値に設定する(図7参照)。  Theidentifier receiving unit 50 receives the identifier of the moving object. In the present embodiment, theidentifier receiving unit 50 displays and outputs a moving body selection screen 70 (first moving body selection screen) as shown in FIG. 6 on theUI unit 24 such as a display of theinformation processing apparatus 2. On the movingobject selection screen 70, a plurality of movingobject name buttons 72 indicating the types of moving objects are displayed. Each movingbody name button 72 is associated with a movingbody ID 74 that is an identifier of the moving body (see FIG. 7). Then, when the user clicks on the moving body name button 72 (for example, the movingbody name button 72 displayed as “human”), theidentifier receiving unit 50 moves related to the movingbody name button 72. The body ID 74 (for example, “1”) is acquired, and the value of the acquiredmobile body ID 74 is set to the value of the first mobile body ID 74-1 included in the reception identifier data 76 (see FIG. 7). Theidentifier receiving unit 50 displays the mobile object selection screen 70 (second mobile object selection screen (not shown)) having the same screen configuration as the mobileobject selection screen 70 shown in FIG. Display on theUI unit 24. Then, when the user clicks on the moving body name button 72 (for example, the movingbody name button 72 displayed as “spider”), theidentifier receiving unit 50 moves related to the movingbody name button 72. The body ID 74 (for example, “2”) is acquired, and the value of the acquiredmobile body ID 74 is set to the value of the second mobile body ID 74-2 included in the reception identifier data 76 (see FIG. 7).

図7は、受付識別子データ76のデータ構造の一例を示す図である。図7に示すように、受付識別子データ76は、第1移動体ID74−1と、第2移動体ID74−2とを含んでいる。受付識別子データ保持部52は、この受付識別子データ76を保持する。受付識別子データ保持部52は、具体的には、例えば、第1移動体ID74−1の値が「1」であり、第2移動体ID74−2の値が「2」である受付識別子データを保持する。  FIG. 7 is a diagram illustrating an example of the data structure of thereception identifier data 76. As shown in FIG. 7, thereception identifier data 76 includes a first mobile body ID 74-1 and a second mobile body ID 74-2. The reception identifierdata holding unit 52 holds thereception identifier data 76. Specifically, for example, the reception identifierdata holding unit 52 stores reception identifier data in which the value of the first mobile body ID 74-1 is “1” and the value of the second mobile body ID 74-2 is “2”. Hold.

本実施形態では、図8に示すように、被写体ユーザ40は、例えば、右肩ノード要素78−1、右腰ノード要素78−2、右ひじノード要素78−3、右手ノード要素78−4、右ひざノード要素78−5、右足ノード要素78−6などの複数のノード要素78を含んでいる。また、被写体ユーザ40は、これらのノード要素78を接続するリンク要素80や、複数のリンク要素80により構成されるポリゴン要素82も含んでいる。図8は、被写体ユーザ40に含まれる各要素の一例を示す図である。なお、このように、移動体は複数の要素を含んでいてもよい。  In the present embodiment, as shown in FIG. 8, thesubject user 40 has, for example, a right shoulder node element 78-1, a right waist node element 78-2, a right elbow node element 78-3, a right hand node element 78-4, A plurality of node elements 78 such as a right knee node element 78-5 and a right foot node element 78-6 are included. Thesubject user 40 also includes alink element 80 that connects these node elements 78 and apolygon element 82 constituted by a plurality oflink elements 80. FIG. 8 is a diagram illustrating an example of each element included in thesubject user 40. In this way, the moving body may include a plurality of elements.

そして、移動体要素データ記憶部54は、本実施形態では、図9に示すような、それぞれのノード要素78を示すノードデータ84、それぞれのリンク要素80を示すリンクデータ86、それぞれのポリゴン要素82を示すポリゴンデータ88を含む移動体要素データ90を記憶する。このように、移動体要素データ記憶部54は、移動体に含まれる要素を示す移動体要素データ90を複数記憶する。  In this embodiment, the mobile elementdata storage unit 54 is configured such thatnode data 84 indicating each node element 78,link data 86 indicating eachlink element 80, and eachpolygon element 82 as shown in FIG. The movingbody element data 90 including thepolygon data 88 indicating is stored. As described above, the moving body elementdata storage unit 54 stores a plurality of movingbody element data 90 indicating elements included in the moving body.

ノードデータ84は、移動体ID74、ノード要素78の識別子であるノードID92、ノード要素78の名称を示すノード名94を含む。リンクデータ86は、移動体ID74、リンク要素80の識別子であるリンクID96、リンク要素80の名称を示すリンク名98、リンク要素80の始点となるノード要素78の識別子である始点ノードID92a、リンク要素80の終点となるノード要素78の識別子である終点ノードID92bを含む。ポリゴンデータ88は、移動体ID74、ポリゴン要素82の識別子であるポリゴンID100、ポリゴン要素82の名称を示すポリゴン名102、複数のリンクID96(第1リンクID96−1、第2リンクID96−2、・・・)を含む。ここで、ポリゴンデータ88に含まれる複数のリンクID96は、ポリゴンID100が示すポリゴン要素82を構成するリンク要素80を示している。なお、本実施形態では、移動体要素データ90は、要素間の接続関係も併せて示している。  Thenode data 84 includes amobile object ID 74, anode ID 92 that is an identifier of the node element 78, and anode name 94 that indicates the name of the node element 78. Thelink data 86 includes amobile body ID 74, alink ID 96 that is an identifier of thelink element 80, alink name 98 that indicates the name of thelink element 80, astart node ID 92a that is an identifier of the node element 78 that is the start point of thelink element 80, and a link element. It includes an endpoint node ID 92b which is an identifier of the node element 78 which is the end point of 80. Thepolygon data 88 includes a movingbody ID 74, apolygon ID 100 which is an identifier of thepolygon element 82, apolygon name 102 indicating the name of thepolygon element 82, a plurality of link IDs 96 (first link ID 96-1, second link ID 96-2,. ··)including. Here, a plurality oflink IDs 96 included in thepolygon data 88 indicatelink elements 80 constituting thepolygon element 82 indicated by thepolygon ID 100. In the present embodiment, themobile element data 90 also shows the connection relationship between elements.

基礎モーションデータ生成部56は、携帯型ゲーム装置3から送信される画像に基づいて、所定の移動体の動きを示すモーションデータ104(基礎モーションデータ)を生成する(図10参照)。具体的には、例えば、基礎モーションデータ生成部56は、携帯型ゲーム装置3から送信される各ユーザ画像42に基づいて、例えば、パターン認識技術を用いて、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第1移動体ID74−1に対応する各要素の位置座標を特定する。なお、本実施形態では、被写体ユーザ40に含まれるノード要素78の位置座標が特定されることにより、移動体要素データ90により示されている要素間の接続関係に基づいて、被写体ユーザ40に含まれるすべての要素の位置座標が特定される。  The basic motiondata generation unit 56 generates motion data 104 (basic motion data) indicating the movement of a predetermined moving body based on the image transmitted from the portable game apparatus 3 (see FIG. 10). Specifically, for example, the basic motiondata generation unit 56 holds the reception identifierdata holding unit 52 using, for example, pattern recognition technology based on eachuser image 42 transmitted from theportable game apparatus 3. The position coordinates of each element corresponding to the first mobile body ID 74-1 included in the receivedidentifier data 76 are specified. In the present embodiment, by specifying the position coordinates of the node element 78 included in thesubject user 40, thesubject user 40 is included based on the connection relationship between the elements indicated by the movingbody element data 90. The position coordinates of all elements to be identified are specified.

ここで、基礎モーションデータ生成部56は、ユーザ画像42内の各画素の色に基づいて、各要素の位置座標を特定するようにしても、もちろん構わない。また、基礎モーションデータ生成部56は、既存の光学式モーションキャプチャ技術などを利用して各要素のユーザ画像42内の位置座標を特定しても構わない。また、情報処理装置2のディスプレイなどのUI部24にユーザ画像42を表示して、マウスなどのUI部24からユーザにより入力される位置情報を取得して、その位置情報に基づいて、各要素の位置座標を特定するようにしてもよい。  Here, it goes without saying that the basic motiondata generation unit 56 may specify the position coordinates of each element based on the color of each pixel in theuser image 42. Further, the basic motiondata generation unit 56 may specify the position coordinates of each element in theuser image 42 using an existing optical motion capture technique or the like. Further, theuser image 42 is displayed on theUI unit 24 such as a display of theinformation processing apparatus 2, position information input by the user from theUI unit 24 such as a mouse is acquired, and each element is based on the position information. The position coordinates may be specified.

そして、本実施形態では、基礎モーションデータ生成部56は、図10に示す、ユーザ画像42に関連付けられているフレームID44、移動体ID74、各ノード要素78(本実施形態では、被写体ユーザ40に含まれるノード要素78)に対応するノードID92、基礎モーションデータ生成部56により特定される、ノード要素78の位置座標の値を示すノード位置座標106を含むモーションデータ104(基礎モーションデータ)を生成する。ここで、本実施形態では、基礎モーションデータ生成部56は、モーションデータ104に含まれる移動体ID74の値として、受付識別子データ76に含まれる第1移動体ID74−1の値(例えば、「1」)を設定する。このように、本実施形態では、モーションデータ104は、各フレームにおける、移動体に含まれる各要素の位置座標を示している。そして、所定の移動体ID74と関連付けられているモーションデータ104をフレームID44順に組み合わせることによって、移動体に含まれる各要素の動きが示されることとなる。  In this embodiment, the basic motiondata generation unit 56 includes aframe ID 44, a movingbody ID 74, and each node element 78 (in this embodiment, included in the subject user 40) associated with theuser image 42 shown in FIG. Motion data 104 (basic motion data) including thenode ID 92 corresponding to the node element 78) and the node position coordinates 106 indicating the position coordinate value of the node element 78 specified by the basic motiondata generation unit 56 is generated. Here, in the present embodiment, the basic motiondata generation unit 56 uses the value of the first mobile body ID 74-1 included in the reception identifier data 76 (for example, “1” as the value of themobile body ID 74 included in themotion data 104. )). As described above, in the present embodiment, themotion data 104 indicates the position coordinates of each element included in the moving body in each frame. Then, by combining themotion data 104 associated with the predetermined movingbody ID 74 in the order of theframe ID 44, the movement of each element included in the moving body is indicated.

なお、基礎モーションデータ生成部56が、移動体ID74と関連付けられて情報処理装置2の記憶部22に予め記憶されている、移動体ID74が示す移動体の画像から、その移動体に含まれる各要素の位置座標を特定する方法を示す特定方法データを用いて、各要素の位置座標を特定するようにしてもよい。  It should be noted that the basic motiondata generation unit 56 is associated with the movingobject ID 74 and stored in advance in thestorage unit 22 of theinformation processing apparatus 2, and includes each moving object included in the moving object indicated by the movingobject ID 74. The position coordinates of each element may be specified using identification method data indicating a method for identifying the position coordinates of the element.

基礎モーションデータ取得部58は、所定の移動体の動きを示すモーションデータ104(基礎モーションデータ)を取得する。本実施形態では、基礎モーションデータ取得部58は、基礎モーションデータ生成部56により生成されるモーションデータ104を取得して、モーションデータ記憶部60に出力する。  The basic motiondata acquisition unit 58 acquires motion data 104 (basic motion data) indicating the movement of a predetermined moving body. In the present embodiment, the basic motiondata acquisition unit 58 acquires themotion data 104 generated by the basic motiondata generation unit 56 and outputs it to the motiondata storage unit 60.

モーションデータ記憶部60は、基礎モーションデータ取得部58により取得されるモーションデータ104(基礎モーションデータ)を記憶する。  The motiondata storage unit 60 stores the motion data 104 (basic motion data) acquired by the basic motiondata acquisition unit 58.

規則データ記憶部62は、移動体の識別子に関連付けて、この識別子が示す移動体の動きを、所定の移動体の動きに基づいて決定する規則を示す規則データ110を複数記憶する(図11参照)。そして、本実施形態では、規則データ記憶部62は、図11に示す、第1の移動体(本実施形態では、例えば「人間」)の識別子である第1移動体ID74−1、第1移動体ID74−1が示す移動体とは異なる第2の移動体(本実施形態では、例えば「クモ」)の識別子である第2移動体ID74−2、第1移動体ID74−1が示す移動体の動きに基づいて、第2移動体ID74−2が示す移動体の動きを決定する規則を示す規則データ110と、を含む移動体対応管理データ108を複数記憶する。  The ruledata storage unit 62 stores a plurality ofrule data 110 indicating rules for determining the movement of the moving object indicated by the identifier based on the movement of the predetermined moving object in association with the identifier of the moving object (see FIG. 11). ). In the present embodiment, the ruledata storage unit 62 includes the first moving body ID 74-1 and the first moving body, which are identifiers of the first moving body (for example, “human” in the present embodiment) shown in FIG. The second moving body ID 74-2 and the moving body indicated by the first moving body ID 74-1, which are identifiers of a second moving body (in this embodiment, for example, “spider”) different from the moving body indicated by the body ID 74-1. A plurality of moving objectcorrespondence management data 108 includingrule data 110 indicating rules for determining the movement of the moving object indicated by the second moving object ID 74-2 is stored.

具体的には、例えば、規則データ110は、第1移動体ID74−1が示す移動体に含まれる各要素の位置座標(例えば、ノード位置座標106)に基づいて、第2移動体ID74−2が示す移動体に含まれる各要素の位置座標(例えば、ノード位置座標106)を算出する規則を示している。規則データ110が示す規則の詳細については後述する。  Specifically, for example, therule data 110 is based on the position coordinates (for example, node position coordinates 106) of each element included in the moving object indicated by the first moving object ID 74-1, and the second moving object ID 74-2. The rule which calculates the position coordinate (for example, node position coordinate 106) of each element contained in the moving body shown by is shown. Details of the rules indicated by therule data 110 will be described later.

規則データ選択部64は、規則データ記憶部62に記憶されている複数の規則データ110のうちから、識別子受付部50が受け付ける識別子と関連付けられる規則データ110を選択する。本実施形態では、規則データ選択部64は、規則データ記憶部62に記憶されている複数の移動体対応管理データ108のうちから、第1移動体ID74−1の値が、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第1移動体ID74−1の値(例えば、「1」)と対応しており、第2移動体ID74−2の値が、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第2移動体ID74−2の値(例えば、「2」)と対応している移動体対応管理データ108を選択する。そして、規則データ選択部64は、この移動体対応管理データ108に含まれる規則データ110を選択する。  The ruledata selecting unit 64 selects therule data 110 associated with the identifier received by theidentifier receiving unit 50 from the plurality ofrule data 110 stored in the ruledata storage unit 62. In the present embodiment, the ruledata selection unit 64 is configured such that the value of the first mobile body ID 74-1 is the reception identifier data storage unit among the plurality of mobile bodycorrespondence management data 108 stored in the ruledata storage unit 62. 52 corresponds to the value (for example, “1”) of the first mobile body ID 74-1 included in thereception identifier data 76 held by the 52, and the value of the second mobile body ID 74-2 holds the reception identifier data. The mobile unitcorrespondence management data 108 corresponding to the value (for example, “2”) of the second mobile unit ID 74-2 included in thereception identifier data 76 held by theunit 52 is selected. Then, the ruledata selection unit 64 selects therule data 110 included in the moving objectcorrespondence management data 108.

生成モーションデータ生成部66は、基礎モーションデータ取得部58により取得される、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第1移動体ID74−1の値(例えば、「1」)が示す移動体(例えば、人間)の動きを示すモーションデータ104(基礎モーションデータ)に、規則データ選択部64により選択される規則データ110が示す規則を適用して、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第2移動体ID74−2の値(例えば、「2」)が示す移動体(例えば、クモ)の動きを示すモーションデータ104(生成モーションデータ)を生成する。  The generated motiondata generation unit 66 acquires the value of the first mobile body ID 74-1 included in thereception identifier data 76 acquired by the basic motiondata acquisition unit 58 and held in the reception identifier data holding unit 52 (for example, “ 1 ”) is applied to the motion data 104 (basic motion data) indicating the movement of the moving object (for example, human) indicated by the ruledata selection unit 64 and the reception identifier data is retained. Motion data 104 (generated motion data) indicating the motion of the mobile object (eg, spider) indicated by the value (eg, “2”) of the second mobile object ID 74-2 included in thereception identifier data 76 held by the unit 52 ) Is generated.

図12は、生成モーションデータ生成部66が、図8に示す被写体ユーザ40に含まれる各要素に規則データ110が示す規則を適用することにより生成されるクモオブジェクト112に含まれる各要素を示す図である。  FIG. 12 is a diagram showing each element included in thespider object 112 generated by the generated motiondata generation unit 66 applying the rule indicated by therule data 110 to each element included in thesubject user 40 shown in FIG. It is.

本実施形態では、クモオブジェクト112が、例えば、第1右足付け根ノード要素78−7、第2右足付け根ノード要素78−8、第3右足付け根ノード要素78−9、第4右足付け根ノード要素78−10、第1右足関節ノード要素78−11、第2右足関節ノード要素78−12、第3右足関節ノード要素78−13、第4右足関節ノード要素78−14などを含んでいる。  In the present embodiment, thespider object 112 includes, for example, a first right foot root node element 78-7, a second right foot root node element 78-8, a third right foot root node element 78-9, and a fourth right foot root node element 78-. 10, a first right foot joint node element 78-11, a second right foot joint node element 78-12, a third right foot joint node element 78-13, a fourth right foot joint node element 78-14, and the like.

また、クモオブジェクト112は、これらのノード要素78を接続するリンク要素80や、複数のリンク要素80により構成されるポリゴン要素82も含んでいる。  Thespider object 112 also includes alink element 80 that connects these node elements 78 and apolygon element 82 composed of a plurality oflink elements 80.

そして、生成モーションデータ生成部66は、生成の基礎となるユーザ画像42に関連付けられているフレームID44、移動体ID74、各ノード要素78(本実施形態では、クモオブジェクト112に含まれるノード要素78)に対応するノードID92、ノード要素78の位置座標の値を示すノード位置座標106を含むモーションデータ104(生成モーションデータ)を生成する。ここで、本実施形態では、生成モーションデータ生成部66は、モーションデータ104に含まれる移動体ID74の値として、受付識別子データ76に含まれる第2移動体ID74−2の値(例えば、「2」)を設定する。  Then, the generated motiondata generating unit 66 includes aframe ID 44, a movingbody ID 74, and each node element 78 (in this embodiment, a node element 78 included in the spider object 112) associated with theuser image 42 that is the basis of generation. Motion data 104 (generated motion data) including thenode ID 92 and the node position coordinate 106 indicating the value of the position coordinate of the node element 78 corresponding to. Here, in the present embodiment, the generated motiondata generation unit 66 uses the value of the second mobile object ID 74-2 included in the reception identifier data 76 (for example, “2” as the value of themobile object ID 74 included in themotion data 104. )).

そして、このような、移動体ID74の値に「2」が設定されているモーションデータ104(以下、第2モーションデータ104−2と呼ぶ。)に含まれるノード位置座標106は、移動体ID74に「1」が設定されているモーションデータ104(以下、第1モーションデータ104−1と呼ぶ。)に含まれるノード位置座標106に対して、規則データ選択部64により選択される規則データ110が示す規則を適用することにより算出される。  Then, the node position coordinates 106 included in the motion data 104 (hereinafter referred to as second motion data 104-2) in which the value of themobile object ID 74 is set to “2” is referred to as themobile object ID 74. Therule data 110 selected by the ruledata selection unit 64 with respect to the node position coordinates 106 included in themotion data 104 set to “1” (hereinafter referred to as the first motion data 104-1) indicates. Calculated by applying rules.

規則データ110には、例えば、第1モーションデータ104−1に含まれるノード位置座標106を、第2モーションデータ104−2に含まれるノード位置座標106に設定する規則が示されていてもよい。具体的には、例えば、規則データ110には、右肩ノード要素78−1に対応する第1モーションデータ104−1に含まれるノード位置座標106を、第1右足付け根ノード要素78−7に対応する第2モーションデータ104−2に含まれるノード位置座標106として設定する規則が示されていてもよい。  For example, therule data 110 may indicate a rule for setting the node position coordinates 106 included in the first motion data 104-1 to the node position coordinates 106 included in the second motion data 104-2. Specifically, for example, in therule data 110, the node position coordinate 106 included in the first motion data 104-1 corresponding to the right shoulder node element 78-1 corresponds to the first right foot root node element 78-7. A rule to be set as the node position coordinate 106 included in the second motion data 104-2 may be indicated.

また、規則データ110には、例えば、第1モーションデータ104−1と第2モーションデータ104−2とのうちの一方に含まれる複数のノード位置座標106の組合せと、他方に含まれる1つのノード位置座標106とを対応づける規則が示されていてもよい。具体的には、例えば、規則データ110には、右肩ノード要素78−1に対応する第1モーションデータ104−1に含まれるノード位置座標106と、右腰ノード要素78−2に対応する第1モーションデータ104−1に含まれるノード位置座標106とを、1:2に内分する点の位置座標を、第2右足付け根ノード要素78−8に対応する第2モーションデータ104−2に含まれるノード位置座標106として設定する規則が示されていてもよい。このような規則が規則データ110に示されることで、被写体ユーザ40に含まれるノード要素78の数と、クモオブジェクト112に含まれるノード要素78の数が異なっていても、クモオブジェクト112に含まれる各ノード要素78のノード位置座標106を算出することができる。すなわち、基礎モーションデータに基づいて生成モーションデータを生成する際に、ノード要素78を追加したり削除したりすることが可能となる。  Therule data 110 includes, for example, a combination of a plurality of node position coordinates 106 included in one of the first motion data 104-1 and the second motion data 104-2, and one node included in the other. A rule for associating the position coordinate 106 may be shown. Specifically, for example, therule data 110 includes the node position coordinates 106 included in the first motion data 104-1 corresponding to the right shoulder node element 78-1 and the first position corresponding to the right waist node element 78-2. The position coordinates of a point that internally divides the node position coordinates 106 included in the 1 motion data 104-1 into 1: 2 are included in the second motion data 104-2 corresponding to the second right foot root node element 78-8. A rule to be set as the node position coordinates 106 may be indicated. By displaying such a rule in therule data 110, even if the number of node elements 78 included in thesubject user 40 and the number of node elements 78 included in thespider object 112 are different, they are included in thespider object 112. The node position coordinates 106 of each node element 78 can be calculated. That is, the node element 78 can be added or deleted when generating the generated motion data based on the basic motion data.

また、規則データ110には、例えば、互いに異なる複数のフレームID44それぞれに対応づけられている複数の第1モーションデータ104−1に含まれるノード位置座標106の組合せに基づいて、第2モーションデータ104−2に含まれるノード位置座標106を算出する規則が示されていてもよい。具体的には、例えば、規則データ110には、フレームID44の値が「1」である、右ひじノード要素78−3に対応する第1モーションデータ104−1に含まれるノード位置座標106と、フレームID44の値が「2」である、右ひざノード要素78−5に対応する第1モーションデータ104−1に含まれるノード位置座標106とを、1:2に内分する点の位置座標を、フレームID44の値が「3」である、第2右足関節ノード要素78−12に対応する第2モーションデータ104−2のノード位置座標106として設定する規則が示されていてもよい。このような規則が規則データ110に示されることで、生成モーションデータ生成部66は、被写体ユーザ40が撮像されたタイミングのずれを活かした生成モーションデータの生成が可能となる。このことにより、後述する画像生成部68により生成される動画像(本実施形態では一連のクモ画像114(図13参照)から構成される動画像)の不自然さが軽減されることがある。  Therule data 110 includes, for example, thesecond motion data 104 based on a combination of node position coordinates 106 included in the plurality of first motion data 104-1 associated with each of a plurality ofdifferent frame IDs 44. A rule for calculating the node position coordinates 106 included in -2 may be indicated. Specifically, for example, in therule data 110, the node position coordinates 106 included in the first motion data 104-1 corresponding to the right elbow node element 78-3, the value of theframe ID 44 being “1”, A position coordinate of a point that internally divides the node position coordinate 106 included in the first motion data 104-1 corresponding to the right knee node element 78-5 having the value of theframe ID 44 "2" is 1: 2. A rule that is set as the node position coordinate 106 of the second motion data 104-2 corresponding to the second right ankle joint node element 78-12 having a value of theframe ID 44 of “3” may be indicated. By indicating such a rule in therule data 110, the generated motiondata generating unit 66 can generate generated motion data by taking advantage of the timing shift when thesubject user 40 is imaged. This may reduce the unnaturalness of a moving image (moving image composed of a series of spider images 114 (see FIG. 13) in the present embodiment) generated by theimage generation unit 68 described later.

また、規則データ110が上述に示されている規則以外の規則を示してもよい。具体的には、例えば、規則データ110には、第1の移動体(例えば、被写体ユーザ40)に含まれる要素の位置座標に対して、線形変換やアフィン変換などといった所定の数学的な変換を施して、第2の移動体(例えば、クモオブジェクト112)に含まれる要素の位置座標を算出する規則が示されていてもよい。また、例えば、規則データ110には、リンク要素80の長さを変更したり、リンク要素80を回転したり、ポリゴン要素82の大きさを変更するなどの規則が示されていてもよい。なお、規則データ110には、第2の移動体(例えば、クモオブジェクト112)に含まれるリンク要素80(あるいは、ポリゴン要素82)の位置を、第1の移動体(例えば、被写体ユーザ40)に含まれるリンク要素80(あるいは、ポリゴン要素82)に基づいて決定する規則が示されていてもよい。  Therule data 110 may indicate a rule other than the rules shown above. Specifically, for example, therule data 110 is subjected to predetermined mathematical transformation such as linear transformation or affine transformation on the position coordinates of the elements included in the first moving body (for example, the subject user 40). The rule for calculating the position coordinates of the elements included in the second moving body (for example, the spider object 112) may be indicated. Further, for example, therule data 110 may indicate rules such as changing the length of thelink element 80, rotating thelink element 80, and changing the size of thepolygon element 82. In therule data 110, the position of the link element 80 (or the polygon element 82) included in the second moving body (for example, the spider object 112) is indicated to the first moving body (for example, the subject user 40). Rules that are determined based on the included link element 80 (or polygon element 82) may be shown.

また、規則データ110には、例えば、第1モーションデータ104−1に含まれる、乱数に基づいて決定される、ノード位置座標106のうちの1つを、第2モーションデータ104−2のノード位置座標106として設定する規則が示されていてもよい。  Therule data 110 includes, for example, one of the node position coordinates 106 determined based on a random number included in the first motion data 104-1, and the node position of the second motion data 104-2. A rule to be set as thecoordinates 106 may be shown.

そして、生成モーションデータ生成部66は、このようにして生成される生成モーションデータを、モーションデータ記憶部60に出力する。  Then, the generated motiondata generation unit 66 outputs the generated motion data generated in this way to the motiondata storage unit 60.

画像生成部68は、生成モーションデータ生成部66により生成される生成モーションデータに基づいて、受付識別子データ保持部52が保持している受付識別子データ76に含まれる第2移動体ID74−2が示す移動体の画像を生成する。本実施形態では、画像生成部68は、生成された移動体の画像を情報処理装置2のディスプレイなどのUI部24に表示出力する。  Based on the generated motion data generated by the generated motiondata generating unit 66, theimage generating unit 68 indicates the second mobile body ID 74-2 included in thereception identifier data 76 held by the reception identifierdata holding unit 52. Generate an image of a moving object. In the present embodiment, theimage generation unit 68 displays and outputs the generated moving body image on theUI unit 24 such as a display of theinformation processing apparatus 2.

具体的には、例えば、画像生成部68は、図12に示すクモオブジェクト112に含まれる各要素の位置座標に基づいて、図13に示すクモ画像114を生成する。また、本実施形態では、画像生成部68は、移動体の画像を順次生成し、情報処理装置2のUI部24に順次出力するので、移動体が動く様子が情報処理装置2のUI部24に表示されることとなる。  Specifically, for example, theimage generation unit 68 generates thespider image 114 illustrated in FIG. 13 based on the position coordinates of each element included in thespider object 112 illustrated in FIG. Further, in the present embodiment, theimage generation unit 68 sequentially generates images of the moving body and sequentially outputs them to theUI unit 24 of theinformation processing apparatus 2, so that the movement of the moving body is theUI unit 24 of theinformation processing apparatus 2. Will be displayed.

ここで、第1移動体ID74−1の値が「1」であり、第2移動体ID74−2の値が「2」である受付識別子データ76が受付識別子データ保持部52に保持されている場合において、図3に示すユーザ画像42(値が「t」であるフレームID44に関連付けられている)を取得してから、図13に示すクモ画像114が情報処理装置2のUI部24に表示出力されるまでの処理の流れを図14に示すフロー図を参照しながら説明する。  Here, thereception identifier data 76 in which the value of the first mobile body ID 74-1 is “1” and the value of the second mobile body ID 74-2 is “2” is held in the reception identifierdata holding unit 52. In this case, theuser image 42 shown in FIG. 3 (associated with theframe ID 44 whose value is “t”) is acquired, and then thespider image 114 shown in FIG. 13 is displayed on theUI unit 24 of theinformation processing apparatus 2. The process flow until output will be described with reference to the flowchart shown in FIG.

まず、基礎モーションデータ生成部56が、ユーザ画像42に表示されている被写体ユーザ40に含まれる各ノード要素78の位置座標を特定する(S1)。そして、基礎モーションデータ生成部56が、「t」の値が設定されるフレームID44、「1」の値が設定される移動体ID74、被写体ユーザ40に含まれる各ノード要素78のノードID92、そのノード要素78のノード位置座標106を含むモーションデータ104を生成する(S2)。このとき、ユーザ画像42に表示されている被写体ユーザ40には、複数のノード要素78が含まれているので、基礎モーションデータ生成部56は、モーションデータ104を複数生成することとなる。  First, the basic motiondata generation unit 56 specifies the position coordinates of each node element 78 included in thesubject user 40 displayed in the user image 42 (S1). Then, the basic motiondata generation unit 56 sets theframe ID 44 in which the value of “t” is set, the movingbody ID 74 in which the value of “1” is set, thenode ID 92 of each node element 78 included in thesubject user 40,Motion data 104 including the node position coordinates 106 of the node element 78 is generated (S2). At this time, since thesubject user 40 displayed in theuser image 42 includes a plurality of node elements 78, the basic motiondata generation unit 56 generates a plurality ofmotion data 104.

そして、基礎モーションデータ取得部58が、S102に示す処理により生成されるモーションデータ104を取得して、モーションデータ記憶部60に出力する(S3)。  Then, the basic motiondata acquisition unit 58 acquires themotion data 104 generated by the process shown in S102 and outputs it to the motion data storage unit 60 (S3).

そして、規則データ選択部64が、規則データ記憶部62に記憶されている移動体対応管理データ108のうちから、第1移動体ID74−1の値が「1」であり、第2移動体ID74−2の値が「2」である移動体対応管理データ108に含まれる規則データ110を選択する(S4)。  Then, the ruledata selection unit 64 sets the value of the first mobile body ID 74-1 to “1” in the mobile bodycorrespondence management data 108 stored in the ruledata storage section 62, and the secondmobile body ID 74. Therule data 110 included in the moving objectcorrespondence management data 108 with the value of −2 being “2” is selected (S4).

そして、生成モーションデータ生成部66が、S3に示す処理によりモーションデータ記憶部60に出力された、移動体ID74の値が「1」であるモーションデータ104を取得する(S5)。  Then, the generated motiondata generation unit 66 acquires themotion data 104 with the value of the movingbody ID 74 output to the motiondata storage unit 60 by the process shown in S3 (S5).

そして、生成モーションデータ生成部66が、S5に示す処理により取得されたモーションデータ104に、S104に示す処理により選択される規則データ110が示す規則を適用して、クモオブジェクト112に含まれる各ノード要素78の位置座標を算出する(S6)。  Then, the generated motiondata generation unit 66 applies the rule indicated by therule data 110 selected by the process shown in S104 to themotion data 104 acquired by the process shown in S5, and each node included in thespider object 112 The position coordinates of the element 78 are calculated (S6).

そして、生成モーションデータ生成部66が、「t」の値が設定されるフレームID44、「2」の値が設定される移動体ID74、クモオブジェクト112に含まれる各ノード要素78のノードID92、そのノード要素78のノード位置座標106を含むモーションデータ104を生成する(S7)。そして、生成モーションデータ生成部66が、S7に示す処理により生成されたモーションデータ記憶部60に出力する(S8)。  Then, the generated motiondata generation unit 66 includes aframe ID 44 in which the value “t” is set, a movingbody ID 74 in which the value “2” is set, anode ID 92 of each node element 78 included in thespider object 112,Motion data 104 including the node position coordinates 106 of the node element 78 is generated (S7). Then, the generated motiondata generation unit 66 outputs to the motiondata storage unit 60 generated by the process shown in S7 (S8).

そして、画像生成部68が、「t」の値が設定されるフレームID44、及び、「2」の値が設定される移動体ID74が含まれるモーションデータ104を取得する(S9)。  Then, theimage generation unit 68 acquires themotion data 104 including theframe ID 44 in which the value “t” is set and the movingbody ID 74 in which the value “2” is set (S9).

そして、画像生成部68が、S8に示す処理により取得されるモーションデータ104に基づいて、クモ画像114を生成し、情報処理装置2のUI部24に出力する(S10)。  Then, theimage generation unit 68 generates aspider image 114 based on themotion data 104 acquired by the process shown in S8, and outputs thespider image 114 to theUI unit 24 of the information processing apparatus 2 (S10).

上述の処理例では、各フレームについて、基礎モーションデータ取得部58が、それぞれのフレームにおける、被写体ユーザ40に含まれるノード要素78のノード位置座標106が含まれるモーションデータ104を順次取得する。そして、生成モーションデータ生成部66が、基礎モーションデータ取得部58により順次取得される各モーションデータ104に、規則データ選択部64により選択される規則データが示す規則を順次適用する。そして、生成モーションデータ生成部66が、それぞれのフレームにおける、クモオブジェクト112に含まれるノード要素78のノード位置座標106が含まれるモーションデータ104を順次生成する。そのため、上記の処理例では、ユーザ画像42の順次取得と連携した、クモ画像114の順次生成が可能となる。上述の処理例によれば、被写体ユーザ40(人間)が動く様子を携帯型ゲーム装置3の撮像部36が撮像しながら、ほぼリアルタイムで、情報処理装置2のUI部24にクモオブジェクト112が動く様子を示す動画像を表示出力することができる。  In the above processing example, for each frame, the basic motiondata acquisition unit 58 sequentially acquires themotion data 104 including the node position coordinates 106 of the node element 78 included in thesubject user 40 in each frame. Then, the generated motiondata generation unit 66 sequentially applies the rules indicated by the rule data selected by the ruledata selection unit 64 to themotion data 104 sequentially acquired by the basic motiondata acquisition unit 58. Then, the generated motiondata generation unit 66 sequentially generatesmotion data 104 including the node position coordinates 106 of the node elements 78 included in thespider object 112 in each frame. Therefore, in the above processing example, it is possible to sequentially generate thespider images 114 in cooperation with the sequential acquisition of theuser images 42. According to the above-described processing example, thespider object 112 moves to theUI unit 24 of theinformation processing apparatus 2 almost in real time while theimaging unit 36 of theportable game apparatus 3 captures the movement of the subject user 40 (human). A moving image showing the state can be displayed and output.

このようにして、被写体ユーザ40のユーザ画像42に基づいて、クモ画像114を容易に生成することができる。もちろん、上述の第2移動体選択画面において、ユーザにより「カニ」や、「タコ」や、「車」や、「飛行機」と表示されている移動体名ボタン72がクリックされると、規則データ選択部64が、それぞれの移動体に対応する規則データ110を選択することとなるので、被写体ユーザ40のユーザ画像42に基づいて、例えば、かに画像や、たこ画像や、車画像や、飛行機画像などといった様々な画像を容易に生成することができる。  In this way, thespider image 114 can be easily generated based on theuser image 42 of thesubject user 40. Of course, when the user clicks on the mobileobject name button 72 displayed as “crab”, “octopus”, “car”, or “airplane” on the second mobile object selection screen, the rule data Since theselection unit 64 selects therule data 110 corresponding to each moving object, for example, based on theuser image 42 of thesubject user 40, for example, a crab image, a octopus image, a car image, an airplane Various images such as images can be easily generated.

なお、基礎モーションデータが、被写体ユーザ40の動く様子を示すモーションデータ104である必要はない。また、生成モーションデータが、クモオブジェクト112の動く様子を示すモーションデータ104である必要はない。すなわち、携帯型ゲーム装置3の撮像部36によりクモが撮像されるにより生成されるクモ画像114を情報処理装置2が受信してもよい。そして、基礎モーションデータ生成部56が、このクモ画像114に基づいて、クモオブジェクト112の動く様子を示すモーションデータ104(基礎モーションデータ)を生成するようにしてもよい。そして、生成モーションデータ生成部66が、クモオブジェクト112の動く様子を示すモーションデータ104に基づいて、人間が動く様子を示すモーションデータ104(生成モーションデータ)を生成するようにしても構わない。  Note that the basic motion data does not have to bemotion data 104 indicating how thesubject user 40 moves. Further, the generated motion data need not be themotion data 104 indicating how thespider object 112 moves. In other words, theinformation processing apparatus 2 may receive thespider image 114 generated when the spider is imaged by theimaging unit 36 of theportable game apparatus 3. Then, the basic motiondata generation unit 56 may generate motion data 104 (basic motion data) indicating how thespider object 112 moves based on thespider image 114. Then, the generated motiondata generation unit 66 may generate motion data 104 (generated motion data) indicating how a person moves based on themotion data 104 indicating how thespider object 112 moves.

このように、様々な移動体に対応する規則データ110が規則データ記憶部62に記憶されている場合には、識別子受付部50が受け付ける移動体ID74に応じて、様々な移動体の動きを示すモーションデータ104に基づいて、様々な移動体の動きを示すモーションデータ104や、そのモーションデータ104に基づく画像を生成することができる。  As described above, when therule data 110 corresponding to various moving objects is stored in the ruledata storage unit 62, the movement of various moving objects is indicated according to the movingobject ID 74 received by theidentifier receiving unit 50. Based on themotion data 104, it is possible to generatemotion data 104 indicating the movement of various moving objects and images based on themotion data 104.

本実施形態によれば、ユーザから受け付ける識別子が示す移動体の画像や動画像を容易に生成することができるので、モーションデータを利用してCGを制作する際における制作者の手間を軽減することができる。  According to the present embodiment, it is possible to easily generate a moving body image or a moving image indicated by an identifier received from a user, so that it is possible to reduce the labor of a creator when producing a CG using motion data. Can do.

なお、本発明は上述の実施形態に限定されるものではない。  In addition, this invention is not limited to the above-mentioned embodiment.

例えば、インターネットなどのネットワークを介して情報処理装置2と接続されているサーバ(図示せず)などに、予め所定の移動体の動く様子を示すモーションデータ104が記憶されているような場合において、基礎モーションデータ取得部58が、サーバなどに記憶されているモーションデータ104を取得して、生成モーションデータ生成部66が、このモーションデータ104を用いて新たなモーションデータ104を生成するようにしてもよい。  For example, in the case wheremotion data 104 indicating a predetermined moving body is stored in advance in a server (not shown) connected to theinformation processing apparatus 2 via a network such as the Internet, The basic motiondata acquisition unit 58 acquires themotion data 104 stored in the server or the like, and the generated motiondata generation unit 66 generatesnew motion data 104 using themotion data 104. Good.

また、携帯型ゲーム装置3の距離測定部37が生成する距離データを、携帯型ゲーム装置3が情報処理装置2に併せて送信するようにして、基礎モーションデータ生成部56が、距離データが示す、携帯型ゲーム装置3と被写体ユーザ40との距離を用いて、各ノード要素78の位置座標(例えば、三次元位置座標)を決定するようにしても構わない。すなわち、携帯型ゲーム装置3の通信部33が、フレームID44とユーザ画像42と距離データとを含む画像データ46を情報処理装置2に送信して、情報処理装置2の通信部23がこの画像データ46を受信するようにしてもよい。  Further, the distance data generated by thedistance measuring unit 37 of theportable game device 3 is transmitted together with theinformation processing device 2 by theportable game device 3, and the basic motiondata generating unit 56 indicates the distance data. The position coordinates (for example, three-dimensional position coordinates) of each node element 78 may be determined using the distance between theportable game apparatus 3 and thesubject user 40. That is, thecommunication unit 33 of theportable game apparatus 3 transmitsimage data 46 including theframe ID 44, theuser image 42, and the distance data to theinformation processing apparatus 2, and thecommunication unit 23 of theinformation processing apparatus 2 uses this image data. 46 may be received.

また、例えば、情報処理システム1が、携帯型ゲーム装置3の代わりに、撮像機能と距離測定機能を有するビデオカメラなどを含んでいても構わない。すなわち、携帯型ゲーム装置3の代わりとして、撮像機能と距離測定機能を有するビデオカメラを用いても構わない。  For example, theinformation processing system 1 may include a video camera having an imaging function and a distance measurement function instead of theportable game apparatus 3. That is, instead of theportable game apparatus 3, a video camera having an imaging function and a distance measurement function may be used.

また、上述の情報処理装置2と携帯型ゲーム装置3とが一つの筐体により実装されていても構わない。  Further, theinformation processing device 2 and theportable game device 3 described above may be mounted by a single housing.

また、移動体が複数の要素を含んでいる必要はない。  Moreover, the moving body does not need to include a plurality of elements.

次に、このようにして生成されるモーションデータの活用例を以下に示す。  Next, an example of using the motion data generated in this way is shown below.

例えば、生成されるモーションデータ104が情報処理装置2の通信部23からインターネットなどのネットワークを介して接続されているサーバ(図示せず)にアップロードされてもよい。その際に、ユーザが、モーションデータ104を使用しているゲームタイトルを示すデータ、モーションデータ104の作者を示すデータ、このモーションデータ104が生成される基礎となったモーションデータ104(基礎モーションデータ)を示すデータ、このモーションデータ104に基づいて生成されたCGのキャラクタを示すデータなどの属性データを関連付けてモーションデータ104をアップロードできるようにしてもよい。そして、サーバでは、モーションデータ104と属性データとが関連付けられて記憶されるようにしてもよい。また、モーションデータ104は、既存のスクリプト言語で記述されたデータに変換された上で、サーバに記憶されるようにしてもよい。  For example, the generatedmotion data 104 may be uploaded from thecommunication unit 23 of theinformation processing apparatus 2 to a server (not shown) connected via a network such as the Internet. At that time, the user indicates data indicating the game title using themotion data 104, data indicating the author of themotion data 104, and the motion data 104 (basic motion data) on which themotion data 104 is generated. Themotion data 104 may be uploaded in association with attribute data such as data indicating CG data generated based on themotion data 104 and data indicating a CG character. In the server, themotion data 104 and the attribute data may be stored in association with each other. Further, themotion data 104 may be stored in the server after being converted into data described in an existing script language.

ユーザが、サーバに記憶されているモーションデータ104を、例えば、ブラウザなどで閲覧できるようにしてもよい。このとき、モーションデータ104が、カテゴリに分類されて表示されるようにしてもよい。また、モーションデータ104がアイコン化されていてもよい。具体的には、例えば、モーションデータ104が、ワイヤーフレームや、キャラクタなどの動きとしてブラウザで表現されるようにしてもよい。  The user may be able to browse themotion data 104 stored in the server using, for example, a browser. At this time, themotion data 104 may be displayed after being classified into categories. Further, themotion data 104 may be iconified. Specifically, for example, themotion data 104 may be expressed by a browser as a movement of a wire frame or a character.

また、モーションデータ104をアップロードするユーザが、このモーションデータ104の公開対象となるユーザを設定して、設定されたユーザのみがモーションデータ104を閲覧することができるようにしてもよい。  In addition, a user who uploads themotion data 104 may set a user to whom themotion data 104 is disclosed, and only the set user can view themotion data 104.

そして、閲覧の対象であるモーションデータ104が、モーションデータ104のネットワークストアへのハイパーリンクとなっており、ユーザがそのハイパーリンクをクリックすることにより、モーションデータ104を購入することができるようになっていてもよい。  Themotion data 104 to be browsed is a hyperlink to the network store of themotion data 104, and the user can purchase themotion data 104 by clicking the hyperlink. It may be.

また、新たにサーバにアップロードされるモーションデータ104を、情報処理装置2が、ネットワークを介して逐次ダウンロードして、情報処理装置2の記憶部22にキャッシュするようにしてもよい。また、例えば、ゲームのセーブデータと共に、モーションデータ104が情報処理装置2の記憶部22に記憶されていても構わない。  Also, themotion data 104 newly uploaded to the server may be downloaded sequentially by theinformation processing apparatus 2 via the network and cached in thestorage unit 22 of theinformation processing apparatus 2. Further, for example, themotion data 104 may be stored in thestorage unit 22 of theinformation processing apparatus 2 together with the game save data.

また、例えば、情報処理装置2が、サーバに記憶されている、人間がダンスをしている様子や人間がゴルフのスイングをしている様子が示されているモーションデータ104と、携帯型ゲーム装置3の撮像部36で撮像される一連のユーザ画像42に基づいて生成されるモーションデータ104とを比較して、それぞれのモーションデータ104の対応度に基づく点数を算出するようにしても構わない。  In addition, for example, theinformation processing device 2 is stored in the server, andmotion data 104 showing a state where a person is dancing or a state where a person is swinging a golf, and a portable game device Themotion data 104 generated based on a series ofuser images 42 captured by thethird imaging unit 36 may be compared to calculate the score based on the degree of correspondence of eachmotion data 104.

本発明の一実施形態に係る情報処理システムのハードウェア構成の一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the hardware configuration of the information processing system which concerns on one Embodiment of this invention.本発明の一実施形態に係る携帯型ゲーム装置の一例を示す斜視図である。It is a perspective view which shows an example of the portable game device which concerns on one Embodiment of this invention.ユーザ画像の一例を示す図である。It is a figure which shows an example of a user image.画像データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of image data.本発明の一実施形態に係る情報処理装置の機能ブロック図である。It is a functional block diagram of an information processor concerning one embodiment of the present invention.第1移動体選択画面の一例を示す図である。It is a figure which shows an example of a 1st mobile body selection screen.受付識別子データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of reception identifier data.被写体ユーザに含まれる各要素の一例を示す図である。It is a figure which shows an example of each element contained in a to-be-photographed user.移動体要素データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of mobile body element data.モーションデータのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of motion data.移動体対応管理データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of mobile body corresponding | compatible management data.クモオブジェクトに含まれる各要素の一例を示す図である。It is a figure which shows an example of each element contained in a spider object.クモ画像の一例を示す図である。It is a figure which shows an example of a spider image.本発明の一実施形態に係る情報処理装置で行われる処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process performed with the information processing apparatus which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

1 情報処理システム、2 情報処理装置、21 制御部、22 記憶部、23 通信部、24 ユーザインタフェース(UI)部、3 携帯型ゲーム装置、30 筐体、31 制御部、32 記憶部、33 通信部、34 表示部、35 操作部、36 撮像部、37 距離測定部、40 被写体ユーザ、42 ユーザ画像、44 フレームID、46 画像データ、50 識別子受付部、52 受付識別子データ保持部、54 移動体要素データ記憶部、56 基礎モーションデータ生成部、58 基礎モーションデータ取得部、60 モーションデータ記憶部、62 規則データ記憶部、64 規則データ選択部、66 生成モーションデータ生成部、68 画像生成部、70 移動体選択画面、72 移動体名ボタン、74 移動体ID、76 受付識別子データ、78 ノード要素、80 リンク要素、82 ポリゴン要素、84 ノードデータ、86 リンクデータ、88 ポリゴンデータ、90 移動体要素データ、92 ノードID、94 ノード名、96 リンクID、98 リンク名、100 ポリゴンID、102 ポリゴン名、104 モーションデータ、106 ノード位置座標、108 移動体対応管理データ、110 規則データ、112 クモオブジェクト、114 クモ画像。  DESCRIPTION OF SYMBOLS 1 Information processing system, 2 Information processing apparatus, 21 Control part, 22 Storage part, 23 Communication part, 24 User interface (UI) part, 3 Portable game device, 30 Case, 31 Control part, 32 Storage part, 33 Communication Unit, 34 display unit, 35 operation unit, 36 imaging unit, 37 distance measurement unit, 40 subject user, 42 user image, 44 frame ID, 46 image data, 50 identifier reception unit, 52 reception identifier data holding unit, 54 moving body Element data storage unit, 56 Basic motion data generation unit, 58 Basic motion data acquisition unit, 60 Motion data storage unit, 62 Rule data storage unit, 64 Rule data selection unit, 66 Generation motion data generation unit, 68 Image generation unit, 70 Mobile object selection screen, 72 Mobile object name button, 74 Mobile object ID, 76 Acceptance identifier Data, 78 node element, 80 link element, 82 polygon element, 84 node data, 86 link data, 88 polygon data, 90 mobile element data, 92 node ID, 94 node name, 96 link ID, 98 link name, 100 Polygon ID, 102 Polygon name, 104 motion data, 106 node position coordinates, 108 moving object correspondence management data, 110 rule data, 112 spider object, 114 spider image.

Claims (8)

Translated fromJapanese
所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理装置であって、
移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを複数記憶する規則データ記憶手段と、
移動体の識別子を受け付ける識別子受付手段と、
前記基礎モーションデータを取得する基礎モーションデータ取得手段と、
前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付手段が受け付ける識別子と関連付けられる規則データを選択する規則データ選択手段と、
前記基礎モーションデータ取得手段により取得される基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を適用して、前記識別子受付手段が受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成手段と、
を含むことを特徴とする情報処理装置。
An information processing apparatus that generates generated motion data indicating the movement of another moving body based on basic motion data indicating the movement of a predetermined moving body,
Rule data storage means for storing a plurality of rule data indicating rules for determining the movement of the moving object indicated by the identifier based on the movement of the predetermined moving object in association with the identifier of the moving object;
Identifier accepting means for accepting an identifier of a moving object;
Basic motion data acquisition means for acquiring the basic motion data;
Rule data selection means for selecting rule data associated with an identifier received by the identifier reception means from among a plurality of rule data stored in the rule data storage means;
Applying the rule indicated by the rule data selected by the rule data selection unit to the basic motion data acquired by the basic motion data acquisition unit, and generating the motion of the moving object indicated by the identifier received by the identifier reception unit Generated motion data generating means for generating motion data;
An information processing apparatus comprising:
前記基礎モーションデータが、各フレームにおける前記所定の移動体の位置を示しており、
前記規則データ記憶手段が、前記識別子が示す移動体の各フレームにおける位置を、前記所定の移動体の各フレームにおける位置に基づいて決定する規則を示す規則データを記憶し、
前記基礎モーションデータ取得手段が、前記基礎モーションデータを順次取得し、
前記生成モーションデータ生成手段が、順次取得される前記各基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を順次適用して、前記識別子受付手段が受け付ける識別子が示す移動体の各フレームにおける位置を示す前記生成モーションデータを順次生成する、
ことを特徴とする請求項1に記載の情報処理装置。
The basic motion data indicates a position of the predetermined moving body in each frame;
The rule data storage means stores rule data indicating a rule for determining a position in each frame of the moving object indicated by the identifier based on a position in each frame of the predetermined moving object;
The basic motion data acquisition means sequentially acquires the basic motion data,
The generated motion data generating means sequentially applies the rules indicated by the rule data selected by the rule data selecting means to each of the basic motion data acquired sequentially, and the moving body indicated by the identifier received by the identifier receiving means Sequentially generating the generated motion data indicating the position in each frame of
The information processing apparatus according to claim 1.
前記規則データ記憶手段が、前記識別子が示す移動体の各フレームにおける位置を、前記所定の移動体の、互いに異なる複数のフレームにおける位置の組合せに基づいて決定する規則を示す規則データを記憶する、
ことを特徴とする請求項2に記載の情報処理装置。
The rule data storage means stores rule data indicating a rule for determining a position in each frame of the moving object indicated by the identifier based on a combination of positions of the predetermined moving object in a plurality of different frames.
The information processing apparatus according to claim 2.
前記基礎モーションデータが、前記所定の移動体に含まれる複数の要素それぞれの動きを示しており、
前記規則データ記憶手段が、複数の要素が含まれる移動体の識別子に関連付けて、当該識別子が示す移動体に含まれる複数の要素それぞれの動きを前記所定の移動体に含まれる複数の要素それぞれの動きに基づいて決定する規則を示す規則データを記憶し、
前記生成モーションデータ生成手段が、前記識別子受付手段が受け付ける識別子が示す移動体に含まれる複数の要素それぞれの動きを示す生成モーションデータを生成する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
The basic motion data indicates the movement of each of a plurality of elements included in the predetermined moving body,
The rule data storage means associates the movement of each of the plurality of elements included in the moving body indicated by the identifier with each of the plurality of elements included in the predetermined moving body in association with the identifier of the moving body including the plurality of elements. Storing rule data indicating rules to be determined based on movement;
The generated motion data generating means generates generated motion data indicating movements of a plurality of elements included in the moving object indicated by the identifier received by the identifier receiving means;
The information processing apparatus according to any one of claims 1 to 3.
前記規則データ記憶手段が、前記所定の移動体又は前記識別子が示す移動体のうちの一方に含まれる複数の要素それぞれの位置の組合せと、他方に含まれる1つの要素とを対応づける規則を示す規則データを記憶する、
ことを特徴とする請求項4に記載の情報処理装置。
The rule data storage means indicates a rule associating a combination of positions of a plurality of elements included in one of the predetermined mobile body or the mobile body indicated by the identifier with one element included in the other. Remember the rule data,
The information processing apparatus according to claim 4.
所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理方法であって、
移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを規則データ記憶手段に複数記憶させるステップと、
前記基礎モーションデータを取得する基礎モーションデータ取得ステップと、
移動体の識別子を受け付ける識別子受付ステップと、
前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付ステップで受け付ける識別子と関連付けられる規則データを選択する規則データ選択ステップと、
前記基礎モーションデータ取得ステップにより取得される基礎モーションデータに、前記規則データ選択ステップにより選択される規則データが示す規則を適用して、前記識別子受付ステップで受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成ステップと、
を含むことを特徴とする情報処理方法。
An information processing method for generating generated motion data indicating movement of another moving body based on basic motion data indicating movement of a predetermined moving body,
Storing a plurality of rule data in a rule data storage means in association with an identifier of a mobile object, indicating rule for determining a motion of the mobile object indicated by the identifier based on the motion of the predetermined mobile object;
A basic motion data acquisition step for acquiring the basic motion data;
An identifier receiving step for receiving an identifier of the moving object;
A rule data selection step of selecting rule data associated with the identifier received in the identifier reception step from among the plurality of rule data stored in the rule data storage means;
Applying the rule indicated by the rule data selected in the rule data selection step to the basic motion data acquired in the basic motion data acquisition step, and generating the motion of the moving object indicated by the identifier received in the identifier reception step A generation motion data generation step for generating motion data;
An information processing method comprising:
所定の移動体の動きを示す基礎モーションデータに基づいて、他の移動体の動きを示す生成モーションデータを生成する情報処理装置としてコンピュータを機能させるプログラムであって、
移動体の識別子に関連付けて、当該識別子が示す移動体の動きを前記所定の移動体の動きに基づいて決定する規則を示す規則データを規則データ記憶手段に複数記憶させる手段、
前記基礎モーションデータを取得する基礎モーションデータ取得手段、
移動体の識別子を受け付ける識別子受付手段、
前記規則データ記憶手段に記憶されている複数の規則データのうちから、前記識別子受付手段が受け付ける識別子と関連付けられる規則データを選択する規則データ選択手段、
前記基礎モーションデータ取得手段により取得される基礎モーションデータに、前記規則データ選択手段により選択される規則データが示す規則を適用して、前記識別子受付手段が受け付ける識別子が示す移動体の動きを示す生成モーションデータを生成する生成モーションデータ生成手段、
として前記コンピュータを機能させることを特徴とするプログラム。
A program that causes a computer to function as an information processing device that generates generated motion data indicating the movement of another moving body based on basic motion data indicating the movement of a predetermined moving body,
Means for storing in the rule data storage means a plurality of rule data indicating rules for determining the movement of the moving body indicated by the identifier based on the movement of the predetermined moving body in association with the identifier of the moving body;
Basic motion data acquisition means for acquiring the basic motion data;
Identifier accepting means for accepting an identifier of a moving object;
Rule data selection means for selecting rule data associated with an identifier received by the identifier reception means from among a plurality of rule data stored in the rule data storage means;
Applying the rule indicated by the rule data selected by the rule data selection unit to the basic motion data acquired by the basic motion data acquisition unit, and generating the motion of the moving object indicated by the identifier received by the identifier reception unit Generated motion data generating means for generating motion data,
A program for causing the computer to function as:
請求項7に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。  A computer-readable information storage medium storing the program according to claim 7.
JP2008256599A2008-10-012008-10-01 Information processing apparatus, information processing method, program, and information storage mediumActiveJP5015109B2 (en)

Priority Applications (5)

Application NumberPriority DateFiling DateTitle
JP2008256599AJP5015109B2 (en)2008-10-012008-10-01 Information processing apparatus, information processing method, program, and information storage medium
US13/121,318US8724849B2 (en)2008-10-012009-09-28Information processing device, information processing method, program, and information storage medium
EP09817726.4AEP2343685B1 (en)2008-10-012009-09-28Information processing device, information processing method, program, and information storage medium
PCT/JP2009/066749WO2010038693A1 (en)2008-10-012009-09-28Information processing device, information processing method, program, and information storage medium
CN200980139029.5ACN102171726B (en)2008-10-012009-09-28Information processing device, information processing method, program, and information storage medium

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2008256599AJP5015109B2 (en)2008-10-012008-10-01 Information processing apparatus, information processing method, program, and information storage medium

Publications (2)

Publication NumberPublication Date
JP2010086408Atrue JP2010086408A (en)2010-04-15
JP5015109B2 JP5015109B2 (en)2012-08-29

Family

ID=42250278

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2008256599AActiveJP5015109B2 (en)2008-10-012008-10-01 Information processing apparatus, information processing method, program, and information storage medium

Country Status (1)

CountryLink
JP (1)JP5015109B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2024122203A1 (en)*2022-12-072024-06-13ソニーグループ株式会社Information processing device and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2000268161A (en)*1999-03-172000-09-29Atr Media Integration & Communications Res LabReal time expression detector
JP2002024143A (en)*2000-07-062002-01-25Sony CorpReceiving terminal, communication terminal and animation character display method
JP2007004732A (en)*2005-06-272007-01-11Matsushita Electric Ind Co Ltd Image generating apparatus and image generating method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2000268161A (en)*1999-03-172000-09-29Atr Media Integration & Communications Res LabReal time expression detector
JP2002024143A (en)*2000-07-062002-01-25Sony CorpReceiving terminal, communication terminal and animation character display method
JP2007004732A (en)*2005-06-272007-01-11Matsushita Electric Ind Co Ltd Image generating apparatus and image generating method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2024122203A1 (en)*2022-12-072024-06-13ソニーグループ株式会社Information processing device and information processing method

Also Published As

Publication numberPublication date
JP5015109B2 (en)2012-08-29

Similar Documents

PublicationPublication DateTitle
WO2010038693A1 (en)Information processing device, information processing method, program, and information storage medium
JP6022732B2 (en) Content creation tool
US9392248B2 (en)Dynamic POV composite 3D video system
US20150002518A1 (en)Image generating apparatus
JP2013162487A (en)Image display apparatus and imaging apparatus
JP2009169768A (en)Information processor and program
CN116934848B (en)Data processing method, device, equipment and medium
CN106791347A (en)A kind of image processing method, device and the mobile terminal using the method
JPWO2019026919A1 (en) Image processing system, image processing method, and program
US11604904B2 (en)Method and system for space design
CN112887601A (en)Shooting method and device and electronic equipment
CN114979564A (en)Video shooting method, electronic equipment, device, system and medium
WO2019000464A1 (en)Image display method and device, storage medium, and terminal
CN114155175B (en)Image generation method, device, electronic equipment and storage medium
JP5015109B2 (en) Information processing apparatus, information processing method, program, and information storage medium
CN109840948B (en) Method and device for delivering target objects based on augmented reality
JP5066047B2 (en) Information processing apparatus, information processing method, program, and information storage medium
CN107426522B (en)Video method and system based on virtual reality equipment
KR101850134B1 (en)Method and apparatus for generating 3d motion model
JP2008191751A (en) Placement simulation system
CN113890984B (en)Photographing method, image processing method and electronic equipment
CN118347699A (en)Virtual reality display delay test method and related equipment
JP2005123750A (en) Video / map link system and link method
JP7296164B1 (en) Information processing apparatus, method, content creation program, and content playback program
JP2013037476A (en)Observation device, observation method and imaging apparatus

Legal Events

DateCodeTitleDescription
A711Notification of change in applicant

Free format text:JAPANESE INTERMEDIATE CODE: A712

Effective date:20101124

RD02Notification of acceptance of power of attorney

Free format text:JAPANESE INTERMEDIATE CODE: A7422

Effective date:20101203

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20110825

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20120508

A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20120606

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20150615

Year of fee payment:3

R150Certificate of patent or registration of utility model

Ref document number:5015109

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

Free format text:JAPANESE INTERMEDIATE CODE: R150

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250


[8]ページ先頭

©2009-2025 Movatter.jp