Movatterモバイル変換


[0]ホーム

URL:


JP2012208705A - Image operation apparatus, image operation method and program - Google Patents

Image operation apparatus, image operation method and program
Download PDF

Info

Publication number
JP2012208705A
JP2012208705AJP2011073390AJP2011073390AJP2012208705AJP 2012208705 AJP2012208705 AJP 2012208705AJP 2011073390 AJP2011073390 AJP 2011073390AJP 2011073390 AJP2011073390 AJP 2011073390AJP 2012208705 AJP2012208705 AJP 2012208705A
Authority
JP
Japan
Prior art keywords
finger
stereoscopic object
user
image
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011073390A
Other languages
Japanese (ja)
Inventor
Ryo Takahashi
諒 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications LtdfiledCriticalNEC Casio Mobile Communications Ltd
Priority to JP2011073390ApriorityCriticalpatent/JP2012208705A/en
Publication of JP2012208705ApublicationCriticalpatent/JP2012208705A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

PROBLEM TO BE SOLVED: To enable a user to operate a stereoscopic-vision object with fingers without requiring any dedicated device that the user wears.SOLUTION: On the basis of data of a stereoscopic-vision object acquired by a data acquisition section 11, a display control section 16 of an image operation apparatus 1 displays the stereoscopic-vision object on a display section 17. A finger coordinate extraction section 14 compares an image captured by an image capturing section 12 with an image of a finger of a user stored in a storage section 13 and extracts finger coordinates pointed by the finger of the user. A determination section 15 calculates an area in which the stereoscopic-vision object is watched in a front space of a display screen and makes a collision determination of whether or not the stereoscopic-vision object is touched virtually with the finger of the user on the basis of the area and the finger coordinates. If determined touched, the determination section 15 detects the motion of the finger of the user and generates operation information indicating an operation that the user has performed on the stereoscopic-vision object. On the basis of the operation information, the display control section 16 changes display of the stereoscopic-vision object.

Description

Translated fromJapanese

本発明は、表示した画像を操作する画像操作装置、画像操作方法およびプログラムに関する。  The present invention relates to an image operation device, an image operation method, and a program for operating a displayed image.

近年、画面から飛び出して見える立体視の画像や映像に関して、様々な技術が提案されている。  In recent years, various techniques have been proposed for stereoscopic images and videos that appear to pop out of the screen.

たとえば、特許文献1は、仮想空間において、仮想の本が所定の程度開かれた際に、そこに描かれている平面画像の表示物を立体的に表示することができる画像処理装置を開示している。特許文献1の画像処理装置は、ユーザの手に装着され、装着された手や各指に対して触覚や力覚を与える一対のリアルグローブを備え、仮想空間画像を仮想空間表示装置に表示し、リアルグローブを装着した手や指が仮想空間に表示された物体に仮想的に接触した場合等に、その様子を仮想空間表示装置に表示するとともに、リアルグローブを装着した手や各指に接触したときの触覚や力覚を与える。  For example,Patent Document 1 discloses an image processing apparatus capable of displaying a display object of a planar image drawn there three-dimensionally when a virtual book is opened to a predetermined extent in a virtual space. ing. The image processing apparatus ofPatent Literature 1 is mounted on a user's hand, and includes a pair of real gloves that give a tactile sensation and a force sensation to the mounted hand and each finger, and displays a virtual space image on a virtual space display device. When a hand or finger wearing a real glove virtually touches an object displayed in the virtual space, the state is displayed on the virtual space display device, and the hand or finger wearing the real glove is touched. Gives tactile sensation and force sensation.

また、特許文献2は、立体画像データを受信して、浮き上がって見えるように立体表示する立体画像表示可能なカメラ付携帯端末を開示している。  Patent Document 2 discloses a mobile terminal with a camera that can receive a stereoscopic image and display a stereoscopic image so that the stereoscopic image data can be lifted and displayed.

特許文献3は、ユーザのジェスチャを判別するジェスチャ動作認識システムを開示している。特許文献3のジェスチャ動作認識システムは、異なる位置に配された同一被写体の画像を撮影する第一カメラ及び第二カメラを備え、同一時刻における第一カメラ及び第二カメラの画像情報を対比して被写体領域と背景領域とを識別し、識別された被写体領域からさらに被写体の頭領域及び手先領域を検出するとともに、頭領域及び手先領域の各々の特徴点を三次元座標算出して特定する。  Patent Document 3 discloses a gesture motion recognition system that determines a user's gesture. The gesture motion recognition system of Patent Literature 3 includes a first camera and a second camera that capture images of the same subject arranged at different positions, and compares image information of the first camera and the second camera at the same time. The subject area and the background area are identified, and the head area and hand area of the object are further detected from the identified object area, and the feature points of the head area and the hand area are calculated and specified by three-dimensional coordinates.

特許文献4は、本発明は、複数の撮像手段にて対象物を撮像し、この撮像信号を基に前記対象物の位置を認識する画像認識装置を開示している。特許文献4の画像認識装置は、カメラ僅体等の機械的基準によることなく、また、専用の調整治具を使用することなく、複数のカメラ基準の補正が可能である。  Patent Document 4 discloses an image recognition apparatus in which the present invention images a target object with a plurality of imaging means and recognizes the position of the target object based on the imaging signal. The image recognition apparatus of Patent Document 4 can correct a plurality of camera references without using a mechanical reference such as a camera frame or the like and without using a dedicated adjustment jig.

特開2004−318400号公報JP 2004-318400 A特開2010−141447号公報JP 2010-141447 A特開2009−211563号公報JP 2009-211153 A特開平04−367186号公報Japanese Patent Laid-Open No. 04-367186

しかしながら、このような立体視用の画像を表示した際にユーザが視認する仮想物体(以下、立体視オブジェクトという)に対する操作は基本的に物理キーで行うことしかできない。そのため、立体視オブジェクトを実際に触れるように扱うことができず、利用者の直感性を損ねる可能性がある。特許文献1に記載の方法では、立体オブジェクトを操作するのにリアルグローブという装着型の専用の装置が必要である。  However, an operation on a virtual object (hereinafter referred to as a stereoscopic object) visually recognized by the user when such a stereoscopic image is displayed can basically be performed only with a physical key. For this reason, the stereoscopic object cannot be handled as if it is actually touched, which may impair the user's intuition. In the method described inPatent Document 1, a dedicated device called a real glove is required to operate a three-dimensional object.

特許文献2は、立体オブジェクトを操作するものではない。  Patent Document 2 does not operate a three-dimensional object.

特許文献3および4は、立体オブジェクトを表示するものではなく、立体オブジェクトを操作するものでもない。  Patent Documents 3 and 4 do not display a solid object and do not operate the solid object.

本発明は、上述のような事情に鑑みてなされたものであり、ユーザが装着する専用の装置を必要とせず、立体視オブジェクトをユーザの指で操作することができる画像操作装置、画像操作方法およびプログラムを提供することを目的とする。  The present invention has been made in view of the above-described circumstances, and does not require a dedicated device worn by the user, and can operate a stereoscopic object with a user's finger, and an image operation method And to provide a program.

本発明の第1の観点に係る画像操作装置は、
画像を表示する表示画面と、
前記表示画面の前面の所定の空間を撮影する撮影部と、
前記撮影部が撮影した画像を取得する画像取得手段と、
ユーザの指の画像を記憶する記憶手段と、
立体視オブジェクトのデータを取得するデータ取得手段と、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段と、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段と、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段と、を備え、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする。
An image manipulation device according to a first aspect of the present invention is:
A display screen for displaying images;
A photographing unit for photographing a predetermined space in front of the display screen;
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of the user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction unit that compares the image acquired by the image acquisition unit with the image of the user's finger stored in the storage unit, and extracts finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination means for performing a collision determination as to whether or not touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes display of the stereoscopic object displayed on the display screen based on the operation information.

本発明の第2の観点に係る画像操作方法は、
画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備える画像操作装置が実行する
前記撮影部が撮影した画像を取得する画像取得ステップと、
ユーザの指の画像を記憶する記憶ステップと、
立体視オブジェクトのデータを取得するデータ取得ステップと、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御ステップと、
前記画像取得ステップで取得した画像と、前記記憶ステップで記憶した前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出ステップと、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定ステップと、を備え、
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得ステップで取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御ステップでは、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする。
An image manipulation method according to a second aspect of the present invention is:
An image acquisition step executed by an image manipulation device including a display screen for displaying an image and a photographing unit for photographing a predetermined space in front of the display screen;
A storage step for storing an image of the user's finger;
A data acquisition step for acquiring data of the stereoscopic object;
A display control step of displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction step of comparing the image acquired in the image acquisition step with the image of the user's finger stored in the storage step and extracting finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination step of performing a collision determination as to whether or not touched,
In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, movement of the user's finger is detected based on the image acquired in the image acquisition step, and the user Generate operation information indicating the operation performed on the stereoscopic object,
In the display control step, the display of the stereoscopic object displayed on the display screen is changed based on the operation information.

本発明の第3の観点に係るプログラムは、画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備えるコンピュータを、
前記撮影部が撮影した画像を取得する画像取得手段、
ユーザの指の画像を記憶する記憶手段、
立体視オブジェクトのデータを取得するデータ取得手段、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段、として機能させ、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする。
A program according to a third aspect of the present invention includes a computer including a display screen that displays an image, and a photographing unit that photographs a predetermined space in front of the display screen.
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of a user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
Finger coordinate extraction means for comparing the image acquired by the image acquisition means with the image of the user's finger stored in the storage means, and extracting finger coordinates indicating the position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. It functions as a determination means for performing a collision determination on whether or not it is touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes display of the stereoscopic object displayed on the display screen based on the operation information.

本発明によれば、ユーザが装着する専用の装置を必要とせず、立体視オブジェクトをユーザの指で操作することができる。  According to the present invention, a stereoscopic object can be operated with a user's finger without requiring a dedicated device worn by the user.

本発明の実施の形態に係る画像操作装置の一例を示す斜視図である。It is a perspective view which shows an example of the image operation apparatus which concerns on embodiment of this invention.実施の形態に係る画像操作装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image operation apparatus which concerns on embodiment.平面視オブジェクトおよび立体視オブジェクトを説明する図である。It is a figure explaining a planar view object and a stereoscopic vision object.ユーザの指と立体視オブジェクトとの衝突判定の例を説明する図である。It is a figure explaining the example of a collision determination with a user's finger | toe and a stereoscopic object.ユーザが立体視オブジェクトに対して行う操作の一例を説明する図である。It is a figure explaining an example of operation which a user performs to a stereoscopic object.ユーザが立体視オブジェクトに対して行うジェスチャの例を示す図である。It is a figure which shows the example of the gesture which a user performs with respect to a stereoscopic vision object.ユーザの指と立体視オブジェクトとの衝突判定の他の例を説明する図である。It is a figure explaining other examples of collision judgment with a user's finger and a stereoscopic object.実施の形態に係る画像操作の動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an image operation operation according to the embodiment.実施の形態に係る画像操作装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the image operation apparatus which concerns on embodiment.

以下に、発明を実施するための形態について図面を参照して詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。  EMBODIMENT OF THE INVENTION Below, the form for inventing is demonstrated in detail with reference to drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

図1は、本発明の実施の形態に係る画像操作装置の一例を示す斜視図である。画像操作装置1は、筐体E1に、カメラC1、カメラC2および表示画面D1を備える。筐体E1にはめ込まれた表示画面D1には、立体視オブジェクトO1の画像が表示されており、ユーザには立体視オブジェクトO1が図示のように飛び出して見える。表示画面D1の両端に設置されたカメラC1およびカメラC2は、表示画面D1の前面の所定の範囲の空間を撮影する。所定の範囲の空間とは、たとえば、表示画面D1の前面で立体視オブジェクトが仮想的に出現しうる範囲の空間である。なお、カメラC1およびカメラC2の設置位置は、任意の位置でよい。また、筐体E1、カメラC1、カメラC2および表示画面D1は、図1の形状に限らず、画像操作装置1は、2つのカメラと表示画面を備えていればよい。  FIG. 1 is a perspective view showing an example of an image manipulation device according to an embodiment of the present invention. Theimage manipulation device 1 includes a camera C1, a camera C2, and a display screen D1 in a housing E1. An image of the stereoscopic object O1 is displayed on the display screen D1 fitted in the housing E1, and the stereoscopic object O1 appears to pop out as shown in the figure to the user. The cameras C1 and C2 installed at both ends of the display screen D1 image a space in a predetermined range on the front surface of the display screen D1. The space in the predetermined range is, for example, a space in a range where the stereoscopic object can appear virtually on the front surface of the display screen D1. The installation positions of the camera C1 and the camera C2 may be arbitrary positions. The housing E1, the camera C1, the camera C2, and the display screen D1 are not limited to the shape shown in FIG. 1, and theimage manipulation device 1 only needs to include two cameras and a display screen.

図示のように、ユーザが指で立体視オブジェクトO1を触る動作をすると、カメラC1およびカメラC2はユーザの指を撮影した画像を取得する。なお、立体視オブジェクトO1は、実際には表示画面D1の平面に画像が表示されているだけなので、カメラC1およびカメラC2が撮影する画像には写らない。  As illustrated, when the user touches the stereoscopic object O1 with a finger, the camera C1 and the camera C2 acquire an image obtained by photographing the user's finger. Note that the stereoscopic object O1 is actually not displayed in the images taken by the camera C1 and the camera C2 because an image is actually displayed on the plane of the display screen D1.

図2は、実施の形態に係る画像操作装置の機能構成例を示すブロック図である。画像操作装置1は、データ取得部11、画像取得部12、記憶部13、指座標抽出部14、判定部15、表示制御部16および表示部17を備える。  FIG. 2 is a block diagram illustrating a functional configuration example of the image operation device according to the embodiment. Theimage manipulation device 1 includes adata acquisition unit 11, animage acquisition unit 12, astorage unit 13, a finger coordinateextraction unit 14, adetermination unit 15, adisplay control unit 16, and adisplay unit 17.

データ取得部11は、立体視オブジェクトのデータを取得し、判定部15および表示制御部16に送る。なお、データ取得部11は、立体視オブジェクトのデータとともに、表示画面D1の前面の空間で立体視オブジェクトが視認される領域を示すデータ(以下、領域データという)を取得し、判定部15に送ってもよい。  Thedata acquisition unit 11 acquires the data of the stereoscopic object and sends it to thedetermination unit 15 and thedisplay control unit 16. Thedata acquisition unit 11 acquires data indicating a region where the stereoscopic object is visually recognized in the space in front of the display screen D1 (hereinafter referred to as region data) together with the data of the stereoscopic object, and sends the data to thedetermination unit 15. May be.

画像取得部12は、ユーザの指の画像を取得し、あらかじめ記憶部13に記憶させる。また、画像取得部12は、図1に示す表示画面D1の前面の所定の範囲の空間を撮影した画像を取得し、指座標検出部14に送る。なお、ユーザの指の画像は、撮影して取得してもよいし、外部から取得してもよい。  Theimage acquisition unit 12 acquires an image of the user's finger and stores it in thestorage unit 13 in advance. In addition, theimage acquisition unit 12 acquires an image obtained by capturing a space in a predetermined range on the front surface of the display screen D1 illustrated in FIG. 1 and sends the image to the finger coordinatedetection unit 14. Note that the image of the user's finger may be acquired by photographing or may be acquired from the outside.

記憶部13は、画像取得部12から受け取ったユーザの指の画像をあらかじめ記憶する。  Thestorage unit 13 stores in advance the image of the user's finger received from theimage acquisition unit 12.

指座標検出部14は、画像取得部12から受け取った画像と記憶部13から読み出したユーザの指の画像とのパターンマッチングを行い、ユーザの指がポインティングしている位置を示す座標(以下、指座標という)を抽出する。  The finger coordinatedetection unit 14 performs pattern matching between the image received from theimage acquisition unit 12 and the image of the user's finger read from thestorage unit 13, and coordinates indicating the position where the user's finger is pointing (hereinafter referred to as a finger). Extract coordinates).

判定部15は、データ取得部11から受け取った立体視オブジェクトのデータに基づいて、表示画面D1の前面の空間で立体視オブジェクトが視認される領域を計算する。データ取得部11が立体オブジェクトのデータとともに領域データを取得する場合は、判定部15は、データ取得部11から領域データを受け取る。  Based on the stereoscopic object data received from thedata acquisition unit 11, thedetermination unit 15 calculates a region where the stereoscopic object is visually recognized in the space in front of the display screen D <b> 1. When thedata acquisition unit 11 acquires region data together with the data of the solid object, thedetermination unit 15 receives the region data from thedata acquisition unit 11.

判定部15は、表示画面D1の前面の空間で立体視オブジェクトが視認される領域と、指座標抽出部14から受け取った指座標とに基づいて、ユーザの指が立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う。判定部15は、ユーザの指が立体視オブジェクトに触れたと判定した場合、画像取得部12から受け取った画像に基づいてユーザの指の動きを検出し、ユーザが立体視オブジェクトに対して行った操作を示す操作情報を生成し、表示制御部16に送信する。  Thedetermination unit 15 virtually touches the stereoscopic object with the user's finger based on the area where the stereoscopic object is visually recognized in the space in front of the display screen D1 and the finger coordinates received from the finger coordinateextraction unit 14. Judgment of whether or not the collision has occurred. When thedetermination unit 15 determines that the user's finger has touched the stereoscopic object, thedetermination unit 15 detects the movement of the user's finger based on the image received from theimage acquisition unit 12 and performs an operation performed on the stereoscopic object by the user. Is generated and transmitted to thedisplay control unit 16.

表示制御部16は、データ取得部11から受け取った立体視オブジェクトのデータに基づいて、表示部17に立体視オブジェクトを表示させる。また、表示制御部16は、判定部15から受け取った操作情報に基づいて、表示部17の立体視オブジェクトの表示を変化させる。  Thedisplay control unit 16 causes thedisplay unit 17 to display the stereoscopic object based on the stereoscopic object data received from thedata acquisition unit 11. Further, thedisplay control unit 16 changes the display of the stereoscopic object on thedisplay unit 17 based on the operation information received from thedetermination unit 15.

表示部17は、表示制御部16からの指示に従い、立体視オブジェクトを表示する。  Thedisplay unit 17 displays a stereoscopic object in accordance with an instruction from thedisplay control unit 16.

図3は、平面視オブジェクトおよび立体視オブジェクトを説明する図である。図3(a)に示す平面視オブジェクトO2は、表示画面D1の横方向と平行なα軸と表示画面D1の縦方向と平行なβ軸で表される二次元における平面視オブジェクトO2の中心の座標P1(α1,β1)と、平面視オブジェクトO2の形状を表すデータと、座標P1を中心とした平面視オブジェクトの回転角とで表現することができる。  FIG. 3 is a diagram for explaining a planar object and a stereoscopic object. The planar view object O2 shown in FIG. 3A is the center of the two-dimensional plan view object O2 in two dimensions represented by an α axis parallel to the horizontal direction of the display screen D1 and a β axis parallel to the vertical direction of the display screen D1. It can be expressed by coordinates P1 (α1, β1), data representing the shape of the planar object O2, and the rotation angle of the planar object around the coordinate P1.

一方、図3(b)に示す立体視オブジェクトO1は、表示画面D1の横方向と平行なα軸と表示画面D1の縦方向と平行なβ軸と表示画面D1の垂直方向と平行なγ軸とで表される三次元における立体視オブジェクトO1の中心の座標P2(α2,β2,γ2)と、立体視オブジェクトO1の形状を表すデータと、α軸を中心とした立体視オブジェクトの回転角Pitchと、β軸を中心とした立体視オブジェクトの回転角Rollと、γ軸を中心とした立体視オブジェクトの回転角Yawとで表現することができる。  On the other hand, the stereoscopic object O1 shown in FIG. 3B has an α axis parallel to the horizontal direction of the display screen D1, a β axis parallel to the vertical direction of the display screen D1, and a γ axis parallel to the vertical direction of the display screen D1. The coordinate P2 (α2, β2, γ2) of the center of the stereoscopic object O1 in the three dimensions represented by the above, data representing the shape of the stereoscopic object O1, and the rotation angle Pitch of the stereoscopic object about the α axis And a rotation angle Roll of the stereoscopic object around the β axis and a rotation angle Yaw of the stereoscopic object around the γ axis.

画像操作装置1のデータ取得部11が、立体視オブジェクトO1のデータとして、立体視オブジェクトO1の中心座標P2(α2,β2,γ2)と、立体視オブジェクトO1の形状を表すデータと、立体視オブジェクトO1の回転角(Pitch:0°,Roll:0°,Yaw:0°)とを受け取ると、表示制御部16は、これに基づいて表示部17に立体視オブジェクトO1を表示させる。  Thedata acquisition unit 11 of theimage manipulation device 1 uses the center coordinates P2 (α2, β2, γ2) of the stereoscopic object O1, data representing the shape of the stereoscopic object O1, and the stereoscopic object O1 as data of the stereoscopic object O1. Upon receiving the rotation angle of O1 (Pitch: 0 °, Roll: 0 °, Yaw: 0 °), thedisplay control unit 16 displays the stereoscopic object O1 on thedisplay unit 17 based on this.

なお、図3(b)の立体視オブジェクトO1をβ軸を中心としたオブジェクトの回転角Rollを負の方向(時計回り)にθ回転させた場合、図3(c)のように、表示画面D1に表示される。このとき、立体視オブジェクトO1のデータに含まれる立体視オブジェクトO1の回転角は、(Pitch:0°,Roll:−θ,Yaw:0°)となる。  When the stereoscopic object O1 of FIG. 3B is rotated by θ in the negative direction (clockwise) of the object rotation angle Roll about the β axis, the display screen is displayed as shown in FIG. D1 is displayed. At this time, the rotation angle of the stereoscopic object O1 included in the data of the stereoscopic object O1 is (Pitch: 0 °, Roll: −θ, Yaw: 0 °).

立体視オブジェクトO1のデータは、ユーザの視点があらかじめ設定されているデータであり、実際には、表示制御部16は、立体オブジェクトO1のデータに基づいて、ユーザの右目の視点と立体視オブジェクトO1を構成する各点とをつないだ延長線上にある表示画面上の各点と、ユーザの左目の視点と立体視オブジェクトO1を構成する各点とをつないだ延長線上にある表示画面上の各点とを計算する。表示制御部16は、計算した表示画面上の各点の集合から、視差によって立体視オブジェクトO1がユーザに視認できる画像を生成し、表示部17に表示させる。  The data of the stereoscopic object O1 is data in which the user's viewpoint is set in advance. Actually, thedisplay control unit 16 determines the viewpoint of the user's right eye and the stereoscopic object O1 based on the data of the stereoscopic object O1. Each point on the display screen that is on the extension line that connects each point on the display screen that is connected to each point that constitutes the point, and each point that constitutes the viewpoint object of the stereoscopic object O1 And calculate. Thedisplay control unit 16 generates an image that allows the user to visually recognize the stereoscopic object O1 from the set of calculated points on the display screen, and causes thedisplay unit 17 to display the image.

あるいは、立体視オブジェクトO1のデータは、元々、視差によって立体視オブジェクトO1がユーザに視認できる画像であってもよい。この場合、判定部15は、立体視オブジェクトO1のデータと、あらかじめ設定されているユーザの視点に基づいて、立体視オブジェクトO1の中心座標P2と、立体視オブジェクトO1の形状を表すデータと、立体視オブジェクトO1の回転角とを計算する。  Alternatively, the data of the stereoscopic object O1 may originally be an image that allows the user to visually recognize the stereoscopic object O1 by parallax. In this case, thedetermination unit 15 determines, based on the data of the stereoscopic object O1, the center coordinate P2 of the stereoscopic object O1, the data representing the shape of the stereoscopic object O1, The rotation angle of the visual object O1 is calculated.

図4は、実施の形態に係るユーザの指と立体視オブジェクトとの衝突判定の例を説明する図である。図4(a)の例では、立体視オブジェクトO1を示すデータは、中心の座標P2(α2,β2,γ2)と、直方体(W:a2,H;b2,D:c2)と、回転角(Pitch:0°,Roll:0°,Yaw:0°)とで表される。なお、直方体のWはX軸方向の幅を示す、HはZ軸方向の高さを表し、DはY軸方向の奥行きを表す。  FIG. 4 is a diagram illustrating an example of collision determination between a user's finger and a stereoscopic object according to the embodiment. In the example of FIG. 4A, the data indicating the stereoscopic object O1 includes the center coordinates P2 (α2, β2, γ2), the rectangular parallelepiped (W: a2, H; b2, D: c2), and the rotation angle ( (Pitch: 0 °, Roll: 0 °, Yaw: 0 °). Note that W of the rectangular parallelepiped indicates the width in the X-axis direction, H indicates the height in the Z-axis direction, and D indicates the depth in the Y-axis direction.

画像操作装置1の判定部15は、このような立体視オブジェクトO1のデータに基づいて、表示画面D1の前面の空間で立体視オブジェクトO1が視認される領域A1を計算する。なお、領域A1の座標は、所定の位置を原点とした表示画面D1の横方向と平行なX軸と表示画面D1の縦方向と平行なY軸と表示画面D1の垂直方向と平行なZ軸とで表される三次元で規定する。判定部15は、立体視オブジェクトO1の中心の座標P2(α2,β2,γ2)をP2(X2,Y2,Z2)に変換する。P2(X2,Y2,Z2)を中心とした直方体(W:a2,H;b2,D:c2)が領域A1である。なお、αβγ座標からXYZ座標への変換方法は、αβγ座標の原点とXYZ座標の原点との各軸の差をαβγ座標の各軸の値に加算すればよい。  Thedetermination unit 15 of theimage manipulation device 1 calculates an area A1 where the stereoscopic object O1 is visually recognized in the space in front of the display screen D1, based on the data of the stereoscopic object O1. The coordinates of the area A1 are the X axis parallel to the horizontal direction of the display screen D1, the Y axis parallel to the vertical direction of the display screen D1 and the Z axis parallel to the vertical direction of the display screen D1 with a predetermined position as the origin. It is defined in the three dimensions represented by Thedetermination unit 15 converts the coordinates P2 (α2, β2, γ2) of the center of the stereoscopic object O1 into P2 (X2, Y2, Z2). A rectangular parallelepiped (W: a2, H; b2, D: c2) centered on P2 (X2, Y2, Z2) is the region A1. In addition, the conversion method from the αβγ coordinate to the XYZ coordinate may be performed by adding the difference of each axis between the origin of the αβγ coordinate and the origin of the XYZ coordinate to the value of each axis of the αβγ coordinate.

一方、図4(b)に示すように、指座標抽出部14は、画像取得部12(図中のカメラC1およびカメラC2)から受け取った画像と、記憶部13が記憶しているユーザの指の画像とのパターンマッチングを行い、指座標P3(X3,Y3,Z3)を抽出する。  On the other hand, as shown in FIG. 4B, the finger coordinateextraction unit 14 includes the image received from the image acquisition unit 12 (camera C1 and camera C2 in the figure) and the user's finger stored in thestorage unit 13. Pattern matching with the image of the finger is performed, and finger coordinates P3 (X3, Y3, Z3) are extracted.

具体的には、指座標抽出部14は、まず、P4(X4,Y4,Z4)の座標に設置されたカメラC1が所定の角度で撮影した画像と記憶部13が記憶しているユーザの指の画像とを比較してユーザの指を検出し、そのポインティング位置(図4の例では、指の先端)を検出する。同様に、指座標抽出部14は、指座標抽出部14は、P5(X5,Y5,Z5)の座標に設置されたカメラC2が所定の角度で撮影した画像と記憶部13が記憶しているユーザの指の画像とを比較してユーザの指を検出し、そのポインティング位置を検出する。指座標抽出部14は、あらかじめ記憶部13に記憶したカメラC1の画像におけるポインティング位置とカメラC2の画像におけるポインティング位置との組み合わせに、表示画面D1の前面の空間における指座標を対応付けたデータテーブルを参照し、指座標P3(X3,Y3,Z3)を抽出する。  Specifically, first, the finger coordinate extractingunit 14 first captures an image photographed at a predetermined angle by the camera C1 installed at the coordinates of P4 (X4, Y4, Z4) and the user's finger stored in thestorage unit 13. The user's finger is detected by comparing with the above image, and the pointing position (the tip of the finger in the example of FIG. 4) is detected. Similarly, in the finger coordinateextraction unit 14, the finger coordinateextraction unit 14 stores an image photographed at a predetermined angle by the camera C2 installed at the coordinates of P5 (X5, Y5, Z5) and thestorage unit 13. The user's finger is detected by comparing with the image of the user's finger, and the pointing position is detected. The finger coordinateextraction unit 14 associates the finger coordinates in the space in front of the display screen D1 with the combination of the pointing position in the image of the camera C1 and the pointing position in the image of the camera C2 stored in thestorage unit 13 in advance. , Finger coordinates P3 (X3, Y3, Z3) are extracted.

あるいは、カメラC1の画像におけるポインティング位置と、カメラC2の画像におけるポインティング位置と、カメラC1の撮影角度と、カメラC2の撮影角度とから、ポインティング位置のXYZ座標における位置(X3,Y3,Z3)を算出して指座標P3とする。  Alternatively, the position (X3, Y3, Z3) of the pointing position in the XYZ coordinates is determined from the pointing position in the image of the camera C1, the pointing position in the image of the camera C2, the shooting angle of the camera C1, and the shooting angle of the camera C2. Calculate the finger coordinate P3.

判定部15は、領域A1と指座標P3に基づいて、ユーザの指が立体視オブジェクトO1に仮想的に触れたか否かの衝突判定を行う。図4(b)の例では、領域A1を示す直方体の側面に指座標P3が含まれるため、判定部15は、ユーザの指が立体視オブジェクトO1に仮想的に触れたと判定する。  Thedetermination unit 15 determines whether or not the user's finger has virtually touched the stereoscopic object O1 based on the area A1 and the finger coordinates P3. In the example of FIG. 4B, since the finger coordinate P3 is included in the side surface of the rectangular parallelepiped showing the region A1, thedetermination unit 15 determines that the user's finger has virtually touched the stereoscopic object O1.

図5は、実施の形態に係るユーザが立体視オブジェクトに対して行う操作の一例を説明する図である。判定部15は、ユーザの指が立体視オブジェクトO1に仮想的に触れたと判定すると、画像取得部12から受け取った画像に基づいてユーザの指の動きを検出し、ユーザが立体視オブジェクトに対して行った操作を示す操作情報を生成する。図5のように、ユーザが指をP3(X3,Y3,Z3)からP32(X32,Y3,Z3)までX軸の負の方向に移動させたとすると、判定部15は、ユーザの指がX軸の負の方向に(X3−X32)移動したことを示す操作情報を生成し、表示制御部16に送信する。  FIG. 5 is a diagram illustrating an example of an operation performed on the stereoscopic object by the user according to the embodiment. When thedetermination unit 15 determines that the user's finger has virtually touched the stereoscopic object O1, thedetermination unit 15 detects the movement of the user's finger based on the image received from theimage acquisition unit 12, and the user performs the operation on the stereoscopic object. Operation information indicating the performed operation is generated. As shown in FIG. 5, when the user moves his / her finger from P3 (X3, Y3, Z3) to P32 (X32, Y3, Z3) in the negative direction of the X axis, thedetermination unit 15 determines that the user's finger is X Operation information indicating that the axis has moved in the negative direction (X3-X32) is generated and transmitted to thedisplay control unit 16.

表示制御部16は、この操作情報に基づいて、表示部17に表示している立体視オブジェクトO1をX軸の負の方向に(X3−X32)移動させる。これにより、ユーザの指で行った立体視オブジェクトに対して行った操作が立体視オブジェクトの表示に反映される。なお、ユーザが立体視オブジェクトに対して行う操作は、移動させる操作に限らず、回転させたり、拡大・縮小したりしてもよい。この場合、たとえば、それぞれの操作に対応するジェスチャを示すデータをあらかじめ記憶部13に記憶しておく。判定部15は、ユーザの指が立体視オブジェクトO1に仮想的に触れたと判定すると、記憶部13が記憶している操作に対応するジェスチャを示すデータを参照し、画像取得部12(図中のカメラC1およびカメラC2)から受け取った画像からユーザが立体視オブジェクトO1に対して行ったジェスチャを検出して操作情報を生成する。  Based on the operation information, thedisplay control unit 16 moves the stereoscopic object O1 displayed on thedisplay unit 17 in the negative direction of the X axis (X3-X32). Thereby, the operation performed on the stereoscopic object performed with the user's finger is reflected in the display of the stereoscopic object. Note that the operation performed on the stereoscopic object by the user is not limited to the moving operation, and may be rotated or enlarged / reduced. In this case, for example, data indicating a gesture corresponding to each operation is stored in thestorage unit 13 in advance. When thedetermination unit 15 determines that the user's finger has virtually touched the stereoscopic object O1, thedetermination unit 15 refers to data indicating a gesture corresponding to the operation stored in thestorage unit 13, and the image acquisition unit 12 (in the drawing) Operation information is generated by detecting a gesture made by the user with respect to the stereoscopic object O1 from images received from the cameras C1 and C2).

図6は、ユーザが立体視オブジェクトに対して行うジェスチャの例を示す図である。図6(a)は、対象の立体視オブジェクトを拡大するジェスチャの例である。このジェスチャは、親指と人差し指の指先が接着している状態から開く。逆に親指と人差し指の指先が開いている状態から接着させると対象の立体視オブジェクトを縮小するジェスチャとする。拡大方法は、XYZ軸の比率を保持して拡大してもよいし、開いた親指の指先の座標と人差し指の指先の座標を結んだ直線方向に拡大してもよい。縮小も同様である。  FIG. 6 is a diagram illustrating an example of a gesture performed by a user on a stereoscopic object. FIG. 6A is an example of a gesture for enlarging a target stereoscopic object. This gesture is opened from the state where the thumb and index finger are bonded. On the other hand, if the thumb and index finger are opened from the open state, the target stereoscopic object is reduced. The enlargement method may be performed while maintaining the ratio of the XYZ axes, or may be performed in a linear direction connecting the coordinates of the fingertip of the open thumb and the fingertip of the index finger. The same applies to reduction.

図6(b)は、対象の立体視オブジェクトを回転するジェスチャの例である。このジェスチャは、親指と人差し指の指先が開いている状態で手首を時計回りに回転させる。逆に手首を反時計回りに回転させると逆方向に回転させるジェスチャとする。回転方法は、親指および人差し指の指先の手首を中心とした回転を検出し、立体視オブジェクトに同様の回転をさせてもよいし、立体視オブジェクトに対する親指および人差し指の指先の位置によって、立て回転、横回転、斜め回転などに分け、該当する回転をさせてもよい。  FIG. 6B is an example of a gesture for rotating the target stereoscopic object. This gesture rotates the wrist clockwise with the thumb and index finger open. Conversely, when the wrist is rotated counterclockwise, the gesture is rotated in the opposite direction. The rotation method may detect rotation around the wrist of the thumb and forefinger fingertips and cause the stereoscopic object to rotate in the same manner, or may rotate vertically depending on the position of the thumb and forefinger fingertip relative to the stereoscopic object. The rotation may be divided into horizontal rotation, diagonal rotation, and the like.

図7は、ユーザの指と立体視オブジェクトとの衝突判定の他の例を説明する図である。図7(a)の例では、立体視オブジェクトO1を示すデータは、特徴点P6(α6,β6,γ6)と、特徴点P7(α7,β7,γ7)と、特徴点P8(α8,β8,γ8)と、特徴点P9(α9,β9,γ9)と、特徴点P10(α10,β10,γ10)と、特徴点P11(α11,β11,γ11)と、特徴点P12(α12,β12,γ12)と、特徴点P13(α13,β13,γ13)とで表される。  FIG. 7 is a diagram for explaining another example of the collision determination between the user's finger and the stereoscopic object. In the example of FIG. 7A, the data indicating the stereoscopic object O1 includes feature points P6 (α6, β6, γ6), feature points P7 (α7, β7, γ7), and feature points P8 (α8, β8, γ8), feature point P9 (α9, β9, γ9), feature point P10 (α10, β10, γ10), feature point P11 (α11, β11, γ11), and feature point P12 (α12, β12, γ12). And a feature point P13 (α13, β13, γ13).

画像操作装置1の判定部15は、このような立体視オブジェクトO1のデータに基づいて、表示画面D1の前面の空間で立体視オブジェクトO1が視認される領域A1を計算する。図4の例と同様に、領域A1の座標は、所定の位置を原点とした表示画面D1の横方向と平行なX軸と表示画面D1の縦方向と平行なY軸と表示画面D1の垂直方向と平行なZ軸とで表される三次元で規定する。特徴点P6〜特徴点P13は、それぞれ特徴点P6(X6,Y6,Z6)と、特徴点P7(X7,Y7,Z7)と、特徴点P8(X8,Y8,Z8)と、特徴点P9(X9,Y9,Z9)と、特徴点P10(X10,Y10,Z10)と、特徴点P11(X11,Y11,Z11)と、特徴点P12(X12,Y12,Z12)と、特徴点P13(X13,Y13,Z13)と、に変換される。これらの特徴点P6〜特徴点P13で囲まれる領域が領域A1である。なお、αβγ座標からXYZ座標への変換方法は、図4の例と同様である。  Thedetermination unit 15 of theimage manipulation device 1 calculates an area A1 where the stereoscopic object O1 is visually recognized in the space in front of the display screen D1, based on the data of the stereoscopic object O1. Similar to the example of FIG. 4, the coordinates of the area A <b> 1 are the X axis parallel to the horizontal direction of the display screen D <b> 1 with the predetermined position as the origin, the Y axis parallel to the vertical direction of the display screen D <b> 1 and It is defined in three dimensions expressed by the Z axis parallel to the direction. The feature points P6 to P13 are respectively a feature point P6 (X6, Y6, Z6), a feature point P7 (X7, Y7, Z7), a feature point P8 (X8, Y8, Z8), and a feature point P9 ( X9, Y9, Z9), feature point P10 (X10, Y10, Z10), feature point P11 (X11, Y11, Z11), feature point P12 (X12, Y12, Z12), and feature point P13 (X13, Y13, Z13). A region surrounded by these feature points P6 to P13 is a region A1. Note that the conversion method from αβγ coordinates to XYZ coordinates is the same as the example of FIG.

一方、図7(b)に示すように、指座標抽出部14は、画像取得部12(カメラC1およびC2)から受け取った画像と、記憶部13が記憶しているユーザの指の画像とのパターンマッチングを行い、指座標P3(X3,Y3,Z3)を抽出する。指座標の抽出方法は図4の例と同様である。判定部15は、領域A1と指座標P3に基づいて、ユーザの指が立体視オブジェクトO1に仮想的に触れたか否かの衝突判定を行う。図7(b)の例では、特徴点P7、P8、P11およびP12で囲まれる面に指座標P3が含まれるため、判定部15は、ユーザの指が立体視オブジェクトO1に仮想的に触れたと判定する。  On the other hand, as illustrated in FIG. 7B, the finger coordinateextraction unit 14 includes an image received from the image acquisition unit 12 (cameras C <b> 1 and C <b> 2) and a user finger image stored in thestorage unit 13. Pattern matching is performed to extract finger coordinates P3 (X3, Y3, Z3). The finger coordinate extraction method is the same as that in the example of FIG. Thedetermination unit 15 determines whether or not the user's finger has virtually touched the stereoscopic object O1 based on the area A1 and the finger coordinates P3. In the example of FIG. 7B, since the finger coordinates P3 are included in the surface surrounded by the feature points P7, P8, P11, and P12, thedetermination unit 15 assumes that the user's finger virtually touches the stereoscopic object O1. judge.

図8は、実施の形態に係る画像操作の動作の一例を示すフローチャートである。なお、画像操作装置1の記憶部13は、あらかじめ画像取得部12が取得したユーザの指の画像を記憶している。  FIG. 8 is a flowchart illustrating an example of the operation of the image operation according to the embodiment. Note that thestorage unit 13 of theimage operation device 1 stores an image of the user's finger acquired by theimage acquisition unit 12 in advance.

データ取得部11は、立体視オブジェクトのデータを取得し(ステップS11)、判定部15および表示制御部16に送る。表示制御部16は、データ取得部11から受け取った立体視オブジェクトのデータに基づいて、表示部17に立体視オブジェクトを表示させる(ステップS12)。判定部15は、データ取得部11から受け取った立体視オブジェクトのデータに基づいて、表示画面D1の前面の空間で立体視オブジェクトが視認される領域を計算する(ステップS13)。なお、ステップS11でデータ取得部11が立体視オブジェクトのデータとともに領域データを取得した場合は、判定部15は、データ取得部11から領域データを受け取る。  Thedata acquisition unit 11 acquires the data of the stereoscopic object (step S11) and sends the data to thedetermination unit 15 and thedisplay control unit 16. Thedisplay control unit 16 displays the stereoscopic object on thedisplay unit 17 based on the stereoscopic object data received from the data acquisition unit 11 (step S12). Thedetermination unit 15 calculates an area where the stereoscopic object is visually recognized in the space in front of the display screen D1 based on the stereoscopic object data received from the data acquisition unit 11 (step S13). When thedata acquisition unit 11 acquires area data together with the stereoscopic object data in step S <b> 11, thedetermination unit 15 receives area data from thedata acquisition unit 11.

画像取得部12は、表示画面D1の前面の所定の範囲の空間の画像を取得し(ステップS14)、指座標検出部14は、画像取得部12が取得した画像と記憶部13から読み出したユーザの指の画像とのパターンマッチングを行い、指座標を抽出する(ステップS15)。指座標検出部14は、抽出した指座標を判定部15に送る。  Theimage acquisition unit 12 acquires an image of a space in a predetermined range in front of the display screen D1 (step S14), and the finger coordinatedetection unit 14 reads the image acquired by theimage acquisition unit 12 and the user read from thestorage unit 13 Pattern matching with the finger image is performed to extract finger coordinates (step S15). The finger coordinatedetection unit 14 sends the extracted finger coordinates to thedetermination unit 15.

判定部15は、表示画面D1の前面の空間で立体視オブジェクトが視認される領域と、指座標抽出部14から受け取った指座標とに基づいて、ユーザの指が立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う(ステップS16)。ユーザの指が立体視オブジェクトに仮想的に触れていないと判定した場合(ステップS16;NO)、ステップS16を繰り返す。ユーザの指が立体視オブジェクトに仮想的に触れたと判定した場合(ステップS16;YES)、判定部15は、画像取得部12から受け取った画像に基づいてユーザの指の動きを検出し、ユーザが立体視オブジェクトに対して行った操作を示す操作情報を生成する(ステップS17)。判定部15は、操作情報を表示制御部16に送信する。  Thedetermination unit 15 virtually touches the stereoscopic object with the user's finger based on the area where the stereoscopic object is visually recognized in the space in front of the display screen D1 and the finger coordinates received from the finger coordinateextraction unit 14. Whether or not the collision has occurred is determined (step S16). If it is determined that the user's finger is not virtually touching the stereoscopic object (step S16; NO), step S16 is repeated. When it is determined that the user's finger has virtually touched the stereoscopic object (step S16; YES), thedetermination unit 15 detects the movement of the user's finger based on the image received from theimage acquisition unit 12, and the user Operation information indicating an operation performed on the stereoscopic object is generated (step S17). Thedetermination unit 15 transmits operation information to thedisplay control unit 16.

表示制御部16は、判定部15から受け取った操作情報に基づいて、表示部17の立体視オブジェクトの表示を変化させ(ステップS18)、処理を終了する。  Thedisplay control unit 16 changes the display of the stereoscopic object on thedisplay unit 17 based on the operation information received from the determination unit 15 (step S18), and ends the process.

以上説明したように、本実施の形態の画像操作装置によれば、ユーザが装着する専用の装置を必要とせず、立体視オブジェクトをユーザの指で操作することができる。また、ユーザの指で操作することで、立体視オブジェクトに対する操作の自由度を向上させることが期待できる。  As described above, according to the image operation device of the present embodiment, a stereoscopic object can be operated with a user's finger without requiring a dedicated device worn by the user. Moreover, it can be expected that the degree of freedom of operation on the stereoscopic object is improved by operating with the user's finger.

なお、上述の実施の形態では、立体視オブジェクトのデータは、あらかじめユーザの視点が設定されている。しかし、これに限らず、画像操作装置1は、ユーザの視点を検出する手段を備えてもよい。この場合、表示制御部16は、立体視オブジェクトのデータと検出したユーザの視点に基づいて、表示部17に立体視オブジェクトを表示させる。判定部15は、立体視オブジェクトのデータと検出したユーザの視点とに基づいて、表示画面D1の前面の空間で立体視オブジェクトが視認される領域を計算する。視点を検出する手段は、たとえば、カメラC1およびカメラC2が取得したユーザの画像を解析しユーザの目を検出する。あるいは、ユーザが視点の位置を入力して設定してもよい。  In the above-described embodiment, the viewpoint of the user is set in advance for the data of the stereoscopic object. However, the present invention is not limited to this, and theimage manipulation device 1 may include means for detecting the user's viewpoint. In this case, thedisplay control unit 16 displays the stereoscopic object on thedisplay unit 17 based on the data of the stereoscopic object and the detected user's viewpoint. Thedetermination unit 15 calculates a region where the stereoscopic object is visually recognized in the space in front of the display screen D1, based on the stereoscopic object data and the detected user viewpoint. The means for detecting the viewpoint detects, for example, the user's eyes by analyzing the user images acquired by the cameras C1 and C2. Alternatively, the user may input and set the viewpoint position.

図9は、実施の形態に係る画像操作装置のハードウェア構成の一例を示すブロック図である。  FIG. 9 is a block diagram illustrating an example of a hardware configuration of the image manipulation device according to the embodiment.

制御部31はCPU(Central Processing Unit)等から構成され、外部記憶部33に記憶されている制御プログラム39に従って、指座標抽出部14、判定部15および表示制御部16の各処理を実行する。  Thecontrol unit 31 includes a CPU (Central Processing Unit) and the like, and executes each process of the finger coordinateextraction unit 14, thedetermination unit 15, and thedisplay control unit 16 in accordance with acontrol program 39 stored in theexternal storage unit 33.

主記憶部32はRAM(Random Access Memory)等から構成され、外部記憶部33に記憶されている制御プログラム39をロードし、制御部31の作業領域として用いられる。  Themain storage unit 32 is composed of a RAM (Random Access Memory) or the like, loads acontrol program 39 stored in theexternal storage unit 33, and is used as a work area of thecontrol unit 31.

外部記憶部33は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、画像操作装置1の処理を制御部31に行わせるためのプログラムをあらかじめ記憶し、また、制御部31の指示に従って、このプログラムが記憶するデータを制御部31に供給し、制御部31から供給されたデータを記憶する。記憶部13は、外部記憶部33に構成される。  Theexternal storage unit 33 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and controls processing of theimage manipulation device 1. A program to be executed by theunit 31 is stored in advance, and data stored by the program is supplied to thecontrol unit 31 in accordance with an instruction from thecontrol unit 31, and the data supplied from thecontrol unit 31 is stored. Thestorage unit 13 is configured in theexternal storage unit 33.

操作部34はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス30に接続するインタフェース装置から構成されている。ユーザが入力した情報は、操作部34を介して、制御部31に供給される。  Theoperation unit 34 includes a pointing device such as a keyboard and a mouse, and an interface device that connects the keyboard and the pointing device to the internal bus 30. Information input by the user is supplied to thecontrol unit 31 via theoperation unit 34.

表示部35は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、制御部31から受け取った表示情報を表示する。表示部35は、表示画面D1であり、表示部17として機能する。  Thedisplay unit 35 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and displays display information received from thecontrol unit 31. Thedisplay unit 35 is a display screen D1 and functions as thedisplay unit 17.

送受信部36は、網終端装置または無線送受信機と、それらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部36は、データ取得部11として機能する。  The transmission /reception unit 36 includes a network termination device or a wireless transceiver, and a serial interface or a LAN (Local Area Network) interface connected thereto. The transmission /reception unit 36 functions as thedata acquisition unit 11.

撮影部37は、カメラC1およびカメラC2であり、画像取得部12として機能する。  Theimaging unit 37 is a camera C1 and a camera C2, and functions as theimage acquisition unit 12.

図2に示す画像操作装置1のデータ取得部11、画像取得部12、記憶部13、指座標抽出部14、判定部15、表示制御部16および表示部17の処理は、制御プログラム39が、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、送受信部36および撮影部37などを資源として用いて処理することによって実行する。  The processing of thedata acquisition unit 11, theimage acquisition unit 12, thestorage unit 13, the finger coordinateextraction unit 14, thedetermination unit 15, thedisplay control unit 16, and thedisplay unit 17 of theimage operation device 1 illustrated in FIG. Thecontrol unit 31, themain storage unit 32, theexternal storage unit 33, theoperation unit 34, thedisplay unit 35, the transmission /reception unit 36, theimaging unit 37, and the like are used as resources for processing.

その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。  In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、送受信部36および撮影部37などから構成される画像操作装置1の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する画像操作装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで画像操作装置1を構成してもよい。  A central part that performs processing of theimage operation apparatus 1 including thecontrol unit 31, themain storage unit 32, theexternal storage unit 33, theoperation unit 34, thedisplay unit 35, the transmission /reception unit 36, the photographingunit 37, and the like is dedicated. Regardless of the system, it can be realized using a normal computer system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, theimage operating device 1 that executes the above-described processing may be configured. Further, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and theimage operation device 1 may be configured by being downloaded by a normal computer system.

また、画像操作装置1の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。  When the functions of theimage operation device 1 are realized by sharing of an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. May be.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。  It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

上記の実施形態の一部または全部は、以下の請求項のようにも記載されうるが、以下には限られない。  Part or all of the above embodiments can be described as in the following claims, but are not limited thereto.

(付記1)
画像を表示する表示画面と、
前記表示画面の前面の所定の空間を撮影する撮影部と、
前記撮影部が撮影した画像を取得する画像取得手段と、
ユーザの指の画像を記憶する記憶手段と、
立体視オブジェクトのデータを取得するデータ取得手段と、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段と、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段と、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段と、を備え、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする画像操作装置。
(Appendix 1)
A display screen for displaying images;
A photographing unit for photographing a predetermined space in front of the display screen;
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of the user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction unit that compares the image acquired by the image acquisition unit with the image of the user's finger stored in the storage unit, and extracts finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination means for performing a collision determination as to whether or not touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes the display of the stereoscopic object displayed on the display screen based on the operation information.

(付記2)
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、三次元の各軸を中心とした回転角とを含み、
前記判定手段は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、前記三次元の各軸を中心とした回転角と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする付記1に記載の画像操作装置。
(Appendix 2)
The information indicating the area where the stereoscopic object is viewed includes three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, and a rotation angle about each three-dimensional axis. Including
The determination means is based on the three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, a rotation angle around each of the three-dimensional axes, and the finger coordinates. The image operating device according toappendix 1, wherein a collision determination is made as to whether or not a user's finger has virtually touched the stereoscopic object.

(付記3)
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトのすべての特徴点の三次元の座標を含み、
前記判定手段は、前記立体視オブジェクトのすべての特徴点の三次元の座標と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする付記1に記載の画像操作装置。
(Appendix 3)
The information indicating the area where the stereoscopic object is viewed includes three-dimensional coordinates of all feature points of the stereoscopic object,
The determination unit determines whether or not the user's finger has virtually touched the stereoscopic object based on the three-dimensional coordinates of all feature points of the stereoscopic object and the finger coordinates. The image manipulating apparatus according toSupplementary Note 1, wherein

(付記4)
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザが指を移動させた方向と移動距離とを計算して、前記ユーザが前記立体視オブジェクトを移動させた操作を示す前記操作情報を生成することを特徴とする付記1ないし3のいずれかに記載の画像操作装置。
(Appendix 4)
When it is determined that the user's finger has virtually touched the stereoscopic object, the determination unit determines a direction and a moving distance in which the user has moved the finger based on the image acquired by the image acquisition unit. The image operation device according to any one ofappendices 1 to 3, wherein the operation information indicating the operation by which the user has moved the stereoscopic object is generated by calculation.

(付記5)
前記記憶手段は、前記ユーザが前記立体視オブジェクトに対して行う操作に対応するジェスチャを示すデータをあらかじめ記憶し、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記ユーザが前記立体視オブジェクトに対して行う操作に対応するジェスチャを示すデータを参照し、前記画像取得手段が取得した画像に基づいて前記ジェスチャを検出して、前記ユーザが前記立体視オブジェクトに対して行った操作を示す前記操作情報を生成することを特徴とする付記1ないし4のいずれかに記載の画像操作装置。
(Appendix 5)
The storage means stores in advance data indicating a gesture corresponding to an operation performed on the stereoscopic object by the user,
When the determination unit determines that the user's finger virtually touches the stereoscopic object, the determination unit refers to data indicating a gesture corresponding to an operation performed on the stereoscopic object by the user, and acquires the image The supplementary information according to any one ofsupplementary notes 1 to 4, wherein the gesture information is detected based on an image acquired by the means, and the operation information indicating an operation performed by the user on the stereoscopic object is generated. Image manipulation device.

(付記6)
画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備える画像操作装置が実行する
前記撮影部が撮影した画像を取得する画像取得ステップと、
ユーザの指の画像を記憶する記憶ステップと、
立体視オブジェクトのデータを取得するデータ取得ステップと、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御ステップと、
前記画像取得ステップで取得した画像と、前記記憶ステップで記憶した前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出ステップと、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定ステップと、を備え、
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得ステップで取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御ステップでは、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする画像操作方法。
(Appendix 6)
An image acquisition step executed by an image manipulation device including a display screen for displaying an image and a photographing unit for photographing a predetermined space in front of the display screen;
A storage step for storing an image of the user's finger;
A data acquisition step for acquiring data of the stereoscopic object;
A display control step of displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction step of comparing the image acquired in the image acquisition step with the image of the user's finger stored in the storage step and extracting finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination step of performing a collision determination as to whether or not touched,
In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, movement of the user's finger is detected based on the image acquired in the image acquisition step, and the user Generate operation information indicating the operation performed on the stereoscopic object,
In the display control step, the display of the stereoscopic object displayed on the display screen is changed based on the operation information.

(付記7)
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、三次元の各軸を中心とした回転角とを含み、
前記判定ステップでは、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、前記三次元の各軸を中心とした回転角と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする付記6に記載の画像操作方法。
(Appendix 7)
The information indicating the area where the stereoscopic object is viewed includes three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, and a rotation angle about each three-dimensional axis. Including
In the determining step, based on the three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, a rotation angle around each of the three-dimensional axes, and the finger coordinates, The image operation method according toappendix 6, wherein a collision determination is made as to whether or not a user's finger has virtually touched the stereoscopic object.

(付記8)
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトのすべての特徴点の三次元の座標を含み、
前記判定ステップでは、前記立体視オブジェクトのすべての特徴点の三次元の座標と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする付記6に記載の画像操作方法。
(Appendix 8)
The information indicating the area where the stereoscopic object is viewed includes three-dimensional coordinates of all feature points of the stereoscopic object,
In the determination step, it is determined whether or not the user's finger has virtually touched the stereoscopic object based on the three-dimensional coordinates of all feature points of the stereoscopic object and the finger coordinates. The image operation method according toappendix 6, wherein:

(付記9)
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得ステップで取得した画像に基づいて、前記ユーザが指を移動させた方向と移動距離とを計算して、前記ユーザが前記立体視オブジェクトを移動させた操作を示す前記操作情報を生成することを特徴とする付記6ないし8のいずれかに記載の画像操作方法。
(Appendix 9)
In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, based on the image acquired in the image acquisition step, the direction in which the user has moved the finger and the moving distance are determined. The image operation method according to any one ofappendices 6 to 8, wherein the operation information indicating the operation by which the user has moved the stereoscopic object is generated by calculation.

(付記10)
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像操作装置があらかじめ記憶する前記ユーザが前記立体視オブジェクトに対して行う操作に対応するジェスチャを示すデータを参照し、前記画像取得ステップで取得した画像に基づいて前記ジェスチャを検出して、前記ユーザが前記立体視オブジェクトに対して行った操作を示す前記操作情報を生成することを特徴とする付記6ないし9のいずれかに記載の画像操作方法。
(Appendix 10)
In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, a gesture corresponding to an operation performed on the stereoscopic object by the user stored in advance by the image operation device is shown. The operation information indicating the operation performed on the stereoscopic object by the user is generated by detecting the gesture based on the image acquired in the image acquisition step with reference to data. The image manipulation method according to any one of 6 to 9.

(付記11)
画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備えるコンピュータを、
前記撮影部が撮影した画像を取得する画像取得手段、
ユーザの指の画像を記憶する記憶手段、
立体視オブジェクトのデータを取得するデータ取得手段、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段、として機能させ、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とするプログラム。
(Appendix 11)
A computer comprising a display screen for displaying an image, and a photographing unit for photographing a predetermined space in front of the display screen;
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of a user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
Finger coordinate extraction means for comparing the image acquired by the image acquisition means with the image of the user's finger stored in the storage means, and extracting finger coordinates indicating the position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. It functions as a determination means for performing a collision determination on whether or not it is touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes the display of the stereoscopic object displayed on the display screen based on the operation information.

1 画像操作装置
11 データ取得部
12 画像取得部
13 記憶部
14 指座標抽出部
15 判定部
16 表示制御部
17 表示部
31 制御部
32 主記憶部
33 外部記憶部
34 操作部
35 表示部
36 送受信部
37 撮影部
39 制御プログラム
A1 領域
C1,C2 カメラ
D1 表示画面
O1 平面視オブジェクト
O2 立体視オブジェクト
DESCRIPTION OFSYMBOLS 1Image operation apparatus 11Data acquisition part 12Image acquisition part 13Storage part 14 Finger coordinateextraction part 15Judgment part 16Display control part 17Display part 31Control part 32Main memory part 33External storage part 34Operation part 35Display part 36 Transmission /reception part 37 photographingsection 39 control program A1 area C1, C2 camera D1 display screen O1 planar object O2 stereoscopic object

Claims (10)

Translated fromJapanese
画像を表示する表示画面と、
前記表示画面の前面の所定の空間を撮影する撮影部と、
前記撮影部が撮影した画像を取得する画像取得手段と、
ユーザの指の画像を記憶する記憶手段と、
立体視オブジェクトのデータを取得するデータ取得手段と、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段と、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段と、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段と、を備え、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする画像操作装置。
A display screen for displaying images;
A photographing unit for photographing a predetermined space in front of the display screen;
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of the user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction unit that compares the image acquired by the image acquisition unit with the image of the user's finger stored in the storage unit, and extracts finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination means for performing a collision determination as to whether or not touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes the display of the stereoscopic object displayed on the display screen based on the operation information.
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、三次元の各軸を中心とした回転角とを含み、
前記判定手段は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、前記三次元の各軸を中心とした回転角と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする請求項1に記載の画像操作装置。
The information indicating the area where the stereoscopic object is viewed includes three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, and a rotation angle about each three-dimensional axis. Including
The determination means is based on the three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, a rotation angle around each of the three-dimensional axes, and the finger coordinates. The image operation device according to claim 1, wherein a collision determination is made as to whether or not a user's finger has virtually touched the stereoscopic object.
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトのすべての特徴点の三次元の座標を含み、
前記判定手段は、前記立体視オブジェクトのすべての特徴点の三次元の座標と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする請求項1に記載の画像操作装置。
The information indicating the area where the stereoscopic object is viewed includes three-dimensional coordinates of all feature points of the stereoscopic object,
The determination unit determines whether or not the user's finger has virtually touched the stereoscopic object based on the three-dimensional coordinates of all feature points of the stereoscopic object and the finger coordinates. The image operation device according to claim 1, wherein
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザが指を移動させた方向と移動距離とを計算して、前記ユーザが前記立体視オブジェクトを移動させた操作を示す前記操作情報を生成することを特徴とする請求項1ないし3のいずれか1項に記載の画像操作装置。  When it is determined that the user's finger has virtually touched the stereoscopic object, the determination unit determines a direction and a moving distance in which the user has moved the finger based on the image acquired by the image acquisition unit. 4. The image operation device according to claim 1, wherein the operation information is generated by calculating and indicating an operation in which the user has moved the stereoscopic object. 5. 前記記憶手段は、前記ユーザが前記立体視オブジェクトに対して行う操作に対応するジェスチャを示すデータをあらかじめ記憶し、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記ユーザが前記立体視オブジェクトに対して行う操作に対応するジェスチャを示すデータを参照し、前記画像取得手段が取得した画像に基づいて前記ジェスチャを検出して、前記ユーザが前記立体視オブジェクトに対して行った操作を示す前記操作情報を生成することを特徴とする請求項1ないし4のいずれか1項に記載の画像操作装置。
The storage means stores in advance data indicating a gesture corresponding to an operation performed on the stereoscopic object by the user,
When the determination unit determines that the user's finger virtually touches the stereoscopic object, the determination unit refers to data indicating a gesture corresponding to an operation performed on the stereoscopic object by the user, and acquires the image The operation information indicating an operation performed by the user on the stereoscopic object is generated by detecting the gesture based on an image acquired by the unit. The image manipulation device according to item.
画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備える画像操作装置が実行する
前記撮影部が撮影した画像を取得する画像取得ステップと、
ユーザの指の画像を記憶する記憶ステップと、
立体視オブジェクトのデータを取得するデータ取得ステップと、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御ステップと、
前記画像取得ステップで取得した画像と、前記記憶ステップで記憶した前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出ステップと、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定ステップと、を備え、
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得ステップで取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御ステップでは、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とする画像操作方法。
An image acquisition step executed by an image manipulation device including a display screen for displaying an image and a photographing unit for photographing a predetermined space in front of the display screen;
A storage step for storing an image of the user's finger;
A data acquisition step for acquiring data of the stereoscopic object;
A display control step of displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
A finger coordinate extraction step of comparing the image acquired in the image acquisition step with the image of the user's finger stored in the storage step and extracting finger coordinates indicating a position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. A determination step of performing a collision determination as to whether or not touched,
In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, movement of the user's finger is detected based on the image acquired in the image acquisition step, and the user Generate operation information indicating the operation performed on the stereoscopic object,
In the display control step, the display of the stereoscopic object displayed on the display screen is changed based on the operation information.
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、三次元の各軸を中心とした回転角とを含み、
前記判定ステップでは、前記立体視オブジェクトの三次元の中心座標と、前記立体視オブジェクトの形状を示すデータと、前記三次元の各軸を中心とした回転角と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする請求項6に記載の画像操作方法。
The information indicating the area where the stereoscopic object is viewed includes three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, and a rotation angle about each three-dimensional axis. Including
In the determining step, based on the three-dimensional center coordinates of the stereoscopic object, data indicating the shape of the stereoscopic object, a rotation angle around each of the three-dimensional axes, and the finger coordinates, The image operation method according to claim 6, wherein a collision determination is made as to whether or not a user's finger has virtually touched the stereoscopic object.
前記立体視オブジェクトの視認される領域を示す情報は、前記立体視オブジェクトのすべての特徴点の三次元の座標を含み、
前記判定ステップでは、前記立体視オブジェクトのすべての特徴点の三次元の座標と、前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行うことを特徴とする請求項6に記載の画像操作方法。
The information indicating the area where the stereoscopic object is viewed includes three-dimensional coordinates of all feature points of the stereoscopic object,
In the determination step, it is determined whether or not the user's finger has virtually touched the stereoscopic object based on the three-dimensional coordinates of all feature points of the stereoscopic object and the finger coordinates. The image operation method according to claim 6.
前記判定ステップでは、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得ステップで取得した画像に基づいて、前記ユーザが指を移動させた方向と移動距離とを計算して、前記ユーザが前記立体視オブジェクトを移動させた操作を示す前記操作情報を生成することを特徴とする請求項6ないし8のいずれか1項に記載の画像操作方法。  In the determination step, when it is determined that the user's finger has virtually touched the stereoscopic object, based on the image acquired in the image acquisition step, the direction in which the user has moved the finger and the moving distance are determined. The image operation method according to claim 6, wherein the operation information is generated by calculating and indicating an operation in which the user moves the stereoscopic object. 画像を表示する表示画面と、前記表示画面の前面の所定の空間を撮影する撮影部とを備えるコンピュータを、
前記撮影部が撮影した画像を取得する画像取得手段、
ユーザの指の画像を記憶する記憶手段、
立体視オブジェクトのデータを取得するデータ取得手段、
前記立体視オブジェクトのデータに基づいて、前記立体視オブジェクトを前記表示画面に表示させる表示制御手段、
前記画像取得手段が取得した画像と、前記記憶手段が記憶する前記ユーザの指の画像とを比較し、前記ユーザの指がポインティングしている位置を示す指座標を抽出する指座標抽出手段、
前記表示画面の前面の空間における前記立体視オブジェクトの視認される領域を示す情報を取得し、前記領域を示す情報と前記指座標とに基づいて前記ユーザの指が前記立体視オブジェクトに仮想的に触れたか否かの衝突判定を行う判定手段、として機能させ、
前記判定手段は、前記ユーザの指が前記立体視オブジェクトに仮想的に触れたと判定した場合、前記画像取得手段が取得した画像に基づいて、前記ユーザの指の動きを検出し、前記ユーザが前記立体視オブジェクトに対して行った操作を示す操作情報を生成し、
前記表示制御手段は、前記操作情報に基づいて、前記表示画面に表示させている前記立体視オブジェクトの表示を変化させることを特徴とするプログラム。
A computer comprising a display screen for displaying an image, and a photographing unit for photographing a predetermined space in front of the display screen;
Image acquisition means for acquiring an image captured by the imaging unit;
Storage means for storing an image of a user's finger;
Data acquisition means for acquiring data of a stereoscopic object;
Display control means for displaying the stereoscopic object on the display screen based on the data of the stereoscopic object;
Finger coordinate extraction means for comparing the image acquired by the image acquisition means with the image of the user's finger stored in the storage means, and extracting finger coordinates indicating the position where the user's finger is pointing;
Information indicating a region where the stereoscopic object is viewed in the space in front of the display screen is acquired, and the user's finger is virtually attached to the stereoscopic object based on the information indicating the region and the finger coordinates. It functions as a determination means for performing a collision determination on whether or not it is touched,
When the determination unit determines that the user's finger has virtually touched the stereoscopic object, the determination unit detects a movement of the user's finger based on the image acquired by the image acquisition unit, and the user Generate operation information indicating the operation performed on the stereoscopic object,
The display control means changes the display of the stereoscopic object displayed on the display screen based on the operation information.
JP2011073390A2011-03-292011-03-29Image operation apparatus, image operation method and programPendingJP2012208705A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2011073390AJP2012208705A (en)2011-03-292011-03-29Image operation apparatus, image operation method and program

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2011073390AJP2012208705A (en)2011-03-292011-03-29Image operation apparatus, image operation method and program

Publications (1)

Publication NumberPublication Date
JP2012208705Atrue JP2012208705A (en)2012-10-25

Family

ID=47188378

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2011073390APendingJP2012208705A (en)2011-03-292011-03-29Image operation apparatus, image operation method and program

Country Status (1)

CountryLink
JP (1)JP2012208705A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2014128787A1 (en)*2013-02-192014-08-28株式会社ブリリアントサービスTracking display system, tracking display program, tracking display method, wearable device using these, tracking display program for wearable device, and operation method for wearable device
JP2016018351A (en)*2014-07-082016-02-01京セラドキュメントソリューションズ株式会社 Information processing system and information processing method
JP2016099839A (en)*2014-11-212016-05-30キヤノン株式会社Information processing apparatus, information processing method, and program
US9665168B2 (en)2014-05-022017-05-30Canon Kabushiki KaishaImage processing apparatus, information processing method, and program
JP2017139012A (en)*2017-04-102017-08-10船井電機株式会社Input device, aerial image interaction system, and input method
CN109272851A (en)*2018-11-212019-01-25福建农林大学 Teaching method of machine vision inspection test
KR20190070619A (en)*2017-12-132019-06-21이인규Apparatus of interacting with user
CN110686696A (en)*2018-07-062020-01-14本田技研工业株式会社Information presentation device, information presentation method, and storage medium
JP2023503247A (en)*2019-11-202023-01-27インターナショナル・ビジネス・マシーンズ・コーポレーション METHOD AND SYSTEM FOR SEARCHING IMAGES USING ROTATING GESTURE INPUT
US11829572B2 (en)2019-10-312023-11-28Sony Group CorporationThree dimensional input for a cylindrical display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH1020914A (en)*1996-07-081998-01-23Kawasaki Heavy Ind Ltd Simulation processing method and apparatus
JPH10177449A (en)*1996-10-181998-06-30Toshiba Corp Information input device, information input method, correction data generation device, and solid-state imaging device
JP2003534594A (en)*2000-05-222003-11-18ホログラフイツク・イメージング・エル・エル・シー 3D human-computer interface
JP2005084817A (en)*2003-09-052005-03-31Nippon Telegr & Teleph Corp <Ntt> 3D object posture operation method and program
JP2005165665A (en)*2003-12-022005-06-23Canon Inc Virtual object operation assisting device, method, computer program, and computer-readable recording medium
JP2007536608A (en)*2004-04-052007-12-13マイケル エー. ベセリー Horizontal perspective hands-on simulator
JP2009075656A (en)*2007-09-182009-04-09Toyota Motor Corp Input display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH1020914A (en)*1996-07-081998-01-23Kawasaki Heavy Ind Ltd Simulation processing method and apparatus
JPH10177449A (en)*1996-10-181998-06-30Toshiba Corp Information input device, information input method, correction data generation device, and solid-state imaging device
JP2003534594A (en)*2000-05-222003-11-18ホログラフイツク・イメージング・エル・エル・シー 3D human-computer interface
JP2005084817A (en)*2003-09-052005-03-31Nippon Telegr & Teleph Corp <Ntt> 3D object posture operation method and program
JP2005165665A (en)*2003-12-022005-06-23Canon Inc Virtual object operation assisting device, method, computer program, and computer-readable recording medium
JP2007536608A (en)*2004-04-052007-12-13マイケル エー. ベセリー Horizontal perspective hands-on simulator
JP2009075656A (en)*2007-09-182009-04-09Toyota Motor Corp Input display device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSND201000606007; 勝田有一朗: '"コンピュータの未来技術[第55回]"' I/O 第35巻, 第11号, 20101101, p.22-24, 株式会社工学社*
JPN6014045781; 勝田有一朗: '"コンピュータの未来技術[第55回]"' I/O 第35巻, 第11号, 20101101, p.22-24, 株式会社工学社*

Cited By (16)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO2014128787A1 (en)*2013-02-192014-08-28株式会社ブリリアントサービスTracking display system, tracking display program, tracking display method, wearable device using these, tracking display program for wearable device, and operation method for wearable device
JP2017199379A (en)*2013-02-192017-11-02ミラマ サービス インクTracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device
JPWO2014128787A1 (en)*2013-02-192017-02-02株式会社ブリリアントサービス Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
US9651782B2 (en)2013-02-192017-05-16Mirama Service Inc.Wearable tracking device
US9665168B2 (en)2014-05-022017-05-30Canon Kabushiki KaishaImage processing apparatus, information processing method, and program
US10061485B2 (en)2014-07-082018-08-28Kyocera Document Solutions Inc.Information processing system that organizes and clearly presents mass data to user, information processing methods, and recording medium
JP2016018351A (en)*2014-07-082016-02-01京セラドキュメントソリューションズ株式会社 Information processing system and information processing method
JP2016099839A (en)*2014-11-212016-05-30キヤノン株式会社Information processing apparatus, information processing method, and program
JP2017139012A (en)*2017-04-102017-08-10船井電機株式会社Input device, aerial image interaction system, and input method
KR20190070619A (en)*2017-12-132019-06-21이인규Apparatus of interacting with user
KR102119863B1 (en)*2017-12-132020-06-16주식회사 파코웨어Apparatus of interacting with user
CN110686696A (en)*2018-07-062020-01-14本田技研工业株式会社Information presentation device, information presentation method, and storage medium
CN109272851A (en)*2018-11-212019-01-25福建农林大学 Teaching method of machine vision inspection test
US11829572B2 (en)2019-10-312023-11-28Sony Group CorporationThree dimensional input for a cylindrical display device
JP2023503247A (en)*2019-11-202023-01-27インターナショナル・ビジネス・マシーンズ・コーポレーション METHOD AND SYSTEM FOR SEARCHING IMAGES USING ROTATING GESTURE INPUT
JP7578366B2 (en)2019-11-202024-11-06インターナショナル・ビジネス・マシーンズ・コーポレーション Method and system for searching images using rotation gesture input

Similar Documents

PublicationPublication DateTitle
JP2012208705A (en)Image operation apparatus, image operation method and program
US20190250714A1 (en)Systems and methods for triggering actions based on touch-free gesture detection
JP6057396B2 (en) 3D user interface device and 3D operation processing method
JP5871345B2 (en) 3D user interface device and 3D operation method
JP5936155B2 (en) 3D user interface device and 3D operation method
JP6248533B2 (en) Image processing apparatus, image processing method, and image processing program
JP6344530B2 (en) Input device, input method, and program
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
TW201911133A (en)Controller tracking for multiple degrees of freedom
JP2015187884A (en)Pointing device with camera and mark output
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
JP2016103137A (en)User interface system, image processor and control program
JP5863984B2 (en) User interface device and user interface method
JP2014071672A (en)Information input device, and information input method
JP7513262B2 (en) Terminal device, virtual object operation method, and virtual object operation program
JP5939469B2 (en) Browsing device and browsing system
JP6170696B2 (en) Image processing apparatus and image processing method
JP3201596U (en) Operation input device
JP5852928B2 (en) Operation input device, operation input method and program
Alex et al.LampTop: Touch detection for a projector-camera system based on shape classification
Pullan et al.High Resolution Touch Screen Module
KR101591038B1 (en)Holography touch method and Projector touch method
JP2015162079A (en)Touch position correcting system and automatic transaction apparatus
KR20150137908A (en)Holography touch method and Projector touch method
KR20160002620U (en)Holography touch method and Projector touch method

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20131227

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20141020

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20141111

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20150317


[8]ページ先頭

©2009-2025 Movatter.jp