Movatterモバイル変換


[0]ホーム

URL:


JP2014228945A - Area designating device - Google Patents

Area designating device
Download PDF

Info

Publication number
JP2014228945A
JP2014228945AJP2013106320AJP2013106320AJP2014228945AJP 2014228945 AJP2014228945 AJP 2014228945AJP 2013106320 AJP2013106320 AJP 2013106320AJP 2013106320 AJP2013106320 AJP 2013106320AJP 2014228945 AJP2014228945 AJP 2014228945A
Authority
JP
Japan
Prior art keywords
area
image
gesture
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013106320A
Other languages
Japanese (ja)
Inventor
潤 白石
Jun Shiraishi
潤 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta IncfiledCriticalKonica Minolta Inc
Priority to JP2013106320ApriorityCriticalpatent/JP2014228945A/en
Publication of JP2014228945ApublicationCriticalpatent/JP2014228945A/en
Pendinglegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

PROBLEM TO BE SOLVED: To provide an area designating device that can perform area designation in a more convenient manner than before.SOLUTION: An area designating device analyzes a video output from an imaging unit 20 to recognize gesture movements made by a user in an area photographed by the imaging unit 20. When the recognized gesture movements constitute a predetermined series of gesture movements, the area designating device then specifies an area in the video designated by the predetermined series of gesture movements. After the designation, the area designating device, for example, stores, enlarges, and reduces the image obtained by extracting the area.

Description

Translated fromJapanese

本発明は、画像上の領域を指定する領域指定装置に関する。  The present invention relates to an area designating apparatus for designating an area on an image.

現在、タッチパネルの普及に伴い、タッチパネル上での操作方法は多様化しており、表示画像内の領域指定方法や表示画像の拡大、および縮小を指示する方法は数多く発案されている。  At present, with the widespread use of touch panels, operation methods on the touch panel are diversified, and many methods for designating an area in a display image and instructions for enlarging and reducing the display image have been proposed.

たとえば、特許文献1には、表示画像の領域指定後、タッチパネルに触れている時間や、タッチパネルに触れながらその触れている場所を移動させた場合における始点及び終点の位置に基づいて拡大縮小の倍率を指定する方法が開示されている(特許文献1参照)。  For example, Patent Document 1 discloses a scaling factor based on the time when a touch panel is touched after the display image area is specified and the position of the start point and end point when the touched location is moved while touching the touch panel. Is disclosed (see Patent Document 1).

特許文献2には、表示画像の領域指定後、タッチパネルに対する操作によって、当該指定領域をコピーするか切り取るのかを決定する方法が記載されている(特許文献2参照)。  Patent Document 2 describes a method of determining whether to copy or cut out the designated area by an operation on the touch panel after the area of the display image is designated (see Patent Document 2).

特開2011−050038号公報JP 2011-050038 A特開2012−058857号公報JP 2012-0588857 A特開2005−056059号公報JP 2005-056059 A特開2010−183230号公報JP 2010-183230 A

一方、近年ではメガネのように顔に装着することで拡張現実(AR(Augmented Reality))の体験を実現するARメガネ等の拡張現実端末に係る様々な技術が提案されており、ARメガネが近い将来にオフィスワークや生活の中に普及すると見込まれている。しかし、たとえば、ARメガネの表示部に表示されている画像の一部を切り取って保存する場合、眼球のすぐ前に表示部があるという構造上の理由によりARメガネ単体ではタッチパネルと同様の方法によって、ユーザが見ている拡張現実空間内の一部の領域を指定して切り取るといったことはできない。  On the other hand, in recent years, various technologies related to augmented reality terminals such as AR glasses that realize an augmented reality (AR) experience by wearing on the face like glasses have been proposed, and AR glasses are close. It is expected to spread in office work and life in the future. However, for example, when a part of the image displayed on the display unit of the AR glasses is cut out and stored, the AR glasses alone is used in the same manner as the touch panel for the structural reason that the display unit is in front of the eyeball. It is not possible to designate and cut out a partial area in the augmented reality space that the user is viewing.

ARメガネと他の操作機器(手持ちマウスや片手キーボード等)を連動させて使用すれば、画像データとして切り取る領域を指定することは可能であるが、機材構成が煩雑になる恐れがあり、入力の自由度も限られてしまう。また、画像データとして切り取る領域を音声によって指定する方法は、音声の照合率や認識速度、また入力の自由度(たとえば切り取りたい領域の範囲指示方法)等に問題があり、現状において有効な手段で無い。  If AR glasses and other operating devices (handheld mouse, one-handed keyboard, etc.) are used in conjunction with each other, it is possible to specify the area to be cut out as image data, but the equipment configuration may become complicated, and input The degree of freedom is also limited. In addition, the method of designating the area to be cut out as image data by voice has problems in the voice collation rate and recognition speed, the degree of freedom of input (for example, the range designation method of the area to be cut out), etc. No.

特許文献3には、ARメガネにおいて手指のジェスチャ或いは発光部付きのペンでの操作によって入力指示を行う方法が記載されている。しかし、特許文献3はジェスチャによって文字や線の入力を行う方法についての記載であり、画像切り取りの為の領域指定や画像の拡大、及び縮小の指示等については対応していない。  Patent Document 3 describes a method of giving an input instruction by an operation with a finger gesture or a pen with a light emitting unit in AR glasses. However,Patent Document 3 describes a method of inputting characters and lines using gestures, and does not deal with area designation for image cutting, image enlargement and reduction instructions, and the like.

特許文献4には、1対のL字型に形成した両手の指を認識することで、画像内に矩形型の領域指定を行い、当該指定した領域を予め決められた倍率で拡大する方法が開示されている。しかし、この領域指定方法では、領域の形状が矩形に限定される等、様々な制約がある。たとえば、特許文献4に記載の方法では領域指定に両手を使用するが、片手で機器を持って操作することが想定されるスマートフォンやデジタルカメラ等を利用するような非装着型の拡張現実端末では、機器を持っていない方の手のみでの操作指示方法が望まれる。  Patent Document 4 discloses a method in which a rectangular region is designated in an image by recognizing fingers of both hands formed in a pair of L-shapes, and the designated region is enlarged at a predetermined magnification. It is disclosed. However, this region designation method has various restrictions such as the shape of the region being limited to a rectangle. For example, in the method described in Patent Document 4, both hands are used for area designation, but in a non-wearable augmented reality terminal that uses a smartphone or a digital camera that is assumed to be operated with a device with one hand, An operation instruction method with only the hand of the person who does not have the device is desired.

本発明は、上記の問題を解決しようとするものであり、ジェスチャ動作で画像上の領域を適切に指定することのできる領域指定装置を提供する事を目的としている。  The present invention is intended to solve the above-described problem, and an object of the present invention is to provide an area designation device that can appropriately designate an area on an image by a gesture operation.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。  The gist of the present invention for achieving the object lies in the inventions of the following items.

[1]撮像部と、
撮像部が撮像しているエリア内で行われたユーザによるジェスチャ動作を前記撮像部の出力する映像を解析して認識する認識部と、
前記前記認識部によって認識されたジェスチャ動作が領域指定のための所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する制御部と、
を備える
ことを特徴とする領域指定装置。
[1] an imaging unit;
A recognizing unit that recognizes a gesture operation performed by a user in an area captured by the imaging unit by analyzing a video output from the imaging unit;
A control unit that identifies a region designated by the predetermined series of gesture operations when the gesture operation recognized by the recognition unit constitutes a predetermined series of gesture operations for region designation;
An area designating device comprising:

上記発明では、撮像部が撮像しているエリア内で行われたユーザのジェスチャ動作を、認識部が、その撮像部の出力する映像を解析して認識する。そして、認識した連続する複数のジェスチャ動作が所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する。たとえば、撮像部の撮像している映像内で指定された領域を特定する。この場合、ホワイトボードを撮像した画像から、当該ホワイトボードに書かれた内容の特定部分を指定、抽出し、保存するといった用途に使用される。所定の一連のジェスチャ動作は、複数の静止したジェスチャ、動きのある複数のジェスチャ、静止したジェスチャと動きのあるジェスチャの組み合わせ等である。所定の一連のジェスチャ動作の構成内容によっては、たとえば、片手で領域指定が可能である、もしくは指定する領域の形状に制限が無い等、従来の装置よりも利便性の高い方法で領域指定を行うことができる。  In the above invention, the recognition unit recognizes and recognizes the gesture operation of the user performed in the area captured by the imaging unit by analyzing the video output from the imaging unit. Then, when a plurality of recognized continuous gesture actions constitute a predetermined series of gesture actions, an area specified by the predetermined series of gesture actions is specified. For example, a specified area in the video imaged by the imaging unit is specified. In this case, it is used for the purpose of designating, extracting and storing a specific part of the content written on the whiteboard from the image of the whiteboard. The predetermined series of gesture operations includes a plurality of stationary gestures, a plurality of gestures with movement, a combination of a stationary gesture and a gesture with movement, and the like. Depending on the composition of a predetermined series of gesture operations, for example, an area can be specified with one hand, or the area can be specified by a method that is more convenient than conventional devices, such as no restriction on the shape of the specified area. be able to.

[2]前記制御部は、前記所定の一連のジェスチャ動作に続けて前記認識部が認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作の場合に、前記所定の一連のジェスチャ動作によって指定された領域に対して、前記第2のジェスチャ動作が示す拡大縮小の指示を適用する
ことを特徴とする[1]に記載の領域指定装置。
[2] The control unit, when the gesture operation recognized by the recognition unit subsequent to the predetermined series of gesture operations is a predetermined second gesture operation for instructing enlargement / reduction, The area designating apparatus according to [1], wherein an enlargement / reduction instruction indicated by the second gesture action is applied to an area designated by a series of gesture actions.

上記発明では、領域指定するための所定の一連のジェスチャ動作に続けて拡大縮小を指示するための第2の一連のジェスチャ動作が行われた場合、所定の一連のジェスチャ動作によって指定された領域に対して、第2の一連のジェスチャ動作による拡大縮小の指示を適用する。  In the above invention, when a second series of gesture operations for instructing enlargement / reduction is performed following a predetermined series of gesture operations for designating an area, an area designated by the predetermined series of gesture operations is set. On the other hand, the enlargement / reduction instruction by the second series of gesture operations is applied.

[3]前記所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である
ことを特徴とする[1]または[2]に記載の領域指定装置。
[3] The predetermined series of gesture operations includes a gesture operation for instructing start of region designation and a gesture operation for designating a region range, and is an operation that is completed when a predetermined end condition is satisfied. The area specifying device according to [1] or [2].

上記発明では、所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である。領域指定の開始を指示するジェスチャ動作は、領域の範囲を指定する際の開始地点を設定するものであり、当該ジェスチャ動作を認識するまでの間の手の動きを領域指定のためのジェスチャ動作として認識しないようにするために行われる。  In the above invention, the predetermined series of gesture operations includes a gesture operation for instructing start of area designation and a gesture action for designating the area range, and is an operation that is completed when a predetermined end condition is satisfied. The gesture action that instructs the start of area designation is to set the start point when the area range is designated, and the movement of the hand until the gesture action is recognized is not recognized as the gesture action for area designation. To be done.

領域の範囲を指定するジェスチャ動作は、たとえば、指定する領域の外周を辿るように指し示すジェスチャ動作や、複数の点を指定するジェスチャ動作等である。後者のジェスチャ動作によって領域の範囲を指定する場合、その指定された複数の点を最も面積が広くなるように直線で結んでできる領域を、指定された領域とする。終了条件は、たとえば、範囲を指定するジェスチャ動作によって閉領域が形成されたなど、領域の範囲が特定された場合や、一定以上の時間が経過した場合などに成立する条件とすることができる。  The gesture operation that designates the range of the region is, for example, a gesture operation that points to follow the outer periphery of the designated region, a gesture operation that designates a plurality of points, or the like. When the range of the area is designated by the latter gesture operation, an area formed by connecting the designated points with a straight line so as to have the largest area is set as the designated area. The end condition can be a condition that is satisfied when the range of the region is specified, for example, when a closed region is formed by a gesture operation that specifies the range, or when a certain time or more has elapsed.

[4]前記制御部は、所定の一連のジェスチャ動作によって指定された領域として、前記撮像部の出力する映像上の領域を特定する
ことを特徴とする[1]乃至[3]のいずれか1つに記載の領域指定装置。
[4] Any one of [1] to [3], wherein the control unit specifies a region on an image output from the imaging unit as a region designated by a predetermined series of gesture operations. The area designating device described in 1.

上記発明では、所定の一連のジェスチャ動作によって撮像部の出力する映像上の領域が特定される。  In the above invention, the region on the video output from the imaging unit is specified by a predetermined series of gesture operations.

[5]前記制御部は、前記撮像部の出力する映像上で前記所定の一連のジェスチャ動作によって指定された領域を、前記撮像部が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定する
ことを特徴とする[1]乃至[3]のいずれか1つに記載の領域指定装置。
[5] The control unit maps an area specified by the predetermined series of gesture operations on a video output from the imaging unit to a predetermined image associated with an area captured by the imaging unit. The area designating apparatus according to any one of [1] to [3], wherein an area on the predetermined image is specified.

上記発明では、撮像部が撮像するエリアには所定の画像が対応付けされており、撮像部の出力する映像内で所定の一連のジェスチャ動作によって指定された領域を、所定の画像に写像(座標変換)し、その所定の画像内において領域を特定する。たとえば、プロジェクタで投影した画像を、撮像部で撮像した場合、撮像部が撮像するエリア内でユーザがその投影された画像に対して領域指定のジェスチャ動作を行うと、投影している画像の元データ上で領域が特定される。  In the above-described invention, a predetermined image is associated with the area captured by the imaging unit, and an area designated by a predetermined series of gesture operations in the video output from the imaging unit is mapped (coordinated) to the predetermined image. Conversion), and specify a region in the predetermined image. For example, when an image projected by a projector is captured by an imaging unit, if a user performs a region-designating gesture operation on the projected image in an area captured by the imaging unit, the source of the projected image An area is specified on the data.

[6]画像の表示部を備え、
前記所定の画像は、前記表示部が前記撮像部の撮像エリアに表示した画像である
ことを特徴とする[5]に記載の領域指定装置。
[6] An image display unit is provided,
The area designation apparatus according to [5], wherein the predetermined image is an image displayed on the imaging area of the imaging unit by the display unit.

上記発明では、表示部に画像を表示し、撮像部でその表示部に表示された画像を含むエリアを撮像する。ユーザが表示部の画像に向けて一連のジェスチャ動作を行うと、表示部に表示された画像上の領域が指定される。表示部は前述したプロジェクタのほか、大画面の液晶パネルなどでもよい。  In the said invention, an image is displayed on a display part and the area containing the image displayed on the display part by an imaging part is imaged. When the user performs a series of gesture operations toward the image on the display unit, an area on the image displayed on the display unit is designated. The display unit may be a liquid crystal panel with a large screen in addition to the projector described above.

[7]前記制御部は、前記特定した領域の画像を抽出する
ことを特徴とする[4]乃至[6]のいずれか1つに記載の領域指定装置。
[7] The region designating device according to any one of [4] to [6], wherein the control unit extracts an image of the identified region.

上記発明では、所定の一連のジェスチャ動作によって特定された領域の画像を抽出する。当該抽出によって得た画像は、転送したり、加工したり、保存したりすることができる。  In the above invention, an image of an area specified by a predetermined series of gesture operations is extracted. The image obtained by the extraction can be transferred, processed, or saved.

[8]前記制御部は、前記抽出した画像を所定の記憶部に保存する
ことを特徴とする[7]に記載の領域指定装置。
[8] The area designating device according to [7], wherein the control unit stores the extracted image in a predetermined storage unit.

所定の記憶部は、領域指定装置が具備してもよいし、外部装置、たとえば、ネットワーク上のサーバなどであってもよい。  The predetermined storage unit may be included in the area designating device, or may be an external device such as a server on the network.

[9]画像の表示部を備え、
前記制御部は、所定の貼り付け指示で指示された場所に、前記抽出した画像を、前記表示部によって表示する
ことを特徴とする[7]または[8]に記載の領域指定装置。
[9] An image display unit is provided,
The area specifying device according to [7] or [8], wherein the control unit displays the extracted image by the display unit at a location specified by a predetermined pasting instruction.

上記発明では、抽出した画像を、所定の貼り付け指示で指示された場所に貼り付けるように表示することができる。貼り付け対象の画像は、抽出した画像でも記憶部が記憶している画像でもよい。  In the above invention, the extracted image can be displayed so as to be pasted at a location designated by a predetermined pasting instruction. The image to be pasted may be an extracted image or an image stored in the storage unit.

[10]位置情報を取得する位置情報取得部を更に備え、
前記制御部は、前記抽出した画像を前記貼り付け指示で指定された場所に表示した場合に、前記貼り付け指示で指示された場所の位置情報を前記位置情報取得部によって取得し、該位置情報と前記表示した画像とを関連付けて所定の記憶部に保存する
ことを特徴とする[9]に記載の領域指定装置。
[10] A position information acquisition unit that acquires position information is further provided,
When the control unit displays the extracted image at a location specified by the paste instruction, the control unit acquires position information of the location specified by the paste instruction by the position information acquisition unit, and the position information And the displayed image are associated with each other and stored in a predetermined storage unit. The area specifying device according to [9],

上記発明では、貼り付けた画像とその貼り付け場所の位置情報とを関連付けて記憶する。  In the above invention, the pasted image and the location information of the pasting location are stored in association with each other.

[11]前記制御部は、前記記憶部に保存されている位置情報が示す場所に前記表示部の表示領域が存在する場合に、前記位置情報に関連付けされている画像を前記位置情報の示す場所に表示する
ことを特徴とする[10]に記載の領域指定装置。
[11] The location where the position information indicates the image associated with the location information when the display area of the display portion exists in the location indicated by the location information stored in the storage unit The area designating apparatus according to [10], wherein the area designating apparatus is displayed.

上記発明では、以前に画像を貼り付けた場所と同じ場所に自装置の表示部の表示領域が位置したとき、その画像が以前に貼り付けた場所と同じ場所に自動的に表示される。よって、ジェスチャ動作による貼り付けを行った場所で自装置を使用する際には、常に当該貼り付けが再現される。  In the above invention, when the display area of the display unit of the own apparatus is located at the same place where the image is pasted before, the image is automatically displayed at the same place as the place pasted before. Therefore, when using the own apparatus at the place where the pasting by the gesture operation is performed, the pasting is always reproduced.

本発明に係る領域指定装置によれば、ジェスチャ動作で画像上の領域を適切に指定することができる。  According to the area specifying device according to the present invention, an area on an image can be appropriately specified by a gesture operation.

本発明の実施の形態に係る表示システムを示す説明図である。It is explanatory drawing which shows the display system which concerns on embodiment of this invention.ジェスチャ動作によって領域指定を行う様子を示す図である。It is a figure which shows a mode that area | region designation | designated is performed by gesture operation | movement.本発明の実施の形態に係る操作表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the operation display apparatus which concerns on embodiment of this invention.ジェスチャ動作を認識して、指定された領域を切り取って抽出する処理の概略を示す流れ図である。It is a flowchart which shows the outline of the process which recognizes gesture operation | movement and cuts out and extracts the designated area | region.領域指定の開始を指示するジェスチャ動作を示す図である。It is a figure which shows the gesture operation | movement which instruct | indicates the start of area | region designation | designated.開始地点が設定された場合の一例を示す図である。It is a figure which shows an example when a starting point is set.領域の範囲を指定する様子を示す図である。It is a figure which shows a mode that the range of an area | region is designated.指定された領域の輪郭を点滅表示する様子を示す図である。It is a figure which shows a mode that the outline of the designated area | region is displayed blinking.ジェスチャ動作を認識して、指定された領域を切り取って抽出する詳細な処理を示す流れ図である。It is a flowchart which shows the detailed process which recognizes gesture operation | movement and cuts out and extracts the designated area | region.指定領域画像を拡大した様子を示す図である。It is a figure which shows a mode that the designated area | region image was expanded.指定領域画像を縮小した様子を示す図である。It is a figure which shows a mode that the designated area image was reduced.拡大もしくは縮小を行う際の様子を示す図である。It is a figure which shows the mode at the time of enlarging or reducing.指定領域画像の拡大を指示するジェスチャ動作を示す図である。It is a figure which shows the gesture operation | movement which instruct | indicates the expansion of a designated area image.指定領域画像の縮小を指示するジェスチャ動作を示す図である。It is a figure which shows the gesture operation | movement which instruct | indicates reduction of a designated area image.指定領域画像の拡大、縮小を指示する他のジェスチャ動作を示す図である。It is a figure which shows other gesture operation | movement which instruct | indicates expansion and reduction of a designated area image.所定の一連のジェスチャ動作によって指定した領域を、第2のジェスチャ動作に従って拡大、もしくは縮小する処理を示す流れ図である。It is a flowchart which shows the process which expands or reduces the area | region designated by predetermined | prescribed series of gesture operation | movement according to 2nd gesture operation | movement.画像の貼り付けを行う様子を示す図である。It is a figure which shows a mode that image pasting is performed.キャップを装着した状態の右手で行われるジェスチャ動作によって領域指定が行われる様子を示す図である。It is a figure which shows a mode that area | region designation | designated is performed by gesture operation | movement performed with the right hand of the state which mounted | wore with the cap.領域を指定する他のジェスチャ動作の一例を示す図である。It is a figure which shows an example of other gesture operation | movement which designates an area | region.

以下、図面に基づき本発明の実施の形態を説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
図1は、本発明の実施の形態に係る表示システム3を示す。表示システム3は、本発明の領域指定装置としての機能を果たす操作表示装置10と撮像部20の他、プロジェクタ21と、プロジェクタ21の投影する画像を映し出すスクリーン40を含んで構成される。操作表示装置10と、撮像部20、プロジェクタ21は有線で接続されている。
<First Embodiment>
FIG. 1 shows adisplay system 3 according to an embodiment of the present invention. Thedisplay system 3 includes aprojector 21 and ascreen 40 that displays an image projected by theprojector 21, in addition to theoperation display device 10 and theimaging unit 20 that function as an area specifying device of the present invention. Theoperation display device 10, theimaging unit 20, and theprojector 21 are connected by wire.

操作表示装置10は、持ち歩きが可能なB5サイズ程の矩形の平板形状を成した携帯端末であり、表示部31と操作部32を含む操作パネル30を備えている(図3参照)。操作表示装置10の表示部31には、後述するハードディスク装置15に記憶された画像が表示される。また、ユーザは操作パネル30を使用して、表示部31に表示中の画面に対する追記や、修正等の手書き入力を行うことができる。たとえば、操作表示装置10は、外部端末で作成された文書に対する校正を手書きで行う、といった用途に利用される。  Theoperation display device 10 is a portable terminal having a rectangular flat plate shape of B5 size that can be carried, and includes anoperation panel 30 including adisplay unit 31 and an operation unit 32 (see FIG. 3). An image stored in thehard disk device 15 to be described later is displayed on thedisplay unit 31 of theoperation display device 10. In addition, the user can use theoperation panel 30 to perform additional writing on the screen being displayed on thedisplay unit 31 or handwritten input such as correction. For example, theoperation display device 10 is used for a purpose of performing proofreading on a document created on an external terminal by handwriting.

表示システム3では、操作表示装置10の表示部31に表示されている画面が、プロジェクタ21によってスクリーン40に映し出される。スクリーン40はサイズが大きく、映し出された画面を一度に多数のユーザが視認することができる。プロジェクタ21とスクリーン40は、本発明の請求項に係る表示装置としての機能を果たす。たとえば、プロジェクタ21は、会議を行う時に表示部31に表示中の画面(以後、表示中画面と呼ぶ)をスクリーン40に投影することで、その投影された画面(以後、投影画面と呼ぶ)を複数人で確認できるようにする、といった用途に利用される。  In thedisplay system 3, the screen displayed on thedisplay unit 31 of theoperation display device 10 is displayed on thescreen 40 by theprojector 21. Thescreen 40 is large in size, and a large number of users can view the projected screen at a time. Theprojector 21 and thescreen 40 function as a display device according to the claims of the present invention. For example, theprojector 21 projects a screen being displayed on the display unit 31 (hereinafter referred to as “displayed screen”) onto thescreen 40 at the time of a conference, thereby projecting the projected screen (hereinafter referred to as “projected screen”). It is used for applications such as enabling multiple people to confirm.

撮像部20は、所謂カメラであり、撮像部20が得た映像を操作表示装置10に送信する。実施の形態では、レンズをスクリーン40に向けて、スクリーン40から3メートルほど離れた位置に設置されており、投影画面を含むエリアを撮像している。  Theimaging unit 20 is a so-called camera, and transmits an image obtained by theimaging unit 20 to theoperation display device 10. In the embodiment, the lens is installed at a position about 3 meters away from thescreen 40 with the lens facing thescreen 40, and an area including the projection screen is imaged.

本発明の実施の形態に係る表示システム3では、操作表示装置10が撮像部20から送られてくる映像を解析し、撮像部20が撮像しているエリア内(撮像部20とスクリーン40の間)で行われたユーザによる所定の一連のジェスチャ動作を認識する。所定の一連のジェスチャ動作は、予め決められた順番で行われる複数の単位ジェスチャ動作を含んで構成され、所定の終了条件を満たすことで完了する動作である。領域指定のための一連のジェスチャ動作の場合は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である。たとえば、終了条件は、領域の範囲を指定するジェスチャ動作で領域が特定された場合に成立する。  In thedisplay system 3 according to the embodiment of the present invention, theoperation display device 10 analyzes an image transmitted from theimaging unit 20 and is within an area (between theimaging unit 20 and the screen 40) captured by the imaging unit 20. ) To recognize a predetermined series of gesture operations performed by the user. The predetermined series of gesture operations is configured to include a plurality of unit gesture operations performed in a predetermined order, and is completed when a predetermined end condition is satisfied. In the case of a series of gesture operations for region designation, the gesture operation includes a gesture operation for instructing the start of region designation and a gesture operation for designating the range of the region, and is completed when a predetermined end condition is satisfied. For example, the end condition is satisfied when a region is specified by a gesture operation that specifies a region range.

基本的には、撮像された映像の中で一連のジェスチャ動作によって領域が指定される。撮像部20の出力する映像を抽出する場合には、この領域を抽出する。また、撮像部20の出力する映像上で所定の一連のジェスチャ動作によって指定された領域を、撮像部20が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定することも可能になっている。ここでは、撮像部20が撮像するエリアに投影画面が対応付けされており、投影画面内の領域が特定される。なお、投影画面は表示中画面を投影したものであるから、結果的に、表示中画面において領域が特定される。図2は所定の一連のジェスチャ動作によって、投影画面内の一部の領域が指定される様子を示す。  Basically, a region is designated by a series of gesture operations in a captured image. When extracting the video output from theimaging unit 20, this region is extracted. In addition, an area designated by a predetermined series of gesture operations on the video output from theimaging unit 20 is mapped to a predetermined image associated with an area captured by theimaging unit 20, and the predetermined image is displayed on the predetermined image. It is also possible to specify the area. Here, a projection screen is associated with an area captured by theimaging unit 20, and an area in the projection screen is specified. Since the projection screen is a projection of the currently displayed screen, as a result, an area is specified on the currently displayed screen. FIG. 2 shows a state in which a partial area in the projection screen is designated by a predetermined series of gesture operations.

図2では、スクリーン40と撮像部20との間で、ユーザが右手50により所定の一連のジェスチャ動作を行っている。たとえば、ユーザは右手50の人差し指を、抽出したい領域の外周を辿るように動かして指し示すことで、当該領域を指定する。  In FIG. 2, the user performs a predetermined series of gesture operations with theright hand 50 between thescreen 40 and theimaging unit 20. For example, the user designates the area by moving the index finger of theright hand 50 so as to follow the outer periphery of the area to be extracted.

次に、操作表示装置10の構成について説明する。  Next, the configuration of theoperation display device 10 will be described.

図3は、本発明の実施の形態に係る操作表示装置10の概略構成を示すブロック図である。操作表示装置10は、当該操作表示装置10の動作を統括的に制御するCPU(Central Processing Unit)11と、バスを通じて接続されたROM(Read Only Memory)12と、RAM(Random Access Memory)13と、不揮発メモリ14と、ハードディスク装置15と、画像処理部16と、ネットワーク通信部17と、認識部18と、有線I/F部19と、操作パネル30と、位置情報取得部35で構成されている。  FIG. 3 is a block diagram showing a schematic configuration of theoperation display device 10 according to the embodiment of the present invention. Theoperation display device 10 includes a central processing unit (CPU) 11 that centrally controls the operation of theoperation display device 10, a read only memory (ROM) 12 and a random access memory (RAM) 13 connected through a bus. Thenonvolatile memory 14, thehard disk device 15, theimage processing unit 16, thenetwork communication unit 17, therecognition unit 18, the wired I /F unit 19, theoperation panel 30, and the positioninformation acquisition unit 35. Yes.

CPU11は、OS(Operating System)プログラムをベースとし、その上で、ミドルウェアやアプリケーションプログラムなどを実行する。ROM12には、各種のプログラムが格納されており、これらのプログラムに従ってCPU11が各種処理を実行することで操作表示装置10の各機能が実現される。また、ROM12には、操作表示装置10の一連の制御をCPU11が実行するためのプログラムが格納されている。  TheCPU 11 is based on an OS (Operating System) program, and executes middleware, application programs, and the like. Various programs are stored in theROM 12, and each function of theoperation display device 10 is realized by theCPU 11 executing various processes according to these programs. TheROM 12 stores a program for theCPU 11 to execute a series of controls of theoperation display device 10.

RAM13は、CPU11がプログラムに基づいて処理を実行する際に各種のデータを一時的に格納するワークメモリや画像データを格納する画像メモリなどとして使用される。  TheRAM 13 is used as a work memory for temporarily storing various data when theCPU 11 executes processing based on a program, an image memory for storing image data, and the like.

不揮発メモリ14は、電源をオフにしても記憶内容が破壊されないメモリ(フラッシュメモリ)であり、各種設定情報の保存などに使用される。ハードディスク装置15は、大容量の不揮発の記憶装置であり、OSプログラムや各種アプリケーションプログラム、画像データの他、文書データなどが保存される。  Thenonvolatile memory 14 is a memory (flash memory) whose stored contents are not destroyed even when the power is turned off, and is used for storing various setting information. Thehard disk device 15 is a large-capacity nonvolatile storage device, and stores OS data, various application programs, image data, document data, and the like.

画像処理部16は、画像の拡大縮小、回転などの処理を行う。  Theimage processing unit 16 performs processing such as image enlargement / reduction and rotation.

ネットワーク通信部17は、LAN(Local Area Network)などのネットワークを通じて外部装置との間でデータの送受信を行う機能を果たす。  Thenetwork communication unit 17 performs a function of transmitting / receiving data to / from an external device through a network such as a LAN (Local Area Network).

有線I/F部19は、有線で接続された装置とデータの送受信を行う。実施の形態では、有線I/F部19に撮像部20とプロジェクタ21が接続されている。撮像部20からは、撮像部20が撮像して得た映像が送られてくる。プロジェクタ21には、表示部31に表示中の画面に対応する表示データが送信される。  The wired I /F unit 19 transmits / receives data to / from a wired device. In the embodiment, animaging unit 20 and aprojector 21 are connected to the wired I /F unit 19. From theimaging unit 20, an image obtained by imaging by theimaging unit 20 is sent. Display data corresponding to the screen being displayed on thedisplay unit 31 is transmitted to theprojector 21.

認識部18は、撮像部20から送られてくる映像を解析し、当該映像内に映っているユーザの右手50が行う所定の一連のジェスチャ動作を認識する。  Therecognition unit 18 analyzes the video sent from theimaging unit 20 and recognizes a predetermined series of gesture operations performed by the user'sright hand 50 shown in the video.

詳細には、映像内に映っているジェスチャ動作を認識部18が認識したら、予めハードディスク装置15に記憶されている認識対象となるジェスチャ動作と照合し、照合率が所定値以上であると判定した際に、当該ジェスチャ動作が有効なジェスチャ動作であると判断する。  More specifically, when therecognition unit 18 recognizes a gesture operation shown in the video, it is compared with a gesture operation to be recognized that is stored in thehard disk device 15 in advance, and the verification rate is determined to be a predetermined value or more. At this time, it is determined that the gesture operation is an effective gesture operation.

また、CPU11は、撮像部20が撮像するエリア内の座標(撮像部が出力する映像上の座標)と、投影画面内の座標を対応付けており、認識部18が所定の一連のジェスチャ動作を認識した場合に、撮像映像上で当該所定の一連のジェスチャ動作が指定する領域を特定するとともに、映像上の座標を表示中画面内の座標に写像して、表示中画面内の領域を特定する。投影画面上の座標は、表示中画面上の座標と同じである。撮像映像上の座標と投影画面(表示中画面)上の座標の対応付けは、たとえば、表示中画面の4隅に特定のマークを表示しておき、撮像映像内で上記のマークを検出し、これらの対応関係に基づいて行う。対応付けの方法はこれに限定されず、任意の方法でよい。  In addition, theCPU 11 associates coordinates in the area captured by the imaging unit 20 (coordinates on the video output by the imaging unit) with coordinates in the projection screen, and therecognition unit 18 performs a predetermined series of gesture operations. When recognized, the area specified by the predetermined series of gesture operations is specified on the captured video, and the area on the display screen is specified by mapping the coordinates on the video to the coordinates on the display screen. . The coordinates on the projection screen are the same as the coordinates on the currently displayed screen. The correspondence between the coordinates on the captured image and the coordinates on the projection screen (displayed screen) is, for example, by displaying specific marks at the four corners of the displayed screen, detecting the above marks in the captured image, This is done based on these correspondences. The association method is not limited to this, and an arbitrary method may be used.

図3に戻って説明を続ける。操作パネル30は、表示部31と、操作部32とを備えている。このうち操作部32は、各種ボタンなどのスイッチ部33とタッチパネル部34とを備えている。表示部31は、液晶ディスプレイ(LCD…Liquid Crystal Display)などで構成され、各種の操作画面、設定画面などを表示する機能を果たす。操作パネル30が表示する表示内容の制御、操作パネル30による操作の受け付けに関する制御はCPU11が行う。  Returning to FIG. 3, the description will be continued. Theoperation panel 30 includes adisplay unit 31 and anoperation unit 32. Among these, theoperation unit 32 includes aswitch unit 33 such as various buttons and atouch panel unit 34. Thedisplay unit 31 is composed of a liquid crystal display (LCD) and the like, and has a function of displaying various operation screens, setting screens, and the like. TheCPU 11 performs control related to display contents displayed on theoperation panel 30 and control related to reception of operations by theoperation panel 30.

タッチパネル部34は、表示部31の表示面上に設けられている。タッチパネル部34は、タッチペンや指などで押下された表示部31の表示面上のタッチ位置(座標位置)や、フリック操作やドラッグ操作等を検出する。また、CPU11は、継続的に検出されるタッチ位置の変化(操作情報)から、ユーザによる手書き入力等を認識する。  Thetouch panel unit 34 is provided on the display surface of thedisplay unit 31. Thetouch panel unit 34 detects a touch position (coordinate position) on the display surface of thedisplay unit 31 pressed by a touch pen or a finger, a flick operation, a drag operation, and the like. Further, theCPU 11 recognizes handwritten input by the user from the continuously detected change in touch position (operation information).

位置情報取得部35は、操作表示装置10の位置情報をGPS(Global Positioning System)によって取得する。位置情報の取得手段はGPSに限らず、他の方法でもよい。  The positioninformation acquisition unit 35 acquires the position information of theoperation display device 10 by GPS (Global Positioning System). The position information acquisition means is not limited to GPS, and other methods may be used.

図4は、所定の一連のジェスチャ動作によって表示中画面内の領域を特定、抽出し、保存する際に行われる処理の流れの概略を示す。  FIG. 4 shows an outline of the flow of processing performed when an area in the currently displayed screen is identified, extracted, and stored by a predetermined series of gesture operations.

まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に画面の投影を開始する(ステップS101)。  First, theoperation display device 10 starts projecting a screen onto thescreen 40 using the projector 21 (step S101).

次に、操作表示装置10の操作部32にて、領域指定を行う動作モード(以後、領域指定モードと呼ぶ)に移行する指示を受け付けるのを待つ(ステップS102;No)。当該操作を受け付けたら(ステップS102;Yes)、CPU11は操作表示装置10を領域指定モードに移行させる。なお、領域指定モードへの移行指示は操作部32以外で受け付けてもよい。たとえば、ジェスチャ動作や音声入力(音声入力で受け付ける場合は、音声入力に対応する装置が必要となる)で受け付けてもよいし、ネットワーク通信部17が他の装置から移行指示を受け付けてもよい。  Next, theoperation unit 32 of theoperation display device 10 waits to receive an instruction to shift to an operation mode for performing region designation (hereinafter referred to as region designation mode) (step S102; No). If the said operation is received (step S102; Yes), CPU11 will make theoperation display apparatus 10 transfer to area | region designation | designated mode. Note that an instruction to shift to the area designation mode may be received by a device other than theoperation unit 32. For example, it may be accepted by gesture operation or voice input (if a voice input is accepted, a device corresponding to voice input is required), or thenetwork communication unit 17 may accept a migration instruction from another device.

操作表示装置10は領域指定モードに移行したら、認識部18により撮像部20から送られてくる映像の解析を開始する。当該映像内にジェスチャ動作がなければ(ステップS103;No)、ステップS103に戻って処理を継続する。  When theoperation display device 10 shifts to the area designation mode, therecognition unit 18 starts analyzing the video sent from theimaging unit 20. If there is no gesture operation in the video (step S103; No), the process returns to step S103 and continues.

映像内にジェスチャ動作があれば(ステップS103;Yes)、そのジェスチャ動作と予め登録されている単位ジェスチャ動作を比較照合し、照合率が閾値以上か否かを調べる(ステップS104)。照合率が閾値未満であれば(ステップS104;No)、ステップS103に戻って処理を継続する。照合率が閾値以上であれば(ステップS104;Yes)、そのジェスチャ動作が有効なジェスチャ動作であると判断する。  If there is a gesture action in the video (step S103; Yes), the gesture action is compared with the unit gesture action registered in advance, and it is checked whether or not the matching rate is equal to or higher than a threshold (step S104). If the verification rate is less than the threshold (step S104; No), the process returns to step S103 and continues. If the collation rate is equal to or higher than the threshold (step S104; Yes), it is determined that the gesture operation is an effective gesture operation.

有効であると判断したジェスチャ動作によって一連のジェスチャ動作が構成され、かつ、終了条件が満たされたか否かを判断する(ステップS105)。上記判断が偽の場合は(ステップS105;No)ステップS103に戻って処理を継続する。ここでは、終了条件は、所定の一連のジェスチャ動作によって領域指定が完了した場合に成立する。終了条件を満たした場合は(ステップS105;Yes)、所定の一連のジェスチャ動作によって指定された領域を撮像映像内で特定し、これを表示中画面の座標系に写像して、表示中画面内の領域を特定する。そして、この特定した領域の画像を抽出するか否かの決定をユーザから受け付ける。この決定は、操作部32で受け付けてもよいし、たとえば、ジェスチャ動作や音声入力(音声入力で受け付ける場合は、音声入力に対応する装置が必要となる)などで受け付けてもよい。  It is determined whether or not a series of gesture operations is constituted by the gesture operations determined to be valid and the end condition is satisfied (step S105). If the determination is false (step S105; No), the process returns to step S103 and continues. Here, the end condition is satisfied when the area designation is completed by a predetermined series of gesture operations. If the end condition is satisfied (step S105; Yes), the area specified by a predetermined series of gesture operations is specified in the captured image, and this is mapped to the coordinate system of the display screen, and the display screen is displayed. Specify the area. Then, a determination as to whether or not to extract the image of the specified area is accepted from the user. This determination may be received by theoperation unit 32, or may be received by, for example, a gesture operation or voice input (when receiving by voice input, a device corresponding to voice input is required).

抽出を中止する決定を受け付けたら(ステップS106;No)、ステップS103に戻って処理を継続する。抽出を行う決定を受け付けたら(ステップS106;Yes)、表示中画面内(実際には元となる画像データ)において、ステップS105にて特定した領域に該当する部分を抽出し、該抽出した画像をハードディスク装置15に保存し(ステップS107)、本処理を終了する。  If the decision to stop the extraction is accepted (step S106; No), the process returns to step S103 and the process is continued. When a decision to perform extraction is received (step S106; Yes), a portion corresponding to the area specified in step S105 is extracted in the currently displayed screen (actually, the original image data), and the extracted image is extracted. The data is stored in the hard disk device 15 (step S107), and this process is terminated.

次に、所定の一連のジェスチャ動作について詳細な説明を行う。  Next, a predetermined series of gesture operations will be described in detail.

所定の一連のジェスチャ動作は、複数の単位ジェスチャ動作を含み、終了条件の成立により完了する動作である。複数の単位ジェスチャ動作は、静止した複数のジェスチャ、動きのある複数のジェスチャ(ジェスチャ動作)、静止したジェスチャとジェスチャ動作の組み合わせのいずれかで構成される。よって、領域の範囲を指定するためのジェスチャ動作を複数のジェスチャ動作や動きのあるジェスチャ動作で構成することで、片手で領域指定を行うことが可能になる。また、指定する領域の形状を任意形状にすることができる。  The predetermined series of gesture operations includes a plurality of unit gesture operations, and is completed when the end condition is satisfied. The plurality of unit gesture operations are configured by any one of a plurality of stationary gestures, a plurality of gestures with movement (gesture operations), and a combination of a stationary gesture and a gesture operation. Therefore, by configuring the gesture operation for specifying the range of the region by a plurality of gesture operations or gesture operations with movement, the region can be specified with one hand. Moreover, the shape of the area | region to designate can be made into arbitrary shapes.

領域指定のための一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作を含み、終了条件が成立することで完了する動作である。領域指定モードへ移行した後は、認識部18が、撮像部20から送られてくる映像の解析を開始する。領域指定の開始を指示するジェスチャ動作は、当該ジェスチャ動作を認識するまでの間のユーザの意図しない手の動き等を領域指定のためのジェスチャ動作として誤認識しないように設けられている。  A series of gesture operations for area designation is an operation that includes a gesture action for instructing start of area designation and a gesture action for designating the area range, and is completed when an end condition is satisfied. After shifting to the area designation mode, therecognition unit 18 starts analyzing the video sent from theimaging unit 20. The gesture operation for instructing the start of area designation is provided so as not to misrecognize the movement of the user's unintended hand until the gesture movement is recognized as a gesture action for area designation.

図5は、領域指定の開始を指示するジェスチャ動作を行う様子を示す。ここでは、スクリーン40に投影されている画面に対して小さく円を描くようなジェスチャ動作が、領域指定の開始地点を指示するジェスチャ動作になっている。認識部18が、領域指定の開始を指示するジェスチャ動作を認識したら、領域の範囲を指定するジェスチャ動作の受け付けを開始する。  FIG. 5 shows a state in which a gesture operation for instructing start of area designation is performed. Here, the gesture operation that draws a small circle on the screen projected on thescreen 40 is a gesture operation that indicates the start point of the area designation. When the recognizingunit 18 recognizes a gesture operation instructing the start of area designation, it starts accepting a gesture action for designating the area range.

本実施の形態では、領域の範囲を指定する際には、まずユーザが開始地点を設定する。その後、当該開始地点からユーザが指を動かして囲った部分が指定した領域となる。すなわち、開始地点から移動を開始した指の動きの軌跡が任意の閉領域となったとき、領域指定が完了したと判断され、その閉領域が指定される。CPU11は、領域指定が完了したら終了条件を満たしたと判断し、該一連のジェスチャ動作によって指定された領域を、撮像映像内および表示中画面内において特定する。  In the present embodiment, when designating the range of an area, the user first sets the start point. After that, the portion surrounded by the user moving his / her finger from the start point becomes the designated region. That is, when the trajectory of the finger movement that has started moving from the start point becomes an arbitrary closed region, it is determined that the region specification has been completed, and the closed region is specified. When the area designation is completed, theCPU 11 determines that the end condition is satisfied, and identifies the area designated by the series of gesture operations in the captured image and the currently displayed screen.

なお、実施の形態では、図5で行った領域指定の開始を指示するジェスチャ動作は開始地点の設定も兼ねている。図5で行ったジェスチャ動作にて、小さく描いた円の中心点が開始地点として認識される。  In the embodiment, the gesture operation instructing the start of area designation performed in FIG. 5 also serves as setting of the start point. In the gesture operation performed in FIG. 5, the center point of a small circle is recognized as the start point.

図6は、開始地点が設定された場合にスクリーン40に表示される投影画面の一例を示す。認識部18が撮像部20から送られてくる映像を解析し、図5で説明したジェスチャ動作を認識したら、撮像映像上で開始地点として認識した位置に対応する表示中画面内の位置にマーカ点60aを表示する。表示中画面にマーカ点60aが表示されたら投影画面内にもマーカ点60が表示される。開始地点の設定後は、領域の範囲を指定するジェスチャ動作の受け付けを開始する。  FIG. 6 shows an example of a projection screen displayed on thescreen 40 when the start point is set. When therecognition unit 18 analyzes the video sent from theimaging unit 20 and recognizes the gesture operation described with reference to FIG. 5, the marker point is positioned at the position in the display screen corresponding to the position recognized as the start point on the captured video. 60a is displayed. When themarker point 60a is displayed on the display screen, themarker point 60 is also displayed on the projection screen. After setting the start point, acceptance of a gesture operation that specifies the range of the region is started.

ユーザは投影画面に表示されたマーカ点60の位置から、指定する領域の外周を辿るように手指を移動させて領域の範囲の指定を行う。図7は、領域の範囲を指定する様子を示す。本実施の形態では、時計回りに指を動かしているが、反時計回りに動かしてもよい。領域の形状は矩形や円形に限らないが、実施の形態では矩形領域を例に説明する。  The user designates the range of the region by moving his / her finger from the position of themarker point 60 displayed on the projection screen so as to follow the outer periphery of the designated region. FIG. 7 shows how the range of the area is designated. In this embodiment, the finger is moved clockwise, but it may be moved counterclockwise. Although the shape of the region is not limited to a rectangle or a circle, the embodiment will be described by taking a rectangular region as an example.

なお、操作表示装置10は、認識部18が領域の範囲を指定する指の動きを認識したら、表示中画面においてその指の動きの軌跡に該当する部分にマーカ線61a(図8参照)を表示する。表示中画面にマーカ線61aが表示されたら、そのマーカ線61aに対応するマーカ線61が投影画面に表示されるので、ユーザは投影画面に現れたマーカ線61によって、自身が指し示した軌跡を視認することができる。  When therecognition unit 18 recognizes the movement of the finger that designates the range of the area, theoperation display device 10 displays themarker line 61a (see FIG. 8) on the portion corresponding to the trajectory of the finger movement on the displayed screen. To do. When themarker line 61a is displayed on the display screen, themarker line 61 corresponding to themarker line 61a is displayed on the projection screen, so that the user visually recognizes the locus indicated by themarker line 61 that appears on the projection screen. can do.

指が開始地点まで戻って、指の動きの軌跡が閉領域を形成したら、終了条件が成立し、CPU11は領域指定を行う所定の一連のジェスチャ動作が完了したと判断する。  When the finger returns to the start point and the movement locus of the finger forms a closed region, the end condition is satisfied, and theCPU 11 determines that a predetermined series of gesture operations for specifying the region is completed.

図8は、領域指定を行う所定の一連のジェスチャ動作が完了したと判断した場合に、スクリーン40に表示される画面の一例を示す。操作表示装置10は、CPU11が領域の範囲を指定するジェスチャ動作が完了したと判断した場合、指定された領域の枠を示すマーカ線61(図中では破線で示す)を点滅表示する。マーカ線61の周囲の三角は点滅のイメージを示す。なお、CPU11は、領域指定が完了したと判断したら撮像部20から送られてくる映像の解析を中止する。  FIG. 8 shows an example of a screen displayed on thescreen 40 when it is determined that a predetermined series of gesture operations for specifying an area has been completed. When theCPU 11 determines that the gesture operation for specifying the area range is completed, theoperation display device 10 blinks and displays a marker line 61 (indicated by a broken line in the drawing) indicating the frame of the specified area. Triangles around themarker line 61 indicate blinking images. If theCPU 11 determines that the area designation has been completed, theCPU 11 stops analyzing the video sent from theimaging unit 20.

領域指定が完了して、マーカ線61の点滅表示が開始されたら、マーカ線61で囲まれた領域に対応する部分の画像を表示中画像から抽出するか否かの選択をユーザから受け付ける。抽出の指示は、ボタン操作や他の方法(他のジェスチャ動作等)でもよい。抽出を指示された場合は、当該領域の画像を抽出し、その抽出によって得た画像を保存する。  When the area designation is completed and the blinking display of themarker line 61 is started, the user receives a selection as to whether or not to extract an image of a portion corresponding to the area surrounded by themarker line 61 from the displayed image. The extraction instruction may be a button operation or another method (another gesture operation or the like). When extraction is instructed, an image of the area is extracted and the image obtained by the extraction is stored.

図9は、所定の一連のジェスチャ動作によって指定された領域を特定し、抽出し、保存する際に行われる処理の詳細な流れを示す。  FIG. 9 shows a detailed flow of processing performed when an area specified by a predetermined series of gesture operations is specified, extracted, and stored.

まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に、画面の投影を開始する(ステップS201)。  First, theoperation display device 10 starts projecting a screen onto thescreen 40 using the projector 21 (step S201).

次に、領域指定モードへの移行指示を操作部32から受け付けるのを待って(ステップS202;No)、当該指示を受け付けたら(ステップS202;Yes)、CPU11は操作表示装置10を領域指定モードに移行させる。操作表示装置10が領域指定モードに移行したら認識部18は撮像部20から送られてくる映像の解析を開始する。何らかのジェスチャ動作が認識されなければ(ステップS203;No)、ステップS203に戻って処理を継続する。  Next, after waiting for an instruction to shift to the area designation mode from the operation unit 32 (step S202; No), when the instruction is accepted (step S202; Yes), theCPU 11 puts theoperation display device 10 into the area designation mode. Transition. When theoperation display device 10 shifts to the area designation mode, therecognition unit 18 starts analyzing the video sent from theimaging unit 20. If any gesture operation is not recognized (step S203; No), the process returns to step S203 and continues.

何らかのジェスチャ動作を認識したら(ステップS203;Yes)、このジェスチャ動作と、ハードディスク装置15に予め記憶されている領域指定の開始を指示するジェスチャ動作と照合し、その照合率が閾値以上か否かを調べる(ステップS204)。照合率が閾値未満であれば(ステップS204;No)、認識したジェスチャ動作が、領域指定を開始するジェスチャ動作ではないと判断し、ステップS203に戻って処理を継続する。  If any gesture operation is recognized (step S203; Yes), this gesture operation is collated with a gesture operation instructing the start of area designation stored in advance in thehard disk device 15, and whether or not the collation rate is equal to or higher than a threshold value. Check (step S204). If the collation rate is less than the threshold (step S204; No), it is determined that the recognized gesture action is not a gesture action for starting the area designation, and the process returns to step S203 and continues.

照合率が閾値以上であれば(ステップS204;Yes)、ステップS203で認識したジェスチャ動作が、領域指定を開始するジェスチャ動作であると判断し、当該ジェスチャ動作の示す位置を領域指定の開始地点に設定し、表示中画面において開始地点に該当する位置にマーカ点60aを表示する(ステップS205)。  If the collation rate is equal to or higher than the threshold (step S204; Yes), it is determined that the gesture action recognized in step S203 is a gesture action for starting the area designation, and the position indicated by the gesture action is set as the area designation start point. Themarker point 60a is displayed at a position corresponding to the start point on the currently displayed screen (step S205).

その後も、撮像部20から送られてくる映像を解析してジェスチャ動作の認識処理を継続する(ステップS206;No)。何らかのジェスチャ動作が認識されたら(ステップS206;Yes)、その認識したジェスチャ動作が領域の範囲を指定するジェスチャ動作か否かを、前述同様に予め定められたジェスチャ動作と比較照合(特に、動作の特徴を照合)して判定する(ステップS207)。  Thereafter, the video sent from theimaging unit 20 is analyzed and the gesture motion recognition process is continued (step S206; No). If any gesture action is recognized (step S206; Yes), whether or not the recognized gesture action is a gesture action for designating a range of a region is compared with a predetermined gesture action in the same manner as described above (in particular, the action Judgment is made by comparing the characteristics (step S207).

照合率が閾値未満であれば(ステップS207;No)、認識したジェスチャ動作が、領域の範囲を指定するジェスチャ動作ではないと判断し、ステップS206に戻って処理を継続する。照合率が閾値以上であれば(ステップS207;Yes)、認識したジェスチャ動作が、領域の範囲を指定するジェスチャ動作であると判断し、表示中画面において、当該ジェスチャ動作の指の動きの軌跡に該当する部分をマーカ線61で表示する(ステップS208)。  If the collation rate is less than the threshold (step S207; No), it is determined that the recognized gesture action is not a gesture action for designating the range of the area, and the process returns to step S206 and continues. If the collation rate is equal to or higher than the threshold value (step S207; Yes), it is determined that the recognized gesture motion is a gesture motion for designating the range of the area, and the finger motion trajectory of the gesture motion is displayed on the displayed screen. The corresponding part is displayed with the marker line 61 (step S208).

指が開始地点に戻ったら領域の範囲を指定するジェスチャ動作が完了したと判断する。これにより終了条件が成立するので(ステップS209;Yes)、領域指定のための一連のジェスチャ動作の認識処理を終了させ、認識した領域を囲むマーカ線61を点滅表示する(ステップS210)。開始地点に戻らぬままジェスチャ動作が中断した場合、たとえば、ジェスチャ動作を行っていた手が撮像部20の撮像するエリア外に出て所定の時間が経過した場合などは、エラー終了する。所定の時間は、ジェスチャ動作が中断したと判断するに十分な時間であればよい。  When the finger returns to the start point, it is determined that the gesture operation for designating the range of the region is completed. As a result, an end condition is satisfied (step S209; Yes), and the recognition process for a series of gesture operations for area designation is terminated, and themarker line 61 surrounding the recognized area is displayed blinking (step S210). When the gesture operation is interrupted without returning to the start point, for example, when a predetermined time elapses after the hand performing the gesture operation has moved out of the image capturing area of theimaging unit 20, the error ends. The predetermined time may be a time sufficient to determine that the gesture operation has been interrupted.

次に、指定した領域の画像を抽出するか否かの決定をユーザから受け付ける。抽出を中止する決定を受け付けたら(ステップS211;No)、ステップS203に戻って処理を継続する。抽出を実行する決定を受け付けたら(ステップS211;Yes)、一連のジェスチャ動作によって撮像映像上で指定された領域を表示中画面に写像して、表示中画面内の対応する領域を特定し、この領域の画像を抽出してハードディスク装置15に保存し(ステップS212)、本処理を終了する。  Next, a determination as to whether or not to extract an image of the designated area is received from the user. If the decision to stop the extraction is accepted (step S211; No), the process returns to step S203 to continue the process. When the decision to execute the extraction is accepted (step S211; Yes), the region designated on the captured image is mapped to the display screen by a series of gesture operations, and the corresponding region in the display screen is specified. An image of the area is extracted and stored in the hard disk device 15 (step S212), and this process is terminated.

このように、第1の実施の形態では、撮像部20とスクリーン40の間でユーザが行ったジェスチャ動作を認識し、認識した複数のジェスチャ動作によって所定の一連のジェスチャ動作が構成されたら、該一連のジェスチャ動作で指定された領域を特定する。具体的には、撮像された映像上で領域を特定し、この領域を表示中画面に写像し、表示中画面内の領域を特定し、当該領域を抽出する。所定の一連のジェスチャ動作によって領域を指定するので、たとえば、片手で行う複数のジェスチャ動作や動きのあるジェスチャ動作によって任意形状の領域を指定することができる。よって従来よりも利便性の高い方法で領域を指定することができる。  As described above, in the first embodiment, when a gesture operation performed by the user between theimaging unit 20 and thescreen 40 is recognized and a predetermined series of gesture operations is configured by the plurality of recognized gesture operations, Identify the area specified by a series of gesture actions. Specifically, an area is specified on the captured video, this area is mapped to the display screen, an area in the display screen is specified, and the area is extracted. Since the region is specified by a predetermined series of gesture operations, for example, an arbitrarily shaped region can be specified by a plurality of gesture operations performed with one hand or a gesture operation with movement. Therefore, the area can be designated by a method that is more convenient than the conventional method.

<第2の実施の形態>
第1の実施の形態では、所定の一連のジェスチャ動作で撮像部20の出力する映像上の領域を特定し、この領域を表示中画面に写像して、表示中画面上の領域を特定し、その特定した領域の画像を抽出して保存した。第2の実施の形態では、表示中画面内で特定した領域を、さらに拡大または縮小する場合について説明する。
<Second Embodiment>
In the first embodiment, an area on the video output from theimaging unit 20 is specified by a predetermined series of gesture operations, this area is mapped onto the display screen, and an area on the display screen is specified. An image of the specified area was extracted and saved. In the second embodiment, a case will be described in which the area specified in the currently displayed screen is further enlarged or reduced.

なお、第2の実施の形態においても表示システム3のハード構成は第1の実施の形態と同じである。また、第2の実施の形態では、第1の実施の形態との相違点を説明し、同一部分の説明は適宜省略する。  Also in the second embodiment, the hardware configuration of thedisplay system 3 is the same as that of the first embodiment. In the second embodiment, differences from the first embodiment will be described, and descriptions of the same parts will be omitted as appropriate.

まず、所定の一連のジェスチャ動作で撮像部20の出力する映像上の領域を特定し、この領域を表示中画面に写像して、表示中画面上の領域を特定したら、すなわち、領域指定が完了したら、その指定したマーカ線61が点滅表示を開始する(図12参照)。  First, an area on the video output from theimaging unit 20 is specified by a predetermined series of gesture operations, and this area is mapped to the currently displayed screen to specify the area on the currently displayed screen. That is, the area designation is completed. Then, the designatedmarker line 61 starts blinking display (see FIG. 12).

その後、撮像部20から送られてくる映像の解析を一定時間の間(たとえば10秒間)継続し、その間に認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作であれば、前述の領域指定によって特定された表示中画面上の領域の画像(以後、指定領域画像と呼ぶ)を、第2のジェスチャ動作に従って拡大もしくは縮小する。第2のジェスチャ動作は、終了条件が成立することで完了する。CPU11は、終了条件が成立したら、第2のジェスチャ動作が完了したと判断し、指定領域画像の拡大縮小を終了する。  After that, the analysis of the video sent from theimaging unit 20 is continued for a certain time (for example, 10 seconds), and the gesture operation recognized during that time is a predetermined second gesture operation for instructing enlargement / reduction. If there is, the image of the area on the currently displayed screen specified by the area designation (hereinafter referred to as the designated area image) is enlarged or reduced according to the second gesture operation. The second gesture operation is completed when the end condition is satisfied. When the end condition is satisfied, theCPU 11 determines that the second gesture operation is completed, and ends the enlargement / reduction of the designated area image.

図10は、第2のジェスチャ動作に従って指定領域画像80を拡大した場合の様子の一例を示す。指定領域画像80が拡大されたら、投影画面内での指定領域画像80に該当する部分(以後、投影指定領域画像81と呼ぶ)も拡大表示される。  FIG. 10 shows an example of a state when the designatedarea image 80 is enlarged according to the second gesture operation. When the designatedarea image 80 is enlarged, a portion corresponding to the designatedarea image 80 in the projection screen (hereinafter referred to as a projection designated area image 81) is also enlarged and displayed.

図11は、第2のジェスチャ動作に従って指定領域画像80を縮小した場合の様子の一例を示す。指定領域画像80が縮小されたら、投影指定領域画像81も縮小表示される。  FIG. 11 shows an example of a state when the designatedarea image 80 is reduced according to the second gesture operation. When the designatedarea image 80 is reduced, the projection designatedarea image 81 is also reduced and displayed.

なお、表示中画面において、縮小後の指定領域画像80と縮小前の指定領域画像80との差の表示エリアには、ブランクデータを割り当てて表示する。  Note that blank data is assigned and displayed in the display area of the difference between the specifiedarea image 80 after reduction and the specifiedarea image 80 before reduction on the display screen.

図12は、領域指定が完了してから一定時間(たとえば、10秒間)の間に、スクリーン40に表示される投影画面の一例を示す。投影画面では、投影指定領域画像81の外枠であるマーカ線61が点滅表示するとともに、投影指定領域画像81の中心点と対角線が重ねて表示される。ユーザは、この中心点と対角線を参照しながら、スクリーン40に投影されている投影画面に向けて拡大もしくは縮小を指示する第2のジェスチャ動作を行う。  FIG. 12 shows an example of a projection screen displayed on thescreen 40 during a certain time (for example, 10 seconds) after the region designation is completed. On the projection screen, themarker line 61 that is the outer frame of the projectiondesignation area image 81 is displayed blinking, and the center point and the diagonal line of the projectiondesignation area image 81 are displayed in an overlapping manner. The user performs a second gesture operation for instructing enlargement or reduction toward the projection screen projected on thescreen 40 while referring to the center point and the diagonal line.

図13は、拡大を指示する第2のジェスチャ動作を行う様子を示す。拡大を指示する第2のジェスチャ動作は、投影指定領域画像81に重ねて表示されている中心点から、投影指定領域画像81のいずれかの角に向けて、その方向の対角線をなぞるようなジェスチャ動作である。CPU11は、認識部18が認識したジェスチャ動作が前述の拡大を指示する第2のジェスチャ動作である場合は、そのなぞられた距離に応じた倍率で指定領域画像80を拡大する。たとえば、なぞられた距離が長ければ指定領域画像80を高倍率で拡大し、なぞられた距離が短ければ低倍率で拡大する。図中では、ユーザが中心点から左下の角に向けて前述の第2のジェスチャ動作を行っている。  FIG. 13 shows a state in which the second gesture operation for instructing enlargement is performed. The second gesture operation for instructing enlargement is a gesture in which a diagonal line in that direction is traced from the center point displayed superimposed on the projectiondesignation area image 81 toward any corner of the projectiondesignation area image 81. Is the action. When the gesture operation recognized by therecognition unit 18 is the second gesture operation instructing the enlargement, theCPU 11 enlarges the designatedarea image 80 at a magnification corresponding to the traced distance. For example, the specifiedarea image 80 is enlarged at a high magnification if the traced distance is long, and is enlarged at a low magnification if the traced distance is short. In the figure, the user performs the above-described second gesture operation from the center point toward the lower left corner.

図14は、縮小を指示する第2のジェスチャ動作を行う様子を示す。縮小を指示する第2のジェスチャ動作は、投影指定領域画像81のいずれかの角から、投影指定領域画像81に重ねて表示されている中心点に向けて、その方向の対角線をなぞるようなジェスチャ動作である。CPU11は、認識部18が認識したジェスチャ動作が前述の縮小を指示する第2のジェスチャ動作である場合は、そのなぞられた距離に応じた倍率で指定領域画像80を縮小する。たとえば、なぞられた距離が長ければ指定領域画像80を高倍率で縮小し、なぞられた距離が短ければ低倍率で縮小する。図中では、ユーザが左下の角から中心点に向けて前述の第2のジェスチャ動作を行っている。  FIG. 14 shows a state in which a second gesture operation for instructing reduction is performed. The second gesture operation for instructing reduction is a gesture in which a diagonal line in the direction is traced from any corner of the projectiondesignation area image 81 toward the center point displayed superimposed on the projectiondesignation area image 81. Is the action. When the gesture operation recognized by therecognition unit 18 is the second gesture operation instructing the above-described reduction, theCPU 11 reduces the designatedarea image 80 at a magnification according to the traced distance. For example, the specifiedarea image 80 is reduced at a high magnification if the traced distance is long, and is reduced at a low magnification if the traced distance is short. In the figure, the user performs the above-described second gesture operation from the lower left corner toward the center point.

図15は、図13、図14とは異なるジェスチャ動作を第2のジェスチャ動作として指定領域画像80を拡大、縮小する様子を示す。図15では、第2のジェスチャ動作は、1対のL字型に形成した右手50と左手52で略矩形の形を作り、その略矩形の大きさを変化させるジェスチャ動作である。認識部18が認識したジェスチャ動作が、前述の第2のジェスチャ動作である場合は、CPU11が、その変化に応じて指定領域画像80を拡大、もしくは縮小する。たとえば、当該略矩形の縦方向が拡大されたら、その拡大率に合わせて指定領域画像80の縦方向を拡大する。  FIG. 15 shows a state in which the designatedregion image 80 is enlarged or reduced by using a gesture operation different from that in FIGS. 13 and 14 as a second gesture operation. In FIG. 15, the second gesture operation is a gesture operation in which aright hand 50 and aleft hand 52 formed in a pair of L-shapes form a substantially rectangular shape and the size of the substantially rectangular shape is changed. When the gesture operation recognized by therecognition unit 18 is the above-described second gesture operation, theCPU 11 enlarges or reduces the designatedarea image 80 according to the change. For example, when the vertical direction of the substantially rectangular shape is enlarged, the vertical direction of the designatedarea image 80 is enlarged in accordance with the enlargement ratio.

なお、本発明の実施の形態では、第2のジェスチャ動作の終了条件は、指を一定時間(たとえば、2秒ほど)静止させることである。当該終了条件が成立したら第2のジェスチャ動作は完了する。終了条件は、操作部32から終了の指示を受け付けること等、他の条件であってもよい。  In the embodiment of the present invention, the termination condition of the second gesture operation is that the finger is stationary for a certain time (for example, about 2 seconds). When the end condition is satisfied, the second gesture operation is completed. The end condition may be another condition such as receiving an end instruction from theoperation unit 32.

図16は、第2の実施の形態において、指定領域画像80を、第2のジェスチャ動作に従って拡大縮小する処理を示す。  FIG. 16 shows processing for enlarging / reducing the designatedarea image 80 in accordance with the second gesture operation in the second embodiment.

まず、操作表示装置10は、プロジェクタ21を使用してスクリーン40に、画面の投影を開始する(ステップS301)。領域指定が完了するまでは(ステップS302;No)ステップS302に戻って処理を継続する。ステップS302の処理は、図9のステップS202からステップS210までの処理と同様の処理が行われたか否かを監視している。  First, theoperation display device 10 starts projecting a screen onto thescreen 40 using the projector 21 (step S301). Until the area designation is completed (step S302; No), the process returns to step S302 and continues. The process in step S302 monitors whether the same process as the process from step S202 to step S210 in FIG. 9 has been performed.

領域指定が完了したら(ステップS302;Yes)、認識部18は撮像部20から送られてくる映像の解析を開始する。何らかのジェスチャ動作が認識されなければ(ステップS303;No)、ステップS303に戻って処理を継続する。  When the area designation is completed (step S302; Yes), therecognition unit 18 starts analyzing the video sent from theimaging unit 20. If any gesture operation is not recognized (step S303; No), the process returns to step S303 and continues.

何らかのジェスチャ動作を認識したら(ステップS303;Yes)、このジェスチャ動作と、ハードディスク装置15に予め記憶されている第2のジェスチャ動作と照合し、その照合率が閾値以上か否かを調べる(ステップS304)。照合率が閾値未満であれば(ステップS304;No)、認識したジェスチャ動作が、第2のジェスチャ動作(拡大、もしくは縮小を指示するジェスチャ動作)ではないと判断し、ステップS303に戻って処理を継続する。  If any gesture operation is recognized (step S303; Yes), this gesture operation is compared with a second gesture operation stored in advance in thehard disk device 15, and it is checked whether or not the comparison rate is equal to or greater than a threshold (step S304). ). If the collation rate is less than the threshold (step S304; No), it is determined that the recognized gesture operation is not the second gesture operation (gesture operation instructing enlargement or reduction), and the process returns to step S303 to perform the process. continue.

照合率が閾値以上であれば(ステップS304;Yes)、認識したジェスチャ動作が、第2のジェスチャ動作であると判断する。その後、終了条件が成立し、第2のジェスチャ動作が完了したか否かを調べる(ステップS305)。拡大、縮小を指示するジェスチャ動作の後、ユーザが指を一定時間(たとえば、2秒間)静止させれば、終了条件が成立する。終了条件が成立したら(ステップS305;Yes)、拡大縮小のための第2のジェスチャ動作の認識処理を終了させ、ステップS302で指定された領域、すなわち指定領域画像80を、ステップS304で受けた第2のジェスチャ動作に従って拡大、もしくは縮小し(ステップS306)本処理を終了する。  If the collation rate is equal to or higher than the threshold (step S304; Yes), it is determined that the recognized gesture action is the second gesture action. Thereafter, it is checked whether or not the end condition is satisfied and the second gesture operation is completed (step S305). After the gesture operation for instructing enlargement / reduction, if the user stops his / her finger for a certain time (for example, 2 seconds), the end condition is satisfied. If the termination condition is satisfied (step S305; Yes), the recognition process of the second gesture operation for enlargement / reduction is terminated, and the region designated in step S302, that is, the designatedregion image 80 is received in step S304. In step S306, the process is terminated.

終了条件が成立しなければ(ステップS305;No)、ステップS303に戻って処理を継続する。たとえば、第2のジェスチャ動作を行っていた手が撮像部20の撮像するエリア外に出て所定の時間が経過した場合などは、エラー終了する。所定の時間は、ジェスチャ動作が中断したと判断するに十分な時間であればよい。  If the end condition is not satisfied (step S305; No), the process returns to step S303 and continues. For example, when the hand performing the second gesture operation goes out of the area captured by theimaging unit 20 and a predetermined time has elapsed, the error ends. The predetermined time may be a time sufficient to determine that the gesture operation has been interrupted.

なお、ステップS303にて、いずれのジェスチャ動作も認識しないまま一定時間(たとえば10秒)が経過した場合は、拡大、縮小が行われないと判断し、処理を終了してもよい。  In step S303, if a certain time (for example, 10 seconds) has elapsed without recognizing any gesture operation, it may be determined that enlargement or reduction is not performed, and the process may be terminated.

このように第2の実施の形態では、所定の一連のジェスチャ動作によって指定された領域の画像(指定領域画像80)を、ユーザの行う第2のジェスチャ動作に従って拡大もしくは縮小する。第2のジェスチャ動作は拡大、縮小の指示だけでなく、その倍率(拡大率、縮小率)も同時に指定する。また、ユーザは投影指定領域画像81を確認することによって、当該拡大、縮小を微調整することも可能である。よって、ユーザは、所定の一連のジェスチャ動作によって指定された領域を、続けて第2のジェスチャ動作によって拡大、縮小させることができる。  As described above, in the second embodiment, the image of the area designated by the predetermined series of gesture operations (designated area image 80) is enlarged or reduced according to the second gesture action performed by the user. The second gesture operation specifies not only an enlargement / reduction instruction but also a magnification (enlargement ratio, reduction ratio) at the same time. The user can also finely adjust the enlargement / reduction by confirming the projection designatedarea image 81. Therefore, the user can continuously enlarge or reduce the area designated by the predetermined series of gesture operations by the second gesture operation.

<第3の実施の形態>
第3の実施の形態では、所定の貼り付け指示で指定された場所に画像を貼り付ける場合について説明する。なお、第3の実施の形態においても表示システム3のハード構成は第1、第2の実施の形態と同じである。また、第3の実施の形態では、第1、第2の実施の形態との相違点を説明し、同一部分の説明は適宜省略する。
<Third Embodiment>
In the third embodiment, a case will be described in which an image is pasted at a location specified by a predetermined pasting instruction. In the third embodiment, the hardware configuration of thedisplay system 3 is the same as that in the first and second embodiments. In the third embodiment, differences from the first and second embodiments will be described, and descriptions of the same parts will be omitted as appropriate.

第3の実施の形態で貼り付けられる画像は、第1の実施の形態で説明した方法で抽出した画像、抽出して保存した画像、第2の実施の形態で拡大、縮小した指定領域画像80、もしくは、ハードディスク装置15から読み出した画像である。実施の形態では、ハードディスク装置15から読み出した画像を例に説明する。  The image pasted in the third embodiment is an image extracted by the method described in the first embodiment, an image extracted and stored, and a designatedarea image 80 enlarged or reduced in the second embodiment. Alternatively, the image is read from thehard disk device 15. In the embodiment, an image read from thehard disk device 15 will be described as an example.

まず、ユーザが操作部32から貼り付けを行う動作モードへの移行を指示するとともに、ハードディスク装置15から読み出す画像を指定する。  First, the user instructs theoperation unit 32 to shift to an operation mode for pasting and designates an image to be read from thehard disk device 15.

当該移行指示に従って貼り付けを行う動作モードへ移行したら、撮像部20から送られてくる映像の解析を開始する。当該映像内に、スクリーン40に対するジェスチャ動作を認識したら、当該ジェスチャ動作がスクリーン40内で指定した位置に対応する表示画面内の位置に、先に指定された画像をハードディスク装置15から読み出して表示する。  When a transition is made to an operation mode in which pasting is performed in accordance with the transition instruction, analysis of a video sent from theimaging unit 20 is started. When a gesture operation on thescreen 40 is recognized in the video, the previously specified image is read from thehard disk device 15 and displayed at a position in the display screen corresponding to the position specified by the gesture operation on thescreen 40. .

図17は、ジェスチャ動作によって、貼り付け位置を指定する様子を示す。ジェスチャ動作による位置の指定は、たとえば、領域指定における開始地点の設定と同じく、円を描くようなジェスチャ動作によって行う。たとえば、CPU11は、円の中心点が、貼り付ける画像の中心となるように読み出した画像を表示する。  FIG. 17 shows a state where a pasting position is designated by a gesture operation. The designation of the position by the gesture operation is performed by a gesture operation that draws a circle, for example, similarly to the setting of the start point in the area designation. For example, theCPU 11 displays the read image so that the center point of the circle is the center of the image to be pasted.

表示中画面に読み出した画像が表示されたら、投影画面にも、その画像が表示される。  When the read image is displayed on the display screen, the image is also displayed on the projection screen.

なお、貼り付けを行う動作モードへ移行したら、読み出した画像を表示中画面内の予め決められた位置に自動で表示し、その後、ジェスチャ動作に従ってその貼り付け位置を移動させるようにしてもよい。  When the operation mode is changed to the pasting operation mode, the read image may be automatically displayed at a predetermined position in the display screen, and the pasting position may be moved according to the gesture operation.

当該貼り付けが行われたら。位置情報取得部35が、GPSによって、画像が貼り付けられた場所の位置情報を取得する。そして操作表示装置10は、当該位置情報と貼り付けた画像とを関連付けてハードディスク装置15に保存する。保存先は外部のサーバなどでもよい。  If the pasting is done. The positioninformation acquisition unit 35 acquires position information of the place where the image is pasted by GPS. Theoperation display device 10 stores the position information and the pasted image in thehard disk device 15 in association with each other. The storage destination may be an external server.

また、ハードディスク装置15に保存されている位置情報が示す場所に操作表示装置10の表示部31の表示領域(表示部31の表示面あるいはスクリーン40)が存在する場合に、その位置情報に対応付けされている画像を該位置情報の示す場所に表示する。たとえば、第3会議室で画像Aの貼り付けを行った場合、次回に第3会議室で操作表示装置10を使用する際に、前回貼り付けた画像Aが自動的に表示部31に表示され、スクリーン40に表示される。  Further, when the display area (the display surface of thedisplay unit 31 or the screen 40) of thedisplay unit 31 of theoperation display device 10 is present at the location indicated by the position information stored in thehard disk device 15, it is associated with the position information. The displayed image is displayed at the location indicated by the position information. For example, when the image A is pasted in the third conference room, the image A pasted last time is automatically displayed on thedisplay unit 31 the next time theoperation display device 10 is used in the third conference room. Displayed on thescreen 40.

このように第3の実施の形態では、操作表示装置10は、貼り付け指示に従って画像を貼り付けた際に、その貼り付けた場所の位置情報と、当該貼り付けた画像を関連付けて記憶する。そして、以前に貼り付けを行った場所(記憶されている位置情報の示す場所)で操作表示装置10を使用する場合に、その位置情報に対応付けされている画像が自動的にその位置情報の示す場所に貼り付けて表示される。よって、その貼り付けを行った場所で操作表示装置10を使用する際には、手間無く、常にその貼り付けが再現される。  As described above, in the third embodiment, when theoperation display device 10 pastes an image according to the paste instruction, theoperation display device 10 stores the location information of the pasted location and the pasted image in association with each other. Then, when theoperation display device 10 is used at a place where pasting has been performed (a place indicated by the stored position information), an image associated with the position information is automatically displayed in the position information. It is pasted and displayed at the indicated location. Therefore, when theoperation display device 10 is used at the place where the pasting is performed, the pasting is always reproduced without any trouble.

なお、本発明の実施の形態ではジェスチャ動作によって、貼り付け指示を行ったが、この貼り付け指示は、ジェスチャ動作に限らず、ボタン操作等で行ってもよい。  In the embodiment of the present invention, the pasting instruction is performed by the gesture operation. However, the pasting instruction is not limited to the gesture operation, and may be performed by a button operation or the like.

以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。  The embodiment of the present invention has been described with reference to the drawings. However, the specific configuration is not limited to that shown in the embodiment, and there are changes and additions within the scope of the present invention. Are also included in the present invention.

本発明の第1の実施の形態では、撮像部20の撮像するエリアに、表示中画面を対応付けしておき、所定の一連のジェスチャ動作が指定した投影画面内の領域に該当する表示中画面内の領域を特定し、抽出していたが、撮像部20から送られてくる画像内において、所定の一連のジェスチャ動作が指定する領域を特定し、撮像画像の一部を抽出してもよい。これにより、たとえば、撮像部20でホワイトボードに書き込まれた内容等を撮像することで、その内容を画像として抽出し、保存することができる。また、ハードディスク装置15から読み出した画像ではなく、撮像部20が撮像して得た映像を表示部31に表示してもよい。  In the first embodiment of the present invention, a display screen is associated with an area captured by theimaging unit 20, and a display screen corresponding to an area in a projection screen designated by a predetermined series of gesture operations. In the image sent from theimaging unit 20, a region specified by a predetermined series of gesture operations may be specified and a part of the captured image may be extracted. . Thus, for example, by capturing the content written on the whiteboard by theimaging unit 20, the content can be extracted and stored as an image. Further, instead of the image read from thehard disk device 15, an image obtained by theimaging unit 20 may be displayed on thedisplay unit 31.

なお、撮像部20が撮像して得た画像内の領域を特定する場合、ハード構成としてはCPU11と、ROM12と、RAM13と、認識部18と、撮像部20を抜き出して構成された領域指定装置であってもよい。表示部31やプロジェクタ21、スクリーン40を含めない構成でもよい。なお、プロジェクタ21によって、開始地点や、マーカ線等を撮像部20が撮像している対象物に投影し、ユーザが自身の指定している領域等を視認できるようにしてもよい。  In addition, when specifying the area | region in the image acquired by theimaging part 20, the area | region designation | designated apparatus comprised by extracting CPU11, ROM12, RAM13, therecognition part 18, and theimaging part 20 as hardware constitutions. It may be. Thedisplay 31, theprojector 21, and thescreen 40 may not be included. Note that theprojector 21 may project a start point, a marker line, or the like onto an object being imaged by theimaging unit 20 so that the user can visually recognize an area designated by the user.

本発明の実施の形態では、表示システム3を例に説明したが、領域指定装置の形態はこれに限らない。たとえば、ARメガネ等のヘッドマウントディスプレイの形態を採用した場合、ユーザの視界を撮像部20が撮像するようにし、当該視界の中で行った所定の一連のジェスチャ動作を認識する。また、デジタルカメラやスマートフォン等の形態を採用する場合は、表示部31に撮像部20が撮像して得た映像を表示するようにする。  In the embodiment of the present invention, thedisplay system 3 has been described as an example, but the form of the area specifying device is not limited to this. For example, when the form of a head-mounted display such as AR glasses is adopted, theimaging unit 20 images the user's field of view, and recognizes a predetermined series of gesture operations performed in the field of view. Moreover, when employ | adopting forms, such as a digital camera and a smart phone, it is made to display the image | video obtained by theimaging part 20 on thedisplay part 31. FIG.

なお、本発明の実施の形態では、認識部18は右手50の動作を直接検出することでユーザが行うジェスチャ動作を認識していたが、キャップ51を手に装着してジェスチャ動作を行い、当該キャップ51の動きを検出してユーザの行うジェスチャ動作を認識するようにしてもよい。キャップ51はバンドで固定する等の方法でユーザの指に装着する装着具である。キャップ51の動きを検出する場合は、キャップ51の大きさと形状を予め登録しておけば、ユーザごとの手のサイズや形状の違いの影響を受けることなく認識部18が、ユーザの手が行うジェスチャ動作を認識することができる。図18は、キャップ51の動きを検出してユーザの行うジェスチャ動作を認識する様子を示す。  In the embodiment of the present invention, therecognition unit 18 recognizes the gesture operation performed by the user by directly detecting the operation of theright hand 50. However, therecognition unit 18 performs the gesture operation by attaching thecap 51 to the hand. You may make it recognize the gesture operation | movement which a user performs by detecting the motion of thecap 51. FIG. Thecap 51 is a mounting tool that is mounted on the user's finger by a method such as fixing with a band. When detecting the movement of thecap 51, if the size and shape of thecap 51 are registered in advance, therecognition unit 18 performs the user's hand without being affected by the difference in hand size or shape for each user. The gesture action can be recognized. FIG. 18 shows how the movement of thecap 51 is detected to recognize the gesture operation performed by the user.

本発明の第1の実施の形態では、領域指定を開始するジェスチャ動作が、開始地点の設定を行うジェスチャ動作を兼ねていたが、領域指定を開始するジェスチャ動作を行った後に、新たに領域の開始地点の設定を行うようにしてもよい。すなわち、領域指定を開始するジェスチャ動作を行った後、スクリーン40に投影されている画面に対して小さく円を描くようなジェスチャ動作をユーザから新たに受け付けたら、その円の中心点を開始地点として設定するようにしてもよい。  In the first embodiment of the present invention, the gesture operation for starting the area designation also serves as the gesture operation for setting the start point. However, after performing the gesture operation for starting the area designation, a new area is designated. You may make it perform the setting of a starting point. That is, after performing a gesture operation for starting area designation, when a new gesture operation for drawing a circle on the screen projected on thescreen 40 is received from the user, the center point of the circle is set as the start point. You may make it set.

本発明の第1の実施の形態では、指定する領域の輪郭をなぞるように指し示すジェスチャ動作によって、領域の範囲を指定したが、領域の範囲を指定する方法はこの方法に限らない。図19は、他の方法の一例を示す。ユーザは、領域指定の開始を指示する操作の後、スクリーン40上の複数点に対して小さく円を描くようなジェスチャ動作を行う。操作表示装置10は、このジェスチャ動作によって描かれる複数の円の中心点を直線で結んで最も面積が広くなるように囲った領域の画像を指定された範囲として認識する。図19では、4点に円が描かれているので、その4つの円の中心点を結んで囲った矩形の領域を、指定された範囲として認識している。5つの円が描かれた場合は、5角形の領域となる。なお、描かれた円の数が2つの場合は、その2つの円の中心点を、対角とする矩形領域を指定された範囲として認識すればよい。  In the first embodiment of the present invention, the range of the area is specified by the gesture operation pointing to trace the outline of the specified area. However, the method of specifying the range of the area is not limited to this method. FIG. 19 shows an example of another method. The user performs a gesture operation to draw a small circle on a plurality of points on thescreen 40 after an operation for instructing start of area designation. Theoperation display device 10 recognizes, as a designated range, an image of a region surrounded by connecting the center points of a plurality of circles drawn by the gesture operation with straight lines so as to have the largest area. In FIG. 19, since circles are drawn at four points, a rectangular region surrounded by connecting the center points of the four circles is recognized as a designated range. When five circles are drawn, it becomes a pentagonal region. If the number of drawn circles is two, a rectangular area whose diagonal is the center point of the two circles may be recognized as a designated range.

なお、本発明の第3の実施の形態では、位置情報取得部35が取得した位置情報と貼り付けた画像を関連付けてハードディスク装置15に記憶していたが、外部のサーバ等に記憶してもよい。外部のサーバを本発明の請求項に係る記憶部とした場合、たとえば、操作表示装置10がいずれの場所に存在していても、ネットワークを通じてサーバから当該情報を取得して自動貼り付けを行うことができる。  In the third embodiment of the present invention, the positional information acquired by the positionalinformation acquisition unit 35 and the pasted image are stored in association with each other in thehard disk device 15, but may be stored in an external server or the like. Good. When an external server is used as the storage unit according to the claims of the present invention, for example, even if theoperation display device 10 exists, the information is acquired from the server through the network and automatically pasted. Can do.

3…表示システム
10…操作表示装置
11…CPU
12…ROM
13…RAM
14…不揮発メモリ
15…ハードディスク装置
16…画像処理部
17…ネットワーク通信部
18…認識部
19…有線I/F部
20…撮像部
21…プロジェクタ
30…操作パネル
31…表示部
32…操作部
33…スイッチ部
34…タッチパネル部
35…位置情報取得部
40…スクリーン
50…右手
51…キャップ
52…左手
60、60a…マーカ点
61、61a…マーカ線
80…指定領域画像
81…投影指定領域画像
3 ...Display system 10 ...Operation display device 11 ... CPU
12 ... ROM
13 ... RAM
DESCRIPTION OFSYMBOLS 14 ...Nonvolatile memory 15 ...Hard disk device 16 ...Image processing part 17 ...Network communication part 18 ...Recognition part 19 ... Wired I /F part 20 ... Imagingpart 21 ...Projector 30 ...Operation panel 31 ...Display part 32 ...Operation part 33 ...Switch unit 34 ...Touch panel unit 35 ... Positioninformation acquisition unit 40 ...Screen 50 ...Right hand 51 ...Cap 52 ...Left hand 60, 60a ...Marker point 61, 61a ...Marker line 80 ... Designatedarea image 81 ... Projection designated area image

Claims (11)

Translated fromJapanese
撮像部と、
撮像部が撮像しているエリア内で行われたユーザによるジェスチャ動作を前記撮像部の出力する映像を解析して認識する認識部と、
前記認識部によって認識されたジェスチャ動作が領域指定のための所定の一連のジェスチャ動作を構成した場合に、該所定の一連のジェスチャ動作によって指定された領域を特定する制御部と、
を備える
ことを特徴とする領域指定装置。
An imaging unit;
A recognizing unit that recognizes a gesture operation performed by a user in an area captured by the imaging unit by analyzing a video output from the imaging unit;
A control unit that identifies a region specified by the predetermined series of gesture operations when the gesture operation recognized by the recognition unit constitutes a predetermined series of gesture operations for specifying the region;
An area designating device comprising:
前記制御部は、前記所定の一連のジェスチャ動作に続けて前記認識部が認識したジェスチャ動作が、拡大縮小を指示するための予め定めた第2のジェスチャ動作の場合に、前記所定の一連のジェスチャ動作によって指定された領域に対して、前記第2のジェスチャ動作が示す拡大縮小の指示を適用する
ことを特徴とする請求項1に記載の領域指定装置。
The control unit performs the predetermined series of gestures when the gesture operation recognized by the recognition unit following the predetermined series of gesture operations is a predetermined second gesture operation for instructing enlargement / reduction. The area designation device according to claim 1, wherein an enlargement / reduction instruction indicated by the second gesture action is applied to an area designated by the action.
前記所定の一連のジェスチャ動作は、領域指定の開始を指示するジェスチャ動作と、領域の範囲を指定するジェスチャ動作とを含み、所定の終了条件を満たすと完了する動作である
ことを特徴とする請求項1または2に記載の領域指定装置。
The predetermined series of gesture actions includes a gesture action for instructing start of area designation and a gesture action for designating an area range, and is an action that is completed when a predetermined end condition is satisfied. Item 3. The area designating device according to Item 1 or 2.
前記制御部は、所定の一連のジェスチャ動作によって指定された領域として、前記撮像部の出力する映像上の領域を特定する
ことを特徴とする請求項1乃至3のいずれか1つに記載の領域指定装置。
The region according to any one of claims 1 to 3, wherein the control unit specifies a region on an image output from the imaging unit as a region designated by a predetermined series of gesture operations. Designated device.
前記制御部は、前記撮像部の出力する映像上で前記所定の一連のジェスチャ動作によって指定された領域を、前記撮像部が撮像するエリアに対応付けされた所定の画像に写像して、該所定の画像上の領域を特定する
ことを特徴とする請求項1乃至3のいずれか1つに記載の領域指定装置。
The control unit maps an area designated by the predetermined series of gesture operations on a video output from the imaging unit to a predetermined image associated with an area captured by the imaging unit, and The area designating apparatus according to claim 1, wherein an area on the image is specified.
画像の表示部を備え、
前記所定の画像は、前記表示部が前記撮像部の撮像エリアに表示した画像である
ことを特徴とする請求項5に記載の領域指定装置。
With an image display,
The region designation apparatus according to claim 5, wherein the predetermined image is an image displayed on the imaging area of the imaging unit by the display unit.
前記制御部は、前記特定した領域の画像を抽出する
ことを特徴とする請求項4乃至6のいずれか1つに記載の領域指定装置。
The region specifying apparatus according to claim 4, wherein the control unit extracts an image of the specified region.
前記制御部は、前記抽出した画像を所定の記憶部に保存する
ことを特徴とする請求項7に記載の領域指定装置。
The area specifying device according to claim 7, wherein the control unit stores the extracted image in a predetermined storage unit.
画像の表示部を備え、
前記制御部は、所定の貼り付け指示で指示された場所に、前記抽出した画像を、前記表示部によって表示する
ことを特徴とする請求項7または8に記載の領域指定装置。
With an image display,
The region specifying device according to claim 7 or 8, wherein the control unit displays the extracted image on the place designated by a predetermined pasting instruction by the display unit.
位置情報を取得する位置情報取得部を更に備え、
前記制御部は、前記抽出した画像を前記貼り付け指示で指定された場所に表示した場合に、前記貼り付け指示で指示された場所の位置情報を前記位置情報取得部によって取得し、該位置情報と前記表示した画像とを関連付けて所定の記憶部に保存する
ことを特徴とする請求項9に記載の領域指定装置。
It further comprises a location information acquisition unit that acquires location information,
When the control unit displays the extracted image at a location specified by the paste instruction, the control unit acquires position information of the location specified by the paste instruction by the position information acquisition unit, and the position information The area designation device according to claim 9, wherein the displayed image is stored in a predetermined storage unit in association with each other.
前記制御部は、前記記憶部に保存されている位置情報が示す場所に前記表示部の表示領域が存在する場合に、前記位置情報に関連付けされている画像を前記位置情報の示す場所に表示する
ことを特徴とする請求項10に記載の領域指定装置。
The control unit displays an image associated with the position information at a location indicated by the position information when a display area of the display unit exists at the location indicated by the position information stored in the storage unit. The area specifying device according to claim 10.
JP2013106320A2013-05-202013-05-20Area designating devicePendingJP2014228945A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2013106320AJP2014228945A (en)2013-05-202013-05-20Area designating device

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2013106320AJP2014228945A (en)2013-05-202013-05-20Area designating device

Publications (1)

Publication NumberPublication Date
JP2014228945Atrue JP2014228945A (en)2014-12-08

Family

ID=52128764

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2013106320APendingJP2014228945A (en)2013-05-202013-05-20Area designating device

Country Status (1)

CountryLink
JP (1)JP2014228945A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2016194763A (en)*2015-03-312016-11-17富士通株式会社 Image processing apparatus, image processing program, and image processing method
WO2017145423A1 (en)*2016-02-252017-08-31日本電気株式会社Information processing system, information processing device, control method, and program
JP2018073071A (en)*2016-10-282018-05-10京セラドキュメントソリューションズ株式会社 Information processing device
WO2018235371A1 (en)*2017-06-202018-12-27ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM
JP2021040179A (en)*2019-08-302021-03-11富士フイルム株式会社 Projection device and method

Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH07168949A (en)*1993-04-301995-07-04Rank Xerox LtdInteractive copying device
JP2006018374A (en)*2004-06-302006-01-19Casio Comput Co Ltd Image processing apparatus with projector function and program
JP2011170603A (en)*2010-02-182011-09-01Fujitsu Toshiba Mobile Communications LtdPortable terminal
JP2011227828A (en)*2010-04-222011-11-10Canon IncInformation processor, information processing method and information processing program
WO2011142317A1 (en)*2010-05-112011-11-17日本システムウエア株式会社Gesture recognition device, method, program, and computer-readable medium upon which program is stored
WO2011152166A1 (en)*2010-05-312011-12-08株式会社PfuOverhead scanner apparatus, image processing method, and program
WO2012153833A1 (en)*2011-05-122012-11-15Necカシオモバイルコミュニケーションズ株式会社Electronic device, method for controlling same and program
JP2012243007A (en)*2011-05-182012-12-10Toshiba CorpImage display device and image area selection method using the same
JP2013034168A (en)*2011-08-012013-02-14Fuji Xerox Co LtdImage projection device, image projection control device, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH07168949A (en)*1993-04-301995-07-04Rank Xerox LtdInteractive copying device
JP2006018374A (en)*2004-06-302006-01-19Casio Comput Co Ltd Image processing apparatus with projector function and program
JP2011170603A (en)*2010-02-182011-09-01Fujitsu Toshiba Mobile Communications LtdPortable terminal
JP2011227828A (en)*2010-04-222011-11-10Canon IncInformation processor, information processing method and information processing program
WO2011142317A1 (en)*2010-05-112011-11-17日本システムウエア株式会社Gesture recognition device, method, program, and computer-readable medium upon which program is stored
WO2011152166A1 (en)*2010-05-312011-12-08株式会社PfuOverhead scanner apparatus, image processing method, and program
WO2012153833A1 (en)*2011-05-122012-11-15Necカシオモバイルコミュニケーションズ株式会社Electronic device, method for controlling same and program
JP2012243007A (en)*2011-05-182012-12-10Toshiba CorpImage display device and image area selection method using the same
JP2013034168A (en)*2011-08-012013-02-14Fuji Xerox Co LtdImage projection device, image projection control device, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2016194763A (en)*2015-03-312016-11-17富士通株式会社 Image processing apparatus, image processing program, and image processing method
US10185399B2 (en)2015-03-312019-01-22Fujitsu LimitedImage processing apparatus, non-transitory computer-readable recording medium, and image processing method
WO2017145423A1 (en)*2016-02-252017-08-31日本電気株式会社Information processing system, information processing device, control method, and program
US10372229B2 (en)2016-02-252019-08-06Nec CorporationInformation processing system, information processing apparatus, control method, and program
JP2018073071A (en)*2016-10-282018-05-10京セラドキュメントソリューションズ株式会社 Information processing device
WO2018235371A1 (en)*2017-06-202018-12-27ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM
US10921934B2 (en)2017-06-202021-02-16Sony CorporationInformation processing apparatus, information processing method, and recording medium
JP2021040179A (en)*2019-08-302021-03-11富士フイルム株式会社 Projection device and method
JP7236355B2 (en)2019-08-302023-03-09富士フイルム株式会社 Projection device and method
JP2023059985A (en)*2019-08-302023-04-27富士フイルム株式会社Projection apparatus and method
JP7427822B2 (en)2019-08-302024-02-05富士フイルム株式会社 Projection device and method

Similar Documents

PublicationPublication DateTitle
US12340034B2 (en)Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US10514842B2 (en)Input techniques for virtual reality headset devices with front touch screens
US11546457B2 (en)Electronic device and method of operating electronic device in virtual reality
CN103092524B (en)A kind of method and mobile terminal being realized sectional drawing by touch-screen
CN110471596B (en)Split screen switching method and device, storage medium and electronic equipment
US9894115B2 (en)Collaborative data editing and processing system
CN110456907A (en) Virtual screen control method, device, terminal equipment and storage medium
CN104166509B (en)A kind of contactless screen exchange method and system
WO2015161653A1 (en)Terminal operation method and terminal device
KR102061867B1 (en)Apparatus for generating image and method thereof
CN106204423B (en)Image adjusting method and device based on augmented reality and terminal
JP6595896B2 (en) Electronic device and display control method
CN105807999B (en) Method for inputting handwritten information to a display device through a handwriting device
JP2014228945A (en)Area designating device
WO2018010440A1 (en)Projection picture adjusting method and apparatus, and projection terminal
JP2023033559A (en) Information processing device, display control method, and program
US20170090744A1 (en)Virtual reality headset device with front touch screen
US8970483B2 (en)Method and apparatus for determining input
CN111913565B (en)Virtual content control method, device, system, terminal device and storage medium
WO2022218352A1 (en)Method and apparatus for touch operation
KR102071673B1 (en)Display apparatus and method for displaying graphic item using the same
JP6155893B2 (en) Image processing apparatus and program
JP2016148858A (en)System, projector device and portable terminal
CN111381670A (en)Virtual content interaction method, device, system, terminal equipment and storage medium
JP7401805B2 (en) Information processing device, image processing range specification method, and image processing range specification program

Legal Events

DateCodeTitleDescription
A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20151221

A977Report on retrieval

Free format text:JAPANESE INTERMEDIATE CODE: A971007

Effective date:20160928

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20161019

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20161216

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20170308

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20170501

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20170606


[8]ページ先頭

©2009-2025 Movatter.jp