





本発明は、対象物までの距離を画素値に持つ距離画像を用いることにより対象物の位置および向きの変化を検出し、対象物の位置および向きに応じて制御対象に指示する操作量を決定する操作入力装置、およびこの操作入力装置を実現するためのプログラムに関するものである。 The present invention detects a change in the position and orientation of an object by using a distance image having a distance to the object as a pixel value, and determines an operation amount instructed to a control object according to the position and orientation of the object. The present invention relates to an operation input device to be operated and a program for realizing the operation input device.
従来から、対象物までの距離を画素値に持つ距離画像を用いて対象物の動作を検出し、対象物の動作に応じて制御対象の対応制御を行うようにした入力装置が提案されている(たとえば、特許文献1参照)。特許文献1に記載された技術は、距離画像の中で距離の極小点を求め、極小点の位置変化に応じて制御対象に指示を与えている。すなわち、特許文献1に記載された技術は、距離の極小点を前方に差し出した指先の位置として認識し、指先の位置を追跡することによって、リモコン装置などを持つことなく、機器(制御対象)から離れた場所から機器の操作を可能にしている。 Conventionally, an input device has been proposed in which a motion of a target is detected using a distance image having a pixel value as a distance to the target, and corresponding control of the control target is performed according to the motion of the target. (For example, refer to Patent Document 1). The technique described in Patent Document 1 obtains a minimum point of distance in a distance image, and gives an instruction to a control object according to a change in position of the minimum point. That is, the technique described in Patent Document 1 recognizes the minimum point of the distance as the position of the fingertip that is forwarded, and tracks the position of the fingertip, so that the device (control target) can be provided without having a remote control device or the like. The device can be operated from a remote location.
ところで、特許文献1に記載された技術を採用すれば、制御対象に対する指示を対話的に行うことは可能であるが、距離画像の中で距離の極小点を指先として認識するから、指先を認識させるには指先を入力装置に向ける必要がある。しかしながら、特許文献1に記載の技術は、距離の極小点を指先として認識しているだけであるから、入力装置と人体との位置関係によっては、他の部位を指先と誤認する可能性がある。また、上述のような誤認を避けようとすると、入力装置と人体との位置関係や手の形に制約が多くなる。 By the way, if the technique described in Patent Document 1 is adopted, it is possible to interactively give an instruction to the controlled object. However, since the minimum point of the distance is recognized as the fingertip in the distance image, the fingertip is recognized. To do so, it is necessary to point the fingertip toward the input device. However, since the technique described in Patent Document 1 only recognizes the minimum point of the distance as the fingertip, there is a possibility of misidentifying other parts as the fingertip depending on the positional relationship between the input device and the human body. . Moreover, if it is going to avoid the above misidentification, restrictions will increase in the positional relationship between the input device and the human body and the shape of the hand.
本発明は、誤認の可能性を低減し、また利用者との位置関係の制約を低減させた操作入力装置、およびこの操作入力装置を実現するためのプログラムを提供することを目的とする。 It is an object of the present invention to provide an operation input device that reduces the possibility of misidentification and reduces the positional relationship with the user, and a program for realizing the operation input device.
本発明に係る操作入力装置は、少なくとも手に相当する対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段と、距離画像から対象物に対応する領域を抽出する対象物抽出手段と、対象物の位置変化を距離画像の動画像から抽出する動作抽出手段と、動作抽出手段が抽出した対象物の位置変化に基づいて制御対象に指示する操作量を変化させる制御手段とを備え、動作抽出手段は、対象物抽出手段が抽出した対象物から手のひらに相当する対象面の位置と向きとを示す特徴量を抽出する特徴量抽出部と、特徴量が規定の開始条件を満たしてから特徴量が規定の終了条件を満たすまでの間における対象物の移動に伴う特徴量の変化量から制御対象に指示する操作量を決定する操作量決定部とを備える。The operation input device according to the present invention includes a distance image generating means for generating a moving image of a distance image having a pixel value as a distance to the object at least for an object corresponding to a hand, and an area corresponding to the object from the distance image An object extracting means for extracting the object, a motion extracting means for extracting the position change of the object from the moving image of the distance image, and an operation amount instructing the control object based on the position change of the object extracted by the action extracting means. A control unit for changing, and the motion extraction unit extracts a feature amount indicating a position and orientation of a target surface corresponding to a palm from the object extracted by the object extraction unit; An operation amount determination unit that determines an operation amount to be instructed to the control target from a change amount of the feature amount accompanying the movement of the target object after the specified start condition is satisfied until the feature amount satisfies the specified end condition;Yeah.
この操作入力装置において、特徴量抽出部は、対象面の向きとして規定の基準面に対して対象面が交差する角度である交差角を抽出し、操作量決定部は、開始条件が成立してから終了条件が成立するまでの間に、交差角が規定の角度範囲内である状態が保たれたままで対象面が基準面に沿って移動したとき、対象面の移動量および移動の向きから1種類の操作量を決定することが好ましい。 In this operation input device, the feature amount extraction unit extracts an intersection angle that is an angle at which the target surface intersects a specified reference surface as the direction of the target surface, and the operation amount determination unit determines that the start condition is satisfied When the target surface moves along the reference plane while the state where the crossing angle is within the prescribed angle range is maintained from when the target surface is satisfied until the end condition is satisfied, 1 is calculated from the amount of movement and the direction of movement of the target surface. It is preferable to determine the type of operation amount.
この操作入力装置において、特徴量抽出部は、対象面の向きとして規定の基準面に交差する方向に規定される軸周りでの対象面の回転角を抽出し、操作量決定部は、開始条件が成立してから終了条件が成立するまでの間に、回転角が変化したとき、回転角の変化量および変化の向きから1種類の操作量を決定することが好ましい。 In this operation input device, the feature amount extraction unit extracts the rotation angle of the target surface around the axis defined in the direction intersecting the specified reference plane as the direction of the target surface, and the operation amount determination unit determines the start condition When the rotation angle changes between when the condition is satisfied and when the end condition is satisfied, it is preferable to determine one type of operation amount from the change amount and the direction of the change of the rotation angle.
この操作入力装置において、特徴量抽出部は、対象面の向きとして規定の基準面に対して対象面が交差する角度である交差角と、基準面に交差する方向に規定される軸周りでの対象面の回転角とを抽出し、操作量決定部は、開始条件が成立してから終了条件が成立するまでの間に、交差角が規定の角度範囲内で交差している状態が保たれたままで対象面が基準面に沿って移動したとき、回転角の変化量および変化の向きと対象面の移動量および移動の向きとから2種類の操作量を決定することが好ましい。 In this operation input device, the feature amount extraction unit includes an intersection angle that is an angle at which the target surface intersects a predetermined reference surface as an orientation of the target surface, and an axis that is defined in a direction that intersects the reference surface. The rotation amount of the target surface is extracted, and the operation amount determination unit keeps the state where the intersection angle intersects within the specified angle range from when the start condition is satisfied until the end condition is satisfied. When the target surface is moved along the reference surface without change, it is preferable to determine two types of operation amounts from the amount and direction of change in the rotation angle and the amount and direction of movement of the target surface.
この操作入力装置において、特徴量抽出部は、対象面の向きとして規定の基準面に対して対象面が交差する角度である交差角と、基準面に交差する方向に規定される軸周りでの対象面の回転角とを抽出し、操作量決定部は、開始条件が成立してから終了条件が成立するまでの間に、交差角が変化したとき、回転角の変化量および変化の向きと交差角の変化量と変化の向きとから2種類の操作量を決定することが好ましい。 In this operation input device, the feature amount extraction unit includes an intersection angle that is an angle at which the target surface intersects a predetermined reference surface as an orientation of the target surface, and an axis that is defined in a direction that intersects the reference surface. The rotation amount of the target surface is extracted, and the operation amount determination unit determines the amount of change in the rotation angle and the direction of the change when the crossing angle changes between the start condition and the end condition. It is preferable to determine two types of operation amounts from the amount of change in the crossing angle and the direction of the change.
この操作入力装置において、操作量決定部は、操作量を複数段階の離散値から選択することが好ましい。 In this operation input device, the operation amount determination unit preferably selects the operation amount from a plurality of discrete values.
本発明に係るプログラムは、前記操作入力装置において、コンピュータを、演算処理装置として機能させるためのプログラムであって、前記演算処理装置は、前記対象物抽出手段と前記動作抽出手段と前記制御手段とを備えており、前記距離画像生成手段が生成した前記距離画像の動画像から前記制御対象に指示する操作量を生成するものである。Program according to the present invention,in the operation input device,the computer, a program for functioning as acomputation processing device,the arithmetic processing unit, the object extracting unit and the operation extracting means and said control means And generating an operation amount instructing the control target from the moving image of the distance image generated by the distance image generating means .
本発明の構成によれば、手に相当する対象物の距離画像が得られるように配置すればよいから、利用者との位置関係の制約が少ないという利点があり、また、対象物から手のひらに相当する対象面を抽出し、対象面の位置および向きを特徴量として、開始条件から終了条件までの間における当該特徴量の変化量によって操作量を決定するから、手のひらという比較的面積の大きい領域を抽出することにより、距離の極小点を指先とみなして指先の位置を操作入力に用いる従来構成に比較すると、誤認の可能性が低減される。 According to the configuration of the present invention, since the distance image of the object corresponding to the hand may be obtained, there is an advantage that there are few restrictions on the positional relationship with the user, and from the object to the palm. Since the corresponding target surface is extracted and the operation amount is determined by the amount of change in the feature amount from the start condition to the end condition using the position and orientation of the target surface as the feature amount, the palm is a relatively large area As compared with the conventional configuration in which the minimum point of the distance is regarded as the fingertip and the position of the fingertip is used for operation input, the possibility of misidentification is reduced.
以下に説明する操作入力装置は、図1に示すように、距離画像の動画像を生成する距離画像生成手段10と、距離画像生成手段10から距離画像を取得するとともに対象物の規定の動作を検出したときに制御対象5への対応制御を行う演算処理装置20とを備える。演算処理装置20は、ハードウェア要素としてのコンピュータを備え、適宜のプログラムをコンピュータで実行することにより以下に説明する機能を実現する。 As shown in FIG. 1, the operation input device described below is a distance
本実施形態では、距離画像生成手段10は、少なくとも人体の手に相当する対象物に関する距離を画素値に持つ距離画像を生成する。ただし、対象物は人型のロボットや人形であってもよく、手のひらに相当する対象面を抽出する可能な形状であれば、対象物が人体か否かは問わない。たとえば、手は露出していることが望ましいが、手に手袋が装着されている場合でも、手のひらの位置および向きを認識することが可能である。したがって、屋内で使用する場合だけでなく、屋外であっても季節を問わずに動作を認識することが可能である。 In the present embodiment, the distance image generating means 10 generates a distance image having a pixel value that is a distance related to an object corresponding to at least the hand of the human body. However, the target object may be a humanoid robot or a doll, and it does not matter whether the target object is a human body as long as the target surface corresponding to the palm can be extracted. For example, it is desirable that the hand is exposed, but it is possible to recognize the position and orientation of the palm even when gloves are worn on the hand. Therefore, it is possible to recognize the operation regardless of the season, not only when used indoors but also outdoors.
距離画像生成手段10は、実空間における対象物までの距離を計測するセンサ部11と、センサ部11が計測した対象物までの距離を画素値に持つ距離画像を生成する距離演算部12とを備える。 The distance image generation means 10 includes a
センサ部11は、アクティブ型の構成とパッシブ型の構成とのいずれでも採用可能である。本実施形態のセンサ部11は、対象物が存在する空間に投光するとともに、空間に存在する物体からの反射光を受光し、投光から受光までの時間差に相当する情報を用いて物体までの距離を検出するアクティブ型の構成を備える。すなわち、センサ部11は、飛行時間(TOF=Time Of Flight)法により対象物までの距離を計測する。 The
以下では、センサ部11の一例として、発光源から空間に投光し、空間に存在する対象物からの反射光を撮像素子で受光するアクティブ型の構成を想定する。 In the following, as an example of the
発光源は、時間とともに強度が変化する強度変調光を投光し、対象物で反射され撮像素子で受光された強度変調光(反射光)と投光した強度変調光との位相差を、投光から受光までの時間差に相当する情報として用いる。変調光の変調波形は、正弦波が望ましいが、三角波、鋸歯状波、方形波などから選択することも可能である。また、変調光の周期は一定とする。 The light source emits intensity-modulated light whose intensity changes with time, and projects the phase difference between the intensity-modulated light (reflected light) reflected by the object and received by the image sensor and the intensity-modulated light thus projected. It is used as information corresponding to the time difference from light to light reception. The modulation waveform of the modulated light is preferably a sine wave, but can also be selected from a triangular wave, a sawtooth wave, a square wave, and the like. The period of the modulated light is assumed to be constant.
一方、撮像素子は、複数個の受光領域(画素)が2次元配列されたCCDイメージセンサやCMOSイメージセンサのような周知の構成のものが用いられる。ただし、撮像素子は、センサ部11に適する特別な構造を有するように設計されていてもよい。撮像素子の受光のタイミングは、発光源が投光する強度変調光の周期に同期させて設定され、たとえば、強度変調光の周期内において90度ずつ異なる位相に相当するタイミングの受光量を個別に取り出す。強度変調光の強度変化の周波数は、実用上は数MHz〜数十MHzに設定され、撮像素子が受光する受光量は、強度変調光の1周期分の反射光の光量では不十分である。したがって、撮像素子では複数周期分(たとえば、10000周期分)の受光量に相当する電荷を蓄積した後、蓄積した電荷を前記位相の受光量に相当する電荷として出力する。 On the other hand, an image pickup device having a known configuration such as a CCD image sensor or a CMOS image sensor in which a plurality of light receiving regions (pixels) are two-dimensionally arranged is used. However, the imaging element may be designed to have a special structure suitable for the
ところで、発光源が強度変調光を投光し撮像素子が反射光を受光する構成のセンサ部11は、撮像素子の視野全体において対象物までの距離を一括して計測することができるから、比較的短い時間で1枚の距離画像に相当する情報が得られる。したがって、通常の濃淡画像やカラー画像と同様に、1秒間に30フレーム以上を得ることが可能である。 By the way, the
センサ部11では強度変調光の各位相に対応する複数種類(たとえば、4種類)の電荷量が得られ、これらの電荷量は、強度変調光の位相を示す信号とともに距離演算部12に入力される。 The
いま、強度変調光が正弦波であって、センサ部11からは90度ずつ異なる4位相に対応する電荷量が得られるとする。各電荷量をA0,A1,A2,A3とすると、投受光の位相差φ[rad]は下式で表される。
φ=tan−1{(A0−A2)/(A1−A3)}
強度変調光の周波数をf〔Hz〕とすれば、投光から受光までの時間差Δtは位相差φを用いて、Δt=φ/2π・fと表されるから、光速をc〔m/s〕とすると、物体までの距離は、c・φ/4π・fと表される。すなわち、4種類の電荷量A0,A1,A2,A3により対象物までの距離を求めることができる。Now, it is assumed that the intensity-modulated light is a sine wave, and the
φ = tan−1 {(A0−A2) / (A1−A3)}
If the frequency of intensity-modulated light is f [Hz], the time difference Δt from light projection to light reception is expressed as Δt = φ / 2π · f using the phase difference φ, so the speed of light is c [m / s. ], The distance to the object is expressed as c · φ / 4π · f. That is, the distance to the object can be obtained from the four types of charge amounts A0, A1, A2, and A3.
距離演算部12は、センサ部11から得られた情報を用いて、各画素ごとに上述した計算を行うことにより、各画素の画素値として距離を対応付けた距離画像を生成する。ただし、得られた距離画像は、センサ部11から対象物を見込む方向における距離であって、画素の位置が角度に対応している。画素の位置に対応する角度は既知であるから、距離演算部12は、画素の位置と画素値である距離とを用いることにより、対象物の位置が実空間に対応する3次元の直交座標系で表されるように座標変換を行う。したがって、距離演算部12からは、対象物の位置が直交座標系で表された距離画像の動画像が得られる。言い換えると、撮像素子の画素に距離を対応付けた距離画像を、直交座標系で表される3次元の仮想空間にマッピングした距離画像が得られる。なお、上述した距離画像生成手段10の構成は周知であるから詳述しない。 The
距離画像生成手段10は、距離画像の動画像を対象物抽出手段2に与える。対象物抽出手段2は、図2のように、距離画像の視野内において手に相当する対象物Obを抽出する機能を有する。すなわち、距離画像は少なくとも手に相当する領域を含んでいる必要がある。 The distance image generation means 10 gives a moving image of the distance image to the object extraction means 2. The object extraction means 2 has a function of extracting the object Ob corresponding to the hand in the field of view of the distance image as shown in FIG. That is, the distance image needs to include at least an area corresponding to the hand.
対象物抽出手段2は、手に相当する対象物Obを距離画像から抽出するために、距離の分布を求めるとともに、距離画像から対象物Obの輪郭の抽出を行う。つまり、対象物抽出手段2は、距離の分布においてクラスタを形成する画素群であって、画素に連続性がある場合に当該画素群を対象物Obの領域と認識する。ここに、距離画像において、隣接する各一対の画素の間の距離が規定した範囲内であるときに両画素は連続していると判断され、連続している画素からなる領域について形状および他の領域との接続関係を用いて対象物Obと判断される。また、抽出された領域の包絡線が対象物Obの輪郭になる。 In order to extract the object Ob corresponding to the hand from the distance image, the
ここに、対象物抽出手段2は、対象物Obを抽出するにあたって手以外の部位の画素群との関係を評価しているから、手に相当する領域だけではなく、前腕部に相当する領域も対象物Obとして併せて抽出するようにしてもよい。前腕部に相当する領域を併せて抽出している場合には、前腕部に相当する領域との位置関係を用いることにより、手に相当する領域の位置や向きを求める精度を高めることができる。 Here, since the object extraction means 2 evaluates the relationship with the pixel group of the part other than the hand when extracting the object Ob, not only the area corresponding to the hand but also the area corresponding to the forearm portion is included. You may make it extract collectively as target object Ob. When the region corresponding to the forearm portion is extracted together, the positional relationship with the region corresponding to the forearm portion can be used to improve the accuracy of obtaining the position and orientation of the region corresponding to the hand.
対象物抽出手段2は、常時動作させることが可能であるが、センサ部11の視野内に設定された規定の空間領域において物体が検出されるようになるまでは、対象物抽出手段2を動作させないようにするのが望ましい。すなわち、演算処理装置20は、対象物抽出手段2の機能を停止させている動作モードと、対象物抽出手段2を作動させる動作モードとの2段階の動作モードを切り替えるのが好ましい。 The object extraction means 2 can be operated at all times, but the object extraction means 2 is operated until an object is detected in a specified spatial region set in the field of view of the
対象物抽出手段2は、距離画像の1フレーム毎に対象物Obの有無を検出する。対象物抽出手段2で求められた対象物Obの情報は動作抽出手段3に入力される。動作抽出手段3は、対象物Obについて後述する特徴量を抽出し、特徴量の変化を距離画像の動画像から抽出する。すなわち、動作抽出手段3は、距離画像の動画像から対象物Obの位置変化を抽出する。動作抽出手段3が抽出した対象物Obの位置変化の情報は制御手段4に与えられ、制御手段4は、対象物Obの位置変化の情報に基づいて制御対象5に指示する操作量を変化させる。 The object extraction means 2 detects the presence / absence of the object Ob for each frame of the distance image. Information on the object Ob obtained by the object extraction means 2 is input to the action extraction means 3. The
動作抽出手段3は、対象物抽出手段2が抽出した対象物Obの位置と向きとを示す特徴量を抽出する特徴量抽出部31を備える。さらに、動作抽出手段3は、特徴量抽出部31が抽出した特徴量が規定の開始条件を満たしてから特徴量が規定の終了条件を満たすまでの間において、対象物Obの移動に伴う特徴量の変化量を求める操作量決定部32を備える。操作量決定部32は特徴量の変化量に基づいて操作量を決定し、制御手段4は操作量決定部32が決定した操作量を制御対象5に指示する。 The
特徴量抽出部31は、対象物Obから手のひらに相当する対象面Sbを抽出する機能を有し、対象面Sbの位置と向きとを特徴量として抽出する。対象面Sbを抽出するには、手において前腕と連続する部位を求め、手を前腕とは反対側から見た形状に対して外接矩形Rbを設定し、外接矩形Rbの縦横比(=W1/W2)を求める。縦横比が規定の閾値よりも大きい場合、手のひらに相当する対象面Sbを外接矩形Rbの縦方向(長手方向)に沿った平面とみなし、横方向に相当する方向を対象面Sbの法線方向と推定する。 The feature
特徴量抽出部31は、上述のようにして対象面Sbに関する情報を抽出すると、図3のように、センサ部11の視野において規定した3次元の座標系(o−xyz)において、対象面Sbの位置および向きを特定する。対象面Sbの向きは、前記座標系に規定されている基準面Scに基づいて交差角θと回転角ρとの2種類の角度のうち少なくとも交差角θにより表される。交差角θは基準面(xy平面)Scと対象面Sbとがなす角度(基準面Scに対する対象面Sbの向き)であり、回転角ρは基準面Scに交差する方向に規定される軸(z軸)周りの角度である。 When the feature
ところで、対象物Obの移動に伴う特徴量の変化量を求めるには、変化量の起点と終点とを定めることが必要である。そこで、操作量決定部32では、特徴量の変化量を求めるための開始条件と終了条件とが規定される。開始条件は、たとえば、特徴量抽出部31が対象面Sbを検出した後に、対象面Sbが基準面Scに対して略直交している状態で規定時間静止するという条件が用いられる。また、終了条件は、たとえば、開始条件の成立後に対象面Sbの位置あるいは向きが変化し、次に、対象面Sbが規定時間静止するという条件が用いられる。開始条件において対象面Sbが基準面Scに対してなす角度は、たとえば、(90±5)度などに設定され、対象面Sbが静止する規定時間は、たとえば、0.5秒などに設定される。 By the way, in order to obtain the change amount of the feature amount accompanying the movement of the object Ob, it is necessary to determine the starting point and the end point of the change amount. Therefore, the operation
開始条件および終了条件は、他に規定してもよい。たとえば、制御対象5がモニタ装置を備えている場合には、モニタ装置の画面に平行な平面を基準面Scとし、基準面Scからの距離範囲に対象物Obが存在するか否かを開始条件および終了条件に用いることも可能である。 Other start conditions and end conditions may be defined. For example, when the
操作量決定部32は、開始条件の成立から終了条件の成立までの間において、対象物Obの移動に伴う特徴量の変化量を求める。さらに、操作量決定部32は、求めた変化量に対応する操作量を決定し、制御手段4に引き渡すのである。操作量決定部32における特徴量の変化量と操作量との関係は、データテーブルや関数によってあらかじめ定められている。 The operation
データテーブルを用いる場合は、特徴量の変化量に対して制御対象5に指示する操作量が離散的に設定されるから、特徴量の変化量を複数区間に分け、各区間ごとに操作量を割り当てることが好ましい。この構成では、操作量決定部32から操作量を段階的に発生させることができる。また、変化量を制御対象5の状態に対応付けておけば、ロータリスイッチやデジタルサムホイールスイッチのように、複数の状態を選択するスイッチとして用いることも可能になる。 When using the data table, the operation amount instructed to the
操作量決定部32は、制御対象5に与える操作量の種類に応じて以下に説明する動作を行う。本実施形態では、制御対象5に指示する操作量の変量が1種類の場合と、制御対象5に指示する操作量の変量が2種類の場合とがある。操作量の変量が1種類の場合は、音量の増減を行う場合、モニタ装置の画面を一方向にのみスクロールさせる場合、オンオフを行う場合のように、可変抵抗器やオンオフを行うスイッチのような入力装置を用いて指示する操作量に相当する。また、操作量が2種類の場合は、音量と光量との増減を行う場合、光量と光色とを調節する場合、モニタ装置の画面を2方向にスクロールさせる場合など、ジョイスティックのような入力装置を用いて指示する操作量に相当する。 The operation
操作量決定部32が1種類の操作量を決定する場合は、対象物Obに関して以下の3種類のいずれかの特徴量に操作量を対応付ける。 When the operation
第1の例では、図4のように、対象面Sbが基準面Scに対して規定の角度範囲内で交差する状態が保たれたままで対象面Sbを基準面Scに沿って移動させたときに、対象面Sbの移動量Lと移動の向きとが操作量に対応付けられる。対象面Sbが基準面Scに対して交差する交差角θは、たとえば、(90±5)度に設定される。この動作は、制御対象5がモニタ装置を備える場合であれば、指先をモニタ装置の画面に向け、対象物Obをモニタ装置の画面に沿って平行移動させる動作に相当する。この動作によって操作量を変化させると、対象物Obの移動量Lに応じた操作量を発生させることができ、また、対象物Obの移動の向きに応じて操作量の増減が可能になる。つまり、つまみが平行移動するスライドボリュームの操作を模擬した操作が可能になる。 In the first example, as shown in FIG. 4, when the target surface Sb is moved along the reference surface Sc while maintaining a state in which the target surface Sb intersects the reference surface Sc within a specified angle range. Further, the movement amount L and the movement direction of the target surface Sb are associated with the operation amount. The intersection angle θ at which the target surface Sb intersects the reference surface Sc is set to (90 ± 5) degrees, for example. If the
第2の例では、図5のように、対象面Sbが基準面Scに対してなす交差角θ(対象面Sbの基準面Scに対する向き)を変化させたときに、対象面Sbの交差角θの変化量と変化の向きとが操作量に対応付けられる。この動作は、制御対象5がモニタ装置を備える場合であれば、モニタ装置の画面のほうに指先を向け手首を中心にして手のひらの向きを変える動作に相当する。この動作によって操作量を変化させると、対象物Obの交差角θに応じた操作量を発生させることができる。また、手首関節の掌屈と背屈とに応じて操作量の増減が可能になる。つまり、つまみを倒す角度に操作量を対応付けるからレバーを倒す操作を模擬した操作が可能になる。 In the second example, as shown in FIG. 5, when the intersection angle θ (the direction of the target surface Sb with respect to the reference surface Sc) formed by the target surface Sb with respect to the reference surface Sc is changed, the intersection angle of the target surface Sb is changed. The change amount of θ and the direction of change are associated with the operation amount. This operation corresponds to an operation of changing the direction of the palm around the wrist with the fingertip pointing toward the screen of the monitor device if the
第3の例では、図6のように、基準面Scに交差する方向に規定される軸(z軸)周りでの対象面Sbの回転角ρを変化させたときに、対象面Sbの回転角ρの変化量と変化の向きとが操作量に対応付けられる。この動作は、制御対象5がモニタ装置を備える場合であれば、モニタ装置の画面に指先を向けた状態で肘関節を回転させる動作に相当する。この動作によって操作量を変化させると、対象物Obの回転角ρに応じて操作量を発生させることができる。また、肘関節が回転する向きに応じて操作量を増減させることができる。つまり、回転式の可変抵抗器やロータリスイッチを模擬した操作が可能になる。 In the third example, as shown in FIG. 6, when the rotation angle ρ of the target surface Sb around the axis (z axis) defined in the direction intersecting the reference surface Sc is changed, the rotation of the target surface Sb is performed. The amount of change in the angle ρ and the direction of change are associated with the operation amount. This operation corresponds to an operation of rotating the elbow joint with the fingertip facing the screen of the monitor device if the
操作量決定部32が2種類の操作量を決定する場合は、対象物Obに関して以下の2種類のいずれかの特徴量に操作量を対応付ける。これらの操作は、上述した第1の例と第2の例との一方に、第3の例を組み合わせた操作になり、操作量決定部32は、ジョイスティックのような2種類の操作量を発生させる。 When the operation
すなわち、上述した第1の例と第3の例とを組み合わせると、対象面Sbを基準面Scに沿って移動させる移動量Lおよび移動の向きだけではなく、基準面Scに交差する方向に規定される軸(z軸)周りでの対象面Sbの回転角ρおよび回転角ρの変化の向きも考慮される。つまり、移動量Lと回転角ρとがそれぞれ異なる操作量に対応付けられる。たとえば、調光と調色とを指示可能な照明装置を制御対象5とする場合、移動量Lを光出力に対応付け、回転角ρを光色に対応付けることができる。 That is, when the first example and the third example described above are combined, not only the amount of movement L and the direction of movement of the target surface Sb along the reference surface Sc but also the direction that intersects the reference surface Sc is specified. The rotation angle ρ of the target surface Sb and the direction of change of the rotation angle ρ around the axis (z axis) to be performed are also considered. That is, the movement amount L and the rotation angle ρ are associated with different operation amounts. For example, when the lighting device capable of instructing light adjustment and color adjustment is the
一方、上述した第2の例と第3の例とを組み合わせると、対象面Sbが基準面Scに対してなす交差角θの変化量および変化の向きだけではなく、z軸周りでの対象面Sbの回転角ρおよび回転角ρの変化の向きも考慮される。したがって、交差角θと回転角ρとがそれぞれ異なる操作量に対応付けられる。この場合、手首関節と肘関節との2種類の角度の組み合わせにより2種類の操作量を指示することができる。たとえば、制御対象5がモニタ装置を備えている場合、モニタ装置の画面上でのポインタの移動量を指示する場合、ポインタの移動方向を回転角ρに対応付け、ポインタの移動量を交差角θに対応付けることができる。 On the other hand, when the second example and the third example described above are combined, not only the change amount and change direction of the crossing angle θ made by the target surface Sb with respect to the reference surface Sc, but also the target surface around the z axis. The rotation angle ρ of Sb and the direction of change of the rotation angle ρ are also considered. Therefore, the intersection angle θ and the rotation angle ρ are associated with different operation amounts. In this case, two kinds of operation amounts can be instructed by a combination of two kinds of angles of the wrist joint and the elbow joint. For example, when the
なお、上述した動作は、説明を簡単にするために指先を伸ばした状態を想定して説明しているが、手を握った状態であっても同様の動作が可能である。 In addition, although the operation | movement mentioned above was demonstrated supposing the state which extended the fingertip in order to simplify description, the same operation | movement is possible even in the state which grasped the hand.
2 対象物抽出手段
3 動作抽出手段
4 制御手段
10 距離画像生成手段
20 演算処理装置
31 特徴量抽出部
32 操作量決定部
Ob 対象物
Sc 基準面
Sb 対象面DESCRIPTION OF
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011118669AJP5789771B2 (en) | 2011-05-27 | 2011-05-27 | Operation input device, program |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011118669AJP5789771B2 (en) | 2011-05-27 | 2011-05-27 | Operation input device, program |
| Publication Number | Publication Date |
|---|---|
| JP2012247966A JP2012247966A (en) | 2012-12-13 |
| JP5789771B2true JP5789771B2 (en) | 2015-10-07 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011118669AExpired - Fee RelatedJP5789771B2 (en) | 2011-05-27 | 2011-05-27 | Operation input device, program |
| Country | Link |
|---|---|
| JP (1) | JP5789771B2 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6344032B2 (en)* | 2013-09-26 | 2018-06-20 | 富士通株式会社 | Gesture input device, gesture input method, and gesture input program |
| JP2018206073A (en)* | 2017-06-05 | 2018-12-27 | 株式会社東海理化電機製作所 | Remote control system |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2003217587A1 (en)* | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
| DE102006037156A1 (en)* | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interactive operating device and method for operating the interactive operating device |
| JP4820255B2 (en)* | 2006-09-27 | 2011-11-24 | クラリオン株式会社 | Car equipment |
| JP2008250774A (en)* | 2007-03-30 | 2008-10-16 | Denso Corp | Information equipment operation device |
| JP2010154405A (en)* | 2008-12-26 | 2010-07-08 | Toshiba Corp | Video image reproducing device, control signal generating device, and method of generating control signal |
| JP5175755B2 (en)* | 2009-02-04 | 2013-04-03 | 株式会社東芝 | Gesture recognition device, method and program thereof |
| JP5441619B2 (en)* | 2009-10-30 | 2014-03-12 | ソニーモバイルコミュニケーションズ, エービー | Short-range wireless communication device, short-range wireless communication system, short-range wireless communication device control method, short-range wireless communication device control program, and mobile phone terminal |
| Publication number | Publication date |
|---|---|
| JP2012247966A (en) | 2012-12-13 |
| Publication | Publication Date | Title |
|---|---|---|
| US10241573B2 (en) | Signal generation and detector systems and methods for determining positions of fingers of a user | |
| US8963829B2 (en) | Methods and systems for determining and tracking extremities of a target | |
| US9498718B2 (en) | Altering a view perspective within a display environment | |
| US8542910B2 (en) | Human tracking system | |
| CA2752699C (en) | Chaining animations | |
| US10019843B2 (en) | Controlling a near eye display | |
| US7961910B2 (en) | Systems and methods for tracking a model | |
| US9182814B2 (en) | Systems and methods for estimating a non-visible or occluded body part | |
| US8686943B1 (en) | Two-dimensional method and system enabling three-dimensional user interaction with a device | |
| US8457353B2 (en) | Gestures and gesture modifiers for manipulating a user-interface | |
| JP7716102B2 (en) | Interacting with smart devices using a pointing controller | |
| CN104090660B (en) | A kind of action collection and feedback method and system based on stereoscopic vision | |
| CN103732299B (en) | Utilize three-dimensional devices and the 3d gaming device of virtual touch | |
| US20110185309A1 (en) | Gesture-based user interface | |
| JP2012529088A (en) | Gesture shortcut | |
| KR101441882B1 (en) | method for controlling electronic devices by using virtural surface adjacent to display in virtual touch apparatus without pointer | |
| WO2013038844A1 (en) | Game device, control method of game device, program, and information storage medium | |
| CN115129164B (en) | Interactive control method, system and virtual reality device based on virtual reality | |
| US20160364960A1 (en) | Systems and methods for ultrasonically induced tactile stimuli in an entertainment system | |
| WO2018176773A1 (en) | Interactive system for three-dimensional space and operation method therefor | |
| JP6519075B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD | |
| JP5789771B2 (en) | Operation input device, program | |
| JP2016143414A (en) | Interactive system, remote control and operation method thereof | |
| CN105117000A (en) | Method and device for processing medical three-dimensional image | |
| JP5658618B2 (en) | Operation input device, program |
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination | Free format text:JAPANESE INTERMEDIATE CODE: A621 Effective date:20140210 | |
| A977 | Report on retrieval | Free format text:JAPANESE INTERMEDIATE CODE: A971007 Effective date:20140917 | |
| A711 | Notification of change in applicant | Free format text:JAPANESE INTERMEDIATE CODE: A711 Effective date:20141008 | |
| A131 | Notification of reasons for refusal | Free format text:JAPANESE INTERMEDIATE CODE: A131 Effective date:20141104 | |
| A521 | Written amendment | Free format text:JAPANESE INTERMEDIATE CODE: A523 Effective date:20141226 | |
| A01 | Written decision to grant a patent or to grant a registration (utility model) | Free format text:JAPANESE INTERMEDIATE CODE: A01 Effective date:20150210 | |
| A61 | First payment of annual fees (during grant procedure) | Free format text:JAPANESE INTERMEDIATE CODE: A61 Effective date:20150306 | |
| LAPS | Cancellation because of no payment of annual fees |