Movatterモバイル変換


[0]ホーム

URL:


JPH04269185A - Remote control device for robot - Google Patents

Remote control device for robot

Info

Publication number
JPH04269185A
JPH04269185AJP2603291AJP2603291AJPH04269185AJP H04269185 AJPH04269185 AJP H04269185AJP 2603291 AJP2603291 AJP 2603291AJP 2603291 AJP2603291 AJP 2603291AJP H04269185 AJPH04269185 AJP H04269185A
Authority
JP
Japan
Prior art keywords
environment
robot
model
environment model
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2603291A
Other languages
Japanese (ja)
Inventor
Ichiro Watanabe
一郎 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu LtdfiledCriticalFujitsu Ltd
Priority to JP2603291ApriorityCriticalpatent/JPH04269185A/en
Publication of JPH04269185ApublicationCriticalpatent/JPH04269185A/en
Pendinglegal-statusCriticalCurrent

Links

Landscapes

Abstract

PURPOSE:To obtain the remote control unit of a robot capable of renewing an environmental model, even in case of changing the work environment of the robot by the remote operation of an operator, with respect to the remote control unit of a robot which works in a nuclear power station and space environment, etc. CONSTITUTION:In environmental model 8 the data concerning the environment 9 in which a robot 5 works (e.g. the arrangement information of the object) are described in advance. An environmental model renewing means 10 is provided on the environmental model 8. The environment 6 is changed when the robot 5 is actuated by the remote operation of an operator 1. The environmental model renewing means 10 recognizes the environment 6 change with its interpretation, reflecting the change on the environmental model 8 and renewing the environmental model 8. An environmental model offering means 9 transmits the information to the robot 5 with the data of the renewed environmental model 8 being used, executing an autonomic motion, etc., on the robot 5.

Description

Translated fromJapanese
【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、原子力発電所内や宇宙
環境などで作業するロボットを遠隔地にいるオペレータ
が遠隔操作したときに、その遠隔操作による作業環境の
変化を環境モデルに反映させ、環境モデルが作業環境と
一致するように環境モデルを更新するロボットの遠隔制
御装置に関する。
[Industrial Application Field] The present invention enables, when an operator at a remote location remotely controls a robot working in a nuclear power plant or a space environment, changes in the working environment caused by the remote control to be reflected in an environmental model. The present invention relates to a remote control device for a robot that updates an environmental model so that the environmental model matches a working environment.

【0002】ロボットの遠隔操作システムは、マスタス
レーブマニピュレータ等に代表され、原子力発電所内な
ど人間が危険で近づくことができないような所で、その
機能を発揮している。また、近い将来、宇宙環境での利
用も考えられている。ロボットは、マスタスレーブ操作
による遠隔操作で動作し、作業を行うが、すべての作業
をオペレータによる遠隔操作のみで行うと、オペレータ
に多大な負担がかかる。このため、近年、ロボットシス
テムに自律動作機能を付加して、ロボットに自律動作を
行わせるようになってきた。
[0002] Remote control systems for robots, typified by master-slave manipulators, perform their functions in places such as nuclear power plants that are dangerous and inaccessible to humans. It is also being considered for use in the space environment in the near future. Robots operate and perform tasks by remote control using master-slave operations, but if all tasks are performed only by remote control by an operator, a great burden will be placed on the operator. For this reason, in recent years, autonomous operation functions have been added to robot systems to allow robots to perform autonomous operations.

【0003】0003

【従来の技術】このロボットシステムの自律動作機能は
、例えばロボットの動作計画を立案し、その動作計画に
よってロボットに自律動作を行わせる機能であり、動作
計画の立案は、ロボットが動作する作業環境を表す環境
モデルを使って行われる。したがって、ロボットシステ
ムに自律動作機能を付加するためには、ロボットシステ
ム内に環境モデルを持つことが必要となる。
[Prior Art] The autonomous operation function of this robot system is, for example, the function of formulating a robot operation plan and having the robot perform autonomous operation according to the operation plan. This is done using an environment model that represents Therefore, in order to add an autonomous operation function to a robot system, it is necessary to have an environment model within the robot system.

【0004】図27は従来のロボットの遠隔制御装置の
全体構成を示すブロック図である。図において、オペレ
ータ1はマスタアーム2を操作し、その操作指令は遠隔
操作指令手段3を経由して、遠隔地にあるロボット制御
手段4に伝達される。ロボット(マニピュレータ)5は
、ロボット制御手段4からの操作指令に応じて動作し、
環境6内で作業を行う。センサ7は環境6内の対象物の
位置等を検出してその情報をロボット制御手段4に送る
FIG. 27 is a block diagram showing the overall configuration of a conventional robot remote control device. In the figure, an operator 1 operates a master arm 2, and the operation command is transmitted via a remote operation command means 3 to a robot control means 4 located at a remote location. The robot (manipulator) 5 operates according to operation commands from the robot control means 4,
Work within environment 6. The sensor 7 detects the position of an object in the environment 6 and sends the information to the robot control means 4.

【0005】このシステムに自律動作機能を付加する場
合は、環境モデル8及び環境モデル提供手段9が設けら
れる。環境モデル8は、ロボット5が実際に動作する環
境6を記述したものであり、例えば環境6内に存在する
対象物の配置データによって構成される。
[0005] When adding an autonomous operation function to this system, an environment model 8 and an environment model providing means 9 are provided. The environment model 8 describes the environment 6 in which the robot 5 actually operates, and is configured by, for example, placement data of objects existing in the environment 6.

【0006】環境モデル提供手段9は、環境モデル8の
データを使用してロボット制御手段4に情報を提供し、
ロボットの自律動作等を制御する。例えば、環境モデル
8のデータを使用してロボット5の動作計画を立案し、
その動作計画によってロボット5に自律動作を行わせる
[0006] The environment model providing means 9 uses the data of the environment model 8 to provide information to the robot control means 4,
Control the robot's autonomous movements, etc. For example, a motion plan for the robot 5 is created using data from the environment model 8,
The robot 5 is caused to perform an autonomous operation based on the operation plan.

【0007】このため、環境モデル8は、実際の作業環
境に一致した情報を環境モデル提供手段9に提供する必
要がある。すなわち、ロボット5が動作して環境6が変
化した場合、環境モデル8は、その変化した環境6に一
致するように更新され、管理される必要がある。
[0007] Therefore, the environment model 8 needs to provide the environment model providing means 9 with information that matches the actual work environment. That is, when the robot 5 operates and the environment 6 changes, the environment model 8 needs to be updated and managed to match the changed environment 6.

【0008】[0008]

【発明が解決しようとする課題】ロボットの自律動作に
より環境6が変化した場合は、変化させる意図は自律動
作に内在する。したがって、ロボット5自身は環境6の
実際の変化を解釈することができ、環境6の変化を環境
モデル8に反映させて環境モデル8を更新することは可
能である。
[Problem to be Solved by the Invention] When the environment 6 changes due to autonomous movement of a robot, the intention to change is inherent in the autonomous movement. Therefore, the robot 5 itself can interpret actual changes in the environment 6, and can update the environment model 8 by reflecting changes in the environment 6 in the environment model 8.

【0009】しかし、オペレータ1がマスタアーム2を
使ってロボット5を遠隔操作し、その結果、環境6が変
化した場合は、その操作意図は、外部(オペレータ1の
操作意思)にありロボット自身にはない。したがって、
ロボット自身は環境6の変化を解釈することができず、
環境6が変化しても、それを環境モデル8に反映させて
環境モデル8を更新することは困難である。
However, when the operator 1 remotely controls the robot 5 using the master arm 2 and the environment 6 changes as a result, the operating intention is external (the operating intention of the operator 1) and is not within the robot itself. There isn't. therefore,
The robot itself cannot interpret changes in the environment 6,
Even if the environment 6 changes, it is difficult to update the environment model 8 by reflecting it on the environment model 8.

【0010】本発明はこのような点に鑑みてなされたも
のであり、オペレータが遠隔操作を行って環境を変化さ
せた場合でも、環境モデルを更新し管理することができ
るロボットの遠隔制御装置を提供することを目的とする
The present invention has been made in view of these points, and provides a remote control device for a robot that can update and manage an environment model even when an operator performs remote control to change the environment. The purpose is to provide.

【0011】[0011]

【課題を解決するための手段】図1に本発明の原理ブロ
ック図を示す。オペレータ1はロボット(マニピュレー
タ)5を遠隔操作して、ロボット5に作業を行わせる。本発明の想定するロボットの遠隔制御装置においては、
ロボット5が動作する環境6を記述した環境モデル8と
、その環境モデル8のデータを使用してロボット5に情
報を提供する環境モデル提供手段9とを有するとともに
、さらに環境モデル更新手段10を設けるものである。この環境モデル更新手段10は、オペレータ1の遠隔操
作により変化した環境6を環境解釈情報11から解釈し
て環境モデル8を更新する。
[Means for Solving the Problems] FIG. 1 shows a block diagram of the principle of the present invention. An operator 1 remotely controls a robot (manipulator) 5 and causes the robot 5 to perform a work. In the robot remote control device envisioned by the present invention,
It has an environment model 8 that describes an environment 6 in which the robot 5 operates, and an environment model providing means 9 that provides information to the robot 5 using data of the environment model 8, and further includes an environment model updating means 10. It is something. The environment model updating means 10 updates the environment model 8 by interpreting the environment 6 changed by the remote control of the operator 1 from the environment interpretation information 11.

【0012】環境解釈情報11としては、環境6の最終
状態の情報に基づくもの、更に変化する前の環境モデル
8の情報及びロボット5の動作履歴情報に基づくものと
がある。
The environment interpretation information 11 includes information based on the final state of the environment 6, information on the environment model 8 before change, and information on the operation history of the robot 5.

【0013】[0013]

【作用】ロボット5は、オペレータ1によって遠隔操作
され、環境6内において動作して作業を行う。環境モデ
ル8には、その環境6に関するデータ(例えば対象物の
配置情報)が予め記述されている。環境モデル提供手段
9は、その環境モデル8のデータを使用して、ロボット
5に情報を伝え、例えばロボット5に自律動作を行わせ
る。
[Operation] The robot 5 is remotely controlled by the operator 1 and operates within the environment 6 to perform work. In the environment model 8, data regarding the environment 6 (for example, information on the arrangement of objects) is written in advance. The environmental model providing means 9 uses the data of the environmental model 8 to convey information to the robot 5, and causes the robot 5 to perform an autonomous operation, for example.

【0014】一方、オペレータ1がロボット5を遠隔操
作すると、環境6は変化する。ロボット5は、その変化
がロボット5自身の自律動作によるものではないため、
環境6の変化を認識できないが、環境モデル更新手段1
0は、その環境変化を解釈して認識することができる。このため、環境モデル更新手段10は、環境6の変化を
環境モデル8に反映させて環境モデル8を更新すること
ができる。
On the other hand, when the operator 1 remotely controls the robot 5, the environment 6 changes. As for the robot 5, the change is not due to the autonomous movement of the robot 5 itself.
Changes in environment 6 cannot be recognized, but environment model update method 1
0 can interpret and recognize changes in its environment. Therefore, the environment model updating means 10 can update the environment model 8 by reflecting changes in the environment 6 in the environment model 8.

【0015】この環境モデル8の更新は、環境解釈情報
11に基づいて行われる。例えば、環境6の最終状態の
情報に基づいて行われ、または、変化する前の環境モデ
ル8の情報とロボット5の動作履歴情報とに基づいて行
われる。
The environment model 8 is updated based on the environment interpretation information 11. For example, this is performed based on information on the final state of the environment 6, or based on information on the environment model 8 before the change and operation history information of the robot 5.

【0016】このように、環境解釈情報11に基づいて
環境モデル8の更新を行うことができるので、オペレー
タ1がロボット5を遠隔操作して環境6が勝手に変化し
た場合でも、環境モデル8と環境6とを一致させること
ができる。
In this way, the environment model 8 can be updated based on the environment interpretation information 11, so even if the environment 6 changes automatically due to the operator 1 remotely controlling the robot 5, the environment model 8 and It is possible to match environment 6.

【0017】したがって、環境モデル提供手段9は、環
境モデル8の更新されたデータを使用して、ロボット5
に適切な情報を伝えることができる。その結果、環境モ
デル8を必要とする機能(環境モデル提供手段9)と、
環境6を勝手に変化させてしまう機能(例えばオペレー
タ1による遠隔操作)との有効な協調動作が可能となる
Therefore, the environment model providing means 9 uses the updated data of the environment model 8 to create the robot 5.
be able to convey appropriate information. As a result, functions that require the environment model 8 (environment model providing means 9),
Effective cooperative operation with a function that changes the environment 6 arbitrarily (for example, remote control by the operator 1) becomes possible.

【0018】[0018]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図2は本発明の第1の原理を示すブロック図で
ある。図において、オペレータ1はマスタアーム2を操
作し、その操作指令は遠隔操作指令手段3を経由して、
遠隔地にあるロボット制御手段4に伝達される。ロボッ
ト(マニピュレータ)5は、ロボット制御手段4からの
操作指令に応じて動作し、環境6内で作業を行う。セン
サ7は環境6内の対象物の位置等を検出してその情報を
ロボット制御手段4に送る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 2 is a block diagram showing the first principle of the invention. In the figure, an operator 1 operates a master arm 2, and the operation command is sent via a remote control command means 3.
The information is transmitted to the robot control means 4 located at a remote location. The robot (manipulator) 5 operates in response to operation commands from the robot control means 4 and performs work within an environment 6. The sensor 7 detects the position of an object in the environment 6 and sends the information to the robot control means 4.

【0019】環境モデル8は、ロボット5が実際に動作
する環境6を記述したものであり、例えば環境6内に存
在する対象物の配置データによって構成される。環境モ
デル提供手段9は、環境モデル8のデータを使用してロ
ボット制御手段4に情報を伝え、ロボットの自律動作等
を制御する。例えば、環境モデル8のデータを使用して
ロボット5の動作計画を立案し、その動作計画によって
ロボット5に自律動作を行わせる。
The environment model 8 describes the environment 6 in which the robot 5 actually operates, and is composed of, for example, placement data of objects existing in the environment 6. The environmental model providing means 9 uses the data of the environmental model 8 to transmit information to the robot control means 4, and controls the robot's autonomous operation and the like. For example, a motion plan for the robot 5 is created using the data of the environment model 8, and the robot 5 is caused to perform autonomous motion according to the motion plan.

【0020】環境モデル更新手段10は、オペレータ1
の遠隔操作により変化した環境6を解釈して環境モデル
8を更新する。その際に、環境モデル更新手段10は、
変化した環境6の最終状態の情報12に基づいて、環境
6を解釈し、更新を行う。その詳細は以下の各実施例(
第1〜第5実施例)において述べる。
[0020] The environment model updating means 10
The environment model 8 is updated by interpreting the environment 6 changed by remote control. At that time, the environment model updating means 10
The environment 6 is interpreted and updated based on the changed final state information 12 of the environment 6. Details are given in each example below (
This will be described in Embodiments 1 to 5).

【0021】この環境モデル8及び環境モデル更新手段
10は、例えばワークステーション20に設けられる。
The environment model 8 and the environment model updating means 10 are provided in a workstation 20, for example.

【0022】図3はロボットが作業する環境を示す図で
ある。図では簡単のため2次元平面内での環境とし、X
、Y並進2自由度のみで回転自由度はないものとした。実世界での環境は並進3自由度、回転3自由度の計6自
由度であるが本発明の説明には支障ない。
FIG. 3 is a diagram showing the environment in which the robot works. In the figure, for simplicity, the environment is assumed to be within a two-dimensional plane, and
, it is assumed that there are only two degrees of freedom in Y translation and no degrees of freedom in rotation. Although the real world environment has a total of six degrees of freedom, three degrees of freedom in translation and three degrees of freedom in rotation, this does not interfere with the explanation of the present invention.

【0023】物体A、B及びCが、環境6内に配置され
ている。環境6は基準座標系Wを有する。物体Aは、3
カ所の結合部a1、a2、a3を持ち、他の物体と結合
する。a0は、物体Aの代表点を示す。それらの結合部
a1、a12、a3及び代表点a0にそれぞれ座標系を
割り当てる。物体Bも同様に、2ヵ所の結合部b1、b
2及び代表点b0を持ち、それらに対してそれぞれ座標
系を割り当てる。物体Cは、この世界の基準座標系Wに
対して固定され、物体A、Bと同様に、結合部c1及び
代表点c0を持ち、座標系が割り当てられている。
Objects A, B and C are placed in an environment 6. The environment 6 has a reference coordinate system W. Object A is 3
It has three connecting parts a1, a2, and a3, and connects to other objects. a0 indicates a representative point of object A. A coordinate system is assigned to each of the connecting parts a1, a12, a3 and the representative point a0. Similarly, object B has two joints b1 and b.
2 and a representative point b0, and a coordinate system is assigned to each of them. The object C is fixed with respect to the reference coordinate system W of this world, and like the objects A and B, has a joint c1 and a representative point c0, and is assigned a coordinate system.

【0024】図4は図3の配置モデル(配置情報)を示
す図である。環境モデル8は、この配置モデルによって
構成される。図において、○印は各座標系を示す。物体
が固体の場合(変形する物体は扱わない)、その各座標
系の相対関係は固定的である。その相対関係は、図にお
いて、実線矢印とオフセット値ベクトルとで示される。例えば、物体Aの各座標系間の相対関係、すなわち、結
合部a1、a2、a3、及び代表点a0間の相対関係は
、実線矢印とオフセット値ベクトルとで示され、オフセ
ット値ベクトルは矢印の根本側の座標系上での変移量で
示される。例えば、a1は、a0座標系上で(0,−1
0)離れたところに配置されていることを示す。
FIG. 4 is a diagram showing the layout model (layout information) of FIG. 3. The environment model 8 is configured by this placement model. In the figure, ○ marks indicate each coordinate system. If the object is solid (deforming objects are not treated), the relative relationships among its coordinate systems are fixed. The relative relationship is shown in the figure by a solid line arrow and an offset value vector. For example, the relative relationship between each coordinate system of object A, that is, the relative relationship between joint parts a1, a2, a3, and representative point a0, is shown by a solid line arrow and an offset value vector, and the offset value vector is indicated by the arrow. It is indicated by the amount of displacement on the root side coordinate system. For example, a1 is (0, -1
0) Indicates that the location is far away.

【0025】さらに、○印の近くに記載されている座標
値は、現環境での基準座標系Wにおける配置を示す。例
えば、a1の座標値は(600,490)である。この
座標値は、物体の操作によっていろいろ変化する。本発
明は、この座標値が実際の環境と同一になるように、い
かにして更新するかの方法に関する。
Furthermore, the coordinate values written near the circle mark indicate the arrangement in the reference coordinate system W in the current environment. For example, the coordinate values of a1 are (600, 490). These coordinate values change in various ways depending on the operation of the object. The present invention relates to a method of updating these coordinate values so that they are the same as the actual environment.

【0026】さて、この環境6がオペレータの遠隔操作
の結果、変化したとする。図5は環境が図3の状態から
変化した場合を示す図である。この場合は、物体Aがロ
ボット操作によって移動し、物体Aの結合部a1と物体
Cの結合部c1とが結合したことを示している。環境6
がこのように変化した場合は、次のようにして、各座標
値の更新、すなわち環境モデル8の更新が行われる。
Now, suppose that this environment 6 changes as a result of the operator's remote control. FIG. 5 is a diagram showing a case where the environment has changed from the state shown in FIG. In this case, object A is moved by the robot operation, and the connecting portion a1 of object A and the connecting portion c1 of object C are combined. Environment 6
When the changes occur in this way, each coordinate value is updated, that is, the environment model 8 is updated as follows.

【0027】図6は本発明の第1実施例を示す図である
。この実施例では、a1とc1が結合(付着)したこと
をオペレータがシンボリックに教示する。図中、「af
fix  a1  to  c1」がそれを示す。その
入力は、キーボードやメニュー音声等を用いてワークス
テーション20に対して行われる。このシンボリックな
命令「affix  ■  to  ■  offse
t(a,b)」は、■に対して■を■の座標系上でof
fset値(a,b)のところに付着させる意味を示す
ものとする。この場合、offset値を省略すると図
に示すように(0,0)となる。この命令は、言語イン
タフェース21を経由して環境モデル更新手段10に伝
達される。
FIG. 6 is a diagram showing a first embodiment of the present invention. In this embodiment, the operator symbolically teaches that a1 and c1 are combined (attached). In the figure, “af
fix a1 to c1” indicates this. The input is performed on the workstation 20 using a keyboard, menu voice, or the like. This symbolic command "affix ■ to ■ offse"
t(a,b)'' is of the coordinate system of ■ with respect to ■.
Let us indicate the meaning of attaching it to the fset value (a, b). In this case, if the offset value is omitted, it becomes (0, 0) as shown in the figure. This command is transmitted to the environment model updating means 10 via the language interface 21.

【0028】このとき、環境モデル8内の配置モデルが
、環境モデル更新手段10によって更新されるが、それ
を図7に基づいて説明する。図7は第1実施例による配
置モデルの更新を示す図である。先ず、環境モデル更新
手段10は、命令「affix  a1  to  c
1」に応じて、テンポラリな結合関係(図では破線矢印
L1で表示)を配置モデルに追加する。その結果、a1
がc1とc1座標系上でオフセット(0,0)の関係に
あることが登録されたことになる。これにより、a1の
座標値は、前の(600,490)から(600,20
)に変更される。それに応じて、a1と結合関係にある
他の座標値a0、a2、a3も図に示すように更新され
る。なお、この操作と無関係な物体Bに関する座標値は変更
されない。
At this time, the placement model in the environment model 8 is updated by the environment model update means 10, which will be explained based on FIG. FIG. 7 is a diagram showing the updating of the placement model according to the first embodiment. First, the environment model updating means 10 executes the command “affix a1 to c
1'', a temporary connection relationship (indicated by a broken line arrow L1 in the figure) is added to the placement model. As a result, a1
This means that it has been registered that c1 has an offset (0, 0) relationship on the c1 coordinate system. As a result, the coordinate value of a1 changes from the previous (600,490) to (600,20
) will be changed. Correspondingly, other coordinate values a0, a2, and a3 that are connected to a1 are also updated as shown in the figure. Note that the coordinate values regarding object B that are unrelated to this operation are not changed.

【0029】このように、遠隔操作によって新たに生じ
た結合関係を、シンボリックに環境モデル更新手段10
に与えることによって、環境モデル8を更新することが
でき、環境モデル8を環境6の最終状態に一致させるこ
とができる。
In this way, the connection relationship newly created by remote control is symbolically updated by the environment model updating means 10.
, the environment model 8 can be updated to match the final state of the environment 6.

【0030】次に、環境6の物体Bが移動した場合を考
える。図8は環境が図5の状態からさらに変化した場合
を示す図である。この図では、物体Bはロボット操作に
より物体C上に設置される。物体Bと物体Cとは、結合
部での結合ではなく、両者に図5の物体A、C間のよう
な、結合関係はない。
Next, consider a case where object B in environment 6 moves. FIG. 8 is a diagram showing a case where the environment has further changed from the state shown in FIG. In this figure, object B is placed on object C by robot operation. Object B and object C are not connected at a joint, and there is no connection relationship between them like that between objects A and C in FIG. 5.

【0031】この場合の環境モデル8の更新方法につい
て以下に説明する。図9は第2実施例の全体構成を示す
図である。環境6は通常、オペレータとは隔たった場所
にあるので、カメラ33によるモニタ画像30Aによっ
てモニタ30に表示され観察される。オペレータはジョ
イスティック34によりカメラ支持台33Aを操作して
カメラ33を位置決めし、見たい方向からの実画像を得
る。
The method for updating the environment model 8 in this case will be explained below. FIG. 9 is a diagram showing the overall configuration of the second embodiment. Since the environment 6 is usually located at a location separated from the operator, it is displayed on the monitor 30 and observed by the monitor image 30A from the camera 33. The operator operates the camera support 33A using the joystick 34 to position the camera 33 and obtain an actual image from the desired direction.

【0032】環境モデル表示手段35は、予め各物体の
形状データ36を有し、その形状データ36と、環境モ
デル更新手段10が管理する環境モデル8の配置情報と
をもとに、環境6をシミュレートしてその画像(グラフ
ィックシミュレータ画像)31Aをディスプレイ31に
表示する。このディスプレイ31は、例えばワークステ
ーション20(図2)のディスプレイである。このグラ
フィックシミュレータ画像31Aの物体は、マウス32
を用いて移動させることができる。
The environment model display means 35 has shape data 36 of each object in advance, and displays the environment 6 based on the shape data 36 and the arrangement information of the environment model 8 managed by the environment model update means 10. The simulated image (graphic simulator image) 31A is displayed on the display 31. This display 31 is, for example, the display of the workstation 20 (FIG. 2). The object in this graphic simulator image 31A is the mouse 32
It can be moved using

【0033】図10は図9のモニタ画像とグラフィック
シミュレータ画像との拡大図である。グラフィックシミ
ュレータ画像31Aにおいて、環境モデル表示手段35
は、物体Bを先ず破線で示す位置に表示する。これは、
環境6において、物体Bが図8の状態に変化した場合で
も、まだ環境モデル8が更新されていないためである。オペレータは、グラフィックシミュレータ画像31Aの
物体Bをマウス32を用いてドラッギングする。このド
ラッギングは、マウスポインタ32Aがグラフィックシ
ミュレータ画像31Aの中の物体Bに入った状態で、マ
ウスボタン32Bを押しながら、マウスポインタ32A
をずらすことによって行われる。
FIG. 10 is an enlarged view of the monitor image and graphic simulator image of FIG. In the graphic simulator image 31A, the environment model display means 35
First, object B is displayed at the position indicated by the broken line. this is,
This is because the environment model 8 has not yet been updated even when the object B changes to the state shown in FIG. 8 in the environment 6. The operator drags object B on the graphic simulator image 31A using the mouse 32. This dragging is carried out by pressing the mouse button 32B while moving the mouse pointer 32A into the object B in the graphic simulator image 31A.
This is done by shifting the

【0034】オペレータは、環境6の実画像を表示する
モニタ画像30Aを見ながら、物体Bを図中矢印L2方
向にドラッギングして、モニタ画像30Aに表示されて
いる物体Bの最終状態の位置に相当する位置まで移動さ
せる。物体Bが実線で示す位置まで来たときに、マウス
ボタン32Aを押して物体Bの位置決めを行う。この位
置決めによって新たに生じた配置情報は、環境モデル表
示手段35を経由して再び環境モデル更新手段10に転
送される。
While viewing the monitor image 30A displaying the actual image of the environment 6, the operator drags the object B in the direction of the arrow L2 in the figure to bring it to the position of the final state of the object B displayed on the monitor image 30A. Move it to the corresponding position. When the object B reaches the position indicated by the solid line, the mouse button 32A is pressed to position the object B. The new arrangement information generated by this positioning is transferred again to the environment model updating means 10 via the environment model display means 35.

【0035】このとき、環境モデル8内の配置モデルが
、環境モデル更新手段10によって更新されるが、それ
を図11に基づいて説明する。図11は第2実施例によ
る配置モデルの更新を示す図である。先ず、環境モデル
更新手段10に、環境モデル表示手段35から新配置の
情報が転送されてくる。その情報は、物体Bの代表点b
0の新しい座標値(700,30)であり、それにより
代表点b0の古い座標値(710,480)が更新され
る。このとき、他の結合部b1、b2については環境モ
デル8に登録されている結合関係に従い、その新しい座
標値がb0の座標値から算出され、更新される。なお、
この操作と無関係な物体Aに関する座標値は変更されな
い。
At this time, the placement model in the environment model 8 is updated by the environment model update means 10, which will be explained based on FIG. 11. FIG. 11 is a diagram showing updating of a placement model according to the second embodiment. First, information on the new layout is transferred from the environment model display means 35 to the environment model update means 10. The information is the representative point b of object B
0's new coordinate values (700, 30), thereby updating the old coordinate values (710, 480) of the representative point b0. At this time, new coordinate values of the other joint parts b1 and b2 are calculated from the coordinate values of b0 and updated according to the joint relationship registered in the environment model 8. In addition,
Coordinate values regarding object A that are unrelated to this operation are not changed.

【0036】このように、物体Bが物体Cに設置された
場合のような、その結合関係が既知でない場合でも、環
境モデル表示手段35を用いて、グラフィックシミュレ
ータ画像31A上で位置決めすることによって、その最
終状態を環境モデル8に反映させ更新することができる
[0036] In this way, even when the connection relationship between the objects B and C is not known, such as when the object B is installed on the object C, by positioning it on the graphic simulator image 31A using the environment model display means 35, The final state can be reflected in the environment model 8 and updated.

【0037】図12は本発明の第3実施例の全体構成を
示す図である。第2実施例との相違点は、画像オーバレ
イ手段38を設けて、モニタ画像30Aとグラフィック
シミュレータ画像31Aとを重ねたモニタ30上で移動
した物体の位置決め(ドラッギング)を行うように構成
した点にある。すなわち、カメラ33からの実画像と、
環境モデル表示手段35からのシミュレータ画像とは、
画像オーバレイ手段38を経由して重ねられて表示され
る。
FIG. 12 is a diagram showing the overall configuration of a third embodiment of the present invention. The difference from the second embodiment is that an image overlay means 38 is provided to position (drag) a moving object on the monitor 30 on which the monitor image 30A and the graphic simulator image 31A are superimposed. be. That is, the real image from the camera 33,
The simulator image from the environmental model display means 35 is
The images are superimposed and displayed via the image overlay means 38.

【0038】この場合、カメラ33の視点がカメラ視点
計算手段37によって求められる。その視点に基づいて
、環境モデル表示手段35は、シミュレータ画像がその
視点から見た画像になるようにシミュレータ画像を変更
し、その変更した画像を画像オーバレイ手段38に送る
。したがってモニタ30上には、同一視点からの実画像
(モニタ画像)30Aと環境モデル8によるグラフィッ
クシミュレータ画像31Aが表示される。このモニタ3
0上で、第2実施例と同様に、移動した物体Bのグラフ
ィックシミュレータ画像31Aをドラッギングして新位
置を入力する。この場合、実画像30Aにグラフィック
シミュレータ画像31Aを重ねるようにドラッグする操
作となるので第2実施例に比較して、物体Bの位置決め
を正確に行うことができ、位置決め精度が改善される。
In this case, the viewpoint of the camera 33 is determined by the camera viewpoint calculation means 37. Based on the viewpoint, the environment model display means 35 changes the simulator image so that the simulator image becomes an image seen from that viewpoint, and sends the modified image to the image overlay means 38. Therefore, on the monitor 30, a real image (monitor image) 30A from the same viewpoint and a graphic simulator image 31A based on the environment model 8 are displayed. This monitor 3
0, the graphic simulator image 31A of the moved object B is dragged to input a new position, as in the second embodiment. In this case, the drag operation is performed so that the graphic simulator image 31A is superimposed on the real image 30A, so that the object B can be positioned more accurately than in the second embodiment, and the positioning accuracy is improved.

【0039】図13は本発明の第4実施例の全体構成を
示す図である。第2、第3実施例との相違点は、画像計
測認識手段(環境計測手段)40を設けた点にある。第
2、第3実施例と同様に、オペレータの遠隔操作により
物体Bが物体Cに設置された場合を説明する。この実施
例では、物体Bに実環境において、物体位置を計測する
ためのマークb3が設けられている。
FIG. 13 is a diagram showing the overall configuration of a fourth embodiment of the present invention. The difference from the second and third embodiments is that image measurement recognition means (environment measurement means) 40 is provided. As in the second and third embodiments, a case will be described in which object B is placed on object C by remote control by an operator. In this embodiment, the object B is provided with a mark b3 for measuring the object position in a real environment.

【0040】図14は物体Bとそのマークb3を示す図
である。マークb3の撮像画面を画像処理することによ
って、マークb3の位置及び名称(「b3」)を知るこ
とができる。本実施例では、まず、第3実施例と全く同
一の手法によって、オーバレイされたモニタ30上で物
体Bとドラッギングすることによって、物体Bの新配置
を入力する(図13)。この配置情報は画像オーバレイ
による位置決めによって、ある程度の精度を有している
が、画面の表示分解能の限界や、オペレータのマウス操
作による位置決め精度の限界等により、その精度に限界
がある。このため、本実施例では、この結果を物体Bの
概略位置として扱う。。
FIG. 14 is a diagram showing object B and its mark b3. The position and name ("b3") of mark b3 can be known by image processing the captured screen of mark b3. In this embodiment, first, a new arrangement of object B is input by dragging object B on the overlaid monitor 30 using exactly the same method as in the third embodiment (FIG. 13). Although this placement information has a certain degree of accuracy due to positioning by image overlay, there is a limit to its accuracy due to limitations in display resolution of the screen, limitations in positioning accuracy due to operator's mouse operations, and the like. Therefore, in this embodiment, this result is treated as the approximate position of object B. .

【0041】その配置情報が、環境モデル表示手段35
から画像計測認識手段40に送られる。すなわち、マー
クの名前b3およびオペレータのドラッギングにより得
られたb3の配置情報が送られる。なお、画像計測認識
手段40は、マークデータ42を有しており、そのマー
クデータ42には、予めマークの形状やマーク名の識別
情報等が格納されている。
The location information is displayed on the environment model display means 35.
from there to the image measurement recognition means 40. That is, the name b3 of the mark and the location information of b3 obtained by dragging by the operator are sent. The image measurement recognition means 40 has mark data 42, and the mark data 42 stores in advance identification information such as the shape of the mark and the name of the mark.

【0042】画像計測認識手段40は、送られてきた配
置情報によりマークb3の概略位置を知り、その場所に
マークb3があるものとして、カメラ支持台41Aを操
作してカメラ41をその方向に向け、マークb3を撮像
する。次に、マークデータ42内のマークb3に関する
データを参照しながらマークの名称を確認し、マークb
3の位置を計測する。その計測結果(座標値(700,
35))が、環境モデル更新手段10に戻されてマーク
b3の座標値が(710,485)→(700,35)
に更新される。環境モデル更新手段10では、物体Bの
結合関係に従い、b0、b1、b2の値を更新する。
The image measurement recognition means 40 learns the approximate position of the mark b3 from the sent placement information, and assumes that the mark b3 is at that location and operates the camera support 41A to direct the camera 41 in that direction. , image the mark b3. Next, check the name of the mark while referring to the data regarding mark b3 in the mark data 42, and
Measure position 3. The measurement result (coordinate value (700,
35)) is returned to the environment model updating means 10, and the coordinate values of mark b3 are changed from (710,485) to (700,35).
will be updated. The environment model updating means 10 updates the values of b0, b1, and b2 according to the connection relationship of the objects B.

【0043】図15は第4実施例による配置モデルの更
新を示す図である。先ず、環境モデル更新手段10に、
画像計測認識手段40から物体Bのマークb3に関する
新配置の情報が送られてくる。その情報は、マークb3
の座標値(700,35)であり、それによりマークb
3の古い座標値(710,485)が更新される。この
とき、他の結合部b1、b2及び代表点b0についても
、上述したように更新される。このように、画像計測認
識手段40によって物体B(マークb3)を直接撮像し
、その位置を計測するため、第2、第3実施例の持つ精
度の限界を越えて、物体Bの位置をより高い精度で求め
ることができる。すなわち、より高い精度で環境モデル
8を更新することができる。
FIG. 15 is a diagram showing updating of the layout model according to the fourth embodiment. First, in the environment model updating means 10,
Information on the new arrangement of mark b3 of object B is sent from the image measurement recognition means 40. The information is marked b3
is the coordinate value (700, 35) of mark b
The old coordinate values (710, 485) of 3 are updated. At this time, the other coupling parts b1 and b2 and representative point b0 are also updated as described above. In this way, since the image measurement recognition means 40 directly images the object B (mark b3) and measures its position, the position of the object B can be further determined beyond the accuracy limit of the second and third embodiments. It can be determined with high accuracy. That is, the environment model 8 can be updated with higher accuracy.

【0044】図16は本発明の第5実施例の全体構成を
示す図である。第4実施例との相違点は、オペレータが
ジョイスティック34を用いてカメラ41を操作し、物
体B(マークb3)を直接撮像し、モニタ43の視野内
に入れるように構成した点にある。画像計測認識手段4
0は、第4実施例と同様にして、撮像したマークb3の
座標値と、マークの名前「b3」を求め、その座標値に
よって環境モデル8が更新される。このように、画像計
測認識手段40のカメラ41で直接物体Bを視野内に入
れ、撮像するようにしたため、画像オーバレイ手段38
が不要になる。
FIG. 16 is a diagram showing the overall configuration of a fifth embodiment of the present invention. The difference from the fourth embodiment is that the operator operates the camera 41 using the joystick 34 to directly image the object B (mark b3) and bring it into the field of view of the monitor 43. Image measurement recognition means 4
0 obtains the coordinate values of the imaged mark b3 and the mark name "b3" in the same manner as in the fourth embodiment, and the environment model 8 is updated with the coordinate values. In this way, since the camera 41 of the image measurement recognition means 40 directly brings the object B into the field of view and images it, the image overlay means 38
becomes unnecessary.

【0045】図17は本発明の第2の原理を示すブロッ
ク図である。図2に示した第1の原理との相違点は、環
境モデル更新手段10が、初期環境モデル(オペレータ
による遠隔操作が行われる前の環境6の初期状態)50
と、オペレータの遠隔操作によるロボット5の動作履歴
情報53とを使用して環境モデル8の更新を行う点にあ
る。すなわち、初期状態からのロボット動作の履歴を追
いかけて、環境モデル8の最終状態を作りあげる。その
詳細を以下の各実施例(第6、第7実施例)において説
明する。
FIG. 17 is a block diagram showing the second principle of the present invention. The difference from the first principle shown in FIG.
The environmental model 8 is updated using the information 53 of the operation history of the robot 5 that is controlled remotely by the operator. In other words, the final state of the environment model 8 is created by tracing the history of robot movements from the initial state. The details will be explained in the following embodiments (sixth and seventh embodiments).

【0046】図18は本発明の第6実施例の全体構成を
示す図である。ロボット制御手段4は、ロボット操作コ
マンド列Rのコマンドに応じて、ロボット5のハンド5
1を動作させ、環境6内の物体Eを移動させる。ロボッ
ト操作コマンド列Rは、オペレータの遠隔操作の結果、
遠隔操作指令手段3(図17)を経由して発信されたも
のである。または、ロボット制御手段4の上位のホスト
計算機(図示せず)によって発信されたものでもよい。
FIG. 18 is a diagram showing the overall configuration of a sixth embodiment of the present invention. The robot control means 4 controls the hand 5 of the robot 5 in response to the commands in the robot operation command sequence R.
1 to move the object E in the environment 6. The robot operation command sequence R is the result of the operator's remote operation,
This is transmitted via the remote control command means 3 (FIG. 17). Alternatively, it may be transmitted by a host computer (not shown) above the robot control means 4.

【0047】コマンドヒストリ記憶手段60は、ロボッ
ト制御手段4が受信したロボット操作コマンド列R(ロ
ボット5の動作履歴情報53)を記憶し、必要に応じて
環境モデル更新手段10に送る。環境モデル更新手段1
0は、そのロボット操作コマンド列R、初期環境モデル
50及び後述する結合可能点地図52を使用して、環境
モデル8内の配置モデルを更新する。
The command history storage means 60 stores the robot operation command sequence R (operation history information 53 of the robot 5) received by the robot control means 4, and sends it to the environment model updating means 10 as necessary. Environmental model update means 1
0 updates the placement model in the environment model 8 using the robot operation command sequence R, the initial environment model 50, and a connectable point map 52 to be described later.

【0048】なお、ロボット5の動作中に逐次、環境モ
デル8の更新を行う場合は、ロボット操作コマンド列R
は、図中破線L3で示すように、ロボット制御手段4を
経由して直接環境モデル更新手段10に送られる。した
がって、この場合は、コマンドヒストリ記憶手段60は
不要になる。
[0048] If the environment model 8 is to be updated sequentially while the robot 5 is operating, the robot operation command sequence R
is directly sent to the environment model updating means 10 via the robot control means 4, as shown by the broken line L3 in the figure. Therefore, in this case, the command history storage means 60 becomes unnecessary.

【0049】次に、環境モデル8の更新方法を説明する
。図19はロボットハンドとその対象物体を示す図であ
り、(A)はロボットハンドを、(B)はその対象物体
を示す。ロボット5のハンド51は座標系d0を有し、
その対象物体Eは結合部e1、e2及び代表点e0を持
つ。
Next, a method for updating the environment model 8 will be explained. FIG. 19 is a diagram showing a robot hand and its target object, where (A) shows the robot hand and (B) its target object. The hand 51 of the robot 5 has a coordinate system d0,
The target object E has connecting parts e1, e2 and a representative point e0.

【0050】図20及び図21はロボットの動作履歴を
示す図であり、図20の(A)、(B)、(C)はステ
ップ1、2、3を、図21の(A)、(B)はステップ
4、5を示す。初期状態の位置にある物体Eに対し(ス
テップ1)、オペレータがロボット5を遠隔操作して、
ハンド51を物体Eの結合位置に移動しハンド51で物
体Eを掴む(グリップする)(ステップ2)。次に、物
体Eを持ち上げて移動し(ステップ3)、固定されてい
る物体F上の希望する位置に置き、物体Eを放し(リリ
ースする)(ステップ4)、ハンドを最終位置に移動す
る(ステップ5)。ステップ5が最終状態である。この
ときのロボット制御手段4に対するコマンドは、以下の
ようなものである。
20 and 21 are diagrams showing the operation history of the robot, and (A), (B), and (C) in FIG. B) shows steps 4 and 5. With respect to the object E in the initial position (step 1), the operator remotely controls the robot 5,
The hand 51 is moved to the joining position of the object E, and the hand 51 grasps the object E (step 2). Next, pick up and move the object E (step 3), place it at the desired position on the fixed object F, release the object E (step 4), and move the hand to the final position ( Step 5). Step 5 is the final state. The command to the robot control means 4 at this time is as follows.

【0051】ステップ1→2の場合:ステップ2のハン
ド位置までハンド51の位置を移動させるコマンドC1
、及びハンド51を閉めるコマンドC2。ステップ2→
3→4の場合:ステップ4のハンド位置までハンド51
の位置を移動させるコマンドC3、及びハンド51を開
くコマンドC4。
In the case of step 1 → 2: Command C1 to move the position of hand 51 to the hand position of step 2
, and a command C2 to close the hand 51. Step 2→
In the case of 3 → 4: Hand 51 to the hand position of step 4
A command C3 to move the position of the hand 51, and a command C4 to open the hand 51.

【0052】ステップ5の場合:ハンド51を移動させ
るコマンドC5。
In the case of step 5: Command C5 to move the hand 51.

【0053】環境モデル更新手段10は、環境6の初期
状態及びこれらのコマンドを使用して、環境モデル8の
更新を行う。この環境モデル8の更新手順を図22を用
いて説明する。
The environment model updating means 10 updates the environment model 8 using the initial state of the environment 6 and these commands. The procedure for updating the environment model 8 will be explained using FIG. 22.

【0054】図22は図20及び図21の配置モデルを
示す図である。図22の配置モデル中、(A)は初期状
態を表し、図20のステップ1に相当する。(B)はハ
ンド51が物体Eを掴んで(グリップ)、ハンド51と
物体Eがともに移動中の状態を表し、図20のステップ
2、3、及び図21のステップ4に相当する。(C)は
ハンド51が物体Eを放して(リリース)、最終状態に
なったことを表し、図21のステップ5に相当する。◎
印は結合可能な座標系を示す。なお、ロボット5はその
ハンド51の位置を基準座標系Wにおいて認識可能であ
る。
FIG. 22 is a diagram showing the arrangement model of FIGS. 20 and 21. In the arrangement model of FIG. 22, (A) represents an initial state, which corresponds to step 1 in FIG. (B) shows a state in which the hand 51 is gripping the object E and both the hand 51 and the object E are moving, and corresponds to steps 2 and 3 in FIG. 20 and step 4 in FIG. 21. (C) indicates that the hand 51 releases the object E and reaches the final state, and corresponds to step 5 in FIG. 21. ◎
Marks indicate coordinate systems that can be combined. Note that the robot 5 can recognize the position of its hand 51 in the reference coordinate system W.

【0055】先ず、初期状態(A)に対し、ハンド51
が、ハンド51を閉めるコマンドC2に応じて、物体E
の結合部を掴んだことが認識されると、d0─e1間に
テンポラリな結合関係(破線矢印L4)が生じる(B)
。次に、ハンド51の位置を移動させるコマンドC3に
応じてハンド51(d0)が移動すると、d0─e1間
の結合関係に従い、物体E(d0、d1、d2)もハン
ド51と移動を共にする。最終位置でハンド51を開く
コマンドC4が実行されると、d0─e1間の結合関係
は解消される(C)。物体Eの最終位置は、ハンド51
を開いた位置となる。すなわち、(ハンド51を開いた
時のd0の位置)=(e1の位置)となる。この関係を
満たすように、結合部e1の新たな座標値が登録される
。それに応じて結合部e2及び代表点e0の各座標値が
更新され、環境モデル8が更新される。このように、ハ
ンド51の動作履歴を追いかけることによって、環境モ
デル8が更新され、環境モデル8の最終状態が得られる
First, for the initial state (A), the hand 51
However, in response to the command C2 to close the hand 51, the object E
When it is recognized that the connection part of is grasped, a temporary connection relationship (broken line arrow L4) occurs between d0 and e1 (B)
. Next, when the hand 51 (d0) moves in response to the command C3 that moves the position of the hand 51, the object E (d0, d1, d2) also moves with the hand 51 according to the connection relationship between d0 and e1. . When the command C4 that opens the hand 51 at the final position is executed, the connection relationship between d0 and e1 is dissolved (C). The final position of the object E is the hand 51
is in the open position. That is, (position of d0 when hand 51 is opened)=(position of e1). New coordinate values of the connecting portion e1 are registered so as to satisfy this relationship. Accordingly, the coordinate values of the joint e2 and the representative point e0 are updated, and the environment model 8 is updated. In this way, by tracking the movement history of the hand 51, the environmental model 8 is updated, and the final state of the environmental model 8 is obtained.

【0056】さて、上述したハンドを閉めるコマンドC
2から、どの物体をつかんだかを知る方法について以下
に示す。図23は結合部(結合可能点)の地図で、(A
)は結合部の初期状態、及びハンドの移動経路と開閉場
所を示し、(B)は結合部の最終状態を示す。環境モデ
ル更新手段10は、この結合可能点地図52の情報を使
用して結合した物体をみつける。図に示すように環境を
適当に領域分割した上で、環境モデル8中の結合部の配
置情報をつかって結合部について予めマッピングする。ここでは、物体E、F、G、H、Iの各結合部e1、e
2、〜、i4がマッピングされている。ハンド51(d
0)は、ここでは(A)の線L5に沿ってこの地図中を
移動したとする。
Now, the above-mentioned command C to close the hand
2, we will show below how to know which object has been grabbed. Figure 23 is a map of joining parts (possible joining points).
) shows the initial state of the joint, the moving path of the hand, and the opening/closing location, and (B) shows the final state of the joint. The environment model updating means 10 uses the information of this connectable point map 52 to find connected objects. After dividing the environment into regions as shown in the figure, the joints are mapped in advance using the location information of the joints in the environment model 8. Here, each connection part e1, e of objects E, F, G, H, I
2, to i4 are mapped. Hand 51 (d
0) is assumed to have moved in this map along line L5 in (A).

【0057】「grip」という命令、すなわち、ハン
ド51を閉めるコマンドC2が生じた時点で、d0の含
まれる領域内でもっとも近いか、あるいは、位置が一致
し、結合可能な条件を満たす結合部を検索し、その結合
部(ここではe1)を結合したとみなす。この結合可能
な条件としては、結合部の角度とハンド51の角度との
一致などである。
At the time when the command "grip", that is, the command C2 to close the hand 51, is generated, the connecting part that is closest within the area containing d0 or that matches the position and satisfies the conditions for combining is selected. The search is performed, and the combined part (e1 in this case) is considered to have been combined. Conditions for this connection include the coincidence of the angle of the joint and the angle of the hand 51.

【0058】「release」という命令、すなわち
、ハンド51を開くコマンドC4が生じた時点で、その
結合部(e1)をその領域内にマッピングしなおす。このとき、配置モデル中の結合関係により、同時に移動
を生じるもの(e1と結合関係にあるe2)も、その新
位置に応じた領域にマッピングし、結合部の最終状態を
示す地図(B)が得られる。このように、結合部の座標
値が更新された時には、その結合部は、その時点での座
標値がマッピングされるべき領域にマッピングされる。
[0058] When the command "release", ie, the command C4 to open the hand 51, occurs, the connecting part (e1) is re-mapped within the area. At this time, due to the connection relationship in the placement model, the object that moves at the same time (e2 which is in a connection relationship with e1) is also mapped to the area corresponding to its new position, and the map (B) showing the final state of the connection part is created. can get. In this way, when the coordinate values of a joint are updated, the joint is mapped to the area to which the coordinate values at that time are to be mapped.

【0059】図24は図20、図21に示したロボット
の動作履歴の変形例である。図24は図21中のステッ
プ4で、物体EをFに置いて、物体Eをリリースする前
に物体Fと(リジッドに)結合する過程を含む場合を示
す。ただし、この場合の物体Eはさらに結合部e3を有
し、また物体Fは結合部f1をもつとしている。この場
合は、ハンド51に対するリリース命令の前に例えば、
物体Fの結合部に対して、コネクト命令が発行される。このように、ハンド51が持っている物体Eと他の物体
Fとの結合命令においても、ハンド51と物体Eの結合
の場合と同じように結合部f1に着目して、結合可能点
地図を利用し後述する図25中、破線矢印L6に示すよ
うなテンポラリな結合関係を生成できる。
FIG. 24 is a modification of the operation history of the robot shown in FIGS. 20 and 21. FIG. 24 shows a case where step 4 in FIG. 21 includes a process of placing object E on F and (rigidly) coupling it with object F before releasing object E. However, in this case, the object E further has a joint e3, and the object F has a joint f1. In this case, for example, before issuing a release command to the hand 51,
A connect command is issued to the connecting portion of object F. In this way, in a command to combine an object E held by the hand 51 with another object F, the map of possible combinations is created by focusing on the joint part f1 in the same way as in the case of combining the hand 51 and the object E. By using this, it is possible to generate a temporary connection relationship as shown by a broken line arrow L6 in FIG. 25, which will be described later.

【0060】図25は図24の配置モデルを示す図であ
る。この場合は、図22の(B)で生じたハンド51の
d0と物体Eの結合部e1との結合関係(破線矢印L4
)があり、さらに、コネクト命令によって生じる物体E
の結合部e3と物体Fの結合部f1とのテンポラリな結
合関係(破線矢印L6)を追加する。
FIG. 25 is a diagram showing the arrangement model of FIG. 24. In this case, the connection relationship between d0 of the hand 51 and the connection part e1 of the object E (broken line arrow L4) that occurred in FIG.
), and furthermore, there is an object E caused by the connect instruction
A temporary connection relationship (broken line arrow L6) between the connection part e3 of the object F and the connection part f1 of the object F is added.

【0061】以上述べた第6実施例では、ロボット5の
動作履歴に応じて、逐次環境モデル8が更新される。す
なわち、環境モデル8が自動的に更新できる。したがっ
て、オペレータが環境モデル8の最終状態を教示する必
要もなく、環境モデル8の更新をより簡易に行うことが
できる。
In the sixth embodiment described above, the environment model 8 is sequentially updated according to the operation history of the robot 5. That is, the environment model 8 can be automatically updated. Therefore, there is no need for the operator to teach the final state of the environment model 8, and the environment model 8 can be updated more easily.

【0062】図26は本発明の第7実施例の全体構成を
示す図である。この実施例は、第6実施例の構成に、さ
らに環境モデル表示手段35(第3実施例)を設けた構
成になっている。
FIG. 26 is a diagram showing the overall configuration of a seventh embodiment of the present invention. This embodiment has a configuration in which an environment model display means 35 (third embodiment) is further provided in addition to the configuration of the sixth embodiment.

【0063】例えば、ロボット5の一連の遠隔操作が終
わった時点を考える。環境モデル8は、第6実施例の自
動更新機能により更新されているとする。その環境モデ
ル8の最終状態を、環境モデル表示手段35を使用して
、ディスプレイ31に表示したところ、環境6の実際の
最終状態とは違った環境を表示したとする。この場合、
本実施例では、もう一度今の遠隔操作をディスプレイ上
でプレイバック(トレース)し、間違いの生じた時点で
修正する機能を有する。
For example, consider the point in time when a series of remote operations of the robot 5 have been completed. It is assumed that the environment model 8 has been updated by the automatic update function of the sixth embodiment. Suppose that when the final state of the environment model 8 is displayed on the display 31 using the environment model display means 35, an environment different from the actual final state of the environment 6 is displayed. in this case,
This embodiment has a function to once again play back (trace) the current remote operation on the display and correct any errors that occur.

【0064】すなわち、環境モデル表示手段35は、環
境モデル更新手段10を使用して、予め初期環境モデル
50に記憶されている環境6の初期状態、及びコマンド
ヒストリ記憶手段60に記憶されているロボット操作コ
マンド列Rにより、もう一度今の遠隔操作によるハンド
51の動作をプレイバックさせ、それをディスプレイ3
1に表示する(実際のロボットは動かない)。その際に
、ハンド51が間違った結合相手を掴んで移動しようと
した場合、その時点で一旦プレイバックを停止させ、結
合相手変更スイッチ61を使用して、正しい結合相手を
選ぶ。この際、環境モデル更新手段10は、結合可能点
地図等をつかって、次の候補をオペレータに提示する。その後、最後の遠隔操作までプレイバックを続行させる
。その結果、正しい最終状態が得られる。
That is, the environment model display means 35 uses the environment model update means 10 to display the initial state of the environment 6 stored in advance in the initial environment model 50 and the robot stored in the command history storage means 60. Using the operation command sequence R, the current operation of the hand 51 by remote control is played back again, and it is displayed on the display 3.
1 (the actual robot does not move). At this time, if the hand 51 grabs a wrong combination partner and tries to move, the playback is temporarily stopped at that point, and the combination partner change switch 61 is used to select the correct combination partner. At this time, the environment model updating means 10 presents the next candidate to the operator using a connectable point map or the like. After that, playback continues until the last remote control. As a result, the correct final state is obtained.

【0065】なお、上記の説明では、遠隔操作を終了し
た後にプレイバックを行い、間違いを修正するようにし
たが、遠隔操作中にも、逐次間違いを修正するように構
成することもできる。例えば、特に時間遅れのある環境
下で、予測シミュレータを併用して遠隔操作をする場合
、予測シミュレータ内の環境モデルは常に、実際の環境
と一致している必要がある。その場合は、結合相手を間
違ったときに、オペレータが逐次正しい結合相手を選ん
でやることによって、対応できるようにすることができ
る。このように、環境モデル8の自動更新機能に、さら
に、結合相手変更手段スイッチ61を設け、オペレータ
との対話により環境モデル8の更新を行えるようにした
。このため、環境モデル8の自動更新をより確実に行う
ことができる。
[0065] In the above explanation, playback is performed after the remote operation is completed and mistakes are corrected, but it is also possible to configure the system so that mistakes are successively corrected even during remote operation. For example, when a predictive simulator is used for remote control, especially in an environment with time delays, the environment model in the predictive simulator must always match the actual environment. In such a case, if an operator makes a mistake in the binding partner, it can be handled by having the operator select the correct binding partner one by one. In this way, the automatic update function of the environment model 8 is further provided with the coupling partner changing means switch 61, so that the environment model 8 can be updated through interaction with the operator. Therefore, the environment model 8 can be automatically updated more reliably.

【0066】ところで、自動更新による環境モデルの更
新方法(第6及び第7実施例)は、例えば、遠隔操作中
にロボットの肘がなんらかの対象物にぶつかった等の原
因により環境が変化した場合は、その環境変化に対応で
きない。なぜなら、この手法は、ロボットに対するコマ
ンド列を使用した更新であり、コマンドに含まれない動
作を原因とした環境変化には対応できないからである。このため、その環境変化を環境モデルに反映させること
もできない。したがって、このような場合は、最終状態
を使った環境モデルの更新方法(第1〜第5実施例)を
併用する必要がある。
[0066] By the way, the method for automatically updating the environment model (sixth and seventh embodiments) is effective when the environment changes due to a cause such as the robot's elbow colliding with some object during remote control. , unable to respond to changes in the environment. This is because this method updates the robot using a command sequence, and cannot respond to environmental changes caused by actions not included in the commands. Therefore, it is not possible to reflect the environmental changes in the environmental model. Therefore, in such a case, it is necessary to use the environmental model updating method using the final state (first to fifth embodiments) in combination.

【0067】上記各実施例の実用的かつ効率的観点から
は、先ず、第6実施例による自動更新を行い、正確に環
境が環境モデルに反映された場合は、それにより環境モ
デルの更新を終了し、環境モデルが間違って更新された
場合に、第7実施例による自動更新の補正を行うか、ま
たは、第1〜第5実施例の最終状態による更新を行うよ
うにする。
From the practical and efficient viewpoint of each of the above embodiments, first, the automatic update according to the sixth embodiment is performed, and when the environment is accurately reflected in the environment model, the update of the environment model is finished. However, when the environment model is incorrectly updated, the automatic update is corrected according to the seventh embodiment, or the update is performed according to the final state of the first to fifth embodiments.

【0068】[0068]

【発明の効果】以上説明したように本発明では、ロボッ
トの遠隔操作によりロボットが動作する環境が変化した
場合、すなわち、環境を変化させる意図がロボット自身
になく、ロボットが環境の変化を解釈することができな
いような場合でも、環境モデルを更新して、その作業環
境に一致させるようにした。
[Effects of the Invention] As explained above, in the present invention, when the environment in which the robot operates changes due to remote control of the robot, in other words, the robot itself has no intention of changing the environment, and the robot interprets the change in the environment. Even in cases where this is not possible, the environment model has been updated to match the working environment.

【0069】このため、ロボットに自律動作を行わせる
自律動作機能のような、環境モデルを必要とするロボッ
ト側のシステムが機能する場合でも、更新された環境モ
デルを使用することができる。したがって、ロボットに
適切な情報を伝えることができる。その結果、環境モデ
ルを必要とするロボット側のシステムの機能と、オペレ
ータによる遠隔操作のような、ロボットのシステム外に
あってロボットの作業環境を勝手に変化させてしまう機
能との有効な協調動作が可能となる。
Therefore, even when a robot-side system that requires an environment model functions, such as an autonomous operation function that causes the robot to perform autonomous operations, the updated environment model can be used. Therefore, appropriate information can be conveyed to the robot. As a result, effective cooperative operation can be achieved between the functions of the robot system that require an environment model and the functions that are outside the robot system and can change the robot's working environment without permission, such as remote control by the operator. becomes possible.

【0070】また、環境モデルの更新を、環境の最終状
態の情報に基づいて行うようにしたので、いかなる環境
変化にも対応でき、環境モデルの更新を的確に行うこと
ができる。
Furthermore, since the environment model is updated based on information on the final state of the environment, it is possible to respond to any environmental change and update the environment model accurately.

【0071】さらに、環境モデルの更新を、変化する前
の環境モデルの情報と、ロボットの動作履歴情報とに基
づいて行うようにしたので、環境モデルを自動的に更新
することができ、更新をより簡易に行うことができる。
Furthermore, since the environment model is updated based on the information of the environment model before the change and the robot's operation history information, the environment model can be updated automatically, and the update can be performed easily. This can be done more easily.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理ブロック図である。FIG. 1 is a block diagram of the principle of the present invention.

【図2】本発明の第1の原理を示すブロック図である。FIG. 2 is a block diagram showing the first principle of the present invention.

【図3】ロボットが作業する環境を示す図である。FIG. 3 is a diagram showing an environment in which a robot works.

【図4】図3の配置モデルを示す図である。FIG. 4 is a diagram showing the arrangement model of FIG. 3;

【図5】環境が図3の状態から変化した場合を示す図で
ある。
FIG. 5 is a diagram showing a case where the environment has changed from the state shown in FIG. 3;

【図6】本発明の第1実施例を示す図である。FIG. 6 is a diagram showing a first embodiment of the present invention.

【図7】第1実施例による配置モデルの更新を示す図で
ある。
FIG. 7 is a diagram showing updating of a placement model according to the first embodiment.

【図8】環境が図5の状態からさらに変化した場合を示
す図である。
FIG. 8 is a diagram showing a case where the environment has further changed from the state shown in FIG. 5;

【図9】第2実施例の全体構成を示す図である。FIG. 9 is a diagram showing the overall configuration of a second embodiment.

【図10】図9のモニタ画像とグラフィックシミュレー
タ画像との拡大図である。
FIG. 10 is an enlarged view of the monitor image and graphic simulator image of FIG. 9;

【図11】第2実施例による配置モデルの更新を示す図
である。
FIG. 11 is a diagram illustrating updating of a placement model according to the second embodiment.

【図12】本発明の第3実施例の全体構成を示す図であ
る。
FIG. 12 is a diagram showing the overall configuration of a third embodiment of the present invention.

【図13】本発明の第4実施例の全体構成を示す図であ
る。
FIG. 13 is a diagram showing the overall configuration of a fourth embodiment of the present invention.

【図14】物体Bとそのマークb3を示す図である。FIG. 14 is a diagram showing object B and its mark b3.

【図15】第4実施例による配置モデルの更新を示す図
である。
FIG. 15 is a diagram illustrating updating of a placement model according to a fourth embodiment.

【図16】本発明の第5実施例の全体構成を示す図であ
る。
FIG. 16 is a diagram showing the overall configuration of a fifth embodiment of the present invention.

【図17】本発明の第2の原理を示すブロック図である
FIG. 17 is a block diagram showing the second principle of the present invention.

【図18】本発明の第6実施例の全体構成を示す図であ
る。
FIG. 18 is a diagram showing the overall configuration of a sixth embodiment of the present invention.

【図19】ロボットハンドとその対象物体を示す図で、
(A)はロボットハンドを、(B)は対象物体を示す。
FIG. 19 is a diagram showing a robot hand and its target object,
(A) shows a robot hand, and (B) shows a target object.

【図20】ロボットの動作履歴を示す図で、(A)はス
テップ1を、(B)はステップ2を、(C)はステップ
3を示す。
FIG. 20 is a diagram showing the operation history of the robot, in which (A) shows step 1, (B) shows step 2, and (C) shows step 3.

【図21】ロボットの動作履歴を示す図で、(A)はス
テップ4を、(B)はステップ5を示す。
FIG. 21 is a diagram showing the operation history of the robot, in which (A) shows step 4 and (B) shows step 5.

【図22】図20及び図21の配置モデルを示す図で、
(A)は初期状態を、(B)はグリップ及び移動の状態
を、(C)最終状態をそれぞれ示す。
FIG. 22 is a diagram showing the arrangement model of FIGS. 20 and 21,
(A) shows the initial state, (B) shows the grip and movement state, and (C) shows the final state.

【図23】結合部(結合可能点)の地図で、(A)は結
合部の初期状態、及びハンドの移動経路と開閉時点を示
し、(B)は結合部の最終状態を示す。
FIG. 23 is a map of the joint (possible join points), where (A) shows the initial state of the joint, the movement path of the hand, and the opening/closing time, and (B) shows the final state of the joint.

【図24】図20に示したロボットの動作履歴の変形例
である。
24 is a modification of the operation history of the robot shown in FIG. 20. FIG.

【図25】図24の配置モデルを示す図である。FIG. 25 is a diagram showing the arrangement model of FIG. 24;

【図26】本発明の第7実施例の全体構成を示す図であ
る。
FIG. 26 is a diagram showing the overall configuration of a seventh embodiment of the present invention.

【図27】従来のロボットの遠隔制御装置の全体構成を
示すブロック図である。
FIG. 27 is a block diagram showing the overall configuration of a conventional robot remote control device.

【符号の説明】[Explanation of symbols]

1  オペレータ2  マスタアーム3  遠隔操作指令手段4  ロボット制御手段5  マニピュレータ(ロボット)6  環境8  環境モデル9  環境モデル提供手段11  環境解釈情報12  最終状態情報10  環境モデル更新手段20  ワークステーション30,43  モニタ31  ディスプレイ32  マウス33,41  カメラ35  環境モデル表示手段36  形状データ37  カメラ視点計算手段38  画像オーバレイ手段40  画像計測認識手段42  マークデータ50  初期環境モデル51(d0)  ハンド52  結合可能点地図53  動作履歴情報60  コマンドヒストリ記憶手段61  結合相手変更スイッチA,B,C,E,F  物体R  ロボット操作コマンド列W  基準座標系a0,b0  c0,d0,e0,f0  代表点a1
,a2,a3,b1,b2,c1,e1,e2,e3,
f1  結合部b3  マーク○,◎  座標系
1 Operator 2 Master arm 3 Remote operation command means 4 Robot control means 5 Manipulator (robot) 6 Environment 8 Environment model 9 Environment model providing means 11 Environment interpretation information 12 Final state information 10 Environment model updating means 20 Workstations 30, 43 Monitor 31 Display 32 Mouse 33, 41 Camera 35 Environment model display means 36 Shape data 37 Camera viewpoint calculation means 38 Image overlay means 40 Image measurement recognition means 42 Mark data 50 Initial environment model 51 (d0) Hand 52 Connectable point map 53 Operation history information 60 Command history storage means 61 Binding partner change switches A, B, C, E, F Object R Robot operation command sequence W Reference coordinate system a0, b0 c0, d0, e0, f0 Representative point a1
, a2, a3, b1, b2, c1, e1, e2, e3,
f1 Joint b3 Mark ○, ◎ Coordinate system

Claims (6)

Translated fromJapanese
【特許請求の範囲】[Claims]【請求項1】  オペレータ(1) が遠隔地のロボッ
ト(5) を遠隔操作するロボットの遠隔制御装置にお
いて、前記ロボット(5) が動作する環境(6) を
記述した環境モデル(8) と、前記環境モデル(8)
 のデータを使用してロボット(5) に情報を伝える
環境モデル提供手段(9) と、前記オペレータ(1)
 の遠隔操作により変化した環境(6) を解釈して前
記環境モデル(8) を更新する環境モデル更新手段(
10)と、を有することを特徴とするロボットの遠隔制
御装置。
1. A robot remote control device in which an operator (1) remotely controls a robot (5) at a remote location, comprising: an environment model (8) that describes an environment (6) in which the robot (5) operates; The environmental model (8)
an environment model providing means (9) that conveys information to the robot (5) using the data of the operator (1);
environmental model updating means (8) for interpreting the environment (6) changed by remote control of
10) A robot remote control device comprising:
【請求項2】  前記環境モデル更新手段(10)は、
前記環境(6) の最終状態の情報に基づいて前記環境
モデル(8) を更新することを特徴とする請求項1記
載のロボットの遠隔制御装置。
2. The environment model updating means (10) comprises:
The remote control device for a robot according to claim 1, wherein the environment model (8) is updated based on information on the final state of the environment (6).
【請求項3】  前記環境モデル更新手段(10)は、
前記オペレータ(1) がシンボリックに教示した、前
記環境(6) の最終状態において新たに生じた結合関
係によって、前記環境モデル(8) を更新することを
特徴とする請求項2記載のロボットの遠隔制御装置。
3. The environment model updating means (10) comprises:
The remote robot according to claim 2, characterized in that the environment model (8) is updated by a newly generated connection relationship in the final state of the environment (6), which is symbolically taught by the operator (1). Control device.
【請求項4】  前記環境モデル更新手段(10)は、
前記オペレータ(1) がグラフィックディスプレイ上
の対象物の絵を、前記最終状態の位置に相当する位置ま
でドラッギングして位置決めすることによって教示され
た前記対象物の位置情報によって、前記環境モデル(8
) を更新することを特徴とする請求項2記載のロボッ
トの遠隔制御装置。
4. The environment model updating means (10) comprises:
The operator (1) drags and positions a picture of the object on the graphic display to a position corresponding to the final state position, and the environment model (8) is determined by the position information of the object taught by the operator (1).
3. The remote control device for a robot according to claim 2, wherein:
【請求項5】  前記ロボット(5) 側に設けられ前
記環境(6) を計測する環境計測手段を有し、前記環
境計測手段は、オペレータ(1) によって教示された
対象物の概略位置に基づいて対象物を検出して計測し、
前記環境モデル更新手段(10)は、前記環境計測手段
の計測により認識された対象物の位置及び姿勢によって
、前記環境モデル(8) を更新することを特徴とする
請求項2記載のロボットの遠隔制御装置。
5. An environment measuring means is provided on the robot (5) side and measures the environment (6), and the environment measuring means is configured to measure the environment based on the approximate position of the object taught by the operator (1). to detect and measure the target object,
The remote robot according to claim 2, wherein the environmental model updating means (10) updates the environmental model (8) based on the position and orientation of the object recognized by the measurement by the environmental measuring means. Control device.
【請求項6】  前記環境モデル更新手段(10)は、
変化する前の環境モデル(8) の情報及びオペレータ
(1) の操作による前記ロボット(5) の動作の履
歴情報を使って、前記環境モデル(8) を更新するこ
とを特徴とする請求項1記載のロボットの遠隔制御装置
6. The environment model updating means (10) comprises:
Claim 1 characterized in that the environmental model (8) is updated using information on the environmental model (8) before the change and history information of movements of the robot (5) caused by operations of the operator (1). A remote control device for the robot described.
JP2603291A1991-02-201991-02-20Remote control device for robotPendingJPH04269185A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2603291AJPH04269185A (en)1991-02-201991-02-20Remote control device for robot

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2603291AJPH04269185A (en)1991-02-201991-02-20Remote control device for robot

Publications (1)

Publication NumberPublication Date
JPH04269185Atrue JPH04269185A (en)1992-09-25

Family

ID=12182367

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2603291APendingJPH04269185A (en)1991-02-201991-02-20Remote control device for robot

Country Status (1)

CountryLink
JP (1)JPH04269185A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO1993025355A1 (en)*1992-06-051993-12-23Fujitsu LimitedSimulation method for manipulator and apparatus therefor, simulation and control method for manipulator and apparatus therefor, and control method for manipulator and apparatus therefor
WO2015055085A1 (en)*2013-10-182015-04-23中广核检测技术有限公司Intelligent testing method of nondestructive robot testing based on virtual reality technology
CN106094575A (en)*2016-08-262016-11-09中南大学A kind of robotic conveyance's virtual visualization control method and system
EP3321044A4 (en)*2015-08-252019-05-29Kawasaki Jukogyo Kabushiki KaishaRemote control manipulator system and operation method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
WO1993025355A1 (en)*1992-06-051993-12-23Fujitsu LimitedSimulation method for manipulator and apparatus therefor, simulation and control method for manipulator and apparatus therefor, and control method for manipulator and apparatus therefor
US5526254A (en)*1992-06-051996-06-11Fujitsu LimitedSimulation method and apparatus for manipulator apparatus, simulation and control method and apparatus for manipulator apparatus, and control method and apparatus for manipulator apparatus
WO2015055085A1 (en)*2013-10-182015-04-23中广核检测技术有限公司Intelligent testing method of nondestructive robot testing based on virtual reality technology
EP3321044A4 (en)*2015-08-252019-05-29Kawasaki Jukogyo Kabushiki KaishaRemote control manipulator system and operation method thereof
US10980606B2 (en)2015-08-252021-04-20Kawasaki Jukogyo Kabushiki KaishaRemote-control manipulator system and method of operating the same
CN106094575A (en)*2016-08-262016-11-09中南大学A kind of robotic conveyance's virtual visualization control method and system
CN106094575B (en)*2016-08-262017-05-17中南大学Virtual visual control method and virtual visual control system for robot transportation

Similar Documents

PublicationPublication DateTitle
Ong et al.Augmented reality-assisted robot programming system for industrial applications
CN110394780B (en)Simulation device of robot
CN110977931B (en)Robot control device and display device using augmented reality and mixed reality
EP3342561B1 (en)Remote control robot system
EP2923806A1 (en)Robot control device, robot, robotic system, teaching method, and program
US10166673B2 (en)Portable apparatus for controlling robot and method thereof
US20150239127A1 (en)Visual debugging of robotic tasks
Fang et al.Novel AR-based interface for human-robot interaction and visualization
JP2004243516A (en)Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment
JP5108032B2 (en) Multi-joint structure teaching device
CN111093911A (en)Robot system and method for operating the same
CN115916480A (en) Robot Teaching Method and Robot Working Method
CN114734466B (en)Mobile robot chemical experiment operation system and method
JPH04269185A (en)Remote control device for robot
Pedersen et al.Using human gestures and generic skills to instruct a mobile robot arm in a feeder filling scenario
Yang et al.An augmented-reality based human-robot interface for robotics programming in the complex environment
JP7068416B2 (en) Robot control device using augmented reality and mixed reality, computer program for defining the position and orientation of the robot, method for defining the position and orientation of the robot, computer program for acquiring the relative position and orientation, and method for acquiring the relative position and orientation.
CN111899629B (en)Flexible robot teaching system and method
Brunner et al.Programming robots via learning by showing in a virtual environment
Raptis et al.RobotIQ: Empowering Mobile Robots with Human-Level Planning for Real-World Execution
JPH03287394A (en)Remote handling device
Sun et al.Direct virtual-hand interface in robot assembly programming
Tennakoon et al.A Mixed Reality Human Robot Interaction Interface Using Hand Tracking and Stereo Vision for Construction Applications
JP7340069B1 (en) Marker position registration program, marker position registration device, marker position registration method, and marker used for the method
SaadDevelopment & Validation of an Augmented-Reality-Based System for Intuitive Robot Programming

Legal Events

DateCodeTitleDescription
A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:19981117


[8]ページ先頭

©2009-2025 Movatter.jp