Movatterモバイル変換


[0]ホーム

URL:


JP2020157467A - Robot system - Google Patents

Robot system
Download PDF

Info

Publication number
JP2020157467A
JP2020157467AJP2019099562AJP2019099562AJP2020157467AJP 2020157467 AJP2020157467 AJP 2020157467AJP 2019099562 AJP2019099562 AJP 2019099562AJP 2019099562 AJP2019099562 AJP 2019099562AJP 2020157467 AJP2020157467 AJP 2020157467A
Authority
JP
Japan
Prior art keywords
work
robot
sensor
information
robot system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019099562A
Other languages
Japanese (ja)
Inventor
省吾 長谷川
Shogo Hasegawa
省吾 長谷川
吉田 哲也
Tetsuya Yoshida
哲也 吉田
掃部 雅幸
Masayuki Kamon
雅幸 掃部
裕和 杉山
Hirokazu Sugiyama
裕和 杉山
知文 岡元
Tomofumi Okamoto
知文 岡元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries LtdfiledCriticalKawasaki Heavy Industries Ltd
Priority to EP20778191.5ApriorityCriticalpatent/EP3943256A4/en
Priority to CN202080023235.6Aprioritypatent/CN113631333A/en
Priority to PCT/JP2020/011032prioritypatent/WO2020195928A1/en
Priority to KR1020217031977Aprioritypatent/KR102681939B1/en
Priority to US17/438,583prioritypatent/US12011838B2/en
Priority to TW109108949Aprioritypatent/TWI799686B/en
Publication of JP2020157467ApublicationCriticalpatent/JP2020157467A/en
Priority to JP2021190666Aprioritypatent/JP7594520B2/en
Priority to JP2023147752Aprioritypatent/JP7594643B2/en
Pendinglegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Translated fromJapanese

【課題】操作者の負担を軽減して、作業効率を向上させることができる、ロボットシステムを提供することを目的とする。【解決手段】作業エリア201内に設置されているロボット101と、操作者が把持して、ロボット101を操作するように構成されている操作器102と、操作エリア202に配置され、操作器102の位置情報及び姿勢情報を無線で検出するセンサ103と、センサ103が検出した操作器102の位置情報及び姿勢情報を基に、操作器102の軌跡を算出し、リアルタイムでロボット101を動作させるように構成されている、制御装置110と、を備える、ロボットシステム。【選択図】図1PROBLEM TO BE SOLVED: To provide a robot system capable of reducing a burden on an operator and improving work efficiency. SOLUTION: A robot 101 installed in a work area 201, an operation device 102 configured to be gripped by an operator to operate the robot 101, and an operation device 102 arranged in an operation area 202. Based on the position information and attitude information of the sensor 103 that wirelessly detects the position information and attitude information of the robot and the position information and attitude information of the actuator 102 detected by the sensor 103, the locus of the actuator 102 is calculated and the robot 101 is operated in real time. A robot system comprising a control device 110, which is configured in. [Selection diagram] Fig. 1

Description

Translated fromJapanese

本発明は、ロボットシステムに関する。 The present invention relates to a robot system.

教示用手吹きガンの動作を検出して、塗装ロボットに対して、動作を教示するロボットの動作制御データ生成方法が知られている(例えば、特許文献1参照)。特許文献1に開示されているロボットの動作制御データ生成方法では、噴射区間においてロボットの噴射ガンの移動経路を直線又は曲線に沿って移動するように、動作制御データを生成している。 A method of generating motion control data of a robot that detects the motion of a hand-blown gun for teaching and teaches the motion to a painting robot is known (see, for example, Patent Document 1). In the robot motion control data generation method disclosed in Patent Document 1, motion control data is generated so as to move the movement path of the robot injection gun along a straight line or a curve in the injection section.

特開2018−1381号公報Japanese Unexamined Patent Publication No. 2018-1381

しかしながら、上記特許文献1に開示されているロボットの動作制御データ生成方法では、ロボットの動作を教示するプログラムを作成した後に、当該プログラムに沿ってロボットを動作させている。このため、ロボットが正確に塗装できなかった場合には、再度プログラムを作成する、又は作成されたプログラムを修正する必要があり、ティーチング作業に時間がかかる。 However, in the robot motion control data generation method disclosed in Patent Document 1, after creating a program for teaching the robot motion, the robot is operated according to the program. Therefore, if the robot cannot paint accurately, it is necessary to create a program again or modify the created program, which takes time for teaching work.

したがって、上記特許文献1に開示されているロボットの動作制御データ生成方法には、作業効率の向上の観点から未だ改善の余地があった。 Therefore, there is still room for improvement in the robot motion control data generation method disclosed in Patent Document 1 from the viewpoint of improving work efficiency.

本発明は、上記従来の課題を解決するもので、操作者の負担を軽減して、作業効率を向上させることができる、ロボットシステムを提供することを目的とする。 An object of the present invention is to solve the above-mentioned conventional problems, and to provide a robot system capable of reducing the burden on the operator and improving the work efficiency.

上記従来の課題を解決するために、本発明に係るロボットシステムは、作業エリア内に設置され、ワークに液体を噴霧又は噴射するように、及び/又は前記ワークを切削又は研磨するように、構成されているロボットと、操作者が把持して、前記ロボットを操作するように構成されている操作器と、操作エリアに配置され、前記操作器の位置情報及び姿勢情報を無線で検出するセンサと、制御装置と、を備え、前記制御装置は、前記センサが検出した前記操作器の位置情報及び姿勢情報を基に、当該操作器の軌跡を算出し、リアルタイムで前記ロボットを動作させるように構成されている。 In order to solve the above-mentioned conventional problems, the robot system according to the present invention is installed in a work area and is configured to spray or spray a liquid on a work and / or to cut or polish the work. A robot that is operated, an operator that is configured to be grasped by an operator to operate the robot, and a sensor that is arranged in an operation area and wirelessly detects position information and attitude information of the operator. The control device is configured to calculate the trajectory of the actuator based on the position information and the attitude information of the actuator detected by the sensor and operate the robot in real time. Has been done.

これにより、操作者がリアルタイムでロボットを動作(操作)させることができるので、操作者は、ロボットによるワークへの作業動作が正確に実行されているか否かを瞬時に判断することができる。このため、上記特許文献1に開示されているロボットの動作制御データ生成方法に比して、ティーチング作業にかかる時間を短縮することができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。 As a result, the operator can operate (operate) the robot in real time, so that the operator can instantly determine whether or not the work operation on the work by the robot is accurately executed. Therefore, the time required for the teaching work can be shortened as compared with the robot motion control data generation method disclosed in Patent Document 1. Therefore, the burden on the operator can be reduced and the work efficiency can be improved.

本発明のロボットシステムによれば、操作者の負担を軽減して、作業効率を向上させることができる。 According to the robot system of the present invention, the burden on the operator can be reduced and the work efficiency can be improved.

図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。FIG. 1 is a schematic diagram showing a schematic configuration of a robot system according to the first embodiment.図2は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。FIG. 2 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.図3は、本実施の形態1における変形例2のロボットシステムの概略構成を示す模式図である。FIG. 3 is a schematic diagram showing a schematic configuration of the robot system of the modified example 2 in the first embodiment.図4は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。FIG. 4 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.図5は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。FIG. 5 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.図6は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。FIG. 6 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.

以下、本発明の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本発明を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本発明は以下の実施の形態に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, the same or corresponding parts are designated by the same reference numerals, and duplicate description will be omitted. In addition, in all the drawings, the components for explaining the present invention are excerpted and shown, and the other components may be omitted. Furthermore, the present invention is not limited to the following embodiments.

(実施の形態1)
本実施の形態1に係るロボットシステムは、作業エリア内に設置され、ワークに液体を噴霧又は噴射するように構成されているロボットと、操作者が把持して、ロボットを操作するように構成されている操作器と、操作エリアに配置され、操作器の位置情報及び姿勢情報を無線で検出するセンサと、制御装置と、を備え、制御装置は、センサが検出した操作器の位置情報及び姿勢情報を基に、当該操作器の軌跡を算出し、リアルタイムでロボットを動作させるように構成されている。
(Embodiment 1)
The robot system according to the first embodiment is configured to operate the robot by being grasped by an operator and a robot installed in a work area and configured to spray or inject liquid onto a work. The control device includes a control device, a sensor that is arranged in the operation area and wirelessly detects the position information and the attitude information of the operation device, and the control device. Based on the information, the trajectory of the actuator is calculated and the robot is operated in real time.

また、本実施の形態1に係るロボットシステムでは、制御装置が、センサが検出した操作器の位置情報及び姿勢情報を基に、操作器の軌跡を算出し、算出した軌跡に基づいて、リアルタイムでワークに液体又は気体を噴射する噴射作業、ワークを切削する切削作業、及びワークを研磨する研磨作業の内、いずれかの作業をロボットに実行させるように構成されていてもよい。 Further, in the robot system according to the first embodiment, the control device calculates the locus of the actuator based on the position information and the attitude information of the actuator detected by the sensor, and based on the calculated locus, in real time. The robot may be configured to perform any of the injection work of injecting liquid or gas onto the work, the cutting work of cutting the work, and the polishing work of polishing the work.

また、本実施の形態1に係るロボットシステムでは、操作器の把持部には、操作者に触覚を与えるように構成されている、第1機器が設けられていて、制御装置は、記憶器を有し、記憶器には、ワークに液体又は気体を噴射する噴射作業、ワークを切削する切削作業、及びワークを研磨する研磨作業の内、いずれかの作業の熟練者の操作による操作器の軌跡情報である第1情報が記憶されていて、制御装置は、記憶器に記憶されている第1情報に基づいて、操作者を誘導するように、第1機器を動作させてもよい。 Further, in the robot system according to the first embodiment, the grip portion of the operating device is provided with a first device configured to give a tactile sensation to the operator, and the control device uses a storage device. The storage device has a locus of the actuator operated by a skilled person in any of the injection work of injecting liquid or gas into the work, the cutting work of cutting the work, and the polishing work of polishing the work. The first information, which is information, is stored, and the control device may operate the first device so as to guide the operator based on the first information stored in the storage device.

さらに、本実施の形態1に係るロボットシステムでは、制御装置は、ロボットが、予め設定されている動作範囲外に移動するおそれがある場合、ロボットが、動作範囲外に接近した場合、又はロボットが、動作範囲内であっても、移動が禁止されている領域に移動するおそれがある場合には、第1機器を制御して、警告となるような触覚を操作者に与えるように構成されていてもよい。 Further, in the robot system according to the first embodiment, the control device is used when the robot may move out of the preset operating range, when the robot approaches the operating range, or when the robot approaches the operating range. , Even if it is within the operating range, if there is a risk of moving to an area where movement is prohibited, it is configured to control the first device and give the operator a tactile sensation that gives a warning. You may.

以下、本実施の形態1に係るロボットシステムの一例について、図1を参照しながら説明する。 Hereinafter, an example of the robot system according to the first embodiment will be described with reference to FIG.

[ロボットシステムの構成]
図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。
[Robot system configuration]
FIG. 1 is a schematic diagram showing a schematic configuration of a robot system according to the first embodiment.

図1に示すように、本実施の形態1に係るロボットシステム100は、作業エリア201内に設置されているロボット101、操作器102、操作エリア202に配置されているセンサ103、及び制御装置110を備え、制御装置110は、センサ103が検出した操作器102の3次元空間上の位置情報及び姿勢情報を基に、リアルタイムでロボット101を動作させるように構成されている。なお、ロボット101は、ワーク104に液体を噴霧又は噴射、又はワーク104を切削又は研磨するように、構成されている。 As shown in FIG. 1, therobot system 100 according to the first embodiment includes arobot 101 installed in thework area 201, anoperation device 102, asensor 103 arranged in theoperation area 202, and acontrol device 110. Thecontrol device 110 is configured to operate therobot 101 in real time based on the position information and the attitude information in the three-dimensional space of theactuator 102 detected by thesensor 103. Therobot 101 is configured to spray or inject a liquid onto thework 104, or to cut or polish thework 104.

作業エリア201と操作エリア202との間には、壁部材203が配置されている。壁部材203には、作業エリア201内に配置されているロボット101を視認することができるように、窓204が設けられている。なお、本実施の形態1においては、作業エリア201と操作エリア202との間に、壁部材203が配置されている形態を採用したが、これに限定されず、壁部材203が配置されていない形態を採用してもよい。 Awall member 203 is arranged between thework area 201 and theoperation area 202. Thewall member 203 is provided with awindow 204 so that therobot 101 arranged in thework area 201 can be visually recognized. In the first embodiment, thewall member 203 is arranged between thework area 201 and theoperation area 202, but the present invention is not limited to this, and thewall member 203 is not arranged. The form may be adopted.

センサ103は、例えば、操作器102の先端部の位置情報及び姿勢情報を無線で検出し、制御装置110に出力するように構成されている。なお、センサ103は、制御装置110への出力は無線で行ってもよく、有線で行ってもよい。 Thesensor 103 is configured to wirelessly detect, for example, the position information and the posture information of the tip of theactuator 102 and output them to thecontrol device 110. Thesensor 103 may output to thecontrol device 110 wirelessly or by wire.

センサ103としては、例えば、赤外線センサで構成されていてもよく、カメラで構成されていてもよい。なお、センサ103が、カメラで構成されている場合には、当該カメラは、操作エリア202内に配設されていなくてもよい。例えば、カメラは、操作者が携帯している携帯端末又はヘッドマウントディスプレイ等に設置されているカメラであってもよい。 As thesensor 103, for example, it may be composed of an infrared sensor or a camera. When thesensor 103 is composed of a camera, the camera may not be arranged in theoperation area 202. For example, the camera may be a camera installed on a mobile terminal or a head-mounted display carried by the operator.

操作器102は、操作者が把持部102Aを把持して、ロボット101を操作するように構成されている。具体的には、把持している操作器102における本体部102Eの先端部の軌跡を追従するように、ロボット101が動作することで、操作者は、操作エリア202内で操作器102により、ロボット101を直感的に操作することができる。 Theactuator 102 is configured so that the operator grips thegrip portion 102A and operates therobot 101. Specifically, therobot 101 operates so as to follow the trajectory of the tip of themain body 102E of thegripping actuator 102, so that the operator can use theactuator 102 in theoperation area 202 to perform the robot. The 101 can be operated intuitively.

把持部102Aには、後述するロボット101のエンドエフェクタ20に設けられた力覚センサが検知した力覚情報、又は音声情報を操作者に伝達するように構成されている機器を配置してもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部102Aを構成する筐体を伸縮させる機構等が挙げられる。 Thegrip portion 102A may be provided with a device configured to transmit the force sense information or voice information detected by the force sense sensor provided in theend effector 20 of therobot 101, which will be described later, to the operator. .. Examples of the device include a vibration motor, a speaker, a mechanism for expanding and contracting the housing constituting thegrip portion 102A, and the like.

また、操作器102には、ワーク104に液体を噴霧又は気体を噴射、又はワーク104を切削又は研磨の開始/停止するスイッチ102Bが設けられていてもよい。なお、操作器102は、操作者が携帯して、持ち運び可能に構成されていてもよい。また、操作器102の本体部102Eは、ロボット101のエンドエフェクタ20と同様の形状に形成されていてもよい。 Further, theactuator 102 may be provided with aswitch 102B for spraying a liquid or injecting a gas onto thework 104, or starting / stopping the cutting or polishing of thework 104. Theactuator 102 may be configured to be portable and portable by the operator. Further, themain body 102E of theactuator 102 may be formed in the same shape as theend effector 20 of therobot 101.

ロボット101は、複数のリンク(ここでは、第1リンク11a〜第6リンク11f)の連接体と、複数の関節(ここでは、第1関節JT1〜第6関節JT6)と、これらを支持する基台15と、を備える、垂直多関節ロボットアームである。なお、本実施の形態1においては、ロボット101として、垂直多関節型ロボットを採用したが、これに限定されず、水平多関節型ロボットを採用してもよい。 Therobot 101 includes an articulated body of a plurality of links (here, thefirst link 11a to thesixth link 11f), a plurality of joints (here, the first joint JT1 to the sixth joint JT6), and a group supporting these. A vertical articulated robot arm including abase 15. In the first embodiment, a vertical articulated robot is adopted as therobot 101, but therobot 101 is not limited to this, and a horizontal articulated robot may be adopted.

第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。 In the first joint JT1, thebase 15 and the base end portion of thefirst link 11a are rotatably connected around an axis extending in the vertical direction. In the second joint JT2, the tip end portion of thefirst link 11a and the base end portion of thesecond link 11b are rotatably connected around an axis extending in the horizontal direction. In the third joint JT3, the tip end portion of thesecond link 11b and the base end portion of thethird link 11c are rotatably connected around an axis extending in the horizontal direction.

また、第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結されている。 Further, in the fourth joint JT4, the tip end portion of thethird link 11c and the base end portion of thefourth link 11d are rotatably connected around an axis extending in the longitudinal direction of thefourth link 11d. In the fifth joint JT5, the tip end portion of thefourth link 11d and the base end portion of thefifth link 11e are rotatably connected around an axis orthogonal to the longitudinal direction of thefourth link 11d. In the sixth joint JT6, the tip end portion of thefifth link 11e and the base end portion of thesixth link 11f are rotatably connected to each other.

そして、第6リンク11fの先端部には、メカニカルインターフェースが設けられている。このメカニカルインターフェースには、作業内容に対応したエンドエフェクタ20が着脱可能に装着される。 A mechanical interface is provided at the tip of thesixth link 11f. Anend effector 20 corresponding to the work content is detachably attached to this mechanical interface.

エンドエフェクタ20は、ここでは、ワーク104に液体(例えば、塗料等)を噴霧又は噴射するように構成されている。また、エンドエフェクタ20には、液体を当該エンドエフェクタ20に供給するための配管21が接続されている。 Theend effector 20 is configured here to spray or spray a liquid (eg, paint, etc.) onto thework 104. Further, apipe 21 for supplying a liquid to theend effector 20 is connected to theend effector 20.

また、第1関節JT1〜第6関節JT6には、それぞれ、各関節が連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータが設けられている(図示せず)。駆動モータは、例えば、制御装置110によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1〜第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサと、が設けられている(それぞれ、図示せず)。回転センサは、例えば、エンコーダであってもよい。 Further, each of the first joint JT1 to the sixth joint JT6 is provided with a drive motor as an example of an actuator that relatively rotates two members connected to each joint (not shown). The drive motor may be, for example, a servomotor that is servo-controlled by thecontrol device 110. Further, each of the first joint JT1 to the sixth joint JT6 is provided with a rotation sensor for detecting the rotation position of the drive motor and a current sensor for detecting the current for controlling the rotation of the drive motor (each of them). , Not shown). The rotation sensor may be, for example, an encoder.

制御装置110は、マイクロプロセッサ、CPU等の演算器110aと、ROM、RAM等の記憶器110bと、を備えている。記憶器110bには、基本プログラム、各種固定データ等の情報が記憶されている。演算器110aは、記憶器110bに記憶された基本プログラム等のソフトウェアを読み出して実行することにより、ロボット101の各種動作を制御する。 Thecontrol device 110 includes anarithmetic unit 110a such as a microprocessor and a CPU, and astorage device 110b such as a ROM and RAM. Information such as a basic program and various fixed data is stored in thestorage device 110b. Thearithmetic unit 110a controls various operations of therobot 101 by reading and executing software such as a basic program stored in thestorage unit 110b.

また、制御装置110は、センサ103から入力された操作器102の位置情報及び姿勢情報を基に、操作器102の先端部の動きに追従するように、ロボット101(エンドエフェクタ20)を動作させるように構成されている。 Further, thecontrol device 110 operates the robot 101 (end effector 20) so as to follow the movement of the tip portion of theactuator 102 based on the position information and the posture information of theactuator 102 input from thesensor 103. It is configured as follows.

すなわち、制御装置110は、センサ103が検出した操作器102の位置情報及び姿勢情報を基に、操作器102の軌跡を算出し、リアルタイムでロボット101を動作させるように構成されている。 That is, thecontrol device 110 is configured to calculate the trajectory of theactuator 102 based on the position information and the attitude information of theactuator 102 detected by thesensor 103, and operate therobot 101 in real time.

具体的には、制御装置110は、センサ103が検出した操作器102の位置情報及び姿勢情報を基に、操作器102の軌跡を算出し、算出した軌跡に基づいて、リアルタイムでワーク104に液体又は気体を噴射する噴射作業、ワーク104を切削する切削作業、及びワーク104を研磨する研磨作業の内、いずれかの作業をロボット101に実行させるように構成されている。 Specifically, thecontrol device 110 calculates the locus of theactuator 102 based on the position information and the attitude information of theactuator 102 detected by thesensor 103, and based on the calculated locus, thework 104 is liquid in real time. Alternatively, therobot 101 is configured to perform any of the injection work of injecting gas, the cutting work of cutting thework 104, and the polishing work of polishing thework 104.

ここで、噴射作業、切削作業及び研磨作業の「作業」とは、ロボット101が、ワーク104に対して実行する一連の動作を言い、複数の動作を含む概念である。作業は、例えば、ロボット101が、ワーク104に近接する動作、ワーク104に対して、液体の噴射等を開始する動作、液体の噴射等を停止する動作、及びワーク104から離間する動作を含む。 Here, the "work" of the injection work, the cutting work, and the polishing work refers to a series of operations performed by therobot 101 on thework 104, and is a concept including a plurality of operations. The work includes, for example, an operation in which therobot 101 approaches thework 104, an operation in which the liquid injection or the like is started with respect to thework 104, an operation in which the liquid injection or the like is stopped, and an operation in which therobot 101 is separated from thework 104.

なお、制御装置110は、集中制御する単独の制御装置110によって構成されていてもよいし、互いに協働して分散制御する複数の制御装置110によって構成されていてもよい。また、制御装置110は、マイクロコンピュータで構成されていてもよく、MPU、PLC(Programmable Logic Controller)、論理回路等によって構成されていてもよい。 Thecontrol device 110 may be composed of asingle control device 110 for centralized control, or may be composed of a plurality ofcontrol devices 110 for distributed control in cooperation with each other. Further, thecontrol device 110 may be composed of a microcomputer, an MPU, a PLC (Programmable Logic Controller), a logic circuit, or the like.

このように構成された、本実施の形態1に係るロボットシステム100では、制御装置110が、センサ103が検出した操作器102の位置情報及び姿勢情報を基に、操作器102の軌跡を算出し、リアルタイムでロボット101を動作させるように構成されている。 In therobot system 100 according to the first embodiment configured in this way, thecontrol device 110 calculates the locus of theactuator 102 based on the position information and the posture information of theactuator 102 detected by thesensor 103. , It is configured to operate therobot 101 in real time.

これにより、操作者は、リアルタイムでロボット101を操作させることができるので、直感的にロボット101を操作することができる。また、ロボット101によるワーク104への作業動作が正確に実行されているか否かを瞬時に判断することができる。このため、上記特許文献1に開示されているロボットの動作制御データ生成方法に比して、ティーチング作業にかかる時間を短縮することができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。 As a result, the operator can operate therobot 101 in real time, so that therobot 101 can be operated intuitively. In addition, it is possible to instantly determine whether or not the work operation on thework 104 by therobot 101 is accurately executed. Therefore, the time required for the teaching work can be shortened as compared with the robot motion control data generation method disclosed in Patent Document 1. Therefore, the burden on the operator can be reduced and the work efficiency can be improved.

なお、制御装置110は、把持部102Aに設けられている振動モータ等の触覚を与える機器(アクチュエータ)であり、ハプティクス技術を実行するための第1機器を制御して、操作者に振動等の触覚を与えてもよい。 Thecontrol device 110 is a device (actuator) that gives a tactile sensation such as a vibration motor provided in thegrip portion 102A, and controls the first device for executing the haptics technique to cause the operator to vibrate or the like. It may be tactile.

この場合、制御装置110は、例えば、噴射作業、切削作業及び研磨作業等の作業の熟練者が、操作器102を移動させる(操作する)ことにより生じる、操作器102の軌跡を算出し、算出した算出した軌跡に基づいて、ロボット101に実行させた作業(操作器102の軌跡情報である、第1情報)を記憶器110bに記憶させてもよい。 In this case, thecontrol device 110 calculates and calculates the locus of theactuator 102, which is generated when a skilled person in operations such as injection work, cutting work, and polishing work moves (operates) theactuator 102. The work executed by the robot 101 (first information, which is the locus information of the actuator 102) may be stored in thestorage device 110b based on the calculated locus.

また、制御装置110は、記憶器110bに記憶した、熟練者の操作による操作器102の軌跡情報に従って、ロボット101を動作させてもよい。 Further, thecontrol device 110 may operate therobot 101 according to the locus information of theoperation device 102 stored in thestorage device 110b by the operation of a skilled person.

さらに、制御装置110は、把持部102Aに設けられている振動モータ等の第1機器を制御して、記憶器110bに記憶されている熟練者の操作による操作器102の軌跡を追随できるように、第1情報を基に、操作者に振動等の触覚を与えてもよい。これにより、当該作業が未熟な操作者に、熟練者の作業を教示することができる。 Further, thecontrol device 110 controls a first device such as a vibration motor provided in thegrip portion 102A so that the locus of theoperation device 102 stored in thestorage device 110b by an expert operation can be followed. , The operator may be given a tactile sensation such as vibration based on the first information. This makes it possible to teach an operator who is inexperienced in the work the work of a skilled person.

また、制御装置110は、ロボット101が、予め設定されている動作範囲外に移動するおそれがある場合、ロボット101が、動作範囲外に接近した場合、又はロボット101が、動作範囲内であっても、移動が禁止されている領域に移動するおそれがある場合には、把持部102Aに設けられている振動モータ等の第1機器を制御して、警告となるような振動等の触覚を操作者に与えてもよい。 Further, in thecontrol device 110, when therobot 101 may move out of the preset operating range, when therobot 101 approaches outside the operating range, or when therobot 101 is within the operating range. However, if there is a risk of moving to an area where movement is prohibited, the first device such as a vibration motor provided in thegrip portion 102A is controlled to operate a tactile sense such as vibration that gives a warning. You may give it to someone.

ここで、「警告となるような触覚」とは、振動の加速度等が予め設定されている所定値よりも大きい触覚をいい、例えば、操作者に55dB以上の振動を与えることであってもよく、操作者に65dB以上の振動を与えることであってもよい。また、「警告となるような触覚」は、記憶器110bに記憶されている第1情報を基に、操作者に与える振動等の触覚よりも大きな触覚(振動)を与えることであってもよい。 Here, the "tactile sensation that gives a warning" means a tactile sensation in which the acceleration of vibration or the like is larger than a preset predetermined value, and may be, for example, giving the operator a vibration of 55 dB or more. , The operator may be given a vibration of 65 dB or more. Further, the "tactile sensation that gives a warning" may be to give a tactile sensation (vibration) larger than the tactile sensation such as vibration given to the operator based on the first information stored in thestorage device 110b. ..

[変形例1]
次に、本実施の形態1に係るロボットシステムの変形例について、説明する。
[Modification 1]
Next, a modified example of the robot system according to the first embodiment will be described.

本実施の形態1における変形例1のロボットシステムは、ロボットが、ワークを切削又は研磨するように、構成されている。 The robot system of the first modification in the first embodiment is configured such that the robot cuts or polishes the work.

以下、本実施の形態1における変形例1のロボットシステムの一例について、図2を参照しながら説明する。 Hereinafter, an example of the robot system of the modified example 1 in the first embodiment will be described with reference to FIG.

図2は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。 FIG. 2 is a schematic diagram showing a schematic configuration of the robot system of the modified example 1 in the first embodiment.

図2に示すように、本変形例1のロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、ロボット101のエンドエフェクタ20が、ワーク104に対して、切削又は研磨するように構成されている点が異なる。具体的には、エンドエフェクタ20は、例えば、ドリル、エンドミル、又はリーマ―等の切削工具を有していて、ワーク104を切削するように構成されていてもよい。また、エンドエフェクタ20は、例えば、砥石等の研磨材を有していて、ワーク104を研磨するように構成されていてもよい。 As shown in FIG. 2, therobot system 100 of the present modification 1 has the same basic configuration as therobot system 100 according to the first embodiment, but theend effector 20 of therobot 101 with respect to thework 104. The difference is that it is configured to be cut or polished. Specifically, theend effector 20 may have a cutting tool such as a drill, an end mill, or a reamer, and may be configured to cut thework 104. Further, theend effector 20 may have a polishing material such as a grindstone and may be configured to polish thework 104.

このように構成された、本変形例1のロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。 Even therobot system 100 of the present modification 1 configured in this way has the same action and effect as therobot system 100 according to the first embodiment.

[変形例2]
本実施の形態1における変形例1のロボットシステムは、操作器に当該操作器の位置情報及び姿勢情報を無線で検出する検出器が設けられていて、操作エリア内に検出器が検出した操作器の位置情報及び姿勢情報を制御装置に送信する送信器が配置されている。
[Modification 2]
In the robot system of the first modification of the first embodiment, the operating device is provided with a detector that wirelessly detects the position information and the posture information of the operating device, and the operating device detected by the detector in the operating area. A transmitter is arranged to transmit the position information and the attitude information of the above to the control device.

以下、本実施の形態1における変形例2のロボットシステムの一例について、図3を参照しながら説明する。 Hereinafter, an example of the robot system of the modified example 2 in the first embodiment will be described with reference to FIG.

図3は、本実施の形態1における変形例2のロボットシステムの概略構成を示す模式図である。 FIG. 3 is a schematic diagram showing a schematic configuration of the robot system of the modified example 2 in the first embodiment.

図3に示すように、本変形例2のロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、操作器102に当該操作器102の位置情報及び/又は姿勢情報を無線で検出する検出器12が設けられている点と、検出器12が検出した操作器102の位置情報及び/又は姿勢情報を制御装置110の送信する送信器13が設けられている点と、が異なる。検出器12としては、例えば、ジャイロセンサであってもよく、カメラであってもよい。 As shown in FIG. 3, therobot system 100 of the present modification 2 has the same basic configuration as therobot system 100 according to the first embodiment, but theoperating device 102 has the position information and / or the position information of theoperating device 102. Adetector 12 for wirelessly detecting the attitude information is provided, and atransmitter 13 for transmitting the position information and / or the attitude information of theactuator 102 detected by thedetector 12 by thecontrol device 110 is provided. The point is different. Thedetector 12 may be, for example, a gyro sensor or a camera.

なお、本変形例2においては、検出器12と送信器13がセンサ103を構成する。 In the second modification, thedetector 12 and thetransmitter 13 form thesensor 103.

このように構成された、本変形例2のロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。 Even therobot system 100 of the second modification, which is configured in this way, has the same action and effect as therobot system 100 according to the first embodiment.

(実施の形態2)
本実施の形態2に係るロボットシステムは、実施の形態1(変形例を含む)に係るロボットシステムにおいて、作業エリアは、複数の作業区画に区分されていて、操作エリアは、複数の操作区画に区分されていて、ロボットは、作業区画毎に配置されていて、センサは、操作区画毎に配置されていて、制御装置は、第N操作区画に配置されているセンサが検出した操作器の位置情報及び姿勢情報を基に、第N作業区画に配置されているロボットを動作させるように構成されている。なお、Nは自然数である。
(Embodiment 2)
In the robot system according to the second embodiment, in the robot system according to the first embodiment (including a modification), the work area is divided into a plurality of work sections, and the operation area is divided into a plurality of operation sections. The robots are arranged in each work area, the sensors are arranged in each operation area, and the control device is the position of the operator detected by the sensor arranged in the Nth operation area. It is configured to operate the robots arranged in the Nth work section based on the information and the attitude information. N is a natural number.

また、本実施の形態2に係るロボットシステムでは、操作器は、センサが検出した当該操作器の位置情報及び姿勢情報の出力のON/OFFを切換る切換器をさらに有していてもよい。 Further, in the robot system according to the second embodiment, the operating device may further have a switching device for switching ON / OFF of the output of the position information and the posture information of the operating device detected by the sensor.

以下、本実施の形態2に係るロボットシステムの一例について、図4を参照しながら説明する。 Hereinafter, an example of the robot system according to the second embodiment will be described with reference to FIG.

[ロボットシステムの構成]
図4は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。
[Robot system configuration]
FIG. 4 is a schematic diagram showing a schematic configuration of the robot system according to the second embodiment.

図4に示すように、本実施の形態2に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、作業エリア201が、複数(ここでは、2つ)の壁部材205A、205Bにより、複数(ここでは、3つ)の作業区画201A〜201Cに区分されている点と、操作エリア202が、複数(ここでは、2つ)の壁部材206A、206Bにより、複数(ここでは、3つ)の操作区画202A〜202Cに区分されている点と、ロボット101が、作業区画毎に配置されていて、センサ103が、操作区画毎に配置されている点と、が異なる。 As shown in FIG. 4, therobot system 100 according to the second embodiment has the same basic configuration as therobot system 100 according to the first embodiment, but has a plurality of work areas 201 (here, two). ) Is divided into a plurality of (three in this case)work sections 201A to 201C by thewall members 205A and 205B, and theoperation area 202 is a plurality of (two in this case)wall members 206A and 206B. The points are divided into a plurality of (three in this case)operation sections 202A to 202C, and therobot 101 is arranged in each work section and thesensor 103 is arranged in each operation section. And are different.

なお、各作業区画に配置されているロボット101を区別する必要がある場合には、作業区画201Aに配置されているロボットをロボット101Aと称し、作業区画201Bに配置されているロボットをロボット101Bと称し、作業区画201Cに配置されているロボットをロボット101Cと称する。同様に、各操作区画に配置されているセンサ103を区別する必要がある場合には、操作区画202Aに配置されているセンサをセンサ103Aと称し、操作区画202Bに配置されているセンサをセンサ103Bと称し、操作区画202Cに配置されているセンサをセンサ103Cと称する。 When it is necessary to distinguish therobots 101 arranged in each work area, the robot arranged in thework area 201A is referred to as arobot 101A, and the robot arranged in thework area 201B is referred to as arobot 101B. The robot arranged in thework area 201C is referred to as arobot 101C. Similarly, when it is necessary to distinguish thesensors 103 arranged in each operation compartment, the sensor arranged in theoperation compartment 202A is referred to as thesensor 103A, and the sensor arranged in theoperation compartment 202B is referred to as thesensor 103B. The sensor arranged in theoperation compartment 202C is referred to as asensor 103C.

また、本実施の形態2に係るロボットシステム100では、操作器102は、センサ103が検出した当該操作器102の位置情報及び姿勢情報の出力のON/OFFを切換える切換器102Cをさらに有している。 Further, in therobot system 100 according to the second embodiment, theactuator 102 further includes aselector 102C for switching ON / OFF of the output of the position information and the posture information of theactuator 102 detected by thesensor 103. There is.

操作者は、例えば、操作区画202Aから操作区画202Cに移動する場合に、操作区画202A内で、切換器102Cを操作して、位置情報及び姿勢情報の出力をOFFにし、操作区画202Cに移動した後に、切換器102Cを操作して、センサ103Cの出力をONにしてもよい。 For example, when moving from theoperation section 202A to theoperation section 202C, the operator operates theswitch 102C in theoperation section 202A to turn off the output of the position information and the attitude information, and moves to theoperation section 202C. Later, theswitch 102C may be operated to turn on the output of thesensor 103C.

さらに、本実施の形態2に係るロボットシステム100では、制御装置110が、作業区画毎に配置されている。なお、各作業区画に配置されている制御装置110を区別する必要がある場合には、作業区画201Aに配置されている制御装置を制御装置110Aと称し、作業区画201Bに配置されている制御装置を制御装置110Bと称し、作業区画201Cに配置されている制御装置を制御装置110Cと称する。 Further, in therobot system 100 according to the second embodiment, thecontrol device 110 is arranged for each work section. When it is necessary to distinguish thecontrol devices 110 arranged in each work area, the control device arranged in thework area 201A is referred to as acontrol device 110A, and the control device arranged in thework area 201B is referred to as acontrol device 110A. Is referred to as acontrol device 110B, and the control device arranged in thework compartment 201C is referred to as acontrol device 110C.

そして、本実施の形態2においては、各作業区画201A〜201Cに配置されている制御装置110A〜110Cが、当該作業区画201A〜201Cに配置されているロボット101A〜101Cを制御するように構成されているが、これに限定されない。各作業区画201A〜201Cに配置されているロボット101A〜101Cを1つの制御装置110が制御するように構成されていてもよい。 Then, in the second embodiment, thecontrol devices 110A to 110C arranged in thework areas 201A to 201C are configured to control therobots 101A to 101C arranged in thework areas 201A to 201C. However, it is not limited to this. Onecontrol device 110 may be configured to control therobots 101A to 101C arranged in thework areas 201A to 201C.

また、本実施の形態2においては、制御装置110Aは、作業区画201A(第1作業区画)に配置されているセンサ103Aから出力された位置情報及び姿勢情報を基に、操作区画202A(第1操作区画)に配置されているロボット101Aを動作させるように構成されている。同様に、制御装置110Bは、作業区画201B(第2作業区画)に配置されているセンサ103Bから出力された位置情報及び姿勢情報を基に、操作区画202B(第2操作区画)に配置されているロボット101Bを動作させるように構成されている。また、制御装置110Cは、作業区画201C(第3作業区画)に配置されているセンサ103Cから出力された位置情報及び姿勢情報を基に、操作区画202C(第3操作区画)に配置されているロボット101Cを動作させるように構成されている。 Further, in the second embodiment, thecontrol device 110A has theoperation section 202A (first work section 202A) based on the position information and the posture information output from thesensor 103A arranged in thework section 201A (first work section). It is configured to operate therobot 101A arranged in the operation section). Similarly, thecontrol device 110B is arranged in theoperation section 202B (second operation section) based on the position information and the attitude information output from thesensor 103B arranged in thework section 201B (second work section). It is configured to operate therobot 101B. Further, thecontrol device 110C is arranged in theoperation section 202C (third operation section) based on the position information and the attitude information output from thesensor 103C arranged in thework section 201C (third work section). It is configured to operate therobot 101C.

すなわち、本実施の形態2では、制御装置110は、第N作業区画に配置されているセンサ103から出力された位置情報及び姿勢情報を基に、第N操作区画に配置されているロボット101を動作させるように構成されている。 That is, in the second embodiment, thecontrol device 110 uses therobot 101 arranged in the Nth operation section based on the position information and the posture information output from thesensor 103 arranged in the Nth work section. It is configured to work.

このように構成された、本実施の形態2に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。 Even therobot system 100 according to the second embodiment, which is configured in this way, has the same action and effect as therobot system 100 according to the first embodiment.

また、本実施の形態2に係るロボットシステム100では、制御装置110が、第N作業区画に配置されているセンサ103から出力された位置情報及び姿勢情報を基に、第N操作区画に配置されているロボット101を動作させるように構成されている。 Further, in therobot system 100 according to the second embodiment, thecontrol device 110 is arranged in the Nth operation section based on the position information and the posture information output from thesensor 103 arranged in the Nth work section. It is configured to operate therobot 101.

これにより、各操作区画に操作者を配置して、各操作者が、各作業区画に配置されているロボット101を同時に動作させることができる。また、操作者が操作区画を移動することにより、1つの操作器102により、各作業区画に配置されているロボット101を動作させることができる。 As a result, an operator can be arranged in each operation section, and each operator can simultaneously operate therobot 101 arranged in each work section. Further, when the operator moves the operation section, oneoperator 102 can operate therobot 101 arranged in each work section.

さらに、本実施の形態2に係るロボットシステム100では、操作器102は、センサ103が検出した当該操作器102の位置情報及び姿勢情報の出力のON/OFFを切換る切換器102Cをさらに有している。 Further, in therobot system 100 according to the second embodiment, theactuator 102 further includes aselector 102C for switching ON / OFF of the output of the position information and the posture information of theactuator 102 detected by thesensor 103. ing.

これにより、操作者が操作区画を移動することにより、1つの操作器102により、各作業区画に配置されているロボット101を動作させることができる。 As a result, when the operator moves the operation section, oneoperator 102 can operate therobot 101 arranged in each work section.

(実施の形態3)
本実施の形態3に係るロボットシステムは、実施の形態1(変形例を含む)に係るロボットシステムにおいて、作業エリアは、複数の作業区画に区分されていて、ロボットは、作業区画毎に配置されていて、操作器は、複数のロボットの内、動作させるロボットを指定する指定器をさらに有していて、制御装置は、指定器により指定された、ロボットをセンサが検出した操作器の位置情報及び姿勢情報を基に、リアルタイムで動作させるように構成されている。
(Embodiment 3)
In the robot system according to the third embodiment, in the robot system according to the first embodiment (including a modification), the work area is divided into a plurality of work sections, and the robots are arranged for each work section. The actuator further has a designated device that specifies the robot to be operated among the plurality of robots, and the control device is the position information of the controller that is designated by the designated device and that the sensor detects the robot. And, it is configured to operate in real time based on the posture information.

以下、本実施の形態3に係るロボットシステムの一例について、図5を参照しながら説明する。 Hereinafter, an example of the robot system according to the third embodiment will be described with reference to FIG.

[ロボットシステムの構成]
図5は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。
[Robot system configuration]
FIG. 5 is a schematic diagram showing a schematic configuration of the robot system according to the third embodiment.

図5に示すように、本実施の形態3に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、作業エリア201が、複数(ここでは、2つ)の壁部材205A、205Bにより、複数(ここでは、3つ)の作業区画201A〜201Cに区分されている点と、ロボット101が、作業区画毎に配置されている点と、が異なる。 As shown in FIG. 5, therobot system 100 according to the third embodiment has the same basic configuration as therobot system 100 according to the first embodiment, but has a plurality of work areas 201 (here, two). ) Are divided into a plurality of (three in this case)work sections 201A to 201C by thewall members 205A and 205B, and therobot 101 is arranged in each work section.

なお、各作業区画に配置されているロボット101を区別する必要がある場合には、作業区画201Aに配置されているロボットをロボット101Aと称し、作業区画201Bに配置されているロボットをロボット101Bと称し、作業区画201Cに配置されているロボットをロボット101Cと称する。 When it is necessary to distinguish therobots 101 arranged in each work area, the robot arranged in thework area 201A is referred to as arobot 101A, and the robot arranged in thework area 201B is referred to as arobot 101B. The robot arranged in thework area 201C is referred to as arobot 101C.

また、本実施の形態3に係るロボットシステム100では、操作器102は、複数のロボット101の内、動作させるロボット101を指定する指定器102Dをさらに有している。指定器102Dは、テンキーで構成されていてもよく、ジョグダイヤル(回転型セレクタ)で構成されていてもよく、十字キーで構成されていてもよい。 Further, in therobot system 100 according to the third embodiment, theactuator 102 further includes adesignation device 102D for designating therobot 101 to be operated among the plurality ofrobots 101. Thespecifier 102D may be composed of a numeric keypad, a jog dial (rotary selector), or a cross key.

なお、ロボット101及び/又は各作業区画に報知器を設け、指定器102Dを操作することにより、動作するロボット101を操作者に報知するようにしてもよい。報知器としては、表示装置(画面)に、文字データ又は画像データ等を表示させる態様であってもよく、スピーカー等により音声で知らせる態様であってもよく、光又は色で知らせるような態様であってもよい。また、通信ネットワークを介してスマートフォン、携帯電話、又はタブレット型コンピュータ等にメール又はアプリで知らせる態様であってもよい。 Note that a notification device may be provided in therobot 101 and / or each work section, and the operatingrobot 101 may be notified to the operator by operating thedesignation device 102D. The alarm may be a mode in which character data or image data or the like is displayed on a display device (screen), a mode in which the alarm is notified by voice through a speaker or the like, or a mode in which the alarm is notified by light or color. There may be. Further, the mode may be such that a smartphone, a mobile phone, a tablet computer or the like is notified by e-mail or an application via a communication network.

さらに、本実施の形態3に係るロボットシステム100では、各作業区画201A〜201Cに配置されている制御装置110A〜110Cが、当該作業区画201A〜201Cに配置されているロボット101A〜101Cを制御するように構成されているが、これに限定されない。各作業区画201A〜201Cに配置されているロボット101A〜101Cを1つの制御装置110が制御するように構成されていてもよい。 Further, in therobot system 100 according to the third embodiment, thecontrol devices 110A to 110C arranged in thework areas 201A to 201C control therobots 101A to 101C arranged in thework areas 201A to 201C. However, it is not limited to this. Onecontrol device 110 may be configured to control therobots 101A to 101C arranged in thework areas 201A to 201C.

このように構成された、本実施の形態3に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。 Even therobot system 100 according to the third embodiment, which is configured in this way, has the same action and effect as therobot system 100 according to the first embodiment.

また、本実施の形態3に係るロボットシステム100では、複数のロボット101の内、動作させるロボット101を指定する指定器102Dをさらに有している。これにより、操作者は、1つの操作器102により、各作業区画に配置されているロボット101を動作させることができる。 Further, therobot system 100 according to the third embodiment further has adesignation device 102D for designating therobot 101 to be operated among the plurality ofrobots 101. As a result, the operator can operate therobot 101 arranged in each work section by oneactuator 102.

(実施の形態4)
本実施の形態4に係るロボットシステムは、実施の形態1〜3(変形例を含む)のうち、いずれかの実施の形態に係るロボットシステムにおいて、作業エリアには、当該作業エリア内に配置されている機器を撮影するカメラが配置され、操作エリアには、カメラが撮影した映像情報を表示する表示装置が配置されている。
(Embodiment 4)
The robot system according to the fourth embodiment is arranged in the work area in the robot system according to any one of the first to third embodiments (including modifications). A camera for taking a picture of the device is arranged, and a display device for displaying the image information taken by the camera is arranged in the operation area.

以下、本実施の形態4に係るロボットシステムの一例について、図6を参照しながら説明する。 Hereinafter, an example of the robot system according to the fourth embodiment will be described with reference to FIG.

[ロボットシステムの構成]
図6は、本実施の形態4に係るロボットシステムの概略構成を示す模式図である。
[Robot system configuration]
FIG. 6 is a schematic diagram showing a schematic configuration of the robot system according to the fourth embodiment.

図6に示すように、本実施の形態4に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、作業エリア201に、当該作業エリア内に配置されている機器(例えば、ロボット101、ワーク104等)を撮影するカメラ105が配置され、操作エリア202には、カメラ105が撮影した映像情報を表示する表示装置106が配置されている点が異なる。 As shown in FIG. 6, therobot system 100 according to the fourth embodiment has the same basic configuration as therobot system 100 according to the first embodiment, but is arranged in thework area 201 in the work area. The difference is that thecamera 105 for photographing the device (for example, therobot 101, thework 104, etc.) is arranged, and thedisplay device 106 for displaying the image information photographed by thecamera 105 is arranged in theoperation area 202.

カメラ105は、例えば、天井、側壁面(壁部材203)、ロボット101の先端部等に設置されていてもよい。表示装置106は、机、床等に据え置いて使用する、据え置き型のディスプレイで構成されていてもよい。また、表示装置106は、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよい。 Thecamera 105 may be installed, for example, on the ceiling, the side wall surface (wall member 203), the tip end portion of therobot 101, or the like. Thedisplay device 106 may be composed of a stationary display that is used by being stationary on a desk, floor, or the like. Further, thedisplay device 106 may be composed of a head-mounted display or glasses worn and used by the operator.

なお、制御装置110は、表示装置106に、画像情報を表示させてもよい。画像情報としては、例えば、仮想ワークであってもよく、仮想ロボットであってもよく、作業工程であってもよく、ワーク104の材質又は大きさ等の情報であってもよく、
このように構成された、本実施の形態4に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
Thecontrol device 110 may display the image information on thedisplay device 106. The image information may be, for example, a virtual work, a virtual robot, a work process, or information such as the material or size of thework 104.
Even therobot system 100 according to the fourth embodiment, which is configured in this way, has the same action and effect as therobot system 100 according to the first embodiment.

また、本実施の形態4に係るロボットシステム100は、作業エリア201に、当該作業エリア内に配置されている機器を撮影するカメラ105が配置され、操作エリア202には、カメラ105が撮影した映像情報を表示する表示装置106が配置されている。 Further, in therobot system 100 according to the fourth embodiment, acamera 105 for photographing the equipment arranged in the work area is arranged in thework area 201, and an image captured by thecamera 105 is arranged in theoperation area 202. Adisplay device 106 for displaying information is arranged.

これにより、操作者は、作業エリア201と操作エリア202が離間されているような場合であっても、ロボット101を遠隔操作することができる。 As a result, the operator can remotely control therobot 101 even when thework area 201 and theoperation area 202 are separated from each other.

なお、本実施の形態4においては、制御装置110は、操作者が、操作器102を移動させる(操作する)ことにより生じる、操作器102の軌跡を算出し、算出した算出した軌跡に基づいて、ロボット101に実行させた作業(操作器102の軌跡情報)を記憶器110bに記憶させてもよい。また、制御装置110は、記憶器110bに記憶した操作器102の軌跡情報に従って、ロボット101を動作させてもよい。 In the fourth embodiment, thecontrol device 110 calculates the locus of theactuator 102 generated by the operator moving (operating) theactuator 102, and based on the calculated locus. , The work executed by the robot 101 (trajectory information of the operating device 102) may be stored in thestorage device 110b. Further, thecontrol device 110 may operate therobot 101 according to the locus information of theactuator 102 stored in thestorage device 110b.

さらに、制御装置110は、表示装置106に表示させた仮想ロボットを記憶器110bに記憶した操作器102の軌跡情報に従って、動作させてもよい。この場合、制御装置110は、操作者が操作器102により、ロボット101の動作(作業)の開始と同時に、表示装置106に表示させた仮想ロボットを記憶器110bに記憶した操作器102の軌跡情報に従って、動作させてもよい。 Further, thecontrol device 110 may operate the virtual robot displayed on thedisplay device 106 according to the locus information of theoperation device 102 stored in thestorage device 110b. In this case, thecontrol device 110 stores the locus information of theoperation device 102 in which the virtual robot displayed on thedisplay device 106 is stored in thestorage device 110b at the same time when the operator starts the operation (work) of therobot 101 by theoperation device 102. It may be operated according to the above.

上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。 From the above description, many improvements or other embodiments of the present invention will be apparent to those skilled in the art. Therefore, the above description should be construed as an example only and is provided for the purpose of teaching those skilled in the art the best aspects of carrying out the present invention. The details of its structure and / or function can be substantially changed without departing from the present invention.

本発明のロボットシステムによれば、操作者の負担を軽減して、作業効率を向上させることができるため、ロボットの分野において有用である。 According to the robot system of the present invention, the burden on the operator can be reduced and the work efficiency can be improved, which is useful in the field of robots.

11a 第1リンク
11b 第2リンク
11c 第3リンク
11d 第4リンク
11e 第5リンク
11f 第6リンク
12 検出器
13 送信器
15 基台
20 エンドエフェクタ
21 配管
100 ロボットシステム
101 ロボット
101A ロボット
101B ロボット
101C ロボット
102 操作器
102A 把持部
102B スイッチ
102C 切換器
102D 指定器
103 センサ
103A センサ
103B センサ
103C センサ
104 ワーク
105 カメラ
106 表示装置
110 制御装置
201 作業エリア
201A 作業区画
201B 作業区画
201C 作業区画
202 操作エリア
202A 操作区画
202B 操作区画
202C 操作区画
203 壁部材
204 窓
205A 壁部材
205B 壁部材
206A 壁部材
206B 壁部材
JT1 第1関節
JT2 第2関節
JT3 第3関節
JT4 第4関節
JT5 第5関節
JT6 第6関節
11a 1st link 11b2nd link 11c3rd link 11d4th link 11e5th link 11f6th link 12Detector 13Transmitter 15Base 20End effector 21 Piping 100Robot system 101Robot 101ARobot 101BRobot 101C Robot 102Operator 102AGrip 102BSwitch 102CSwitch 102D Specifier 103Sensor 103ASensor 103BSensor 103C Sensor 104Work 105Camera 106Display device 110Control device 201Work area201A Work area201B Work area201C Work area 202Operation area202A Operation area202B Operation zone202C Operation zone 203Wall member 204Window205A Wall member205B Wall member206A Wall member 206B Wall member JT1 1st joint JT2 2nd joint JT3 3rd joint JT4 4th joint JT5 5th joint JT6 6th joint

Claims (8)

Translated fromJapanese
作業エリア内に設置され、ワークに液体又は気体を噴射するように、及び/又は前記ワークを切削又は研磨するように、構成されているロボットと、
操作者が把持して、前記ロボットを操作するように構成されている操作器と、
操作エリアに配置され、前記操作器の位置情報及び姿勢情報を無線で検出するセンサと、
制御装置と、を備え、
前記制御装置は、前記センサが検出した前記操作器の位置情報及び姿勢情報を基に、前記操作器の軌跡を算出し、リアルタイムで前記ロボットを動作させるように構成されている、ロボットシステム。
Robots that are installed in the work area and configured to inject liquid or gas onto the workpiece and / or cut or polish the workpiece.
An actuator configured to be gripped by an operator to operate the robot,
A sensor that is located in the operation area and wirelessly detects the position information and attitude information of the actuator,
Equipped with a control device,
The control device is a robot system configured to calculate the trajectory of the actuator based on the position information and the posture information of the actuator detected by the sensor and operate the robot in real time.
前記制御装置は、前記センサが検出した前記操作器の位置情報及び姿勢情報を基に、前記操作器の軌跡を算出し、算出した軌跡に基づいて、リアルタイムで前記ワークに液体又は気体を噴射する噴射作業、前記ワークを切削する切削作業、及び前記ワークを研磨する研磨作業の内、いずれかの作業を前記ロボットに実行させるように構成されている、請求項1に記載のロボットシステム。 The control device calculates the locus of the actuator based on the position information and the attitude information of the actuator detected by the sensor, and injects a liquid or gas onto the work in real time based on the calculated locus. The robot system according to claim 1, wherein the robot is configured to perform any of the injection work, the cutting work of cutting the work, and the polishing work of polishing the work. 前記作業エリアは、複数の作業区画に区分されていて、
前記操作エリアは、複数の操作区画に区分されていて、
前記ロボットは、前記作業区画毎に配置されていて、
前記センサは、前記操作区画毎に配置されていて、
前記制御装置は、第N操作区画に配置されている前記センサが検出した前記操作器の位置情報及び姿勢情報を基に、第N作業区画に配置されている前記ロボットを動作させるように構成されている、請求項1又は2に記載のロボットシステム。
The work area is divided into a plurality of work areas.
The operation area is divided into a plurality of operation sections.
The robot is arranged in each work section,
The sensor is arranged in each operation section, and the sensor is arranged in each operation section.
The control device is configured to operate the robot arranged in the Nth work section based on the position information and the posture information of the operator detected by the sensor arranged in the Nth operation section. The robot system according to claim 1 or 2.
前記操作器は、前記センサが検出した当該操作器の位置情報及び姿勢情報の出力のON/OFFを切換る切換器をさらに有している、請求項3に記載のロボットシステム。 The robot system according to claim 3, wherein the operating device further includes a switching device for switching ON / OFF of the output of the position information and the posture information of the operating device detected by the sensor. 前記作業エリアは、複数の作業区画に区分されていて、
前記ロボットは、前記作業区画毎に配置されていて、
前記操作器は、複数の前記ロボットの内、動作させる前記ロボットを指定する指定器をさらに有していて、
前記制御装置は、指定器により指定された、前記ロボットを前記センサが検出した前記操作器の位置情報及び姿勢情報を基に、リアルタイムで動作させるように構成されている、請求項1又は2に記載のロボットシステム。
The work area is divided into a plurality of work areas.
The robot is arranged in each work section,
The actuator further has a designated device for designating the robot to be operated among the plurality of robots.
The control device is configured to operate in real time based on the position information and the posture information of the operation device detected by the sensor, which is designated by the designation device, according to claim 1 or 2. The robot system described.
前記作業エリアには、当該作業エリア内に配置されている機器を撮影するカメラが配置され、
前記操作エリアには、前記カメラが撮影した映像情報を表示する表示装置が配置されている、請求項1〜5のいずれか1項に記載のロボットシステム。
In the work area, a camera for photographing the equipment arranged in the work area is arranged.
The robot system according to any one of claims 1 to 5, wherein a display device for displaying image information captured by the camera is arranged in the operation area.
前記操作器の把持部には、操作者に触覚を与えるように構成されている、第1機器が設けられていて、
前記制御装置は、記憶器を有し、
前記記憶器には、前記ワークに液体又は気体を噴射する噴射作業、前記ワークを切削する切削作業、及び前記ワークを研磨する研磨作業の内、いずれかの作業の熟練者の操作による前記操作器の軌跡情報である第1情報が記憶されていて、
前記制御装置は、前記記憶器に記憶されている第1情報に基づいて、前記操作者を誘導するように、前記第1機器を動作させる、請求項2に記載のロボットシステム。
The grip portion of the actuator is provided with a first device configured to give a tactile sensation to the operator.
The control device has a storage device and has a storage device.
The storage device is operated by a skilled person in any of the injection work of injecting a liquid or gas onto the work, the cutting work of cutting the work, and the polishing work of polishing the work. The first information, which is the trajectory information of, is stored,
The robot system according to claim 2, wherein the control device operates the first device so as to guide the operator based on the first information stored in the storage device.
前記制御装置は、前記ロボットが、予め設定されている動作範囲外に移動するおそれがある場合、前記ロボットが、動作範囲外に接近した場合、又は前記ロボットが、動作範囲内であっても、移動が禁止されている領域に移動するおそれがある場合には、前記第1機器を制御して、警告となるような触覚を操作者に与えるように構成されている、請求項7に記載のロボットシステム。 In the control device, even if the robot may move out of the preset operating range, the robot approaches the operating range, or the robot is within the operating range. The seventh aspect of claim 7, wherein when there is a risk of moving to an area where movement is prohibited, the first device is controlled to give an operator a tactile sensation that gives a warning. Robot system.
JP2019099562A2019-03-222019-05-28 Robot systemPendingJP2020157467A (en)

Priority Applications (8)

Application NumberPriority DateFiling DateTitle
EP20778191.5AEP3943256A4 (en)2019-03-222020-03-13Robot system
CN202080023235.6ACN113631333A (en)2019-03-222020-03-13Robot system
PCT/JP2020/011032WO2020195928A1 (en)2019-03-222020-03-13Robot system
KR1020217031977AKR102681939B1 (en)2019-03-222020-03-13 robot system
US17/438,583US12011838B2 (en)2019-03-222020-03-13Robot system
TW109108949ATWI799686B (en)2019-03-222020-03-18 Robot system and method of operation thereof
JP2021190666AJP7594520B2 (en)2019-03-222021-11-25 Robot System
JP2023147752AJP7594643B2 (en)2019-03-222023-09-12 Robot System

Applications Claiming Priority (2)

Application NumberPriority DateFiling DateTitle
JP20190552562019-03-22
JP20190552562019-03-22

Related Child Applications (1)

Application NumberTitlePriority DateFiling Date
JP2021190666ADivisionJP7594520B2 (en)2019-03-222021-11-25 Robot System

Publications (1)

Publication NumberPublication Date
JP2020157467Atrue JP2020157467A (en)2020-10-01

Family

ID=72641096

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2019099562APendingJP2020157467A (en)2019-03-222019-05-28 Robot system

Country Status (4)

CountryLink
JP (1)JP2020157467A (en)
KR (1)KR102681939B1 (en)
CN (1)CN113631333A (en)
TW (1)TWI799686B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20240116192A1 (en)*2021-02-192024-04-11Università Di PisaProcess of interacting with objects

Citations (11)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS5548592A (en)*1978-09-291980-04-07CalheneManipulator
JPH01153288A (en)*1987-12-101989-06-15Mitsubishi Electric Corp Remote control manipulator operating device
JPH0947989A (en)*1995-08-081997-02-18Kawasaki Heavy Ind Ltd Robot work teaching device
JPH09216183A (en)*1996-02-131997-08-19Kawasaki Heavy Ind Ltd Robot 3D position and orientation teaching system
JP2006315157A (en)*2005-05-162006-11-24Anest Iwata CorpTeaching method of coating robot
JP2008531320A (en)*2005-03-042008-08-14ファナック ロボティクス アメリカ,インコーポレイティド Flexible connection of teaching device to programmable control device
WO2017033362A1 (en)*2015-08-252017-03-02川崎重工業株式会社Remote control manipulator system and operation method thereof
WO2017049381A1 (en)*2015-09-242017-03-30Synaptive Medical (Barbados) Inc.Motorized full field adaptive microscope
JP2018001381A (en)*2016-07-072018-01-11旭サナック株式会社Robot operation control data generation method, operation control data generation device, and operation control data generation program
CN107756408A (en)*2017-11-222018-03-06浙江优迈德智能装备有限公司A kind of robot trajectory's teaching apparatus and method based on active infrared binocular vision
WO2018076094A1 (en)*2016-10-312018-05-03Synaptive Medical (Barbados) Inc.3d navigation system and methods

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP4845431B2 (en)2005-06-302011-12-28澁谷工業株式会社 Robot control system
JP5083617B2 (en)2008-01-312012-11-28澁谷工業株式会社 Remote control robot device
JP2011110620A (en)*2009-11-242011-06-09Toyota Industries CorpMethod of controlling action of robot, and robot system
AT509927B1 (en)*2010-06-082015-05-15Keba Ag METHOD FOR PROGRAMMING OR PRESENTING MOVEMENTS OR RUNS OF AN INDUSTRIAL ROBOT
JP2012171088A (en)*2011-02-242012-09-10Olympus CorpMaster operation input device, and master-slave manipulator
DE102015221337A1 (en)2015-10-302017-05-04Keba Ag Method and control system for controlling the movements of articulated arms of an industrial robot as well as motion specification means used thereby
KR102338982B1 (en)2016-06-272021-12-14코오롱인더스트리 주식회사Curable resin composition, prepreg and substrate using the same
KR102265060B1 (en)*2016-10-032021-06-16버브 서지컬 인크. Immersive 3D display for robotic surgery

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPS5548592A (en)*1978-09-291980-04-07CalheneManipulator
JPH01153288A (en)*1987-12-101989-06-15Mitsubishi Electric Corp Remote control manipulator operating device
JPH0947989A (en)*1995-08-081997-02-18Kawasaki Heavy Ind Ltd Robot work teaching device
JPH09216183A (en)*1996-02-131997-08-19Kawasaki Heavy Ind Ltd Robot 3D position and orientation teaching system
JP2008531320A (en)*2005-03-042008-08-14ファナック ロボティクス アメリカ,インコーポレイティド Flexible connection of teaching device to programmable control device
JP2006315157A (en)*2005-05-162006-11-24Anest Iwata CorpTeaching method of coating robot
WO2017033362A1 (en)*2015-08-252017-03-02川崎重工業株式会社Remote control manipulator system and operation method thereof
WO2017033356A1 (en)*2015-08-252017-03-02川崎重工業株式会社Robot system
WO2017049381A1 (en)*2015-09-242017-03-30Synaptive Medical (Barbados) Inc.Motorized full field adaptive microscope
JP2018001381A (en)*2016-07-072018-01-11旭サナック株式会社Robot operation control data generation method, operation control data generation device, and operation control data generation program
WO2018076094A1 (en)*2016-10-312018-05-03Synaptive Medical (Barbados) Inc.3d navigation system and methods
CN107756408A (en)*2017-11-222018-03-06浙江优迈德智能装备有限公司A kind of robot trajectory's teaching apparatus and method based on active infrared binocular vision

Cited By (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US20240116192A1 (en)*2021-02-192024-04-11Università Di PisaProcess of interacting with objects
US12403613B2 (en)*2021-02-192025-09-02Universita Di PisaProcess of interacting with objects

Also Published As

Publication numberPublication date
KR20210135286A (en)2021-11-12
CN113631333A (en)2021-11-09
KR102681939B1 (en)2024-07-04
TWI799686B (en)2023-04-21
TW202037465A (en)2020-10-16

Similar Documents

PublicationPublication DateTitle
JP6843050B2 (en) Robot system
US10635082B2 (en)Robot motion program generating method and robot motion program generating apparatus
KR101800946B1 (en)Robot pendant
JP2004265041A (en)Robot teaching device
JP2017074669A (en)Manipulator control device, manipulator drive device, and robot system
US10315305B2 (en)Robot control apparatus which displays operation program including state of additional axis
JP2018176342A (en) Robot system and operating method thereof
JP6905651B1 (en) How to form a 3D model of a robot system and work
JP7594643B2 (en) Robot System
JP2020157467A (en) Robot system
JP6601201B2 (en) Robot operation device and robot operation program
JP6990340B2 (en) Robot system
JP7704839B2 (en) Robot system including a robot having a display unit
JP2017052031A (en)Robot operation device and robot operation method
JP2016175143A (en)Robot operation device, and robot operation program
WO2022004774A1 (en)Display system and robot system

Legal Events

DateCodeTitleDescription
A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20190610

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20210212

A871Explanation of circumstances concerning accelerated examination

Free format text:JAPANESE INTERMEDIATE CODE: A871

Effective date:20210212

A975Report on accelerated examination

Free format text:JAPANESE INTERMEDIATE CODE: A971005

Effective date:20210215

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20210224

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20210415

A131Notification of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: A131

Effective date:20210511

A601Written request for extension of time

Free format text:JAPANESE INTERMEDIATE CODE: A601

Effective date:20210610

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20210824

A02Decision of refusal

Free format text:JAPANESE INTERMEDIATE CODE: A02

Effective date:20210907

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20211125

C60Trial request (containing other claim documents, opposition documents)

Free format text:JAPANESE INTERMEDIATE CODE: C60

Effective date:20211125

A911Transfer to examiner for re-examination before appeal (zenchi)

Free format text:JAPANESE INTERMEDIATE CODE: A911

Effective date:20211208

C21Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text:JAPANESE INTERMEDIATE CODE: C21

Effective date:20211214

A912Re-examination (zenchi) completed and case transferred to appeal board

Free format text:JAPANESE INTERMEDIATE CODE: A912

Effective date:20220225

C211Notice of termination of reconsideration by examiners before appeal proceedings

Free format text:JAPANESE INTERMEDIATE CODE: C211

Effective date:20220301

C22Notice of designation (change) of administrative judge

Free format text:JAPANESE INTERMEDIATE CODE: C22

Effective date:20220524

C13Notice of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: C13

Effective date:20220628

C30Protocol of an oral hearing

Free format text:JAPANESE INTERMEDIATE CODE: C30

Effective date:20220823

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20220825

C302Record of communication

Free format text:JAPANESE INTERMEDIATE CODE: C302

Effective date:20220825

A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20220831

C13Notice of reasons for refusal

Free format text:JAPANESE INTERMEDIATE CODE: C13

Effective date:20221129

C23Notice of termination of proceedings

Free format text:JAPANESE INTERMEDIATE CODE: C23

Effective date:20230404

C22Notice of designation (change) of administrative judge

Free format text:JAPANESE INTERMEDIATE CODE: C22

Effective date:20230411


[8]ページ先頭

©2009-2025 Movatter.jp