Movatterモバイル変換


[0]ホーム

URL:


JP2007139710A - Walking assist robot - Google Patents

Walking assist robot
Download PDF

Info

Publication number
JP2007139710A
JP2007139710AJP2005337184AJP2005337184AJP2007139710AJP 2007139710 AJP2007139710 AJP 2007139710AJP 2005337184 AJP2005337184 AJP 2005337184AJP 2005337184 AJP2005337184 AJP 2005337184AJP 2007139710 AJP2007139710 AJP 2007139710A
Authority
JP
Japan
Prior art keywords
walking assist
user
destination
information
assist robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005337184A
Other languages
Japanese (ja)
Inventor
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Kazuhiko Shinosawa
一彦 篠沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute InternationalfiledCriticalATR Advanced Telecommunications Research Institute International
Priority to JP2005337184ApriorityCriticalpatent/JP2007139710A/en
Publication of JP2007139710ApublicationCriticalpatent/JP2007139710A/en
Withdrawnlegal-statusCriticalCurrent

Links

Images

Landscapes

Abstract

Translated fromJapanese

【構成】歩行補助ロボット10は車輪12を含み、車輪12によって自走する。歩行者がつかむためのつかみ部30が備えられ、たとえば、歩行者とのコミュニケーションによって入力された目的地まで当該歩行者を連れた移動が行われる。GPSやネットワーク、ネットワークロボットプラットフォーム、環境埋め込み型情報発信機器などの環境インフラを利用して現在地の位置情報が取得され、生成した目的地までの経路に沿った移動が行われる。現在地の特徴や問題点などの情報が音声または画像で提供される。触覚センサの出力に基づいて推定した歩行者の位置および姿勢の変化等に応じて移動速度を調節する。座部24上に歩行者が座ったときは長距離移動がキャンセルされる。
【効果】歩行者を連れて目的地まで正確に安全に誘導でき、しかも健康を促進できる。
【選択図】図1
The walking assist robot 10 includes wheels 12 and is self-propelled by the wheels 12. A grip portion 30 is provided for a pedestrian to grab. For example, movement with the pedestrian is performed to a destination input by communication with the pedestrian. Location information of the current location is acquired using environmental infrastructure such as GPS, a network, a network robot platform, and an environment-embedded information transmission device, and movement along a route to the generated destination is performed. Information such as features and problems of the current location is provided by voice or image. The moving speed is adjusted according to changes in the position and posture of the pedestrian estimated based on the output of the touch sensor. When a pedestrian sits on the seat 24, the long distance movement is cancelled.
[Effect] It is possible to accurately and safely guide pedestrians to their destinations and promote health.
[Selection] Figure 1

Description

Translated fromJapanese

この発明は歩行補助ロボットに関し、特にたとえば歩行する人とともに移動する、歩行補助ロボットに関する。  The present invention relates to a walking assist robot, and more particularly to a walking assist robot that moves with a walking person, for example.

従来、高齢者、身体障害者などの利用者を搭乗させて自律走行する車椅子ロボットがあった。たとえば特許文献1の技術では、GPS受信機で得た現在地情報と走行コースとを逐次比較して移動方向と走行距離とを制御することによって、車椅子のみでの目的地への自律走行を可能にしている。
特開平11−290390号公報
Conventionally, there has been a wheelchair robot that autonomously travels with a user such as an elderly person or a disabled person. For example, the technology of Patent Document 1 enables autonomous traveling to a destination using only a wheelchair by sequentially comparing the current location information obtained by a GPS receiver and a traveling course to control the moving direction and the traveling distance. ing.
JP 11-290390 A

従来技術は車椅子であり、利用者はこれに搭乗するのであるが、安全性の確保が困難であった。たとえば、対向車や自転車などが迫るなどの危険時には、自動車のように高剛性ボディで守られているわけではないのでユーザは車椅子から降りる必要があるが、車椅子を利用する必要のあるユーザがとっさに逃げたり降りたりする回避運動を行うのは困難である。もし利用者が健常者であれば逃げることも可能であろうが、車椅子の利用の必要性のない人が車椅子に搭乗すると、身体を動かさないため足腰を弱らせてしまうという弊害がある。また、人が搭乗するために車椅子ロボットのサイズは大きくなり、幅の狭い歩道で健常者が使用するのは問題があろう。このように、たとえば健康な高齢者や子供などが散歩や買い物に出掛けるような状況で、道に迷わないからといって車椅子ロボットを使用することは、問題が多く現実的ではない。  The prior art is a wheelchair, and a user gets on it, but it has been difficult to ensure safety. For example, when there is a danger such as an oncoming vehicle or bicycle approaching, the user needs to get off the wheelchair because it is not protected by a highly rigid body like a car, but there are users who need to use the wheelchair. It is difficult to perform avoidance exercises that run away and descend. If the user is a healthy person, it may be possible to escape, but if a person who does not need to use a wheelchair gets on the wheelchair, the body does not move and the legs and legs are weakened. In addition, the size of wheelchair robots increases because people board, and it may be problematic for healthy people to use on narrow walkways. Thus, for example, in a situation where a healthy elderly person or a child goes out for a walk or shopping, it is problematic and impractical to use a wheelchair robot just because he does not get lost.

それゆえに、この発明の主たる目的は、新規な、歩行補助ロボットを提供することである。  Therefore, the main object of the present invention is to provide a novel walking assist robot.

この発明の他の目的は、歩行者を連れて移動できる、歩行補助ロボットを提供することである。  Another object of the present invention is to provide a walking assist robot that can move with a pedestrian.

この発明のその他の目的は、歩行者を目的地へ誘導できる、歩行補助ロボットを提供することである。  Another object of the present invention is to provide a walking assist robot that can guide a pedestrian to a destination.

この発明のさらに他の目的は、利用者の健康を促進する、歩行補助ロボットを提供することである。  Still another object of the present invention is to provide a walking assist robot that promotes the health of the user.

請求項1の発明は、自走式の移動機構、ユーザがつかまることが可能に形成されたつかみ部、および移動機構の移動を制御する制御手段を備え、制御手段による移動によってつかみ部につかまったユーザを動かす、歩行補助ロボットである。  The invention of claim 1 includes a self-propelled moving mechanism, a grip portion formed so as to be able to be gripped by a user, and a control means for controlling the movement of the moving mechanism, and is gripped by the grip portion by the movement of the control means. It is a walking assist robot that moves the user.

請求項1の発明では、歩行補助ロボットは、たとえば、車輪、モータ、モータドライバなど自走式移動機構を備え、制御手段によってその移動が制御される。ユーザがつかまることの可能に形成されたつかみ部が設けられ、当該つかみ部につかまったユーザを移動機構の移動によって動かすことができる。したがって、歩行するユーザを連れて移動することができる。  In the invention of claim 1, the walking assist robot includes a self-propelled moving mechanism such as a wheel, a motor, and a motor driver, and the movement is controlled by the control means. A grip portion formed so as to be grasped by the user is provided, and the user gripped by the grip portion can be moved by the movement of the moving mechanism. Therefore, it can move with the user who walks.

請求項2の発明は、請求項1の発明に従属し、ユーザの発話音声または操作に基づいて目的地を取得する第1目的地取得手段、および現在地の位置情報を環境インフラを利用して取得する現在地取得手段をさらに備える。制御手段は、現在地取得手段によって取得された現在地および第1目的地取得手段によって取得された目的地に基づいて生成された経路情報によって移動を制御する。  The invention of claim 2 is dependent on the invention of claim 1, and obtains first destination acquisition means for acquiring a destination based on a user's uttered voice or operation, and position information of the current location using an environmental infrastructure. The present location acquisition means is further provided. The control unit controls movement based on the route information generated based on the current location acquired by the current location acquisition unit and the destination acquired by the first destination acquisition unit.

請求項2の発明では、第1目的地取得手段によって目的地が取得される。たとえば、コミュニケーションによって目的地が入力されてよい。つまり、ユーザの発話音声をマイクで取り込み、目的地を音声認識によって取得してよい。あるいは、タッチパネル操作などによって画面入力で目的地が設定されてよい。目的地は、屋外のある場所であってもよいし、何らかの建物であってもよいし、屋内のある場所であってもよい。現在地取得手段は、環境インフラを利用して現在地の位置情報を取得する。環境インフラは、たとえばGPS、ネットワーク、ネットワークロボットプラットフォーム、環境埋め込み型情報発信機器などであってよい。ネットワークロボットプラットフォームは、ネットワークに接続する歩行補助ロボットや各種ロボットの位置情報を記憶している。環境埋め込み型情報発信機器は、たとえば当該位置の識別情報を発信していて、歩行補助ロボットは当該識別情報をタグリーダ等によって検出して、ネットワークを介してネットワークロボットプラットフォームに送信する。これに応じて、ネットワークロボットプラットフォームが歩行補助ロボットの位置を記憶する。制御手段は、現在地と目的地に基づいて生成された経路情報によって移動を制御する。現在地から目的地までの経路情報は、当該歩行補助ロボットで地図情報に基づいて探索および生成してもよい。あるいは、ネットワーク上の他の装置で探索および生成された現在地から目的地までの経路情報をネットワークを介して取得するようにしてもよい。なお、当該歩行補助ロボットが屋外も含めて使用される場合には、屋外の地図情報に基づいて目的地までの経路が作成され、さらに当該目的地が建物である場合には当該建物内の地図情報に基づいて屋内目的地までの経路が作成されてよい。あるいは、当該歩行補助ロボットが建物内で使用される場合には、当該建物内の地図情報が使用されて経路が作成される。このように、現在地から目的地までの経路に沿ってユーザを目的地まで誘導することができる。  In the invention of claim 2, the destination is acquired by the first destination acquisition means. For example, the destination may be input by communication. That is, the user's speech may be captured by a microphone and the destination may be acquired by speech recognition. Alternatively, the destination may be set by screen input through a touch panel operation or the like. The destination may be an outdoor location, some building, or an indoor location. The current location acquisition means acquires the location information of the current location using the environmental infrastructure. The environmental infrastructure may be, for example, a GPS, a network, a network robot platform, an environment-embedded information transmission device, or the like. The network robot platform stores position information of walking assist robots and various robots connected to the network. The environment-embedded information transmitting device transmits, for example, identification information of the position, and the walking assist robot detects the identification information with a tag reader or the like and transmits it to the network robot platform via the network. In response, the network robot platform stores the position of the walking assist robot. The control means controls movement based on route information generated based on the current location and the destination. The route information from the current location to the destination may be searched and generated based on the map information by the walking assist robot. Alternatively, route information from the current location to the destination searched and generated by another device on the network may be acquired via the network. When the walking assist robot is used including the outdoors, a route to the destination is created based on the outdoor map information, and if the destination is a building, the map in the building A route to the indoor destination may be created based on the information. Alternatively, when the walking assist robot is used in a building, map information in the building is used to create a route. In this way, the user can be guided to the destination along the route from the current location to the destination.

請求項3の発明は、請求項1または2の発明に従属し、ユーザの位置を検出する位置検出手段をさらに備える。制御手段は、位置検出手段によって検出された位置が所定の範囲内でないとき、当該位置に近付ける位置調整手段を含む。  The invention of claim 3 is dependent on the invention of claim 1 or 2, and further comprises position detecting means for detecting the position of the user. The control means includes position adjusting means for approaching the position when the position detected by the position detecting means is not within a predetermined range.

請求項3の発明では、位置検出手段によって、ユーザの位置が検出される。位置検出手段は、たとえば、つかみ部を含む体表に設けられた分布型の触覚センサを含み、当該触覚センサによって取得した触覚情報と予め記憶手段に記憶しておいたマップとに基づいて、ユーザの位置および姿勢を推定してよい。あるいは、位置検出手段は、カメラで全方向を撮影し、予め記憶しておいたユーザの服の色などの特徴を、撮影した画像から検出することで、当該ユーザの位置を検出してよいし、さらに、音声発話に対する音声入力によって当該ユーザの位置を確認してよい。あるいは、ユーザに装着した無線タグを計測することによって、ユーザの位置を検出してもよい。位置調整手段は、所定の範囲内、たとえば、当該歩行補助ロボットの音声の届く範囲内にユーザが存在していないと判断されるとき、当該ユーザの位置に近付く移動を行う。このように、ユーザと離れないように調整できるので、ユーザを連れて移動することができる。  In the invention of claim 3, the position of the user is detected by the position detecting means. The position detecting means includes, for example, a distributed tactile sensor provided on the body surface including the grip part, and the user is based on the tactile information acquired by the tactile sensor and a map stored in the storage means in advance. May be estimated. Alternatively, the position detection means may detect the user's position by capturing all directions with a camera and detecting a pre-stored feature such as the color of the user's clothes from the captured image. Furthermore, the position of the user may be confirmed by voice input for voice utterance. Alternatively, the position of the user may be detected by measuring a wireless tag attached to the user. When it is determined that the user does not exist within a predetermined range, for example, within a range where the voice of the walking assist robot reaches, the position adjusting unit moves to approach the position of the user. Thus, since it can adjust so that it may not leave | separate with a user, it can move with a user.

請求項4の発明は、請求項1ないし3の発明のいずれかに従属し、体表に設けられた触覚センサによって取得した触覚情報と記憶手段に記憶されたマップとに基づいてユーザの位置および姿勢を推定する推定手段を含む。制御手段は、推定手段によって推定された位置および姿勢の変化に応じて移動速度を調整する第1速度調整手段を含む。  The invention of claim 4 is dependent on any one of the inventions of claims 1 to 3, and based on the tactile information acquired by the tactile sensor provided on the body surface and the map stored in the storage means, An estimation means for estimating the posture is included. The control means includes first speed adjustment means for adjusting the movement speed in accordance with changes in position and posture estimated by the estimation means.

請求項4の発明では、推定手段によって、触覚センサからの触覚情報とマップとに基づいてユーザの位置および姿勢が推定される。マップでは、触覚センサの触覚情報のパターンと人の位置および姿勢に関する情報とが対応付けられているので、触覚センサから触覚情報を取得することによって、そのときのユーザの位置および姿勢を推定できる。第1速度調整手段は、ユーザの位置および姿勢の変化に応じて、移動速度を調整する。たとえば、ユーザが位置および姿勢を激しく変化させている場合には、ユーザの歩行ペースと歩行補助ロボットの移動速度とが合っていないと考えられるので、移動速度をユーザに合わせて調整する。新たな移動速度は、たとえばユーザとのコミュニケーションによって設定されてよい。このようにして、ユーザの状態を見ながら速度が調整できるので、ユーザのペースに合わせて移動することができる。  In the invention of claim 4, the position and orientation of the user are estimated by the estimating means based on the tactile information from the tactile sensor and the map. In the map, the tactile information pattern of the tactile sensor is associated with information related to the position and orientation of the person, so that the position and orientation of the user at that time can be estimated by acquiring the tactile information from the tactile sensor. The first speed adjusting means adjusts the moving speed according to changes in the position and posture of the user. For example, when the user is changing the position and posture violently, it is considered that the user's walking pace does not match the moving speed of the walking assisting robot, so the moving speed is adjusted according to the user. The new movement speed may be set by communication with the user, for example. In this way, the speed can be adjusted while looking at the user's state, so that the user can move according to the user's pace.

請求項5の発明は、請求項1ないし4の発明のいずれかに従属し、ユーザとの距離を検出する距離検出手段を含む。制御手段は、距離検出手段によって検出された距離の変化に応じて移動速度を調整する第2速度調整手段を含む。  The invention ofclaim 5 is dependent on any one of the inventions of claims 1 to 4 and includes distance detection means for detecting the distance to the user. The control means includes a second speed adjusting means for adjusting the moving speed in accordance with a change in the distance detected by the distance detecting means.

請求項5の発明では、たとえば距離センサのような距離検出手段によってユーザとの距離が検出される。第2速度調整手段は、ユーザとの距離の変化に応じて移動速度を調整する。たとえば、ユーザとの距離が変化している場合には、ユーザの歩行ペースと歩行補助ロボットの移動速度とが合っていないと考えられるので、移動速度をユーザに合わせて調整する。この場合も、ユーザとのコミュニケーションで新たな移動速度を設定してよい。このように、ユーザとの距離を見ながら速度調整できるので、ユーザのペースに合わせて移動することができる。  According to the fifth aspect of the present invention, the distance to the user is detected by distance detection means such as a distance sensor. The second speed adjusting means adjusts the moving speed according to a change in the distance to the user. For example, when the distance to the user is changing, it is considered that the user's walking pace does not match the moving speed of the walking assist robot, so the moving speed is adjusted according to the user. Also in this case, a new moving speed may be set by communication with the user. Thus, since the speed can be adjusted while looking at the distance to the user, the user can move according to the user's pace.

請求項6の発明は、請求項1ないし5の発明のいずれかに従属し、ユーザの位置を検出する位置検出手段を含む歩行補助ロボットであり、ユーザが座ることが可能に形成された座部をさらに備える。制御手段は、位置検出手段によって検出された位置が座部上である場合に長距離移動をキャンセルし、必要に応じて回転または短距離移動のみを実行する。  A sixth aspect of the present invention is a walking assist robot according to any one of the first to fifth aspects of the present invention, comprising a position detecting means for detecting the position of the user, wherein the seat is formed so that the user can sit. Is further provided. The control means cancels the long distance movement when the position detected by the position detection means is on the seat, and executes only rotation or short distance movement as necessary.

請求項6の発明では、位置検出手段によってユーザの位置が検出され、当該検出位置が座部上であるときには、たとえば目的地までの誘導のような長距離移動がキャンセルされ、必要に応じて回転または短距離移動のみが実行される。つまり、ユーザが座部に座った場合には、たとえば、向きを変えたり、近付いてくる物体を回避したりするような移動のみが許可され、ユーザを搭乗させたまま長距離移動することがない。したがって、ユーザが歩行している場合には、当該ユーザを連れて移動することができるので、健康を促進できる。一方、ユーザが座部に座っている場合には、当該ユーザを休憩させることができる。さらに、ユーザを搭乗させて長距離を移動するようなことがないので安全である。  According to the sixth aspect of the present invention, when the position of the user is detected by the position detecting means and the detected position is on the seat, the long distance movement such as guidance to the destination is canceled and the rotation is performed as necessary. Or only short distance movement is performed. In other words, when the user sits on the seat, for example, only movement that changes the direction or avoids an approaching object is permitted, and the user does not move for a long distance while on board. . Therefore, when the user is walking, the user can move with the user, and health can be promoted. On the other hand, when the user is sitting on the seat, the user can be rested. Furthermore, it is safe because the user does not travel long distances.

請求項7の発明は、請求項1ないし6の発明のいずれかに従属し、現在地の位置情報を環境インフラを利用して取得する現在地取得手段を含む歩行補助ロボットであり、現在地取得手段によって取得された現在地の位置情報に付随する情報を出力する情報提供手段をさらに備える。  A seventh aspect of the invention is a walking assist robot according to any one of the first to sixth aspects of the present invention, comprising a current position acquisition means for acquiring position information of the current position using environmental infrastructure, and acquired by the current position acquisition means. It further comprises information providing means for outputting information attached to the current location information.

請求項7の発明では、現在地取得手段によって、環境インフラを利用して現在地の位置情報が取得される。情報提供手段は、現在地に付随する情報、たとえば、現在地の特徴、問題点、注意事項などの情報を出力する。位置に付随する情報は、たとえばネットワークから取得されてよいし、予め記憶手段に記憶しておいてもよい。また、当該付随情報は音声や画面表示によって提供されてよい。したがって、ユーザに現在地に関する情報を提示することができ、注意を喚起することができる。  In the seventh aspect of the present invention, the current location information is acquired by the current location acquisition means using the environmental infrastructure. The information providing means outputs information associated with the current location, for example, information such as features of the current location, problems, and notes. Information associated with the position may be acquired from a network, for example, or may be stored in advance in a storage unit. Further, the accompanying information may be provided by voice or screen display. Therefore, it is possible to present information related to the current location to the user and call attention.

請求項8の発明は、請求項2ないし7の発明のいずれかに従属し、第1目的地取得手段によって取得された目的地が建物である場合に当該建物内における屋内目的地をユーザの発話音声または操作に基づいて取得する第2目的地取得手段をさらに備える。制御手段は、第1目的地入力手段によって取得された目的地に到達後、第2目的地入力手段によって取得された屋内目的地と現在地とに基づいて生成された屋内の経路情報によって移動を制御する。  The invention of claim 8 is dependent on any of claims 2 to 7, and when the destination acquired by the first destination acquisition means is a building, the user utters the indoor destination in the building. Second destination acquisition means for acquiring based on voice or operation is further provided. The control means, after reaching the destination acquired by the first destination input means, controls the movement by the indoor route information generated based on the indoor destination and the current position acquired by the second destination input means. To do.

請求項8の発明では、第2目的地取得手段によって、目的地が建物である場合には、当該建物内における目的地を取得する。建物内の目的地は、同様に、音声または操作に基づくユーザとのコミュニケーションによって入力されてよい。また、建物内の目的地の設定は、たとえば、第1目的地取得手段による目的地の設定と同時に行われてもよいし、当該建物に到着後に行われてもよい。制御手段は、建物に到着した後は、屋内目的地と現在地とに基づいて生成された屋内の経路情報によって移動を制御する。建物内での現在地は、たとえば建物内の環境インフラを利用して取得する。屋内の目的地までの経路情報は、当該歩行補助ロボットで当該屋内の地図情報に基づいて探索および生成してもよいし、あるいは、ネットワーク上の他の装置で探索および生成された屋内の経路情報をネットワークを介して取得するようにしてもよい。このように、目的地が建物である場合には、さらに屋内の目的地までの経路に沿って、当該屋内目的地まで誘導することができる。  In the invention of claim 8, when the destination is a building, the second destination acquisition means acquires the destination in the building. The destination in the building may also be entered by communication with the user based on voice or operation. In addition, the setting of the destination in the building may be performed simultaneously with the setting of the destination by the first destination acquisition unit, or may be performed after arrival at the building. After arriving at the building, the control means controls movement based on indoor route information generated based on the indoor destination and the current location. The current location in the building is acquired using, for example, the environmental infrastructure in the building. The route information to the indoor destination may be searched and generated based on the indoor map information by the walking assist robot, or the indoor route information searched and generated by another device on the network. May be obtained via a network. Thus, when the destination is a building, it can be further guided to the indoor destination along the route to the indoor destination.

この発明によれば、つかみ部を備えて自走可能にしているので、歩行者を連れて、たとえばその手を引いて移動することができ、人の歩行を補助することができる。  According to the present invention, since the grip portion is provided so as to be able to run on its own, it can be moved with a pedestrian, for example, by pulling its hand, thereby assisting the walking of a person.

また、目的地を入力しかつ現在地から目的地までの経路情報に従って移動するようにした場合には、ユーザを目的地まで誘導することができる。  In addition, when the destination is input and the user moves according to the route information from the current location to the destination, the user can be guided to the destination.

さらに、人を搭乗させず連れて移動するようにしているので、利用者の健康を促進できる。  Furthermore, since the user moves with the person without boarding, the health of the user can be promoted.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。  The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1および図2を参照して、この実施例の歩行補助ロボット10は、歩く人を連れて移動するためのロボットであり、自走式の移動機構を備えている。歩行補助ロボット10はこの実施例では車輪移動型であるが、他の実施例では脚移動型であってもよい。  With reference to FIG. 1 and FIG. 2, the walking assistrobot 10 of this embodiment is a robot for moving with a walking person, and includes a self-propelled moving mechanism. The walkingassist robot 10 is a wheel movement type in this embodiment, but may be a leg movement type in other embodiments.

歩行補助ロボット10は、図示しないメインフレームに設けられた車輪12を含む。車輪12は、進行方向(前後方向)に並べられた2つの駆動輪12aと、進行方向に直交する方向(左右方向)に並べられた2つの従輪12bとを含む。前輪12aおよび後輪12aは操舵輪でもある。前輪12aおよび後輪12aは、後述する前輪モータ14および後輪モータ16(図3参照)によってそれぞれ駆動される。なお、メインフレームには、この歩行補助ロボット10の各コンポーネントに電源を供給するバッテリなども設けられる。メインフレームは、所定形状(円柱状、截頭円錐状など)を有したとえばFRP製のハウジング18内に設けられる。  The walkingassist robot 10 includeswheels 12 provided on a main frame (not shown). Thewheel 12 includes twodrive wheels 12a arranged in the traveling direction (front-rear direction) and twoslave wheels 12b arranged in a direction (left-right direction) orthogonal to the traveling direction. Thefront wheel 12a and therear wheel 12a are also steered wheels. Thefront wheel 12a and therear wheel 12a are respectively driven by afront wheel motor 14 and a rear wheel motor 16 (see FIG. 3) described later. The main frame is also provided with a battery for supplying power to each component of the walking assistrobot 10. The main frame has a predetermined shape (columnar shape, frustoconical shape, etc.) and is provided in ahousing 18 made of, for example, FRP.

ハウジング18の前壁には、たとえば無色透明な樹脂で形成された2つの窓20が設けられ、2つの窓20の内側のメインフレームには、距離センサ22(図3参照)が設けられる。たとえば、2つの窓20内には、複数の(たとえば8つ)距離センサ22のそれぞれが、異なる所定の方向へ向けて配置される。距離センサ22によって、歩行補助ロボット10の前方の所定の範囲に存在する物体との距離が計測される。距離センサ22はたとえば赤外線、超音波またはレーザを用いるデバイスであってよい。なお、距離センサ22は、歩行補助ロボット10の前方だけでなく後方や全方向に向けて設けられてよいし、ハウジング18の外側に設けられてもよい。後方の所定範囲に向けて距離センサ22を設けることによって歩行補助ロボット10の後方を歩行するユーザとの距離を計測できる。距離センサ22を全方向をカバーするように設ける場合には、歩行補助ロボット10の周囲のどの方位でユーザが歩行していても、当該ユーザとの距離を計測できる。  Twowindows 20 made of, for example, colorless and transparent resin are provided on the front wall of thehousing 18, and a distance sensor 22 (see FIG. 3) is provided on the main frame inside the twowindows 20. For example, in each of the twowindows 20, a plurality of (for example, eight)distance sensors 22 are arranged in different predetermined directions. The distance from the object existing in a predetermined range in front of the walking assistrobot 10 is measured by thedistance sensor 22. Thedistance sensor 22 may be a device using, for example, infrared light, ultrasonic waves, or a laser. Thedistance sensor 22 may be provided not only in front of the walking assistrobot 10 but also in the rear or in all directions, or may be provided outside thehousing 18. By providing thedistance sensor 22 toward the predetermined rear range, the distance to the user walking behind the walking assistrobot 10 can be measured. When thedistance sensor 22 is provided so as to cover all directions, the distance to the user can be measured regardless of the direction in which the user is walking around the walking assistrobot 10.

ハウジング18の上端にはたとえば円盤状の座部24が設けられる。この座部24を設ける場合には、当該歩行補助ロボット10は椅子として機能する。ユーザはこの座部24に腰掛けることによって休憩することができる。ただし、後述するように、ユーザが座った場合には長距離移動は実行されない。  For example, a disc-shapedseat portion 24 is provided at the upper end of thehousing 18. When theseat 24 is provided, the walking assistrobot 10 functions as a chair. The user can take a break by sitting on theseat 24. However, as will be described later, long distance movement is not performed when the user is sitting.

ハウジング18の後壁の上端部からは支柱26が上方に立ち上げられ、支柱26の上端にはたとえばU字状の支持部28が固定的に形成される。支持部28のU字の2つの直線部分の先端には、2つのつかみ部30がそれぞれ左右方向に延びて固定的に形成される。つかみ部30は、ユーザにつかませるために設けられた取っ手であり、進行方向に向かって右側に形成される右つかみ部30aと、左側に形成される左つかみ部30bとを含む。たとえば、各つかみ部30は、ユーザが楽に握ることができるように、適宜な径および長さを有する棒状に形成される。また、つかみ部30の高さは、ユーザが楽な姿勢で歩行できるように適宜に設定される。移動時には、理想的には図2に示すようにユーザが右手で右つかみ部30aを握りかつ左手で左つかみ部30bを握った状態で歩行することを想定している。したがって、この歩行補助ロボット10によれば、ユーザの手を引いて移動をすることができる。なお、ユーザはこのつかみ部30以外の部分、たとえば支柱26、支持部28、後述する球体32および操作部36などに触れながら歩行することも可能である。  From the upper end portion of the rear wall of thehousing 18, acolumn 26 is raised upward, and aU-shaped support portion 28 is fixedly formed at the upper end of thecolumn 26. Twogrip portions 30 are fixedly formed at the tips of the two U-shaped straight portions of thesupport portion 28 so as to extend in the left-right direction. Thegrip portion 30 is a handle provided for gripping by the user, and includes aright grip portion 30a formed on the right side in the traveling direction and aleft grip portion 30b formed on the left side. For example, eachgrip 30 is formed in a rod shape having an appropriate diameter and length so that the user can easily grip it. Further, the height of thegrip portion 30 is appropriately set so that the user can walk with a comfortable posture. As shown in FIG. 2, it is assumed that the user walks while holding theright grip portion 30a with the right hand and theleft grip portion 30b with the left hand during the movement. Therefore, according to the walking assistrobot 10, the user's hand can be pulled and moved. The user can also walk while touching a portion other than thegrip portion 30, for example, thesupport column 26, thesupport portion 28, asphere 32 and anoperation portion 36 described later.

つかみ部30aおよび30bの先端にはそれぞれ球体32aおよび32bが固定的に形成される。球体32には図示しない複数の孔が形成されており、内部にはステレオのスピーカ34(図3参照)が設けられる。つまり、球体32aには右スピーカが設置され、球体32bには左スピーカが設置される。スピーカ34は、この歩行補助ロボット10がユーザに対して音声によってコミュニケーションを図ったり情報を提供したりするために使用されてよい。  Spheres 32a and 32b are fixedly formed at the tips of thegrip portions 30a and 30b, respectively. A plurality of holes (not shown) are formed in thesphere 32, and a stereo speaker 34 (see FIG. 3) is provided inside. That is, the right speaker is installed on thesphere 32a, and the left speaker is installed on thesphere 32b. Thespeaker 34 may be used for the walking assistrobot 10 to communicate or provide information to the user by voice.

支持部28のU字形の内面には、コンピュータが収められユーザインターフェースとしても機能する操作部36が設けられる。操作部36は、たとえば正面視で縦長の楕円形状に形成されたハウジングを有している。操作部36は、支持部28に対して1軸の自由度を有して取り付けられる。つまり、操作部36は、ヨー軸(図1で「A」軸)周りに回転可能に形成される。なお、操作部36を歩行補助ロボット10の模擬の頭部と捉えることもでき、したがって、頭部36のA軸周りの回転は首における回転と捉えることもできる。  On the U-shaped inner surface of thesupport portion 28, anoperation portion 36 that houses a computer and also functions as a user interface is provided. Theoperation unit 36 has a housing formed in, for example, a vertically long oval shape when viewed from the front. Theoperation unit 36 is attached to thesupport unit 28 with a single degree of freedom. That is, theoperation unit 36 is formed to be rotatable around the yaw axis (the “A” axis in FIG. 1). Note that theoperation unit 36 can be regarded as a simulated head of the walking assistrobot 10, and accordingly, the rotation of thehead 36 around the A axis can be regarded as rotation at the neck.

操作部36のハウジングの一方主面の下部の開口には、LCD38の表示面が配置される。LCD38の表示面上にはタッチパネル40が重ねられている。タッチパネル40は図1では便宜上破線で示される。LCD38には、ユーザに対して提供される情報や、ユーザがタッチパネル40を使って操作するための入力画面等が表示されてよい。  A display surface of theLCD 38 is disposed in an opening below the one main surface of the housing of theoperation unit 36. Atouch panel 40 is overlaid on the display surface of theLCD 38. Thetouch panel 40 is shown by a broken line in FIG. 1 for convenience. TheLCD 38 may display information provided to the user, an input screen for the user to operate using thetouch panel 40, and the like.

また、操作部36のハウジングの一方主面の上部の開口からは、球体42の一部が露出している。この球体42は、操作部36に対して2軸の自由度を有して設けられている。つまり、球体42は、ヨー軸(図1で「B」軸)およびピッチ軸(図1で「C」軸)周りにそれぞれ回転可能に形成されている。球体42には、2つの縦長孔が形成されており、当該孔の内側には、カメラ44(図3参照)が設置されている。したがって、この球体42をヨー軸Bおよびピッチ軸C回りに回転することによって、歩行補助ロボット10の前方の全範囲をカメラ44で撮影することができる。さらに、操作部36をヨー軸A回りに180度回転すればカメラ44の視線方向を歩行補助ロボット10の後方に向けることができるので、後方の全範囲をカメラ44で撮影できる。したがって、カメラ44によって歩行補助ロボット10の周囲の全方向を撮影できる。カメラ44はたとえばCMOSやCCDのような固体撮像素子を用いるカメラであってよい。カメラ44は主としてユーザを撮影ないし検出するために使用されてよい。  Further, a part of thesphere 42 is exposed from the opening at the top of the one main surface of the housing of theoperation unit 36. Thespherical body 42 is provided with a biaxial degree of freedom with respect to theoperation unit 36. That is, thespheres 42 are formed to be rotatable around the yaw axis (“B” axis in FIG. 1) and the pitch axis (“C” axis in FIG. 1), respectively. Two vertically long holes are formed in thesphere 42, and a camera 44 (see FIG. 3) is installed inside the hole. Therefore, by rotating thesphere 42 around the yaw axis B and the pitch axis C, the entire range in front of the walking assistrobot 10 can be photographed by thecamera 44. Further, if theoperation unit 36 is rotated 180 degrees around the yaw axis A, the line-of-sight direction of thecamera 44 can be directed to the rear of the walking assistrobot 10, so that the entire rear range can be captured by thecamera 44. Therefore, thecamera 44 can shoot all directions around the walking assistrobot 10. Thecamera 44 may be a camera using a solid-state image sensor such as a CMOS or CCD. Thecamera 44 may be used mainly for photographing or detecting a user.

また、球体42の孔の内側にはカメラ44とともにマイク46(図3参照)も設置されている。マイク46は、周囲の音、主としてユーザの声を取り込むために用いられる。  A microphone 46 (see FIG. 3) is also installed inside the hole of thesphere 42 together with thecamera 44. Themicrophone 46 is used to capture ambient sounds, mainly the user's voice.

なお、球体42を歩行補助ロボット10の模擬の顔と捉えることもできる。図2に示したように、移動時においては、操作部36は、基本的には図1の状態から180度回転された状態にされ、球体42(カメラ44およびマイク46)およびLCD38の設けられた面がユーザに向けられる。  Thesphere 42 can also be regarded as a simulated face of the walking assistrobot 10. As shown in FIG. 2, when moving, theoperation unit 36 is basically rotated 180 degrees from the state of FIG. 1, and the sphere 42 (camera 44 and microphone 46) and theLCD 38 are provided. The surface is directed to the user.

また、歩行補助ロボット10の体表であって歩行中のユーザに触れられそうな箇所には、触覚センサ48(図3参照)が設けられる。具体的には、触覚センサ48は、つかみ部30、球体32、操作部36、支持部28、支柱26等の表面に設けられてよく、したがって、歩行補助ロボット10には分布型触覚センサ48が形成される。  Further, a tactile sensor 48 (see FIG. 3) is provided at a location on the body surface of the walking assistrobot 10 that is likely to be touched by a user who is walking. Specifically, thetactile sensor 48 may be provided on the surface of thegrip part 30, thesphere 32, theoperation part 36, thesupport part 28, thecolumn 26, etc. Therefore, the walking assistrobot 10 has the distributedtactile sensor 48. It is formed.

触覚センサ48としては、本件出願人による特開2004−283975号公報に開示したように、シリコン皮膚にピエゾフィルムを埋め込んだセンサが使用されてよい。具体的には、触覚センサ48のセンサデバイスとしてたとえばPVDF(ポリビニリデンフルオロイド)フィルムのようなピエゾフィルムが使用される。ピエゾフィルムは圧電センサであり、圧力等で変形されるとそのひずみ速度に応じた電圧を出力する。所定サイズの複数のピエゾフィルムがシリコンゴムのような柔軟な皮膚に埋め込まれる。センサデバイス(ピエゾフィルム)の近傍に読取装置および演算装置が設けられており、読取装置はセンサデバイスの出力信号をディジタルデータに変換する。触覚センサ48では、複数の演算装置がセンサネットワークを形成しており、各演算装置は、読取装置から得たデータに基づく触覚情報をセンサネットワークを介してホストコンピュータ(すなわち歩行補助ロボット10全体を制御するコンピュータであるCPU50(図3参照))へ送信する。なお、送信される触覚情報は、たとえばセンサデバイスの識別情報と圧力値に関する情報とを含むので、ホストコンピュータは、触覚情報に基づいてどの箇所がどの程度の圧力を受けたかなどを検出できる。  As thetactile sensor 48, as disclosed in Japanese Patent Application Laid-Open No. 2004-283975 by the present applicant, a sensor in which a piezo film is embedded in silicon skin may be used. Specifically, a piezo film such as a PVDF (polyvinylidene fluoride) film is used as the sensor device of thetactile sensor 48. A piezo film is a piezoelectric sensor, and when it is deformed by pressure or the like, it outputs a voltage corresponding to the strain rate. A plurality of piezo films of a predetermined size are embedded in soft skin such as silicone rubber. A reading device and an arithmetic device are provided in the vicinity of the sensor device (piezo film), and the reading device converts an output signal of the sensor device into digital data. In thetactile sensor 48, a plurality of computing devices form a sensor network, and each computing device controls tactile information based on data obtained from the reading device via the sensor network (ie, the entire walking assist robot 10). CPU50 (refer FIG. 3)) which is a computer to perform. The transmitted tactile information includes, for example, sensor device identification information and pressure value information, so that the host computer can detect which part has received what level of pressure based on the tactile information.

そして、この歩行補助ロボット10は、分布型の触覚センサ48の出力パターンとユーザの位置および姿勢とを対応付けたマップデータを記憶している。このため、触覚センサ48の出力を計測してマップと比較することによって、当該歩行補助ロボット10に触れているユーザがどのような位置に存在してどのような姿勢であるかを推定することができる。マップを作成するためには、人間がこの歩行補助ロボット10に触れながら歩行をする試験を行う。触覚センサ48の出力データを計測するとともにモーションキャプチャによって3次元座標を計測し、これら計測データを基にマップを作成することができる。  The walkingassist robot 10 stores map data in which the output pattern of the distributedtactile sensor 48 is associated with the position and posture of the user. For this reason, by measuring the output of thetactile sensor 48 and comparing it with a map, it is possible to estimate at what position the user touches the walking assistrobot 10 and in what posture. it can. In order to create a map, a test is performed in which a human walks while touching the walking assistrobot 10. It is possible to measure the output data of thetouch sensor 48, measure the three-dimensional coordinates by motion capture, and create a map based on these measurement data.

なお、上述のような分布型の触覚センサ48、マップを使用した相手の位置および姿勢の推定、マップ作成方法などに関する技術の一例は、たとえば本件出願人による特開2005−279834号公報に詳細に開示されるので参照されたい。また、触覚センサ48として他のものが用いられてもよく、たとえば、本件出願人が2005年3月31日に出願した特願2005−103582号には、上記特開2005−279834号公報の技術とは異なる形態の触覚センサネットワークに関する技術の一例が記載されるので参照されたい。また、マップを使用したユーザの位置および姿勢の推定を行わない場合には、単に接触のオン・オフを検出する接触センサのような他の触覚センサを各部位の体表に設けるようにしてもよい。  An example of a technique related to the distributedtactile sensor 48 as described above, estimation of the position and posture of the opponent using a map, a map creation method, and the like is described in detail in, for example, Japanese Patent Application Laid-Open No. 2005-279834 by the present applicant. Please refer to the disclosure. Other sensors may be used as thetactile sensor 48. For example, Japanese Patent Application No. 2005-103582 filed on March 31, 2005 by the applicant of the present application is disclosed in Japanese Patent Application Laid-Open No. 2005-279834. An example of a technique related to a tactile sensor network of a different form is described, so please refer to it. If the user's position and posture are not estimated using the map, another tactile sensor such as a contact sensor that simply detects contact on / off may be provided on the body surface of each part. Good.

図3には歩行補助ロボット10の電気的な構成の一例を示すブロック図が示される。歩行補助ロボット10は、全体の制御のためにマイクロコンピュータまたはCPU50を含み、このCPU50には、バスを介して、RAM52、HDD54および入出力インターフェース56が接続される。  FIG. 3 is a block diagram showing an example of the electrical configuration of the walking assistrobot 10. The walkingassist robot 10 includes a microcomputer or aCPU 50 for overall control, and aRAM 52, anHDD 54, and an input /output interface 56 are connected to theCPU 50 via a bus.

HDD54や図示しないROMには、この歩行補助ロボット10の動作を制御するプログラムおよびデータが予め格納されている。RAM52はバッファメモリやワーキングメモリとして使用される。CPU50は、HDD54から必要なプログラムおよびデータをRAM52に読み出し、当該プログラムに従って生成しまたは取得したデータをRAM52に記憶しつつ処理を実行する。  A program and data for controlling the operation of the walking assistrobot 10 are stored in advance in theHDD 54 and a ROM (not shown). TheRAM 52 is used as a buffer memory or a working memory. TheCPU 50 reads a necessary program and data from theHDD 54 to theRAM 52, and executes processing while storing the data generated or acquired according to the program in theRAM 52.

入出力インターフェース56は、接続される各機器に適した回路およびインターフェースを含む。CPU50には、入出力インターフェース56を介して、LCD38、タッチパネル40、無線通信装置58、アンプ60、触覚センサ48、距離センサ22、GPS受信機62およびハブ64が接続される。  The input /output interface 56 includes a circuit and an interface suitable for each connected device. TheCPU 50 is connected to theLCD 38, thetouch panel 40, thewireless communication device 58, theamplifier 60, thetouch sensor 48, thedistance sensor 22, theGPS receiver 62, and thehub 64 via the input /output interface 56.

CPU50は、表示する画面のデータを入出力インターフェース56を介して図示しないLCDコントローラに与え、当該画像をLCD38に表示する。タッチパネル40は、ユーザによってタッチされた位置を検出して当該位置を示す座標データを出力する。CPU50は入出力インターフェース56を介してタッチパネル40からの座標データを取得する。  TheCPU 50 provides screen data to be displayed to an LCD controller (not shown) via the input /output interface 56, and displays the image on theLCD 38. Thetouch panel 40 detects a position touched by the user and outputs coordinate data indicating the position. TheCPU 50 acquires coordinate data from thetouch panel 40 via the input /output interface 56.

無線通信装置58は他の装置と無線通信するためのものであり、たとえば無線LANアクセスポイントや基地局などを介してネットワークの他の装置と通信する。CPU50は無線通信装置58を介してデータを送受信する。  Thewireless communication device 58 is for wireless communication with other devices. For example, thewireless communication device 58 communicates with other devices in the network via a wireless LAN access point, a base station, or the like. TheCPU 50 transmits and receives data via thewireless communication device 58.

アンプ60にはスピーカ34が接続される。CPU50は音声データを入出力インターフェース56に与え、アンプ60を介して左右のスピーカ34のそれぞれに音声信号を与えて当該音声を出力する。  Aspeaker 34 is connected to theamplifier 60. TheCPU 50 provides audio data to the input /output interface 56, provides audio signals to the left andright speakers 34 via theamplifier 60, and outputs the audio.

触覚センサ48は、上述のように複数のセンサデバイス、複数の読取装置および複数の演算装置などを備えたセンサネットワークであり、センサデバイスの識別情報と圧力情報等を含む触覚情報を出力する。CPU50は入出力インターフェース56を介して触覚センサ48からの出力データを取得する。  Thetactile sensor 48 is a sensor network including a plurality of sensor devices, a plurality of readers, and a plurality of arithmetic devices as described above, and outputs tactile information including sensor device identification information and pressure information. TheCPU 50 acquires output data from thetouch sensor 48 via the input /output interface 56.

距離センサ22は、検出した物体までの距離ないし位置に関する情報を当該距離センサ22の識別情報とともに出力し、CPU50は入出力インターフェース56を介して距離センサ22からの出力データを取得する。なお、上述のようにこの歩行補助ロボット10には複数の距離センサが設置されるが、図3ではこれらをまとめて距離センサ22として示す。  Thedistance sensor 22 outputs information regarding the distance or position to the detected object together with the identification information of thedistance sensor 22, and theCPU 50 acquires output data from thedistance sensor 22 via the input /output interface 56. As described above, the walking assistrobot 10 is provided with a plurality of distance sensors, but these are collectively shown as adistance sensor 22 in FIG.

GPS受信機62は、4つのGPS衛星またはディファレンシャルGPS基準局からの信号を受信して、現在地の緯度、経度、高度を算出し、現在の位置情報を出力する。CPU50は入出力インターフェース56を介してGPS受信機62からの出力データを取得する。  TheGPS receiver 62 receives signals from four GPS satellites or a differential GPS reference station, calculates the latitude, longitude, and altitude of the current location, and outputs current position information. TheCPU 50 acquires output data from theGPS receiver 62 via the input /output interface 56.

ハブ64はたとえばUSB2.0ハブであり、ハブ64には、タグリーダ66、カメラ44、マイク46およびサーボコントローラ68が接続される。  Thehub 64 is, for example, a USB 2.0 hub, and thetag reader 66, thecamera 44, themicrophone 46, and theservo controller 68 are connected to thehub 64.

タグリーダ66は、無線タグ(RFIDタグ)から発信されるデータを読み取るためのものであり、CPU50は入出力インターフェース56およびハブ64を介してタグリーダ66からの出力データを取得する。なお、環境に埋め込まれる無線タグやユーザに取り付けられる無線タグにパッシブ型無線タグが使用される場合には、タグリーダ66がアンテナから電波を発信して、電磁誘導で当該無線タグを駆動する。  Thetag reader 66 is for reading data transmitted from a wireless tag (RFID tag), and theCPU 50 acquires output data from thetag reader 66 via the input /output interface 56 and thehub 64. When a passive wireless tag is used as a wireless tag embedded in an environment or a wireless tag attached to a user, thetag reader 66 transmits a radio wave from an antenna and drives the wireless tag by electromagnetic induction.

なお、赤外線LEDタグが使用される場合には、赤外線LEDタグの発信する情報を読み取るために、赤外線カメラないし赤外線受光素子などを備えるタグリーダが設けられる。  When an infrared LED tag is used, a tag reader including an infrared camera or an infrared light receiving element is provided to read information transmitted from the infrared LED tag.

カメラ44は撮影した映像に基づく画像データを出力し、CPU50は入出力インターフェース56およびハブ64を介してカメラ44からの出力データを取得する。マイク46は入力された声または音に基づく音声データを出力し、CPU50は入出力インターフェース56およびハブ64を介してマイク46からの出力データを取得する。  Thecamera 44 outputs image data based on the captured video, and theCPU 50 acquires output data from thecamera 44 via the input /output interface 56 and thehub 64. Themicrophone 46 outputs voice data based on the input voice or sound, and theCPU 50 acquires output data from themicrophone 46 via the input /output interface 56 and thehub 64.

サーボコントローラ68は、たとえばUSBシリアル変換ケーブルを用いてハブ64に接続される。サーボコントローラ68には、サーボコントローラ70、モータドライバ72およびモータドライバ74がたとえばデイジーチェーンで接続される。  Theservo controller 68 is connected to thehub 64 using, for example, a USB serial conversion cable. Aservo controller 70, amotor driver 72, and amotor driver 74 are connected to theservo controller 68 by, for example, a daisy chain.

サーボコントローラ68は操作部36を駆動するための首サーボモータ76を制御する。つまり、サーボコントローラ68はCPU50からの制御データを受けて、操作部36のヨー軸A周りの角度を制御する1つのモータ(すなわち「首サーボモータ」)76の回転角度を調節する。また、サーボコントローラ70は球体42を駆動するための顔サーボモータ78を制御する。つまり、サーボコントローラ70は、CPU50からの制御データを受けて、球体42のヨー軸Bおよびピッチ軸C周りの各角度を制御する2つのモータ(まとめて「顔サーボモータ」と呼ぶ。)78の回転角度を調節する。このように、CPU50は、サーボコントローラ68および70に適切な制御データを与えることによって、操作部36の向きを所望の方向に制御できるし、球体42の向き、すなわち、これに取り付けられたカメラ44およびマイク46の向きを所望の方向に制御できる。  Theservo controller 68 controls aneck servo motor 76 for driving theoperation unit 36. That is, theservo controller 68 receives the control data from theCPU 50 and adjusts the rotation angle of one motor 76 (ie, “neck servo motor”) 76 that controls the angle around the yaw axis A of theoperation unit 36. Theservo controller 70 also controls aface servo motor 78 for driving thesphere 42. That is, theservo controller 70 receives control data from theCPU 50 and controls two motors 78 (hereinafter collectively referred to as “face servo motors”) that control the angles of thesphere 42 around the yaw axis B and the pitch axis C. Adjust the rotation angle. As described above, theCPU 50 can control the orientation of theoperation unit 36 in a desired direction by giving appropriate control data to theservo controllers 68 and 70, and the orientation of thesphere 42, that is, thecamera 44 attached thereto. The direction of themicrophone 46 can be controlled in a desired direction.

また、モータドライバ72は、CPU50からの制御データを受けて、後輪12aを駆動するための後輪モータ16を制御する。後輪モータ16は、後輪12aを回転させるための駆動用モータと、後輪12aを操舵するための操舵用モータとを含む。したがって、モータドライバ72は後輪12aの方向および回転を制御できる。なお、各モータの動力は各減速機を介して車輪12aに伝達される。また、モータドライバ74は、CPU50からの制御データを受けて、前輪12aを駆動するための前輪モータ14を制御する。前輪モータ14は、前輪12aを回転させるための駆動用モータと、前輪12aを操舵するための操舵用モータとを含む。したがって、モータドライバ74は前輪12aの方向および回転を制御できる。このように、CPU50は、モータドライバ72および74に適切な制御データを与えることによって、歩行補助ロボット10の移動方向、移動距離(移動速度)などを制御できる。  Themotor driver 72 receives control data from theCPU 50 and controls therear wheel motor 16 for driving therear wheels 12a. Therear wheel motor 16 includes a drive motor for rotating therear wheel 12a and a steering motor for steering therear wheel 12a. Therefore, themotor driver 72 can control the direction and rotation of therear wheel 12a. The power of each motor is transmitted to thewheel 12a through each speed reducer. Themotor driver 74 receives control data from theCPU 50 and controls thefront wheel motor 14 for driving thefront wheels 12a. Thefront wheel motor 14 includes a drive motor for rotating thefront wheel 12a and a steering motor for steering thefront wheel 12a. Therefore, themotor driver 74 can control the direction and rotation of thefront wheel 12a. As described above, theCPU 50 can control the movement direction, the movement distance (movement speed), and the like of the walking assistrobot 10 by giving appropriate control data to themotor drivers 72 and 74.

たとえば、この歩行補助ロボット10は、人間を連れて移動する際、環境のインフラと連携して現在地を把握しつつ移動をすることができる。利用する環境のインフラは、代表的にはGPSであり、また、ネットワークロボット技術等である。  For example, when the walking assistrobot 10 moves with a person, it can move while grasping the current location in cooperation with the environmental infrastructure. The infrastructure of the environment to be used is typically GPS, and network robot technology or the like.

図4には、歩行補助ロボット10と環境のインフラとの連携の概要の一例が示される。歩行補助ロボット10が利用する環境インフラとして、ネットワーク80を介して接続可能なネットワークロボットプラットフォーム(以下、単に「プラットフォーム」ともいう。)82、ネットワーク80に接続するための無線LANアクセスポイント84、環境埋め込み型情報発信機器86、ネットワーク80に接続されている他のロボット88、およびGPS衛星90等が存在する。なお、無線LANアクセスポイント84は基地局であってもよい。また、歩行補助ロボット10は4つのGPS衛星90からの信号を受信することによって高精度に現在地を検出できるが、ディファレンシャルGPS基準局の発信する補正情報を使用してもよい。  FIG. 4 shows an example of the outline of cooperation between the walking assistrobot 10 and the environmental infrastructure. As an environmental infrastructure used by the walking assistrobot 10, a network robot platform (hereinafter also simply referred to as “platform”) 82 that can be connected via thenetwork 80, a wirelessLAN access point 84 for connecting to thenetwork 80, and an embedded environment There is a typeinformation transmitting device 86, anotherrobot 88 connected to thenetwork 80, aGPS satellite 90, and the like. The wirelessLAN access point 84 may be a base station. The walkingassist robot 10 can detect the current location with high accuracy by receiving signals from the fourGPS satellites 90, but correction information transmitted by the differential GPS reference station may be used.

プラットフォーム82は、ネットワーク80に接続されている各種ロボットやアンコンシャスセンサなどのようなロボット88が計測した情報を登録するデータベースである。この歩行補助ロボット10や他のロボット88はプラットフォーム82に登録されているデータをネットワーク80経由で受信して利用することができる。また、この歩行補助ロボット10が計測した情報も、プラットフォーム82に登録することができる。プラットフォーム82は、たとえばロボット位置情報DB(データベース)82a、人位置情報DB82bおよび位置付属情報DB82cなどを含む。ロボット位置情報DB82aには、ネットワークに接続されている各ロボットの現在位置を示すデータが記憶され、この歩行補助ロボット10の位置データもその識別情報に対応付けて登録されている。人位置情報DB82bには、計測対象に設定された人の現在位置を示すデータが記憶され、この歩行補助ロボット10のユーザの位置データもその識別情報に対応付けて登録されてよい。位置付属情報DB82cには、たとえば、位置データ(緯度、経度、高度)または位置の識別情報に対応付けて、当該位置に関してユーザに提供すべき情報が記憶されている。一例として、転びやすい、車がよく通って危ないなど、歩行者に警告ないし提示すべき情報が登録される。位置付属情報は、当該情報を音声出力で提供する場合には音声データであってよいし、当該情報を画面表示で提供する場合には画像データまたはテキストデータ等であってよい。あるいは、提供される複数の情報について、歩行補助ロボット10に音声データまたは画像データもしくはテキストデータ等を予め記憶しておく場合には、位置付属情報DB82cには、当該情報の識別情報を登録しておくようにしてもよい。  Theplatform 82 is a database that registers information measured by therobot 88 such as various robots and unconscious sensors connected to thenetwork 80. The walkingassist robot 10 andother robots 88 can receive and use data registered in theplatform 82 via thenetwork 80. Information measured by the walking assistrobot 10 can also be registered in theplatform 82. Theplatform 82 includes, for example, a robot position information DB (database) 82a, a personposition information DB 82b, a position attachedinformation DB 82c, and the like. The robotposition information DB 82a stores data indicating the current position of each robot connected to the network, and the position data of the walking assistrobot 10 is also registered in association with the identification information. The person positioninformation DB 82b stores data indicating the current position of the person set as the measurement target, and the position data of the user of the walking assistrobot 10 may be registered in association with the identification information. The positionancillary information DB 82c stores, for example, information to be provided to the user regarding the position in association with position data (latitude, longitude, altitude) or position identification information. As an example, information that should be warned or presented to a pedestrian, such as easy to fall over or dangerous when a car passes frequently, is registered. The position attached information may be audio data when the information is provided by audio output, and may be image data or text data when the information is provided by screen display. Alternatively, in the case where voice data, image data, text data, or the like is stored in advance in the walking assistrobot 10 for a plurality of information to be provided, the identification information of the information is registered in the position attachedinformation DB 82c. You may make it leave.

歩行補助ロボット10は、屋外を移動しながら、たとえば公衆無線LANの無線LANアクセスポイント84に通信接続して、ネットワーク80を介してプラットフォーム82にアクセスできる。また、歩行補助ロボット10は、屋内では、たとえば当該建物内の無線LANの無線LANアクセスポイント84に通信接続して、ネットワーク80を介してプラットフォーム82にアクセスできる。  The walkingassist robot 10 can access theplatform 82 via thenetwork 80 by communicating and connecting to a wirelessLAN access point 84 of, for example, a public wireless LAN while moving outdoors. In addition, the walking assistrobot 10 can access theplatform 82 via thenetwork 80 by connecting to the wirelessLAN access point 84 of the wireless LAN in the building, for example, indoors.

歩行補助ロボット10は、環境埋め込み型の情報発信機器86からの情報を取得する。環境埋め込み型情報発信機器86は、たとえば、環境中に埋め込まれたインテリジェント基準点や、ICタグ付き点字ブロック、無線マーカ、赤外線マーカなどの情報発信機器である。インテリジェント基準点は、国土地理院によって設置される位置情報の基準となる基準点であり、無線タグなどの情報発信機器が設定される。各情報発信機器86は、屋内または屋外の所定の位置に設置され、当該機器の設置された位置情報を電波または赤外線等を用いて発信する。なお、無線タグが使用される場合パッシブ型であることが望ましい。ただし、外部電源を容易に確保できる場所であればこれに限られない。発信される位置情報は、当該埋め込み位置の識別情報であり、歩行補助ロボット10はタグリーダ66で当該識別情報を読み取ると、無線通信装置58を用いてネットワーク80経由でプラットフォーム82に当該識別情報を送信する。プラットフォーム82は、位置の識別情報を受信すると、たとえばネットワーク80に接続された他のデータベースから、当該識別情報に対応付けられた位置データ(緯度、経度、高度)を取得して、歩行補助ロボット10の識別情報に対応付けて当該位置データをロボット位置情報DB82aに記憶する。  The walkingassist robot 10 acquires information from the environment-embeddedinformation transmission device 86. The environment-embeddedinformation transmission device 86 is an information transmission device such as an intelligent reference point embedded in the environment, a braille block with an IC tag, a wireless marker, or an infrared marker. The intelligent reference point is a reference point serving as a reference for position information set by the Geospatial Information Authority of Japan, and an information transmission device such as a wireless tag is set. Eachinformation transmission device 86 is installed at a predetermined position indoors or outdoors, and transmits the position information of the device using radio waves or infrared rays. In addition, when a wireless tag is used, it is desirable that it is a passive type. However, the location is not limited to this as long as the external power source can be easily secured. The transmitted position information is the identification information of the embedded position. When the walking assistrobot 10 reads the identification information with thetag reader 66, the identification information is transmitted to theplatform 82 via thenetwork 80 using thewireless communication device 58. To do. Upon receiving the position identification information, theplatform 82 acquires position data (latitude, longitude, altitude) associated with the identification information from another database connected to thenetwork 80, for example, and the walking assistrobot 10 The position data is stored in the robotposition information DB 82a in association with the identification information.

なお、情報発信機器86は、当該位置の識別情報を発信せずに、当該位置の緯度、経度および高度を示す位置データ自体を発信するようにしてもよい。この場合には、歩行補助ロボット10は情報発信機器86から現在地の位置データを直接取得できるし、また、現在地の位置データをプラットフォーム82に送信してロボット位置情報DB82aに登録できる。  Theinformation transmitting device 86 may transmit position data itself indicating the latitude, longitude, and altitude of the position without transmitting the identification information of the position. In this case, the walking assistrobot 10 can directly acquire the location data of the current location from theinformation transmission device 86, and can transmit the location data of the current location to theplatform 82 and register it in the robotlocation information DB 82a.

ユーザには当該ユーザの識別情報を発信するタグ92が装着される。タグ92は無線タグであり、場合によっては赤外線LEDタグであってもよい。歩行補助ロボット10は、タグ92を検出したとき、当該読み取ったユーザ識別情報をプラットフォーム82に送信する。プラットフォーム82はユーザ識別情報を受信すると、たとえば、当該ユーザ識別情報を送信してきたロボットの現在地をロボット位置情報DB82aから取得し、当該位置データを当該ユーザ識別情報に対応付けて人位置情報DB82bに記憶する。あるいは、歩行補助ロボット10が現在地を把握している場合、検出したユーザ識別情報とともに現在地の位置データをプラットフォーム82に送信するようにしてもよい。  Atag 92 for transmitting the identification information of the user is attached to the user. Thetag 92 is a wireless tag, and may be an infrared LED tag in some cases. When the walking assistrobot 10 detects thetag 92, the walking assistrobot 10 transmits the read user identification information to theplatform 82. When receiving the user identification information, theplatform 82 acquires, for example, the current location of the robot that has transmitted the user identification information from the robotposition information DB 82a, and stores the position data in association with the user identification information in the humanposition information DB 82b. To do. Alternatively, when the walking assistrobot 10 grasps the current location, the current location data may be transmitted to theplatform 82 together with the detected user identification information.

他のロボット88は、ビジブル型ロボットや環境に埋め込まれたアンコンシャス型ロボットであり、人に装着されたタグ92を検出するタグリーダを備えている。ビジブル型ロボットは、目に見えるロボットで、人型、ペット型など一体性のある身体を持つ。自律的または遠隔操作などで行動するパートナーロボットや、情報提供ないしガイドを行うサポートロボット等がこれに相当する。アンコンシャス型ロボットは、道路、街、室内、機器などの環境に埋め込まれたロボットであり、身体が見えないロボットをいう。人間の行動モニタリングをベースに必要に応じた情報を提供する。このような他のロボット88も、タグ92を検出すると、歩行補助ロボット10と同様に、当該読み取ったユーザ識別情報をネットワーク80経由でプラットフォーム82に送信する。これに応じて、プラットフォーム82は、上述の歩行補助ロボット10が送信した場合と同様にして、ユーザ識別情報に対応付けて位置データを人位置情報DB82bに記憶する。  Theother robot 88 is a visible robot or an unconscious robot embedded in the environment, and includes a tag reader that detects atag 92 attached to a person. Visible robots are visible robots that have an integrated body such as a humanoid or pet-type. This includes a partner robot that acts autonomously or remotely, a support robot that provides information or guides, and the like. An unconscious robot is a robot that is embedded in an environment such as a road, a city, a room, or a device, and cannot be seen. Provide information as needed based on human behavior monitoring. When such anotherrobot 88 detects thetag 92, the read user identification information is transmitted to theplatform 82 via thenetwork 80 as in the case of the walking assistrobot 10. In response to this, theplatform 82 stores the position data in the humanposition information DB 82b in association with the user identification information in the same manner as the case where the walking assistrobot 10 transmits.

なお、この実施例では、歩行補助ロボット10にタグは装着されない。しかし、他の実施例では、歩行補助ロボット10にタグが装着されてもよい。この場合には、他のロボット88は、歩行補助ロボット10のタグを検出すると、当該読み取った歩行補助ロボット10の識別情報をネットワーク80経由でプラットフォーム82に送信する。したがって、この場合には、歩行補助ロボット10の現在地を他のロボット88によって検出し、プラットフォーム82に登録することができる。  In this embodiment, no tag is attached to the walking assistrobot 10. However, in other embodiments, a tag may be attached to the walking assistrobot 10. In this case, when theother robot 88 detects the tag of the walking assistrobot 10, theother robot 88 transmits the read identification information of the walking assistrobot 10 to theplatform 82 via thenetwork 80. Therefore, in this case, the current location of the walking assistrobot 10 can be detected by theother robot 88 and registered in theplatform 82.

また、このプラットフォーム82を備えるシステムでは、歩行補助ロボット10のユーザの家族の人等は、ネットワーク80に接続されたPC94からプラットフォーム82にアクセスして歩行補助ロボット10またはユーザの識別情報を入力することによって、当該歩行補助ロボット10またはユーザの現在地を確認することができる。なお、PC94はネットワーク80に接続可能な携帯端末や携帯電話であってもよい。  In the system including theplatform 82, the family member of the user of the walking assistrobot 10 accesses theplatform 82 from thePC 94 connected to thenetwork 80 and inputs the identification information of the walking assistrobot 10 or the user. Thus, the current location of the walking assistrobot 10 or the user can be confirmed. ThePC 94 may be a mobile terminal or a mobile phone that can be connected to thenetwork 80.

このように、歩行補助ロボット10は、GPS衛星90、ネットワーク80、プラットフォーム82、環境埋め込み型情報発信機器86等の環境インフラを利用することによって、屋内屋外を問わず現在地を把握することができるので、ユーザを目的地まで正確に案内することができる。しかも、ユーザを搭乗させた移動ではなく、たとえばつかみ部30につかまってまたは当該歩行補助ロボット10に接触せずに歩行するユーザを連れた移動を実現することができるので、ユーザの健康を促進できる。  As described above, the walking assistrobot 10 can grasp the current location regardless of the indoor or outdoor environment by using the environmental infrastructure such as theGPS satellite 90, thenetwork 80, theplatform 82, and the environment-embeddedinformation transmission device 86. The user can be accurately guided to the destination. In addition, it is possible to realize the movement with the user who walks without holding the user on board, for example, holding thegrip part 30 or contacting the walking assistrobot 10, thereby promoting the health of the user. .

この歩行補助ロボット10の誘導処理における具体的な動作を、図5のフロー図を参照しながら説明する。誘導処理を開始すると、歩行補助ロボット10のCPU50は、ステップS1で、プラットフォーム82またはGPS等から現在地の位置データを取得する。位置データは、たとえば緯度、経度、高度(標高)である。具体的には、無線通信装置58を用いて無線LANアクセスポイント84と通信接続できたときには、ネットワーク80を介してプラットフォーム82に現在地の要求を送信する。これに応じて、プラットフォーム82は、受信した歩行補助ロボット10の識別情報に対応する位置データをロボット位置情報DB82aから読み出して、当該位置データを当該歩行補助ロボット10にネットワーク80を介して送信する。これに応じて、歩行補助ロボット10は現在地の位置データを受信してRAM52に記憶する。または、GPS受信機62から出力される位置データを取得してRAM52に記憶する。あるいは、タグリーダ66を使用して環境埋め込み型情報発信機器86を検出できた場合には、当該情報発信機器86が位置データを発信しているときには、当該位置データを現在地としてRAM52に記憶してもよい。なお、環境埋め込み型情報発信機器86が位置データではなく位置の識別情報を発信しているときには、当該識別情報をネットワーク80を介してプラットフォーム82に送信する。これに応じて、プラットフォーム82は、当該識別情報に対応する位置データを特定して、当該位置データを当該歩行補助ロボット10に返信する。また、プラットフォーム82は、当該歩行補助ロボット10の識別情報に対応付けてロボット位置情報DB82aに当該位置データを記憶する。また、歩行補助ロボット10がユーザのタグ92を検出して当該ユーザ識別情報も送信している場合には、プラットフォーム82は当該ユーザの識別情報に対応付けて人位置情報DB82bに当該位置データを記憶する。  A specific operation in the guidance process of the walking assistrobot 10 will be described with reference to the flowchart of FIG. When the guidance process is started, theCPU 50 of the walking assistrobot 10 acquires position data of the current location from theplatform 82 or GPS in step S1. The position data is, for example, latitude, longitude, and altitude (elevation). Specifically, when communication connection with the wirelessLAN access point 84 can be established using thewireless communication device 58, a request for the current location is transmitted to theplatform 82 via thenetwork 80. In response to this, theplatform 82 reads position data corresponding to the received identification information of the walking assistrobot 10 from the robotposition information DB 82a, and transmits the position data to the walking assistrobot 10 via thenetwork 80. In response to this, the walking assistrobot 10 receives the current position data and stores it in theRAM 52. Alternatively, the position data output from theGPS receiver 62 is acquired and stored in theRAM 52. Alternatively, if the environment-embeddedinformation transmission device 86 can be detected using thetag reader 66 and theinformation transmission device 86 transmits position data, the position data may be stored in theRAM 52 as the current location. Good. When the environment-embeddedinformation transmitting device 86 is transmitting position identification information instead of position data, the identification information is transmitted to theplatform 82 via thenetwork 80. In response to this, theplatform 82 specifies position data corresponding to the identification information, and returns the position data to the walking assistrobot 10. Further, theplatform 82 stores the position data in the robotposition information DB 82a in association with the identification information of the walking assistrobot 10. When the walking assistrobot 10 detects the user'stag 92 and also transmits the user identification information, theplatform 82 stores the position data in the humanposition information DB 82b in association with the user identification information. To do.

次に、ステップS3で、目的地入力処理を実行する。この処理では、コミュニケーションによってユーザに目的地を入力してもらう。この実施例では、ユーザは音声発話またはタッチパネル40の操作によって目的地を設定できる。この目的地入力処理の動作の一例が図6に示される。目的地入力処理が開始されると、LCD38には目的地設定の開始を指示するための起動ボタンが表示される。図6のステップS21で、起動ボタンがタッチされたか否かを、タッチパネル40からの座標データと起動ボタンの位置データとに基づいて判定する。なお、LCD38に表示されるボタンやアイコンなどの位置データは予めHDD54に記憶されており、処理の開始時など必要に応じてRAM52に読み出されている。ステップS21で“NO”であれば、ステップS23で、触覚センサ48が触られているか否かを、触覚センサ48から取得した触覚情報によって判定する。ステップS23で“NO”であれば処理はステップS21に戻る。  Next, in step S3, a destination input process is executed. In this process, the user inputs a destination by communication. In this embodiment, the user can set the destination by voice utterance or operation of thetouch panel 40. An example of the operation of this destination input process is shown in FIG. When the destination input process is started, an activation button for instructing the start of the destination setting is displayed on theLCD 38. In step S21 of FIG. 6, it is determined whether or not the start button has been touched based on the coordinate data from thetouch panel 40 and the position data of the start button. Note that position data such as buttons and icons displayed on theLCD 38 is stored in theHDD 54 in advance, and is read out to theRAM 52 as necessary, for example, at the start of processing. If “NO” in the step S21, it is determined in a step S23 based on the tactile information acquired from thetactile sensor 48 whether or not thetactile sensor 48 is touched. If “NO” in the step S23, the process returns to the step S21.

一方、ステップS21で“YES”である場合、またはステップS23で“YES”である場合には、ステップS25で、たとえば「目的地を教えて下さい」のようなメッセージの画像ないし文字をLCD38に表示し、また、同メッセージの音声をスピーカ34から出力する。なお、LCD38に画面を表示するための画像データおよびスピーカ34から音声を出力するための音声データは予めHDD54に記憶される。  On the other hand, if “YES” in the step S21 or “YES” in the step S23, a message image or character such as “Tell me your destination” is displayed on theLCD 38 in a step S25. In addition, the voice of the message is output from thespeaker 34. Note that image data for displaying a screen on theLCD 38 and sound data for outputting sound from thespeaker 34 are stored in theHDD 54 in advance.

そして、ステップS27で、歩行者すなわちユーザの音声発話またはタッチパネル40の操作に応じて目的地を設定する。具体的には、マイク46によって取得された音声データに音声認識を行うことによってユーザの発話した目的地を認識する。または、LCD38に、目的地を名称または住所などから選択または指定可能な目的地設定用画面を表示しておく。そして、タッチパネル40からの座標データと画面に表示されているボタンやアイコン等の位置データとに基づいて、ユーザによって指示ないし選択された目的地を特定する。入力された目的地の位置データ(緯度、経度、高度)は、HDD54に記憶されていた地図データから取得され、目的地データとしてRAM54に記憶される。なお、目的地として、その緯度、経度、高度が入力されてもよい。ステップS27を終了すると、この目的地入力処理を終了して処理は図5のステップS5へ戻る。  In step S27, the destination is set according to the voice utterance of the pedestrian, that is, the user or the operation of thetouch panel 40. Specifically, the destination spoken by the user is recognized by performing voice recognition on the voice data acquired by themicrophone 46. Alternatively, a destination setting screen on which a destination can be selected or designated from a name or an address is displayed on theLCD 38. Then, based on the coordinate data from thetouch panel 40 and position data such as buttons and icons displayed on the screen, the destination designated or selected by the user is specified. The input position data (latitude, longitude, altitude) of the destination is acquired from the map data stored in theHDD 54 and stored in theRAM 54 as destination data. Note that the latitude, longitude, and altitude may be input as the destination. When step S27 ends, the destination input process ends, and the process returns to step S5 in FIG.

図5のステップS5では、現在地から目的地までの経路を、探索用経路に関する情報を含む地図データに基づいて探索して、移動経路情報を生成し、RAM52記憶する。なお、地図データは予めHDD54に記憶されている。現在地から目的地までの経路の探索および生成は、公知のカーナビゲーションシステムなどの手法を使用すればよい。なお、この実施例では、歩行補助ロボット10で経路を探索および生成するようにしているが、他の実施例では、目的地までの移動経路情報をネットワーク80から取得するようにしてもよい。たとえば、現在地と目的地の情報をネットワーク80上の経路探索用サーバに送信して、当該サーバが地図データに基づいて現在地から目的地までの経路の探索および生成を行って、当該移動経路情報を歩行補助ロボット10に送信するようにしてもよい。なお、プラットフォーム82に上記経路探索用サーバとしての機能を備えさせてもよい。この場合、プラットフォーム82は歩行補助ロボット10の現在地だけでなく目的地も把握することができる。  In step S5 of FIG. 5, a route from the current location to the destination is searched based on map data including information related to the search route, travel route information is generated, and stored in theRAM 52. The map data is stored in theHDD 54 in advance. The search and generation of the route from the current location to the destination may be performed using a method such as a known car navigation system. In this embodiment, the walking assistrobot 10 searches for and generates a route. However, in another embodiment, movement route information to the destination may be acquired from thenetwork 80. For example, information on the current location and the destination is transmitted to a route search server on thenetwork 80, and the server searches and generates a route from the current location to the destination based on the map data. It may be transmitted to the walking assistrobot 10. Theplatform 82 may be provided with a function as the route search server. In this case, theplatform 82 can grasp not only the current location of the walking assistrobot 10 but also the destination.

そして、ステップS7で移動処理を実行する。これによって、作成した経路に沿って歩行者と共に移動する。この移動処理では、歩行者と当該歩行補助ロボット10との位置関係を所定の範囲内に保つように位置調整を行いながら、経路に沿う方向に一定距離だけ進む移動が行われ、当該移動処理を繰返すことによって目的地まで歩行者を誘導する。この移動処理の動作の一例が図7に示される。  And a movement process is performed by step S7. Thereby, it moves with the pedestrian along the created route. In this movement process, the position is adjusted so that the positional relationship between the pedestrian and the walking assistrobot 10 is kept within a predetermined range, and the movement is performed by a predetermined distance in the direction along the route. Repeat to guide the pedestrian to the destination. An example of the movement processing operation is shown in FIG.

移動処理を開始すると、ステップS41で、たとえば触覚センサ48、カメラ44および音声、またはプラットフォーム82を用いて、歩行者の位置を確認する。具体的には、触覚センサ48からの触覚情報に基づいて歩行者が歩行補助ロボット10に触っているか否かを判定し、反応がある場合には歩行者が歩行補助ロボット10から離れていない、つまり、当該ロボット10の声が届く範囲内に存在していることが確認できる。また、顔サーボモータ78および首サーボモータ76を制御してカメラ44で全方向を撮影することによって取得した画像データに基づいて歩行者の特徴(予め設定しておいた服の色など)の検出を行う。歩行者の特徴が検出される場合には当該歩行者が歩行補助ロボット10から離れていないことが確認できる。また、スピーカ34からの音声出力によって歩行者の名前を呼びかけたり話しかけたりして、歩行者からの応答をマイク46で取得した音声データから検出する。応答が検出される場合には当該歩行者が歩行補助ロボット10から離れていないことが確認できる。または、プラットフォーム82に歩行者の識別情報を含む要求を送信して、プラットフォーム82から当該歩行者の現在地を示す位置データを取得する。そして、当該歩行補助ロボット10の現在地と歩行者の現在地から両者の距離を算出し、当該算出距離が所定の閾値以下であるか否かを判定する。なお、所定の閾値は、たとえば当該ロボット10の出力音声が届く最大距離を実験によって計測することで得られる。なお、ステップS41では、距離センサ22で歩行者との距離を計測するようにしてもよい。または、後述する他の実施例のような歩行者位置検出処理(図9)を実行してもよい。  When the movement process is started, in step S41, for example, the position of the pedestrian is confirmed by using thetactile sensor 48, thecamera 44 and the voice, or theplatform 82. Specifically, it is determined whether or not the pedestrian is touching the walking assistrobot 10 based on the tactile information from thetactile sensor 48, and if there is a reaction, the pedestrian is not separated from the walking assistrobot 10. That is, it can be confirmed that the voice is within a range where the voice of therobot 10 can reach. Also, detection of pedestrian characteristics (such as preset clothing color) based on image data obtained by controlling theface servo motor 78 and theneck servo motor 76 and photographing all directions with thecamera 44. I do. When the feature of the pedestrian is detected, it can be confirmed that the pedestrian is not separated from the walking assistrobot 10. In addition, the pedestrian's name is called or spoken by voice output from thespeaker 34, and a response from the pedestrian is detected from the voice data acquired by themicrophone 46. When a response is detected, it can be confirmed that the pedestrian is not away from the walking assistrobot 10. Alternatively, a request including pedestrian identification information is transmitted to theplatform 82, and position data indicating the current location of the pedestrian is acquired from theplatform 82. Then, the distance between the current location of the walking assistrobot 10 and the current location of the pedestrian is calculated, and it is determined whether or not the calculated distance is equal to or less than a predetermined threshold. The predetermined threshold value can be obtained, for example, by measuring the maximum distance that the output sound of therobot 10 can reach by experiment. In step S41, the distance from the pedestrian may be measured by thedistance sensor 22. Or you may perform the pedestrian position detection process (FIG. 9) like the other Example mentioned later.

次に、ステップS43で、歩行者が当該歩行補助ロボット10の声の届く範囲内に存在しているか否かを判定し、“NO”であれば、ステップS45で歩行者の近隣に移動する。たとえば、プラットフォーム82から取得した歩行者の現在地、当該ロボット10の現在地および向き(進行方向)等から、歩行者の近隣に設定した目標位置へ向かうための方向と距離とを算出する。そして、当該算出した方向および距離の移動を行うための制御データを生成し、当該制御データをモータドライバ72および74に与えて、後輪モータ16および前輪モータ14の回転を制御する。これによって、ユーザと離れないように位置関係を調整することができるので、ユーザを連れて移動することができる。ステップS45を終了すると処理はステップS41に戻って歩行者の位置を確認する。  Next, in step S43, it is determined whether or not the pedestrian is within the range where the voice of the walking assistrobot 10 can reach. If “NO”, the vehicle moves to the vicinity of the pedestrian in step S45. For example, the direction and distance to go to the target position set in the vicinity of the pedestrian is calculated from the current location of the pedestrian acquired from theplatform 82, the current location and direction (traveling direction) of therobot 10, and the like. Then, control data for moving the calculated direction and distance is generated, and the control data is given to themotor drivers 72 and 74 to control the rotation of therear wheel motor 16 and thefront wheel motor 14. Accordingly, the positional relationship can be adjusted so as not to leave the user, so that the user can be moved. When step S45 ends, the process returns to step S41 to confirm the position of the pedestrian.

一方、ステップS43で“YES”であれば、つまり、歩行者が歩行補助ロボット10の近くに存在している場合には、作成した経路に沿った一定距離Aの移動を行う。具体的には、ステップS47で、上述のステップS1と同様にして、プラットフォーム82またはGPS等から歩行補助ロボット10の現在地を取得する。続いて、ステップS49で、現在地の位置データと作成した経路データに基づいて当該経路に沿う方向を計算し、当該方向へ一定距離Bだけ移動する。具体的には、算出した方向および一定距離Bの移動を行うための制御データを生成し、当該制御データをモータドライバ72および74に与えて、後輪モータ16および前輪モータ14の回転を制御する。なお、制御データの生成では、設定された移動速度も考慮される。移動速度はデフォルトであってもよいが、たとえば、ユーザの発話またはタッチパネル操作によって予め複数の候補から選択されたり入力されたりしてもよい。また、一定距離AおよびBの値は適宜に設定される。ただし、距離Bの値は距離Aの値よりも小さい。そして、ステップS51で、歩行補助ロボット10は今回の移動処理を開始してから一定距離Aだけ移動したか否かを判定する。ステップS51で“NO”であれば処理はステップS47へ戻り、一方、“YES”であればこの移動処理を終了して、処理は図5のステップS9へ戻る。このようにして、距離Bの移動ごとに経路に沿うように移動方向が決められ、当該方向への移動が行われる。また、移動処理が開始されるたびに、歩行者の位置が確認され、離れている場合には歩行補助ロボット10は歩行者に近付いて、位置調整を行う。  On the other hand, if “YES” in the step S43, that is, if the pedestrian is present in the vicinity of the walking assistrobot 10, the movement of the constant distance A along the created route is performed. Specifically, in step S47, the current location of the walking assistrobot 10 is acquired from theplatform 82, GPS, or the like in the same manner as in step S1 described above. Subsequently, in step S49, a direction along the route is calculated based on the position data of the current location and the created route data, and a certain distance B is moved in the direction. Specifically, control data for moving the calculated direction and a certain distance B is generated, and the control data is given to themotor drivers 72 and 74 to control the rotation of therear wheel motor 16 and thefront wheel motor 14. . In the generation of control data, the set moving speed is also taken into consideration. The moving speed may be default, but may be selected or input from a plurality of candidates in advance by the user's speech or touch panel operation, for example. The values of the constant distances A and B are set as appropriate. However, the value of distance B is smaller than the value of distance A. In step S51, the walking assistrobot 10 determines whether or not the walking assistrobot 10 has moved a certain distance A after starting the current movement process. If “NO” in the step S51, the process returns to the step S47, whereas if “YES”, the moving process is ended, and the process returns to the step S9 in FIG. In this way, the movement direction is determined along the route for each movement of the distance B, and the movement in the direction is performed. Further, every time the movement process is started, the position of the pedestrian is confirmed, and when it is away, the walking assistrobot 10 approaches the pedestrian and performs position adjustment.

図5のステップS9では、目的地に到着したか否かが判定される。たとえば、GPSまたはプラットフォーム82等の環境インフラから現在地の位置データを取得して、現在地の位置データと目的地の位置データとが一致するか否かを判定する。現在地が目的地から所定距離内であれば両者は一致すると判定してよい。ステップS9で“NO”であれば、処理はステップS7へ戻って再び移動処理を行う。  In step S9 of FIG. 5, it is determined whether the destination has been reached. For example, the current location data is acquired from environmental infrastructure such as GPS orplatform 82, and it is determined whether the current location data matches the destination location data. If the current location is within a predetermined distance from the destination, it may be determined that the two match. If “NO” in the step S9, the process returns to the step S7 to perform the moving process again.

このようにして、目的地に到着するまでは、距離Aの移動ごとに歩行者の位置が確認されるとともに、距離Bの移動ごとに経路に沿った方向が決められて移動が行われる。したがって、この実施例によれば、歩行者を連れて移動することができるとともに、歩行者を目的地まで正確に誘導することができる。  In this way, the position of the pedestrian is confirmed for each movement of the distance A and the direction along the route is determined for each movement of the distance B until the arrival at the destination. Therefore, according to this embodiment, while being able to move with the pedestrian, the pedestrian can be accurately guided to the destination.

なお、移動速度は一定にされてもよいが、他の実施例では、歩行者に合わせて移動速度を調整するようにしてもよい。たとえば、歩行者の状態(位置および姿勢など)の変化や歩行者と歩行補助ロボット10との距離の変化などに応じて、速度が調整されてよい。  In addition, although a moving speed may be made constant, in another Example, you may make it adjust a moving speed according to a pedestrian. For example, the speed may be adjusted according to a change in a pedestrian's state (position and posture, etc.), a change in the distance between the pedestrian and the walking assistrobot 10, and the like.

図8には速度調整処理の動作の一例が示される。この速度調整処理は、たとえば、一定時間ごとに他の処理(移動処理)と並列的に実行されてもよいし、図5のステップS7の移動処理の終了後に実行されてもよいし、所定の距離の移動ごとに実行されてもよい。  FIG. 8 shows an example of the operation of the speed adjustment process. This speed adjustment processing may be executed in parallel with other processing (movement processing) at regular intervals, for example, or may be executed after the completion of the movement processing in step S7 in FIG. It may be executed for each movement of the distance.

速度調整処理を開始すると、ステップS61で、歩行者位置検出処理が実行され、当該歩行補助ロボット10と一緒に移動している人の位置が検出される。この歩行者位置検出処理の動作の一例が図9に示される。  When the speed adjustment process is started, a pedestrian position detection process is executed in step S61, and the position of the person moving with the walking assistrobot 10 is detected. An example of the operation of this pedestrian position detection process is shown in FIG.

図9のステップS91で、タグリーダ66を用いて周囲を計測し、歩行者に装着されるタグ92の検出を試みる。歩行者に装着されるタグ92は、たとえばパッシブ型の無線タグであり、タグリーダ66の放つ電波で駆動されて、識別情報を発信する。この種のタグの交信可能範囲はたとえば1m程度の短距離であり、したがって、ここでは短距離で反応する無線タグが検出され得る。  In step S91 of FIG. 9, the circumference is measured using thetag reader 66, and detection of thetag 92 worn by the pedestrian is attempted. Thetag 92 attached to the pedestrian is a passive wireless tag, for example, and is driven by radio waves emitted from thetag reader 66 to transmit identification information. The communicable range of this type of tag is a short distance of, for example, about 1 m. Therefore, a wireless tag that reacts at a short distance can be detected here.

次に、ステップS93で、対象としている人のIDが存在するか否かを判定する。つまり、歩行者のIDを検出できたか否かを判断する。歩行者の所持するタグ92の識別情報すなわちIDは、当該歩行者の識別情報に対応付けて、予めまたは移動前に歩行補助ロボット10に登録される。あるいは、タグ92は、歩行者の識別情報を発信してもよい。ステップS93で“NO”であれば、つまり、歩行者が近くにいない場合には、ステップS95で、音声発話によって、対象としている人の名前を呼びかける。たとえば、歩行者の名前は、移動前にタッチパネル操作等によって歩行補助ロボット10に登録されている。当該名前を発音する合成音声データが生成されて当該名前の音声が出力される。これによって、歩行者を歩行補助ロボット10の方へ近付けさせる。ステップS95を終了すると処理はステップS91に戻る。  Next, in step S93, it is determined whether or not the ID of the target person exists. That is, it is determined whether or not the pedestrian ID has been detected. The identification information of thetag 92 possessed by the pedestrian, that is, the ID, is registered in the walking assistrobot 10 in advance or before the movement in association with the identification information of the pedestrian. Alternatively, thetag 92 may transmit pedestrian identification information. If “NO” in the step S93, that is, if the pedestrian is not nearby, in step S95, the name of the target person is called by voice utterance. For example, the name of the pedestrian is registered in the walking assistrobot 10 by a touch panel operation or the like before moving. Synthetic voice data for generating the name is generated, and the voice of the name is output. As a result, the pedestrian is brought closer to the walking assistrobot 10. When step S95 ends, the process returns to step S91.

一方、ステップS93で“YES”であれば、つまり、歩行者が当該歩行補助ロボット10の近距離範囲内に存在している場合には、ステップS97で、触覚センサ48からの触覚情報を取得して、触覚センサ48が触られているか否かを判定する。  On the other hand, if “YES” in the step S93, that is, if the pedestrian is present within the short distance range of the walking assistrobot 10, the tactile information from thetactile sensor 48 is acquired in a step S97. Then, it is determined whether or not thetouch sensor 48 is touched.

なお、タグリーダ66で歩行者のIDを検出した場合には、当該歩行者IDをネットワーク80を介してプラットフォーム82に送信し、人位置情報DB82bに当該歩行者の位置を記録させるようにしてよい。  When thetag reader 66 detects the pedestrian ID, the pedestrian ID may be transmitted to theplatform 82 via thenetwork 80, and the position of the pedestrian may be recorded in the humanposition information DB 82b.

ステップS97で“YES”であれば、つまり、歩行者が歩行補助ロボット10に触っている場合には、ステップS99で、取得した触覚情報とHDD54に記憶されているマップデータとに基づいて、歩行補助ロボット10に触れている歩行者の位置および姿勢を推定する。  If “YES” in the step S97, that is, if the pedestrian is touching the walking assistrobot 10, the walking is performed based on the acquired tactile information and the map data stored in theHDD 54 in a step S99. The position and posture of the pedestrian who is touching theauxiliary robot 10 are estimated.

続いて、ステップS101で、推定した位置および姿勢から当該歩行者の顔の位置を推定して、当該顔の位置をカメラ44で確認する。具体的には、推定した顔の位置にカメラ44を向けるための制御データを生成し、当該制御データをサーボコントローラ68および70に与えて、首サーボモータ76および顔サーボモータ78の回転を制御し、球体42すなわちカメラ44を当該顔の位置へ向ける。そして、カメラ44からの画像データを取得して、当該画像データに基づいて歩行者の顔(たとえば肌色領域あるいは顔の特徴)の検出を試みる。  Subsequently, in step S101, the position of the face of the pedestrian is estimated from the estimated position and posture, and the position of the face is confirmed by thecamera 44. Specifically, control data for directing thecamera 44 to the estimated face position is generated, and the control data is given to theservo controllers 68 and 70 to control the rotation of theneck servo motor 76 and theface servo motor 78. Thesphere 42, that is, thecamera 44 is directed to the position of the face. Then, image data from thecamera 44 is acquired, and detection of a pedestrian's face (for example, a skin color region or a facial feature) is attempted based on the image data.

そして、ステップS103で、歩行者が推定位置に存在するか否かを判断する。このステップS103で“NO”であれば、つまり、触覚情報から推定した位置に歩行者が存在していない場合には、処理はステップS105へ進む。一方、ステップS103で“YES”であれば、処理はステップS109へ進む。また、ステップS97で“NO”であれば、つまり、歩行者が歩行補助ロボット10に触れていない場合には、処理はステップS105へ進む。  In step S103, it is determined whether a pedestrian is present at the estimated position. If “NO” in this step S103, that is, if a pedestrian is not present at the position estimated from the tactile information, the process proceeds to a step S105. On the other hand, if “YES” in the step S103, the process proceeds to a step S109. If “NO” in the step S97, that is, if the pedestrian is not touching the walking assistrobot 10, the process proceeds to a step S105.

ステップS105では、カメラ44などで歩行補助ロボット10の周囲360度全てを計測する。たとえば、サーボコントローラ68を用いて首サーボモータ76を制御してヨー軸A周りで操作部36を回転して後方に向ける。そして、サーボコントローラ70を用いて顔サーボモータ78を制御してヨー軸Bおよびピッチ軸C周りで球体42すなわちカメラ44の向きを変化させながら、歩行補助ロボット10の後方の全範囲を撮影する。さらに、サーボコントローラ68を用いて首サーボモータ76を制御してヨー軸A周りで操作部36を回転して前方に向けて、その後同様に球体42の向きを変化させながら、歩行補助ロボット10の前方の全範囲を撮影する。  In step S105, all 360 degrees around the walking assistrobot 10 are measured by thecamera 44 or the like. For example, theservo controller 68 is used to control theneck servo motor 76 to rotate theoperation unit 36 around the yaw axis A and turn it backward. Then, theface servomotor 78 is controlled using theservo controller 70 to change the direction of thesphere 42, that is, thecamera 44 around the yaw axis B and the pitch axis C, and the entire range behind the walking assistrobot 10 is photographed. Further, theneck servomotor 76 is controlled by using theservo controller 68 to rotate theoperation unit 36 around the yaw axis A to turn forward, and thereafter, the direction of thesphere 42 is changed similarly, Shoot the entire range in front.

続いて、ステップS107で、撮影した画像データに基づいて、対象としている人の特徴と合致する人の位置を検出する。タグ92の検出により歩行者が当該歩行補助ロボットの近くに存在していることは確認されているので、全方向の撮影によって歩行者の位置を検出することが可能である。対象としている人すなわち歩行者の特徴はたとえばその服の色であってよい。当該特徴は、たとえば、移動前にカメラ44で撮影することによってHDD54またはRAM52に記憶されてよい。全方向の画像のうち特徴の検出された画像が撮影されたときの各軸のサーボモータの回転角度、および当該画像における特徴の位置などから、人の位置を特定する。  Subsequently, in step S107, based on the captured image data, the position of a person that matches the characteristics of the target person is detected. Since it is confirmed by the detection of thetag 92 that the pedestrian is present near the walking assist robot, the position of the pedestrian can be detected by photographing in all directions. The characteristic of the person or pedestrian that is the object may be, for example, the color of the clothes. The feature may be stored in theHDD 54 or theRAM 52 by photographing with thecamera 44 before moving, for example. A person's position is specified from the rotation angle of the servo motor of each axis when an image in which a feature is detected among images in all directions is taken, the position of the feature in the image, and the like.

続くステップS109では、検出した位置に当該歩行補助ロボット10の顔すなわち球体42を向けて、音声発話により話しかける。そして、ステップS111で、検出した位置に対象としている人が存在するか否かを判定する。具体的には、ステップS109における顔を向けての話しかけに対して、歩行者から所定の反応があったか否かを判定する。顔を向けられて話しかけられたとき、人間は何らかの反応を返すことが予期されるので、当該予期される反応の認識を行う。代表的には、話しかけに対する発話があったか否かをマイク46から取得したデータに基づいて判定する。ステップS111で“NO”であれば、顔を向けた位置には歩行者が存在していないと考えられるので、処理はステップS105に戻って人の位置の検出からやり直す。一方、ステップS111で“YES”であれば、人の位置を確認できたのでこの歩行者位置検出処理を終了して、処理は図8のステップS63に戻る。  In the subsequent step S109, the face of the walking assistrobot 10, that is, thesphere 42 is directed to the detected position and spoken by voice utterance. In step S111, it is determined whether there is a target person at the detected position. Specifically, it is determined whether or not a predetermined reaction has been received from a pedestrian in response to the face-to-face conversation in step S109. When a person is faced and talked, human beings are expected to return some kind of response, so that the expected response is recognized. Typically, it is determined based on data acquired from themicrophone 46 whether or not there is an utterance in response to the talk. If “NO” in the step S111, it is considered that there is no pedestrian in the position facing the face, so the process returns to the step S105 and starts again from the detection of the position of the person. On the other hand, if “YES” in the step S111, since the position of the person has been confirmed, the pedestrian position detecting process is ended, and the process returns to the step S63 in FIG.

続いて、図8のステップS63で、触覚センサ48から取得した触覚情報に基づいて触覚センサ48に反応があるか否かを判定する。ステップS63で“YES”であれば、つまり、歩行者が歩行補助ロボット10に触れている場合には、ステップS65で、触覚センサ48の出力とマップから推定される歩行者の位置および姿勢を、たとえば現時刻に対応付けてRAM52に記録する。これによって、歩行者の位置および姿勢について、所定回数分の履歴(少なくとも今回と前回)を記録する。そして、ステップS67で、歩行者の位置および姿勢の変化が激しいか否かを判定する。歩行者の歩行ペースと歩行補助ロボット10の移動ペースとが合っていない場合には、歩行補助ロボット10に触れている歩行者は、歩行補助ロボット10に近付き過ぎたり遠ざかり過ぎたりして、その位置および姿勢を大きくまたは頻繁に変えることになると考えられる。したがって、ここでは、歩行者の歩行補助ロボット10に対する触行動に基づいて推定される位置および姿勢の変化に着目して、速度変更の必要性を判定している。  Subsequently, in step S63 of FIG. 8, it is determined whether or not there is a response to thetouch sensor 48 based on the touch information acquired from thetouch sensor 48. If “YES” in the step S63, that is, if the pedestrian is touching the walking assistrobot 10, the position and posture of the pedestrian estimated from the output of thetouch sensor 48 and the map are determined in step S65. For example, it is recorded in theRAM 52 in association with the current time. As a result, the history (at least this time and the previous time) for a predetermined number of times is recorded for the position and posture of the pedestrian. Then, in step S67, it is determined whether or not the pedestrian's position and posture are greatly changed. When the walking pace of the pedestrian and the movement pace of the walking assistrobot 10 do not match, the pedestrian touching the walking assistrobot 10 is too close to or far away from the walking assistrobot 10, and its position And the posture will change greatly or frequently. Therefore, here, the necessity of speed change is determined by paying attention to the change in position and posture estimated based on the tactile behavior of the pedestrian to the walking assistrobot 10.

ステップS67で“YES”であれば、ステップS69で速度変更処理を実行し、“NO”であれば、ステップS71で現在の移動速度を維持する。ステップS69の速度変更処理の動作は後述される。  If “YES” in the step S67, a speed changing process is executed in a step S69, and if “NO”, the current moving speed is maintained in a step S71. The operation of the speed change process in step S69 will be described later.

一方、ステップS63で“NO”であれば、つまり、歩行者が歩行補助ロボット10に触れていない場合には、ステップS73で、距離センサ22などによって歩行者との距離を計測して、当該距離をたとえば現時刻に対応付けてRAM52に記録する。ステップS61の歩行者位置検出処理で歩行者の位置が検出されているので、当該歩行者の位置に向けられている距離センサ22からの計測データを元に距離を記録する。これによって、歩行者と歩行補助ロボット10との距離について、所定回数分の履歴(少なくとも今回と前回)を記録する。そして、ステップS75で、歩行者との距離が変化しているか否かを判断する。歩行者の歩行ペースと歩行補助ロボット10の移動ペースとが合っていない場合には、歩行者は、歩行補助ロボット10に近付いたり遠ざかったりして、両者間の距離が変化することになると考えられる。したがって、ここでは、歩行者と歩行補助ロボット10との距離の変化に着目して、速度変更の必要性を判定している。  On the other hand, if “NO” in the step S63, that is, if the pedestrian is not touching the walking assistrobot 10, the distance to the pedestrian is measured by thedistance sensor 22 or the like in a step S73, and the distance. Is recorded in theRAM 52 in association with the current time, for example. Since the position of the pedestrian is detected in the pedestrian position detection process in step S61, the distance is recorded based on the measurement data from thedistance sensor 22 directed to the position of the pedestrian. As a result, the history (at least this time and the previous time) for a predetermined number of times is recorded for the distance between the pedestrian and the walking assistrobot 10. In step S75, it is determined whether the distance from the pedestrian has changed. When the walking pace of the pedestrian and the movement pace of the walking assistrobot 10 do not match, the pedestrian approaches or moves away from the walking assistrobot 10 and the distance between the two changes. . Therefore, the necessity of speed change is determined here by paying attention to the change in the distance between the pedestrian and the walking assistrobot 10.

ステップS75で“YES”であれば、ステップS69で速度変更処理を実行し、“NO”であれば、ステップS77で現在の移動速度を維持する。ステップS69の速度変更処理の動作は後述される。ステップS71、S77またはS69を終了すると、この速度調整処理を終了する。  If “YES” in the step S75, a speed changing process is executed in a step S69, and if “NO”, the current moving speed is maintained in a step S77. The operation of the speed change process in step S69 will be described later. When step S71, S77 or S69 ends, the speed adjustment processing ends.

ステップS69の速度変更処理の動作の一例が図10に示される。図10のステップS121で、対象としている人に向けて、たとえば「ゆっくり移動しますか?」と発話する。具体的には、図9の歩行者位置検出処理におけるステップS109と同様に、当該位置に顔すなわち球体42を向けるとともに、上記音声をスピーカ34から出力する。  An example of the operation of the speed change process in step S69 is shown in FIG. In step S121 of FIG. 10, for example, “Do you move slowly?” Is spoken toward the target person. Specifically, similarly to step S109 in the pedestrian position detection process of FIG. 9, the face, that is, thesphere 42 is directed to the position, and the sound is output from thespeaker 34.

続いて、ステップS123で、上記発話に対して肯定する返答が得られたか否かを、マイク46からの音声入力データの音声認識によって判定する。ステップS125で“YES”であれば、ステップS125で移動速度を減少する。たとえば、現在の移動速度の値から一定値だけ減算して、当該新たな移動速度をRAM52に記憶する。  Subsequently, in step S123, it is determined by voice recognition of voice input data from themicrophone 46 whether or not an affirmative reply is obtained for the utterance. If “YES” in the step S125, the moving speed is decreased in a step S125. For example, a predetermined value is subtracted from the current moving speed value, and the new moving speed is stored in theRAM 52.

一方、ステップS123で“NO”であれば、つまり、否定的な返答が得られた場合、または一定時間経過しても返答が得られなかった場合等には、ステップS127で、対象としている人に向けて、たとえば「はやく移動しますか?」と発話する。そして、ステップS129で、上記発話に対して肯定する返答が得られたか否かを判定する。ステップS129で“YES”であれば、ステップS131で移動速度を増加する。たとえば、現在の移動速度の値に一定値を加算し、当該新たな移動速度をRAM52に記憶する。  On the other hand, if “NO” in the step S123, that is, if a negative response is obtained, or if a response is not obtained even after a lapse of a certain time, the target person in the step S127. For example, say "Do you want to move quickly?" In step S129, it is determined whether or not an affirmative reply has been obtained for the utterance. If “YES” in the step S129, the moving speed is increased in a step S131. For example, a fixed value is added to the current moving speed value, and the new moving speed is stored in theRAM 52.

また、ステップS129で“NO”であれば、つまり、否定的な返答が得られた場合、または一定時間経過しても返答が得られなかった場合には、ステップS133で現在の移動速度を維持する。ステップS125、S131またはS133を終了すると、この速度変更処理を終了する。このようにして、歩行補助ロボット10と歩行者とのコミュニケーションによって、簡単に速度を変更することができる。  If “NO” in the step S129, that is, if a negative response is obtained, or if a response is not obtained even after a predetermined time has passed, the current moving speed is maintained in the step S133. To do. When step S125, S131, or S133 ends, the speed change process ends. In this way, the speed can be easily changed by communication between the walking assistrobot 10 and the pedestrian.

したがって、図8の速度調整処理によれば、歩行者の状態を見ながら歩行ペースを調整することができるので、歩行者を連れて歩行者に合わせたペースで移動することができる。  Therefore, according to the speed adjustment process of FIG. 8, the walking pace can be adjusted while looking at the state of the pedestrian, so that the pedestrian can be moved at a pace that matches the pedestrian.

また、上述の各実施例の歩行補助ロボット10には座部24を設けて、移動に疲れた歩行者が当該歩行補助ロボット10の移動を停止させて、当該座部24に座って休憩することができるようにしている。つまり、座部24は、人間を搭乗させて移動させるためのものではなく、歩行補助ロボット10を休憩用椅子として機能させる。したがって、他の実施例では、ユーザが歩行補助ロボット10を椅子として扱って座部24に腰掛けたときには、目的地への移動などの長距離移動を自動的にキャンセルするようにしてよい。この機能を実現するための休止処理の動作の一例が図11に示される。この休止処理は、たとえば、図5の誘導処理と並列的に、一定時間ごとに実行される。  In addition, the walking assistrobot 10 of each of the above-described embodiments is provided with theseat portion 24 so that a pedestrian who is tired from the movement stops the movement of the walk assistrobot 10 and sits on theseat portion 24 to take a break. To be able to. In other words, theseat portion 24 is not for moving a person on board, but causes the walking assistrobot 10 to function as a resting chair. Therefore, in another embodiment, when the user treats the walking assistrobot 10 as a chair and sits on theseat 24, a long distance movement such as a movement to the destination may be automatically canceled. An example of the operation of the pause process for realizing this function is shown in FIG. This pause process is executed at regular intervals, for example, in parallel with the guidance process of FIG.

図11のステップS151では、距離センサ22や圧力センサ等で椅子上を計測する。たとえば、この実施例の歩行補助ロボット10では、座部24の上方をセンシングするように、支柱26などにおける適宜な位置に距離センサ22が設置される。したがって、当該座部24上をセンシングする距離センサ22からのデータを取得する。また、座部24に圧力センサまたは接触センサ等を設置し、座部24上に物体が置かれたことを検知するようにしてもよい。この場合、当該圧力センサ等からの出力データを取得する。あるいは、上述の触覚センサ48を座部24の上面にも設けるようにしてもよい。この場合、触覚センサ48からの出力データを取得して、当該データから座部24上のセンサデバイスのデータを取得する。  In step S151 in FIG. 11, the chair is measured by thedistance sensor 22 or the pressure sensor. For example, in the walking assistrobot 10 of this embodiment, thedistance sensor 22 is installed at an appropriate position in thesupport column 26 so as to sense the upper portion of theseat portion 24. Therefore, data from thedistance sensor 22 that senses theseat portion 24 is acquired. Further, a pressure sensor or a contact sensor may be installed on theseat portion 24 to detect that an object has been placed on theseat portion 24. In this case, output data from the pressure sensor or the like is acquired. Or you may make it provide the above-mentionedtactile sensor 48 also in the upper surface of theseat part 24. FIG. In this case, output data from thetactile sensor 48 is acquired, and data of the sensor device on theseat portion 24 is acquired from the data.

そして、ステップS153で、計測したデータに基づいて、椅子上に物体が存在するか否かを判定する。なお、距離センサ22の場合には、計測された物体までの距離が座部24の上方の範囲内であるか否かを判定する。ステップS153で“NO”であれば、座部24上に物体がないので、そのままこの休止処理を終了する。  In step S153, it is determined whether an object exists on the chair based on the measured data. In the case of thedistance sensor 22, it is determined whether or not the measured distance to the object is within the range above theseat portion 24. If “NO” in thestep S 153, there is no object on theseat portion 24, and thus the pause process is ended as it is.

一方、ステップS153で“YES”であれば、つまり、座部24上に何らかの物体が存在する場合には、当該座部24上の物体がユーザであるか否かを確認するために、ステップS155で歩行者位置検出処理を実行する。この歩行者位置検出処理は上述の図9と同じ処理であってよい。つまり、触覚センサ48に基づく位置および姿勢の推定、カメラ44による位置検出、および音声発話に基づく確認などによって位置が検出される。  On the other hand, if “YES” in the step S153, that is, if any object exists on theseat portion 24, in order to confirm whether or not the object on theseat portion 24 is a user, the step S155 is performed. The pedestrian position detection process is executed. This pedestrian position detection process may be the same process as in FIG. That is, the position is detected by estimating the position and orientation based on thetactile sensor 48, detecting the position by thecamera 44, and confirming based on the voice utterance.

そして、ステップS157で、検出位置は椅子の上であったか否かを判定する。ステップS157で“NO”であれば、つまり、座部24上に物体はあるが、ユーザではない場合には、そのままこの休止処理を終了する。したがって、座部24上にカバンや手荷物などを載せて移動することが可能である。  In step S157, it is determined whether or not the detection position is on the chair. If “NO” in the step S157, that is, if there is an object on theseat portion 24 but not a user, the pause process is ended as it is. Therefore, it is possible to move a bag or baggage on theseat 24.

一方、ステップS157で“YES”であれば、つまり、座部24にユーザが座っている場合には、ステップS159で、長距離移動をキャンセルするとともに、回転および短距離移動のみを許可する。たとえば、RAM52上に設けた長距離移動キャンセルフラグをオンにする。これによって、図7の移動処理では、ステップS49の一定距離Bの移動処理が実行されない。たとえば、ステップS49の前などで、長距離移動キャンセルフラグの判定を行い、当該フラグがオフのときに処理をステップS49へ進め、当該フラグがオンのときには処理をステップS51に進めるようにしてもよい。あるいは、移動処理のプログラムの実行を中断するようにしてもよい。また、長距離移動キャンセルフラグがオンである場合には、回転と短距離(たとえば30cm程度)の移動の実行は許可される。これによって、たとえば、その場で回転して、歩行補助ロボット10の向き(進行方向)を変えることが可能である。また、人や物体が近付いて来たことが距離センサ22等の出力データに基づいて検出された場合等には、当該人や物体を回避することができる。ステップS159を終了するとこの休止処理を終了する。なお、図11では省略したが、長距離移動キャンセルフラグがオンである場合において、座部24上にユーザが検出されなくなったときには、長距離移動キャンセルフラグをオフにする。これによって、図7の移動処理が再開される。このように、休止処理を実行することによって、座部24上に座らせてユーザにその場で休憩をしてもらうことができる。しかも、ユーザが座部24に座っているときには、長距離移動が実行されないようにしているので、ユーザを搭乗させた状態で長距離たとえば目的地まで移動するような危険を回避できる。  On the other hand, if “YES” in the step S157, that is, if the user is sitting on theseat 24, the long-distance movement is canceled and only the rotation and the short-distance movement are permitted in a step S159. For example, a long distance movement cancel flag provided on theRAM 52 is turned on. Thereby, in the movement process of FIG. 7, the movement process of the constant distance B of step S49 is not executed. For example, the long distance movement cancel flag may be determined before step S49, and the process may proceed to step S49 when the flag is off, and the process may proceed to step S51 when the flag is on. . Or you may make it interrupt execution of the program of a movement process. Further, when the long distance movement cancel flag is ON, execution of rotation and movement of a short distance (for example, about 30 cm) is permitted. Thereby, for example, it is possible to change the direction (traveling direction) of the walking assistrobot 10 by rotating on the spot. Further, when it is detected that a person or an object is approaching based on output data from thedistance sensor 22 or the like, the person or object can be avoided. When step S159 ends, the pause process ends. Although omitted in FIG. 11, when the long distance movement cancel flag is on and the user is no longer detected on theseat 24, the long distance movement cancel flag is turned off. Thereby, the movement process of FIG. 7 is resumed. As described above, by executing the pause process, the user can sit on theseat 24 and have the user take a break on the spot. Moreover, since the long distance movement is not performed when the user is sitting on theseat 24, it is possible to avoid the danger of moving to a destination, for example, a long distance with the user on board.

また、プラットフォーム82には付属位置情報DB82が設けられるので、他の実施例では、移動時に経路上の特徴や問題点などの情報を歩行者に提供するようにしてもよい。この機能を実現するための警告処理(情報提供処理)の動作の一例が図12に示される。この警告処理は、図5のステップS7の移動処理と並列的に、一定時間ごとに実行されてよい。あるいは、図7の移動処理のステップS49の一定距離Bの移動ごとに、この警告処理を他の処理と並列的に実行するようにしてもよい。  In addition, since the attachedposition information DB 82 is provided in theplatform 82, in another embodiment, information such as characteristics and problems on the route may be provided to the pedestrian when moving. An example of the operation of warning processing (information provision processing) for realizing this function is shown in FIG. This warning process may be executed at regular intervals in parallel with the movement process in step S7 of FIG. Alternatively, this warning process may be executed in parallel with other processes for each movement of a certain distance B in step S49 of the movement process of FIG.

警告処理を開始すると、図12のステップS171で、プラットフォーム82またはGPS等に基づく現在地を取得する。なお、図7の移動処理のステップS47で現在地がRAM52に取得されているので、当該現在地の位置データを読み出すようにしてよい。  When the warning process is started, the current location based on theplatform 82 or GPS is acquired in step S171 of FIG. Since the current location is acquired in theRAM 52 in step S47 of the movement process in FIG. 7, the position data of the current location may be read out.

次に、ステップS173で、現在地に付随する情報をプラットフォーム82に問い合わせる。具体的には、現在地の位置データを含む問い合わせデータをネットワーク80を介してプラットフォーム82に送信する。これに応じて、プラットフォーム82は、受信した位置データを条件として位置付属情報DB82cを検索する。プラットフォーム82は、当該位置データに対応付けられた情報が登録されている場合には、当該情報を位置付属情報DB82cから読み出して、歩行補助ロボット10にネットワーク80を介して返信する。一方、当該位置に付随する情報が登録されていない場合には、プラットフォーム82は、たとえば付随情報なしを示すデータを返信する。  Next, in step S173, theplatform 82 is inquired for information associated with the current location. Specifically, inquiry data including position data of the current location is transmitted to theplatform 82 via thenetwork 80. In response to this, theplatform 82 searches the position attachedinformation DB 82c using the received position data as a condition. When information associated with the position data is registered, theplatform 82 reads the information from the position attachedinformation DB 82c and sends it back to the walking assistrobot 10 via thenetwork 80. On the other hand, when the information accompanying the position is not registered, theplatform 82 returns data indicating no accompanying information, for example.

続いて、ステップS175で、付随情報(付属情報)ありか無しかを判定する。“NO”であれば、つまり、付随情報なしを示すデータをネットワーク80を介して受信した場合には、そのままこの警告処理を終了する。  Subsequently, in step S175, it is determined whether or not accompanying information (attached information) is present. If “NO”, that is, if data indicating no accompanying information is received via thenetwork 80, the warning process is terminated as it is.

一方、ステップS175で“YES”であれば、つまり、プラットフォーム82からの付随情報を受信した場合には、ステップS177で、受信した現在地に付随する情報をRAM52に取得する。この付随情報は、上述のように、画面表示用のデータと音声出力用のデータであってよい。  On the other hand, if “YES” in the step S175, that is, if accompanying information from theplatform 82 is received, information accompanying the received current location is acquired in theRAM 52 in a step S177. As described above, the accompanying information may be screen display data and audio output data.

続いて、ステップS179で、歩行者位置検出処理を実行する。なお、この歩行者位置検出処理は図9の処理と同じであってよい。だたし、図8の速度調整処理も同時に実行されるような実施例では、速度調整処理のステップS61の歩行者位置検出処理で検出された位置を使用することができる。  Then, a pedestrian position detection process is performed at step S179. In addition, this pedestrian position detection process may be the same as the process of FIG. However, in the embodiment in which the speed adjustment process of FIG. 8 is also executed at the same time, the position detected in the pedestrian position detection process in step S61 of the speed adjustment process can be used.

そして、ステップS181で、顔、すなわち、操作部36の球体42およびLCD38の設けられた面を、検出された歩行者の位置に向けて、現在地に付随する情報を提供する。具体的には、当該情報の音声をスピーカ34から出力し、当該情報を示す画面をLCD38に表示する。ステップS181を終了するとこの警告処理を終了する。このようにして、経路上を移動中に、歩行者に提供すべき情報、たとえば特徴、問題点、注意事項などが登録されている地点にさしかかったときには、当該情報が出力される。したがって、歩行者の注意を喚起することができ、安全に目的地まで誘導することができる。  In step S181, the face, that is, the surface on which thesphere 42 of theoperation unit 36 and theLCD 38 are provided is directed toward the detected position of the pedestrian to provide information associated with the current location. Specifically, the sound of the information is output from thespeaker 34 and a screen showing the information is displayed on theLCD 38. When step S181 ends, the warning process ends. In this way, when information that should be provided to pedestrians, such as features, problems, and notes, is reached while moving on the route, the information is output. Therefore, a pedestrian's attention can be drawn and it can guide to a destination safely.

なお、環境埋め込み型情報発信機器86が位置付属情報を発信している場合には、当該情報発信機器86から読み取った当該付属情報に基づいて、当該付属情報の提供を行うようにしてよい。  If the environment-embeddedinformation transmitting device 86 is transmitting position-attached information, the attached information may be provided based on the attached information read from theinformation transmitting device 86.

また、上述の各実施例では、図5のステップS9で目的地に到着したと判定されたときに誘導を終了するようにしていた。しかし、他の実施例では、目的地が博物館、店舗などのような建物や屋内を有する施設等であった場合には、当該目的地に到着後に、屋内の誘導処理を実行するようにしてもよい。この機能を実現するための屋内誘導処理の動作の一例が図13に示される。この屋内誘導処理は、図5のステップS9で“YES”と判定された場合に実行される。  In each of the above-described embodiments, the guidance is terminated when it is determined in step S9 in FIG. 5 that the vehicle has arrived at the destination. However, in another embodiment, when the destination is a building or a facility having an indoor structure such as a museum or a store, an indoor guidance process may be executed after arrival at the destination. Good. An example of the operation of the indoor guidance process for realizing this function is shown in FIG. This indoor guidance process is executed when “YES” is determined in step S9 of FIG.

屋内誘導処理を開始すると、ステップS191で、到着した目的地が建物であるか否かを判定する。建物を示すデータは、経路を作成するための地図データ等に予め登録しておくようにしてもよい。あるいは、プラットフォーム82やネットワーク80上の他の装置等に問い合わせするなどしてもよい。ステップS191で“NO”であれば、つまり、目的地の位置に建物が登録されていない場合には、そのままこの屋内誘導処理を終了する。  When the indoor guidance process is started, it is determined in step S191 whether or not the arrival destination is a building. Data indicating a building may be registered in advance in map data or the like for creating a route. Alternatively, inquiries may be made to other devices on theplatform 82 or thenetwork 80. If “NO” in the step S191, that is, if the building is not registered at the destination position, the indoor guidance process is ended as it is.

一方、ステップS191で“YES”であれば、ステップS193で、図5のステップS1と同様にして、プラットフォーム82またはGPS等から現在地を取得する。続いてステップS195で、ネットワーク80から当該建物内の地図情報を取得する。ネットワーク80には、当該建物内の無線LANアクセスポイント84等からアクセスすることができる。たとえば、ネットワーク80上には、建物内の地図情報を提供するサーバが設けられていて、当該サーバに建物の識別情報等を送信することによって当該屋内の検索用経路情報を含む屋内地図情報を取得することができる。あるいは、当該屋内の地図情報を予めHDD54に、記憶媒体やネットワーク80を介して上記サーバ等から取得しておいてもよい。  On the other hand, if “YES” in the step S191, the current location is acquired from theplatform 82 or the GPS in a step S193 similarly to the step S1 in FIG. Subsequently, in step S195, map information in the building is acquired from thenetwork 80. Thenetwork 80 can be accessed from a wirelessLAN access point 84 or the like in the building. For example, a server for providing map information in a building is provided on thenetwork 80, and indoor map information including indoor search route information is acquired by transmitting building identification information or the like to the server. can do. Alternatively, the indoor map information may be acquired in advance in theHDD 54 from the server or the like via a storage medium or thenetwork 80.

そして、ステップS197で当該建物内の目的地を設定するための目的地入力処理を実行する。この処理は図6の処理と同様であり、音声入力やタッチパネル操作で目的地を設定できる。なお、この建物内のある場所を目的地に設定する処理は、屋外のある場所や建物などを目的地として設定する図6の目的地入力処理において、当該目的地が建物か否かの判定を行い、当該目的地が建物であると判定される場合に、続けて実行するようにしてもよい。  In step S197, a destination input process for setting a destination in the building is executed. This process is the same as the process of FIG. 6, and the destination can be set by voice input or touch panel operation. Note that the process of setting a certain place in the building as the destination is performed by determining whether or not the destination is a building in the destination input process of FIG. 6 in which a certain place or building outside is set as the destination. If it is determined that the destination is a building, it may be executed continuously.

続いて、ステップS199で、図5のステップS5と同様にして、当該建物内の経路に関する情報を含んだ屋内地図情報に基づいて現在地から目的地までの経路を探索して、屋内の移動経路情報を生成しRAM52記憶する。なお、他の実施例では、ネットワーク80上の他の装置に屋内目的地等の情報を送信して、当該他の装置で作成された屋内の移動経路情報を取得するようにしてもよい。  Subsequently, in step S199, as in step S5 of FIG. 5, a route from the current location to the destination is searched based on indoor map information including information related to the route in the building, and indoor movement route information is obtained. Is generated and stored in theRAM 52. In another embodiment, information such as an indoor destination may be transmitted to another device on thenetwork 80 to acquire indoor movement route information created by the other device.

そして、ステップS201で、移動処理を実行する。この移動処理は、図7の処理と同様である。ただし、屋内だとGPS信号の受信が困難であるので、現在地は、プラットフォーム82または屋内の埋め込み型情報発信機器86等から取得される。ステップS203で目的地に到着したと判定されるまで、移動処理を繰返し実行し、ステップS203で“YES”であればこの屋内誘導処理を終了する。このようにして、屋内でも目的地までユーザを連れて誘導することができる。歩行補助ロボット10が屋内のみで使用される場合には、図5の屋外の誘導処理に代えてこの屋内誘導処理を初めから実行すればよい。  In step S201, a movement process is executed. This movement process is the same as the process of FIG. However, since it is difficult to receive GPS signals indoors, the current location is acquired from theplatform 82 or the indoor embeddedinformation transmission device 86 or the like. The moving process is repeatedly executed until it is determined in step S203 that the vehicle has arrived at the destination. If “YES” in the step S203, the indoor guidance process is ended. In this way, the user can be guided to the destination even indoors. When the walking assistrobot 10 is used only indoors, this indoor guidance process may be executed from the beginning instead of the outdoor guidance process of FIG.

また、上述の各実施例の歩行補助ロボット10とプラットフォーム82とを含むシステムでは、ネットワーク80に接続されたPC94によって、歩行補助ロボット10や歩行者が現在どこにいるのかを確認することができる。図14には、当該PC94のロボット位置確認処理の動作の一例が示される。  Further, in the system including the walking assistrobot 10 and theplatform 82 of each of the above-described embodiments, thePC 94 connected to thenetwork 80 can confirm where the walking assistrobot 10 and the pedestrian are currently located. FIG. 14 shows an example of the robot position confirmation processing operation of thePC 94.

図14のステップS211では、PC94のユーザ操作によって入力される歩行補助ロボット10のID(識別情報)を取得する。たとえば、PC94の画面にはID入力画面が表示されており、当該画面では、当該PC94のユーザ、すなわち、歩行補助ロボット10と散歩や買い物などの出掛けている歩行者の家族などは、キーボードやマウスなどの入力装置を操作して、当該歩行補助ロボット10のIDを入力することができる。  In step S211 of FIG. 14, the ID (identification information) of the walking assistrobot 10 input by the user operation of thePC 94 is acquired. For example, an ID input screen is displayed on the screen of thePC 94, and on this screen, a user of thePC 94, that is, a family of pedestrians going out for a walk or shopping with the walking assistrobot 10, a keyboard or a mouse The ID of the walking assistrobot 10 can be input by operating an input device such as.

次に、ステップS213で、入力された歩行補助ロボット10のIDをプラットフォーム82にネットワーク80を介して送信する。これに応じて、プラットフォーム82は、ロボット位置情報DB82aを検索して、当該IDに対応づけられた位置データを読み出し、PC94に当該位置データをネットワーク80を介して返信する。これに応じて、PC94は、ステップS215で、歩行補助ロボット10の位置データをプラットフォーム82から受信して記憶する。  Next, instep S 213, the input ID of the walking assistrobot 10 is transmitted to theplatform 82 via thenetwork 80. In response to this, theplatform 82 searches the robotposition information DB 82a, reads the position data associated with the ID, and returns the position data to thePC 94 via thenetwork 80. In response to this, thePC 94 receives the position data of the walking assistrobot 10 from theplatform 82 and stores it in step S215.

そして、ステップS217で、歩行補助ロボット10の位置を地図などの背景を伴ってPC94のディスプレイに表示する。歩行補助ロボット10の位置は、たとえば当該ロボットを示すアイコンを用いて地図上に表示されてよい。  In step S217, the position of the walking assistrobot 10 is displayed on the display of thePC 94 with a background such as a map. The position of the walking assistrobot 10 may be displayed on a map using an icon indicating the robot, for example.

なお、歩行補助ロボット10の現在地とともに歩行者の現在地も一緒に表示するようにしてもよいし、歩行者の現在地のみを表示するようにしてもよい。歩行者の位置は歩行者のIDの入力に応じて表示されてもよい。あるいは、プラットフォーム82で歩行者のIDと歩行補助ロボット10のIDとを対応付けて登録しておくことによって、歩行補助ロボット10のIDのみの入力で、歩行者の位置が表示されるようにしてもよい。また、プラットフォーム82に目的地も登録している場合には、目的地も表示するようにしてもよく、その場合、家族の人等は歩行者の現在地とともに目的地も確認できる。  Note that the current location of the pedestrian may be displayed together with the current location of the walking assistrobot 10, or only the current location of the pedestrian may be displayed. The position of the pedestrian may be displayed according to the input of the pedestrian ID. Alternatively, by registering the pedestrian ID and the ID of the walking assistrobot 10 in association with each other on theplatform 82, the position of the pedestrian can be displayed by inputting only the ID of the walking assistrobot 10. Also good. If the destination is also registered in theplatform 82, the destination may also be displayed. In this case, a family member or the like can check the destination together with the current location of the pedestrian.

この発明の一実施例の歩行補助ロボットの外観を示す図解図である。It is an illustration figure which shows the external appearance of the walking assistance robot of one Example of this invention.図1実施例の使用状態を示す図解図である。It is an illustration figure which shows the use condition of FIG. 1 Example.図1実施例の電気的な構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of an electrical configuration of the embodiment in FIG. 1.歩行補助ロボットと環境のインフラとの連携の概要の一例を示す図解図である。It is an illustration figure which shows an example of the outline | summary of a cooperation with a walking assistance robot and environmental infrastructure.図1実施例の誘導処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the guidance process of FIG. 1 Example.図5の目的地入力処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the destination input process of FIG.図5の移動処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the movement process of FIG.他の実施例で実行される速度調整処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the speed adjustment process performed in another Example.図8の歩行者位置検出処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the pedestrian position detection process of FIG.図8の速度変更処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the speed change process of FIG.他の実施例で実行される休止処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the pause process performed in another Example.他の実施例で実行される警告処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the warning process performed in another Example.他の実施例で目的地到着後に実行される屋内誘導処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the indoor guidance process performed after the destination arrival in another Example.ネットワークに接続されたPCにおいて実行されるロボット位置確認処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the robot position confirmation process performed in PC connected to the network.

符号の説明Explanation of symbols

10 …歩行補助ロボット
12 …車輪
14 …前輪モータ
16 …後輪モータ
22 …距離センサ
24 …座部
30 …つかみ部
34 …スピーカ
36 …操作部(頭部)
38 …LCD
40 …タッチパネル
42 …球体(顔)
44 …カメラ
46 …マイク
48 …触覚センサ
50 …CPU
52 …RAM
54 …HDD
58 …無線通信装置
62 …GPS受信機
66 …タグリーダ
68,70 …サーボコントローラ
72,74 …モータドライバ
76 …首サーボモータ
78 …顔サーボモータ
80 …ネットワーク
82 …ネットワークロボットプラットフォーム
84 …無線LANアクセスポイント
86 …環境埋め込み型情報発信機器
88 …他のロボット
90 …GPS衛星
92 …タグ
94 …PC
DESCRIPTION OFSYMBOLS 10 ... Walkingassistance robot 12 ...Wheel 14 ...Front wheel motor 16 ...Rear wheel motor 22 ...Distance sensor 24 ...Seat part 30 ... Grasppart 34 ...Speaker 36 ... Operation part (head)
38 ... LCD
40 ...touch panel 42 ... sphere (face)
44 ...Camera 46 ...Microphone 48 ...Tactile sensor 50 ... CPU
52 ... RAM
54 HDD
58 ...Wireless communication device 62 ...GPS receiver 66 ...Tag reader 68, 70 ...Servo controller 72, 74 ...Motor driver 76 ...Neck servo motor 78 ...Face servo motor 80 ...Network 82 ...Network robot platform 84 ... WirelessLAN access point 86 ... Environment-embeddedinformation transmitter 88 ...Other robots 90 ...GPS satellites 92 ...Tags 94 ... PC

Claims (8)

Translated fromJapanese
自走式の移動機構、
ユーザがつかまることが可能に形成されたつかみ部、および
前記移動機構の移動を制御する制御手段を備え、
前記制御手段による移動によって前記つかみ部につかまった前記ユーザを動かす、歩行補助ロボット。
Self-propelled movement mechanism,
A grip portion formed so that a user can grip, and a control means for controlling the movement of the moving mechanism,
A walking assist robot that moves the user grasped by the grip portion by movement by the control means.
前記ユーザの発話音声または操作に基づいて目的地を取得する第1目的地取得手段、および
現在地の位置情報を環境インフラを利用して取得する現在地取得手段をさらに備え、
前記制御手段は、前記現在地取得手段によって取得された前記現在地および前記第1目的地取得手段によって取得された前記目的地に基づいて生成された経路情報によって前記移動を制御する、請求項1記載の歩行補助ロボット。
A first destination acquisition means for acquiring a destination based on the user's uttered voice or operation; and a current location acquisition means for acquiring location information of the current location using an environmental infrastructure,
The said control means controls the said movement by the route information produced | generated based on the said present location acquired by the said present location acquisition means and the said destination acquired by the said 1st destination acquisition means. Walking assist robot.
前記ユーザの位置を検出する位置検出手段をさらに備え、
前記制御手段は、前記位置検出手段によって検出された前記位置が所定の範囲内でないとき、当該位置に近付ける位置調整手段を含む、請求項1または2記載の歩行補助ロボット。
Further comprising position detecting means for detecting the position of the user;
The walking assist robot according to claim 1, wherein the control unit includes a position adjustment unit that approaches the position when the position detected by the position detection unit is not within a predetermined range.
体表に設けられた触覚センサによって取得した触覚情報と記憶手段に記憶されたマップとに基づいて前記ユーザの位置および姿勢を推定する推定手段を含み、
前記制御手段は、前記推定手段によって推定された前記位置および姿勢の変化に応じて移動速度を調整する第1速度調整手段を含む、請求項1ないし3のいずれかに記載の歩行補助ロボット。
Including estimation means for estimating the position and posture of the user based on tactile information acquired by a tactile sensor provided on the body surface and a map stored in the storage means,
4. The walking assist robot according to claim 1, wherein the control unit includes a first speed adjustment unit that adjusts a moving speed according to a change in the position and posture estimated by the estimation unit. 5.
前記ユーザとの距離を検出する距離検出手段を含み、
前記制御手段は、前記距離検出手段によって検出された前記距離の変化に応じて移動速度を調整する第2速度調整手段を含む、請求項1ないし4のいずれかに記載の歩行補助ロボット。
A distance detecting means for detecting a distance to the user;
5. The walking assist robot according to claim 1, wherein the control unit includes a second speed adjustment unit that adjusts a moving speed according to a change in the distance detected by the distance detection unit.
前記ユーザの位置を検出する位置検出手段を含む歩行補助ロボットであり、
前記ユーザが座ることが可能に形成された座部をさらに備え、
前記制御手段は、前記位置検出手段によって検出された前記位置が前記座部上である場合に長距離移動をキャンセルし、必要に応じて回転または短距離移動のみを実行する、請求項1ないし5のいずれかに記載の歩行補助ロボット。
A walking assist robot including position detecting means for detecting the position of the user;
And further comprising a seat portion formed to allow the user to sit down,
The control means cancels long-distance movement when the position detected by the position detection means is on the seat, and performs only rotation or short-distance movement as necessary. The walking assist robot according to any one of the above.
現在地の位置情報を環境インフラを利用して取得する現在地取得手段を含む歩行補助ロボットであり、
前記現在地取得手段によって取得された前記現在地の位置情報に付随する情報を出力する情報提供手段をさらに備える、請求項1ないし6のいずれかに記載の歩行補助ロボット。
It is a walking assist robot that includes current location acquisition means for acquiring current location information using environmental infrastructure,
The walking assist robot according to any one of claims 1 to 6, further comprising information providing means for outputting information accompanying position information of the current location acquired by the current location acquiring means.
前記第1目的地取得手段によって取得された前記目的地が建物である場合に当該建物内における屋内目的地をユーザの発話音声または操作に基づいて取得する第2目的地取得手段をさらに備え、
前記制御手段は、前記第1目的地取得手段によって取得された前記目的地に到達後、前記第2目的地取得手段によって取得された前記屋内目的地と前記現在地とに基づいて生成された屋内の経路情報によって前記移動を制御する、請求項2ないし7のいずれかに記載の歩行補助ロボット。
When the destination acquired by the first destination acquisition means is a building, the apparatus further comprises second destination acquisition means for acquiring an indoor destination in the building based on a user's speech or operation,
The control means, after reaching the destination acquired by the first destination acquisition means, an indoor generated based on the indoor destination and the current location acquired by the second destination acquisition means The walking assist robot according to claim 2, wherein the movement is controlled based on route information.
JP2005337184A2005-11-222005-11-22 Walking assist robotWithdrawnJP2007139710A (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2005337184AJP2007139710A (en)2005-11-222005-11-22 Walking assist robot

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2005337184AJP2007139710A (en)2005-11-222005-11-22 Walking assist robot

Publications (1)

Publication NumberPublication Date
JP2007139710Atrue JP2007139710A (en)2007-06-07

Family

ID=38202744

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2005337184AWithdrawnJP2007139710A (en)2005-11-222005-11-22 Walking assist robot

Country Status (1)

CountryLink
JP (1)JP2007139710A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2012035076A (en)*2010-07-302012-02-23Toyota Motor Engineering & Manufacturing North America IncRobotic cane device
CN102445946A (en)*2011-12-022012-05-09天津工业大学Service robot for cafeteria
CN102895092A (en)*2011-12-132013-01-30冷春涛Multi-sensor integration based three-dimensional environment identifying system for walker aid robot
KR101278579B1 (en)*2011-05-132013-06-25주식회사 로보테크intelligent walking assistance robot
KR101321187B1 (en)2013-03-272013-10-22전북대학교산학협력단Walking guide device for a blind man
KR101357098B1 (en)2011-10-252014-02-12주식회사 라이프사이언스테크놀로지Method for detecting and correcting of bio-signal of walking surport device user
CN103759734A (en)*2014-01-242014-04-30成都万先自动化科技有限责任公司Service robot assisting crossing of street
JP2014511206A (en)*2011-01-262014-05-15プスン リサイクリング カンパニィ リミテッド Road guidance system for the visually impaired
JP2014199619A (en)*2013-03-292014-10-23株式会社富士通アドバンストエンジニアリングMovement control method, movement control program and movement control device
JP2015024160A (en)*2014-09-302015-02-05国立大学法人九州工業大学 Self-supporting walking support device
KR101548930B1 (en)2013-12-272015-09-04한국산업기술대학교산학협력단Apparatus for improve the linearity of the walking assistant robot to move on lateral slopes
KR101555930B1 (en)*2013-12-042015-09-30경남대학교 산학협력단Control system of Personal Riding Robot using mobile terminal
CN105404302A (en)*2015-12-032016-03-16联想(北京)有限公司Mobile device and control method
CN107817793A (en)*2017-09-282018-03-20金子旭Forward type tracks robot automatically
JP2018082755A (en)*2016-11-212018-05-31国立大学法人島根大学 Walking assistance vehicle and walking assistance system
CN108367428A (en)*2015-11-162018-08-03触觉机器人有限责任公司 Control system for self-moving platforms
WO2018143509A1 (en)*2017-02-022018-08-09엘지전자 주식회사Moving robot and control method therefor
JP2018134334A (en)*2017-02-232018-08-30パナソニック株式会社 Walking support robot and walking support system
KR20180106351A (en)*2017-03-202018-10-01경희대학교 산학협력단Directional control device for walking assistance
CN109015676A (en)*2018-08-132018-12-18范文捷A kind of robot for accompanying the walking of old man open air
CN109646255A (en)*2019-01-222019-04-19上海交通大学Walk help ancillary equipment and its application method
TWI661336B (en)*2016-10-202019-06-01鴻海精密工業股份有限公司Robot and robot controlling method
US20190358821A1 (en)*2018-05-252019-11-28Panasonic CorporationWalking training robot
JP2021049098A (en)*2019-09-252021-04-01アルパイン株式会社Walking assist device
JP2021115909A (en)*2020-01-232021-08-10トヨタ自動車株式会社 Mobile
CN109862861B (en)*2016-09-292021-09-21科姆派机器人公司Auxiliary mobile robot comprising at least one pivoting support system
JP2022076648A (en)*2020-11-102022-05-20清水建設株式会社 Robot handle
JP7107616B1 (en)2022-01-202022-07-27直子 近藤 Guidance guide cane
KR20230090552A (en)*2021-12-152023-06-22주식회사 어픽System for walking route guiding based on measured data

Cited By (37)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2012035076A (en)*2010-07-302012-02-23Toyota Motor Engineering & Manufacturing North America IncRobotic cane device
JP2014511206A (en)*2011-01-262014-05-15プスン リサイクリング カンパニィ リミテッド Road guidance system for the visually impaired
KR101278579B1 (en)*2011-05-132013-06-25주식회사 로보테크intelligent walking assistance robot
KR101357098B1 (en)2011-10-252014-02-12주식회사 라이프사이언스테크놀로지Method for detecting and correcting of bio-signal of walking surport device user
CN102445946A (en)*2011-12-022012-05-09天津工业大学Service robot for cafeteria
CN102895092A (en)*2011-12-132013-01-30冷春涛Multi-sensor integration based three-dimensional environment identifying system for walker aid robot
KR101321187B1 (en)2013-03-272013-10-22전북대학교산학협력단Walking guide device for a blind man
JP2014199619A (en)*2013-03-292014-10-23株式会社富士通アドバンストエンジニアリングMovement control method, movement control program and movement control device
KR101555930B1 (en)*2013-12-042015-09-30경남대학교 산학협력단Control system of Personal Riding Robot using mobile terminal
KR101548930B1 (en)2013-12-272015-09-04한국산업기술대학교산학협력단Apparatus for improve the linearity of the walking assistant robot to move on lateral slopes
CN103759734A (en)*2014-01-242014-04-30成都万先自动化科技有限责任公司Service robot assisting crossing of street
JP2015024160A (en)*2014-09-302015-02-05国立大学法人九州工業大学 Self-supporting walking support device
CN108367428B (en)*2015-11-162021-05-25触觉机器人有限责任公司 Control system for self-moving platforms
CN108367428A (en)*2015-11-162018-08-03触觉机器人有限责任公司 Control system for self-moving platforms
CN105404302A (en)*2015-12-032016-03-16联想(北京)有限公司Mobile device and control method
CN109862861B (en)*2016-09-292021-09-21科姆派机器人公司Auxiliary mobile robot comprising at least one pivoting support system
TWI661336B (en)*2016-10-202019-06-01鴻海精密工業股份有限公司Robot and robot controlling method
JP2018082755A (en)*2016-11-212018-05-31国立大学法人島根大学 Walking assistance vehicle and walking assistance system
KR102055677B1 (en)*2017-02-022019-12-13엘지전자 주식회사Mobile robot and method for controlling the same
WO2018143509A1 (en)*2017-02-022018-08-09엘지전자 주식회사Moving robot and control method therefor
KR20180090103A (en)*2017-02-022018-08-10엘지전자 주식회사Mobile robot and method for controlling the same
US11161250B2 (en)2017-02-022021-11-02Lg Electronics Inc.Moving robot and control method therefor
JP2018134334A (en)*2017-02-232018-08-30パナソニック株式会社 Walking support robot and walking support system
KR20180106351A (en)*2017-03-202018-10-01경희대학교 산학협력단Directional control device for walking assistance
KR101963953B1 (en)2017-03-202019-07-31경희대학교 산학협력단Directional control device for walking assistance
CN107817793A (en)*2017-09-282018-03-20金子旭Forward type tracks robot automatically
US20190358821A1 (en)*2018-05-252019-11-28Panasonic CorporationWalking training robot
CN109015676A (en)*2018-08-132018-12-18范文捷A kind of robot for accompanying the walking of old man open air
CN109646255A (en)*2019-01-222019-04-19上海交通大学Walk help ancillary equipment and its application method
JP2021049098A (en)*2019-09-252021-04-01アルパイン株式会社Walking assist device
JP2021115909A (en)*2020-01-232021-08-10トヨタ自動車株式会社 Mobile
JP7310620B2 (en)2020-01-232023-07-19トヨタ自動車株式会社 moving body
JP2022076648A (en)*2020-11-102022-05-20清水建設株式会社 Robot handle
KR20230090552A (en)*2021-12-152023-06-22주식회사 어픽System for walking route guiding based on measured data
KR102678130B1 (en)*2021-12-152024-06-26주식회사 어픽System for walking route guiding based on measured data
JP7107616B1 (en)2022-01-202022-07-27直子 近藤 Guidance guide cane
JP2023105863A (en)*2022-01-202023-08-01直子 近藤 Guidance guide cane

Similar Documents

PublicationPublication DateTitle
JP2007139710A (en) Walking assist robot
JP5366048B2 (en) Information provision system
EP3463244B1 (en)Guide robot and method and system for operating the same
US9915545B2 (en)Smart necklace with stereo vision and onboard processing
US9629774B2 (en)Smart necklace with stereo vision and onboard processing
JP3619380B2 (en) In-vehicle input / output device
JP5768273B2 (en) A robot that predicts a pedestrian's trajectory and determines its avoidance behavior
EP2778995A2 (en)Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
JPWO2004052597A1 (en) Robot control apparatus, robot control method, and robot control program
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP2007260822A (en) Road guidance robot
JP5145569B2 (en) Object identification method and apparatus
JPWO2005108926A1 (en) Information processing device, mobile device, and information processing method
WO2015083183A1 (en)Hand wearable haptic feedback based navigation device
CN202409427U (en)Portable intelligent electronic blind guide instrument
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
US11432989B2 (en)Information processor
CN111108463A (en) Information processing apparatus, information processing method, and program
KR101715472B1 (en)Smart walking assistance device for the blind and Smart walking assistance system using the same
KR20180074404A (en)Robot for airport and method thereof
JP2017170568A (en)Service providing robot system
JP4839939B2 (en) Autonomous mobile device
JP5115886B2 (en) Road guidance robot
JP5194314B2 (en) Communication system
JP2006263873A (en) Communication robot system and communication robot

Legal Events

DateCodeTitleDescription
A300Application deemed to be withdrawn because no request for examination was validly filed

Free format text:JAPANESE INTERMEDIATE CODE: A300

Effective date:20090203


[8]ページ先頭

©2009-2025 Movatter.jp