Movatterモバイル変換


[0]ホーム

URL:


WO2017010547A1 - Robot and robot system - Google Patents

Robot and robot system
Download PDF

Info

Publication number
WO2017010547A1
WO2017010547A1PCT/JP2016/070848JP2016070848WWO2017010547A1WO 2017010547 A1WO2017010547 A1WO 2017010547A1JP 2016070848 WJP2016070848 WJP 2016070848WWO 2017010547 A1WO2017010547 A1WO 2017010547A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
cartilage
ear
hand
cartilage conduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/070848
Other languages
French (fr)
Japanese (ja)
Inventor
裕司 細井
陽司 細井
田中 雅英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Finewell Co Ltd
Original Assignee
Rohm Co Ltd
Finewell Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015141168Aexternal-prioritypatent/JP6667172B2/en
Priority claimed from JP2016138187Aexternal-prioritypatent/JP6783451B2/en
Application filed by Rohm Co Ltd, Finewell Co LtdfiledCriticalRohm Co Ltd
Priority to KR1020187000808ApriorityCriticalpatent/KR102056550B1/en
Priority to US15/743,723prioritypatent/US10967521B2/en
Priority to EP16824527.2Aprioritypatent/EP3323567B1/en
Priority to CN201680041763.8Aprioritypatent/CN107848125B/en
Publication of WO2017010547A1publicationCriticalpatent/WO2017010547A1/en
Anticipated expirationlegal-statusCritical
Ceasedlegal-statusCriticalCurrent

Links

Images

Classifications

Definitions

Landscapes

Abstract

Provided is a robot to which is disposed a cartilage vibration-transmission source, the robot being configured so that both hands of the robot are lain onto the face of a person or hold the back of the head, or so that one hand touches the cartilage of the ear. The relative positions of both hands touching the cartilage of both ears are maintained, but movement of the face is not restricted. The hands of the robot extend in the line-of-sight direction of the robot. The mouth of the robot is caused to move in conjunction with cartilage transmission audio. A limiter is applied to the touch pressure of the hands. Permission is sought before touching. Safety is confirmed before touching. When a malfunction occurs, touching with the hands is cancelled. The hands are warmed to the temperature of the human body. The robot makes indirect contact with a person who is wearing an accessory which covers a portion of the cartilage of the ear. Information for specifying the wearer is held in the accessory, and the robot reads such information. When the person guides the hands of the robot, the robot does not resist. When vibrations are transmitted to both ears, the hand of the robot tracks the movement of the head. The cartilage vibration-transmission source is provided to the first finger of the robot, and the second finger of the robot supports the head of the person.

Description

Translated fromJapanese
ロボットおよびロボットシステムRobot and robot system

 本発明は、ロボットおよびロボットシステムに関する。The present invention relates to a robot and a robot system.

 人とのコミュニケーションが可能な種々のロボットが提案されている。例えば特許文献1では、収録した特定個人の声で発話するとともに登録しておいた同人の癖に基づいて同時に四肢を動作させ、愛情などを演出できる人型ロボットが提案されている。一方、独居者の見守りシステムとしては、特許文献2において、見守り対象となる居住者の住居に設置した人感センサ、居住者が装着する加速度センサの双方から検出したデータを受信し、居住者の行動や状態、居住者の住居に発生したイベントを判断することが提案されている。さらに、咀嚼状態認識装置として、特許文献3では、外耳道内に挿入されて外耳道の変形量を検知する検知部からの検知波形に基づき咀嚼回数をカウントすることが提案されている。また、古くから知られていた気導および骨導に加え、第三の伝導ルートとして新たに発見された軟骨伝導については、特許文献4において、外耳道入口部周りの耳軟骨に接触させた振動源の振動により外耳道内部の軟骨表面から気導音が発生し、外耳道内を進んで鼓膜に達することが説明されている。Various robots that can communicate with people have been proposed. For example, Patent Document 1 proposes a humanoid robot that can utter with the voice of a specific individual recorded and simultaneously operate its limbs based on a registered person's habit to produce affection and the like. On the other hand, as a single-person monitoring system, inPatent Document 2, data detected from both a human sensor installed in a residence of a resident to be watched over and an acceleration sensor worn by the resident is received. It has been proposed to determine the behavior, state, and event that occurred in the resident's residence. Furthermore, as a mastication state recognition device, Patent Document 3 proposes counting the number of mastications based on a detection waveform from a detection unit that is inserted into the ear canal and detects the deformation amount of the ear canal. Further, in addition to air conduction and bone conduction that have been known for a long time, the cartilage conduction newly discovered as a third conduction route is disclosed inPatent Document 4 in which a vibration source is brought into contact with the ear cartilage around the ear canal entrance. It is described that air conduction sound is generated from the cartilage surface inside the ear canal due to the vibration of the ear, and travels through the ear canal to reach the eardrum.

特開2010-94799号公報JP 2010-94799 A特開2014-89494号公報JP 2014-89494 A特開2011-10791号公報JP 2011-10791 A特開2013-81047号公報JP 2013-81047 A

 しかしながらロボットおよびロボットを活用したロボットシステムに関しては、さらに検討すべき課題が多い。However, there are many issues to be further studied regarding robots and robot systems using robots.

 本発明の課題は、上記に鑑み、人との適切なコミュニケーションができるなロボットおよびロボットを活用したロボットシステムを提供することにある。In view of the above, an object of the present invention is to provide a robot capable of appropriately communicating with a human and a robot system using the robot.

 上記の課題を解決するため、本発明は、手と、前記手に設けられ人の耳軟骨に振動を伝達するための軟骨伝導振動源とを有することを特徴とするロボットを提供する。これにより自然な動作によるロボットと人との軟骨伝導によるコミュニケーションが可能となる。In order to solve the above-described problems, the present invention provides a robot characterized by having a hand and a cartilage conduction vibration source provided on the hand for transmitting vibration to a human ear cartilage. As a result, it is possible to communicate by cartilage conduction between the robot and a human by natural movement.

 具体的な特徴によれば、ロボットは両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられる。これにより、例えばロボットの両手で人の顔をやさしく包むような癒しのある演出で軟骨伝導によるロボットと人のコミュニケーションが可能となる。さらにステレオによる聴取も可能となる。他の具体的な特徴によれば、ロボットは、前記手に指を有し、前記軟骨伝導振動源は前記指に設けられる。これにより、より効率の良い軟骨伝導が可能となる。より詳細な特徴によれば、前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有する。これにより適切な軟骨伝導のための調節が可能となる。According to a specific feature, the robot has both hands, and the cartilage conduction vibration source is provided in each of the both hands. Thereby, for example, the robot and the person can communicate with each other by cartilage conduction with a healing effect that gently wraps the face of the person with both hands of the robot. Furthermore, listening in stereo becomes possible. According to another specific feature, the robot has a finger on the hand, and the cartilage conduction vibration source is provided on the finger. Thereby, more efficient cartilage conduction becomes possible. According to a more detailed feature, it has an articulation mechanism that guides the entire hand to contact the ear cartilage and adjusts the finger to guide the tragus. This allows adjustment for proper cartilage conduction.

 他の具体的な特徴によれば、ロボットは、前記両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部を有する。これにより、束縛感のない軟骨伝導が可能となる。According to another specific feature, when the both hands touch the cartilage of both ears for cartilage conduction, the robot controls the two hands to keep their relative positions and not restrain the movement of the face. A control unit. Thereby, cartilage conduction without a feeling of restraint becomes possible.

 他の具体的な特徴によれば、ロボットは外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされる。これにより、ロボットとの間でより親密な軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くよう制御される。これによって、自然な軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has an eye whose appearance is movable and is moved in synchronism so that the line of sight of the eye faces between the hands. This enables intimate communication with the robot through cartilage conduction. According to another specific feature, the robot has a mouth mechanism whose appearance is movable, and the mouth mechanism is controlled to move in conjunction with the sound transmitted by the vibration of the cartilage conduction vibration source. This enables communication by natural cartilage conduction.

 他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタを有する。これにより安全な軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段を有する。これによって、不快感のない軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has a limiter for limiting the contact pressure when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. This enables communication by safe cartilage conduction. According to another specific feature, the robot has communication means for asking for consent when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. Thereby, communication by cartilage conduction without discomfort is possible.

 他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部を有する。これによって、安全性の高い軟骨伝導によるコミュニケーションが可能となる。他の具体的な特徴によれば、ロボットは異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触が解除される。これによって万一の場合における不具合を回避できる。According to another specific feature, the robot has a control unit that performs safety confirmation in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. As a result, highly safe communication by cartilage conduction becomes possible. According to another specific feature, the robot has an abnormality detection means, and when the hand contacts the ear cartilage to transmit the vibration of the cartilage conduction vibration source to the ear cartilage, the abnormality detection means detects the abnormality. When detected, contact with the ear cartilage of the hand is released. This avoids problems in the event of an emergency.

 他の具体的な特徴によれば、ロボットは前記手を耳軟骨に導く外力に抗さないようロボットの腕を保持する関節機構を有する。これによってロボットと接触しようとする人が、自分の手でロボットの手を自分の耳軟骨に容易に導くことが出来る。他の具体的な特徴によれば、ロボットは、前記軟骨伝導振動源が人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対し前記手を追従させる追従手段を有する。これにより片側の耳に振動を伝える場合でも人の頭の動きで接触が断たれることを防止できる。According to another specific feature, the robot has a joint mechanism for holding the arm of the robot so as not to resist the external force that guides the hand to the ear cartilage. This allows a person who wants to contact the robot to easily guide the robot's hand to his / her ear cartilage with his / her hand. According to another specific feature, the robot has follow-up means for causing the cartilage conduction vibration source to transmit vibrations to one ear of the person and to follow the hand with the movement of the person's head. Accordingly, even when vibration is transmitted to the ear on one side, it is possible to prevent the contact from being cut off by the movement of the human head.

 他の具体的な特徴によれば、ロボットの前記手は、前記軟骨伝導振動源が設けられる第一の指と、人の頭部の重量を支える第二の指を有する。これにより、例えば横臥している人の頭を抱き起こすロボットの動作に伴って軟骨伝導による自然なコミュニケーションが可能となる。According to another specific feature, the hand of the robot has a first finger provided with the cartilage conduction vibration source and a second finger supporting the weight of the human head. As a result, for example, natural communication by cartilage conduction is possible with the movement of the robot that holds the head of a lying person.

 本発明の他の具体的な特徴によれば、手と、前記手を人肌に加温するヒータとを有することを特徴とするロボットが提供される。これによって不快な冷感を伴わずにロボットと人との触れ合いが可能となる。According to another specific feature of the present invention, there is provided a robot having a hand and a heater for heating the hand to human skin. This makes it possible for the robot and the person to touch each other without an unpleasant cooling sensation.

 本発明の他の具体的な特徴によれば、人の耳軟骨に振動を伝達するための軟骨伝導振動源が手に設けられるとともに多数の人に共用されるロボットと、前記多数の人に個別に装着されるためのものであって少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導振動源の振動を前記多数の人の一人の耳軟骨に伝達することを特徴とするロボットシステムが提供される。これによって、誰が触れたのかわからないロボットの手を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる聴取システムが実現できる。前記装身具は、具体的には例えばイヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つである。According to another specific feature of the present invention, a cartilage conduction vibration source for transmitting vibrations to a human ear cartilage is provided in a hand and is shared by a large number of persons, and the large number of persons individually An accessory that covers at least a portion of the ear cartilage, and indirectly transmits the vibration of the cartilage conduction vibration source via the accessory to one ear cartilage of the multiple persons. There is provided a robot system characterized in that As a result, it is possible to realize a listening system that can sanitarily enjoy the benefits of cartilage conduction despite sharing the hand of the robot who does not know who touched it. Specifically, the accessory is any one of, for example, an ear warmer, a hair band, an ear cuff, and an ear wearing character goods.

 本発明の他の具体的な特徴によれば、装着者を特定するための情報を保持する情報保持部を前記装身具に設けられるとともに、前記ロボットに前記情報を読取る手段が設けられる。これによって、装身具の装着者の要望にきめ細かく対応できるロボットシステムが実現するので装身具を装着する動機付けが可能となる。According to another specific feature of the present invention, an information holding unit for holding information for identifying a wearer is provided in the accessory, and means for reading the information is provided in the robot. As a result, a robot system capable of finely responding to the request of the wearer of the accessory is realized, so that motivation for attaching the accessory can be achieved.

 本発明の他の具体的な特徴によれば、多数の装着者に個別に装着されるとともに装着者を特定するための情報を保持する情報保持部が設けられた装身具と、前記情報を読取る手段が設けられたロボットとを有することを特徴とするロボットシステムが提供される。これによってロボットは個別の装着者それぞれ適した対応をとることができる。According to another specific feature of the present invention, an accessory that is individually worn by a large number of wearers and that is provided with an information holding unit that holds information for identifying the wearers, and means for reading the information A robot system is provided. As a result, the robot can take a suitable action for each individual wearer.

 上記のように、本発明によれば、人との適切なコミュニケーションができるなロボットおよびロボットを活用したロボットシステムが提供される。As described above, according to the present invention, a robot capable of appropriately communicating with a human and a robot system using the robot are provided.

本発明の実施例1のシステム構成図である。(実施例1)It is a system configuration figure of Example 1 of the present invention. Example 1図1の実施例1の詳細構成のブロック図である。It is a block diagram of the detailed structure of Example 1 of FIG.軟骨伝導を説明する耳の断面図である。It is sectional drawing of the ear | edge explaining a cartilage conduction.軟骨伝導の効果を示す実測データの一例を示すグラフである。It is a graph which shows an example of the measurement data which shows the effect of a cartilage conduction.実施例1における耳装着部の機能を示すフローチャートである。3 is a flowchart illustrating functions of an ear wearing unit according to the first embodiment.実施例1における携帯電話の機能を示すフローチャートである。3 is a flowchart illustrating functions of the mobile phone according to the first embodiment.実施例1における住居内モニタ部の機能を示すフローチャートである。It is a flowchart which shows the function of the residence monitor part in Example 1. FIG.本発明の実施例2のシステム構成図である。(実施例2)It is a system configuration | structure figure of Example 2 of this invention. (Example 2)本発明の実施例3のシステム構成図である。(実施例3)It is a system configuration | structure figure of Example 3 of this invention. Example 3図9の実施例3のロボットのブロック図である。It is a block diagram of the robot of Example 3 of FIG.実施例3のロボットの制御部240の機能を示すフローチャートである。12 is a flowchart illustrating functions of acontrol unit 240 of the robot according to the third embodiment.図11のステップS140の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S140 of FIG.本発明の実施例4のシステム構成図である。(実施例4)It is a system configuration | structure figure of Example 4 of this invention. Example 4実施例4のブロック図である。FIG. 10 is a block diagram of Example 4.実施例4の制御部の機能の一部を示すフローチャートである。10 is a flowchart illustrating a part of functions of a control unit according to the fourth embodiment.本発明の実施例5のシステム構成図である。(実施例5)It is a system configuration | structure figure of Example 5 of this invention. (Example 5)実施例5のブロック図である。10 is a block diagram of Embodiment 5. FIG.実施例5の制御部の機能を示すフローチャートである。10 is a flowchart illustrating functions of a control unit according to a fifth embodiment.図18のステップS258の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S258 of FIG.実施例5において装身具を介する接触の様子を示す側面図である。In Example 5, it is a side view which shows the mode of the contact through jewelry.実施例5における銀行全体のシステムブロック図である。It is a system block diagram of the whole bank in Example 5.図21の銀行制御部の機能を示すフローチャートである。It is a flowchart which shows the function of the bank control part of FIG.本発明の実施例6に関する斜視図である。(実施例6)It is a perspective view regarding Example 6 of this invention. (Example 6)

 図1は、本発明の実施の形態に係る実施例1のシステム構成図である。実施例1は、住居2内の見守りシステムを構成しており、対耳輪と耳珠に挟まれて耳甲介腔に納まることによって見守り対象者の耳4の穴の周辺軟骨に接触する耳装着部6(耳構造と区別するため破線で図示)、耳装着部6と近距離通信により情報交換する住居内モニタ部8、および見守り対象者の携帯電話10を含む。携帯電話10は、耳装着部6および住居内モニタ部8と近距離通信により情報交換する。FIG. 1 is a system configuration diagram of Example 1 according to the embodiment of the present invention. The first embodiment constitutes a watch system in thehouse 2 and is put on an ear that comes in contact with the cartilage around the hole of theear 4 of the watch target person by being sandwiched between the antiauricle and the tragus and being placed in the concha cavity. A part 6 (illustrated with a broken line to distinguish it from the ear structure), an in-house monitor part 8 for exchanging information with theear wearing part 6 by short-range communication, and amobile phone 10 of the person to be watched are included. Themobile phone 10 exchanges information with theear wearing unit 6 and the in-house monitor unit 8 by short-range communication.

 耳装着部6は、携帯電話10との近距離通信により携帯電話10のヘッドセットとして機能し、携帯電話10を例えば衣服のポケットに入れたままの状態でも通話が可能である。耳装着部6はまた単独で補聴器としても機能する。このヘッドセットとしての機能および補聴器としての機能は、後述する軟骨伝導を利用したものである。耳装着部6はさらに咀嚼センサを備え、咀嚼運動による耳珠等の移動または外耳道の変形を検知する。なお、耳装着部6は、穴6aを有するリング状の形状をしていて装着時においても外耳道入口は開放しており、穴6aを通して外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な装着を可能とする。また、後述のように、必要に応じ穴6aを指で閉鎖するかまたは掌で覆うことにより、軟骨伝導における外耳道閉鎖効果を得て、より大きな音を聞くことができる。Theear wearing unit 6 functions as a headset of themobile phone 10 by short-range communication with themobile phone 10, and can make a call even when themobile phone 10 is kept in a pocket of clothes, for example. Theear wearing part 6 also functions as a hearing aid alone. The function as a headset and the function as a hearing aid utilize cartilage conduction described later. Theear wearing unit 6 further includes a mastication sensor, and detects movement of the tragus or the like or deformation of the external auditory canal due to mastication. Note that theear mounting portion 6 has a ring shape having a hole 6a, and the ear canal entrance is open even when theear mounting portion 6 is mounted, so that sounds of the outside world can be heard through the hole 6a, and the ear canal has a feeling of obstruction. Allows no comfortable wearing. Further, as described later, by closing the hole 6a with a finger or covering with a palm as necessary, it is possible to obtain an external ear canal closing effect in cartilage conduction and to hear a louder sound.

 住居内モニタ部8は、耳装着部6および携帯電話10と近距離通信するための近距離通信部12および外部と常時接続のインターネット通信を行うデジタル通信部14を有する。制御部16は、近距離通信部12およびデジタル通信部14を含む住居内モニタ部8全体の制御を行う。記憶部18は、制御部16の制御に必要なプログラムを記憶するとともに、制御等に関連する種々のデータを一時記憶する。The in-housing monitor unit 8 includes a nearfield communication unit 12 for performing near field communication with theear wearing unit 6 and themobile phone 10 and adigital communication unit 14 for performing always-on Internet communication with the outside. Thecontrol unit 16 controls the entireresidential monitor unit 8 including the short-range communication unit 12 and thedigital communication unit 14. Thestorage unit 18 stores programs necessary for the control of thecontrol unit 16 and temporarily stores various data related to control and the like.

 以上の構成により、住居内モニタ部8は、耳装着部6からの咀嚼運動の検知結果を近距離通信により受信し、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとしてデジタル通信部14から見守り業者にその旨の通報を行う。また、住居内モニタ部8は、耳装着部6のヘッドセット機能により検知される見守り対象者の音声の有無に関する情報を近距離通信にて受信し、所定期間音声が検知されない場合、または悲鳴等の緊急性のある音声信号を検知した場合に、異常状態の可能性があるとしてデジタル通信部14から見守り業者にその旨の通報を行う。With the above configuration, the in-housing monitor unit 8 receives the detection result of the mastication movement from theear wearing unit 6 by short-range communication, and when the mastication movement predicted in daily life is not detected, there is a possibility of an abnormal state. There is a report from thedigital communication unit 14 to the monitoring company. In addition, the in-house monitor unit 8 receives information on the presence or absence of the voice of the person being watched over, which is detected by the headset function of theear wearing unit 6, by short-range communication, and when no sound is detected for a predetermined period, or screaming, etc. When an urgent voice signal is detected, thedigital communication unit 14 notifies the monitoring company that there is a possibility of an abnormal state.

 また、携帯電話10は、耳装着部6からの咀嚼運動の検知結果を近距離通信により受信し、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとして予め登録しておいた遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば自動音声にてその旨の通報を行う。さらに、携帯電話10は、耳装着部6のヘッドセット機能により検知される見守り対象者の音声の有無に関する情報を近距離通信にて受信し、所定期間音声が検知されない場合、または悲鳴等の緊急性のある音声信号を検知した場合に、異常状態の可能性があるとして上記遠隔地の家族等の携帯電話への自動発呼を行い、応答があればその旨の通報を行う。In addition, themobile phone 10 receives the detection result of the mastication movement from theear wearing unit 6 through near field communication, and registers in advance that there is a possibility of an abnormal state when the mastication movement predicted in daily life is not detected. Calls are automatically made to a mobile phone of a remote family member, etc., and if there is a response, a notification to that effect is made by automatic voice. Furthermore, themobile phone 10 receives information on the presence or absence of the voice of the person being watched over, which is detected by the headset function of theear wearing unit 6, by short-range communication, and when no voice is detected for a predetermined period of time or an emergency such as a scream When a sound signal having a characteristic is detected, it is assumed that there is a possibility of an abnormal state, and an automatic call is made to a mobile phone of a remote family member or the like, and if there is a response, a notification to that effect is made.

 なお、携帯電話10では、日常生活にて予測される咀嚼運動が検知された場合でも、上記遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば自動音声にて異常なしの旨の通報を行う。また、見守り対象者の通常音声の検知に基づいても、上記遠隔地の家族等の携帯電話への自動発呼を適宜行い、応答があれば自動音声にて異常なしの旨の通報を行う。これによって遠隔地の家族等は、見守り対象者が三度の食事を規則的にとっていることや、日常的に期待される会話の存在、または予め設定された時間帯における規則的な発声状況(日常的な買い物での会話や日々のお経を唱えていることなど)を知り、安心することができる。なお、この場合、見守り対象者が意図していないのに携帯電話10の自動発呼が行われ、会話の内容が聞かれてしまうことになる。これは、家族とはいえ見守り対象者にとってはプライバシー上望ましくないので、後述のように、音声の存否という事実のみ通報し、会話の内容は判別できないようにする。Note that themobile phone 10 automatically calls a mobile phone of a remote family or the like even if a chewing motion predicted in daily life is detected, and if there is a response, there is no abnormality in the automatic voice. Report to that effect. Also, based on detection of the normal voice of the person being watched over, automatic calling is appropriately made to the mobile phone of the remote family or the like, and if there is a response, a notification that there is no abnormality is made by automatic voice. As a result, a remote family member, etc., can regularly watch three meals, have daily conversations expected, or have regular utterances in a preset time zone (daily You can feel safe knowing that you are talking about traditional shopping and daily life. In this case, themobile phone 10 is automatically called even if the person being watched over is not intended, and the content of the conversation is heard. This is undesirable from the viewpoint of privacy for the person being watched over even though it is a family, so that only the fact of the presence or absence of voice is reported and the content of the conversation cannot be determined, as will be described later.

 図2は、図1に示した本発明の実施例1の詳細構成のブロック図である。図1と共通する部分には同一の番号を付し、必要のない限り説明を省略する。住居内モニタ部8の構成は、図1に示した通りであるが、住居内モニタ部8全体に給電する電源部20を有する。電源部20は住居2内の家庭用電源から給電を受ける。FIG. 2 is a block diagram of the detailed configuration of the first embodiment of the present invention shown in FIG. Portions common to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted unless necessary. The configuration of the in-resident monitor unit 8 is as shown in FIG. 1, but includes apower supply unit 20 that supplies power to the entire in-house monitor unit 8. Thepower source unit 20 receives power from a household power source in thehouse 2.

 一方、携帯電話10は、図2に示すように、携帯電話機能部22を有し、アンテナ24により無線電話回線にて通話を行う。近距離通信部26は、耳装着部6および住居内モニタ部8それぞれの近距離通信部36及び12と通信する。また、GPS部28は、耳装着部6を装着した見守り対象者が携帯電話10を持って外出した時の位置を検知し、必要に応じ上記の遠隔地の家族等の携帯電話または見守り業者と通信することで見守り対象者の位置情報を提供する。制御部30は、携帯電話機能部22、近距離通信部26およびGPS部28を含む携帯電話10全体の制御を行う。記憶部32は、制御部30の制御に必要なプログラムを記憶するとともに、制御等に関連する種々のデータを一時記憶する。充電可能な蓄電池を有する電源部34は、携帯電話10全体に給電する。なお、図2では、簡単のため、図1に図示されている大型タッチパネル型液晶表示部、マイク、スピーカ、近接センサ、内側カメラなど、携帯電話10が通常備える構成の図示を省略している。On the other hand, themobile phone 10 has a mobilephone function unit 22 as shown in FIG. The nearfield communication unit 26 communicates with the nearfield communication units 36 and 12 of theear wearing unit 6 and thedwelling monitor unit 8, respectively. In addition, theGPS unit 28 detects the position when the person to be watched wearing theear wearing unit 6 goes out with themobile phone 10, and if necessary, with a mobile phone or a watch trader such as the above-mentioned remote family Provide location information of the person being watched over by communicating. Thecontrol unit 30 controls the entiremobile phone 10 including the mobilephone function unit 22, the short-range communication unit 26, and theGPS unit 28. Thestorage unit 32 stores a program necessary for the control of thecontrol unit 30 and temporarily stores various data related to control and the like. Apower supply unit 34 having a rechargeable storage battery supplies power to the entiremobile phone 10. In FIG. 2, for the sake of simplicity, illustrations of configurations normally provided in themobile phone 10 such as a large touch panel type liquid crystal display unit, a microphone, a speaker, a proximity sensor, and an inner camera illustrated in FIG. 1 are omitted.

 図2に示すように、耳装着部6は、携帯電話10の近距離通信部26および住居内モニタ部8の近距離通信部12と近距離通信する近距離通信部36を有する。そして咀嚼センサ38は、耳装着部6を装着した見守り対象者の咀嚼運動による耳珠等の移動または外耳道の変形を検知し、見守り対象者の咀嚼の有無を検出する。咀嚼センサ38としては、ばストレインゲージ又は圧電素子等で構成する。制御部40は、咀嚼運動を検出すると近距離通信部36および近距離通信部26を介して携帯電話10にその旨を伝達する。また、日常生活にて予測される咀嚼運動が検知されないときは異常状態の可能性があるとして、近距離通信部36から近距離通信部26を介して携帯電話10に、また、近距離通信部36から近距離通信部12を介して住居内モニタ部8にその旨を伝達する。As shown in FIG. 2, theear wearing unit 6 includes a short-range communication unit 36 that performs short-range communication with the short-range communication unit 26 of themobile phone 10 and the short-range communication unit 12 of theresidential monitor unit 8. Themastication sensor 38 detects the movement of the tragus or the like due to the mastication movement of the person to be watched wearing theear wearing part 6 or the deformation of the external auditory canal, and detects the presence or absence of mastication by the person to be watched. Themastication sensor 38 is composed of a strain gauge or a piezoelectric element. When detecting the mastication movement, thecontrol unit 40 transmits the fact to themobile phone 10 via the short-range communication unit 36 and the short-range communication unit 26. Further, when the mastication motion predicted in daily life is not detected, there is a possibility of an abnormal state, so that the short-range communication unit 36 transmits the short-distance communication unit 26 to themobile phone 10, and the short-range communication unit The information is transmitted from 36 to thedwelling monitor 8 via the short-range communication unit 12.

 耳装着部6の軟骨伝導振動源42(例えば圧電バイモルフ素子を採用)は、近距離通信により携帯電話10から受信した通話相手の音声信号により振動し、この振動を耳装着部6に接触している耳軟骨に伝えることで後述の軟骨伝導により通話相手の声を聞くことを可能とする。骨導マイク44は、骨導による自分の声を拾い、近距離通信により携帯電話10に自分の声の音声信号を送信することで、会話を成立させる。このようにして、耳装着部6は、携帯電話10のヘッドセットとして機能する。外部気導音マイク46は、近くにいる話し相手の生の気導音を拾って得た音声信号により軟骨伝導振動源42を振動させる。これによって耳装着部6は、単独で補聴器としても機能する。制御部40は、このようなヘッドセットの機能および補聴器の機能についても耳装着部6を制御する。なお、ヘッドセット機能における骨導マイク44は、上記のように、見守り対象者が日常生活のなかで想定される声を出しているか否かを見守るための音声センサとしても機能する。充電可能な蓄電池を有する電源部48は、耳装着部6全体に給電する。The cartilage conduction vibration source 42 (for example, adopting a piezoelectric bimorph element) of theear wearing unit 6 vibrates by the voice signal of the communication partner received from themobile phone 10 by short-range communication, and this vibration comes into contact with theear wearing unit 6. By transmitting to the ear cartilage, it is possible to hear the voice of the other party by cartilage conduction described later. Thebone conduction microphone 44 picks up his / her voice by bone conduction and transmits a voice signal of his / her voice to themobile phone 10 by short-range communication, thereby establishing a conversation. In this way, theear wearing unit 6 functions as a headset of themobile phone 10. The external air conductionsound microphone 46 vibrates the cartilageconduction vibration source 42 by an audio signal obtained by picking up a live air conduction sound of a nearby conversation partner. As a result, theear wearing part 6 functions as a hearing aid alone. Thecontrol unit 40 also controls theear wearing unit 6 for the function of the headset and the function of the hearing aid. Note that thebone conduction microphone 44 in the headset function also functions as a voice sensor for watching whether or not the person to be watched is making a voice expected in daily life. Apower supply unit 48 having a rechargeable storage battery supplies power to the entireear wearing unit 6.

 ここで軟骨伝導について説明する。軟骨伝導は、本願発明者によって発見された現象であり耳珠等の外耳道入口部周りの軟骨に伝えられた振動により軟骨部外耳道表面が振動し、外耳道内で気導音を発生させる現象である。そして外耳道内で発生した気導音は外耳道内をさらに奥に進んで鼓膜に達する。このように軟骨伝導により聞こえる音の主要部は鼓膜を介して聞こえる音である。ただし、鼓膜で聞こえるのは通常の気導音のように外耳道外部から外耳道に侵入した音ではなく、あくまで外耳道内部で発生した気導音である。Here, cartilage conduction will be explained. Cartilage conduction is a phenomenon discovered by the present inventor, and is a phenomenon in which the cartilage surface of the external auditory canal vibrates due to vibration transmitted to the cartilage around the entrance to the external ear canal such as tragus and generates air conduction sound in the external auditory canal. . The air conduction sound generated in the ear canal travels further back in the ear canal and reaches the eardrum. Thus, the main part of the sound heard by cartilage conduction is the sound heard through the tympanic membrane. However, what is heard through the eardrum is not a sound that enters the ear canal from outside the external auditory canal, but a sound that is generated inside the ear canal.

 図3は、上記のことを説明するための耳の断面図であって、耳4の構造と本発明に用いられる耳装着部6との関係を示す。矢印52は、軟骨伝導振動源42によって振動する耳装着部6の振動が鼓膜50に伝わる経路を図示している。耳装着部6から発生する振動は、矢印52で示すように、まず接触部分から外耳道入口部周りの軟骨54に伝導する。軟骨54の振動は、その表面(軟骨部外耳道)から外耳道内に気導音を発生させる。そしてこの気導音は外耳道内を進み、骨部外耳道56を経て鼓膜50に達する。なお、耳装着部6の穴6aからは、矢印58(通常の音が聞こえる経路)で示すように穴6aを通して外界の気導音が外耳道に侵入し、鼓膜50に達する。これによって、外耳道の閉塞感なしに快適に耳装着部6を装着することができる。FIG. 3 is a cross-sectional view of the ear for explaining the above, and shows the relationship between the structure of theear 4 and theear mounting portion 6 used in the present invention. Anarrow 52 illustrates a path through which the vibration of theear mounting portion 6 that is vibrated by the cartilageconduction vibration source 42 is transmitted to theeardrum 50. As shown by thearrow 52, the vibration generated from theear mounting portion 6 is first conducted from the contact portion to thecartilage 54 around the ear canal entrance portion. The vibration of thecartilage 54 generates air conduction sound from the surface (cartilage part external auditory canal) into the ear canal. The air conduction sound travels through the external auditory canal and reaches theeardrum 50 through the bone externalauditory canal 56. In addition, from the hole 6a of theear wearing part 6, as indicated by an arrow 58 (path through which a normal sound can be heard), air conduction sound of the outside world enters the ear canal through the hole 6a and reaches theeardrum 50. As a result, theear mounting part 6 can be comfortably mounted without a feeling of obstruction of the external auditory canal.

 図4は、軟骨伝導の効果を示す実測データの一例を示すグラフである。図4のグラフは軟骨伝導振動源により振動する振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたときの外耳道入口部から1cm奥の外耳道内の音圧を周波数との関係で示すものである。グラフの縦軸は音圧(dBSPL)であり、横軸は対数目盛の周波数(Hz)である。また、グラフには、振動体の外壁表面と外耳道入口部周辺軟骨の接触圧の関係において、非接触状態(振動体の外壁表面から発生する気導音のみが聞こえる状態)の音圧を実線で、接触圧10重量グラムにおける音圧を破線で、接触圧250重量グラムにおける音圧を一点鎖線で、接触圧の増加により外耳道が閉鎖された状態(接触圧500重量グラム)における音圧を二点鎖線で、それぞれ図示している。図示のように、音圧は非接触状態から接触圧10重量グラムでの接触により増加し、さらに250重量グラムへの接触圧増加により増加し、この状態からさらに500重量グラムに接触圧を増加させることで、音圧がさらに増加する。FIG. 4 is a graph showing an example of actually measured data showing the effect of cartilage conduction. The graph of FIG. 4 shows the inside of the ear canal 1 cm from the ear canal entrance when the outer wall surface of the vibrating body vibrated by the cartilage conduction vibration source is brought into contact with at least a part of the ear cartilage around the ear canal entrance without contacting the ear ring. Is shown in relation to the frequency. The vertical axis of the graph is the sound pressure (dBSPL), and the horizontal axis is the logarithmic scale frequency (Hz). In addition, the graph shows the sound pressure in a non-contact state (a state where only the air conduction sound generated from the outer wall surface of the vibrating body can be heard) in a solid line in relation to the contact pressure between the outer wall surface of the vibrating body and the cartilage around the ear canal entrance. The sound pressure at a contact pressure of 10 gram is indicated by a broken line, the sound pressure at a contact pressure of 250 gram is indicated by a one-dot chain line, and the sound pressure when the ear canal is closed by increasing the contact pressure (contact pressure of 500 gram) is indicated by two points. Each is indicated by a chain line. As shown in the figure, the sound pressure is increased by contact at a contact pressure of 10 weight grams from the non-contact state, further increased by increasing the contact pressure to 250 weight grams, and the contact pressure is further increased from this state to 500 weight grams. As a result, the sound pressure further increases.

 図4のグラフから明らかなように、振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたとき、非接触状態に比べ、外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(500Hz~2300Hz)において少なくとも10dB増加していることがわかる。(実線で示す非接触状態と、一点鎖線で示す状態とを比較参照。)As apparent from the graph of FIG. 4, when the outer wall surface of the vibrator is brought into contact with at least a part of the ear cartilage around the ear canal entrance without contact with the ear ring, it is 1 cm from the ear canal entrance compared with the non-contact state. It can be seen that the sound pressure in the inner ear canal increases by at least 10 dB in the main frequency band (500 Hz to 2300 Hz) of speech. (Refer to the comparison between the non-contact state indicated by the solid line and the state indicated by the alternate long and short dash line.)

 また、図4のグラフから明らかなように、振動体の外壁表面を耳輪への接触なしに外耳道入口部周辺の耳軟骨の少なくとも一部に接触させたとき、接触圧の変化によって外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(500Hz~2500Hz)において少なくとも5dB変化していることがわかる。(破線で示すわずかな接触状態と一点鎖線で示す状態での接触状態とを比較参照。)Further, as apparent from the graph of FIG. 4, when the outer wall surface of the vibrating body is brought into contact with at least a part of the ear cartilage around the ear canal entrance without contact with the ear ring, the contact pressure changes from the ear canal entrance. It can be seen that the sound pressure in the ear canal at a depth of 1 cm varies by at least 5 dB in the main frequency band (500 Hz to 2500 Hz) of speech. (Refer to the comparison between the slight contact state indicated by the broken line and the contact state indicated by the alternate long and short dash line.)

 以上から、耳装着部6に気導音を発生させるための構造(例えば通常イヤホンの振動板)がなくても、軟骨伝導振動源42の振動を接触により耳軟骨に伝達することで必要な音圧が得られることがわかる。また、気導音を発生させるための構造が不要なため、耳装着部6は、穴6aを有するリング状等の形状とすることができ、装着時においても穴6aを通して外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な装着が可能となることがわかる。From the above, even if there is no structure (for example, a normal earphone diaphragm) for generating air conduction sound in theear wearing part 6, the necessary sound can be obtained by transmitting the vibration of the cartilageconduction vibration source 42 to the ear cartilage by contact. It can be seen that pressure is obtained. In addition, since a structure for generating air conduction sound is not required, theear mounting portion 6 can be formed in a ring shape or the like having a hole 6a, and the outside sound can be heard through the hole 6a even during mounting. It can be seen that the device can be worn comfortably without the occlusion of the ear canal.

 さらに、図4のグラフから明らかなように、振動体の外壁表面を耳軟骨の少なくとも一部により強く接触させることにより外耳道入口部を閉鎖(図4の実測では、耳珠の外側から振動体の外壁表面を押し付け、耳珠が折れ曲がることにより外耳道入口を閉鎖する状態にして測定)したとき、非接触状態に比べ、外耳道入口部から1cm奥の外耳道内における音圧が音声の主要な周波数帯域(300Hz~1800Hz)において少なくとも20dB増加していることがわかる。これは外耳道閉鎖効果による。(実線で示す非接触状態と、二点鎖線で示す外耳道が閉鎖された状態とを比較参照。)Furthermore, as is apparent from the graph of FIG. 4, the outer ear canal entrance is closed by bringing the outer wall surface of the vibrator into stronger contact with at least a part of the ear cartilage (in the actual measurement of FIG. When the outer wall surface is pressed and the tragus is bent and the ear canal entrance is closed (measured), the sound pressure in the ear canal is 1 cm behind the ear canal, compared to the non-contact state. It can be seen that there is an increase of at least 20 dB at 300 Hz to 1800 Hz. This is due to the effect of closing the ear canal. (Refer to the comparison between the non-contact state indicated by the solid line and the state where the ear canal indicated by the two-dot chain line is closed.)

 なお、図4における測定は、すべて軟骨伝導振動源の出力を変化させない状態におけるものである。また 耳輪への接触なしに振動体の外壁表面を外耳道入口部周辺の耳軟骨の少なくとも一部に接触させる状態として、図4における測定は、振動体の外壁表面を耳珠外側から接触させる状態で行っている。また、図4における外耳道が閉鎖された状態での測定は、上記のように耳珠を外側からより強く押圧することで耳珠が折り返ることにより外耳道を閉鎖する状態を作ることにより行っている。In addition, all the measurements in FIG. 4 are in a state where the output of the cartilage conduction vibration source is not changed. Further, in the state in which the outer wall surface of the vibrating body is brought into contact with at least a part of the ear cartilage around the entrance part of the ear canal without contact with the ear ring, the measurement in FIG. Is going. Moreover, the measurement in the state in which the external auditory canal is closed in FIG. 4 is performed by creating a state in which the external auditory canal is folded back by pressing the tragus more strongly from the outside as described above. .

 上記のような外耳道閉鎖効果は、実施例1の場合、穴6aに指を当てて押すことにより穴6aが閉鎖するとともに耳装着部6の軟骨への接触圧を高めることにより実現できる。又は、これに代えて掌で耳4全体を覆うことによっても外耳道閉鎖効果を得ることができる。このように、実施例1においても、必要に応じ穴6aを指で閉鎖するかまたは掌で覆うことにより、より大きな音を聞くことができるのがわかる。In the case of Example 1, the outer ear canal closing effect as described above can be realized by closing the hole 6a by pressing thefinger 6 against the hole 6a and increasing the contact pressure of theear mounting portion 6 to the cartilage. Alternatively, the effect of closing the ear canal can be obtained by covering theentire ear 4 with a palm instead. Thus, also in Example 1, it turns out that a louder sound can be heard by closing the hole 6a with a finger or covering with a palm as needed.

 なお、図4の測定グラフは、あくまでも一例であって、細かく見れば個人差がある。また、図4の測定グラフは現象の単純化および標準化のために振動体の外壁表面を耳珠外側に限って少ない面積で接触させる状態にて測定を行っている。しかしながら接触による音圧の増加は、軟骨との接触面積にも依存し、耳輪への接触なしに振動体の外壁表面を外耳道入口部周辺の耳軟骨に接触させる場合、外耳道入口部周りのより広い軟骨部分に接触させれば音圧の増加はさらに高まる。以上のことを考慮すれば、図4の測定グラフに示した数値は軟骨伝導を利用した構成を示す一般性を持つものであって、不特定多数の被験者による再現性のあるものである。さらに、図4の測定グラフは、外耳道入口部を閉鎖する際に耳珠を外側から押圧することで接触圧を増して耳珠を折り返すことによるものであるが、振動体の外壁を外耳道入口部に押し入れてこれを閉鎖した場合にも同様の結果が得られる。Note that the measurement graph of FIG. 4 is merely an example, and there are individual differences if you look closely. In addition, the measurement graph of FIG. 4 is measured in a state where the outer wall surface of the vibrating body is in contact with a small area only on the outer side of the tragus in order to simplify and standardize the phenomenon. However, the increase in sound pressure due to contact also depends on the contact area with the cartilage, and when the outer wall surface of the vibrator is brought into contact with the ear cartilage around the ear canal entrance without contact with the ear ring, it is wider around the ear canal entrance. If the cartilage part is brought into contact, the increase in sound pressure is further increased. Considering the above, the numerical values shown in the measurement graph of FIG. 4 have generality indicating a configuration using cartilage conduction, and are reproducible by an unspecified number of subjects. Furthermore, the measurement graph of FIG. 4 is based on the result that the tragus is folded back by increasing the contact pressure by pressing the tragus from the outside when closing the ear canal entrance. A similar result can be obtained when it is pushed into and closed.

 図5は、実施例1の見守りシステムにおける耳装着部6の制御部40の機能を示すフローチャートである。フローは、充電のために不図示の充電器に接続されていた耳装着部6を充電器から取り外すことによってスタートする。フローがスタートすると、ステップS2で携帯電話10との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS4で外部気導音マイク46および骨導マイク44をオンにする。これにより、耳装着部6は補聴器として機能するようになるとともに、骨導マイク44による見守り対象者の音声検知待機状態になる。なお、フローでは省略しているが、咀嚼センサ38はフロースタートから終了までの間、常にオン状態にあり咀嚼検知待機状態にある。FIG. 5 is a flowchart showing the function of thecontrol unit 40 of theear wearing unit 6 in the watching system of the first embodiment. The flow starts by removing theear wearing part 6 connected to a charger (not shown) for charging from the charger. When the flow starts, the pairing status for short-distance communication with themobile phone 10 is confirmed in step S2, and if not set, the pairing setting is automatically performed. Next, in step S4, the externalair conduction microphone 46 and thebone conduction microphone 44 are turned on. As a result, theear wearing unit 6 functions as a hearing aid, and enters a state of waiting for voice detection of the person being watched over by thebone conduction microphone 44. Although not shown in the flow, themastication sensor 38 is always in the on state from the start to the end of the flow and is in the mastication detection standby state.

 次にステップS6において咀嚼センサ38が咀嚼運動を検知したか否かチェックする。そして検知があればステップS8に進み、近距離通信にて携帯電話10に検知信号を送信するとともに、ステップS10で近距離通信にて住居内モニタ部8に検知信号を送信し、ステップS12に移行する。一方、ステップS6で咀嚼運動が検知されない場合は、直接ステップS12に移行する。Next, in step S6, it is checked whether or not themastication sensor 38 has detected a mastication movement. If there is a detection, the process proceeds to step S8, and a detection signal is transmitted to themobile phone 10 by short-range communication, and a detection signal is transmitted to the in-house monitoring unit 8 by short-range communication in step S10, and the process proceeds to step S12. To do. On the other hand, if the mastication movement is not detected in step S6, the process proceeds directly to step S12.

 ステップS12では、骨導マイク44が見守り対象者の音声を検知したか否かチェックする。そして検知があればステップS14に進み、近距離通信にて携帯電話10に検知した音声信号を送信するとともに、これと並行してステップS16で近距離通信にて住居内モニタ部8に検知した音声信号を送信する。ステップS12からステップS16は、簡易化した図示になっているが、実際には、これらのステップにおいては、骨導マイク44に音声が検知され始めてからその後の所定時間(例えば10秒)、骨導マイク44からの音声信号を携帯電話10および住居内モニタ部8に並行して送信し続ける。このとき、音声が所定時間以上続いていても所定時間で送信を打ち切り、逆に所定時間内に無音となっても所定時間内は骨導マイク44の出力送信を継続する。上記のようなステップS12からステップS16による所定時間の音声信号送信が終了するとステップS20に移行する。一方、ステップS12で音声信号の検知がなければ直ちにステップS20に移行する。In step S12, it is checked whether the bone-conduction microphone 44 has detected the target person's voice. And if there exists detection, it will progress to step S14, and while transmitting the audio | voice signal detected to themobile telephone 10 by near field communication, in parallel with this, the audio | voice detected by thedwelling monitor part 8 by near field communication by step S16 Send a signal. Steps S12 to S16 are illustrated in a simplified manner. Actually, however, in these steps, bone conduction is performed for a predetermined time (for example, 10 seconds) after the sound is detected by thebone conduction microphone 44. The audio signal from themicrophone 44 is continuously transmitted to themobile phone 10 and the in-house monitor unit 8 in parallel. At this time, even if the voice continues for a predetermined time or longer, the transmission is stopped at the predetermined time, and conversely, even if the sound is silenced within the predetermined time, the output transmission of the bone-conduction microphone 44 is continued within the predetermined time. When the audio signal transmission for a predetermined time from step S12 to step S16 is completed, the process proceeds to step S20. On the other hand, if no audio signal is detected in step S12, the process immediately proceeds to step S20.

 ステップS20では、見守り対象者により携帯電話10から発呼操作が行われ相手がこれに応答したか否か、または外部から携帯電話10への着信があり、見守り対象者が応答操作をしたか否かをチェックする。そしてそのいずれかに該当する場合はステップS22に進み外部気導音マイク46をオフするとともに骨導マイク44のオンは継続し、ステップS24に移行する。これにより、耳装着部6は携帯電話10のヘッドセットとして機能するようになり、外部気導音マイク46から通話に不要な音が入らないようにする。In step S20, whether or not the person to be watched makes a call operation from themobile phone 10 and the other party has responded to this, or there is an incoming call to themobile phone 10 from the outside, and whether or not the person to be watched has made a response operation To check. If either of them is true, the process proceeds to step S22, the externalair conduction microphone 46 is turned off and thebone conduction microphone 44 is kept on, and the process proceeds to step S24. As a result, theear wearing unit 6 functions as a headset of themobile phone 10, and prevents unnecessary sounds from entering the call from the externalair conduction microphone 46.

 ステップS24では、電話を切ることによりステップS20で始まった通話が終了したか否かチェックする。そして通話終了が検知されたときは、ステップS26に進み、外部気導音マイク46をオンするとともに骨導マイク44のオン状態を継続してステップS28に移行する。これにより、耳装着部6は補聴器としての機能に復帰するとともに、骨導マイク44による見守り対象者の音声検知待機状態が継続される。一方、ステップS24で通話終了が検知されない場合は、ステップS24が繰り返され、通話終了を待つ。また、ステップS20で発呼応答または着信応答が検知されない場合は直接ステップS28に移行する。In step S24, it is checked whether or not the call started in step S20 is terminated by hanging up the telephone. When the end of the call is detected, the process proceeds to step S26, the external air conductionsound microphone 46 is turned on and thebone conduction microphone 44 is kept on, and the process proceeds to step S28. Thereby, while theear mounting part 6 returns to the function as a hearing aid, the sound detection standby state of the person to be watched over by thebone conduction microphone 44 is continued. On the other hand, if the end of the call is not detected in step S24, step S24 is repeated to wait for the end of the call. If no outgoing call response or incoming call response is detected in step S20, the process proceeds directly to step S28.

 ステップS28では、電源部48の蓄電池が消耗しているか否かチェックする。蓄電池が消耗していなければステップS30に移行し、耳装着部6が充電のために不図示の充電器に接続されたか否かチェックする。このステップは、蓄電池が消耗していなくても耳装着部6を耳4から取り外して充電する場合に対応している。ステップS30で充電接続が検知されるとステップS32に移行し、終了処理を行ってフローを終了する。これは、耳装着部6が耳4から取り外され見守り機能を果たすことができなくなっている状態であるにもかかわらず誤って動作状態に維持されることを防止する意義がある。一方、ステップS30で充電接続が検知されなければ、ステップS6に戻り、以下、蓄電池が消耗するか充電接続が行われるかしないかぎり、ステップS6からステップS30が繰り返され、耳装着部6は適宜、補聴器機能、見守り機能、携帯電話10のヘッドセット機能を維持する。なお、ステップS28で蓄電池の消耗が検知された場合もステップS32に移行し、終了処理を行ってフローを終了する。In step S28, it is checked whether or not the storage battery of thepower supply unit 48 is exhausted. If the storage battery is not consumed, the process proceeds to step S30, and it is checked whether theear wearing unit 6 is connected to a charger (not shown) for charging. This step corresponds to the case where theear mounting portion 6 is detached from theear 4 and charged even when the storage battery is not consumed. When charging connection is detected in step S30, the process proceeds to step S32, and an end process is performed to end the flow. This has the significance of preventing theear wearing unit 6 from being erroneously maintained in the operating state despite being in a state where it is removed from theear 4 and cannot perform the watching function. On the other hand, if the charging connection is not detected in step S30, the process returns to step S6. Thereafter, unless the storage battery is consumed or the charging connection is performed, step S6 to step S30 are repeated, and theear wearing unit 6 The hearing aid function, the watch function, and the headset function of themobile phone 10 are maintained. In addition, also when the consumption of a storage battery is detected by step S28, it transfers to step S32, complete | finishes a flow, and complete | finishes a flow.

 図6は、実施例1における携帯電話10の制御部30の機能を示すフローチャートである。なお、図6のフローは、見守りに関する機能を中心に動作を抽出して図示しており、携帯電話10には通常の携帯電話機能をはじめとする図6のフローに表記していない制御部30の動作が存在する。携帯電話10のハード構成自体は通常のものであって、図6で抽出している機能は、耳装着部6に付属のソフトウエアとしてインストールされるものである。FIG. 6 is a flowchart illustrating functions of thecontrol unit 30 of themobile phone 10 according to the first embodiment. Note that the flow of FIG. 6 is illustrated by extracting operations with a focus on functions related to watching, and themobile phone 10 includes acontrol unit 30 that is not shown in the flow of FIG. 6 including normal mobile phone functions. There are behaviors. The hardware configuration itself of themobile phone 10 is normal, and the functions extracted in FIG. 6 are installed as software attached to theear wearing unit 6.

 携帯電話10の電源スイッチをオンすることにより図6のフローがスタートし、ステップS42で通常携帯電話モードを設定する。次いでステップS44で耳装着部6との近距離通信のためのペアリング状況をチェックする。そしてペアリングが設定されていれば耳装着部6と連携した携帯電話10による見守りが可能なのでステップS46に移行する。6 is started by turning on the power switch of themobile phone 10, and the normal mobile phone mode is set in step S42. Next, in step S44, the pairing status for near field communication with theear wearing unit 6 is checked. And if pairing is set, since it can watch over by themobile telephone 10 cooperated with theear mounting part 6, it transfers to step S46.

 ステップS46では、耳装着部6から新たな咀嚼検知信号を受信したか否かチェックし、受信があればステップS48に進み、予め登録しておいた遠隔地の家族等の携帯電話に見守り者の無事を知らせるメールを自動送信する。また、ステップS48では予め設定しておくことによりメールに代えて予め登録しておいた遠隔地の家族等の携帯電話への自動発呼を行い、応答があれば見守り者の無事を知らせる自動音声の送信を行う。メールと発呼の両方を行うよう設定することもできる。咀嚼検知については基本的に日に三度で煩雑ではないと考えられるので、このように咀嚼検知信号を検知する毎に遠隔地の家族等に無事を報知し安心させる。なお、このような無事の報知が煩雑であると遠隔地の家族が考える場合は、ステップS48を省略するよう予め設定しておくことができる。In step S46, it is checked whether or not a new mastication detection signal has been received from theear wearing unit 6, and if received, the process proceeds to step S48, and the watcher's mobile phone such as a remote family member registered in advance is checked. Automatically send a safety email. Further, in step S48, automatic voice calls are made to a remote family mobile phone registered in advance instead of e-mail by setting in advance, and if there is a response, an automatic voice that informs the safety of the watcher Send. It can also be configured to send both mail and calls. About mastication detection, it is considered that it is basically three times a day and is not complicated, so every time a mastication detection signal is detected, a remote family member is informed of the safety and reassured. If a remote family thinks that such a safe notification is complicated, it can be set in advance to omit step S48.

 次いでステップS50に移行し、記憶部32における咀嚼検知信号の受信履歴を新たな受信に基づいて日時情報付で更新するとともに、その時点のGPS信号を併せて記憶し、ステップS52に進む。一方、ステップS46で咀嚼検知信号の受信が確認できなかったときは直接ステップS52に移行する。Then, the process proceeds to step S50, where the reception history of the mastication detection signal in thestorage unit 32 is updated with date and time information based on new reception, and the GPS signal at that time is also stored, and the process proceeds to step S52. On the other hand, when reception of the mastication detection signal cannot be confirmed in step S46, the process directly proceeds to step S52.

 ステップS52では、記憶部32の受信履歴に基づき、前回の咀嚼検知信号の受信から所定期間内に新たな咀嚼検知信号の受信があったか否かチェックする。所定期間内の新たな咀嚼検知信号の受信がなければステップS54に進み、予め登録しておいた遠隔地の家族等の携帯電話に自動発呼を行い、応答があれば異常の可能性がある旨の自動音声を送信してステップS56に移行する。ステップS54では、さらにその時点のGPS情報に基づき見守り者の現在位置を通報する自動音声を送信する。一方、ステップS52で所定期間内に新たな咀嚼検知信号の受信があったことがの受信履歴で確認できたときは直接ステップS56に移行する。In step S52, based on the reception history of thestorage unit 32, it is checked whether a new mastication detection signal has been received within a predetermined period from the previous reception of the mastication detection signal. If a new mastication detection signal is not received within a predetermined period, the process proceeds to step S54, where an automatic call is made to a mobile phone of a remote family member registered in advance, and if there is a response, there is a possibility of abnormality. An automatic voice to that effect is transmitted and the process proceeds to step S56. In step S54, an automatic voice for notifying the current position of the watcher is further transmitted based on the GPS information at that time. On the other hand, if it can be confirmed in the reception history that a new mastication detection signal has been received within the predetermined period in step S52, the process directly proceeds to step S56.

 ステップS56では、耳装着部6の骨導マイク44が拾った音声信号の受信があったか否かチェックする。そして音声信号の受信があればステップS58に進み、音声信号の内容(含まれる単語など)の音声識別、音声信号の強度やトーンのパターン等に基づき、受信した音声が悲鳴や救助要請であるか否か(緊急性)をチェックする。そして、悲鳴又は救助要請音声である可能性が高いとき(緊急性が高いと判断されたとき)はステップS60に進み、予め登録しておいた遠隔地の家族等の携帯電話に自動発呼を行って応答があれば受信した音声そのものを転送してステップS62に移行する。一方、ステップS58において、受信した音声が通常の会話音声であり悲鳴や救助要請ではない(緊急性が低い)と判断されたときは、直接ステップS62に移行する。In step S56, it is checked whether or not an audio signal picked up by the bone-conduction microphone 44 of theear attachment unit 6 has been received. If a voice signal is received, the process proceeds to step S58, where the received voice is a scream or a rescue request based on the voice identification of the contents of the voice signal (including words etc.), the strength of the voice signal, the tone pattern, etc. Check whether it is urgent. When there is a high possibility that the voice is a scream or rescue request voice (when it is determined that the urgency is high), the process proceeds to step S60, and an automatic call is made to a mobile phone of a remote family member registered in advance. If there is a response, the received voice itself is transferred and the process proceeds to step S62. On the other hand, if it is determined in step S58 that the received voice is a normal conversation voice and not a scream or a rescue request (less urgent), the process directly proceeds to step S62.

 ステップS62では、受信した音声信号が規則的な生活パターンに基づいて予め設定される時間帯(例えば、日常の買い物やお経を唱える時間時間帯)において受信したものか否かチェックする。そして該当すれば、ステップS64に進み、予め登録しておいた遠隔地の家族等の携帯電話に見守り者の無事を知らせるメールを自動送信してステップS66に移行する。一方、ステップS62において、受信した音声信号が予め設定された時間帯において受信したものでなかったときは、直接ステップS66に移行する。なお、ステップS48と同様にしてメールに代えて自動発呼と自動音声の送信が行われるようにするかまたは両者が行われるよう設定しておくこともできる。また、このような無事の報知が煩雑であると遠隔地の家族が考える場合は、ステップS62およびステップS64を省略するよう予め設定しておくこともできる。ステップS64において送信される音声は、実際に骨導マイク44が拾った音声信号ではなく、音声信号の受信があったという事実だけを報知するものであり、ステップS60とは異なって見守り対象者の会話の内容はわからず、プライバシーが保たれる。In step S62, it is checked whether or not the received audio signal is received in a time zone set in advance based on a regular life pattern (for example, a time zone in which daily shopping or sutra is advocated). Then, if applicable, the process proceeds to step S64, and a mail notifying the safety of the watcher is automatically transmitted to a mobile phone of a remote family registered in advance, and the process proceeds to step S66. On the other hand, if it is determined in step S62 that the received audio signal is not received in a preset time zone, the process directly proceeds to step S66. As in step S48, automatic calling and automatic voice transmission may be performed instead of e-mail, or both may be set to be performed. Moreover, when a remote family thinks that such a safe notification is complicated, it can be set in advance so as to omit step S62 and step S64. The voice transmitted in step S64 is not a voice signal actually picked up by the bone-conduction microphone 44 but only a fact that a voice signal has been received. Unlike step S60, the voice of the person being watched over is notified. The content of the conversation is unknown and privacy is preserved.

 ステップS66では、記憶部32における音声信号の受信履歴を新たな受信に基づいて日時情報付で更新するとともに、その時点のGPS信号を併せて記憶し、ステップS68に進む。一方、ステップS56で骨導マイク44が拾った音声信号の受信が確認されなかった場合は直接ステップS68に移行する。In step S66, the reception history of the audio signal in thestorage unit 32 is updated with date and time information based on new reception, and the GPS signal at that time is also stored, and the process proceeds to step S68. On the other hand, if reception of the audio signal picked up by the bone-conduction microphone 44 is not confirmed in step S56, the process directly proceeds to step S68.

 ステップS68では、記憶部32の受信履歴に基づき、前回の音声信号の受信から所定期間内に新たな音声信号の受信があったか否かチェックする。所定期間内の新たな音声信号の受信がなければステップS70に進み、予め登録しておいた上記の遠隔地の家族等の携帯電話に自動発呼を行い、応答があれば異常の可能性がある旨の自動音声を送信してステップS72に移行する。ステップS70においても、さらにその時点のGPS情報に基づき見守り者の現在位置を通報する自動音声を送信する。一方、ステップS68で所定期間内に新たな音声信号の受信があったことが受信履歴で確認できたときは直接ステップS72に移行する。なお、ステップS44で耳装着部6とのペアリングの設定が確認されない場合は直接ステップS72に移行し、見守りのための諸ステップは実行せず、通常携帯電話として機能する。In step S68, based on the reception history of thestorage unit 32, it is checked whether or not a new audio signal has been received within a predetermined period from the previous reception of the audio signal. If no new audio signal is received within a predetermined period, the process proceeds to step S70, where an automatic call is made to the previously registered mobile phone of a remote family or the like, and if there is a response, there is a possibility of abnormality. An automatic voice to that effect is transmitted and the process proceeds to step S72. Also in step S70, an automatic voice for notifying the current position of the watcher is transmitted based on the GPS information at that time. On the other hand, when it is confirmed in the reception history that a new audio signal has been received within the predetermined period in step S68, the process directly proceeds to step S72. If the pairing setting with theear wearing unit 6 is not confirmed in step S44, the process directly proceeds to step S72, and the steps for watching are not executed, and functions as a normal mobile phone.

 ステップS72では、電源部34の蓄電池が消耗しているか否かチェックする。蓄電池が消耗していなければステップS44に戻り、以下、蓄電池の消耗が検知されないかぎり、ステップS44からステップS72が繰り返され、携帯電話10は、見守りにおける種々の事態に対応する。一方、ステップS72で蓄電池の消耗が検知された場合はステップS74に移行し、終了処理を行ってフローを終了する。In step S72, it is checked whether or not the storage battery of thepower supply unit 34 is exhausted. If the storage battery is not exhausted, the process returns to step S44. Hereinafter, unless the storage battery is exhausted, step S44 to step S72 are repeated, and themobile phone 10 responds to various situations in watching. On the other hand, when the consumption of the storage battery is detected in step S72, the process proceeds to step S74, the end process is performed, and the flow is ended.

 図7は、実施例1における住居内モニタ部8の制御部16の機能を示すフローチャートである。フローは住居内モニタ部8を設置して家庭用電源に接続することまたは住居内モニタ部8の電源をオンすることによりスタートし、ステップS82で見守り業者との通信のためのインターネットの常時接続を自動設定するとともに耳装着部6との近距離通信など連携の自動テストを行ってステップS84に移行する。FIG. 7 is a flowchart illustrating the function of thecontrol unit 16 of the in-resident monitoring unit 8 according to the first embodiment. The flow starts by installing the in-house monitor unit 8 and connecting it to a household power source or by turning on the power source of the in-house monitor unit 8. In step S82, the Internet is constantly connected for communication with the watchmaker. The automatic setting is performed, and an automatic test for cooperation such as near field communication with theear wearing unit 6 is performed, and the process proceeds to step S84.

 ステップS84では、耳装着部6との近距離通信が可能な状態から不可能な状態に遷移したか否かチェックする。これは、見守り対象者が外出して近距離通信圏外に出たか否かのチェックに相当する。該当しなければステップS86に進み、耳装着部6との近距離通信が不可能な状態から可能な状態に遷移したか否かチェックする。これは、見守り対象者が帰宅して近距離通信圏内に復帰したか否かのチェックに相当する。該当すれば、ステップS88で上記の予め登録しておいた遠隔地の家族等の携帯電話への自動メール送信を行い、見守り対象者が帰宅したことを通知する。In step S84, it is checked whether or not the state where the near field communication with theear wearing unit 6 is possible is changed to the impossible state. This is equivalent to checking whether or not the person being watched over has gone out of the near field communication range. If not, the process proceeds to step S86, and it is checked whether or not the state where the near field communication with theear wearing unit 6 is impossible is changed to the possible state. This corresponds to checking whether or not the person to be watched returns home and returns to the near field communication range. If applicable, in step S88, automatic mail transmission to the previously registered mobile phone of a remote family or the like is performed to notify that the person to be watched has returned home.

 さらにステップS90では携帯電話10との間で自動近距離通信を行い、近距離通信状態が図2に示すシステム構成状態に復帰したことを確認する処理を行う。これは、見守り対象者の外出中、携帯電話10も見守り対象者に携帯されて住居内モニタ部8の近距離通信圏外に出ていたことが想定されるからである。万一、ステップS90において携帯電話10と近距離通信できることが確認できないときは、ステップS90内において、その旨を見守り業者および遠隔地の家族等の携帯電話に通知する。Further, in step S90, automatic short-range communication is performed with themobile phone 10, and processing for confirming that the short-range communication state has returned to the system configuration state shown in FIG. This is because it is assumed that themobile phone 10 was also carried by the watching target person and went out of the near field communication area of the in-resident monitor unit 8 while the watching target person was out. If it cannot be confirmed in step S90 that short-distance communication with themobile phone 10 can be performed, in step S90, the mobile phone such as a contractor or a remote family is notified.

 ステップS90では、さらに、住居内モニタ部8の記憶部18と携帯電話10の記憶部32における耳装着部6からの受信履歴のクロスチェックと情報交換を行い、両者の情報を一致させる。これは、主に、見守り対象者が外出して住居内モニタ部8が耳装着部6からの受信ができない間、受信情報が欠落するので、その間の受信情報を携帯電話10から受け取ることに該当する。これによって、実際は耳装着部6から送信が行われたのに、住居内モニタ部8では、耳装着部6から所定時間以上送信がない異常状態であると誤認する等の不都合を防止することができる。上記のような受信履歴のクロスチェックによる両者の情報を一致させる機能は、逆に住居2内において携帯電話10の蓄電池が消耗していて充電までの間、耳装着部6からの受信情報が欠落する場合への対応としても意義がある。In step S90, cross check and information exchange of the reception history from theear wearing unit 6 in thestorage unit 18 of the in-house monitor unit 8 and thestorage unit 32 of themobile phone 10 are further performed to match the information of both. This is mainly due to reception information being lost while the monitoring target person goes out and the in-housing monitor unit 8 cannot receive from theear wearing unit 6, so that the received information is received from themobile phone 10. To do. As a result, in-house monitor unit 8 can prevent inconvenience such as misidentifying that there is no transmission fromear wearing unit 6 for a predetermined time or longer, although transmission is actually performed fromear wearing unit 6. it can. The function of matching both information by the cross check of the reception history as described above is that the storage information of themobile phone 10 is consumed in theresidence 2 and the reception information from theear wearing unit 6 is missing until charging. It is also meaningful as a response to the case.

 ステップS90の処理が終わるとステップS92に進み、耳装着部6から新たな咀嚼検知信号を受信したか否かチェックする。受信があればステップS94に進み、記憶部18における咀嚼検知信号の受信履歴を新たな受信に基づいて日時情報付で更新し、ステップS96に進む。一方、ステップS92で咀嚼検知信号の受信が確認できなかったときは直接ステップS96に移行する。When the process of step S90 ends, the process proceeds to step S92, and it is checked whether a new mastication detection signal has been received from theear wearing unit 6. If there is reception, the process proceeds to step S94, the reception history of the mastication detection signal in thestorage unit 18 is updated with date information based on the new reception, and the process proceeds to step S96. On the other hand, when the reception of the mastication detection signal cannot be confirmed in step S92, the process directly proceeds to step S96.

 ステップS96では、記憶部18の受信履歴に基づき、前回の咀嚼検知信号の受信から所定期間内に新たな咀嚼検知信号の受信があったか否かチェックする。所定期間内の新たな咀嚼検知信号の受信がなければステップS98に進み、予め契約している見守り業者に異常の可能性がある旨の自動通報を行ってステップS100に移行する。一方、ステップS96で所定期間内に新たな咀嚼検知信号の受信があったことがの受信履歴で確認できたときは異常なしとして直接ステップS100に移行する。In step S96, based on the reception history of thestorage unit 18, it is checked whether a new mastication detection signal has been received within a predetermined period from the previous reception of the mastication detection signal. If no new mastication detection signal is received within the predetermined period, the process proceeds to step S98, where an automatic notification that there is a possibility of abnormality is given to the pre-contracted watchmaker, and the process proceeds to step S100. On the other hand, if it can be confirmed from the reception history that a new mastication detection signal has been received within the predetermined period in step S96, the process proceeds directly to step S100 with no abnormality.

 ステップS100では、耳装着部6の骨導マイク44が拾った音声信号の受信があったか否かチェックする。そして音声信号の受信があればステップS102に進み、音声信号の内容(含まれる単語など)の音声識別、音声信号の強度やトーンのパターン等に基づき、受信した音声が悲鳴や救助要請であるか否かをチェックする。そして、悲鳴又は救助要請音声である可能性が高いときはステップS104に進み、上記見守り業者に受信した音声そのものを転送してステップS106に移行する。一方、ステップS102において、受信した音声が通常の会話音声であり悲鳴や救助要請ではないと判断されたときは、直接ステップS106に移行する。In step S100, it is checked whether an audio signal picked up by thebone conduction microphone 44 of theear mounting unit 6 has been received. If a voice signal is received, the process proceeds to step S102, where the received voice is a scream or a rescue request based on the voice identification of the contents (such as contained words) of the voice signal, the intensity of the voice signal, the tone pattern, etc. Check whether or not. If there is a high possibility that it is a scream or a rescue request voice, the process proceeds to step S104, and the received voice itself is transferred to the watcher and the process proceeds to step S106. On the other hand, when it is determined in step S102 that the received voice is a normal conversation voice and not a scream or a rescue request, the process directly proceeds to step S106.

 ステップS106では、記憶部18における音声信号の受信履歴を新たな受信に基づいて日時情報付で更新して、ステップS108に進む。一方、ステップS100で骨導マイク44が拾った音声信号の受信が確認されなかった場合は直接ステップS108に移行する。In step S106, the reception history of the audio signal in thestorage unit 18 is updated with date information based on the new reception, and the process proceeds to step S108. On the other hand, if reception of the audio signal picked up by the bone-conduction microphone 44 is not confirmed in step S100, the process directly proceeds to step S108.

 ステップS108では、記憶部18の受信履歴に基づき、前回の音声信号の受信から所定期間内に新たな音声信号の受信があったか否かチェックする。所定期間内の新たな音声信号の受信がなければステップS110に進み、上記見守り業者に異常の可能性がある旨の自動通報を行ってステップS112に移行する。一方、ステップS108で所定期間内に新たな音声信号の受信があったことが受信履歴で確認できたときは直接ステップS112に移行する。なお、ステップS84で耳装着部6との近距離通信が可能な状態から不可能な状態に遷移したことが検知された時は、ステップS114に移行し上記の予め登録しておいた遠隔地の家族等の携帯電話への自動メール送信を行い、見守り対象者が外出したことを通知してステップS112に移行する。この場合、耳装着部6から信号をうけることができず見守りはできないので、見守り機能の実行は見守り対象者が携帯する携帯電話10に委ねられ、住居内モニタ部8としての見守り機能の実行はない。In step S108, based on the reception history of thestorage unit 18, it is checked whether a new audio signal has been received within a predetermined period from the previous reception of the audio signal. If no new audio signal is received within the predetermined period, the process proceeds to step S110, where the watcher is automatically notified that there is a possibility of abnormality, and the process proceeds to step S112. On the other hand, when it can be confirmed from the reception history that a new audio signal has been received within the predetermined period in step S108, the process directly proceeds to step S112. When it is detected in step S84 that the short-range communication with theear wearing unit 6 has been changed to the impossible state, the process proceeds to step S114 and the previously registered remote location is registered. Automatic mail transmission to a cellular phone such as a family is performed to notify that the person to be watched has gone out, and the process proceeds to step S112. In this case, since a signal cannot be received from theear wearing unit 6 and watching cannot be performed, execution of the watching function is entrusted to themobile phone 10 carried by the watching target person, and execution of the watching function as the in-house monitoring unit 8 is performed. Absent.

 ステップS112では、住居内モニタ部8の電源がオフされたか否かチェックする。電源オフには停電等における給電の断絶も含まれる。電源のオフがなければステップS84に戻り、以下、電源がオフされないかぎり、ステップS84からステップS114が繰り返され、住居内モニタ部8は見守りにおける種々の事態に対応する。一方、ステップS112で電源オフが検知された場合はステップS116に移行し、終了処理を行ってフローを終了する。In step S112, it is checked whether or not the power source of the in-resident monitor unit 8 is turned off. Power off includes power interruption due to power failure. If the power is not turned off, the process returns to step S84. Hereinafter, unless the power is turned off, steps S84 to S114 are repeated, and thedwelling monitor unit 8 responds to various situations in watching. On the other hand, when the power-off is detected in step S112, the process proceeds to step S116, the end process is performed, and the flow is ended.

 図8は、本発明の実施の形態に係る実施例2のシステム構成図である。実施例2も、住居内の見守りシステムを構成しており、眼鏡型の耳装着部106を用いたものである。その他の構成は図1、2の実施例1と共通であるので、共通部分には同一の番号を付し説明を省略する。図8では簡単のため、住居2および住居内モニタ部8の図示を省略しているが、その構成は図1、2の実施例1と共通である。FIG. 8 is a system configuration diagram of Example 2 according to the embodiment of the present invention. The second embodiment also constitutes a monitoring system in the house, and uses a glasses-typeear mounting unit 106. Since other configurations are the same as those of the first embodiment shown in FIGS. 1 and 2, common portions are denoted by the same reference numerals and description thereof is omitted. In FIG. 8, for the sake of simplicity, illustration of thedwelling 2 and thedwelling monitor unit 8 is omitted, but the configuration is the same as that of the first embodiment of FIGS.

 本発明における軟骨伝導振動源、骨導マイク、および咀嚼センサはいずれも圧電素子を用いて構成できるので、共通の圧電素子を軟骨伝導振動源、骨導マイク、および咀嚼センサとして兼用することが可能である。図8の実施例2において、軟骨伝導振動源、骨導マイク、および咀嚼センサとして兼用される圧電バイモルフ素子142は、眼鏡のツルが耳4の付け根の軟骨に乗る部分に設けられている。このような構成により、圧電バイモルフ素子142の振動が耳4の付け根の軟骨に伝わり軟骨伝導を起こす。また、骨導による音声が圧電バイモルフ素子142によって拾われる。さらに咀嚼による耳4の付け根近辺の動きが圧電バイモルフ素子142によって検知される。兼用にあたっては、制御部140の信号処理により圧電バイモルフ素子142の入出力信号の抽出や分離が行われる。その際、本来は補聴器の機能のために話相手の音声を拾うために設けられている外部気導音マイク46を利用して見守り対象者自身の音声を気導で拾うようにし、圧電バイモルフ素子142における入出力信号の抽出や分離のための情報として利用する。実施例2においても外耳道入口は開放されていて外界の音を聞くことができるとともに、外耳道の閉塞感のない快適な耳装着部106の装着を可能とする。また、必要に応じ外耳道入口を指で閉鎖するかまたは耳4全体を掌で覆うことにより、軟骨伝導における外耳道閉鎖効果を得て、より大きな音を聞くことができる。Since the cartilage conduction vibration source, bone conduction microphone, and mastication sensor according to the present invention can all be configured using piezoelectric elements, the common piezoelectric element can be used as the cartilage conduction vibration source, bone conduction microphone, and mastication sensor. It is. In Example 2 of FIG. 8, thepiezoelectric bimorph element 142 that is also used as the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor is provided in a portion where the eyeglass vine rests on the cartilage at the base of theear 4. With this configuration, the vibration of thepiezoelectric bimorph element 142 is transmitted to the cartilage at the base of theear 4 to cause cartilage conduction. Further, the sound by bone conduction is picked up by thepiezoelectric bimorph element 142. Furthermore, the movement near the base of theear 4 due to mastication is detected by thepiezoelectric bimorph element 142. In the combined use, input / output signals of thepiezoelectric bimorph element 142 are extracted and separated by signal processing of thecontrol unit 140. At that time, the sound of the person to be watched is picked up by air conduction using the externalair conduction microphone 46 originally provided for picking up the voice of the other party for the function of the hearing aid, and the piezoelectric bimorph element This is used as information for extraction and separation of input / output signals at 142. Also in the second embodiment, the external auditory canal entrance is opened so that the sound of the outside world can be heard, and the comfortableear mounting part 106 without the occlusion of the external auditory canal can be mounted. Further, if necessary, the ear canal entrance is closed with a finger or theentire ear 4 is covered with a palm, so that the effect of closing the ear canal in cartilage conduction can be obtained and a larger sound can be heard.

 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であるとともに、一部変形前の状態と組み合わせて実施することも可能である。The implementation of the various features shown in the above embodiments is not limited to individual embodiments, and other embodiments can be implemented as long as the advantages can be enjoyed. The various features shown in each embodiment can be implemented with various modifications. These modifications can be carried out in combination as appropriate, and can also be carried out in combination with a state before partial deformation.

 例えば、実施例1のような構成において、実施例2のように軟骨伝導振動源、骨導マイク、および咀嚼センサのいずれか機能を一つの圧電バイモルフ素子で兼用するよう構成してもよい。逆に、実施例2において、軟骨伝導振動源、骨導マイク、および咀嚼センサをそれぞれ最適の別素子で構成し、それぞれ最適の位置に分散配置するよう構成してもよい。For example, in the configuration as in the first embodiment, as in the second embodiment, any one of the functions of the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor may be combined with one piezoelectric bimorph element. On the contrary, in the second embodiment, the cartilage conduction vibration source, the bone conduction microphone, and the mastication sensor may be configured by different optimum elements, respectively, and may be configured to be distributed and arranged at the optimum positions.

 また、各実施例では、見守り対象者の声を拾うのに骨導マイクを採用しているが、これを気導音マイクで構成(例えば外部気導音マイク46と兼用)するようにしてもよい。In each embodiment, the bone conduction microphone is used to pick up the voice of the person being watched over. However, this may be constituted by an air conduction sound microphone (for example, also used as the external air conduction sound microphone 46). Good.

 図9は、本発明の実施の形態に係る実施例3のシステム構成図である。実施例3は、軟骨伝導により人とコミュニケーション可能なロボットとして構成され、実施例1と同様にして住居内の見守りシステムを構成するとともに、見守り対象者との人間的なコミュニケーションが可能となっている。図9の実施例3は、図1の実施例1における耳装着部6の部分が実施例3ではロボット206となっている点を除き実施例1と共通であるので、ロボット206および見守り対象者201以外の図示を省略するとともに、共通部分の説明についても必要のない限り省略する。FIG. 9 is a system configuration diagram of Example 3 according to the embodiment of the present invention. The third embodiment is configured as a robot capable of communicating with a person by cartilage conduction, and configures a monitoring system in a residence in the same manner as in the first embodiment and enables human communication with a monitoring target person. . Since Example 3 in FIG. 9 is the same as Example 1 except that the part of theear mounting portion 6 in Example 1 in FIG. 1 is therobot 206 in Example 3, therobot 206 and the person being watched over are shown in FIG. Illustrations other than 201 are omitted, and descriptions of common parts are also omitted unless necessary.

 ロボット206は、実施例1と同様にして近距離通信により図1に示す住居内モニタ部8、および見守り対象者201の携帯電話10と近距離通信により情報交換する。ロボット206は、頭部203の左右の耳205の部分に一対のステレオ外部気導音マイクを有し、見守り対象者201の音声を拾うとともに、頭部203の左右の目207の部分に一対の3Dカメラを有し、見守り対象者201の画像を撮像する。ステレオ外部気導音マイクおよび3Dカメラはそれぞれ見守り対象者201を見守るためのセンサとして機能し、検知結果は図1に示す住居内モニタ部8、携帯電話10に送信される。さらに、ロボット206の頭部203の口機構209の部分には気導音スピーカが設けられており、見守り対象者201への発話が可能となっている。このとき、ロボット206の口機構209は発話と連動して動くようになっている。また、ロボット206の頭部203に設けられた外部気導音マイクおよび気導音スピーカは、図1に示す携帯電話10の外部送受話装置としても機能する。As in the first embodiment, therobot 206 exchanges information with the in-house monitoring unit 8 shown in FIG. 1 and themobile phone 10 of the person to be watched 201 by short-range communication through short-range communication. Therobot 206 has a pair of stereo external air conduction microphones in the left andright ears 205 of thehead 203, picks up the voice of the watchingtarget 201, and pairs of left andright eyes 207 in thehead 203. It has a 3D camera and takes an image of the watchingtarget person 201. The stereo external air conduction sound microphone and the 3D camera each function as a sensor for watching over theperson 201 to be watched over, and the detection result is transmitted to the in-house monitor unit 8 and themobile phone 10 shown in FIG. Furthermore, an air conduction sound speaker is provided in themouth mechanism 209 portion of thehead 203 of therobot 206 so that it is possible to speak to the watchingtarget person 201. At this time, themouth mechanism 209 of therobot 206 moves in conjunction with the speech. Further, the external air conduction microphone and the air conduction speaker provided on thehead 203 of therobot 206 also function as an external transmission / reception device of themobile phone 10 shown in FIG.

 次に、ロボット206を用いた軟骨伝導について説明する。ロボット206の右手211の中指213には圧電バイモルフ素子等からなる軟骨伝導振動源が配置されており、中指213の指先が効率よく振動するようになっている。なお、軟骨伝導振動源の振動は右手211全体にも伝わるので右手211のどの部分からでも軟骨伝導は可能である。図9では、中指213の指先が見守り対象者201の左耳の耳珠232に接触し最良の軟骨伝導を実現している状態を示す。なお図9には図示されないが、ロボット206の左手の中指にも同様の軟骨伝導振動源が配置されており、見守り対象者201の右耳の耳珠に接触している。これによって通常のように両耳で気導音を聞くのと同様のステレオでの軟骨伝導が可能となる。また、ロボット206の口機構209は、気導音スピーカからの発話の場合と同様にして、軟骨伝導によって伝えられる音声と連動してロボット206の口機構209が動くようになっている。Next, cartilage conduction using therobot 206 will be described. Themiddle finger 213 of theright hand 211 of therobot 206 is provided with a cartilage conduction vibration source composed of a piezoelectric bimorph element or the like, so that the fingertip of themiddle finger 213 vibrates efficiently. In addition, since the vibration of the cartilage conduction vibration source is transmitted to the entireright hand 211, cartilage conduction is possible from any part of theright hand 211. FIG. 9 shows a state where the fingertip of themiddle finger 213 is in contact with thetragus 232 of the left ear of theperson 201 to be watched to realize the best cartilage conduction. Although not shown in FIG. 9, a similar cartilage conduction vibration source is also arranged on the middle finger of the left hand of therobot 206 and is in contact with the tragus of the right ear of theperson 201 to be watched. As a result, it is possible to conduct cartilage conduction in stereo in the same way as normal air conduction sound is heard with both ears. In addition, themouth mechanism 209 of therobot 206 moves in conjunction with the voice transmitted by cartilage conduction in the same manner as in the case of speech from the air conduction sound speaker.

 図9に示すように、ロボット206は、見守り対象者201の顔を両手で優しく包み、慈愛に満ちた雰囲気で話しかける状態となるので、見守り対象者201は癒された心理状態でロボット206の声を聞くことができる。この演出のため、ロボット206の両手が見守り対象者201の顔を挟む圧力が過度にならないようロボット206の右腕215および左腕217は加圧リミッタが設けられている。As shown in FIG. 9, therobot 206 gently wraps the face of the watchingtarget person 201 with both hands and talks in a charitable atmosphere. Can hear. For this effect, theright arm 215 and theleft arm 217 of therobot 206 are provided with pressure limiters so that the pressure with which both hands of therobot 206 watch over the face of the subject 201 is not excessive.

 さらに、見守り対象者201が拘束感を感じないよう、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう、ロボット206の胴体219に対してロボット206の右腕215および左腕217の関節が制御される。また、最初にロボット206が見守り対象者201に触れるときに冷たさを感じないよう、ロボット206の両手は、見守り対象者201の顔を包む動作に入る前に人肌に加温される。さらに、見守り対象者201の顔を両手で優しく包んで話しかける演出との齟齬が生じないよう、ロボット206の左右の目207は外観が可動となっており、頭部203の向きおよび左右の目207の外観上の視線は、見守り対象者201の視線を不用意に外さず、威圧感のない範囲で自然に動いて追従する。Furthermore, after the appropriate pressure between the left and right hands is determined so that the watchingtarget person 201 does not feel a sense of restraint, the left and right hands keep the relative distance and the face of the watchingtarget person 201 moves freely. The joints of theright arm 215 and theleft arm 217 of therobot 206 are controlled with respect to thebody 219 of therobot 206 so as to follow without resistance. Further, both hands of therobot 206 are warmed to the human skin before entering the operation of wrapping the face of the watchingtarget person 201 so that therobot 206 does not feel cold when it first touches the watchingtarget person 201. In addition, the left andright eyes 207 of therobot 206 are movable so that there is no discrepancy with the effect of gently wrapping the face of theperson 201 to be watched with both hands and talking, the orientation of thehead 203 and the left andright eyes 207. The line of sight on the outside of the person does not inadvertently remove the line of sight of theperson 201 to be watched over, and moves and follows naturally within a range without intimidation.

 以上のような、軟骨伝導による発話は、見守り対象者201の聴力が高齢等のため低下している場合や、周囲の騒音が大きい場合に有用であり、気導音スピーカが、がなり立てるような状況を避けることができる。また、周囲の音量が大きい場合等において見守り対象者201の声を拾うため、ロボット206の右手211の親指221には骨導マイクが設けられており、頬骨などからの骨伝導音を拾うよう構成される。後述のようにロボット206の左手にも同様の骨導マイクが設けられ右手211側の骨導マイクと相補的に骨導音を拾う。なお、骨導マイクについては、実施例2と同様にして圧電バイモルフ素子からなる軟骨伝導振動源を骨導マイクとして兼用してもよい。The utterance by the cartilage conduction as described above is useful when the hearing ability of theperson 201 to be watched is lowered due to the elderly or the like, or when the surrounding noise is high, and the air conduction sound speaker is apt Can avoid the situation. In addition, in order to pick up the voice of theperson 201 to be watched when the surrounding volume is high, a bone conduction microphone is provided on thethumb 221 of theright hand 211 of therobot 206 so as to pick up bone conduction sound from the cheekbone or the like. Is done. As will be described later, a similar bone conduction microphone is provided on the left hand of therobot 206 to pick up bone conduction sound in a complementary manner to the bone conduction microphone on theright hand 211 side. As for the bone conduction microphone, a cartilage conduction vibration source composed of a piezoelectric bimorph element may be used as the bone conduction microphone in the same manner as in the second embodiment.

 図10は、図9に示した本発明の実施例3のロボット206のブロック図である。図9と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例3は、図1に示すような住居内モニタ部8、および携帯電話10との通信については実施例1と共通であり、図10では近距離通信部236を図示するに留めて説明を省略する。FIG. 10 is a block diagram of therobot 206 according to the third embodiment of the present invention shown in FIG. Portions common to those in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted unless necessary. As described above, the third embodiment is the same as the first embodiment in communication with the in-resident monitor unit 8 and themobile phone 10 as shown in FIG. 1, and the short-range communication unit 236 in FIG. The description is omitted only for illustration.

 図10に示すように、ロボット206は、頭部203の左右の耳205(図9参照)の部分に一対のステレオ外部気導音マイク246を有し、見守り対象者201の音声を含む外部音声をステレオで拾う。また、頭部203は、左右の目207の部分に3Dカメラ(一対のカメラ)238を有し、見守り対象者201の画像を撮像する。なお、上述の頭部203の向きおよび左右の目207の視線の追従は、3Dカメラ238の画像の分析に基づいて見守り対象者201の顔および目の認識をすることによって行う。さらに、ロボット206の頭部203の口機構209の部分には気導音スピーカ223が設けられ、上述のように見守り対象者201への発話が可能となっている。口機構209は気導音スピーカ223によるロボット206の発話と連動して動くようになっている。As shown in FIG. 10, therobot 206 has a pair of stereo externalair conduction microphones 246 at the left and right ears 205 (see FIG. 9) of thehead 203, and includes external sound including the sound of the watchingtarget person 201. Pick up in stereo. Thehead 203 has a 3D camera (a pair of cameras) 238 in the left andright eyes 207 and takes an image of the watchingtarget person 201. The orientation of thehead 203 and the tracking of the line of sight of the left andright eyes 207 are performed by recognizing the face and eyes of the watchingtarget 201 based on the analysis of the image of the3D camera 238. Furthermore, an air conductionsound speaker 223 is provided in themouth mechanism 209 portion of thehead 203 of therobot 206 so that the user can speak to the watchingtarget 201 as described above. Themouth mechanism 209 moves in conjunction with the speech of therobot 206 by theair conduction speaker 223.

 図10に示すように、ロボットの右手211の中指213aには圧電バイモルフ素子等からなる軟骨伝導振動源242aが配置されており、中指213aの指先が効率よく振動するようになっている。上述のように、軟骨伝導振動源242aの振動は右手211全体にも伝わるので右手211のどの部分が耳軟骨に接触しても軟骨伝導は可能である。なお、上述のように、ロボット206の口機構209は、軟骨伝導振動源242aの振動によって伝えられる音声と連動して動くようになっている。中指213aには更に感圧センサ等からなる触覚センサ231aが設けられているがこれについては後述する。また、ロボットの右手211の親指221aには骨導マイク244aが設けられており、頬骨などからの骨伝導音を拾う。なお、上述のように骨導マイク244aについては、実施例2と同様にして圧電バイモルフ素子からなる軟骨伝導振動源242aを骨導マイクとして兼用してもよい。なお、煩雑を避けるため図示を省略しているが、親指221aにも中指213aの触覚センサ231aと同様の触覚センサが設けられているがこれについても後述する。右手211にはさらにヒータ225aが設けられており、見守り対象者201の顔を包む動作に入る前にスイッチが入って右手211全体を人肌に加温する。As shown in FIG. 10, a cartilageconduction vibration source 242a made of a piezoelectric bimorph element or the like is arranged on themiddle finger 213a of theright hand 211 of the robot so that the fingertip of themiddle finger 213a vibrates efficiently. As described above, the vibration of the cartilageconduction vibration source 242a is transmitted to the entireright hand 211, so that cartilage conduction is possible regardless of which part of theright hand 211 contacts the ear cartilage. As described above, themouth mechanism 209 of therobot 206 moves in conjunction with the voice transmitted by the vibration of the cartilageconduction vibration source 242a. Themiddle finger 213a is further provided with atactile sensor 231a including a pressure-sensitive sensor, which will be described later. Further, abone conduction microphone 244a is provided on thethumb 221a of theright hand 211 of the robot, and picks up bone conduction sound from the cheekbone or the like. As described above, for thebone conduction microphone 244a, the cartilageconduction vibration source 242a made of a piezoelectric bimorph element may be used as the bone conduction microphone in the same manner as in the second embodiment. Although illustration is omitted to avoid complication, thethumb 221a is provided with a touch sensor similar to thetouch sensor 231a of themiddle finger 213a, which will be described later. Theright hand 211 is further provided with aheater 225a. The switch is turned on to heat the entireright hand 211 to the human skin before the operation of wrapping the face of the watchingtarget person 201 is started.

 図10に示すように、右腕215には右関節機構227aが設けられており、見守り対象者201の顔を右側(見守り対象者201から見れば左側)から包んで話しかける等の動作を行う。右関節機構227aは簡単のため肩関節の部分にのみ図示しているが、肘関節、手首関節および指関節を含む右手211及び右腕215の諸関節全体を代表的に示すものとする。また、右関節機構227aは、後述するように左関節機構227bと連動し、見守り対象者201の顔を両手で優しく包んで話しかける演出を行う際に、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう制御される。As shown in FIG. 10, theright arm 215 is provided with a rightjoint mechanism 227a, and performs operations such as wrapping the face of the watchingtarget person 201 from the right side (left side when viewed from the watching target person 201). The rightjoint mechanism 227a is illustrated only in the shoulder joint portion for simplicity, but the joints of theright hand 211 and theright arm 215 including the elbow joint, wrist joint, and finger joint are representatively shown. Further, the rightjoint mechanism 227a is linked with the leftjoint mechanism 227b as will be described later, and an appropriate pressure between the left and right hands is determined when performing an effect of gently wrapping the face of theperson 201 to be watched with both hands. After being done, the left and right hands are controlled so as to follow the movement of the face of theperson 201 being watched over without any resistance while keeping the relative distance therebetween.

 図10における左腕217および左手229の構成は、右腕215および右手211の構成と同様なので、右側において中指213aのごとくそれぞれ「a」を付していた構成を左側においては中指213bのごとく対応する構成にそれぞれ「b」を付して図示し、説明を省略する。なお、左右に設けられた構成要素のうち、軟骨伝導振動源242a、242bは鼓膜を経由する軟骨伝導の原理に基づきステレオ聴取が可能である。これに対し、骨導マイク244a、244bについては、骨導の性質上、頭蓋骨の同じ振動を拾うのでステレオマイクを構成するわけではなく、接触状態を相互補完するため、左右に設けられているものである。従って、後述のように、片方の親指の接触位置を微修正することによってベストの骨導接触位置が充分確保できる場合には、他方の親指における骨導マイクを省略してもよい。Since the configuration of theleft arm 217 and theleft hand 229 in FIG. 10 is the same as the configuration of theright arm 215 and theright hand 211, the configuration indicated by “a” on the right side like themiddle finger 213a corresponds to the configuration on the left side like themiddle finger 213b. Are denoted by “b”, and the description is omitted. Of the components provided on the left and right, the cartilageconduction vibration sources 242a and 242b can perform stereo listening based on the principle of cartilage conduction via the tympanic membrane. On the other hand, thebone conduction microphones 244a and 244b are not provided as a stereo microphone because they pick up the same vibration of the skull due to the nature of bone conduction, and are provided on the left and right sides to complement each other. It is. Therefore, as will be described later, when the bone conduction contact position of the best thumb can be sufficiently secured by finely correcting the contact position of one thumb, the bone conduction microphone on the other thumb may be omitted.

 右関節機構227aおよび左関節機構227bは、軟骨伝導による見守り対象者201とのコミュニケーションを行う際、3Dカメラ238による画像の分析に基づいて認識される見守り対象者201の顔に向かって右手211および左手229を伸ばす。なお、右関節機構227aおよび左関節機構227bにはそれぞれ負荷検知センサが設けられており、腕、手、指が何かに当たってフリーな状態での動き以外の負荷がかかったかどうかを検知する。そして負荷がかかった場合、その負荷が関節のどの部分においてどの程度の強さでかかっているかを識別する。When the rightjoint mechanism 227a and the leftjoint mechanism 227b communicate with the watchingtarget person 201 by cartilage conduction, theright hand 211 and theright hand 211 toward the face of the watchingtarget person 201 recognized based on the analysis of the image by the3D camera 238. Extendleft hand 229. Each of the rightjoint mechanism 227a and the leftjoint mechanism 227b is provided with a load detection sensor, and detects whether a load other than movement in a free state is applied when something hits an arm, hand, or finger. When a load is applied, it is identified in what part of the joint the load is applied with what strength.

 右関節機構227aおよび左関節機構227bの負荷検知センサが負荷を検知し、3Dカメラ238による画像から、その原因が両手により見守り対象者201の顔が包まれたからであると判断されると、加圧リミッタが作動して見守り対象者201の顔を挟む圧力を制限する。そして、左右の中指213aおよび213bのそれぞれ指先に設けられた触覚センサ231aおよび231bの出力と3Dカメラ238による画像をモニタしながら、右手211および左手229の位置および左右の中指213aおよび213bの曲がり具合を微修正する。これによって、左右の中指213aおよび213bが見守り対象者201の耳珠に接触するようにする。(図9図示の状態の実現)同様に、左右の親指221aおよび221bについても、それぞれの指先に設けられた触覚センサ(図示省略)の出力と3Dカメラ238による画像をモニタしながら、左右の親指221aおよび221bの曲がり具合を微修正し、見守り対象者201の頬骨に接触するようにする。When the load detection sensors of the rightjoint mechanism 227a and the leftjoint mechanism 227b detect the load and it is determined from the image by the3D camera 238 that the cause is that the face of theperson 201 to be watched is wrapped with both hands, The pressure limiter is actuated to limit the pressure sandwiching the face of theperson 201 to be watched over. Then, while monitoring the outputs of thetactile sensors 231a and 231b provided at the fingertips of the left and rightmiddle fingers 213a and 213b and the image by the3D camera 238, the positions of theright hand 211 and theleft hand 229 and the bending state of the left and rightmiddle fingers 213a and 213b, respectively. Minor correction. Thus, the left and rightmiddle fingers 213a and 213b are brought into contact with the tragus of theperson 201 to be watched over. (Realization of the state shown in FIG. 9) Similarly, for the left andright thumbs 221a and 221b, the left and right thumbs are monitored while monitoring the output of the tactile sensors (not shown) provided on the respective fingertips and the image by the3D camera 238. The bending state of 221a and 221b is finely corrected so as to come into contact with the cheekbone of the watchingtarget 201.

 また、右関節機構227aおよび左関節機構227bは、左右の手の間の適切な圧力が決定されたあとは左右の手がその相対間隔を保ったまま平行移動し、見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう制御する。この追従は右腕215および左腕217が自由状態にあるときそれらの重量に抗して右腕215および左腕217を持ち上げ静止させている状態を基準としているので、右腕215および左腕217の荷重が顔にかかることもない。そして、このような状態において、右関節機構227aおよび左関節機構227bの負荷検知センサが顔の動きに基づく上下左右方向の負荷を検知すると、それに応答して左右の手の相対間隔を保ったまま従属的に左右の右関節機構227aおよび左関節機構227bを駆動するようにする。これによって、見守り対象者201はロボット206の両手に顔を包まれつつも拘束されることなく軟骨伝導状態を継続したまま顔を動かすことができる。In addition, the rightjoint mechanism 227a and the leftjoint mechanism 227b move in parallel with the left and right hands maintaining the relative distance after the appropriate pressure between the left and right hands is determined, so that theface 201 Control to follow the free movement without resistance. This follow-up is based on a state in which theright arm 215 and theleft arm 217 are lifted and stopped against the weight of theright arm 215 and theleft arm 217 when they are in a free state, so the load of theright arm 215 and theleft arm 217 is applied to the face. There is nothing. In such a state, when the load detection sensors of the rightjoint mechanism 227a and the leftjoint mechanism 227b detect the load in the up / down / left / right directions based on the movement of the face, the relative distance between the left and right hands is maintained in response thereto. The left and right rightjoint mechanisms 227a and 227b are driven in a dependent manner. As a result, the watchingtarget person 201 can move the face while continuing the cartilage conduction state without being restrained while being wrapped in both hands of therobot 206.

 以上の機能は、記憶部218に格納されたプログラムに基づき制御部240によって達成される。なお、制御部240は、3Dカメラ238に接続された専用の画像処理機能部を含む。制御部240は、さらに、軟骨伝導振動源242a、242bに接続された専用の圧電バイモルフ駆動機能部を含むとともに、この圧電バイモルフ駆動機能部、気導音スピーカ223ならびに骨導マイク244a、244bに接続された専用の音声処理機能部を含む。また、記憶部218は、制御部240の機能のための種々のデータを一次的に格納する。充電池を含む電源部248はロボット206の各構成要素に対し、それぞれに必要な電圧にて給電を行う。なお、上記の制御部240、記憶部218、電源部248、及び、近距離通信部236は、例えば、ロボット206の胴体219に組み込んでおくとよい。The above functions are achieved by thecontrol unit 240 based on a program stored in thestorage unit 218. Thecontrol unit 240 includes a dedicated image processing function unit connected to the3D camera 238. Thecontrol unit 240 further includes a dedicated piezoelectric bimorph drive function unit connected to the cartilageconduction vibration sources 242a and 242b, and is connected to the piezoelectric bimorph drive function unit, the air conductionsound speaker 223, and thebone conduction microphones 244a and 244b. A dedicated voice processing function unit. Thestorage unit 218 temporarily stores various data for the function of thecontrol unit 240. Apower supply unit 248 including a rechargeable battery supplies power to each component of therobot 206 at a voltage required for each. Note that thecontrol unit 240, thestorage unit 218, thepower supply unit 248, and the short-range communication unit 236 may be incorporated in thebody 219 of therobot 206, for example.

 図11は、図10の実施例3のロボット206における制御部240の機能を示すフローチャートである。フローは、ロボット206の主電源スイッチによる電源部248からの給電開始によりスタートする。フローがスタートすると、ステップS122で住居内モニタ部8および見守り対象者201の携帯電話10(図1参照)との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS124で通常見守り機能を開始する処理を行う。この通常見守り機能は、基本的には、図1から図8で説明した実施例1または実施例2における見守り機能に準じたものであり、実施例3の場合は、ステレオ外部気導音マイク246および3Dカメラ238が見守りセンサとして機能する。FIG. 11 is a flowchart illustrating functions of thecontrol unit 240 in therobot 206 according to the third embodiment illustrated in FIG. The flow starts when power supply from thepower supply unit 248 is started by the main power switch of therobot 206. When the flow starts, in step S122, the pairing status for short-distance communication with themonitor unit 8 in the house and the mobile phone 10 (see FIG. 1) of theperson 201 to be watched is confirmed. To do. Next, in step S124, a process for starting the normal watching function is performed. This normal watching function basically conforms to the watching function in the first or second embodiment described with reference to FIGS. 1 to 8, and in the case of the third embodiment, the stereo external air conductionsound microphone 246 is used. And the3D camera 238 functions as a watching sensor.

 次いで、ステップS126で異常の有無をチェックし、異常がなければステップS128に移行して定常報告タイミングか否かをチェックする。そして定常報告タイミングで無ければステップS130に移行する。一方、ステップS128で定常報告タイミングであることが確認されるとステップS132に移行し、正常報告処理を行ってステップS130に移行する。この正常報告処理は実施例1または実施例2と共通である。Next, in step S126, whether or not there is an abnormality is checked. If there is no abnormality, the process proceeds to step S128 to check whether or not it is a regular report timing. If it is not the regular report timing, the process proceeds to step S130. On the other hand, if it is confirmed in step S128 that the regular report timing is reached, the process proceeds to step S132, normal report processing is performed, and the process proceeds to step S130. This normal report processing is common to the first embodiment or the second embodiment.

 ステップS130では、見守り対象者201との会話を開始すべきか否かの判断がなされる。例えば、見守り対象者201がデイケアから帰宅したときやロボット206が修理から返ってきたときなどのように見守り対象者201とロボット206が時間を置いて顔を合わせたとき、または、見守り対象者201がロボット206に近づいてきたとき、または、見守り対象者201がロボット206に話しかけたとき、または、見守り対象者201の様子を観察してロボット206が自発的に話しかけようとするとき、などが「会話を開始すべき」との判断がなされるケースである。In step S130, it is determined whether or not a conversation with the watchingtarget person 201 should be started. For example, when the watchingtarget person 201 and therobot 206 face each other after a long time such as when the watchingtarget person 201 returns from day care or when therobot 206 returns from repair, or the watchingtarget person 201 "When the person watching over 201 talks to therobot 206, or when therobot 206 tries to speak spontaneously by observing the state of the person undermonitoring 201. In this case, it is determined that the conversation should be started.

 ステップS130で会話開始の判断がなされるとステップS134に進み、まずは、ステレオ外部気導音マイク246および気導音スピーカ223がオンされ、通常の気導音による会話が準備される。次いで、ステップS136において、見守り対象者201が軟骨伝導により会話をすべき登録者か否かチェックする。この登録は、聴力が高齢等のため低下している場合や、見守り対象者201本人の好みにより予め行っておくことができる。ステップS136で軟骨伝導登録者であることが確認できない場合は、ステップS138に進み、周囲の気導音が所定以上であるか否かチェックする。見守り環境では、通常の騒音が存在する可能性は小さいが、居室内において多人数が随所で談笑しているような場合、周囲の気導音が所定以上となって、ロボット206と見守り対象者201による気導音による個人的な会話が困難になる場合がある。ステップS138において、周囲の気導音が所定以上であると判断されるとステップS140に移行する。一方、ステップS136において、見守り対象者201が軟骨伝導により会話をすべき登録者であると判断された場合は、直ちにステップS140に移行する。When it is determined in step S130 that the conversation is started, the process proceeds to step S134. First, the stereo externalair conduction microphone 246 and theair conduction speaker 223 are turned on, and a normal air conduction sound conversation is prepared. Next, in step S136, it is checked whether or not the watchingtarget person 201 is a registrant who should have a conversation by cartilage conduction. This registration can be performed in advance when the hearing ability is low due to the elderly or the like, or according to the preference of the 201 person to be watched over. If it is not confirmed in step S136 that the person is a cartilage conduction registrant, the process proceeds to step S138, where it is checked whether the surrounding air conduction sound is equal to or higher than a predetermined value. In the watching environment, the possibility of normal noise is small, but when many people are chatting at various places in the room, the surrounding air conduction sound becomes a predetermined level or more, and therobot 206 and the person to be watched over In some cases, the personal conversation by the air conduction sound by 201 becomes difficult. If it is determined in step S138 that the ambient air conduction sound is equal to or higher than the predetermined level, the process proceeds to step S140. On the other hand, if it is determined in step S136 that the watchingtarget person 201 is a registrant who should have a conversation by cartilage conduction, the process immediately proceeds to step S140.

 ステップS140では、軟骨伝導のためにロボット206の両手を見守り対象者201の両耳に接触させるための処理が行われる。その詳細は後述する。ステップS140の両手接触処理が完了するとステップS142に進み、ロボット206の両手中指213a、213bが見守り対象者201の両耳の耳珠に、両手親指221a、221bが見守り対象者201の両頬骨に、それぞれ接触していることの確認が行われる。そして、この確認ができるとステップS144に進み、ステレオ外部気導音マイク246および気導音スピーカ223をオフするとともに、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bをそれぞれオンしてステップS146に移行する。これによって、気導音による会話が軟骨伝導および骨導マイクによる会話に切換えられる。In step S140, a process for watching both hands of therobot 206 and contacting both ears of the subject 201 for cartilage conduction is performed. Details thereof will be described later. When the two-hand contact processing of step S140 is completed, the process proceeds to step S142, where themiddle fingers 213a and 213b of therobot 206 are on the tragus of both ears of the watchingtarget person 201, and thethumbs 221a and 221b are on both cheekbones of the watchingperson 201. Each is confirmed to be in contact. If this confirmation can be made, the process proceeds to step S144 where the stereo external air conductionsound microphone 246 and the air conductionsound speaker 223 are turned off, and thebone conduction microphones 244a and 244b and the cartilageconduction vibration sources 242a and 242b are turned on, respectively. The process proceeds to S146. Thereby, the conversation by the air conduction sound is switched to the conversation by the cartilage conduction and the bone conduction microphone.

 一方、ステップS142において上記の耳珠および頬骨への接触が確認できない場合は、直接ステップS146に移行する。既述のように、軟骨伝導はロボット206の手および指のどこかが見守り対象者201の両耳の軟骨のいずれかの部分に接触すれば可能となるので、ステップS140の両手接触処理内においてこの状態が確認された場合、ステレオ外部気導音マイク246および気導音スピーカ223のオン状態を維持したまま、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bがそれぞれオンされる。これに対し、ステップS140の両手接触処理内においてロボット206の手と見守り対象者201との接触が実行されなかった場合は、ロボット206の両手を見守り対象者201の方に伸ばす処理は行われず、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bのオンも行われないので、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。これらのステップS140の両手接触処理の詳細については後述する。On the other hand, if contact with the tragus and cheekbones cannot be confirmed in step S142, the process proceeds directly to step S146. As described above, the cartilage conduction can be achieved by touching any part of the cartilage of both ears of the subject 201 while watching the hand and finger of therobot 206. When this state is confirmed, thebone conduction microphones 244a and 244b and the cartilageconduction vibration sources 242a and 242b are turned on while the stereo external air conductionsound microphone 246 and the air conductionsound speaker 223 are kept on. On the other hand, in the case where the contact between the hand of therobot 206 and the watchingtarget person 201 is not executed in the two-hand contact process in step S140, the process of watching over both hands of therobot 206 and extending toward thetarget person 201 is not performed. Since thebone conduction microphones 244a and 244b and the cartilageconduction vibration sources 242a and 242b are not turned on, the conversation by the stereo external air conductionsound microphone 246 and the air conductionsound speaker 223 is continued. Details of the two-hand contact process in step S140 will be described later.

 また、ステップS138において、周囲の気導音が所定以上であると判断されない場合は、直接ステップS146に移行する。この場合は、ロボット206の両手を見守り対象者201の方に伸ばす処理は行われず、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。In step S138, if it is not determined that the ambient air conduction sound is equal to or higher than the predetermined level, the process proceeds directly to step S146. In this case, the process of watching over both hands of therobot 206 and extending it toward the subject 201 is not performed, and the conversation by the stereo externalair conduction microphone 246 and theair conduction speaker 223 is continued.

 ステップS146では、異常の有無がチェックされる。これはステップS126において異常なしとして開始された会話中において不測の事態が生じることに対応するものである。この段階では、ロボット206の手による軟骨伝導が実行されている可能性があるので、ロボット206における見守りのためのセンサ機能が増加することになる。具体的には、骨導マイク244a、244b、触覚センサ231a、231b等が異常検知に寄与すると共に、例えば見守り対象者201が倒れたりした場合、顔を包んでいる手を通じて関節機構227a、227bの負荷検知センサに異常な負荷がかかるので3Dカメラ238による画像とともにきめ細かな異常検知が可能となる。In step S146, it is checked whether there is an abnormality. This corresponds to the occurrence of an unexpected situation during the conversation started as normal in step S126. At this stage, there is a possibility that the cartilage conduction by the hand of therobot 206 is executed, so that the sensor function for watching in therobot 206 is increased. Specifically, the bone-conduction microphones 244a and 244b, thetactile sensors 231a and 231b, etc. contribute to abnormality detection. For example, when the watchingtarget 201 falls down, thejoint mechanisms 227a and 227b can be connected through the hands that wrap the face. Since an abnormal load is applied to the load detection sensor, fine abnormality detection can be performed together with an image by the3D camera 238.

 ステップS146で異常が検知されない場合、ステップS148に移行して会話が終了したか否かの判断が行われる。この判断は、お互いの無言状態が所定時間以上続いたか否かのチェック、および会話内容の分析と会話終了に特有のキーワードの有無等により総合的に行われる。会話終了との判断がなされない場合は、ステップS136に戻り、以下会話終了との判断がなされるまでステップS136からステップS148が繰り返される。この繰り返しによって、まだ軟骨伝導が実行されていない状態においてステップS138で周囲の音量が所定以上となった場合、軟骨伝導への移行が可能となる。なお、気導音によるコミュニケーションから軟骨伝導へのコミュニケーションへの移行は一方向のものである。つまり、仮に、上記の繰り返しにおいてステップS138で周囲の音量が小さくなったからといって、一度開始した軟骨伝導によるコミュニケーションについてはこれを気導音によるコミュニケーションに戻す機能はない。従って、一連の会話途中では、軟骨伝導コミュニケーションと気導音コミュニケーションの間の煩瑣な往復切換えが行われることはない。ただし、異常の場合、ロボット206の手が見守り対象者201の顔を包んだままの状態を継続することは危険であり、上記の繰り返しにおいてステップS146がこれに対応している。その詳細は後述する。If no abnormality is detected in step S146, the process proceeds to step S148 to determine whether or not the conversation has ended. This determination is comprehensively performed by checking whether or not each other's silent state has continued for a predetermined time or longer, analyzing the contents of the conversation, and the presence or absence of a keyword unique to the end of the conversation. If it is not determined that the conversation is ended, the process returns to step S136, and steps S136 to S148 are repeated until it is determined that the conversation is ended. As a result of this repetition, when the surrounding sound volume becomes a predetermined level or higher in step S138 in a state where the cartilage conduction has not yet been executed, the transition to the cartilage conduction becomes possible. The transition from communication by air conduction sound to communication from cartilage conduction is one-way. That is, even if the surrounding sound volume is reduced in step S138 in the above repetition, there is no function to return the communication based on the cartilage conduction once started to the communication based on the air conduction sound. Therefore, no troublesome reciprocal switching between cartilage conduction communication and air conduction sound communication is performed during a series of conversations. However, in the case of abnormality, it is dangerous to continue the state in which the hand of therobot 206 wraps around the face of theperson 201 to be watched over, and step S146 corresponds to this in the above repetition. Details thereof will be described later.

 ステップS148で会話終了との判断がなされるとステップS150に移行し、軟骨伝導状態であるか否かチェックする。そして、軟骨伝導状態であればステップS152に移行し、ロボット206の両手を退避させて見守り対象者201の顔を解放し、ステップS154に移行する。一方、ステップS150において軟骨伝導状態が検知されなければ通常気導音による会話であり、見守り対象者201の拘束はないので直接ステップS154に移行する。If it is determined in step S148 that the conversation has ended, the process proceeds to step S150, and it is checked whether the cartilage conduction state is present. If it is in the cartilage conduction state, the process proceeds to step S152, where both hands of therobot 206 are retracted to release the face of the watchingtarget person 201, and the process proceeds to step S154. On the other hand, if the cartilage conduction state is not detected in step S150, the conversation is based on normal air conduction sound, and the watchingtarget person 201 is not restrained.

 ここで、異常の場合についての処理について説明する。ステップS126において異常状態が検知されるとステップS156に移行し、異常対応処理を行ってステップS150に移行する。この異常対応処理は基本的には実施例1または実施例2と共通の通報処理であるが、実施例3はロボット206により構成されるので、ロボット206が把握した見守り対象者201の状況に応じ、可能かつ緊急度がリスクを上回れば予めプログラムされた応急処置を行う。また、ステップS146において会話中に異常が検知された場合もステップS156に移行して異常対応処理を行うとともにステップS150に移行する。ここで重要なのは、上記のように、会話が軟骨伝導で行われていた場合においてなんらかの異常状態が発生した場合、仮にロボット206の手が見守り対象者201の顔を包んだままの状態を継続すると危険である。ここにおいてステップS146で異常が検知されると会話終了の判断がなくてもステップS136からステップS148の繰り返しループから抜け、ステップS156の異常対応処理を経由してステップS150に至る。そしてステップS150で軟骨伝導状態であったことが確認されるとステップS152に移行し、ロボット206の両手を退避させて見守り対象者201の顔を解放する。Here, the processing for abnormal cases will be described. If an abnormal state is detected in step S126, the process proceeds to step S156, an abnormality handling process is performed, and the process proceeds to step S150. This abnormality handling process is basically a notification process common to the first embodiment or the second embodiment. However, since the third embodiment includes therobot 206, it corresponds to the situation of the watchingtarget person 201 grasped by therobot 206. If possible and urgency exceeds risk, pre-programmed first aid is performed. In addition, when an abnormality is detected during the conversation in step S146, the process proceeds to step S156 to perform an abnormality handling process and the process proceeds to step S150. What is important here is that, as described above, if any abnormal state occurs when the conversation is performed by cartilage conduction, if the hand of therobot 206 keeps covering the face of theperson 201 to be watched, It is a danger. Here, if an abnormality is detected in step S146, even if it is not determined that the conversation has ended, the process repeats the loop from step S136 to step S148, and reaches step S150 via the abnormality handling process in step S156. When it is confirmed in step S150 that the cartilage conduction state is established, the process proceeds to step S152, where both hands of therobot 206 are retracted to release the face of the watchingtarget person 201.

 ステップS154では、ロボット206の主電源スイッチのオフまたは電源部248の充電池の消耗によりロボット206への給電が停止したか否かのチェックが行われる。給電停止が確認されない場合はステップS126に戻る。なお、ステップS130で会話開始が検知されなかった場合は、直ちにステップS126に戻る。以下、ステップS154で給電停止が確認されるまで、ステップS126からステップS154を繰り返し、ロボット206の種々の状況変化に対応する。一方、ステップS154で給電停止が確認されるとステップS158に至り、所定の終了処理を行ってフローを終了する。なお、この終了処理には、フェイルセーフとして、万一ロボット206の両手が見守り対象者の顔に接触したままである場合、これを退避させる機能が含まれる。In step S154, it is checked whether or not the power supply to therobot 206 is stopped by turning off the main power switch of therobot 206 or exhausting the rechargeable battery of thepower supply unit 248. If power supply stoppage is not confirmed, the process returns to step S126. If no conversation start is detected in step S130, the process immediately returns to step S126. Hereinafter, step S126 to step S154 are repeated until it is confirmed in step S154 that the power supply is stopped, to cope with various situation changes of therobot 206. On the other hand, when power supply stoppage is confirmed in step S154, the process reaches step S158, performs a predetermined end process, and ends the flow. Note that this end processing includes a function of evacuating therobot 206 when both hands of therobot 206 remain in contact with the watched person's face as a fail safe.

 図12は、図11のステップS140における両手接触処理の詳細を示すフローチャートである。フローがスタートするとステップS162で既にステップS140が実行されて手が見守り対象者201に接触済みか否かチェックする。そして接触済みであることが検知されると、直ちにフローを終了し、ステップS140では何も行われなないことになる。この場合、図11のフローでは、ステップS138で周囲音量が所定以上であることが検知されても途中のステップS140~S144で何も行われず、実質的に直接ステップS146に至ったのと同等の結果となる。このようにして、ステップS140の実行により何らかの形で見守り対象者201への手の接触が実現すると、以後会話の途中でステップS140を繰り返して状態を変えたり同じ処理をしつこく繰り返したりすることが避けられる。FIG. 12 is a flowchart showing details of the two-hand contact process in step S140 of FIG. When the flow starts, step S140 is already executed in step S162, and it is checked whether or not the hand has been in contact with the watchingtarget person 201. When it is detected that contact has been made, the flow is immediately terminated, and nothing is performed in step S140. In this case, in the flow of FIG. 11, even if it is detected in step S138 that the ambient volume is greater than or equal to the predetermined value, nothing is performed in steps S140 to S144 in the middle, and is substantially equivalent to having reached step S146 directly. Result. In this way, when the hand contact with theperson 201 to be watched is realized in some way by the execution of step S140, it is avoided that step S140 is repeated in the middle of the conversation to change the state or repeatedly repeat the same process. It is done.

 一方、ステップS162でロボット206の手の接触が確認されないとステップS164に進み、手のヒータ225a、225bの人肌への急速加温を開始してステップS166に移行する。ステップS166では、接触同意コミュニケーション処理を行う。一般にスキンシップ(この場合、ロボット206が相手)は、受け入れる気持ちがある場合大変心地良いが、場合によっては極めて不快である。従って、ロボット206は、図11のステップS130からステップS138への諸判断を経てステップS140に至ったとしても、いきなり一方的な行動はとらず、見守り対象者201の意思を尊重して図12のステップS166にて接触への同意を促す。このときステップS166で行われるコミュニケーションは、気導音による言語情報のみによる「お顔に触れてもいいですか」という直截的なものに限らず、例えばまずハグするように両手を大きく広げてから相手を驚かせないよう穏やかに顔を包み込む動作に移行する等のボディランゲージでもよい。また、このような動作に「静かにお話ししましょうか」等の暗示的な語りかけを添えた総合的なコミュニケーションを試みるようにしてもよい。そして、このような働きかけをしながら3Dカメラ238およびステレオ外部気導音マイク246により相手の様子を観察してステップS168に移行する。On the other hand, if the contact of the hand of therobot 206 is not confirmed in step S162, the process proceeds to step S164, where rapid heating of thehand heaters 225a, 225b to the human skin is started, and the process proceeds to step S166. In step S166, contact consent communication processing is performed. In general, skinship (in this case, therobot 206 is the other party) is very comfortable when there is a willingness to accept, but in some cases it is very uncomfortable. Therefore, even if therobot 206 reaches step S140 through various judgments from step S130 to step S138 in FIG. 11, it does not take any unilateral action, respecting the intention of the watchingtarget 201 and in FIG. In step S166, consent to contact is prompted. At this time, the communication performed in step S166 is not limited to the straightforward “can you touch the face” based only on the language information of the air conduction sound, for example, after spreading both hands so as to hug first. Body language, such as shifting to a gentle wrapping action to surprise the opponent, may be used. Moreover, you may be made to try the total communication which added implicit hints, such as "Let's talk quietly" to such operation | movement. The other party is observed with the3D camera 238 and the stereo externalair conduction microphone 246 while performing such an action, and the process proceeds to step S168.

 ステップS168では、見守り対象者201の拒否の言葉または顔を背ける等の拒否の動作による見守り対象者201の意思表示がないかチェックし、接触拒否意思表示がないものと判断できればステップS170に移行する。ステップS170では、見守り対象者201が車椅子使用者か否かチェックする。これは車椅子使用者ならば比較的顔の位置が安定しており、ロボット206の手で接触圧を加えても転倒などの危険が少ないからである。ステップS170で車椅子使用者であることが確認できなければ、ステップS172の着席案内処理に移行する。この処理では、椅子の有無および位置の確認と、見守り対象者201への着席推奨アナウンスおよび椅子への案内、着席の確認などを行う。次いで、ステップS174で見守り対象者201の顔に手を接触させても危険がないか否かの最終確認を行う。この確認は、見守り対象者201の着席確認を最善とするが、立ったままであるとしても、着席案内処理を通じて見守り対象者201の足腰に不安がなく、多少顔に圧力がかかっても転倒のリスクが少ないことが確認できた場合も含む。In step S168, it is checked whether or not there is an intention display of the person to be watched 201 due to a refusal action such as turning away the word or face of refusal of the person to be watched 201, and if it can be determined that there is no contact refusal intention display, the process proceeds to step S170. . In step S170, it is checked whether or not the watchingtarget person 201 is a wheelchair user. This is because if the user is a wheelchair user, the position of the face is relatively stable, and even if contact pressure is applied with the hand of therobot 206, there is little risk of falling. If it is not confirmed in step S170 that the user is a wheelchair user, the process proceeds to the seating guidance process in step S172. In this process, the presence / absence and position of the chair are confirmed, a recommended seating announcement to the person to be watched over 201, guidance to the chair, confirmation of seating, and the like are performed. Next, in step S174, a final confirmation is made as to whether there is no danger even if the hand is brought into contact with the face of theperson 201 to be watched over. This confirmation is best to confirm the seating of the person to be watched 201, but even if the person is standing, there is no anxiety on the legs and legs of the person to be watched 201 through the seating guidance process, and the risk of falling even if some pressure is applied to the face This includes cases where it is confirmed that there are few.

 ステップS174で安全確認ができるとステップS176に移行し、両手を顔に伸ばす方向と視線の方向を一致させる視線同調を開始しステップS178に進む。ステップS178では両手で顔を包むために3Dカメラ238の情報に基づいて右関節機構227aと左関節機構227bを駆動する両手調節処理を実行しステップS180に進む。ステップS180では、両手が顔に接触することによる負荷が右関節機構227aおよび左関節機構227bの負荷検知センサにより検知されたか否かチェックする。そして検知がなければステップS178に戻り、両手が顔に接触するまでステップS178およびステップS180を繰り返す。そしてステップS180で負荷が検知されるとステップS182に進み、加圧リミッタをオンして見守り対象者201の顔を挟む圧力が過度にならないよう制限を開始する。If the safety can be confirmed in step S174, the process proceeds to step S176, and the line-of-sight synchronization is started to match the direction of extending both hands to the face and the direction of the line of sight, and the process proceeds to step S178. In step S178, a two-hand adjustment process for driving the rightjoint mechanism 227a and the leftjoint mechanism 227b is executed based on information from the3D camera 238 in order to wrap the face with both hands, and the process proceeds to step S180. In step S180, it is checked whether or not the load due to the contact of both hands with the face is detected by the load detection sensors of the rightjoint mechanism 227a and the leftjoint mechanism 227b. If there is no detection, the process returns to step S178, and steps S178 and S180 are repeated until both hands touch the face. When a load is detected in step S180, the process proceeds to step S182, where the pressure limiter is turned on and restriction is started so that the pressure sandwiching the face of the watchingtarget person 201 does not become excessive.

 この状態で、ロボット206の両手(指を含む)のどこかが見守り対象者201の両耳軟骨のどこかに接触したものと判断できるので、ステップS184に進み、骨導マイク244a、244bおよび軟骨伝導振動源242a、242bをオンしてステップS186に進む。この状態では、気導音スピーカ223ならびに骨導マイク244a、244bもオン状態で併用される。さらにステップS186では、気導音スピーカ223のみからの発話の場合と同様にして、口機構209が軟骨伝導振動源242a、242bの振動による音声と連動して動くよう同調を継続させる。ステップS186による同調は、図12のステップS144において気導音スピーカ223がオフになっても継続される。In this state, it can be determined that somewhere on both hands (including the fingers) of therobot 206 is in contact with somewhere on the binaural cartilage of the subject 201, and thus the process proceeds to step S184 and the bone-conductingmicrophones 244a and 244b and the cartilage Theconduction vibration sources 242a and 242b are turned on and the process proceeds to step S186. In this state, the air conductionsound speaker 223 and thebone conduction microphones 244a and 244b are also used in the on state. Further, in step S186, in the same manner as in the case of speech from the air conductionsound speaker 223, the synchronization is continued so that themouth mechanism 209 moves in conjunction with the sound generated by the vibration of the cartilageconduction vibration sources 242a and 242b. The tuning in step S186 is continued even if the air conductionsound speaker 223 is turned off in step S144 in FIG.

 次いでステップS188による両手間隔保持/関節脱力処理が開始される。これは、既述のように、両手がその相対間隔を保ったまま平行移動するとともに見守り対象者201の顔の自由な動きに合わせて抵抗なく追従するよう右関節機構227aおよび左関節機構227bがいわば脱力状態で追従するよう制御する処理である。この処理はステップS188からフローが進んでも継続される。Next, the two-hand interval holding / joint weakening process in step S188 is started. As described above, the rightjoint mechanism 227a and the leftjoint mechanism 227b move so that both hands move in parallel while maintaining the relative distance and follow the free movement of the face of the watchingtarget 201 without resistance. In other words, it is a process of controlling to follow in a weak state. This process is continued even if the flow proceeds from step S188.

 さらに、ステップS190では、左右の中指213a、213bの曲がり具合を微修正しながら指先が見守り対象者201の耳珠に接触するようにするとともに、左右の親指221aおよび221bの曲がり具合を微修正し、見守り対象者201の頬骨に接触するようにする処理が開始される。次いで、ステップS192では、上記の結果として中指213a、213bが耳珠に、親指221a、221bが頬骨に接触したか否かをチェックされ、接触が確認できないとステップS194に進む。ステップS194では、ステップS190が開始されてから所定時間が経過したか否かチェックし、所定時間の経過がないとステップS190に戻る。以下、ステップS190からステップS194が繰り返される。その繰り返しの中で、ステップS192にて耳珠および頬骨への指の接触が確認されるとフローを終了し、図11のステップS142に移行する。この場合、既述のとおりステップS142からステップS144に進むことになり、ステレオ外部気導音マイク246および気導音スピーカ223がオフされることになる。一方、ステップS194で所定時間の経過が確認された場合もフローを終了し、図11のステップS142に移行する。この場合は、図11においてステップS144を経由せず、ステレオ外部気導音マイク246および気導音スピーカ223がオンで併用されたままステップS146に移行することになる。Furthermore, in step S190, while slightly correcting the bending of the left and rightmiddle fingers 213a and 213b, the fingertips are in contact with the tragus of the watchingtarget 201, and the bending of the left andright thumbs 221a and 221b is slightly corrected. Then, the process of making contact with the cheekbone of the watchingtarget person 201 is started. Next, in step S192, it is checked whether or not themiddle fingers 213a and 213b are in contact with the tragus and thethumbs 221a and 221b are in contact with the cheekbones as a result of the above, and if the contact cannot be confirmed, the process proceeds to step S194. In step S194, it is checked whether or not a predetermined time has elapsed since the start of step S190. If the predetermined time has not elapsed, the process returns to step S190. Thereafter, steps S190 to S194 are repeated. In the repetition, when the finger contact with the tragus and cheekbone is confirmed in step S192, the flow is ended, and the process proceeds to step S142 in FIG. In this case, as described above, the process proceeds from step S142 to step S144, and the stereo externalair conduction microphone 246 and theair conduction speaker 223 are turned off. On the other hand, also when it is confirmed that the predetermined time has elapsed in step S194, the flow is ended, and the process proceeds to step S142 in FIG. In this case, the process proceeds to step S146 without passing through step S144 in FIG. 11 while the stereo externalair conduction microphone 246 and theair conduction speaker 223 are kept on and used together.

 一方ステップS168において、少しでも接触拒否の意思表示があるとの判断がなされたときはステップS196に進み、手のヒータ225a、225bによる人肌への加温を停止してフローを終了する。同様に、ステップS174において安全確認ができない場合も、ステップS196に進み、手のヒータ225a、225bによる人肌への加温を停止してフローを終了する。これらの場合はいずれも、ロボット206の手と見守り対象者201の接触による軟骨伝導は行われず、気導音によるコミュニケーションが継続される。On the other hand, if it is determined in step S168 that there is any intention to refuse contact, the process proceeds to step S196, the heating of the human skin by thehand heaters 225a, 225b is stopped, and the flow ends. Similarly, when the safety check cannot be performed in step S174, the process proceeds to step S196, the heating of the human skin by thehand heaters 225a and 225b is stopped, and the flow is ended. In any of these cases, cartilage conduction due to contact between the hand of therobot 206 and the watchingtarget person 201 is not performed, and communication using air conduction sound is continued.

 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であると共に、一部変形前の状態と組み合わせて実施することも可能である。The implementation of the various features shown in the above embodiments is not limited to individual embodiments, and other embodiments can be implemented as long as the advantages can be enjoyed. The various features shown in each embodiment can be implemented with various modifications. These modifications can be carried out in combination as appropriate, and can also be carried out in combination with the state before partial deformation.

 例えば、実施例3のロボットの構成において、骨導マイクを親指に軟骨伝導振動源を中指に設けているが、これに限るものではなく、例えば軟骨伝導振動源を人差し指に設けてもよい。さらに、片手について複数の軟骨伝導振動源を片手の複数の指にそれぞれ設けても良い。また、実施例3では軟骨伝導に入るときに手のヒータの人肌への加温をスタートさせているが、常にヒータをオンしてロボットの手の温度を人肌に保ち、他の目的で見守り対象者に触れた時にも冷たさを感じないようにすることも可能である。For example, in the configuration of the robot according to the third embodiment, the bone conduction microphone is provided on the thumb and the cartilage conduction vibration source is provided on the middle finger. However, the present invention is not limited to this. For example, the cartilage conduction vibration source may be provided on the index finger. Further, a plurality of cartilage conduction vibration sources for one hand may be provided on each of a plurality of fingers of one hand. In Example 3, the heating of the hand heater to the human skin is started when entering cartilage conduction, but the heater is always turned on to keep the temperature of the robot hand on the human skin. It is also possible to avoid feeling cold when touching the person being watched over.

 さらに、図11のフローでは、ステップS136で登録済み軟骨伝導登録者であることが確認されたとき、または、ステップS138で周囲の音量が大きくなったときにしかステップS140の両手接触処理に入らないようになっているが、これらの場合に加え、見守り対象者201からの自由な意思表示(例えば、見守り対象者201から希望する旨の発言がステレオ外部気導音マイク246で確認されたとき、または3Dカメラ238にて見守り対象者201が軟骨伝導を求める動作をしていることが確認できたとき、または見守り対象者201が自らロボット206の手を取って自分の耳に導いたときなど)に基づいて割り込みをかけ、図11のステップS140に移行するよう構成してもよい。Further, in the flow of FIG. 11, the two-hand contact process of step S140 is entered only when it is confirmed that the registered cartilage conduction registrant is obtained in step S136 or when the surrounding sound volume is increased in step S138. In addition to these cases, in addition to these cases, a free intention display from the watching target person 201 (for example, when a statement that themonitoring target person 201 desires is confirmed with the stereo externalair conduction microphone 246, Or when it is confirmed that theperson 201 to be watched is performing an operation for obtaining cartilage conduction with the3D camera 238, or when theperson 201 to be watched takes the hand of therobot 206 and leads it to his / her ear) An interrupt may be issued based on the above and the process may proceed to step S140 in FIG.

 さらに、実施例3のロボットの手には見守り対象者の耳珠と指先の接触を確認するための触覚センサが設けられているが、これを光学的な近接センサに代えてもよく、また触覚センサと光学的な近接センサを併用してもよい。Further, the robot hand of Example 3 is provided with a tactile sensor for confirming the contact between the tragus of the person being watched over and the fingertip. However, this may be replaced with an optical proximity sensor. A sensor and an optical proximity sensor may be used in combination.

 図13は、本発明の実施の形態に係る実施例4のシステム構成図である。実施例4は、図9~図12に示した実施例3と同様にして、軟骨伝導により人とコミュニケーション可能なロボット306として構成される。そして、実施例1と同様にして住居内の見守りシステムを構成するとともに、実施例3のロボット206と同様にして見守り対象者201との人間的なコミュニケーションが可能となっている。図13の実施例4は、実施例3と共通部分が多いので、同様の部分には同じ番号を付して必要のない限り説明を省略する。FIG. 13 is a system configuration diagram of Example 4 according to the embodiment of the present invention. The fourth embodiment is configured as arobot 306 that can communicate with humans by cartilage conduction in the same manner as the third embodiment shown in FIGS. The monitoring system in the residence is configured in the same manner as in the first embodiment, and human communication with the watchingtarget person 201 is possible in the same manner as therobot 206 in the third embodiment. Since Example 4 of FIG. 13 has many common parts with Example 3, the same parts are denoted by the same reference numerals and description thereof is omitted unless necessary.

 図13に示す実施例4が、図9に示す実施例3と異なるのは、ロボット306の手の構造およびその制御である。これによって、実施例4のロボット306は、図13に示すように、ベッド350に横臥している見守り対象者201を抱き起こして軟骨伝導によるコミュニケーションをとることができる。なお、実施例4のロボット306は、実施例3のロボット206と同様にして、自立している見守り対象者201とのコミュニケーションをとることも可能である。13 differs from the third embodiment shown in FIG. 9 in the structure of the hand of therobot 306 and its control. As a result, therobot 306 according to the fourth embodiment can wake up the watchingtarget person 201 lying on thebed 350 and communicate by cartilage conduction as shown in FIG. Note that therobot 306 according to the fourth embodiment can communicate with the watchingtarget person 201 who is independent as in therobot 206 according to the third embodiment.

 次に図13に基づき、横臥している見守り対象者201とのコミュニケーションに関するロボット306の機能について詳細に説明する。ロボット306は、コミュニケーションにあたり、図13に示すように、両手で見守り対象者201を少し抱き起こしてロボット306の顔に対向させるようにする。これにより、ベッド350の脇に立ったロボット306が横臥している見守り対象者201を触れ合いなしに見下ろすのに比べ、より親近感が増したコミュニケーションが可能となる。Next, the function of therobot 306 related to communication with the lyingtarget person 201 will be described in detail with reference to FIG. In communication, as shown in FIG. 13, therobot 306 wakes up theperson 201 to be watched a little with both hands so as to face the face of therobot 306. As a result, it is possible to perform communication with a greater sense of familiarity than when therobot 306 standing beside thebed 350 looks down on the watchingtarget person 201 without touching it.

 図13の状態における各指の機能について説明すると、ます、見守り対象者201の後頭部および首に差し入れられた中指313、薬指351および小指352が、主に見守り対象者201の上半身の体重を支える。そして軟骨伝導振動源が設けられた親指321が見守り対象者201の耳珠232に接触し、軟骨伝導によりロボット306からの音声を伝える。また、骨導マイクが設けられた人差し指354が見守り対象者201の乳様突起に接触し、骨導により見守り対象者201の音声を拾う。13 will be described. First, themiddle finger 313, thering finger 351, and thelittle finger 352 inserted into the back of the head and neck of the watchingtarget 201 mainly support the weight of the upper body of the watchingtarget 201. Then, thethumb 321 provided with the cartilage conduction vibration source comes into contact with thetragus 232 of theperson 201 to be watched, and transmits the voice from therobot 306 by cartilage conduction. Further, theindex finger 354 provided with the bone conduction microphone comes into contact with the milky process of the watchingtarget person 201, and picks up the voice of the watchingtarget person 201 by the bone guide.

 図14は、図13に示した本発明の実施例4のロボット306のブロック図である。図13と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例4は、実施例3と共通するとことが多いので、実施例3と異なる右手211の構成を制御部340との関係で図示している。そして、その他の部分については、実施例3のブロック図である図10およびその説明を流用することとし、図14では図示を省略または簡略化している。さらに、図14に図示した部分についても、図10と共通の部分については、同じ番号を付し、説明を省略する。FIG. 14 is a block diagram of therobot 306 according to the fourth embodiment of the present invention shown in FIG. Portions common to those in FIG. 13 are denoted by the same reference numerals, and description thereof is omitted unless necessary. As described above, since the fourth embodiment is often in common with the third embodiment, the configuration of theright hand 211 different from the third embodiment is illustrated in relation to thecontrol unit 340. As for other parts, FIG. 10 which is a block diagram of the third embodiment and the description thereof are used, and the illustration is omitted or simplified in FIG. Further, with respect to the portions illustrated in FIG. 14, portions common to FIG. 10 are denoted by the same reference numerals and description thereof is omitted.

 図14に明らかなように、ロボット306の右手211の中指313には第1軟骨伝導振動源242aおよび第1触覚センサ231aが設けられている。一方、ロボット306の右手211の親指321には第1骨導マイク244aが設けられており、頬骨などからの骨伝導音を拾う。これらの構成は、図10に図示した軟骨伝導振動源242a、触覚センサ231a、および骨導マイク244aと同じものであり、実施例3と同様にして、図9のように自立している見守り対象者201とのコミュニケーションをとる際に用いられる。As is apparent from FIG. 14, themiddle finger 313 of theright hand 211 of therobot 306 is provided with a first cartilageconduction vibration source 242a and a firsttactile sensor 231a. On the other hand, a first bone-conductingmicrophone 244a is provided on thethumb 321 of theright hand 211 of therobot 306 to pick up bone conduction sound from the cheekbone or the like. These structures are the same as those of the cartilageconduction vibration source 242a, thetactile sensor 231a, and thebone conduction microphone 244a illustrated in FIG. Used when communicating with theperson 201.

 次に、図13のように横臥している見守り対象者201とのコミュニケーションをとる際に、機能する構成について説明する。親指321には、第2軟骨伝導振動源342aが設けられ、見守り対象者201の耳珠232に接触することで軟骨伝導によりロボット306からの音声を伝える。さらに、親指321には、見守り対象者201の耳珠232への接触状態をモニタして良好な軟骨伝導を実現維持するための第2触覚センサ331aが設けられている。一方、人差し指354には、第2骨導マイク344aが設けられ、見守り対象者201の乳様突起に接触することで骨導により見守り対象者201の音声を拾う。これら第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aは、先に説明した第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aと切換えられることにより、いずれか一方が機能する。Next, a configuration that functions when communicating with the watchingtarget person 201 lying on the side as shown in FIG. 13 will be described. Thethumb 321 is provided with a second cartilageconduction vibration source 342a, which conveys sound from therobot 306 by cartilage conduction by contacting thetragus 232 of theperson 201 to be watched. Further, thethumb 321 is provided with a second tactile sensor 331a for monitoring the contact state of theperson 201 to be watched with thetragus 232 to realize and maintain good cartilage conduction. On the other hand, theindex finger 354 is provided with a second bone-conduction microphone 344a, and picks up the voice of the watchingtarget 201 by bone guide by contacting the milky process of the watchingtarget 201. The second cartilageconduction vibration source 342a, the second tactile sensor 331a, and the secondbone conduction microphone 344a are switched to the first cartilageconduction vibration source 242a, the firsttactile sensor 231a, and the firstbone conduction microphone 244a described above. One of them will function.

 また、図14に示すように、中指313、薬指351および小指352と右手211の間には抱起し用指調節機構355が設けられ、見守り対象者201の後頭部および首に差し入れられたこれらの指が見守り対象者201の上半身の体重を支えることができるよう、各指を支持する。このとき右関節機構227aも、見守り対象者201の上半身の体重を支えることができるよう、右手211及び右腕215を支持する。ただし、見守り対象者201の頭を過度に拘束しないよう、右関節機構227は、垂直方向の位置を保ったまま水平方向には見守り対象者201の頭の自由な動きに合わせて抵抗なく追従するよう制御する。さらに上下方向についても、所定以上の見守り対象者201の頭の動きがあったときはこれに抵抗せず追従することで、快適に見守り対象者201の上半身の体重を支える。Further, as shown in FIG. 14, afinger adjustment mechanism 355 for raising is provided between themiddle finger 313,ring finger 351,little finger 352 and theright hand 211, and these are inserted into the back head and neck of theperson 201 to be watched. Each finger is supported so that the finger can support the weight of the upper body of theperson 201 to be watched over. At this time, the rightjoint mechanism 227a also supports theright hand 211 and theright arm 215 so that the weight of the upper body of theperson 201 to be watched can be supported. However, the right joint mechanism 227 follows in a horizontal direction without resistance in accordance with the free movement of the watchedperson 201's head while maintaining the vertical position so that the watchedperson 201's head is not excessively restrained. Control as follows. Further, in the vertical direction, when there is a movement of the head of the watchingtarget person 201 exceeding a predetermined level, the weight of the upper body of the watchingtarget person 201 is comfortably supported by following without resisting.

 以上の構成により、実施例4では、図13に示すように、ベッド350に横臥している見守り対象者201を自然に抱き起こし、より親近感が増しかつ快適な状態において軟骨伝導によるコミュニケーションをとることができる。With the above configuration, in Example 4, as shown in FIG. 13, theperson 201 to be watched lying on thebed 350 is naturally held up, and communication by cartilage conduction is taken in a more comfortable and comfortable state. Can do.

 図15は、図14に示す実施例4のロボット306における制御部340の機能の一部を示すフローチャートである。上記のように実施例4は実施例3と共通するところが多いので、制御部340全体の機能を示すフローチャートについては図11における実施例3のものを流用する。換言すれば、図15のフローチャートは、図11のフローチャートにおけるステップS140の両手接触処理の詳細として説明する。なお、図11のフローチャートを実施例4のものとして流用する際、ステップS152の両手退避処理において、見守り対象者201の顔を解放するのに先立ち、対象者201の頭をゆっくりとベッド350に戻す処理を行う。また、実施例3においても共通であるが、ステップS152の両手退避処理が終了すると手のヒータ225aの加温も停止する。FIG. 15 is a flowchart showing a part of the function of thecontrol unit 340 in therobot 306 of the fourth embodiment shown in FIG. As described above, since the fourth embodiment has a lot in common with the third embodiment, the flowchart of the overall function of thecontrol unit 340 is the same as that of the third embodiment in FIG. In other words, the flowchart in FIG. 15 will be described as details of the two-hand contact process in step S140 in the flowchart in FIG. When diverting the flowchart of FIG. 11 as that of the fourth embodiment, the head of the subject 201 is slowly returned to thebed 350 prior to releasing the face of the subject 201 in the two-hand retracting process of step S152. Process. Further, as in the third embodiment, the heating of thehand heater 225a is also stopped when the two-hand retracting process in step S152 is completed.

 さて、図15のフローチャートは、図11のフローがステップS140に至るとスタートし、ステップS202で既にステップS140が実行されてロボット306の手が見守り対象者201に接触済みか否かチェックする。そして接触済みであることが検知されると、既に軟骨伝導が達成されているものと判断し、直ちにフローを終了する。この場合、ステップS140では何も行われなないことになる。The flow chart of FIG. 15 starts when the flow of FIG. 11 reaches Step S140, and checks whether or not Step S140 has already been executed in Step S202 and the hand of therobot 306 has contacted the watchingtarget person 201. When it is detected that contact has been made, it is determined that cartilage conduction has already been achieved, and the flow is immediately terminated. In this case, nothing is performed in step S140.

 一方、ステップS202でロボット306の手の接触が確認されないとステップS204に進み、手のヒータ225a、225bの人肌への急速加温を開始してステップS206に移行する。ステップS206では、接触同意コミュニケーション処理を行い、見守り対象者201の意思を尊重して抱き上げ接触への同意を促す。この際のコミュニケーションは実施例3と同様である。そして、3Dカメラ238およびステレオ外部気導音マイク246により相手の応答を待ちながら様子を観察してステップS208に移行する。On the other hand, if the contact of the hand of therobot 306 is not confirmed in step S202, the process proceeds to step S204, the rapid heating of thehand heaters 225a, 225b to the human skin is started, and the process proceeds to step S206. In step S206, contact consent communication processing is performed, and the intention of the person to be watched 201 is respected and the consent to the lifting contact is promoted. Communication at this time is the same as in the third embodiment. Then, the state is observed by the3D camera 238 and the stereo external air conductionsound microphone 246 while waiting for the other party's response, and the process proceeds to step S208.

 ステップS208では、見守り対象者201の拒否の言葉または拒否の動作による見守り対象者201の意思表示がないかチェックし、接触拒否意思表示がないものと判断できればステップS210に移行する。ステップS210では、見守り対象者201が横臥者か否かチェックする。ステップS210で見守り対象者201が横臥者であることが確認できると、第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aを不動作状態とするとともに、第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aを動作状態とする。これによって、親指321による軟骨伝導が行われる状態への切換えが完了するのでステップS214に移行する。In step S208, it is checked whether or not there is an intention display of the watchingtarget person 201 due to the word or words of refusal of the watchingtarget person 201, and if it can be determined that there is no contact refusing intention display, the process proceeds to step S210. In step S210, it is checked whether or not the watchingtarget person 201 is a lying person. If it can be confirmed in step S210 that theperson 201 to be watched is a lying person, the first cartilageconduction vibration source 242a, the firsttactile sensor 231a, and the first bone-conduction microphone 244a are deactivated, and the second cartilage Theconduction vibration source 342a, the second tactile sensor 331a, and the second bone-conductingmicrophone 344a are set in the operating state. As a result, switching to a state in which cartilage conduction is performed by thethumb 321 is completed, and the process proceeds to step S214.

 ステップS214では、両手を顔に伸ばす方向と視線の方向を一致させる視線同調を開始しステップS216に進む。ステップS216では、3Dカメラ238の情報に基づいて左右の関節機構227a、227bおよび抱き起し用指調節機構355を駆動し、ロボット306の中指313から小指352を見守り対象者201の後頭部および首の後ろに差し入れて抱き起こす処理を実行し、ステップS218に進む。ステップS218では、抱き上げた状態において親指321と人差指354の曲がり具合を第2触覚センサ331a(必要に応じて第1触覚センサ231aも併用、以下も同様)および3Dカメラ238の情報により微調整し、それぞれ耳珠および乳様突起に接触させる処理を行ってステップS220に移行する。ステップS220では、第2触覚センサ331aおよび3Dカメラ238の情報により上記の接触が実現したか否かチェックする。確認がなければステップS218に戻り、接触が確認されるまでステップS218とステップS220を繰り返す。そしてステップS220で接触が確認されるとステップS222に進み、加圧リミッタをオンして見守り対象者201の顔を両手の親指321および人差指354で挟む圧力が過度にならないよう制限を開始する。In step S214, line-of-sight synchronization is started to match the direction of extending both hands to the face and the line of sight, and the process proceeds to step S216. In step S216, the left and rightjoint mechanisms 227a and 227b and the liftingfinger adjustment mechanism 355 are driven based on the information of the3D camera 238 to watch thelittle finger 352 from themiddle finger 313 of therobot 306 and A process of waking up and hugging is executed, and the process proceeds to step S218. In step S218, the degree of bending of thethumb 321 and theindex finger 354 is finely adjusted in accordance with information from the second tactile sensor 331a (the firsttactile sensor 231a is used in combination, as well as the following) and the3D camera 238, The process which contacts each tragus and milky process is performed, and it transfers to step S220. In step S220, it is checked whether or not the above contact has been realized based on information from the second tactile sensor 331a and the3D camera 238. If there is no confirmation, the process returns to step S218, and steps S218 and S220 are repeated until contact is confirmed. Then, when contact is confirmed in step S220, the process proceeds to step S222, where the pressure limiter is turned on and restriction is started so that the pressure to pinch the face of the watchingtarget person 201 with boththumbs 321 andindex finger 354 does not become excessive.

 次いで、ステップS224に進み、第2骨導マイク344aおよび第2軟骨伝導振動源342aをオンしてステップS226に進む。ステップS226では、口機構209が第2軟骨伝導振動源342aの振動による音声と連動して動くよう同調させ、ステップS228に移行する。Next, the process proceeds to step S224, the secondbone conduction microphone 344a and the second cartilageconduction vibration source 342a are turned on, and the process proceeds to step S226. In step S226, themouth mechanism 209 is tuned to move in conjunction with the sound generated by the vibration of the second cartilageconduction vibration source 342a, and the process proceeds to step S228.

 ステップS228では、両手親指間の間隔および両手人差指間の間隔をそれぞれ保持したまま水平方向に両手が並行移動できるように関節を脱力させる処理が開始される。これは、既述のように、ロボット306の指が見守り対象者201を拘束することなく頭の自由な動きに合わせて両手が脱力状態で追従するよう制御する処理である。この処理はステップS228からフローが進んでも継続される。In step S228, a process of de-energizing the joint is started so that both hands can move in parallel in the horizontal direction while maintaining the distance between the thumbs of both hands and the distance between the two index fingers. As described above, this is a process of controlling the fingers of therobot 306 so that both hands follow in a weak state in accordance with the free movement of the head without restraining theperson 201 to be watched over. This process is continued even if the flow proceeds from step S228.

 ステップS228の処理が開始されるとステップS230に進み、第2触覚センサ331aおよび3Dカメラ238の情報により親指321と人差指354がそれぞれ耳珠および乳様突起に接触しているか再確認する。そしてステップS230で接触が再確認されるとフローを終了する。この結果、フローは図11のステップS142に移行することになる。一方、ステップS230で接触が再確認できないとステップS232に進む。ステップS232では、ステップS218が開始されてから所定時間が経過したか否かチェックし、所定時間の経過がないとステップS218に戻る。以下、ステップS218からステップS232が繰り返される。その繰り返しの中で、ステップS230にて耳珠および乳様突起への指の接触が確認されるか、またはステップS232で所定時間の経過が確認されると、フローを終了し、図11のステップS142に移行する。なおステップS142の処理は、横臥者への対応の場合「耳珠・乳様突起接触確認?」と読替えることとする。When the process of step S228 is started, the process proceeds to step S230, and it is reconfirmed whether thethumb 321 and theindex finger 354 are in contact with the tragus and the mastoid process according to the information of the second tactile sensor 331a and the3D camera 238, respectively. When the contact is reconfirmed in step S230, the flow ends. As a result, the flow moves to step S142 in FIG. On the other hand, if the contact cannot be reconfirmed in step S230, the process proceeds to step S232. In step S232, it is checked whether or not a predetermined time has elapsed since the start of step S218. If the predetermined time has not elapsed, the process returns to step S218. Thereafter, step S218 to step S232 are repeated. In the repetition, when the contact of the finger to the tragus and the mastoid process is confirmed in step S230, or the passage of the predetermined time is confirmed in step S232, the flow is finished, and the step of FIG. The process proceeds to S142. Note that the process of step S142 is read as “confirmation of contact with tragus / milky protrusion?” In the case of dealing with a lying person.

 一方、ステップS208において、見守り対象者201が少しでも接触拒否の意思表示をしていると判断がなされたときはステップS234に進み、手のヒータ225aによる人肌への加温を停止してフローを終了する。この場合は、ロボット306の手と見守り対象者201の接触による軟骨伝導は行われず、気導音によるコミュニケーションが継続される。On the other hand, when it is determined in step S208 that theperson 201 to be watched has made the intention to refuse contact even a little, the process proceeds to step S234 to stop the heating of the human skin by thehand heater 225a and execute the flow. Exit. In this case, cartilage conduction by contact between the hand of therobot 306 and the watchingtarget person 201 is not performed, and communication by air conduction sound is continued.

 なお、ステップS210において、見守り対象者201が横臥者であることが確認できない場合は、ステップS236に移行し、第2軟骨伝導振動源342a、第2触覚センサ331aおよび第2骨導マイク344aを不動作状態とするとともに、第1軟骨伝導振動源242a、第1触覚センサ231a、および第1骨導マイク244aを動作状態とする。これによって、中指313による軟骨伝導が行われる状態への切換えが完了するのでステップS238の自立者処理に移行し、処理が完了すると、フローを終了する。なお、ステップS238の自立者処理は、図12のステップS170からステップS196と同じものである。If it is not confirmed in step S210 that theperson 201 to be watched is a lying person, the process proceeds to step S236, and the second cartilageconduction vibration source 342a, the second tactile sensor 331a, and the secondbone conduction microphone 344a are not connected. The operation state is set, and the first cartilageconduction vibration source 242a, the firsttactile sensor 231a, and the firstbone conduction microphone 244a are set in the operation state. As a result, switching to the state in which cartilage conduction is performed by themiddle finger 313 is completed, so the process proceeds to the independent process in step S238, and when the process is completed, the flow ends. In addition, the independent person process of step S238 is the same as step S170 to step S196 of FIG.

 図16は、本発明の実施の形態に係る実施例5のシステム構成図である。実施例5は、図9から図12に示した実施例3と同様にして、軟骨伝導により人とコミュニケーション可能なロボット406として構成される。しかしながら、ロボット406は銀行における顧客応対システムとして構成される。そして、多数の顧客が訪れている銀行の騒音下における特定の顧客との円滑なコミュニケーションを可能にするとともに、プライバシー保護の観点からも有用なシステムを提供する。図16の実施例5は、実施例3と共通部分が多いので、同様の部分には同じ番号を付して必要のない限り説明を省略する。FIG. 16 is a system configuration diagram of Example 5 according to the embodiment of the present invention. The fifth embodiment is configured as arobot 406 that can communicate with a person by cartilage conduction in the same manner as the third embodiment shown in FIGS. 9 to 12. However, therobot 406 is configured as a customer reception system in the bank. In addition, it enables smooth communication with a specific customer under the noise of a bank where many customers are visiting, and provides a useful system from the viewpoint of privacy protection. Since Example 5 of FIG. 16 has many common parts with Example 3, the same number is attached | subjected to the same part and description is abbreviate | omitted unless it is required.

 図16に示す実施例5が、図9に示す実施例3と異なるのは、ロボット406が片手で顧客の耳に接触しても良好な軟骨伝導を維持できるようにする点、多数の顧客と順次接触する際の衛生問題に対処する点、および顧客へのきめ細かな応対を可能にする点である。図16に図示するように、ロボット406は右手211のみで顧客401の左耳に接触している。具体的には、図9の実施例3と同様にして、中指413が耳珠232に接触し、親指421が頬骨に接触している。(同様にして、左手213のみで顧客401の右耳に接触することも可能である。)そして顧客401が頭を動かしたときにこれに追従して接触を維持するため、その指に加速度センサを備えている。また、顧客401とのきめ細かなコミュニケーションのためのICタグリーダを指に備えている。これらの詳細については後述する。Example 5 shown in FIG. 16 differs from Example 3 shown in FIG. 9 in that therobot 406 can maintain good cartilage conduction even if it touches the customer's ear with one hand. It is a point to deal with the hygiene problem at the time of sequential contact and to enable a fine-tuned response to customers. As shown in FIG. 16, therobot 406 is in contact with the left ear of thecustomer 401 with only theright hand 211. Specifically, themiddle finger 413 is in contact with thetragus 232 and thethumb 421 is in contact with the cheekbone, as in the third embodiment of FIG. (Similarly, it is possible to contact the right ear of thecustomer 401 with only theleft hand 213.) When thecustomer 401 moves his / her head, the contact is followed and the acceleration sensor is applied to the finger. It has. Also, an IC tag reader for fine communication with thecustomer 401 is provided on the finger. Details of these will be described later.

 図17は、図16に示した本発明の実施例5のロボット406のブロック図である。図16と共通する部分には同一の番号を付し、必要のない限り説明を省略する。なお、上記のように、実施例5は、実施例3と共通するとことが多いので、実施例4の場合と同様にして、実施例3と異なる右手211の構成を制御部440との関係で図示している。そして、その他の部分については、実施例3のブロック図である図10およびその説明を流用することとし、図17では図示を省略または簡略化している。さらに、図17に図示した部分についても、図10と共通の部分については、同じ番号を付し、説明を省略する。FIG. 17 is a block diagram of therobot 406 according to the fifth embodiment of the present invention shown in FIG. Portions common to those in FIG. 16 are denoted by the same reference numerals, and description thereof is omitted unless necessary. As described above, since the fifth embodiment is often in common with the third embodiment, the configuration of theright hand 211 different from the third embodiment is related to thecontrol unit 440 in the same manner as the fourth embodiment. It is shown. As for other parts, FIG. 10 which is a block diagram of the third embodiment and the description thereof are used, and the illustration is omitted or simplified in FIG. Further, with respect to the portions illustrated in FIG. 17, portions common to FIG. 10 are denoted by the same reference numerals and description thereof is omitted.

 図17に明らかなように、ロボット406の右手211の中指413には軟骨伝導振動源442a、触覚センサ431aに加え、加速度センサ456が設けられている。加速度センサ456は、接触摩擦により頭の動きに引きずられる中指413の加速度を検出する。そして加速度センサ456の検知する加速度の情報、触覚センサ431aが検知する接触圧の変化の情報、および3Dカメラ238が検知する頭の動きの情報を総合して制御部440は、頭の動きを判定する。そしてこの判定に基づいて右関節機構227を駆動し、頭の動きに右手211の動きを追従させる。これにより、顧客401の頭が動いても中指413と耳珠の接触、および親指421と頬骨の接触が維持される。17, themiddle finger 413 of theright hand 211 of therobot 406 is provided with anacceleration sensor 456 in addition to the cartilageconduction vibration source 442a and thetactile sensor 431a. Theacceleration sensor 456 detects the acceleration of themiddle finger 413 dragged by the movement of the head due to contact friction. Thecontrol unit 440 determines the head movement by combining the acceleration information detected by theacceleration sensor 456, the contact pressure change information detected by thetactile sensor 431a, and the head movement information detected by the3D camera 238. To do. Based on this determination, the right joint mechanism 227 is driven to cause the movement of theright hand 211 to follow the movement of the head. Thereby, even if thecustomer 401's head moves, the contact between themiddle finger 413 and the tragus and the contact between thethumb 421 and the cheekbone are maintained.

 図17に示すように、薬指451にはICタグリーダ457が備えられている。これは、顧客401に配布される装身具(後述)にロボット406の右手211が触れたとき、その装身具に設けられているICタグの情報を読取るためのものである。なお、図16のように、ロボット406が直接顧客401の耳に触れる場合においては、ICタグリーダ457が顧客情報を読み取ることはない。上記装身具とその意義については後述する。As shown in FIG. 17, thering finger 451 is provided with anIC tag reader 457. This is for reading the information of the IC tag provided on the accessory when theright hand 211 of therobot 406 touches the accessory distributed to the customer 401 (described later). As shown in FIG. 16, when therobot 406 directly touches the ear of thecustomer 401, theIC tag reader 457 does not read the customer information. The jewelry and its significance will be described later.

 図18は、図17の実施例5のロボット406における制御部440の機能を示すフローチャートである。フローは、ロボット406の主電源スイッチによる給電開始でスタートする。フローがスタートすると、ステップS242で銀行管理部との近距離通信のためのペアリング状況を確認し、未設定ならペアリング設定を自動で行う。次いで、ステップS246で通常応対機能を開始する処理を行う。この通常応対機能は、銀行においてロボット406が通常の気導音により顧客401と会話して応対する機能である。FIG. 18 is a flowchart showing functions of thecontrol unit 440 in therobot 406 of the fifth embodiment shown in FIG. The flow starts when power supply is started by the main power switch of therobot 406. When the flow starts, the pairing status for short-range communication with the bank management unit is confirmed in step S242, and if it is not set, pairing setting is automatically performed. Next, in step S246, a process for starting the normal reception function is performed. This normal reception function is a function in which therobot 406 interacts with thecustomer 401 by normal air conduction sound in the bank.

 次いで、ステップS248で顧客401との会話を開始すべき状況か否かの判断がなされる。ステップS248で会話開始の判断がなされるとステップS250に進み、まずは、ステレオ外部気導音マイク246および気導音スピーカ223(図10参照)がオンされ、通常の気導音による会話が準備される。次いで、ステップS252において、顧客401が軟骨伝導により会話をすべき登録者(後述)か否かチェックする。ステップS252で軟骨伝導登録者であることが確認できない場合は、ステップS254に進み、周囲の気導音が所定以上であるか否かチェックする。銀行が顧客で混み合っているときなど、周囲の気導音が所定以上となって、ロボット406と特定の顧客401による個人的な会話が困難になる場合の把握がこのステップの目的である。ステップS254において、周囲の気導音が所定以上であると判断されるとステップS256に移行する。ステップS256では、軟骨伝導のためにロボット406が耳に触れることに顧客401が同意しているか否かチェックする。そして同意が確認できるとステップS258に移行する。一方、ステップS252において、顧客401が登録者であると判断された場合は、直ちにステップS258に移行する。Next, in step S248, it is determined whether or not the conversation with thecustomer 401 should be started. If it is determined in step S248 that the conversation starts, the process proceeds to step S250. First, the stereo externalair conduction microphone 246 and the air conduction speaker 223 (see FIG. 10) are turned on, and a normal air conduction sound conversation is prepared. The Next, in step S252, it is checked whether or not thecustomer 401 is a registrant (discussed below) who should have a conversation by cartilage conduction. If it is not confirmed in step S252 that the person is a cartilage conduction registrant, the process proceeds to step S254 to check whether or not the surrounding air conduction sound is equal to or higher than a predetermined level. The purpose of this step is to grasp when the surrounding air conduction sound becomes more than a predetermined level, such as when the bank is crowded with customers, and it becomes difficult for therobot 406 and aspecific customer 401 to have a personal conversation. If it is determined in step S254 that the ambient air conduction sound is equal to or higher than the predetermined level, the process proceeds to step S256. In step S256, it is checked whether or not thecustomer 401 agrees that therobot 406 touches the ear for cartilage conduction. If the consent can be confirmed, the process proceeds to step S258. On the other hand, if it is determined in step S252 that thecustomer 401 is a registrant, the process immediately proceeds to step S258.

 ステップS258では、軟骨伝導のためにロボット406の片手を顧客401の片耳にに接触させるとともにこれを維持するための処理が開始される。その詳細は後述する。ステップS258の片手接触処理が開始されるとステップS260に進み、ロボット406の中指413が見守り顧客401の耳珠に、また、親指421が顧客401の頬骨に、それぞれ接触していることの確認が行われる。そして、この確認ができるとステップS262に進み、ステレオ外部気導音マイク246および気導音スピーカ223(図10参照)をオフするとともに、骨導マイク244aおよび軟骨伝導振動源442aをそれぞれオンしてステップS264に移行する。これによって、気導音による会話が軟骨伝導および骨導マイク244aによる会話に切換えられる。In step S258, a process for bringing one hand of therobot 406 into contact with one ear of thecustomer 401 for cartilage conduction and maintaining it is started. Details thereof will be described later. When the one-hand contact process in step S258 is started, the process proceeds to step S260, where confirmation is made that themiddle finger 413 of therobot 406 is in contact with thewatch 401 of thecustomer 401 and thethumb 421 is in contact with the cheekbone of thecustomer 401. Done. Then, if this confirmation can be made, the process proceeds to step S262 where the stereo external air conductionsound microphone 246 and the air conduction sound speaker 223 (see FIG. 10) are turned off, and thebone conduction microphone 244a and the cartilageconduction vibration source 442a are turned on. The process proceeds to step S264. Thereby, the conversation by the air conduction sound is switched to the conversation by the cartilage conduction and thebone conduction microphone 244a.

 次いでステップS264では、顧客401が軟骨伝導により会話をすべき登録者(後述)か否かチェックし、登録者であることが確認できるとステップS266に進んでICタグ管理処理を行い、ステップS268に移行する。ステップS266におけるICタグ管理処理の内容は後述する。一方、ステップS264で顧客401が登録者であることが確認できないとステップS270に移行し、ロボット406の手が直接顧客401に触れる状態(図16の状態)における一般メニュー処理を行い、ステップS268に移行する。Next, in step S264, it is checked whether or not thecustomer 401 is a registrant (to be described later) who should have a conversation by cartilage conduction. If it is confirmed that the customer is a registrant, the process proceeds to step S266 to perform IC tag management processing. Transition. The contents of the IC tag management process in step S266 will be described later. On the other hand, if it is not confirmed in step S264 that thecustomer 401 is a registrant, the process proceeds to step S270, and general menu processing is performed in a state where the hand of therobot 406 directly touches the customer 401 (state shown in FIG. 16), and the process proceeds to step S268. Transition.

 また、ステップS260において上記の耳珠および頬骨への接触が確認できない場合は、直接ステップS268に移行する。さらに、ステップS254において、周囲の気導音が所定以上であると判断されなかった場合、またはステップS256において軟骨伝導のためにロボット406が耳に触れることへの顧客401の同意が確認できなかった場合も直接ステップS268に移行する。これらの場合、ロボット406の片手を顧客401の耳に接触させる処理は行われず、骨導マイク244aおよび軟骨伝導振動源442aのオンも行われないので、ステレオ外部気導音マイク246および気導音スピーカ223による会話が続行されることになる。Further, if the contact with the tragus and cheekbones cannot be confirmed in step S260, the process directly proceeds to step S268. Further, in step S254, if the surrounding air conduction sound is not determined to be greater than or equal to the predetermined value, or in step S256, thecustomer 401's consent for therobot 406 to touch the ear for cartilage conduction could not be confirmed. Also in this case, the process directly proceeds to step S268. In these cases, the process of bringing one hand of therobot 406 into contact with the ear of thecustomer 401 is not performed, and thebone conduction microphone 244a and the cartilageconduction vibration source 442a are not turned on, so the stereo external air conductionsound microphone 246 and the air conduction sound The conversation with thespeaker 223 is continued.

 ステップS268はロボット406による顧客401に対する会話応対が終了したか否かの判断が行われる。この判断は、実施例3と同様にして、お互いの無言状態が所定時間以上続いたか否かのチェック、および会話内容の分析と会話終了に特有のキーワードの有無等により総合的に行われる。ステップS268で会話応対終了との判断がなされない場合は、ステップS252に戻り、以下会話応対終了との判断がなされるまでステップS252からステップS268が繰り返される。この繰り返しによって、まだ軟骨伝導が実行されていない状態においてステップS254で周囲の音量が所定以上となった場合等において、軟骨伝導への移行が可能となる。In step S268, it is determined whether or not the conversation with thecustomer 401 by therobot 406 has been completed. Similar to the third embodiment, this determination is comprehensively performed by checking whether or not each other's silent state has continued for a predetermined time or more, analyzing the contents of the conversation, and the presence or absence of a keyword unique to the end of the conversation. If it is not determined in step S268 that the conversation reception has ended, the process returns to step S252, and steps S252 to S268 are repeated until it is determined that the conversation reception has ended. By repeating this process, when the surrounding sound volume becomes equal to or higher than the predetermined level in step S254 in a state where the cartilage conduction has not yet been executed, the transition to the cartilage conduction becomes possible.

 一方、ステップS268で会話応対終了との判断がなされるとステップS272に移行し、軟骨伝導状態であるか否かチェックする。そして、軟骨伝導状態であればステップS274に移行し、ロボット406の片手を退避させ、ステップS276に移行する。このとき、後述のように顧客401が自らの手でロボット406の手を耳に当てている場合、顧客401の手を跳ね除けないよう、顧客401の手の負荷をモニタしながら顧客401が自然に手を離すまで穏やかな退避行動を実行する。一方、ステップS272で軟骨伝導状態でないことが確認されると直接ステップS276に移行する。On the other hand, when it is determined in step S268 that the conversation response has been completed, the process proceeds to step S272, where it is checked whether the cartilage conduction state is present. If it is in the cartilage conduction state, the process proceeds to step S274, the one hand of therobot 406 is retracted, and the process proceeds to step S276. At this time, as described later, when thecustomer 401 is holding the hand of therobot 406 with his / her hand as described later, thecustomer 401 naturally moves while monitoring the load of thecustomer 401's hand so that the customer's 401 hand cannot be repelled. Perform gentle evacuation until you release your hand. On the other hand, if it is confirmed in step S272 that the cartilage conduction state is not established, the process directly proceeds to step S276.

 ステップS276では、ロボット406の主電源スイッチのオフまたは電源部248(図10参照)の充電池の消耗によりロボット406への給電が停止したか否かのチェックが行われる。給電停止が確認されない場合はステップS248に戻る。以下、ステップS276で給電停止が確認されるまで、ステップS248からステップS276を繰り返し、ロボット406の種々の状況変化に対応する。一方、ステップS276で給電停止が確認されるとステップS278に至り、所定の終了処理を行ってフローを終了する。なお、この終了処理には、フェイルセーフとして、万一ロボット406の片手が顧客406の顔の方向に伸びたままである場合、これを退避させる機能が含まれる。その退避にあたっては、ステップS274で説明したのと同様に顧客406の手を跳ね除けない等の安全措置が講じられる。In step S276, it is checked whether or not the power supply to therobot 406 is stopped by turning off the main power switch of therobot 406 or exhausting the rechargeable battery of the power supply unit 248 (see FIG. 10). If power supply stoppage is not confirmed, the process returns to step S248. Hereinafter, step S248 to step S276 are repeated until it is confirmed in step S276 that the power supply is stopped, and various changes in the situation of therobot 406 are dealt with. On the other hand, when power supply stoppage is confirmed in step S276, the process reaches step S278, where a predetermined end process is performed and the flow is ended. Note that this termination processing includes a function of evacuating therobot 406 in the event that one hand of therobot 406 is still extending in the direction of the face of thecustomer 406 as fail-safe. In the evacuation, safety measures are taken such that thecustomer 406 cannot be repelled as described in step S274.

 図19は、図18のステップS258における片手接触・維持処理の詳細を示すフローチャートである。フローがスタートすると、ステップS282において、ロボット406の手が顧客401に接触済みか否かチェックする。接触済みであることが検知されない場合、ステップS284に進み、手のヒータ225aによる人肌への急速加温を開始してステップS286に移行する。ステップS286では、接触案内コミュニケーション処理を行う。案内は、主に気導音によって行われるが、ロボット406の胸に表示部を設けて視覚的に行ってもよい。またその内容は、基本的には軟骨伝導によるコミュニケーションそのものの説明であるが、顧客401自身の手でロボット406の手を取って耳に導く方法や、ロボット406が自動的に顧客401の顔に手を伸ばして接触を試みる方法などの具体的な接触方法を紹介するとともに、その選択を求めるコミュニケーションを含む。このようなコミュニケーションを経てステップS288に進む。FIG. 19 is a flowchart showing details of the one-hand contact / maintenance process in step S258 of FIG. When the flow starts, it is checked in step S282 whether or not the hand of therobot 406 has contacted thecustomer 401. If it is not detected that the contact has been made, the process proceeds to step S284, where rapid heating of the human skin by thehand heater 225a is started, and the process proceeds to step S286. In step S286, contact guidance communication processing is performed. The guidance is mainly performed by air conduction sound, but may be visually performed by providing a display unit on the chest of therobot 406. The content is basically an explanation of the communication itself by cartilage conduction, but the method of taking the hand of therobot 406 with thecustomer 401's own hand and guiding it to the ear, or therobot 406 automatically puts on the face of thecustomer 401. It introduces specific contact methods such as reaching out and trying to contact, and includes communication that asks for a choice. After such communication, the process proceeds to step S288.

 ステップS288では、顧客401が自身の手でロボット406の手を取って耳に導く方法を選んだか否かを判断する。この判断は、顧客401の選択応答だけでなく、顧客401がいきなりロボット406の手をとって自分の耳に導く動作を始めてしまったことの検知による場合も含む。ステップS288で顧客401が手取り接触を選択していないと判断された場合はステップS290に進み、ロボット406の片手を顧客401の顔に伸ばす方向とロボット406の視線の方向を一致させる視線同調を開始しステップS292に進む。In step S288, it is determined whether or not thecustomer 401 has selected a method of taking the hand of therobot 406 with his / her hand and guiding it to the ear. This determination includes not only the selection response of thecustomer 401 but also a case of detecting that thecustomer 401 has suddenly started to take the hand of therobot 406 and lead it to his / her ear. If it is determined in step S288 that thecustomer 401 has not selected the touch contact, the process proceeds to step S290, and the line-of-sight synchronization is started to match the direction of extending the one hand of therobot 406 to the face of thecustomer 401 and the line of sight of therobot 406. Then, the process proceeds to step S292.

 ステップS292では、自動的に片手を伸ばして指を顧客401の耳に接触させるため、3Dカメラ238の情報に基づいて右関節機構227a(または左関節機構227bでも可)を駆動する片手調節処理を実行し、ステップS294に進む。ステップS294では、片手が顔に接触することによる負荷が右関節機構227aの負荷検知センサにより検知されたか否かチェックする。そして検知がなければステップS292に戻り、片手が顔に接触するまでステップS292およびステップS294を繰り返す。そしてステップS294で負荷が検知されると加圧リミッタをオンしてロボット406の手が顧客401の顔を片側から押す圧力が過度にならないよう制限を開始し、ステップS296に進む。上記の加圧リミッタは、ロボット406が顧客401を横向きに押し倒してしまうような事故を防ぐ。In step S292, one-hand adjustment processing for driving the rightjoint mechanism 227a (or the leftjoint mechanism 227b) based on information from the3D camera 238 is performed in order to automatically extend one hand and bring the finger into contact with thecustomer 401's ear. Execute, and proceed to step S294. In step S294, it is checked whether or not a load due to the contact of one hand with the face is detected by the load detection sensor of the rightjoint mechanism 227a. If there is no detection, the process returns to step S292, and steps S292 and S294 are repeated until one hand contacts the face. When a load is detected in step S294, the pressure limiter is turned on to start restriction so that the pressure with which the hand of therobot 406 pushes the face of thecustomer 401 from one side does not become excessive, and the process proceeds to step S296. The above pressure limiter prevents an accident in which therobot 406 pushes thecustomer 401 sideways.

 一方、ステップS288で顧客401が自身の手でロボット406の手を取って耳に導く方法が選ばれたと判断すると、ステップS298の関節脱力処理に移行し、顧客401の手の動きに抵抗せず、ロボット406の手を導かれるままとする。なお、この脱力処理は、ロボット406の手の自重の負荷を顧客401の手にかけないようにするため、ロボット406の腕の上下方向を無重量状態でバランスさせるとともに上下左右には抵抗なく動くようロボット406の胴体219(図10参照)に支持する。ステップS298において、顧客401自身の手でロボット406の片手が顔に接触したことが確認されるとステップS296に移行する。On the other hand, if it is determined in step S288 that thecustomer 401 has selected the method of taking the hand of therobot 406 with his / her hand and guiding it to the ear, the process proceeds to the joint weakening process in step S298 and does not resist the movement of thecustomer 401's hand. The hand of therobot 406 is left guided. This weakening process balances the vertical direction of the arm of therobot 406 in a weightless state and moves it up, down, left and right without resistance so that the load of the weight of the hand of therobot 406 is not applied to the hand of thecustomer 401. Therobot 406 is supported on the body 219 (see FIG. 10). If it is confirmed in step S298 that one hand of therobot 406 has touched the face with thecustomer 401's own hand, the process proceeds to step S296.

 ステップS296では、骨導マイク244aおよび軟骨伝導振動源442aをオンしてステップS300に進む。この状態では、気導音スピーカ223(図10参照)ならびに骨導マイク244aもオン状態で併用される。ステップS300では、気導音スピーカ223のみからの発話の場合と同様にして、口機構209(図10参照)が軟骨伝導振動源442aの振動による音声と連動して動くよう同調を継続させる。ステップS300による同調は、図18のステップS262において気導音スピーカ223がオフになっても継続される。In step S296, thebone conduction microphone 244a and the cartilageconduction vibration source 442a are turned on, and the process proceeds to step S300. In this state, the air conduction sound speaker 223 (see FIG. 10) and thebone conduction microphone 244a are also used in the on state. In step S300, as in the case of the utterance from only the air conductionsound speaker 223, the synchronization is continued so that the mouth mechanism 209 (see FIG. 10) moves in conjunction with the sound generated by the vibration of the cartilageconduction vibration source 442a. The tuning in step S300 is continued even if the air conductionsound speaker 223 is turned off in step S262 in FIG.

 次いでステップS302による指調節処理が開始される。これは、中指413の曲がり具合を微修正しながら指先が顧客401の耳珠に接触するようにするとともに、親指421の曲がり具合を微修正し、顧客401の頬骨に接触するようにする処理が開始される。次いで、ステップS304では、上記の結果として中指413が耳珠に接触し、親指421が頬骨に接触したか否かがチェックされ、接触が確認できるとステップS306に進んで正常な接触状態を接触センサ431aの圧力および3Dカメラ238(図10参照)の画像として登録する。その上で、ステップS308に進み、加速度センサ456および接触センサ431aの出力変化のモニタを開始する。また、ステップS310で3Dカメラ238による顔認識位置の変化のモニタを開始する。Next, finger adjustment processing in step S302 is started. This is a process in which the fingertip comes into contact with the tragus of thecustomer 401 while finely correcting the bending state of themiddle finger 413 and the bending state of thethumb 421 is finely corrected so as to contact the cheekbone of thecustomer 401. Be started. Next, in step S304, it is checked whether or not themiddle finger 413 has come into contact with the tragus as a result of the above, and thethumb 421 has come into contact with the cheekbone. It registers as a pressure of 431a and an image of the 3D camera 238 (see FIG. 10). Then, the process proceeds to step S308, and monitoring of output changes of theacceleration sensor 456 and thecontact sensor 431a is started. In step S310, monitoring of the change of the face recognition position by the3D camera 238 is started.

 そして、ステップS312で、加速度センサ456、接触センサ431aの出力変化および3Dカメラ238による顔認識位置の変化があったか否かチェックする。そして何らかの変化があればステップS314に移行し、検知された頭の動きにロボット406の手を追従させる追従処理を行ってフローを終了する。これらの処理は、既に説明したように、接触摩擦により頭の動きに引きずられて動く中指413の加速度を加速度センサ456で検出するとともに、触覚センサ431aが検知する接触圧の変化(頭がロボット406の手から離れる方向に動くと減圧、頭がロボット406の手を押す方向に動くと昇圧)を検出し、さらに3Dカメラ238が検知する頭の動きの情報も加味して総合的に制御部440により頭の動きを判定し、その動きを補償する方向にロボット406の手を追従させることで、顧客401の頭が動いても、中指413と耳珠の接触、および親指421と頬骨の接触を維持する処理である。なお、ステップS312で、加速度センサ456、接触センサ431aの出力変化および3Dカメラ238による顔認識位置の変化がいずれも検出されない場合は、頭は静止していると考えられるので直ちにフローを終了する。In step S312, it is checked whether there is a change in output of theacceleration sensor 456 and thecontact sensor 431a and a change in the face recognition position by the3D camera 238. If there is any change, the process proceeds to step S314, and a follow-up process is performed in which the hand of therobot 406 follows the detected head movement, and the flow ends. As described above, these processes are performed by detecting the acceleration of themiddle finger 413 moved by the movement of the head by contact friction with theacceleration sensor 456 and changing the contact pressure detected by thetactile sensor 431a (the head is the robot 406). Thecontrol unit 440 comprehensively takes into account information on the movement of the head detected by the3D camera 238, in addition to detecting pressure reduction when the head moves away from the hand, and pressure increase when the head moves in the direction of pressing the hand of therobot 406. The movement of the head is determined by following the direction of therobot 406 in the direction to compensate for the movement, so that the contact of themiddle finger 413 and the tragus and the contact of thethumb 421 and the cheekbone can be performed even when the head of thecustomer 401 moves. It is a process to maintain. If none of the output changes of theacceleration sensor 456 and thecontact sensor 431a and the change of the face recognition position by the3D camera 238 are detected in step S312, the head is considered to be stationary and the flow is immediately terminated.

 一方、ステップS304で中指413と耳珠の接触および親指421と頬骨の接触が確認されない場合、ステップS316に移行し、ステップS302が開始されてから所定時間が経過したか否かチェックする。そして、所定時間が経過していなければステップS302に戻り、ステップS304で接触が検知されるかステップS316で所定時間の経過が検知されるまでステップS302、ステップS304およびステップS316のループを繰り返す。そして、ステップS316で所定時間の経過が検知された場合は直ちにフローを終了する。以上のいずれかにより図19のフローが終了すると図18のステップS260に移行する。On the other hand, when the contact between themiddle finger 413 and the tragus and the contact between thethumb 421 and the cheekbone are not confirmed in step S304, the process proceeds to step S316, and it is checked whether or not a predetermined time has elapsed since the start of step S302. If the predetermined time has not elapsed, the process returns to step S302, and the loop of step S302, step S304 and step S316 is repeated until contact is detected in step S304 or until the elapse of the predetermined time is detected in step S316. If the passage of a predetermined time is detected in step S316, the flow is immediately terminated. When the flow in FIG. 19 is terminated by any of the above, the process proceeds to step S260 in FIG.

 図20は、図16から図19で説明した実施例5においてロボット406の中指413が装身具を介して顧客401の耳珠232に接触している様子を示す側面図である。全体システムは図16と共通であるが接触部分以外の図示は省略している。図20(A)は、装身具の一例としてイヤーウォーマ461が両耳に装着されている。そして耳珠232はイヤーウォーマ461の下に隠れ、ロボット406の中指413はイヤーウォーマ461を介して間接的に顧客401の耳珠232に接触している。FIG. 20 is a side view showing a state in which themiddle finger 413 of therobot 406 is in contact with thetragus 232 of thecustomer 401 via the accessory in the fifth embodiment described with reference to FIGS. 16 to 19. Although the entire system is the same as that in FIG. 16, illustrations other than the contact portion are omitted. In FIG. 20A,ear warmers 461 are attached to both ears as an example of an accessory. Thetragus 232 is hidden under the ear warmer 461, and themiddle finger 413 of therobot 406 is indirectly in contact with thetragus 232 of thecustomer 401 via the ear warmer 461.

 一方、図20(B)は、装身具の一例としてヘヤバンド462が頭に装着されている。そして耳珠232はヘヤバンド462の下に隠れ、ロボット406の中指413はヘヤバンド462を介して間接的に顧客401の耳珠232に接触している。また、図20(C)は、装身具の一例としてイヤーカフ463が耳珠に装着されている。そして、ロボットの中指413はイヤーカフ463の上から間接的に顧客401の耳珠に接触している。さらに、図20(D)は、装身具の一例として子供用キャラクターグッズ464が耳に装着されている。そして耳珠は子供用キャラクターグッズ464の下に隠れ、ロボット406の中指413は子供用キャラクターグッズ464を介して間接的に顧客401の耳珠に接触している。これらの装身具は、銀行を訪れた顧客401が自身の個人情報および相談要件を登録するのと引き換えにプレゼントとして顧客401に配布される。そして装身具にはICタグが設けられていて、顧客IDが銀行管理部によって書き込まれている。ロボット406の手(例えば薬指451)には図17に示すようにICタグリーダ457が設けられており、図20のようにロボット406の手が装身具に近接するとその顧客401のIDを読み取ることができる。On the other hand, in FIG. 20B, ahair band 462 is attached to the head as an example of the accessory. Thetragus 232 is hidden under thehair band 462, and themiddle finger 413 of therobot 406 is indirectly in contact with thetragus 232 of thecustomer 401 via thehair band 462. In FIG. 20C, anear cuff 463 is attached to the tragus as an example of an accessory. Themiddle finger 413 of the robot is in contact with the tragus of thecustomer 401 indirectly from the top of theear cuff 463. Further, in FIG. 20D, achild character goods 464 is attached to the ear as an example of the accessory. The tragus is hidden under the children'scharacter goods 464, and themiddle finger 413 of therobot 406 is indirectly in contact with the tragus of thecustomer 401 via the children'scharacter goods 464. These accessories are distributed to thecustomers 401 as gifts in exchange for thecustomers 401 visiting the bank registering their personal information and consultation requirements. The jewelry is provided with an IC tag, and the customer ID is written by the bank management unit. As shown in FIG. 17, anIC tag reader 457 is provided in the hand of the robot 406 (for example, the ring finger 451). When the hand of therobot 406 comes close to the accessory as shown in FIG. 20, the ID of thecustomer 401 can be read. .

 図20に示す装身具は、衛生面の対策としても意義がある。銀行には不特定多数の顧客が訪れ、ロボット406の手は多数の顧客の耳に触れることになるが、その際、衛生面の観点から、誰を触ったかわからないロボット406の手で触れられるのを嫌う顧客も存在する。図20に示す装身具は、耳を覆うことによってロボット406の手が直接顧客の肌に触れるのを防止し、このような顧客の要望に応えることができる。そして、装身具を装着することは、ICタグによって顧客401を特定することができる利点があり、予め登録した相談要件に応じて、顧客毎に適切かつきめ細かな応対が可能となる。従って、顧客は装身具のプレゼントをもらえると共に衛生面の利点、およびより適切な応対を受ける利点を享受できるので、ロボット406との接触を求めて銀行を訪れるインセンティブがさらに高まる。The jewelry shown in FIG. 20 is significant as a hygiene measure. An unspecified number of customers visit the bank, and the hands of therobot 406 touch the ears of many customers. At this time, from the viewpoint of hygiene, the hands of therobot 406 who do not know who touched it can be touched. Some customers dislike it. The jewelry shown in FIG. 20 prevents the hand of therobot 406 from directly touching the customer's skin by covering the ear, and can meet such a customer's request. Wearing the accessory has the advantage that thecustomer 401 can be specified by the IC tag, and appropriate and fine-tuned response can be made for each customer according to the consultation requirements registered in advance. Therefore, since the customer can receive the gift of jewelry and enjoy the benefits of hygiene and receiving a more appropriate response, the incentive to visit the bank for contact with therobot 406 is further increased.

 図21は実施例5における銀行全体のシステムブロック図であり、ICタグの機能に関する部分を抽出して図示している。図17および図20と同じ部分には同じ番号を付して必要のない限り説明を省略する。FIG. 21 is a system block diagram of the entire bank in the fifth embodiment, in which a portion related to the function of the IC tag is extracted and illustrated. The same parts as those in FIGS. 17 and 20 are denoted by the same reference numerals, and description thereof is omitted unless necessary.

 図21において、銀行管理部472は、顧客がロボット406と接触する前に、顧客に応対する。そして受付データ入力部476(受付操作者が入力するキーボードまたは銀行カードリーダ)により、顧客を特定すると共に、その顧客が相談したい要件情報を入力する。銀行制御部478は、上記のようにして入力された情報を顧客データベース480に格納するとともに、ICタグリーダ482によって顧客IDを装身具461(イヤーウォーマ461で代表して図示)のICタグ470に書き込み、受け付けた顧客に装身具461をプレゼントとして配布する。21, thebank management unit 472 responds to the customer before the customer contacts therobot 406. Then, the customer is specified by the reception data input unit 476 (keyboard or bank card reader input by the reception operator), and the requirement information that the customer wants to consult is input. Thebank control unit 478 stores the information input as described above in thecustomer database 480 and writes the customer ID into theIC tag 470 of the accessory 461 (represented by the ear warmer 461) by theIC tag reader 482, Theaccessories 461 are distributed as gifts to the received customers.

 次に、図20のように、配布された装身具461を装着した顧客401がロボット406に接触すると、薬指451に設けられたICタグリーダ457は、装身具461に設けられたICタグ470に書込まれた顧客IDを読み取り、近距離通信部213aから銀行管理部472の近距離通信部474に対して現在接触している顧客401の特定情報を送信する。これにより、銀行管理部472は顧客データベース480に格納されていた該当する顧客401の要件情報を読み出し、近距離通信部474からロボット406の近距離通信部213aに返信する。これによってロボット406は予め登録された相談要件に沿って特定の顧客401とコミュニケーションすることが可能となる。コミュニケーションは、ロボット406の中指413に設けられた軟骨伝導振動源442aの振動が、装身具461を介して間接的に耳珠232に伝達されることにより、また骨導マイク244aが顧客401の発言をピックアップすることにより行われる。Next, as shown in FIG. 20, when thecustomer 401 wearing the distributedaccessory 461 contacts therobot 406, theIC tag reader 457 provided on thering finger 451 is written to theIC tag 470 provided on theaccessory 461. The customer ID is read, and the specific information of thecustomer 401 currently in contact is transmitted from the short-range communication unit 213a to the short-range communication unit 474 of thebank management unit 472. As a result, thebank management unit 472 reads the requirement information of thecorresponding customer 401 stored in thecustomer database 480 and sends it back from the short-range communication unit 474 to the short-range communication unit 213a of therobot 406. As a result, therobot 406 can communicate with aspecific customer 401 in accordance with consultation requirements registered in advance. As for the communication, the vibration of the cartilageconduction vibration source 442a provided on themiddle finger 413 of therobot 406 is indirectly transmitted to thetragus 232 via theaccessory 461, and the bone-conduction microphone 244a transmits the remarks of thecustomer 401. This is done by picking up.

 図22は、図21の銀行制御部478の機能を示すフローチャートである。フローは、銀行の当日開業とともにスタートし、ステップ320で顧客登録に関連する応対が要求されているか否かチェックする。要求があればステップS322に移行し、要求が顧客の新規登録であるか否かチェックする。新規登録であれば、ステップS324において顧客との間でプライバシー保護に関する相互了解処理を行いステップS326に移行する。ステップS326では顧客IDを付与する。FIG. 22 is a flowchart showing functions of thebank control unit 478 of FIG. The flow starts with the opening of the bank on the day, and in step 320 it is checked whether a response related to customer registration is required. If there is a request, the process proceeds to step S322, and it is checked whether or not the request is a new registration of the customer. If it is new registration, mutual consent processing regarding privacy protection is performed with the customer in step S324, and the process proceeds to step S326. In step S326, a customer ID is assigned.

 次いでステップS328で顧客情報の入力が完了したか否かチェックし、完了であればステップS330で顧客の用件情報の入力が完了したか否かチェックする。そしてこれも完了すればステップS332に移行し、付与したID別に顧客情報および用件情報を顧客データベース480に格納してステップS334に移行する。ステップS334では登録した顧客に配布する装身具のICタグへのID書き込みが完了したか否かチェックし、完了が確認するとステップS336に移行する。また、このとき顧客への装身具の配布が行われる。一方、ステップS322で新規登録が要求されていなければ、登録が完了して装身具も配布された状態であると判断され、直接ステップS336に移行する。Next, in step S328, it is checked whether or not the input of customer information is completed. If it is completed, it is checked in step S330 whether or not the input of customer information is completed. And if this is also completed, it will transfer to step S332, will store customer information and business information for every assigned ID in thecustomer database 480, and will transfer to step S334. In step S334, it is checked whether or not the ID writing to the IC tag of the accessory distributed to the registered customer is completed, and if the completion is confirmed, the process proceeds to step S336. At this time, accessories are distributed to customers. On the other hand, if new registration is not requested in step S322, it is determined that registration has been completed and the accessory has been distributed, and the process directly proceeds to step S336.

 ステップS336では、ロボット406が、接触している顧客401の顧客IDをICタグリーダ457により読取って送信してきたか否かチェックする。そして、送信があればステップS338に進み、受信した顧客IDに対応する顧客情報を顧客データベース480から読み出す。さらに、ステップS340に進み、受信した顧客IDに対応する用件情報を顧客データベース480から読み出す。そして、ステップS342でこれら読出しデータをロボット406に送信する。In step S336, it is checked whether or not therobot 406 has read and transmitted the customer ID of thecustomer 401 in contact with theIC tag reader 457. If there is a transmission, the process proceeds to step S338, and the customer information corresponding to the received customer ID is read from thecustomer database 480. In step S340, the business information corresponding to the received customer ID is read from thecustomer database 480. In step S342, the read data is transmitted to therobot 406.

 次いで、ステップS344で、ロボット406から軟骨伝導に基づく会話記録を受信したか否かチェックする。そして受信した会話記録があればステップS346に進み、顧客ID別に会話情報としてこれを分析するとともに整理して顧客データベース480に書き込みステップS348に移行する。ステップS344で受信が確認されなければ直接ステップS348に移行する。ステップS348ではロボット406による顧客401への応対が終了したか否かチェックし、終了でなければステップS344に戻って、応対の終了までステップS344からステップS348を繰り返す。そしてステップS348で応対終了が検知されるとフローを終了する。Next, in step S344, it is checked whether or not a conversation record based on cartilage conduction is received from therobot 406. If there is a received conversation record, the process proceeds to step S346, where it is analyzed as conversation information for each customer ID, organized and written into thecustomer database 480, and the process proceeds to step S348. If reception is not confirmed in step S344, the process proceeds directly to step S348. In step S348, it is checked whether or not the response to thecustomer 401 by therobot 406 has been completed. If not, the process returns to step S344, and steps S344 to S348 are repeated until the reception is completed. When the end of the response is detected in step S348, the flow ends.

 一方、ステップS336で、ロボット406が顧客IDを読取って送信してきたことが確認できないと直ちにフローを終了する。また、ステップ320において顧客登録に関連する応対の要求が確認されない場合はステップS350に進み、ICタグ470による処理を伴わない一般応対処理を行ってフローを終了する。On the other hand, if it is not confirmed in step S336 that therobot 406 has read and transmitted the customer ID, the flow is immediately terminated. If a request for reception related to customer registration is not confirmed in step 320, the process proceeds to stepS 350, a general reception process not involving the process by theIC tag 470 is performed, and the flow is terminated.

 図23は、本発明の実施の形態に係る実施例6に関する斜視図であり、実施例5と同様の銀行における応対システムとして構成される。但し、実施例5が人型ロボットを利用したシステムであるのに対し、実施例6は顧客が対面するディスプレイと、このディスプレイの側面に備えられ、顧客が自分の手で自分の耳に導ける伸縮自在の軟骨伝導送受話部とを有するシステムとして構成される。FIG. 23 is a perspective view regarding Example 6 according to the embodiment of the present invention, and is configured as a reception system in a bank similar to Example 5. However, while Example 5 is a system using a humanoid robot, Example 6 is equipped with a display facing the customer and the side of the display, and the expansion / contraction that the customer can guide to his / her ear with his / her hand. It is configured as a system having a free cartilage conduction transmitter / receiver.

 以下、図23に基づいて詳細に説明する。図23(A)は、設置型応対装置701の正面図であり、設置型応対装置701はタッチパネルを兼ねた大画面表示部705を備える。設置型応対装置701には、その右辺において、自在継手703で接続された伸縮自在の軟骨伝導送受話部781が備えられている。軟骨伝導送受話部781は、上端が軟骨伝導部724になっているとともに、中間部分にマイク723が設けられている。軟骨伝導送受話部781は、後述のように軟骨伝導部724を上方に引出し可能な伸縮自在構造になっている。なお、図23(A)は、基本的には軟骨伝導送受話部781を使用しないで設置型応対装置701の右辺に収納した状態を示している。Hereinafter, this will be described in detail with reference to FIG. FIG. 23A is a front view of the installationtype response apparatus 701, and the installationtype reception apparatus 701 includes a largescreen display unit 705 that also serves as a touch panel. The installationtype response device 701 is provided with a telescopic cartilage transmission /reception unit 781 connected by auniversal joint 703 on the right side thereof. The cartilage conduction transmitter /receiver 781 has acartilage conduction portion 724 at the upper end and amicrophone 723 at the middle portion. The cartilage conduction transmitter /receiver 781 has a telescopic structure that allows thecartilage conduction part 724 to be drawn upward as will be described later. FIG. 23 (A) shows a state in which the cartilage transmission /reception unit 781 is basically stored in the right side of the installationtype response device 701 without using it.

 一方、図23(B)は、設置型応対装置701の軟骨伝導送受話部781を利用する場合の状態を示す。図23(B)に明らかなように、顧客自身の手により、矢印781aの方向にスライド部781cをスライドさせて軟骨伝導部724を上方に引出すとともに、矢印781bの方向に軟骨伝導部724を前方に倒すことが可能となっている。なお、上記のように軟骨伝導送受話部781は自在継手703によって設置型応対装置701に接続されているので、倒す方向は前方に限らず任意の方向に倒すことができる。On the other hand, FIG. 23 (B) shows a state in which the cartilage conduction transmitter /receiver 781 of thestationary response device 701 is used. As apparent from FIG. 23 (B), the customer's own hand slides theslide part 781c in the direction of thearrow 781a to pull thecartilage conduction part 724 upward, and moves thecartilage conduction part 724 forward in the direction of thearrow 781b. It is possible to defeat. As described above, since the cartilage conduction transmitter /receiver 781 is connected to the installationtype response device 701 by theuniversal joint 703, the direction of the tilt is not limited to the front, but can be tilted in any direction.

 上記の構成により、大画面表示部705に表示される銀行情報を見る姿勢のまま、引き出した軟骨伝導部724を顧客自身の手で耳軟骨に当て、銀行の騒音下でも音声による銀行情報を聞くことができる。一方、自分の声は、このような状態において口の近くに来るマイク723によって拾うことができる。また、軟骨伝導部724は自重により倒れたり顧客に加重をかけたりしないようバランスしているとともに、顧客の手の動きに抗さないよう脱力状態で支持される。この点は、実施例5と共通である。With the above configuration, while looking at the bank information displayed on the largescreen display unit 705, the pulledcartilage conduction unit 724 is applied to the ear cartilage with the customer's own hand, and the bank information is heard by voice even under bank noise. be able to. On the other hand, one's own voice can be picked up by themicrophone 723 that comes near the mouth in such a state. In addition, thecartilage conduction portion 724 is balanced so as not to fall down due to its own weight or apply a load to the customer, and is supported in a weak state so as not to resist the movement of the customer's hand. This point is common to the fifth embodiment.

 また、図23(B)に示すように、大画面表示部705に軟骨伝導部724を引出す方法を表示し、初めての顧客が正しく軟骨伝導による銀行とのコミュニケーションをとることができるようにする。Also, as shown in FIG. 23B, a method of pulling out thecartilage conduction unit 724 is displayed on the largescreen display unit 705 so that the first customer can correctly communicate with the bank by cartilage conduction.

 以上の各実施例に示した種々の特徴の実施は、個々の実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、各実施例に示した種々の特徴は、種々変形して実施することが可能である。これらの変形は適宜組合せて実施することが可能であるとともに、一部変形前の状態と組み合わせて実施することも可能である。例えば、実施例5に関連して図20から図22に示した装身具を用いる構成は、図23に示した実施例6でも応用可能である。The implementation of the various features shown in the above embodiments is not limited to individual embodiments, and other embodiments can be implemented as long as the advantages can be enjoyed. The various features shown in each embodiment can be implemented with various modifications. These modifications can be carried out in combination as appropriate, and can also be carried out in combination with a state before partial deformation. For example, the configuration using the accessory shown in FIGS. 20 to 22 in relation to the fifth embodiment can be applied to the sixth embodiment shown in FIG.

 なお、実施例5において顧客IDを保持する手段としてICタグを示しているが、このような情報保持手段として採用可能なものはICタグに限らず、バーコードまたは二次元バーコードでもよい。また、情報保持手段に、顧客IDを直接保持させる構成に限らず、装身具を区別可能な装身具IDを保持させ、どの装身具をどの顧客に配布したかを関連付ける情報を顧客データベースに保持しておけば、装身具IDを読取ることにより、間接的に装着者を特定することができる。In addition, although the IC tag is shown as means for holding the customer ID in the fifth embodiment, what can be adopted as such information holding means is not limited to the IC tag but may be a barcode or a two-dimensional barcode. Moreover, the information holding means is not limited to the configuration in which the customer ID is directly held, but the accessory ID that can distinguish the accessory is held, and the information that associates which accessory is distributed to which customer is held in the customer database. The wearer can be indirectly specified by reading the accessory ID.

 また、実施例5の図19において説明した片手接触・維持処理は、図20に示すように装身具を介して間接的に耳珠等に振動を伝達する場合においても有効であることはいうまでもない。Further, it goes without saying that the one-hand contact / maintenance process described in FIG. 19 of the fifth embodiment is also effective in the case of transmitting vibrations indirectly to the tragus etc. via the accessory as shown in FIG. Absent.

<総括>
 以下では、本明細書中に開示されている種々の実施例の特徴について総括的に述べる。
<Summary>
In the following, the features of the various embodiments disclosed herein will be described generally.

 本明細書中に開示されている実施例の特徴は、軟骨伝導振動源と見守り検知センサとを持ち外耳道入口を開放した状態で耳に装着される見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知センサからの見守り情報を受信する見守り通報装置とを有することを特徴とする見守りシステムを提供する。これにより快適な見守り検知装置の装着が可能となる。A feature of the embodiment disclosed in the present specification is that between the watch detection device and the watch detection device that is mounted on the ear with the cartilage conduction vibration source and the watch detection sensor open and the ear canal entrance is opened. There is provided a watch system characterized by having a watch notification device that receives watch information from the watch detection sensor by short-range communication. This makes it possible to mount a comfortable watching detection device.

 具体的な特徴によれば、前記見守り検知装置は外部気導音マイクを有し、前記外部気導音マイクで拾った音声信号により前記軟骨伝導振動源を振動させることにより補聴器として機能する。これにより、日常的に使用される補聴器を利用して見守りを行なうことができる。他の具体的な特徴によれば、前記見守り検知装置は、近距離通信により前記見守り通報装置から受信した音声信号により前記軟骨伝導振動源を振動させる。これにより、携帯電話等、他の装置からの音声信号を聞く装置を利用して見守りを行なうことができる。According to a specific feature, the watching detection device has an external air conduction sound microphone, and functions as a hearing aid by vibrating the cartilage conduction vibration source by an audio signal picked up by the external air conduction sound microphone. Thereby, it can watch over using the hearing aid used on a daily basis. According to another specific feature, the watch detection device vibrates the cartilage conduction vibration source by an audio signal received from the watch notification device by short-range communication. Thereby, watching can be performed using a device that listens to an audio signal from another device such as a mobile phone.

 他の具体的な特徴によれば、前記見守り検知センサは、咀嚼運動センサである。他の具体的な特徴によれば、前記見守り検知センサは、音声センサである。例えば、前記音声センサは骨導マイクまたは気導音マイクである。According to another specific feature, the watching detection sensor is a mastication movement sensor. According to another specific feature, the watch detection sensor is an audio sensor. For example, the voice sensor is a bone conduction microphone or an air conduction microphone.

 他の具体的な特徴によれば、前記見守り通報装置は、見守り検知センサから所定時間検知信号が受信できないとき外部への通報を行なう。According to another specific feature, the monitoring notification device notifies the outside when the detection signal cannot be received from the monitoring detection sensor for a predetermined time.

 本明細書中に開示されている実施例の他の特徴によれば、見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知装置から見守り情報を受信する複数の見守り通報装置とを有し、前記複数の見守り通報装置間で受信した見守り情報の交換を行なうこと特徴とする見守りシステムが提供される。これによって、ひとつの見守り通報装置による見守り情報の受信に欠落があっても、他の見守り通報装置が受信する見守り情報を共有することができ、複数の見守り通報装置間で混乱が生じるのを防止できる。According to other features of the embodiments disclosed herein, a plurality of watch notifications that receive watch information from the watch detection device by short-range communication between the watch detection device and the watch detection device There is provided a watching system characterized by exchanging watch information received between the plurality of watch notification devices. As a result, even if there is a lack of reception of watch information from one watch notification device, it is possible to share watch information received by other watch notification devices and prevent confusion among multiple watch notification devices. it can.

 本明細書中に開示されている実施例の他の特徴によれば、見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知装置から見守り情報を受信する複数の見守り通報装置とを有し、前記複数の見守り通報装置は前記見守り情報に基づき異なる通報を行なうこと特徴とする見守りシステムが提供される。これによって、性質の違う複数の見守り通報装置のそれぞれに適した見守りが可能となる。具体的な特徴によれば、前記複数の見守り通報装置は、携帯電話および住居内に設置される通報装置を含む。According to other features of the embodiments disclosed herein, a plurality of watch notifications that receive watch information from the watch detection device by short-range communication between the watch detection device and the watch detection device There is provided a monitoring system, wherein the plurality of monitoring notification devices perform different notifications based on the monitoring information. As a result, it is possible to perform monitoring suitable for each of a plurality of monitoring notification devices having different properties. According to a specific feature, the plurality of monitoring notification devices include a mobile phone and a notification device installed in a residence.

 本明細書中に開示されている実施例の他の特徴によれば、音声センサを持つ見守り検知装置と、前記見守り検知装置との間の近距離通信により前記見守り検知センサからの見守り情報を受信する見守り通報装置とを有し、前記見守り通報装置は、前記音声センサが拾う音声信号の存否を外部に通報するとともに音声信号の内容は通報しないことを特徴とする見守りシステムが提供される。これによって見守り対象者のプライバシーが保護される。具体的な特徴によれば、前記見守り通報装置は、前記音声センサが拾う音声信号の緊急性を判断し、緊急性が高いときは例外として音声信号の内容を通報する。これにより、例えば悲鳴や救助要請において生の声による具体的な通報を得ることができる。According to another feature of the embodiments disclosed herein, the monitoring information is received from the monitoring sensor by short-range communication between the monitoring sensor having an audio sensor and the monitoring sensor. There is provided a monitoring system characterized in that the monitoring notification device notifies the outside of the presence or absence of a voice signal picked up by the voice sensor and does not report the contents of the voice signal. This protects the privacy of the person being watched over. According to a specific feature, the monitoring notification device determines the urgency of the audio signal picked up by the audio sensor, and reports the content of the audio signal as an exception when the urgency is high. As a result, for example, a specific report by a live voice can be obtained in a scream or a rescue request.

 本明細書中に開示されている実施例の他の特徴によれば、軟骨伝導振動源と、見守り検知センサとを有し、外耳道入口を開放した状態で耳に装着されることを特徴とする見守り検知装置が提供される。これにより快適な見守り検知装置の装着が可能となる。According to another characteristic of the embodiment disclosed in the present specification, the apparatus has a cartilage conduction vibration source and a monitoring sensor, and is mounted on the ear with the ear canal entrance open. A monitoring device is provided. This makes it possible to mount a comfortable watching detection device.

 具体的な特徴によれば、前記見守り検知装置は外部気導音マイクを有し、前記外部気導音マイクで拾った音声信号により前記軟骨伝導振動源を振動させることにより補聴器として機能する。他の具体的な特徴によれば、近距離通信により前記見守り通報装置から受信した音声信号により前記軟骨伝導振動源を振動させ、携帯電話等、他の装置からの音声信号を聞く装置として機能する。According to a specific feature, the watching detection device has an external air conduction sound microphone, and functions as a hearing aid by vibrating the cartilage conduction vibration source by an audio signal picked up by the external air conduction sound microphone. According to another specific feature, the cartilage conduction vibration source is vibrated by a voice signal received from the watch notification device by short-range communication, and functions as a device that listens to a voice signal from another device such as a mobile phone. .

 他の具体的な特徴によれば、前記見守り検知センサは、咀嚼運動センサである。より具体的な特徴によれば、前記咀嚼運動センサは前記軟骨伝導振動源と兼用することができる。他の具体的な特徴によれば、前記見守り検知センサは、音声センサである。より具体的には、前記音声センサは骨導マイクである。さらに具体的には、前記骨導マイクは前記軟骨伝導振動源と兼用することができる。According to another specific feature, the watching detection sensor is a mastication movement sensor. According to a more specific feature, the mastication motion sensor can also be used as the cartilage conduction vibration source. According to another specific feature, the watch detection sensor is an audio sensor. More specifically, the voice sensor is a bone conduction microphone. More specifically, the bone-conduction microphone can also be used as the cartilage conduction vibration source.

 他の具体的な特徴によれば、前記見守り検知センサは、補聴器機能のための気導音マイクを有し、前記骨導マイクが使用されるとき前記気導音マイクをオフする。他の具体的な特徴によれば、前記音声センサは気導音マイクである。According to another specific feature, the watching detection sensor includes an air conduction sound microphone for a hearing aid function, and turns off the air conduction sound microphone when the bone conduction microphone is used. According to another specific feature, said voice sensor is an air conduction microphone.

 本明細書中に開示されている実施例の他の特徴によれば、音声センサからの見守り情報の取得部と、前記取得部が取得した音声信号の存否を外部に通報するとともに音声信号の内容は通報しない通報部とを有することを特徴とする見守り通報装置が提供される。これによって見守り対象者のプライバシーが保護される。具体的な特徴によれば、前記通報部は、前記取得部が取得した音声信号の緊急性を判断し、緊急性が高いときは例外として音声信号の内容を通報する。According to another feature of the embodiment disclosed in the present specification, the acquisition unit of the monitoring information from the audio sensor, and the outside of the presence or absence of the audio signal acquired by the acquisition unit and the content of the audio signal There is provided a watching and reporting device characterized by having a reporting unit that does not report. This protects the privacy of the person being watched over. According to a specific feature, the reporting unit determines the urgency of the audio signal acquired by the acquiring unit, and reports the content of the audio signal as an exception when the urgency is high.

 また、本明細書中に開示されている実施例は、手と、前記手に設けられた軟骨伝導振動源とを有することを特徴とするロボットを提供する。これにより自然な動作によるロボットと人との軟骨伝導によるコミュニケーションが可能となる。Also, the embodiment disclosed in the present specification provides a robot characterized by having a hand and a cartilage conduction vibration source provided in the hand. As a result, it is possible to communicate by cartilage conduction between the robot and a human by natural movement.

 具体的な特徴によれば、ロボットは両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられる。これにより、例えばロボットの両手で人の顔をやさしく包むような癒しのある演出で軟骨伝導によるロボットと人のコミュニケーションが可能となる。さらにステレオによる聴取も可能となる。According to a specific feature, the robot has both hands, and the cartilage conduction vibration source is provided in each of the both hands. Thereby, for example, the robot and the person can communicate with each other by cartilage conduction with a healing effect that gently wraps the face of the person with both hands of the robot. Furthermore, listening in stereo becomes possible.

 他の具体的な特徴によれば、ロボットは前記手に指を有し、前記軟骨伝導振動源は前記指に設けられる。これにより、より効率の良い軟骨伝導が可能となる。According to another specific feature, the robot has a finger on the hand, and the cartilage conduction vibration source is provided on the finger. Thereby, more efficient cartilage conduction becomes possible.

 より詳細な特徴によれば、前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有する。これにより適切な軟骨伝導のための調節が可能となる。According to a more detailed feature, it has a joint mechanism that guides the entire hand to contact the ear cartilage and adjusts the finger to guide the tragus. This allows adjustment for proper cartilage conduction.

 他の具体的な特徴によれば、両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部をロボットが有する。これにより、束縛感のない軟骨伝導が可能となる。According to another specific feature, when both hands contact the cartilage of both ears for cartilage conduction, a control unit that controls the two hands to keep the relative positions of both hands and not restrain the movement of the face. The robot has. Thereby, cartilage conduction without a feeling of restraint becomes possible.

 他の具体的な特徴によれば、ロボットは外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされる。これにより、ロボットとの間でより親密な軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has an eye whose appearance is movable and is moved in synchronism so that the line of sight of the eye faces between the hands. This enables intimate communication with the robot through cartilage conduction.

 他の具体的な特徴によれば、ロボットは外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くよう制御される。これによって、自然な軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has a mouth mechanism whose appearance is movable, and the mouth mechanism is controlled to move in conjunction with the sound transmitted by the vibration of the cartilage conduction vibration source. This enables communication by natural cartilage conduction.

 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタをロボットが有する。これにより安全な軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has a limiter for limiting the contact pressure when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. This enables communication by safe cartilage conduction.

 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段をロボットが有する。これによって、不快感のない軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has a communication means for requesting consent when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. Thereby, communication by cartilage conduction without discomfort is possible.

 他の具体的な特徴によれば、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部をロボットが有する。これによって、安全性の高い軟骨伝導によるコミュニケーションが可能となる。According to another specific feature, the robot has a control unit for confirming safety in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. As a result, highly safe communication by cartilage conduction becomes possible.

 他の具体的な特徴によれば、ロボットは異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触が解除される。これによって万一の場合における不具合を回避できる。According to another specific feature, the robot has an abnormality detection means, and when the hand contacts the ear cartilage to transmit the vibration of the cartilage conduction vibration source to the ear cartilage, the abnormality detection means detects the abnormality. When detected, contact with the ear cartilage of the hand is released. This avoids problems in the event of an emergency.

 本明細書中に開示されている実施例の他の特徴によれば、手と、前記手を人肌に加温するヒータとを有することを特徴とするロボットが提供される。これによって快適なスキンシップが実現できる。According to another feature of the embodiments disclosed herein, there is provided a robot characterized by having a hand and a heater for heating the hand to human skin. This makes it possible to realize a comfortable skinship.

 また、本明細書中に開示されている実施例は、人の耳軟骨に振動を伝達するための軟骨伝導部と、前記人が装着し少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導部の振動を前記耳軟骨に伝達することを特徴とする軟骨伝導聴取システムを提供する。これによって、軟骨伝導部が直接耳軟骨に触れることから生じる問題点を解決することができる。具体的な特徴によれば前記軟骨伝導部は多数の人に共用されるとともに、前記装身具は前記多数の人に個別に装着される。これによって、誰が触れたのかわからない軟骨伝導部を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる聴取システムが実現できる。In addition, an embodiment disclosed in the present specification includes a cartilage conduction part for transmitting vibration to a human ear cartilage, and a jewelry worn by the person and covering at least a part of the ear cartilage. A cartilage conduction listening system is provided, wherein vibration of the cartilage conduction part is transmitted to the ear cartilage indirectly through the accessory. As a result, the problems caused by the cartilage conduction part directly touching the ear cartilage can be solved. According to a specific feature, the cartilage conduction part is shared by a large number of people, and the accessory is individually worn by the large number of people. Accordingly, it is possible to realize a listening system that can hygienically enjoy the benefits of cartilage conduction despite sharing a cartilage conduction portion that does not know who touched it.

 他の具体的な特徴によれば、前記装身具は、イヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つとして構成される。これによって、自然に装身具を装着する動機付けが可能となる。According to another specific feature, the accessory is configured as any one of an ear warmer, a hair band, an ear cuff, and an ear wearing character goods. As a result, the motivation to wear the accessory naturally becomes possible.

 他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは銀行の応対システムとして構成される。これによって、誰が触れたのかわからない軟骨伝導部を共用するにもかかわらず、衛生的に軟骨伝導の利点を享受できる本発明の聴取システムの利点を好適に活用できる。According to other specific features, the cartilage conduction listening system of the present embodiment is configured as a bank response system. Thus, the advantage of the listening system of the present invention that can enjoy the advantage of cartilage conduction in a sanitary manner, even though the cartilage conduction part that does not know who has touched it, can be suitably used.

 また、他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは、装着者を特定するための情報を保持する情報保持部を前記装身具に設けるとともに、前記軟骨伝導部が前記装身具を介して前記軟骨伝導部の振動を前記耳軟骨に伝達できる状態において前記情報を読取る手段を有する。これによって、装着者の要望にきめ細かく対応できる聴取システムが提供できるので装身具を装着する動機付けが可能となる。より具体的な特徴によれば、前記情報は装着者の情報である。他のより具体的な特徴によれば、前記情報は装身具を特定する情報であるとともに装着者と装身具との関係を示す情報を保持する関係情報保持手段が設けられる。According to another specific feature, in the cartilage conduction listening system according to the present embodiment, an information holding unit that holds information for specifying a wearer is provided in the accessory, and the cartilage conduction unit is connected to the accessory. Means for reading the information in a state in which vibration of the cartilage conduction portion can be transmitted to the ear cartilage via This makes it possible to provide a listening system that can respond precisely to the wearer's request, so that motivation to wear the accessory is possible. According to more specific features, the information is wearer information. According to another more specific feature, the information is information for specifying an accessory, and a relationship information holding means for holding information indicating a relationship between the wearer and the accessory is provided.

 本実施例の他の具体的な特徴によれば、前記軟骨伝導部はロボットの指に設けられる。これによって、耳軟骨への接触の興が増し、有効に軟骨伝導を活用できる。According to another specific feature of the present embodiment, the cartilage conduction part is provided on the finger of the robot. As a result, contact with the ear cartilage is increased and cartilage conduction can be effectively utilized.

 より具体的な特徴によれば、前記ロボットの指を前記人が前記耳軟骨に導く際、それに抗さないよう前記ロボットの腕を保持する関節機構が前記ロボットに設けられる。これによって確実に軟骨伝導部を耳軟骨に導くことができるとともに、人とロボットの間で軟骨伝導のための円滑な協働が可能となる。According to a more specific feature, the robot is provided with a joint mechanism for holding the arm of the robot so as not to resist when the person guides the finger of the robot to the ear cartilage. As a result, the cartilage conduction portion can be reliably guided to the ear cartilage, and smooth cooperation for cartilage conduction can be performed between the human and the robot.

 他のより具体的な特徴によれば、前記軟骨伝導部が前記人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対して前記ロボットの指を追従させる追従手段が設けられる。これによって片側の耳に振動を伝達するにもかかわらず、人の頭の動きによって振動伝達が断たれることがないようにすることができる。According to another more specific feature, the cartilage conduction part transmits vibration to the ear on one side of the person, and a follow-up means is provided for causing the robot's finger to follow the movement of the person's head. . Accordingly, it is possible to prevent the vibration transmission from being interrupted by the movement of the person's head even though the vibration is transmitted to the ear on one side.

 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するための軟骨伝導部と、前記軟骨伝導部を可動的に支持する支持部を有し、前記支持部は、前記人が前記耳軟骨に導く際、それに抗さないよう前記軟骨伝導部を支持することを特徴とする軟骨伝導聴取システムが提供される。これにより、使用者に不快感を与えることなく確実に軟骨伝導部を耳軟骨に導くことができる。具体的な特徴によれば、前記軟骨伝導部はロボットの指に設けられる。他の具体的な特徴によれば、本実施例の軟骨伝導聴取システムは表示画面を有し、前記軟骨伝導部は前記支持部により前記表示画面に支持される。According to another feature of the present embodiment, it has a cartilage conduction part for transmitting vibration to the human ear cartilage, and a support part that movably supports the cartilage conduction part, and the support part includes the human cartilage conduction part. A cartilage conduction listening system is provided, wherein the cartilage conduction part is supported so as not to resist the cartilage when it is guided to the ear cartilage. Thereby, the cartilage conduction part can be reliably guided to the ear cartilage without causing discomfort to the user. According to a specific feature, the cartilage conduction part is provided on a robot finger. According to another specific feature, the cartilage conduction listening system of the present embodiment has a display screen, and the cartilage conduction part is supported on the display screen by the support part.

 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するためにロボットの指に設けられる軟骨伝導部と、前記軟骨伝導部が前記人の片側の耳に振動を伝達するとき前記人の頭の動きに対し前記ロボットの指を追従させる前記ロボットに設けられた追従手段とを有することを特徴とする軟骨伝導聴取システムが提供される。これによって片側の耳に振動を伝達するにもかかわらず、人の頭の動きによって振動伝達が断たれることがないようにすることができる。According to another feature of the present embodiment, a cartilage conduction portion provided on a finger of a robot for transmitting vibration to a human ear cartilage, and when the cartilage conduction portion transmits vibration to one ear of the person There is provided a cartilage conduction listening system, comprising: follower means provided on the robot for causing the robot's finger to follow the movement of the human head. Accordingly, it is possible to prevent the vibration transmission from being interrupted by the movement of the person's head even though the vibration is transmitted to the ear on one side.

 本実施例の他の特徴によれば、人の耳軟骨に振動を伝達するためにロボットの第一の指に設けられる軟骨伝導部を有し、前記ロボットの第二の指にて前記人の頭部を支えることを特徴とする軟骨伝導聴取システムが提供される。これによって例えば横臥している人を自然に起こしてコミュニケーションを図ることができる。According to another feature of the present embodiment, the robot has a cartilage conduction portion provided on the first finger of the robot to transmit vibration to the human ear cartilage, and the second finger of the robot A cartilage conduction listening system characterized by supporting the head is provided. As a result, for example, a person lying down can naturally wake up and communicate.

 具体的な特徴によれば、前記ロボットの左右の手の前記第一の指にそれぞれ設けられ、それぞれ前記人の左右の耳軟骨に振動を伝えるとともに、前記ロボットの左右の手の前記第二の指にて前記人の頭部を支える。他の具体的な特徴によれば、前記第一の指は親指であり、前記第二の指は中指である。According to a specific feature, the first fingers of the left and right hands of the robot are respectively provided with vibrations to the left and right ear cartilages of the person, and the second hands of the left and right hands of the robot are provided. The person's head is supported by a finger. According to another particular feature, the first finger is a thumb and the second finger is a middle finger.

 本実施例の他の特徴によれば、上記のような種々の軟骨伝導聴取システムに用いられる好適なロボットが提供される。According to another feature of the present embodiment, a suitable robot used for the various cartilage conduction listening systems as described above is provided.

 本発明は、人とコミュニケーション可能なロボット、ないしは、銀行等における応対システムに適用することができる。The present invention can be applied to a robot that can communicate with humans or a response system in a bank or the like.

211、213 手
242a、242b 軟骨伝導振動源
206 ロボット
213 指
227a、227b 関節機構
227a、227b、240 制御部
207 目
209 口機構
225a、225b ヒータ
240 リミッタ
223、215、217、240 コミュニケーション手段
240 制御部
246、238、227a、227b 異常検知部
321、313、413、724 軟骨伝導部
461、462、463、464 装身具
470 情報保持部
457 情報を読取る手段
480 関係情報保持手段
227a 関節機構
431a、456、238、440 追従手段
227a 支持部
705 表示画面
321 第一の指
313 第二の指
211, 213Hand 242a, 242b Cartilageconduction vibration source 206Robot 213Finger 227a, 227bJoint mechanism 227a, 227b, 240Control unit 207Eye 209Mouth mechanism 225a,225b Heater 240Limiter 223, 215, 217, 240Communication unit 240Control unit 246, 238, 227a, 227bAbnormality detection unit 321, 313, 413, 724Cartilage conduction unit 461, 462, 463, 464Accessories 470Information holding unit 457Information reading unit 480 Relationshipinformation holding unit 227aJoint mechanism 431a, 456, 238 440 followingmeans 227asupport part 705display screen 321first finger 313 second finger

Claims (20)

Translated fromJapanese
 手と、前記手に設けられ人の耳軟骨に振動を伝達するための軟骨伝導振動源とを有することを特徴とするロボット。A robot having a hand and a cartilage conduction vibration source provided on the hand for transmitting vibration to human ear cartilage. 両手を有し、前記両手のそれぞれに前記軟骨伝導振動源が設けられたことを特徴とする請求項1記載のロボット。The robot according to claim 1, wherein the robot has both hands, and the cartilage conduction vibration source is provided in each of the both hands. 前記手に指を有し、前記軟骨伝導振動源は前記指に設けられていることを特徴とする請求項1記載のロボット。The robot according to claim 1, wherein the hand has a finger, and the cartilage conduction vibration source is provided on the finger. 前記手全体を耳軟骨に接触するよう導くとともに、前記指を耳珠に導くよう調整する関節機構を有することを特徴とする請求項3記載のロボット。4. The robot according to claim 3, further comprising a joint mechanism that guides the entire hand so as to contact the ear cartilage and adjusts the finger to guide the tragus. 前記両手が軟骨伝導のためにそれぞれ両耳の軟骨に接触するとき、前記両手が両者の相対位置は維持しつつ顔の動きを拘束しないよう制御する制御部を有することを特徴とする請求項2記載のロボット。3. The control unit according to claim 2, further comprising a control unit configured to control the movement of the face so as not to restrain the movement of the both hands while maintaining the relative positions of the both hands when the both hands contact the cartilage of both ears for cartilage conduction. The robot described. 外観が可動の目を有し、前記目の視線が前記両手の間を向くよう同調して動かされることを特徴とする請求項2記載のロボット。The robot according to claim 2, wherein the robot has an eye whose appearance is movable, and is moved in synchronism so that the line of sight of the eye faces between both hands. 外観が可動の口機構を有し、前記口機構は前記軟骨伝導振動源の振動によって伝達される音声と連動して動くことを特徴とする請求項1記載のロボット。2. The robot according to claim 1, wherein the robot has a mouth mechanism whose appearance is movable, and the mouth mechanism moves in conjunction with a sound transmitted by vibration of the cartilage conduction vibration source. 前記手を人肌に加温するヒータを有することを特徴とする請求項1記載のロボット。The robot according to claim 1, further comprising a heater for heating the hand to human skin. 前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手が耳軟骨に接触するときその接触圧を制限するリミッタを有することを特徴とする請求項1記載のロボット。The robot according to claim 1, further comprising a limiter for limiting a contact pressure when the hand contacts the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. 前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、同意を求めるコミュニケーション手段を有することを特徴とする請求項1記載のロボット。The robot according to claim 1, further comprising communication means for obtaining consent when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. 前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、事前に安全確認を行う制御部を有することを特徴とする請求項1記載のロボット。The robot according to claim 1, further comprising a controller for confirming safety in advance when the hand is brought into contact with the ear cartilage so as to transmit the vibration of the cartilage conduction vibration source to the ear cartilage. 異常検知手段を有し、前記軟骨伝導振動源の振動を耳軟骨に伝達するよう前記手を耳軟骨に接触させる際、前記異常検知手段が異常を検知したとき、前記手の耳軟骨への接触を解除することを特徴とする請求項1記載のロボット。An anomaly detection means, and when the hand contacts the ear cartilage to transmit the vibration of the cartilage conduction vibration source to the ear cartilage, when the abnormality detection means detects an abnormality, the hand contacts the ear cartilage The robot according to claim 1, wherein: is released. 前記手を耳軟骨に導く外力に抗さないようロボットの腕を保持する関節機構を有することを特徴とする請求項1記載のロボット。The robot according to claim 1, further comprising a joint mechanism for holding an arm of the robot so as not to resist an external force that guides the hand to the ear cartilage. 前記軟骨伝導振動源が人の片側の耳に振動を伝達するとともに、前記人の頭の動きに対し前記手を追従させる追従手段を有することを特徴とする請求項1記載のロボット。The robot according to claim 1, characterized in that the cartilage conduction vibration source transmits vibration to an ear on one side of the person and has follow-up means for making the hand follow the movement of the head of the person. 前記手は、前記軟骨伝導振動源が設けられる第一の指と、人の頭部の重量を支える第二の指を有することを特徴とする請求項1記載のロボット。The robot according to claim 1, wherein the hand has a first finger provided with the cartilage conduction vibration source and a second finger supporting the weight of a human head. 手と、前記手を人肌に加温するヒータとを有することを特徴とするロボット。A robot having a hand and a heater for heating the hand to human skin. 人の耳軟骨に振動を伝達するための軟骨伝導振動源が手に設けられるとともに多数の人に共用されるロボットと、前記多数の人に個別に装着されるためのものであって少なくとも前記耳軟骨の一部を覆う装身具とを有し、前記装身具を介して間接的に前記軟骨伝導振動源の振動を前記多数の人の一人の耳軟骨に伝達することを特徴とするロボットシステム。A cartilage conduction vibration source for transmitting vibrations to human ear cartilage is provided in a hand and is shared by a large number of people, and is individually attached to the large number of people, and at least the ear A robot system comprising an accessory covering a part of the cartilage, wherein the vibration of the cartilage conduction vibration source is indirectly transmitted to one ear cartilage of the large number of persons via the accessory. 前記装身具は、イヤーウォーマ、ヘヤバンド、イヤーカフおよび耳装着用キャラクターグッズのいずれか一つとして構成されることを特徴とする請求項17記載のロボットシステム。18. The robot system according to claim 17, wherein the accessory is configured as any one of an ear warmer, a hair band, an ear cuff, and an ear wearing character goods. 装着者を特定するための情報を保持する情報保持部を前記装身具に設けるとともに、前記ロボットに前記情報を読取る手段が設けられたことを特徴とする請求項17記載のロボットシステム。18. The robot system according to claim 17, wherein an information holding unit for holding information for identifying a wearer is provided in the accessory, and means for reading the information is provided in the robot. 多数の装着者に個別に装着されるとともに装着者を特定するための情報を保持する情報保持部が設けられた装身具と、前記情報を読取る手段が設けられたロボットとを有することを特徴とするロボットシステム。It is characterized by having an accessory equipped with an information holding unit that is individually worn by a large number of wearers and holds information for identifying the wearers, and a robot provided with means for reading the information. Robot system.
PCT/JP2016/0708482015-07-152016-07-14Robot and robot systemCeasedWO2017010547A1 (en)

Priority Applications (4)

Application NumberPriority DateFiling DateTitle
KR1020187000808AKR102056550B1 (en)2015-07-152016-07-14 Robots and Robotic Systems
US15/743,723US10967521B2 (en)2015-07-152016-07-14Robot and robot system
EP16824527.2AEP3323567B1 (en)2015-07-152016-07-14Robot and robot system
CN201680041763.8ACN107848125B (en)2015-07-152016-07-14Robot and robot system

Applications Claiming Priority (4)

Application NumberPriority DateFiling DateTitle
JP2015-1411682015-07-15
JP2015141168AJP6667172B2 (en)2015-07-152015-07-15 robot
JP2016-1381872016-07-13
JP2016138187AJP6783451B2 (en)2016-07-132016-07-13 Listening system and robots used in listening system

Publications (1)

Publication NumberPublication Date
WO2017010547A1true WO2017010547A1 (en)2017-01-19

Family

ID=57757284

Family Applications (1)

Application NumberTitlePriority DateFiling Date
PCT/JP2016/070848CeasedWO2017010547A1 (en)2015-07-152016-07-14Robot and robot system

Country Status (6)

CountryLink
US (1)US10967521B2 (en)
EP (1)EP3323567B1 (en)
KR (1)KR102056550B1 (en)
CN (1)CN107848125B (en)
TW (1)TWI631983B (en)
WO (1)WO2017010547A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP6794918B2 (en)*2017-04-282020-12-02トヨタ自動車株式会社 Image transmission program and image transmission device
US11950039B2 (en)*2019-02-132024-04-02Yukka Magic LlcRinged-shaped biometric earpiece
CN111062048B (en)*2019-12-312022-10-04深圳市工匠社科技有限公司 Secure transmission method and related device
JP1753085S (en)*2022-10-112023-09-14 Image for icon

Citations (12)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2001287183A (en)*2000-01-312001-10-16Matsushita Electric Works LtdAutomatic conveyance robot
JP2002036158A (en)*2000-07-272002-02-05Yamaha Motor Co LtdElectronic appliance having autonomous function
JP2002041411A (en)*2000-07-282002-02-08Nippon Telegr & Teleph Corp <Ntt> Text-to-speech robot, control method thereof, and recording medium storing text-to-speech robot control program
JP2006007342A (en)*2004-06-232006-01-12Mitsubishi Heavy Ind LtdRobot control program updating method and system
JP2008006558A (en)*2006-06-302008-01-17Shinano Kenshi Co LtdPower assist device
JP2008149427A (en)*2006-12-192008-07-03Mitsubishi Heavy Ind LtdMethod of acquiring information necessary for service of moving object by robot, and the object movement service system by the robot
JP2009166213A (en)*2008-01-182009-07-30Toyota Motor Corp Robot and robot control method
JP2010207963A (en)*2009-03-102010-09-24Nippon Telegr & Teleph Corp <Ntt>Attached device of robot hand
JP2013255091A (en)*2012-06-072013-12-19Kyocera CorpAcoustic transmission device
JP2013255212A (en)*2011-09-132013-12-19Kddi CorpTelephone call device
JP2014003488A (en)*2012-06-192014-01-09Kyocera CorpAcoustic transmission device
JP2015084801A (en)*2013-10-282015-05-07俊道 妻木Motion assisting device

Family Cites Families (614)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
US2045404A (en)1933-05-241936-06-23Sonotone CorpPiezoelectric vibrator device
JPS518161B1 (en)1970-05-071976-03-15
JPS5246695B2 (en)1973-06-151977-11-26
JPS5194220A (en)1975-02-151976-08-18Denkishingo shindohenkansochi
JPS5236894A (en)1975-09-161977-03-22Hidetaka TakedaEar plug
JPS5588497A (en)1978-12-251980-07-04Matsushita Electric Ind Co LtdEar receiver
JPS5821267Y2 (en)1979-07-161983-05-06松下電器産業株式会社 telephone receiver
JPS5689086A (en)1979-12-201981-07-20Seiko Epson CorpDisplay device for digital watch
JPS5690018A (en)1979-12-211981-07-21Ihara Chem Ind Co LtdPreparation of organic bromide
US4351166A (en)1980-11-101982-09-28Juliette BelinRing
JPS57162611A (en)1981-03-311982-10-06Kurita Water Ind LtdFlocculation reacting tank
JPS57169312U (en)1981-04-181982-10-25
JPS58182398A (en)1982-04-191983-10-25Takeshi YoshiiMagnetic bone conduction and eardrum oscillation microphone in common use of transmission and reception
JPS60116800U (en)1984-01-171985-08-07イ−スタンエレクトリツク株式会社 hearing aid
JPS62208680A (en)1986-03-071987-09-12Murata Mfg Co LtdLaminar bymorph
US4736250A (en)1986-11-281988-04-05Tektronix, Inc.Digital camera frame capture circuit
JPS63115728U (en)1987-01-221988-07-26
JPS63140753U (en)1987-03-061988-09-16
USRE34525E (en)1987-06-241994-02-01Lazzaroni; John J.Motorcycle helmet microphone mount and plug mount
FR2629624B1 (en)1988-04-051990-11-16Framatome Sa METHOD FOR DETERMINING AND EVALUATING THE RETURN CAPACITY OF A PRESSURIZED WATER NUCLEAR REACTOR
JPH0262199A (en)1988-08-021990-03-02B Shriver SimeonBone-conductive sound catching device and method
US5125032A (en)1988-12-021992-06-23Erwin MeisterTalk/listen headset
JPH02182098A (en)1989-01-071990-07-16Hiroshi OsadaHeadphone for stereophonic
JP2770389B2 (en)1989-03-201998-07-02ソニー株式会社 Wireless headphone system
JPH0329424A (en)1989-06-271991-02-07Oki Electric Ind Co LtdEcho canceller circuit for hand-free telephone call
JPH03117995A (en)1989-09-291991-05-20Mitsubishi Electric Corp Color signal contour correction device
JPH0490298A (en)1990-08-021992-03-24Matsushita Electric Ind Co LtdHearing aid
JPH04303815A (en)1991-03-301992-10-27I Utsudo:KkTemple of psectacles body
JP3235865B2 (en)1991-06-032001-12-04パイオニア株式会社 Ear speakers
US5956682A (en)1991-06-061999-09-21Lj Laboratories, LlcPicture frame with associated audio messages and position sensitive or speech recognition device
JPH0541297A (en)1991-07-311993-02-19Ishikawajima Harima Heavy Ind Co Ltd Vacuum exhaust device for SOR device
JP2894035B2 (en)1991-09-181999-05-24日産自動車株式会社 Active noise control device
JPH05183618A (en)1991-12-271993-07-23Sony CorpTelephone set
US5295193A (en)1992-01-221994-03-15Hiroshi OnoDevice for picking up bone-conducted sound in external auditory meatus and communication device using the same
JPH05292167A (en)1992-04-131993-11-05Sony CorpTelephone set
US5323468A (en)1992-06-301994-06-21Bottesch H WernerBone-conductive stereo headphones
JP3101842B2 (en)1992-07-062000-10-23アツデン株式会社 Directional microphone device
HU212134B (en)1993-07-271998-06-29László Holakovszky An image, preferably a TV-imaging device, attached to glasses
JP2698320B2 (en)1993-08-311998-01-19日本電信電話株式会社 Permanent input system, Permanent intention communication system, Permanent music keyboard system, Permanent Braille input / output system
JPH07107146A (en)1993-10-051995-04-21Mitsubishi Electric Corp Cordless telephone device using bone conduction earphone microphone
JPH07131268A (en)1993-10-291995-05-19Casio Comput Co Ltd Telephone
JPH0739150U (en)1993-12-141995-07-14アツデン株式会社 Mobile phone
JP3907215B2 (en)1994-01-182007-04-18富士通テン株式会社 Noise control device
JP3193583B2 (en)1994-04-122001-07-30株式会社ブリヂストン Method for molding unvulcanized tire of flat pneumatic radial tire
JP3003950U (en)1994-05-091994-11-01株式会社京浜特殊印刷 Amplifier for learning foreign language
CN2198618Y (en)1994-05-191995-05-24刘瓒澄Stereo TV glass
JPH0833026A (en)1994-07-151996-02-02Nitsuko CorpBattery support for radio equipment
JPH0879338A (en)1994-08-301996-03-22Sanyo Electric Co LtdPortable telephone set
JP3009206U (en)1994-09-191995-04-04リオン電子株式会社 Piezoelectric drive type transport device
JPH0890986A (en)1994-09-281996-04-09Pilot Corp:TheWriting utensil
JPH08102780A (en)1994-09-301996-04-16Nippon Telegr & Teleph Corp <Ntt> Hearing aid for telephone
JPH08111703A (en)1994-10-071996-04-30Matsushita Electric Ind Co Ltd Mobile radio telephone
JP3418808B2 (en)1995-02-272003-06-23富士通株式会社 Mobile communication terminals
JPH08242273A (en)1995-03-021996-09-17Tdk CorpIncoming call vibrator
JPH08256080A (en)1995-03-161996-10-01Sharp Corp Portable information equipment
JPH0923256A (en)1995-07-071997-01-21Oki Electric Ind Co LtdStructure for telephone set
KR0161916B1 (en)1995-07-141998-12-01구자홍Circuit of correcting carrier frequency error in bs receiver
CN1141856A (en)1995-08-021997-02-05楚树湘Photoelectric sculpturing method
US5686882A (en)1996-02-201997-11-11Giani; Sandra M.Silent alarm band
US5687244A (en)1996-03-281997-11-11Stanton Magnetics, Inc.Bone conduction speaker and mounting system
JP2888287B2 (en)1996-07-251999-05-10日本電気株式会社 Telephone
AU3358297A (en)1996-07-291998-02-20Nihon Belbon SeikiWristwatchlike telephone set
JPH1065996A (en)1996-08-231998-03-06Olympus Optical Co LtdHead wearable display device
KR100229033B1 (en)1996-09-241999-11-01윤종용 Apparatus and method for saving power in a nonvolatile memory
JP3172827B2 (en)1996-10-282001-06-04正雄 遠藤 Sound recognition method and apparatus for hearing impaired
JPH10200608A (en)1997-01-101998-07-31Shuichi OsawaPortable telephone set
KR19980063410A (en)1997-08-191998-10-07양승택 Telephone with handcuffs for both bone and airway hearing
JPH11112672A (en)1997-09-301999-04-23Mitsubishi Electric Corp Multipoint communication device
JPH11163980A (en)1997-12-011999-06-18Daisan Kikaku KkIncoming call sensor accessory for portable telephone
JP2589555Y2 (en)1997-12-041999-01-27日本電気株式会社 Battery storage structure
JP3050147U (en)1997-12-241998-06-30嘉正 平田 Simplified mobile phone for the hearing impaired
JP3298578B2 (en)1998-03-182002-07-02日本電信電話株式会社 Wearable command input device
JP3067762B2 (en)1998-03-182000-07-24日本電信電話株式会社 Wearable communication device
EP0951883B1 (en)1998-03-182005-07-27Nippon Telegraph and Telephone CorporationWearable communication device with bone conduction transducer
JPH11298595A (en)1998-04-101999-10-29Mitsubishi Electric Corp Communication device
JP3207158B2 (en)1998-05-112001-09-10株式会社テムコジャパン Headset with bone-conducting speaker and microphone
JPH11352138A (en)1998-06-041999-12-24Seiko Instruments IncMagnetic force microscope
JP2000013294A (en)1998-06-242000-01-14Nippon Telegr & Teleph Corp <Ntt> Wireless handset
JP3160714B2 (en)1998-07-082001-04-25株式会社シコー技研 Portable wireless communication device
US6463157B1 (en)1998-10-062002-10-08Analytical Engineering, Inc.Bone conduction speaker and microphone
US6950126B1 (en)1998-11-192005-09-27Nikon CorporationCamera capable of communicating with other communication device
JP4281182B2 (en)1998-11-192009-06-17株式会社ニコン Camera with communication function
JP3623127B2 (en)1998-12-252005-02-23松下電器産業株式会社 Headphone device
JP3064055U (en)1999-02-081999-12-14照美 森屋 Thin mobile phone with an appropriate distance between earpiece and mouthpiece
JP3537128B2 (en)1999-04-012004-06-14日本電信電話株式会社 headphone
JP2000324217A (en)1999-05-072000-11-24Ntt Docomo Inc Sound information transmission device in portable device and portable device
JP2000339793A (en)1999-05-282000-12-08Sony CorpReproducing device
JP3322849B2 (en)1999-06-032002-09-09株式会社テムコジャパン Mobile communication device with bone conduction speaker
JP3066305U (en)1999-08-022000-02-18博次 高野 Hearing aid
JP4142836B2 (en)1999-10-292008-09-03株式会社インターナショナル インテリジェント インフォメーション Penphone PDA
JP3750910B2 (en)1999-12-132006-03-01セイコーインスツル株式会社 Information processing apparatus and information processing method
JP3541765B2 (en)1999-12-212004-07-14日本電気株式会社 Videophone equipment
JP2003529976A (en)2000-01-072003-10-07アサナス ルイス Machine-acoustic transducer and multimedia flat film speaker
JP3070222U (en)2000-01-112000-07-28勲 伊藤 Bone conduction receiver
JP2001268211A (en)2000-03-212001-09-28Xanavi Informatics CorpHands-free device for telephone
JP3511088B2 (en)*2000-04-102004-03-29独立行政法人航空宇宙技術研究所 Pressure distribution sensor for multi-joint care robot control
JP3556151B2 (en)2000-05-092004-08-18株式会社テムコジャパン Transmitter / receiver using bone conduction speaker
JP2001333161A (en)2000-05-182001-11-30Nec CorpPortable terminal
JP2001339504A (en)2000-05-262001-12-07Sharp Corp Wireless communication equipment
JP2001352395A (en)2000-06-072001-12-21Sony CorpMobile terminal
EP1292913B1 (en)2000-06-122005-08-17United Parcel Service Of America, Inc.System and method for real-time tracking of packages
CN1193570C (en)2000-06-212005-03-16精工爱普生株式会社 Coordinated processing of incoming mobile phones and radios
JP2002084575A (en)2000-06-212002-03-22Seiko Epson Corp Wearable wireless communication device, mobile phone device, control method thereof, control method of wireless communication system, control program, and recording medium
JP2002016720A (en)2000-06-292002-01-18Matsushita Electric Ind Co Ltd Information communication equipment
JP4626019B2 (en)2000-07-052011-02-02株式会社ニコン Glasses frame
US20040105566A1 (en)2000-07-272004-06-03International Business Machines CorporationBody set type speaker unit
JP3745602B2 (en)2000-07-272006-02-15インターナショナル・ビジネス・マシーンズ・コーポレーション Body set type speaker device
JP4059618B2 (en)2000-07-312008-03-12株式会社ケンウッド Communication terminal
JP3949912B2 (en)2000-08-082007-07-25株式会社エヌ・ティ・ティ・ドコモ Portable electronic device, electronic device, vibration generator, notification method by vibration and notification control method
US6754359B1 (en)2000-09-012004-06-22Nacre AsEar terminal with microphone for voice pickup
AU2001282620A1 (en)2000-09-042002-03-22Applied Electronics Laboratories, Inc.Display window having voice input/output function
JP3831190B2 (en)2000-10-022006-10-11株式会社エヌ・ティ・ティ・ドコモ Actuator support device and body-worn type transmission / reception device including the actuator support device
JP3312902B2 (en)2000-11-242002-08-12株式会社テムコジャパン Mobile phone attachment for the hearing impaired
JP2002171321A (en)2000-11-302002-06-14Toshiba Corp Mobile wireless terminal
JP2002223475A (en)2001-01-252002-08-09Nec Telecom Syst LtdMobile communication terminal, wrist watch and call reception system, and call reception method
TW510139B (en)2001-01-262002-11-11Kirk Acoustics AsAn electroacoustic transducer and a coil and a magnet circuit therefor
JP3404384B2 (en)2001-02-092003-05-06太平洋セメント株式会社 Piezoelectric transformer inverter
JP2002262377A (en)2001-02-282002-09-13Taiyo Yuden Co LtdBone conduction pickup element and its unit
US7616771B2 (en)2001-04-272009-11-10Virginia Commonwealth UniversityAcoustic coupler for skin contact hearing enhancement devices
JP3532535B2 (en)2001-05-312004-05-31株式会社テムコジャパン Handset device
JP2002368839A (en)2001-06-062002-12-20Matsushita Electric Ind Co Ltd Telephone and method of correcting audio signal frequency of the telephone
JP3763570B2 (en)2001-06-282006-04-05松下電器産業株式会社 Speaker system, portable terminal device, and electronic device
WO2003005485A1 (en)2001-07-052003-01-16Eta Sa Manufacture Horlogere SuisseIrst-worm electronic instrument with antenna
JP2003101625A (en)2001-07-052003-04-04Mieko TsuyusakiPortable telephone set, and telephone set
JP2003032343A (en)2001-07-172003-01-31Mitsubishi Electric Corp Mobile phone
JP2003032768A (en)2001-07-192003-01-31Matsushita Electric Ind Co Ltd headphone
JP3699018B2 (en)2001-07-252005-09-28埼玉日本電気株式会社 Automatic volume control device for telephone
JP3834494B2 (en)2001-09-192006-10-18株式会社ケンウッド Piezoelectric speaker device
JP2003173375A (en)2001-09-282003-06-20Toshiba Corp Life management terminal device, life management method and life management system
JP2003174495A (en)2001-09-282003-06-20Nec CorpFolding portable information terminal
JP2003103220A (en)2001-09-282003-04-08Nec Tokin CorpLiving body conductive actuator
JP2003111175A (en)2001-10-012003-04-11Yukio MasudaSpeech transmission and receiving system
JP2003125473A (en)2001-10-102003-04-25Nec Tokin CorpHousing case vibration piezoelectric actuator and portable electronic apparatus
JP3532544B2 (en)2001-10-302004-05-31株式会社テムコジャパン Transmitter / receiver for mounting a face or cap strap
JP4313560B2 (en)2001-10-312009-08-12パナソニック株式会社 mobile phone
JP3678694B2 (en)2001-11-022005-08-03Necビューテクノロジー株式会社 Interactive terminal device, call control method thereof, and program thereof
JP2003145048A (en)2001-11-162003-05-20Nec Tokin CorpBone conduction vibrating actuator and portable electronic apparatus
JP2003169115A (en)2001-11-292003-06-13Kyocera Corp Foldable mobile phone
US6639987B2 (en)2001-12-112003-10-28Motorola, Inc.Communication device with active equalization and method therefor
JP2003188985A (en)2001-12-202003-07-04Matsushita Electric Ind Co Ltd Wireless headset, helmet using the same, internet telephone system, vehicle hands-free system, communication system, credit processing system, and cash service system
JP4202640B2 (en)2001-12-252008-12-24株式会社東芝 Short range wireless communication headset, communication system using the same, and acoustic processing method in short range wireless communication
US20030119566A1 (en)2001-12-262003-06-26E-Lead Electronic Co., Ltd.Hand-free device equipped with expansion function modules
JP2003211087A (en)2002-01-222003-07-29Nec Tokin CorpVibration actuator and display device
JP2003218989A (en)2002-01-242003-07-31Fdk Corp Incoming device
DE60324665D1 (en)2002-01-252008-12-24Sonion Horsens As FLEXIBLE MEMBRANE WITH INTEGRATED COIL
US20030174856A1 (en)2002-01-252003-09-18Leif JohannsenFlexible diaphragm with integrated coil
JP4203246B2 (en)2002-03-142008-12-24京セラ株式会社 Portable communication device
JP2003274470A (en)2002-03-192003-09-26Denso CorpBone conduction voice vibration detecting element, manufacturing method of bone conduction voice vibration detecting element, and voice recognition system
GB0207732D0 (en)2002-04-032002-05-15Ttpcomm LtdWireless communication terminals
JP2003300015A (en)2002-04-052003-10-21Nec Tokin CorpMethod for driving vibration actuator, and portable device
JP2003319022A (en)2002-04-262003-11-07Sanyo Electric Co LtdPortable telephone device
WO2003093950A2 (en)2002-05-062003-11-13David GoldbergLocalized audio networks and associated digital accessories
JP2003348208A (en)2002-05-292003-12-05Temuko Japan:KkPortable telephone set provided with bone-conduction speaker
JP3090729U (en)2002-06-132002-12-26蕃夫 鈴木 Pen-type separate handset for writing
JP3535143B2 (en)2002-07-012004-06-07日立マクセル株式会社 Ear-mounted sound information transmitter
WO2004012068A1 (en)2002-07-252004-02-05Sonion Horsens A/SMobile handset and assembly having multi-loudspeaker system
CN1720763B (en)2002-07-262013-06-12奥克利有限公司Glasses
JP3985094B2 (en)2002-07-302007-10-03透 加藤 Bone-conduction speaker device and communication system
JP3937982B2 (en)2002-08-292007-06-27ソニー株式会社 INPUT / OUTPUT DEVICE AND ELECTRONIC DEVICE HAVING INPUT / OUTPUT DEVICE
AU2003261871A1 (en)*2002-08-302004-03-19Asahi Kasei Kabushiki KaishaMicrophone and communication interface system
AU2002951326A0 (en)2002-09-112002-09-26Innotech Pty LtdCommunication apparatus and helmet
JP2004166174A (en)2002-09-202004-06-10Junichi SuzukiExternal auditory meatus insertion type bone conduction receiver, and external auditory meatus insertion type bone conduction hearing aid
JP3889342B2 (en)2002-10-032007-03-07日本電信電話株式会社 Wearable communication device
WO2004034734A1 (en)2002-10-082004-04-22Nec CorporationArray device and portable terminal
NZ539237A (en)2002-10-092006-11-30Univ East CarolinaFrequency altered feedback for treating non-stuttering pathologies
JP3875178B2 (en)2002-11-052007-01-31日本電信電話株式会社 Headphone device
JP4244130B2 (en)2002-11-072009-03-25ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Mobile terminal system and mobile terminal device
JP4712294B2 (en)2002-11-082011-06-29株式会社半導体エネルギー研究所 Display device
SG143934A1 (en)2002-11-082008-07-29Semiconductor Energy LabDisplay appliance
JP2004173018A (en)2002-11-202004-06-17Toshiba Life Engineering KkCommunication system for helmet
JP2004187031A (en)2002-12-042004-07-02Temuko Japan:KkMobile phone using bone conduction speaker
JP2004190699A (en)2002-12-062004-07-08Sony CorpClip and clip clamping method
CN2575916Y (en)2002-12-132003-09-24深圳市天霆实业发展有限公司Digital distributing frame for communication
JP2004205839A (en)2002-12-252004-07-22Fuji Iryoki:KkHearing aid
JP4069294B2 (en)2002-12-262008-04-02Tdk株式会社 Earphone, audio transmission device
JP2004266321A (en)2003-01-222004-09-24Hitachi Maxell Ltd Ear-mounted communication device
JP2004233316A (en)2003-02-032004-08-19Matsushita Electric Ind Co Ltd Clock with wireless communication function
JP2004252626A (en)2003-02-192004-09-09Tokyo Shinyu:KkMessage transmission method to information terminal device
US7409234B2 (en)2003-03-072008-08-05Cardo Systems, Inc.Wireless communication headset with exchangeable attachments
JP4121398B2 (en)2003-03-102008-07-23ソフトバンクモバイル株式会社 Mobile phone
JP2004289443A (en)2003-03-202004-10-14Tdk CorpVibrating device and cell phone using the same
US7098776B2 (en)2003-04-162006-08-29Massachusetts Institute Of TechnologyMethods and apparatus for vibrotactile communication
JP2004357198A (en)2003-05-302004-12-16Sharp Corp earphone
KR100548357B1 (en)2003-06-232006-02-02엘지전자 주식회사 Receiving signal amplification level automatic control device and method of portable terminal
JP2005020234A (en)2003-06-252005-01-20Nec Commun Syst Ltd Mobile phone
US7442164B2 (en)2003-07-232008-10-28Med-El Elektro-Medizinische Gerate Gesellschaft M.B.H.Totally implantable hearing prosthesis
JP4380246B2 (en)2003-08-222009-12-09パイオニア株式会社 earphone
JP2005074257A (en)2003-08-282005-03-24One Plus:KkSanitary seal
US20070053530A1 (en)2003-09-022007-03-08Toshiba Ha Products Co., LtdBone-conduction speaker device
JP2005080135A (en)2003-09-022005-03-24Toshiba Corp Bone conduction speaker built-in pad
GB0321617D0 (en)2003-09-102003-10-15New Transducers LtdAudio apparatus
US7257372B2 (en)2003-09-302007-08-14Sony Ericsson Mobile Communications AbBluetooth enabled hearing aid
JP2005142729A (en)2003-11-052005-06-02Casio Comput Co Ltd Wristwatch type communication device
JP4542328B2 (en)2003-11-062010-09-15京セラ株式会社 Foldable mobile terminal
JP2005151292A (en)2003-11-182005-06-09Tdk CorpBone conduction speaker and glasses employing the same
JP4272040B2 (en)2003-11-282009-06-03京セラ株式会社 Mobile communication terminal
JP3958739B2 (en)2003-12-122007-08-15Necトーキン株式会社 Acoustic vibration generator
JP3965383B2 (en)2003-12-172007-08-29松下電器産業株式会社 Mobile terminal device
US7079876B2 (en)2003-12-232006-07-18Isaac LevyWireless telephone headset built into eyeglasses
CA2530194A1 (en)2003-12-262005-07-21Temco Japan Co., Ltd.Acoustic apparatus using bone-conduction speaker
CN1843019A (en)2004-01-162006-10-04株式会社坦姆科日本Portable telephone using bone conduction device
CA2535671A1 (en)2004-01-162005-07-28Temco Japan Co., Ltd.Portable telephone using bone conduction device
JP2005223717A (en)2004-02-062005-08-18Sharp Corp Audio amplifier
JP2005229324A (en)2004-02-132005-08-25Hiroshi FukamizuBone conduction speaker
US7443283B2 (en)2004-02-192008-10-28Massachusetts Institute Of TechnologyMethods and apparatus for connecting an intimate group by exchanging awareness cues and text, voice instant messages, and two-way voice communications
US7499686B2 (en)2004-02-242009-03-03Microsoft CorporationMethod and apparatus for multi-sensory speech enhancement on a mobile device
KR20070015126A (en)2004-03-052007-02-01가부시기가이샤 템코 재팬 Bone conduction device
KR100911595B1 (en)2004-03-092009-08-07호야 가부시키가이샤Method and system for obtaining mask blank information, method for providing mask blank information, method for supporting transfer mask manufacture and manufacturing transfer mask, and method for manufacturing and providing mask blank
WO2005091670A1 (en)2004-03-192005-09-29Temco Japan Co., Ltd.Bone conduction device unit, and portable telephone and headset using the same
CN1961563A (en)2004-03-312007-05-09株式会社坦姆科日本Talking device using bone conduction speaker
WO2005096664A1 (en)2004-03-312005-10-13Temco Japan Co., Ltd.Hybrid speaker and hybrid speaker unit
JP4073890B2 (en)2004-04-222008-04-09シャープ株式会社 Thin film circuit board, piezoelectric speaker device and display device including the same, and sound source built-in display device
US8526646B2 (en)2004-05-102013-09-03Peter V. BoesenCommunication device
JP2005328125A (en)2004-05-122005-11-24Nec Tokin CorpEarphone
JP2005340927A (en)2004-05-242005-12-08Toyota Industries CorpMobile radio receiver with self power generating function
JP2005348193A (en)2004-06-042005-12-15Nec Tokin CorpReceiver
JP2005352024A (en)2004-06-092005-12-22Murata Mfg Co LtdGlasses type interface device and security system
US20050276164A1 (en)2004-06-122005-12-15Scott AmronWatch adapted to rotate a displayed image so as to appear in a substantially constant upright orientation
JP2006005625A (en)2004-06-172006-01-05Nec Tokin CorpAcoustic vibration generating device
JP2006011591A (en)2004-06-232006-01-12Denso CorpIndividual authentication system
JP2006007919A (en)2004-06-242006-01-12Mazda Motor CorpOperating unit for vehicle
US7555136B2 (en)2004-06-252009-06-30Victorion Technology Co., Ltd.Nasal bone conduction wireless communication transmitting device
JP2006019812A (en)2004-06-302006-01-19Panasonic Mobile Communications Co Ltd Mobile phone and method for molding casing of mobile phone
US7734310B2 (en)2004-07-082010-06-08Panasonic CorporationMobile terminal device
TWI241831B (en)2004-07-282005-10-11Dbtel IncCaller identification device and method thereof
WO2006011604A1 (en)2004-07-302006-02-02Matsushita Electric Industrial Co., Ltd.Loudspeaker system, mobile terminal device, an electronic device
JP2006050056A (en)2004-08-022006-02-16Matsushita Electric Ind Co Ltd Foldable portable radio
JP2006051300A (en)2004-08-092006-02-23Tadao SatoMethod for observing biological blood flow
JP2006066972A (en)2004-08-242006-03-09Nec Tokin Corp Speaker device
JP2006067049A (en)2004-08-252006-03-09Nec Tokin Corp Composite speaker
KR100851089B1 (en)2004-08-272008-08-08빅토리온 테크놀러지 씨오., 엘티디. Nasal conduction wireless communication transmitter
CN1791283B (en)2004-12-162010-06-23致胜科技股份有限公司Nasal bone conduction hearing aid
KR100640891B1 (en)2004-09-022006-11-02엘지전자 주식회사 Wireless TV power on / off device and method
JP2006074671A (en)2004-09-062006-03-16Taiyo Yuden Co LtdHeadset
WO2006028045A1 (en)2004-09-072006-03-16Temco Japan Co., Ltd.Spectacle type communication device
JP2006086581A (en)2004-09-142006-03-30Nec Tokin CorpWireless communication function attached headset, wireless communication system, and computer program
JP4535819B2 (en)2004-09-242010-09-01Necアクセステクニカ株式会社 Drive circuit and portable device including the drive circuit
JP2006109326A (en)2004-10-082006-04-20Nec CorpSecurity system for portable terminal and security method therefor
US7283850B2 (en)2004-10-122007-10-16Microsoft CorporationMethod and apparatus for multi-sensory speech enhancement on a mobile device
JP2006115060A (en)2004-10-132006-04-27Makitekku:Kk Ear insertion type earphone
US7522065B2 (en)2004-10-152009-04-21Microsoft CorporationMethod and apparatus for proximity sensing in a portable electronic device
JP4267554B2 (en)2004-10-292009-05-27ホシデン株式会社 Display structure of electronic device and electronic device provided with the same
JP4462011B2 (en)2004-11-012010-05-12日本電気株式会社 Mobile terminal device with TV function and TV antenna / input pen
JP4541111B2 (en)2004-11-172010-09-08Necトーキン株式会社 Method of using bone conduction speaker and method of using bone conduction receiver
JP4188304B2 (en)2004-11-262008-11-26ホシデン株式会社 Piezoelectric actuator, flat panel speaker
JP2006155734A (en)2004-11-292006-06-15Kyocera Corp Portable device, portable device set, and disk drive device protection method
JP2006157318A (en)2004-11-292006-06-15Nec Tokin CorpBone conduction speaker unit
CN1617632A (en)2004-11-302005-05-18陈奚平Head acoustic device and sound track reproducing method
JP2006165702A (en)2004-12-022006-06-22Taiyo Yuden Co LtdPiezoelectric sounder and electronic apparatus
US20060158064A1 (en)2004-12-022006-07-20Kazuo AsakawaPiezoelectric sounding body and electronic device
JP4649971B2 (en)2004-12-082011-03-16日本電気株式会社 Headset and mobile communication system
JP2006166300A (en)2004-12-102006-06-22Ricoh Co Ltd Mobile terminal, communication system, audio silencing method, program, and recording medium in mobile terminal
FI20041625L (en)2004-12-172006-06-18Nokia Corp Method for converting an ear canal signal, ear canal converter and headphones
JP4355652B2 (en)2004-12-272009-11-04埼玉日本電気株式会社 Electronic equipment and dustproof structure
JP4266923B2 (en)2004-12-272009-05-27埼玉日本電気株式会社 Flat panel speaker mounting method, electronic device assembling method, gasket member, diaphragm, and flat panel speaker
JPWO2006075440A1 (en)2005-01-112008-06-12日本電気株式会社 Piezoelectric actuator and electronic device
JP2006197267A (en)2005-01-132006-07-27Toshiba Corp Bone conduction speaker built-in pillow
JP4715208B2 (en)2005-01-142011-07-06日本電気株式会社 Mobile phone
JP4558526B2 (en)2005-01-282010-10-06Necトーキン株式会社 Bone conduction speaker
KR20070119613A (en)2005-01-312007-12-20가부시키가이샤 아키타덴시시스테무즈 Bone conduction speaker sets, electronic devices, electronic translation systems, hearing support systems, navigation devices and mobile phones
JP2006217088A (en)2005-02-012006-08-17Sharp Corp Auditory transmission system
JP2006217321A (en)2005-02-042006-08-17Matsushita Electric Ind Co Ltd Headset and communication system
JP2006229647A (en)2005-02-182006-08-31Nec Tokin CorpAcoustic vibrator for bone conduction
SE528279C2 (en)2005-02-212006-10-10Entific Medical Systems Ab Vibrator for bone conductive hearing aid
JP4346567B2 (en)2005-02-212009-10-21シャープ株式会社 Portable information terminal
JP2006238072A (en)2005-02-252006-09-07Nec Tokin CorpAcoustic vibration generating piezoelectric bimorph element
JP2006245799A (en)2005-03-012006-09-14Nec Saitama LtdElectronic apparatus, and method of controlling alarm output and alarm output control program in apparatus
JP3798799B2 (en)2005-03-182006-07-19松下電器産業株式会社 Video phone equipment
DE502005003191D1 (en)2005-03-212008-04-24Delphi Tech Inc steering wheel assembly
KR100703402B1 (en)2005-03-242007-04-03삼성전자주식회사 Handheld terminal with camera lens module for shooting in multiple directions
JP2006283541A (en)2005-04-032006-10-19Kaiji SuzukiBacking member body of sticking finishing material and finishing construction method using backing member body of its sticking finishing material
JP2005341543A (en)2005-04-042005-12-08Noriyuki SugimotoPortable telephone set with power saving type automatic video recording function
US8448326B2 (en)2005-04-082013-05-28Microsoft CorporationMethod of manufacturing an accelerometer
JP2006295786A (en)2005-04-142006-10-26Matsushita Electric Ind Co Ltd Data transmission / reception system, data transmission method, and wireless communication terminal device
JP2006303618A (en)2005-04-152006-11-02Hosiden CorpSpeaker driving system
KR200389666Y1 (en)2005-04-292005-07-18박세준Bicycle having a charger
JP4308799B2 (en)2005-05-092009-08-05ホシデン株式会社 Piezoelectric actuator and flat panel speaker using the same
CN2800681Y (en)2005-05-162006-07-26郁令友Watch type blue tooth earphone structure
KR100633052B1 (en)2005-05-232006-10-12삼성전자주식회사 Magnetic field generating device for the hearing impaired in mobile communication terminal
KR100690767B1 (en)2005-05-242007-03-09엘지전자 주식회사 Mobile communication terminal
JP2006333058A (en)2005-05-262006-12-07Takao KanbeBone conduction mobile phone
JP2006339914A (en)2005-05-312006-12-14Sharp Corp Electronics
US8331603B2 (en)2005-06-032012-12-11Nokia CorporationHeadset
JP2006345025A (en)2005-06-072006-12-21Matsushita Electric Ind Co Ltd Telephone device and voice processing method thereof
US8028344B2 (en)2005-06-172011-10-04Artisent, Inc.Hinged attachment of headgear to a helmet
JP2007003702A (en)2005-06-222007-01-11Ntt Docomo Inc Noise removal apparatus, communication terminal, and noise removal method
JP2007006369A (en)2005-06-272007-01-11Pioneer Electronic CorpRemote controller and viewing system including the same
JP2007010518A (en)2005-06-302007-01-18Canon Inc Target substance detection method and detection apparatus using cantilever sensor
US7822215B2 (en)2005-07-072010-10-26Face International CorpBone-conduction hearing-aid transducer having improved frequency response
JP4548783B2 (en)2005-07-082010-09-22Necトーキン株式会社 headphone
JP2007019898A (en)2005-07-082007-01-25Toshiba Corp Mobile phone
JP2007020051A (en)2005-07-112007-01-25Hitachi Ltd Electronic equipment and sensor network system
US20070127757A2 (en)2005-07-182007-06-07Soundquest, Inc.Behind-The-Ear-Auditory Device
WO2007011846A2 (en)2005-07-182007-01-25Soundquest, Inc.In-ear auditory device and methods of using same
JP2007028469A (en)2005-07-212007-02-01Nec Tokin CorpAcoustic vibration generating element, manufacturing method thereof, and acoustic vibration generating apparatus
JP2007051395A (en)2005-08-182007-03-01Nippon Mmi Technology KkCommunication system for helmet
JP4072864B2 (en)2005-09-052008-04-09アイテック株式会社 Eyeglass frames for modern
JP4511437B2 (en)2005-09-092010-07-28Necトーキン株式会社 Piezoelectric device for generating acoustic signals
JP2007081276A (en)2005-09-162007-03-29Ariose Electronics Co Ltd Piezoelectric ceramic composite and piezoelectric actuator, piezoelectric wrapper, or piezoelectric buzzer composed thereof
JP4369976B2 (en)2005-09-202009-11-25株式会社テムコジャパン Bone conduction speaker holder and bone conduction speaker unit using the same
JP2007096386A (en)2005-09-272007-04-12Akita Denshi Systems:KkSpeaker
JP4683635B2 (en)2005-09-302011-05-18Necトーキン株式会社 Receiver
US11428937B2 (en)2005-10-072022-08-30Percept TechnologiesEnhanced optical and perceptual digital eyewear
JP2007104603A (en)2005-10-072007-04-19Sony CorpPortable sound driver
JP2007104548A (en)2005-10-072007-04-19Nec Tokin CorpEar receiving device
WO2007046269A1 (en)2005-10-172007-04-26Pioneer CorporationInformation presenting apparatus, information presenting method, information presenting program, and computer readable recording medium
JP2007133698A (en)2005-11-102007-05-31Sony Ericsson Mobilecommunications Japan IncPortable terminal
JP2007165938A (en)2005-11-182007-06-28Nec Tokin CorpEarphone device
JP2007142920A (en)2005-11-212007-06-07Hosiden CorpFlat panel speaker and electronic device using the same
US20070117594A1 (en)2005-11-222007-05-24Motorola, Inc.Method and system for selective deactivation of a main display
CN1984505A (en)2005-12-162007-06-20株式会社坦姆科日本Bone conduction receiver
JP2007180827A (en)2005-12-272007-07-12Citizen Electronics Co LtdPanel-type speaker
JP2007189578A (en)2006-01-162007-07-26Nec Tokin CorpReceiving device and portable telephone
JP2007214883A (en)2006-02-092007-08-23Nec Tokin CorpReceiving device
CN101022678A (en)2006-02-132007-08-22致胜科技股份有限公司Osteoacusis multi-sound channel device
JP2007228508A (en)2006-02-272007-09-06Nec Tokin CorpReceiver
JP4931907B2 (en)2006-02-272012-05-16パナソニック株式会社 Wearable terminal, portable image pickup and sound pickup apparatus, and apparatus, method, and program for realizing the same
WO2007099707A1 (en)2006-02-282007-09-07Temco Japan Co., Ltd.Glasses type sound/communication device
CN101536549B (en)2006-03-222013-04-24骨声通信有限公司Method and system for bone conduction sound propagation
JP4849319B2 (en)2006-03-312012-01-11株式会社国際電気通信基礎技術研究所 Magnetic resonance imaging device
US8469712B2 (en)2006-03-312013-06-25Research In MotionHandheld electronic device including indication of a selected data source, and associated method
JP2007281916A (en)2006-04-072007-10-25Nittetsu Elex Co LtdEarphone microphone
JP4761459B2 (en)2006-04-102011-08-31Necトーキン株式会社 Piezoelectric vibration unit and piezoelectric speaker
KR101128170B1 (en)2006-05-102012-03-23엘지전자 주식회사Portable terminal having acoustic transducer and the control method
JP3833243B1 (en)2006-05-152006-10-11真一 坂本 Incoming call notification method for mobile phones
WO2007133055A1 (en)2006-05-172007-11-22Sung-Ho KimBone conduction headset
JP2007307124A (en)2006-05-182007-11-29Azden CorpSpeech communication device used in mri system
JP4471958B2 (en)2006-06-152010-06-02ツインバード工業株式会社 Waterproof case
JP4771475B2 (en)2006-06-192011-09-14Necトーキン株式会社 Bone conduction speaker
JP2008000709A (en)2006-06-232008-01-10Mitsubishi Rayon Co Ltd Method for producing heteropolyacid catalyst for methacrylic acid production
JP4587991B2 (en)2006-07-072010-11-24株式会社エヌ・ティ・ティ・ドコモ Mobile phone
JP4861079B2 (en)2006-07-102012-01-25Necトーキン株式会社 Bone conduction receiver
KR20080009602A (en)2006-07-242008-01-29엘지전자 주식회사 Bone conduction audio transceiver and method
US20100222639A1 (en)2006-07-272010-09-02Cochlear LimitedHearing device having a non-occluding in the canal vibrating component
JP2008042324A (en)2006-08-022008-02-21Toyota Motor Corp Vibration generator and speaker device
JP4358846B2 (en)2006-08-152009-11-04株式会社エヌ・ティ・ティ・ドコモ Mobile terminal device and operation support method thereof
JP4553879B2 (en)2006-08-302010-09-29富士通株式会社 Electronics
US20090290730A1 (en)2006-09-072009-11-26Temco Japan Co., Ltd.Bone conduction speaker
KR100857877B1 (en)2006-09-142008-09-17유메디칼 주식회사 Pure sound hearing inspection device that can be closed
JP2008085417A (en)2006-09-262008-04-10Yamaha CorpSpeaker sound enhancing apparatus
JP2008092164A (en)2006-09-292008-04-17Sharp Corp Mobile device
JP2008092313A (en)2006-10-032008-04-17Kyocera Corp Bone conduction audio output device
KR100829811B1 (en)2006-11-062008-05-19주식회사 바이오사운드랩 Wireless headset detachable from glasses
JP2008124531A (en)2006-11-082008-05-29Nec Electronics CorpSemiconductor device and audio processor chip
JP2008121796A (en)2006-11-132008-05-29Jtekt Corp Hydraulically actuated clutch device and driving force transmission device using the clutch device as a clutch mechanism
US20080123893A1 (en)2006-11-272008-05-29Inter Brands Co.Eyeglass frame assembly
JP2008135991A (en)2006-11-282008-06-12Kyocera Corp Mobile phone and audio output control method
JP4899096B2 (en)2006-12-042012-03-21並木精密宝石株式会社 Mobile phone with bone conduction speaker
JP2008141687A (en)2006-12-052008-06-19Funai Electric Co LtdPortable terminal equipment
JP4281791B2 (en)2006-12-112009-06-17株式会社日立製作所 Information communication terminal system
US8006002B2 (en)2006-12-122011-08-23Apple Inc.Methods and systems for automatic configuration of peripherals
JP2008148086A (en)2006-12-122008-06-26Wecom Kenkyusho:KkCartilage conduction speaker
JP2008153783A (en)2006-12-142008-07-03Hitachi Ltd Wireless communication system and wireless terminal device
JP5401759B2 (en)2007-01-162014-01-29ソニー株式会社 Audio output device, audio output method, audio output system, and audio output processing program
JP4401396B2 (en)2007-01-162010-01-20株式会社エヌ・ティ・ティ・ドコモ Sound output device
JP4282721B2 (en)2007-01-312009-06-24株式会社東芝 Mobile terminal device
JP2008227806A (en)2007-03-122008-09-25Yamaha CorpBone conduction speaker system
JP2008227123A (en)2007-03-132008-09-25Seiko Epson Corp Method and apparatus for manufacturing piezoelectric vibrator
KR101353417B1 (en)2007-03-162014-01-22엘지전자 주식회사Portable terminal
JP2008229531A (en)2007-03-222008-10-02Citizen Electronics Co LtdDriving method of magnetic driving type plane vibrator
JP5034595B2 (en)2007-03-272012-09-26ソニー株式会社 Sound reproduction apparatus and sound reproduction method
US20080239061A1 (en)2007-03-302008-10-02Cok Ronald SFirst portable communication device
CN201035260Y (en)2007-04-022008-03-12严世熙 Glasses with integrated bone conduction technology
JP2008263383A (en)2007-04-112008-10-30Sony Ericsson Mobilecommunications Japan IncApparatus and method for canceling generated sound
US20100098269A1 (en)2008-10-162010-04-22Sonitus Medical, Inc.Systems and methods to provide communication, positioning and monitoring of user status
JP5010985B2 (en)2007-05-302012-08-29株式会社日立製作所 Sensor node
GB0710378D0 (en)2007-05-312007-07-11New Transducers LtdAudio apparatus
CN101321196A (en)2007-06-042008-12-10邓维波Connection type wireless earphone
JP2009010593A (en)2007-06-272009-01-15Yamaha CorpPortable communication terminal
US8238967B1 (en)2007-07-032012-08-07Kyocera CorporationControlling a wireless device with a wireless headset
US8340310B2 (en)2007-07-232012-12-25Asius Technologies, LlcDiaphonic acoustic transduction coupler and ear bud
JP2009022261A (en)2007-07-232009-02-05Masanori OkihiroGlobefish freezing tightening
JP2009044510A (en)2007-08-092009-02-26Ntt Docomo Inc Mobile device, server, and video playback method in mobile device
US8433080B2 (en)2007-08-222013-04-30Sonitus Medical, Inc.Bone conduction hearing device with open-ear microphone
PL2186205T3 (en)2007-08-272013-08-30Jb Scient LlcCommunication privacy mask
TW200913653A (en)2007-09-122009-03-16da-peng ZhengWatch-type body-temperature-charged interruption-free mobile phone device
JP2009077260A (en)2007-09-212009-04-09Pioneer Electronic CorpInformation processing apparatus, information processing method and the like
JP2009088942A (en)2007-09-282009-04-23Cosmo Gear KkEarphone apparatus
KR100954562B1 (en)2007-10-012010-04-22(주)디오컴 Multichannel headset
JP2009094986A (en)2007-10-122009-04-30Nec Tokin CorpTelephone receiver
JP2009111820A (en)2007-10-312009-05-21Nippon Mmi Technology KkBone conduction earphone
JP4882113B2 (en)2007-11-022012-02-22Necカシオモバイルコミュニケーションズ株式会社 Vibrator structure of casing and portable electronic device
JP2009118396A (en)2007-11-092009-05-28Nec Tokin CorpTransceiver apparatus
SG152939A1 (en)2007-11-222009-06-29Creative Tech LtdAn ear bud earphone with variable noise isolation, a cushion for an ear bud earphone and a corresponding method
US20090156186A1 (en)2007-12-122009-06-18Lyle Ruthie DMethod and system for managing contacts in a mobile communications device
JP2009147680A (en)2007-12-142009-07-02Yamatatsugumi:Kk Mobile phone
US20090158423A1 (en)2007-12-142009-06-18Symbol Technologies, Inc.Locking mobile device cradle
KR100922337B1 (en)2007-12-152009-10-21구연영 Earphones with rubber shocks
GB0725111D0 (en)2007-12-212008-01-30Wolfson Microelectronics PlcLower rate emulation
JP2009159577A (en)2007-12-252009-07-16Haruo MatsudaSolid sonic speaker system
JP5024035B2 (en)2007-12-272012-09-12コスモギア株式会社 PTT remote control device, hands-free call system, and hands-free call method
JP2009171249A (en)2008-01-162009-07-30Sony CorpSound collection device, recording device, and recording method
JP5526042B2 (en)2008-02-112014-06-18ボーン・トーン・コミュニケイションズ・リミテッド Acoustic system and method for providing sound
WO2009105115A2 (en)2008-02-222009-08-27T-Mobile Usa, Inc.Data exchange initiated by tapping devices
JP2009246954A (en)2008-02-222009-10-22Nec Tokin CorpEarphone device
JP5141696B2 (en)2008-02-222013-02-13日本電気株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
JP5019615B2 (en)2008-02-292012-09-05Necトーキン株式会社 Vibration generator
JP2009232443A (en)2008-02-292009-10-08Nec Tokin CorpReceiver
US20090226020A1 (en)2008-03-042009-09-10Sonitus Medical, Inc.Dental bone conduction hearing appliance
US8150075B2 (en)2008-03-042012-04-03Sonitus Medical, Inc.Dental bone conduction hearing appliance
EP2254345A4 (en)2008-03-172012-08-29Temco JapanBone conduction speaker and listening device using same
US8216287B2 (en)2008-03-312012-07-10Cochlear LimitedTangential force resistant coupling for a prosthetic device
JP2009260883A (en)2008-04-212009-11-05Three S Denki Seisakusho:KkEarphone for person with hearing loss
JP2009267616A (en)2008-04-232009-11-12Asahi Kasei Electronics Co LtdAcoustic transducer, and method of manufacturing the same
WO2009133873A1 (en)2008-04-302009-11-05Sato KenjiAcoustic device
WO2009136498A1 (en)2008-05-082009-11-12株式会社テムコジャパンVibration-proof supporting method and vibration-proof supporting structure for microphones
KR101039090B1 (en)2008-05-212011-06-20박의봉 Speaker device
JPWO2009141912A1 (en)2008-05-232011-09-29日本エムエムアイテクノロジー株式会社 Earphone device
CN101594161A (en)2008-05-292009-12-02株式会社威克姆研究所Bone conduction voice collector
JP3144392U (en)2008-06-162008-08-28真幸電機株式会社 Bone conduction device attached to headphones
JP5146147B2 (en)2008-06-252013-02-20コスモギア株式会社 Bone conduction microphone / speaker communication device
JP4631939B2 (en)2008-06-272011-02-16ソニー株式会社 Noise reducing voice reproducing apparatus and noise reducing voice reproducing method
JPWO2010005045A1 (en)2008-07-092012-01-05初則 廣重 Thin microphone and helmet with microphone
CN201216023Y (en)2008-07-182009-04-01航宇救生装备有限公司Bone conduction type earphone
JP5206234B2 (en)2008-08-272013-06-12富士通株式会社 Noise suppression device, mobile phone, noise suppression method, and computer program
AU2009287904B2 (en)2008-09-042015-02-12Temco Japan Co., Ltd.Ear muff-type headset for two-way communication
US8265329B2 (en)2008-09-052012-09-11Apple Inc.Compact housing for portable electronic device with internal speaker
JP2010068299A (en)2008-09-112010-03-25Yamaha CorpEarphone
CN101355823A (en)2008-09-182009-01-28陈奚平Insert earphone using bone conduction loudspeaker
KR101006207B1 (en)2008-09-252011-01-07김형호 Headset with noise blocking means
JP2010087810A (en)2008-09-302010-04-15Wecom Kenkyusho:KkEar canal type bone conduction receiver
JP5246695B2 (en)2008-10-032013-07-24リオン株式会社 Hearing aid
KR101014077B1 (en)2008-10-142011-02-10엘지이노텍 주식회사 Wireless headset
JP2010094799A (en)2008-10-172010-04-30Littleisland IncHumanoid robot
US8872775B2 (en)2008-10-272014-10-28Nec CorporationInformation processing apparatus
JP4680291B2 (en)2008-10-312011-05-11哲郎 渡邊 Multifunctional vibration generator
TW201018982A (en)2008-11-042010-05-16Neovictory Technology Co LtdSphenoid temporal bone conduction communication and/or hearing aid device
WO2010052720A1 (en)2008-11-102010-05-14Bone Tone Communications Ltd.An earpiece and a method for playing a stereo and a mono signal
JP2010124287A (en)2008-11-202010-06-03Sharp CorpCellular phone
US8301443B2 (en)2008-11-212012-10-30International Business Machines CorporationIdentifying and generating audio cohorts based on audio data input
CN101753221A (en)2008-11-282010-06-23新兴盛科技股份有限公司Butterfly temporal bone conduction communication and/or hearing aid device
TWI391880B (en)2008-12-052013-04-01Univ Chang Gung Wearable motion sensing device and method thereof
US8630425B2 (en)2008-12-122014-01-14Cisco Technology, Inc.Apparatus, system, and method for audio communications
JP2010147727A (en)2008-12-172010-07-01Scalar CorpMounting instrument for head-mounted display, head-mounted display, and endoscopic surgery system
JP5269618B2 (en)2009-01-052013-08-21株式会社オーディオテクニカ Bone conduction microphone built-in headset
US20100178957A1 (en)2009-01-132010-07-15Chao ChenMobile device having an impact resistant input
JP5228932B2 (en)2009-01-162013-07-03沖電気工業株式会社 SOUND SIGNAL ADJUSTMENT DEVICE, PROGRAM AND METHOD, AND TELEPHONE DEVICE
JP5409656B2 (en)2009-01-222014-02-05パナソニック株式会社 Hearing aid
US8290546B2 (en)2009-02-232012-10-16Apple Inc.Audio jack with included microphone
CN105717989B (en)2009-02-272020-02-21艾卡姆有限公司 Headset-based telecom platform
JP2010224665A (en)2009-03-192010-10-07Sony CorpLight-tactility conversion system, and method for providing tactile feedback
JP2010232755A (en)2009-03-262010-10-14Kddi Corp Hands-free communication device, directivity adjustment method, directivity adjustment program
JP5433280B2 (en)2009-04-072014-03-05日立オムロンターミナルソリューションズ株式会社 Information processing apparatus, portable terminal, and function control program
WO2010116510A1 (en)2009-04-092010-10-14日本エムエムアイテクノロジー株式会社Microphone device, and headset device
JP2010258701A (en)2009-04-232010-11-11Ntt Docomo Inc Communication terminal and volume level adjustment method
JP2010268336A (en)2009-05-182010-11-25Panasonic Corp Information terminal with touch panel
EP2438765A1 (en)2009-06-022012-04-11Koninklijke Philips Electronics N.V.Earphone arrangement and method of operation therefor
JP2010283541A (en)2009-06-032010-12-16Fujitsu Ltd Portable wireless communication device and control method thereof
JP5257262B2 (en)2009-06-182013-08-07富士通モバイルコミュニケーションズ株式会社 Mobile communication device
DE102009030070A1 (en)2009-06-222010-12-23Sennheiser Electronic Gmbh & Co. Kg Transport and / or storage containers for rechargeable wireless handset
JP2011008503A (en)2009-06-252011-01-13Denso Wave IncSecurity terminal equipment
JP2011010791A (en)2009-07-012011-01-20Infoscience CorpDevice for recognizing mastication condition
JP2011015193A (en)2009-07-022011-01-20Funai Electric Co LtdVoice output device
JP5246455B2 (en)2009-07-092013-07-24日本電気株式会社 Event notification device, event notification method, program, and recording medium
JP5104820B2 (en)2009-07-102012-12-19株式会社島津製作所 Display device
JP5611550B2 (en)2009-07-132014-10-22シャープ株式会社 Mobile phone, mobile phone control method, and program
KR20090082879A (en)2009-07-132009-07-31허은 Bicycle direction indicator
KR20110006838A (en)2009-07-152011-01-21(주)본웨이브 Bone conduction vibrator
US20110169622A1 (en)2009-07-162011-07-14Patent Navigation Inc.Enhanced communication through vibration
JP2011035560A (en)2009-07-302011-02-17Fujitsu Toshiba Mobile Communications LtdLoudspeaker
US8948824B2 (en)2009-08-052015-02-03Apple Inc.Electronic devices with clips
AU2010288620B2 (en)2009-08-252014-10-09VusiongroupHigh efficiency regulated charge pump
JP5368911B2 (en)2009-08-272013-12-18京セラ株式会社 Electronics
JP5306944B2 (en)2009-08-312013-10-02日本写真印刷株式会社 Mounting structure of speaker touch panel
US9107466B2 (en)2009-08-312015-08-18Rawlings Sporting Goods Company, Inc.Batting helmet having localized impact protection
CN102483665B (en)2009-08-312014-12-10日本写真印刷株式会社Mount structure of touch panel with vibrating function
TWI554076B (en)2009-09-042016-10-11普露諾洛股份有限公司Remote phone manager
JP2011059376A (en)2009-09-102011-03-24Pioneer Electronic CorpHeadphone with noise reduction device
JP2011087142A (en)2009-10-152011-04-28Prefectural Univ Of HiroshimaStick type bone conduction hearing aid
US8831934B2 (en)2009-10-272014-09-09Phonak AgSpeech enhancement method and system
JP5434521B2 (en)2009-11-252014-03-05株式会社Jvcケンウッド headphone
US20110143769A1 (en)2009-12-162011-06-16Microsoft CorporationDual display mobile communication device
JP5531605B2 (en)2009-12-212014-06-25明子 中谷 Bone conduction speaker and bone conduction headphone device
JP5407848B2 (en)2009-12-252014-02-05富士通株式会社 Microphone directivity control device
EP2629551B1 (en)2009-12-292014-11-19GN Resound A/SBinaural hearing aid
TW201123815A (en)2009-12-312011-07-01C Media Electronics IncMethod for providing background sound to communication device and system applying the method
US20110180542A1 (en)2010-01-222011-07-28Ryan DrollingerMethods for reducing fluid loss in fluid-bearing systems
JP2011223556A (en)2010-03-252011-11-04Kyocera CorpPortable terminal device
JP5382204B2 (en)2010-03-302014-01-08富士通株式会社 Telephone and voice adjustment method for telephone
JP2011212167A (en)2010-03-312011-10-27Japan Health Science FoundationTransducer for inputting biological information, biological information transmitter, biological information monitoring device and biological information monitoring system
JP5650431B2 (en)2010-04-142015-01-07ラピスセミコンダクタ株式会社 Charge pump type boosting circuit and boosting method
JP5465076B2 (en)2010-04-232014-04-09京セラ株式会社 Mobile terminal device
US20110263200A1 (en)2010-04-262011-10-27Sony Ericsson Mobile Communications AbVibrating motor disposed external to electronic device
KR20110121012A (en)2010-04-302011-11-07이동원 Hearing loss prevention headset
JP4843721B2 (en)2010-04-302011-12-21株式会社東芝 Television apparatus, electronic device, and swing support mechanism
KR101688139B1 (en)2010-05-142016-12-20엘지전자 주식회사 Mobile terminal
US20110316289A1 (en)2010-05-242011-12-29Gregory TrimarcheBicycle with a flywheel accessory for generating electrical power
CN102065357B (en)2010-05-252014-06-04瑞声声学科技(深圳)有限公司Electromagnetic loudspeaker
US8515089B2 (en)2010-06-042013-08-20Apple Inc.Active noise cancellation decisions in a portable audio device
US9099077B2 (en)2010-06-042015-08-04Apple Inc.Active noise cancellation decisions using a degraded reference
WO2011159349A1 (en)2010-06-142011-12-22Audiotoniq, Inc.Hearing aid system
US8761421B2 (en)2011-01-142014-06-24Audiotoniq, Inc.Portable electronic device and computer-readable medium for remote hearing aid profile storage
US9167339B2 (en)2010-07-072015-10-20Iii Holdings 4, LlcHearing damage limiting headphones
US20120010735A1 (en)2010-07-092012-01-12Eyal GilboaEarpiece attaching system and method
JP5655683B2 (en)2010-07-152015-01-21ヤマハ株式会社 Electrostatic speaker and method of manufacturing electrostatic speaker
JP5685771B2 (en)2010-07-202015-03-18株式会社Wecom研究所 Ear hole type bone conduction receiver that can also be used as an earphone for healthy people
JP2012034064A (en)2010-07-282012-02-16Kyocera CorpPortable electronic apparatus
CA2807808A1 (en)2010-08-092012-02-16#3248362 Nova Scotia LimitedPersonal listening device
KR20120015209A (en)2010-08-112012-02-21나상일 Helmet type audio output device using vibration unit
CN201845183U (en)2010-09-032011-05-25康佳集团股份有限公司Wireless wrist watch matched with mobile phone for use
JP4880059B1 (en)2010-09-242012-02-22西日本高速道路メンテナンス関西株式会社 Headphone for helmet and helmet having the headphone
US8515110B2 (en)2010-09-302013-08-20Audiotoniq, Inc.Hearing aid with automatic mode change capabilities
JP2012109663A (en)2010-11-152012-06-07Sharp CorpBone conduction transmitting/receiving apparatus
US10687150B2 (en)2010-11-232020-06-16Audiotoniq, Inc.Battery life monitor system and method
US8816536B2 (en)2010-11-242014-08-26Georgia-Pacific Consumer Products LpApparatus and method for wirelessly powered dispensing
JP2013128161A (en)2011-12-162013-06-27Hitachi Media Electoronics Co LtdModule used for mobile communication terminal and mobile communication terminal
US9313306B2 (en)2010-12-272016-04-12Rohm Co., Ltd.Mobile telephone cartilage conduction unit for making contact with the ear cartilage
JP5215377B2 (en)2010-12-272013-06-19裕司 細井 mobile phone
US8521239B2 (en)2010-12-272013-08-27Rohm Co., Ltd.Mobile telephone
US8918149B2 (en)2010-12-272014-12-23Rohm Co., Ltd.Mobile telephone
JP5837368B2 (en)2011-09-022015-12-24株式会社ファインウェル mobile phone
JP5663735B2 (en)2011-02-142015-02-04株式会社ファインウェル Mobile phone, mobile phone system, and transmission / reception unit
JP6282025B2 (en)2011-10-032018-02-21株式会社ファインウェル mobile phone
KR101604521B1 (en)2010-12-272016-03-17로무 가부시키가이샤Transmitter/receiver unit and receiver unit
JP2012142679A (en)2010-12-282012-07-26Sanyo Electric Co LtdVideo telephone apparatus
CN102161202B (en)*2010-12-312012-11-14中国科学院深圳先进技术研究院Full-view monitoring robot system and monitoring robot
US9218735B2 (en)2011-01-062015-12-22Koninklijke Philips N.V.Wireless patient monitoring system and method for monitoring the physiological status of a patient having a network access point
US8525868B2 (en)2011-01-132013-09-03Qualcomm IncorporatedVariable beamforming with a mobile platform
JP5648490B2 (en)2011-01-192015-01-07凸版印刷株式会社 Anti-counterfeit label
US9152130B2 (en)2011-01-192015-10-06Ph Technical Labs, LlcMobile communication watch utilizing projected directional sound
JP2012156781A (en)2011-01-262012-08-16Nec Casio Mobile Communications LtdPortable communication terminal
CN102075633B (en)2011-02-112013-11-06华为终端有限公司Information prompt method and mobile terminal
WO2012114772A1 (en)2011-02-242012-08-30京セラ株式会社Electronic device
JP5783352B2 (en)2011-02-252015-09-24株式会社ファインウェル Conversation system, conversation system ring, mobile phone ring, ring-type mobile phone, and voice listening method
JP2012182553A (en)2011-02-282012-09-20Toshiba CorpReproduction device, audio data correction device, and reproduction method
JP5742340B2 (en)2011-03-182015-07-01ソニー株式会社 Mastication detection device and mastication detection method
US20120253236A1 (en)2011-04-042012-10-04Snow Buddy LMethods and apparatuses for delivering external therapeutic stimulation to animals and humans
US20120283746A1 (en)*2011-05-022012-11-08Hstar TechnologiesMobile Medical Robotic System
JP5482730B2 (en)2011-05-232014-05-07株式会社Jvcケンウッド Hanger hanger, earphone, and method of manufacturing earphone
JP2012249097A (en)2011-05-272012-12-13Kyocera CorpSpeech output device
JP5689751B2 (en)2011-06-092015-03-25Kddi株式会社 Mobile terminal device
US20130133424A1 (en)*2011-06-102013-05-30AliphcomSystem-based motion detection
JP2013005212A (en)2011-06-162013-01-07Kddi CorpPortable terminal device
TW201304562A (en)2011-07-082013-01-16Pi-Fen LinWireless headset with touch pen
US9020168B2 (en)2011-08-302015-04-28Nokia CorporationApparatus and method for audio delivery with different sound conduction transducers
JP5838676B2 (en)2011-09-122016-01-06セイコーエプソン株式会社 Arm-mounted electronic device and control method thereof
JP5918660B2 (en)2011-09-132016-05-18Kddi株式会社 Audio transmission device
JP5676003B2 (en)2011-09-302015-02-25京セラ株式会社 Portable electronic devices
US8631357B2 (en)2011-10-312014-01-14Apple Inc.Dual function scroll wheel input
JP2013105272A (en)2011-11-112013-05-30Canon IncDisplay control device and method, program, and storage medium
JP2013115638A (en)2011-11-292013-06-10Sanyo Electric Co LtdTelevision telephone device
JP2013115800A (en)2011-12-012013-06-10Goldendance Co LtdEar-hooked hearing aid
JP5464674B2 (en)2011-12-202014-04-09Necインフロンティア株式会社 Proximity sensor false detection prevention method, false detection prevention device, false detection prevention program, and terminal including false detection prevention device
JP2013128896A (en)2011-12-222013-07-04Kddi Corp Vibration device
US20130177188A1 (en)2012-01-062013-07-11Audiotoniq, Inc.System and method for remote hearing aid adjustment and hearing testing by a hearing health professional
US9208146B2 (en)2012-01-172015-12-08Sin El GimSystem for providing universal communication that employs a dictionary database
JP6284704B2 (en)2012-12-072018-02-28株式会社ファインウェル How to use stereo earphones and earphones
TWI660618B (en)2012-01-202019-05-21日商精良股份有限公司 Mobile phone
JP2014229991A (en)2013-05-202014-12-08裕司 細井Earphone
JP5901374B2 (en)2012-03-222016-04-06株式会社ファインウェル mobile phone
JP5590345B2 (en)2012-02-012014-09-17シャープ株式会社 Input/output device, input/output method, and input/output program
JP2013168775A (en)2012-02-152013-08-29Nec Saitama LtdMobile phone
JP5822396B2 (en)2012-03-232015-11-24シャープ株式会社 Mobile phone device and control method
WO2013145740A1 (en)2012-03-292013-10-03京セラ株式会社Electronic apparatus, panel unit, and unit for electronic apparatus
WO2013145739A1 (en)2012-03-292013-10-03京セラ株式会社Electronic apparatus and panel unit
TW201342313A (en)2012-04-102013-10-16Nat Univ Tsing HuaVoice recognition nursing method and system thereof
JP5738797B2 (en)2012-04-232015-06-24京セラ株式会社 Portable terminal device, program, and sound output control method
JP5973218B2 (en)2012-04-262016-08-23京セラ株式会社 Electronics
US9998836B2 (en)2012-05-012018-06-12Kyocera CorporationElectronic device, control method, and control program
JP6017828B2 (en)2012-05-022016-11-02京セラ株式会社 Electronic device, control method, and control program
JP5886126B2 (en)2012-05-022016-03-16リオン株式会社 Earphone and listening device using it
JP5108161B1 (en)2012-05-072012-12-26勝男 人見 Safety confirmation system for singles
JP5995519B2 (en)2012-05-142016-09-21京セラ株式会社 Electronics
JP5972042B2 (en)2012-05-162016-08-17京セラ株式会社 Electronics
JP5952092B2 (en)2012-05-292016-07-13京セラ株式会社 Electronics
CN202652216U (en)2012-06-272013-01-02中国移动通信集团公司 short range wireless communication device
TWI724317B (en)2012-06-292021-04-11日商精良股份有限公司 Headphones and stereo headphones
WO2014020877A1 (en)2012-07-302014-02-06京セラ株式会社Electronic apparatus
JP5806178B2 (en)2012-07-312015-11-10京セラ株式会社 Ear part for vibration detection, head model for vibration detection, measuring apparatus and measuring method
KR101358881B1 (en)2012-09-212014-02-06주식회사 라비오텍 Bone conduction pillow with sleep function and sleep guide function
US9288584B2 (en)2012-09-252016-03-15Gn Resound A/SHearing aid for providing phone signals
US9351090B2 (en)2012-10-022016-05-24Sony CorporationMethod of checking earphone wearing state
JP6091842B2 (en)2012-10-292017-03-08株式会社システムクラフト Resident monitoring device, resident monitoring program and resident monitoring method
TWM452360U (en)2012-11-022013-05-01Univ Southern Taiwan Sci & TecHearing disorder people feel watch
CN203039851U (en)2012-11-082013-07-03长春芬达电子有限公司Bone conduction hearing aid earphone
US10159296B2 (en)2013-01-182018-12-25Riddell, Inc.System and method for custom forming a protective helmet for a customer's head
US9055366B2 (en)2013-01-222015-06-09Apple Inc.Multi-driver earbud
JP6030479B2 (en)2013-02-262016-11-24Kddi株式会社 Audio output device
JP5941427B2 (en)2013-03-282016-06-29ビッグローブ株式会社 Information processing apparatus, wearing state detection method, and program
US20140305714A1 (en)2013-04-162014-10-16Ming-Chang HuangApparatus for powering a movable carrier
CN203181220U (en)2013-04-252013-09-04中国人民解放军总医院Combination-glasses-type single-channel or double-channel piezoelectric ceramics bone conduction hearing aid
JP6240401B2 (en)2013-04-252017-11-29京セラ株式会社 Sound reproducing device and sound collecting type sound reproducing device
JP2014232905A (en)2013-05-282014-12-11リオン株式会社Earphone and hearing device using the same
WO2014208085A1 (en)2013-06-262014-12-31京セラ株式会社Measurement device and measurement system
KR102179812B1 (en)2013-07-182020-11-17엘지전자 주식회사Watch type mobile terminal
JP6275449B2 (en)2013-10-312018-02-07株式会社ファインウェル Transmitter / receiver, name tag, and contactless IC card
JP6262474B2 (en)2013-09-092018-01-17株式会社ファインウェル Stereo earphone
JP2015061285A (en)2013-09-202015-03-30株式会社ファインウェルCall transmission/reception device and call transmission/reception method
JP6356488B2 (en)2014-05-232018-07-11株式会社ファインウェル Mobile phone, mobile phone usage method and usage media
CN108551507A (en)2013-08-232018-09-18罗姆股份有限公司Exhalation/incoming call communication, receiver, earphone, business card, non-contact IC card, mobile phone and its application method
US9532135B2 (en)2013-09-032016-12-27Temco Japan Co., LtdBone conduction speaker unit
US11412334B2 (en)2013-10-232022-08-09Cochlear LimitedContralateral sound capture with respect to stimulation energy source
EP3062491B1 (en)2013-10-242019-02-20FINEWELL Co., Ltd.Bracelet-type transmission/reception device and bracelet-type notification device
JP6298641B2 (en)2014-01-232018-03-20株式会社ファインウェル Notification device
JP6315434B2 (en)2013-10-242018-04-25株式会社ファインウェル Transmitter / receiver
JP6515392B2 (en)2013-10-292019-05-22ゴールデンダンス株式会社 Voice vibration generator
JP6228994B2 (en)2014-01-302017-11-08京セラ株式会社 Piezoelectric element and piezoelectric vibration device including the same, portable terminal, sound generator, sound generator, electronic device
CN105979855B (en)2014-02-112019-05-28苹果公司 Detect limbs wearing wearable electronics
US10827268B2 (en)2014-02-112020-11-03Apple Inc.Detecting an installation position of a wearable electronic device
US9565285B2 (en)2014-02-202017-02-07Apple Inc.Cellular network communications wireless headset and mobile device
CA2947885A1 (en)2014-05-082015-11-12Bell Sports, Inc.Expanded field of view for full-face motorcycle helmet
SG10201402803RA (en)*2014-06-022016-01-28Yizhong ZhangA mobile automatic massage apparatus
CN104076929B (en)*2014-07-212017-04-12谷逍驰Hand action acquisition device provided with force feedback and realizing by utilizing mechanical structure
US10817056B2 (en)*2014-07-212020-10-27Shenzhen Dexta Robotics Co. Ltd.Hand exoskeleton force feedback system
US9471102B2 (en)2014-08-282016-10-18Pebble Technology, Corp.Connection by securing device with integrated circuitry layer
US20160058091A1 (en)2014-08-282016-03-03Sony CorporationMounting device and imaging device
CN107113481B (en)2014-12-182019-06-28株式会社精好 Cartilage conduction hearing device using electromagnetic vibration unit and electromagnetic vibration unit
US9552707B1 (en)2015-01-122017-01-24Shantanu BalaWearable device that indicates the passage of time as a tactile sensation moving across the surface of a person's skin
US9367087B1 (en)2015-03-032016-06-14Pebble Technology Corp.Securing device for connecting to a display device
JP3200747U (en)2015-06-192015-11-05株式会社システック Disaster prevention helmet
WO2017005199A1 (en)*2015-07-072017-01-12Origami Group LimitedWrist and finger communication device
JP6551929B2 (en)2015-09-162019-07-31株式会社ファインウェル Watch with earpiece function
CN108351524A (en)2015-12-102018-07-31英特尔公司For vibrating the system for carrying out voice capture and generation via nose
US10778824B2 (en)2016-01-192020-09-15Finewell Co., Ltd.Pen-type handset

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2001287183A (en)*2000-01-312001-10-16Matsushita Electric Works LtdAutomatic conveyance robot
JP2002036158A (en)*2000-07-272002-02-05Yamaha Motor Co LtdElectronic appliance having autonomous function
JP2002041411A (en)*2000-07-282002-02-08Nippon Telegr & Teleph Corp <Ntt> Text-to-speech robot, control method thereof, and recording medium storing text-to-speech robot control program
JP2006007342A (en)*2004-06-232006-01-12Mitsubishi Heavy Ind LtdRobot control program updating method and system
JP2008006558A (en)*2006-06-302008-01-17Shinano Kenshi Co LtdPower assist device
JP2008149427A (en)*2006-12-192008-07-03Mitsubishi Heavy Ind LtdMethod of acquiring information necessary for service of moving object by robot, and the object movement service system by the robot
JP2009166213A (en)*2008-01-182009-07-30Toyota Motor Corp Robot and robot control method
JP2010207963A (en)*2009-03-102010-09-24Nippon Telegr & Teleph Corp <Ntt>Attached device of robot hand
JP2013255212A (en)*2011-09-132013-12-19Kddi CorpTelephone call device
JP2013255091A (en)*2012-06-072013-12-19Kyocera CorpAcoustic transmission device
JP2014003488A (en)*2012-06-192014-01-09Kyocera CorpAcoustic transmission device
JP2015084801A (en)*2013-10-282015-05-07俊道 妻木Motion assisting device

Also Published As

Publication numberPublication date
EP3323567A4 (en)2019-04-03
KR102056550B1 (en)2019-12-16
CN107848125A (en)2018-03-27
HK1255537A1 (en)2019-08-23
EP3323567A1 (en)2018-05-23
KR20180017128A (en)2018-02-20
EP3323567B1 (en)2020-02-12
CN107848125B (en)2021-04-27
TWI631983B (en)2018-08-11
US20190381672A1 (en)2019-12-19
US10967521B2 (en)2021-04-06
TW201707759A (en)2017-03-01

Similar Documents

PublicationPublication DateTitle
US20210185458A1 (en)Health monitoring with ear-wearable devices and accessory devices
JP6760267B2 (en) Information processing equipment, control methods, and programs
JP6551919B2 (en) Watch system, watch detection device and watch notification device
US9838771B1 (en)In-ear utility device having a humidity sensor
US20130343585A1 (en)Multisensor hearing assist device for health
JP2013013540A (en)Auricle-installed apparatus
US12374335B2 (en)Local artificial intelligence assistant system with ear-wearable device
WO2017010547A1 (en)Robot and robot system
CN105376414B (en) A method and device for reminding users
US11716580B2 (en)Health monitoring with ear-wearable devices and accessory devices
KR20170076527A (en)Apparatus and method for supporting telephone conversation based on heterogeneous wearable devices
WO2017205558A1 (en)In-ear utility device having dual microphones
US11107343B2 (en)System and method of user mobility monitoring
JP6982906B2 (en) Listening system and robot used for listening system
JP6667172B2 (en) robot
JP6783451B2 (en) Listening system and robots used in listening system
US20230292064A1 (en)Audio processing using ear-wearable device and wearable vision device
JP7448922B2 (en) conversation aid
HK1255537B (en)Robot and robot system
KR102507322B1 (en)Self-fitting hearing aid system using the user&#39;s terminal and fitting method using the same
US20240393603A1 (en)Eyeglass hearing device with biosensors
JP7074343B2 (en) Information processing equipment
KR20230023838A (en)Self-fitting hearing aid system having the cradle and fitting method using the same

Legal Events

DateCodeTitleDescription
121Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number:16824527

Country of ref document:EP

Kind code of ref document:A1

ENPEntry into the national phase

Ref document number:20187000808

Country of ref document:KR

Kind code of ref document:A

NENPNon-entry into the national phase

Ref country code:DE

WWEWipo information: entry into national phase

Ref document number:2016824527

Country of ref document:EP


[8]ページ先頭

©2009-2025 Movatter.jp