Movatterモバイル変換


[0]ホーム

URL:


JP4653822B2 - Dental care support system based on image recognition - Google Patents

Dental care support system based on image recognition
Download PDF

Info

Publication number
JP4653822B2
JP4653822B2JP2008144017AJP2008144017AJP4653822B2JP 4653822 B2JP4653822 B2JP 4653822B2JP 2008144017 AJP2008144017 AJP 2008144017AJP 2008144017 AJP2008144017 AJP 2008144017AJP 4653822 B2JP4653822 B2JP 4653822B2
Authority
JP
Japan
Prior art keywords
patient
operator
image
surgeon
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008144017A
Other languages
Japanese (ja)
Other versions
JP2008200539A (en
Inventor
文夫 大林
剛 友江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co LtdfiledCriticalYoshida Dental Mfg Co Ltd
Priority to JP2008144017ApriorityCriticalpatent/JP4653822B2/en
Publication of JP2008200539ApublicationCriticalpatent/JP2008200539A/en
Application grantedgrantedCritical
Publication of JP4653822B2publicationCriticalpatent/JP4653822B2/en
Anticipated expirationlegal-statusCritical
Expired - Fee Relatedlegal-statusCriticalCurrent

Links

Images

Landscapes

Description

Translated fromJapanese

本発明は、歯科診療支援システムに関し、詳しくは、歯科診療エリアの診療ユニット、患者、術者の配置・位置を画像認識することにより、歯科診療ユニットの各部及び装置を最適ポジションに自動配置して診療行為を支援するシステムに関する。  The present invention relates to a dental care support system, and more particularly, by automatically recognizing the placement and position of a medical unit, a patient, and a surgeon in a dental care area, the respective parts and devices of the dental care unit are automatically arranged at an optimum position. The present invention relates to a system that supports medical practice.

歯科診療においては、患者の導入時や診察時には、診療ユニットのテーブルやチェアーの移動を術者がその都度行っていた。また、術者が診療位置にテーブルをセットする際に、あらかじめ診療しやすい位置を歯科診療ユニットの可動機構に記憶させておき、手動で動作方向に押すと所定位置まで移動させるユニットや、可動機構に駆動部を備え、スイッチの操作により診療位置まで移動させる自動機構付の診療ユニットがあるが、これらの自動セット機構では歯科診療ユニットの可動機構に駆動装置と共に、位置検出センサーを備えて動作を制御する必要があるため、信号機構が複雑となっていた。  In dental practice, the surgeon moves the table and chair of the medical unit each time a patient is introduced or examined. In addition, when the operator sets the table at the medical position, a position that allows easy medical treatment is stored in advance in the movable mechanism of the dental medical unit, and the unit can be moved to a predetermined position when manually pressed in the operation direction. There is a medical unit with an automatic mechanism that moves to the medical position by operating the switch.In these automatic setting mechanisms, the movable mechanism of the dental medical unit is equipped with a drive and a position detection sensor. The signal mechanism is complicated because it needs to be controlled.

テーブル等の歯科診療器具保持手段を治療に適した位置に自動的に移動させる従来の装置は、術者(ドクターまたは歯科衛生士)用椅子の位置に対応させて予め記憶手段に記憶させた診療位置に対応させた最適位置まで移動させる構成となっている(例えば、特許文献1参照)。  A conventional device that automatically moves a dental instrument holding means such as a table to a position suitable for treatment is a medical device stored in advance in a storage means corresponding to the position of a chair for an operator (doctor or dental hygienist). It is configured to move to an optimum position corresponding to the position (see, for example, Patent Document 1).

特開2000−166995号公報Japanese Patent Laid-Open No. 2000-166995

しかしながら、従来の装置では、患者導入時には、診療ユニットの各部(テーブルなど)を患者が着座するための移動の際に接触しない位置まで移動させる必要があった。また、自動セット機構のスイッチで、予め記憶させた最適診療位置までテーブルを移動させる方法では、術者の診療位置にずれがあっても自動修正ができないため、手動で修正を行う必要があった。  However, in the conventional apparatus, when the patient is introduced, it is necessary to move each part (table or the like) of the medical unit to a position where it does not come into contact when the patient is seated. In addition, in the method of moving the table to the optimal medical position stored in advance with the switch of the automatic setting mechanism, automatic correction is not possible even if there is a deviation in the medical position of the operator, so it was necessary to perform correction manually .

また、診療時のテーブルの設定位置は、術者がドクターチェアに着座した状態で肘を軽く曲げた高さに位置し、容易に手の届く距離にセットすることが望ましいが、術者の体型(背の高さ、手の長さなどの体格)によって最適なテーブル設定位置に大きな違いが発生する。このため、術者用椅子からの距離だけでテーブルの設定位置を判断して移動させても再度手動で調整する手間がかかる問題があった。しかも、複数の術者(ドクター、歯科衛生士)が同一診療ユニットに対して交代する場合、術者の体型個人差のために必ず調整しなければならない煩雑さがあった。  In addition, it is desirable to set the table at the time of medical treatment at the height where the elbow is lightly bent while the operator is seated on the doctor chair, and it should be set at a distance that can be easily reached. Depending on (physique such as height and hand length), there will be a big difference in the optimal table setting position. For this reason, there is a problem that it takes time and effort to manually adjust again even if the setting position of the table is determined and moved only by the distance from the operator chair. In addition, when a plurality of surgeons (doctors, dental hygienists) are changed with respect to the same medical care unit, there is a trouble that must be adjusted due to individual differences in the body shape of the surgeon.

また、これらの歯科ユニットの各部分を自動移動させる際に、移動する部分が患者や術者に接触する恐れがあるため、スイッチ操作の都度、衝突事故が起きないか確認し、監視していなければならなかった。  Also, when automatically moving each part of these dental units, the moving part may come into contact with the patient or the operator. I had to.

このような歯科診療ユニットの自動動作機構では、可動部分の制御のため、その制御信号伝達の配線が多くなり、可動部分の断線・誤動作、インスツルメントの誤作動などが発生しやすい。このため、可能な限り単純かつ安全な制御機構とすることが望まれていた。  In such an automatic operation mechanism of the dental care unit, control signal transmission wiring increases because of control of the movable part, and disconnection / malfunction of the movable part, malfunction of the instrument, etc. are likely to occur. For this reason, it has been desired to make the control mechanism as simple and safe as possible.

本発明は、このような従来の問題を考慮してなされたものであり、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識して、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させる画像認識による歯科診療支援システムを提供することを課題とする。  The present invention has been made in consideration of such conventional problems, and recognizes the position of each device of the dental care unit, the presence of the patient and the operator, and the position thereof in real time, and introduces and cares for the patient. It is an object of the present invention to provide a dental care support system based on image recognition that moves a predetermined device of a dental care unit to each optimum position in response to start and end of medical care.

また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い歯科診療行為を支援することを課題とする。  In addition, it is a challenge to support dental practice by automatically distinguishing the use of medical instruments (instruments, other instruments) selected by the surgeon and automatically locking and releasing hoses and winding them up. And

上記課題を達成するため、請求項1の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、術者の顔画像を記録した術者画像情報と、前記認識手段が術者の存在を認識したとき、前記カメラからの術者の顔画像と前記術者画像情報の顔画像とをパターンマッチングして術者識別を行う術者識別手段と、術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備え、前記認識手段は前記カメラからの画像を一定時間間隔で取得し、前後画像を比較して歯科診療ユニット周辺の背景を監視し、その差分画像から動的な変化を抽出し、前記動的な変化が術者が着座する治療ポジションエリアの周辺か否かを判別し、前記認識手段が治療ポジションエリア周辺と判別したとき、前記術者識別手段が前記術者識別を行うことを特徴とする。In order to achieve the above object, a dental care support system based on image recognition according to the first aspect of the present invention provides image information of a dental care unit including a medical chair on which a patient is seated and a medical care area in the vicinity of a doctor and an assistant's medical chair. One or a plurality of cameras to be acquired, the position of each device in the dental care unit and the presence of the patient and the operator, and the position of the operator in real time based on image information from the camera,and the operator's face image And when the recognition means recognizes the presence of the operator, the operator's face image from the camera and the face image of the operator image information are pattern-matched to identify the operator. position is movedand the operator identification means, the combined optimal position practice style of the operator that the operator identification means has identified the predetermined device in a dental treatment unitfor And a controlmeans, the recognition means acquires the image from the camera at predetermined time intervals, to monitor the background around the dental treatment unit compares the image before and after extracting the dynamic changes from the difference image Determining whether or not the dynamic change is around the treatment position area where the operator is seated, and when the recognition means determines that the treatment position area is around, the operator identification means performs the operator identification It is characterized by.

この発明によれば、歯科診療ユニットの可動可能な各装置がどのような位置・状態にセットされているかをリアルタイムに把握することができる。また、診療エリアをリアルタイムに認識することにより、患者、術者及び補助者の存在と位置から診療過程(患者導入、診療開始、診療終了等)を認識することができる。さらに、リアルタイムに認識した画像情報と、一定時間前に認識した画像情報との差分から診療ユニットの各部の移動、患者、術者の移動を認識する動作認識を可能とすることができる。これらの状態認識と動作認識とにより、従来では術者または補助者が行っていた歯科診療ユニットの操作作業を自動化して支援することができる。  According to the present invention, it is possible to grasp in real time what position and state each movable device of the dental care unit is set to. Further, by recognizing the medical treatment area in real time, the medical treatment process (patient introduction, medical treatment start, medical treatment end, etc.) can be recognized from the presence and position of the patient, the operator, and the assistant. Furthermore, it is possible to recognize the movement of each part of the medical treatment unit and the movement of the patient and the operator from the difference between the image information recognized in real time and the image information recognized a predetermined time ago. With these state recognition and motion recognition, it is possible to automate and support the operation operation of the dental care unit that has been performed by an operator or an assistant.

また、この発明では、患者が診療チェアーに着座し、術者が診療ポジションに位置したことを認識し、テーブル、アシスタントハンガー等を診療動作に最適な位置に移動させる操作を自動的に行うことができる。このため、術者は余分な作業に煩わされることなく、患者の観察、説明、対話に専念して診療行為に入ることができる。  Further, in the present invention, it is possible to recognize that the patient is seated in the medical chair and the operator is in the medical position, and to automatically move the table, assistant hanger, etc. to the optimal position for the medical operation. it can. For this reason, the surgeon can concentrate on the observation, explanation, and dialogue of the patient and enter the medical practice without being bothered by extra work.

さらに、この発明では、術者識別手段を備えることにより、診療ポジションの術者を識別し、予め記憶させておいた術者ごとの診療スタイルに合わせた最適な位置に、診療ユニットの各装置を移動させることができる。予め術者の顔画像と、その術者の診療スタイルに合わせたテーブルセット位置を記憶させておくことにより、複数の術者が診療する歯科診療所においても、術者ごとに最適な装置のポジションを自動的にセットすることができる。  Further, according to the present invention, by providing the operator identification means, each operator of the medical unit is placed at an optimal position in accordance with the medical style for each operator that has been stored in advance. Can be moved. By storing the face image of the surgeon in advance and the table set position that matches the surgeon's treatment style, the optimal device position for each surgeon can be obtained even in a dental clinic where multiple surgeons are treated. Can be set automatically.

請求項2の発明の画像認識による歯科診療支援システムは、患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、術者の顔画像を記録した術者画像情報と、患者の顔画像を記録した患者画像情報と、前記認識手段が術者の存在を認識したとき、前記カメラからの術者の顔画像と前記術者画像情報の顔画像とをパターンマッチングして術者識別を行う術者識別手段と、前記認識手段が患者の存在を認識したとき、前記カメラからの患者の顔画像と前記患者画像情報の顔画像とをパターンマッチングして患者識別を行う患者識別手段と、術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備え、前記認識手段は前記カメラからの画像を一定時間間隔で取得し、前後画像を比較して歯科診療ユニット周辺の背景を監視し、その差分画像から動的な変化を抽出し、前記動的な変化が術者が着座する治療ポジションエリアの周辺か否か及び患者が着座するチェアー周辺か否かを判別し、前記認識手段が治療ポジションエリア周辺と判別したとき、前記術者識別手段が前記術者識別を行い、前記認識手段が患者が着座するチェアー周辺と判別したとき、前記患者識別手段が前記患者識別を行うことを特徴とする。The dental care support system based on image recognition according to the invention of claim 2 is a dental care unit including a medical chair on which a patient is seated, and one or a plurality of image information of a medical care area in the vicinity of a medical chair of an operator and an assistant. Camera, recognition means for recognizing in real time the position of each device in the dental care unit and the presence of the patient and the operator and the position thereof based on the image information from the camera, andoperator image information recording the operator's face image Pattern matching between the patient image information in which the patient's face image is recorded and the operator's face image from the camera and the face image of the operator image information when the recognition means recognizes the presence of the operator. The operator identification means for performing the operator identification, and when the recognition means recognizes the presence of the patient, the patient face image from the camera and the face image of the patient image information are patterned. Patient recognition means for performing patient identification by matching, and position control means for moving a predetermined device in the dental care unit to an optimum position in accordance with the treatment style of the surgeon identified by the surgeon identification means, the recognition The means acquires images from the camera at regular time intervals, compares the front and back images, monitors the background around the dental care unit, extracts dynamic changes from the difference images, and the dynamic changes It is determined whether the patient is sitting around the treatment position area and whether the patient is sitting around the chair, and when the recognizing unit determines that the patient is sitting around the treatment position area, the operator identifying unit performs the operator identification. And when the recognition means discriminates the vicinity of the chair where the patient is seated, the patient identification means performs the patient identification.

この発明では、患者識別手段を備えることにより、患者個人を識別することができる。そして、診療チェアーに着座した患者個人を識別し、歯科診療管理サーバから患者の診療記録を読み出して表示することにより、治療経過の確認や、患者に対する診療内容の説明を行うことができる。  In the present invention, the patient individual can be identified by providing the patient identifying means. Then, by identifying the individual patient sitting on the medical chair and reading and displaying the patient's medical record from the dental medical management server, it is possible to check the treatment progress and explain the medical treatment contents for the patient.

本発明によれば、歯科診療ユニットの各装置の位置、患者および術者の存在とその位置をリアルタイムに認識し、患者の導入、診療開始、診療終了に対応して歯科診療ユニットの所定装置をそれぞれの最適位置に移動させることができる。このため、診療行為の流れをスムーズに効率よく行うことができる。特に、複雑な制御装置を歯科診療ユニットに設けることなく自動移動が可能となる。また、術者が選択した診療器具(インスツルメント類、その他の器具)の固体判別により、重複使用のロックや、ホースの送り出し、巻き取りを自動的に行い術者の歯科診療行為を支援することができる。  According to the present invention, the position of each device of the dental medical unit, the presence of the patient and the operator, and the position thereof are recognized in real time, and the predetermined device of the dental medical unit is set in response to the introduction of the patient, the start of medical treatment, and the end of the medical treatment. It can be moved to each optimum position. For this reason, the flow of medical treatment can be performed smoothly and efficiently. In particular, automatic movement is possible without providing a complicated control device in the dental care unit. In addition, based on the individual discrimination of the medical instruments (instruments, other instruments) selected by the surgeon, it automatically locks for duplicate use, sends out the hose, and winds up to support the surgeon's dental practice. be able to.

以下、本発明を図示する実施の形態につき具体的に説明する。図1は、本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。  DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be specifically described below. FIG. 1 is a block diagram showing a configuration of a dental care support system based on image recognition according to an embodiment of the present invention.

この実施の形態の画像認識による歯科診療支援システム100は、カメラ10と、診療ユニットまたはその近傍に患者から視認可能な位置に設けた表示装置11と、画像認識・制御コンピュータ20と、歯科診療ユニット動作制御装置30と、院内LAN40を介して接続された歯科診療管理サーバ50とから構成されている。  The dentalcare support system 100 based on image recognition according to this embodiment includes acamera 10, adisplay device 11 provided at a position visible from a patient in or near the medical unit, an image recognition / control computer 20, and a dental medical unit. The operation control device 30 and a dentalcare management server 50 connected via the in-hospital LAN 40 are included.

診療ユニット動作制御装置30には、診療チェア昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35が接続されることにより、これらの動作部が制御される。なお、画像認識・制御コンピュータ20及び診療ユニット動作制御装置30は診療ユニット1台ごとに備える構成を図示したが、複数の診療ユニットと接続して制御させる構成とすることも可能である。  Connected to the medical unit operation control device 30 are a medical chair raising / lowering / backboardtilting operation unit 31, a tablemovement operation unit 32, an instrumentcontrol operation unit 33, an assistant hangermovement operation unit 34, and a surgical lightmovement operation unit 35. As a result, these operation units are controlled. In addition, although the image recognition / control computer 20 and the medical unit operation control device 30 are illustrated to have a configuration provided for each medical unit, it may be configured to be connected to a plurality of medical units and controlled.

カメラ10は、外部接続ポート21に接続されることにより、撮影したデジタル画像を画像認識・制御コンピュータ20がリアルタイムで取得することを可能としている。この実施の形態では、下向きに設けられることにより診療エリアを水平視する第1のカメラ10aと、治療エリアを正面視する向きに設けた第2のカメラ10bと、診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとを備える。  Thecamera 10 is connected to theexternal connection port 21 to enable the image recognition / control computer 20 to acquire a captured digital image in real time. In the present embodiment, thefirst camera 10a that horizontally views the medical treatment area by being provided downward, thesecond camera 10b that is provided to face the treatment area in front, and the side surface of the medical treatment unit are viewed horizontally. And athird camera 10c provided at a position where it can be formed.

画像認識・制御コンピュータ20は、外部接続ポート21と、認識制御プログラムがインストールされた認識制御部22と、認識制御に必要な装置各部のポジション画像や、術者・患者の顔画像、術者ごとの最適ポジションを含む情報を記憶した記憶部23とから構成されている。  The image recognition / control computer 20 includes anexternal connection port 21, a recognition control unit 22 in which a recognition control program is installed, position images of each part necessary for recognition control, a surgeon / patient's face image, and a per-operator. And a storage unit 23 that stores information including the optimal position.

前記認識制御部22は、カメラから取得した画像情報から歯科診療ユニットの各部あるいは人物を識別する認識手段22aと、術者の個人識別を行う術者識別手段22bと、患者の個人識別を行う患者識別手段22cと、術者が使用しているインスツルメントを識別するインスツルメント判別手段22dと、診療段階を判断して最適ポジションに診療ユニットの各部を移動させるポジション制御手段22eと、患者個人識別に基づきその診療記録を表示装置(ディスプレイ)11に表示させる表示手段22fと、使用禁止器具の誤動作を制御するインスツルメントロック手段22gと、術者が使用中のインスツルメントホースを制御するインスツルメントホース制御手段22hと、記憶部23に術者や患者の顔画像情報を予め登録しておくための術者・患者画像記録手段22iと、術者個人の体格、好みに合わせた診療時の装置配置の画像、相対位置情報を記録する術者最適ポジション記録手段22jとを少なくとも備える。  The recognition control unit 22 includes arecognition unit 22a for identifying each part or person of a dental care unit from image information acquired from a camera, anoperator identification unit 22b for performing personal identification of an operator, and a patient for performing individual identification of a patient. An identification means 22c, an instrument discrimination means 22d for identifying the instrument used by the surgeon, a position control means 22e for judging the medical care stage and moving each part of the medical care unit to an optimal position, and individual patient Based on the identification, the display means 22f for displaying the medical record on the display device (display) 11, the instrument lock means 22g for controlling the malfunction of the use-prohibited instrument, and the instrument hose in use by the surgeon are controlled. The instrument hose control means 22h and the face image information of the operator and patient are registered in advance in the storage unit 23. Comprising a surgeon-patient image recording unit 22i of the surgeon personal physique, the image of the device placement during medical that liking, a surgeon optimum position recording means 22j for recording the relative position information at least.

また、前記記憶部23は、歯科診療ユニットの可動可能な各部について可動範囲画像を記録したユニット可動範囲画像情報23aと、術者画像情報23bと、患者画像情報23cと、最適ポジション情報23dとを備える。  Further, the storage unit 23 stores unit movablerange image information 23a in which a movable range image is recorded for each movable part of the dental care unit,surgeon image information 23b,patient image information 23c, andoptimum position information 23d. Prepare.

ユニット可動範囲画像情報23aは、チェアーの背板の可動範囲(傾き)、テーブルの可動範囲、アシスタントハンガーの可動範囲、チェアーの上下(昇降)、背板の傾き範囲のモデル画像情報(可動状態の位置を一定間隔ごとの画像とした位置パターン画像)を記録したもので、前記認識手段22aが取得した画像と、モデル画像情報とを比較(パターンマッチング)することにより各部の位置を把握するために用いる情報である。  The unit movablerange image information 23a includes model image information (movable state of the movable state (tilt), movable range (tilt) of the table, movable range of the table, movable range of the assistant hanger, up and down (up and down) of the chair, and tilt range of the back plate. In order to grasp the position of each part by comparing (pattern matching) the image acquired by the recognition means 22a with the model image information. Information to be used.

術者画像情報23bは、所属する術者の顔画像を記録したもので、前記術者認識手段22bが診療ポジションに着座した術者(ドクターや歯科衛生士)の顔画像と、登録された顔画像情報とを比較して術者個人認識を行うために用いる情報である。なお、治療ポジションエリアL内の顔画像であれば、立位診療を行う術者の顔画像の個人認識も可能である。  Thesurgeon image information 23b is a record of a facial image of the surgeon to which he belongs, and the facial image of the surgeon (doctor or dental hygienist) seated at the medical position by the surgeon recognition means 22b and the registered face. This is information used for performing individual recognition of the operator by comparing with image information. In addition, if it is a face image in the treatment position area L, personal recognition of the face image of the operator who performs standing medical treatment is also possible.

患者画像情報23cは、診療を受付けた患者の顔画像の記録であって、初診時にカメラで取得した患者の顔画像を歯科診療管理サーバ50に備え、院内LAN40を介して術者・患者画像記録手段22iにより登録しておく。また再診時には最新の顔画像に更新して記録することにより、診療ユニットに着座した患者の顔画像と、登録された患者顔画像とを比較し、患者識別手段22cが患者個人を識別するためのものである。  Thepatient image information 23c is a record of a face image of a patient who has received medical care. The patient's face image acquired by the camera at the first visit is provided in the dentalcare management server 50, and an operator / patient image record is recorded via the in-hospital LAN 40. It is registered by means 22i. In addition, by updating and recording the latest face image at the time of revisiting, the face image of the patient seated in the medical unit is compared with the registered patient face image, so that thepatient identifying means 22c identifies the individual patient. belongs to.

最適ポジション情報23dは、術者個人ごとの診療ポジションと、そのポジションに対応する歯科診療ユニットの各部の最適配置の画像または位置情報(パターン)を登録した情報である。この場合、術者の診療ポジションは、治療内容によって治療ポジションエリアLの範囲内で複数のポジションを採る場合がある。また、チェアー背板を倒し患者を完全水平にしたときの口腔位置を中心に何時の方向に術者が向いて診療行為を行うかにより、術者個人ごとにそれぞれのパターンの最適配置を登録しておく。  Theoptimal position information 23d is information in which a medical position for each individual operator and an image or position information (pattern) of the optimal arrangement of each part of the dental medical unit corresponding to the position are registered. In this case, the operator's medical position may take a plurality of positions within the range of the treatment position area L depending on the treatment content. In addition, the optimal arrangement of each pattern is registered for each individual operator depending on the direction in which the surgeon faces the center of the oral cavity when the chair backboard is tilted and the patient is completely leveled. Keep it.

図2は、カメラの配置を示す正面図である。図に示すように、歯科診療ユニット1は、患者を着座させ背板17aを倒すことにより口腔の診療を行うチェアー17、このチェアー17の昇降や診療器具の動作制御を行うフットペダル18、チェアー17と共に昇降するように支持された診療器具を載置するテーブル13、テーブル13の下部に取り付けられたインスツルメントハンガー15、このハンガー15に保持されたインスツルメント16、インスツルメントホース16a、表示装置11、無影灯12などから構成されている。  FIG. 2 is a front view showing the arrangement of the cameras. As shown in the figure, the dental care unit 1 is achair 17 for performing oral care by seating a patient and tilting theback plate 17a, afoot pedal 18 for raising and lowering thechair 17 and controlling the operation of the medical instrument, and a chair 17 A table 13 for placing a medical instrument supported so as to move up and down, aninstrument hanger 15 attached to the lower part of the table 13, aninstrument 16 held on thehanger 15, aninstrument hose 16a, display It is comprised from theapparatus 11, thesurgical light 12, etc.

ここで、主な可動可能である部分は、無影灯12、テーブル13、インスツルメントハンガー15、アシスタントハンガー14、背板17a及び、チェアー17である。なお、この実施の形態の歯科診療ユニット1は、チェアー17の昇降に伴って各部も昇降する構造となっている。  Here, the main movable parts are thesurgical light 12, the table 13, theinstrument hanger 15, theassistant hanger 14, theback plate 17a, and thechair 17. Note that the dental care unit 1 of this embodiment has a structure in which each part is also raised and lowered as thechair 17 is raised and lowered.

カメラ10は、診療エリアKの天井又は支柱に下向きに設けた第1のカメラ10aと、無影灯12などの支持ポールに治療ポジションエリアLを正面視する向きに設けた第2のカメラ10bと、壁面または歯科診療ユニットの側面を水平に視認できる位置に設けられた第3のカメラ10cとの3つのカメラを備えている。そして、第1のカメラ10aからの画像によって各部の平面での位置や人物の存在を認識可能とし、着座した患者の顔や術者の顔画像を第2のカメラ10bによって認識可能とし、チェアーの昇降状態や背板の傾き、各部の垂直位置を第3のカメラ10cによって認識する。  Thecamera 10 includes afirst camera 10a provided downward on the ceiling or support of the medical treatment area K, and asecond camera 10b provided on a support pole such as a surgical light 12 so that the treatment position area L is viewed from the front. And athird camera 10c provided at a position where the wall surface or the side of the dental care unit can be viewed horizontally. The position from the plane of each part and the presence of a person can be recognized from the image from thefirst camera 10a, and the face of the seated patient and the operator can be recognized by thesecond camera 10b. Thethird camera 10c recognizes the lifted state, the inclination of the back plate, and the vertical position of each part.

第3のカメラは、テーブル13やアシスタントハンガー14などがチェアー17に連動して昇降しないタイプの歯科診療ユニットの場合、テーブルなどの上下方向の移動を制御するための画像認識を行う。  The third camera performs image recognition for controlling the vertical movement of the table or the like when the table 13 or theassistant hanger 14 or the like is a type of dental care unit that does not move up and down in conjunction with thechair 17.

図3は、カメラの別の配置を示す側面図である。なお、図2と同じ装置については、同一の符号によって対応させてある。この実施の形態では、首振り機能(自動パン・チルト機能)付のカメラ10を無影灯12の先端部に配置し、無影灯12の支持アーム12a、12b、12c、12d、12eをそれぞれの支持アームの駆動モータM3、M4、M5、M6、M7によって回動させてカメラ10を所定の位置に移動させる。これにより、上述した第1のカメラ、第2のカメラの機能を備えたものとすることができる。  FIG. 3 is a side view showing another arrangement of the cameras. The same devices as those in FIG. 2 are associated with the same reference numerals. In this embodiment, acamera 10 with a swing function (automatic pan / tilt function) is disposed at the distal end of thesurgical light 12, and thesupport arms 12a, 12b, 12c, 12d, and 12e of thesurgical light 12 are respectively attached. Thecamera 10 is moved to a predetermined position by being rotated by driving motors M3, M4, M5, M6, and M7 of the supporting arm. Thereby, the functions of the first camera and the second camera described above can be provided.

カメラ位置Aは、各部の平面での位置や人物の存在を認識可能とする第1のカメラ10aに代わる位置であり、カメラ位置Bは、着座した患者の顔や術者の顔画像を認識可能とする第2のカメラ10bに代わる位置であり、カメラ位置Cは、患者の口腔を中心とした治療エリアNを認識する画像を取得して、術者の使用中のインスツルメントなどを識別するのに適した位置である。  The camera position A is a position in place of thefirst camera 10a that can recognize the position of each part on the plane and the presence of a person, and the camera position B can recognize the face of the seated patient and the operator's face. The camera position C obtains an image for recognizing the treatment area N centered on the patient's oral cavity, and identifies the instrument being used by the surgeon. This is a suitable position.

次に、認識手段22aに関する技術について述べる。天井に設置された第1のカメラ10aからの画像の場合、カメラ設置位置と、診療ユニット設置位置は固定されており既知である。  Next, a technique related to therecognition unit 22a will be described. In the case of an image from thefirst camera 10a installed on the ceiling, the camera installation position and the medical unit installation position are fixed and known.

カメラ10aから取得した画像から実際の装置等の距離や大きさを判断するために、画像中の1画素当たりの距離を求めておくことができる。カメラ10aが、図2のチェアー17の座席Gの2メートル上方に設けられ、カメラの水平画角が30°、水平解像度が320画素である場合、座席Gの高さの平面においてカメラで撮影できる水平範囲は、三角関数により底辺距離が1.07メートルで、一画素当たりの距離は3.34mmに相当する。また、垂直画角30°、垂直解像度が240画素である場合には、同様に垂直方向の一画素当たりの距離は4.46mmに相当する。対象物が上下してカメラ10aからの距離が変わる場合、テーブルなど大きさが既知な対象物を識別することにより、その高さでの一画素当たりの距離を求めることができる。このように、画素を座標マトリックスとして認識することにより、画像中の各装置の位置や移動方向を座標系として捉えることができる。  In order to determine the distance and size of the actual device or the like from the image acquired from thecamera 10a, the distance per pixel in the image can be obtained. When thecamera 10a is provided 2 meters above the seat G of thechair 17 in FIG. 2, the horizontal angle of view of the camera is 30 °, and the horizontal resolution is 320 pixels, thecamera 10a can be photographed on the plane at the height of the seat G. The horizontal range has a base distance of 1.07 meters by a trigonometric function, and the distance per pixel corresponds to 3.34 mm. When the vertical angle of view is 30 ° and the vertical resolution is 240 pixels, the distance per pixel in the vertical direction is equivalent to 4.46 mm. When the object moves up and down and the distance from thecamera 10a changes, the distance per pixel at the height can be obtained by identifying an object of known size such as a table. Thus, by recognizing pixels as a coordinate matrix, the position and moving direction of each device in the image can be understood as a coordinate system.

各装置の可動範囲の状態の認識方法を説明する。図3のチェアー17の背板17aは、矢印で示すように、患者が着座する位置(起きている状態)F′と、治療のために倒した状態Fの範囲で可動する。この背板17aの状態は、取得した画像と、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより、実際の背板位置を把握することができる。  A method for recognizing the state of the movable range of each device will be described. Theback plate 17a of thechair 17 in FIG. 3 is movable in a range of a position (awake state) F ′ where the patient is seated and a state F where the patient is tilted for treatment, as indicated by an arrow. The state of theback plate 17a is such that the acquired image and a model pattern registered in advance in the unit movablerange image information 23a are compared (pattern matching), and a combination with the model pattern having the highest matching value is selected. Thus, the actual back plate position can be grasped.

図3に示すように、テーブル13は、患者導入時はD′の位置に移動させることにより、患者の着座移動の障害とならない位置とし、診療開始に伴いDの位置に移動させることが可能な可動範囲となる。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択することにより、実際のテーブル位置を把握することができる。  As shown in FIG. 3, the table 13 is moved to the position D ′ when the patient is introduced, so that the position of the table 13 does not become an obstacle to the sitting movement of the patient, and can be moved to the position D as the medical treatment starts. It becomes a movable range. Similarly, the position recognition also compares the model pattern registered in advance in the unit movablerange image information 23a (pattern matching), and selects the combination with the model pattern having the highest matching value, thereby determining the actual table position. Can be grasped.

図4は、図3の平面図である。図4に示すアシスタントハンガー14は、診療中に補助者が使用する機器を保持している装置であるが、EからE′の可動範囲を移動する。この位置認識も同様に予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択させることにより実際の位置を把握することができる。  FIG. 4 is a plan view of FIG. Theassistant hanger 14 shown in FIG. 4 is a device that holds a device used by an assistant during medical treatment, but moves in a movable range from E to E ′. Similarly, this position recognition is compared with the model pattern registered in the unit movablerange image information 23a in advance (pattern matching), and the combination with the model pattern having the highest matching value is selected to grasp the actual position. can do.

これらのパターンマッチングに際し、画像の色情報(RGB)を色相(H)、彩度(S)、明度(V)に変換したHSV表色情報を用いることによりユニット可動範囲画像情報23aとの比較(パターンマッチング)の精度を高めることができる。なお、背景が限定されていない場合には、まずHSV表色情報で認識対象のエリアを絞り込んでから、ユニット可動範囲画像情報23aとのパターンマッチングを行うことにより比較演算スピードをさらに早くすることが可能である。また、背景が限定されて認識対象との色の分離がよい診療エリアKの状況では、色情報だけで位置を認識することが可能となる。この方法では、色相の値(0〜359)が人物の顔画像の場合、限定された範囲をとることを利用し、画像の中から顔画像を特定する。さらに、色情報による判別においては、カメラを赤外線カメラとすることにより、人物と背景の分離判別を確実に短時間で行うことが可能となる。  In these pattern matching, comparison with the unit movablerange image information 23a is performed by using HSV colorimetric information obtained by converting the color information (RGB) of the image into hue (H), saturation (S), and brightness (V) ( The accuracy of pattern matching can be increased. If the background is not limited, first, the area to be recognized is narrowed down by HSV colorimetric information, and then the pattern matching with the unit movablerange image information 23a is performed to further increase the comparison operation speed. Is possible. Further, in the situation of the medical care area K where the background is limited and the color separation from the recognition target is good, the position can be recognized only by the color information. In this method, when the hue value (0 to 359) is a human face image, the face image is specified from the image by using a limited range. Further, in the determination based on the color information, the camera can be an infrared camera, so that the person and the background can be reliably determined in a short time.

図4には、カメラ10が取得する診療エリアK、術者Jが診療に際して着座するドクターチェアー19が位置する範囲(診療ポジション)である治療ポジションエリアLを示している。この図では、術者Jが患者の頭の位置(12時位置)に位置した場合を示しているが、治療ポジションエリアL内で、患者の頭に対し9時の位置や、3時の位置で診療を行うことがある。そのいずれの位置に術者が位置しているかについても認識手段22aが術者診療ポジション判定を行う。  FIG. 4 shows a medical treatment area K acquired by thecamera 10 and a medical treatment position area L that is a range (medical care position) in which adoctor chair 19 on which an operator J is seated during medical treatment is located. This figure shows the case where the operator J is located at the position of the patient's head (12 o'clock position), but in the treatment position area L, the position at 9 o'clock and the position at 3 o'clock with respect to the patient's head. There is a medical treatment at. The recognizingmeans 22a determines the operator's medical position as to which position the operator is located.

図4において、符号13a、13b、13cはテーブル13を回動自在に支持するアームである。テーブル13をDからD′に移動させる際は、アーム13cの基部のモータM1とアーム13aとアーム13bの回動部のモータM2を駆動することにより行う。  In FIG. 4,reference numerals 13a, 13b, and 13c denote arms that rotatably support the table 13. The table 13 is moved from D to D 'by driving the motor M1 at the base of thearm 13c, the motor M2 at the rotating portion of thearm 13a, and thearm 13b.

この実施の形態の歯科診療支援の主な動作について図5に示すゼネラルフローに基づいて説明する。  The main operation of dental care support of this embodiment will be described based on the general flow shown in FIG.

まず、認識手段22aにより診療ユニット1の各部の位置認識を行う(装置認識ステップS1)。この詳細フローは図6(a)に示す。  First, the position of each part of the medical unit 1 is recognized by the recognition means 22a (apparatus recognition step S1). This detailed flow is shown in FIG.

次に、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS2)。この詳細フローは図6(b)に示す。  Next, a person (surgeon, patient) is recognized by the recognition means 22a (person recognition step S2). This detailed flow is shown in FIG.

次に、治療ポジションエリアL内の診療ポジションに術者が存在するか、チェアー17上に患者が存在するかを判定し、いずれも存在しない場合、ステップS2の人物認識を続ける。患者が着座し、術者が治療ポジションエリアLの診療ポジションに着いたとき診療開始と判断し、次に進む(診療開始判定ステップS3)。  Next, it is determined whether there is an operator at the medical position in the treatment position area L or there is a patient on thechair 17, and if none exists, the person recognition in step S2 is continued. When the patient is seated and the surgeon arrives at the medical position in the therapeutic position area L, it is determined that the medical service is started, and the process proceeds to the next (medical service start determination step S3).

次に、歯科診療ユニットの各部を術者の診療ポジションに合わせた最適ポジションに移動させる。すなわち、ポジション制御手段22eにより、最適ポジション情報23dから術者個人毎に登録されている各装置の最適ポジションを検索して読み出し、その配置に移動させる(ポジション制御ステップS4)。  Next, each part of the dental practice unit is moved to the optimum position according to the doctor's practice position. That is, the position control means 22e retrieves and reads out the optimum position of each device registered for each individual operator from theoptimum position information 23d, and moves to the arrangement (position control step S4).

このとき、歯科診療ユニットの各部の制御は、外部接続ポート21に接続された診療ユニット動作制御装置30に対して動作指令信号を送出することによって行う。動作制御の方式については公知の技術を使用することができるが、移動対象、移動先座標、移動経路を指令する。  At this time, each part of the dental care unit is controlled by sending an operation command signal to the diagnosis unit operation control device 30 connected to theexternal connection port 21. Although a known technique can be used for the operation control method, a movement target, a movement destination coordinate, and a movement route are commanded.

診療ユニット動作制御装置30は図1に示すように、診療チェアー昇降・背板傾動動作部31、テーブル移動動作部32、インスツルメント制御動作部33、アシスタントハンガー移動動作部34、無影灯移動動作部35の各駆動部(たとえばステッピングモータ)に対して動作指令信号を送る。  As shown in FIG. 1, the medical unit operation control device 30 includes a medical chair lifting / lowering plate tiltingoperation unit 31, a tablemovement operation unit 32, an instrumentcontrol operation unit 33, an assistant hangermovement operation unit 34, and a surgical light movement. An operation command signal is sent to each drive unit (for example, a stepping motor) of theoperation unit 35.

次に、ポジション制御ステップS4で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS5)。この詳細フローについては図7(a)に示す。  Next, the operation of each part of the dental treatment unit that started the operation in the position control step S4 is recognized (operation recognition step S5). This detailed flow is shown in FIG.

移動した装置各部が、ポジション制御ステップS4で検索した術者の診療ポジションに合わせた最適ポジションに移動したか、すなわち最適停止位置かを判断し、最適停止位置まで移動していれば、動作の終了工程(S9)に進む。最適停止位置に達していなければ次に進む(動作終了判定ステップS6)。  It is determined whether each moved device has moved to the optimum position corresponding to the surgeon's medical position searched in the position control step S4, that is, the optimum stop position. If it has moved to the optimum stop position, the operation ends. Proceed to step (S9). If the optimum stop position has not been reached, the operation proceeds to the next (operation end determination step S6).

移動未了の場合、動作中の歯科診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS7)。この詳細フローについては図7(b)に示す。  If the movement has not been completed, the positional relationship is monitored to determine whether there is a risk of contact between each part of the operating dental care unit and another part or person (contact monitoring step S7). This detailed flow is shown in FIG.

移動により何かと接触することが予測されると判断したときは動作の終了工程(S9)に移行する。接触の恐れがないと判断したときは、移動動作を継続させて動作認識ステップS5に戻る。このフローでは接触することが予測されると判断したとき動作を停止するケースを示したが、障害物を回避するように各装置の移動軌道を変更するためポジション制御ステップS4に戻っても良く、或いは障害となる人物に警告する警報音を鳴らすことの良く、これらを組み合わせても良い(接触判定ステップS8)。  When it is determined that contact with something is predicted due to the movement, the process proceeds to an operation end step (S9). When it is determined that there is no fear of contact, the moving operation is continued and the process returns to the operation recognition step S5. In this flow, the case where the operation is stopped when it is determined that the contact is predicted is shown, but it is possible to return to the position control step S4 in order to change the movement trajectory of each device so as to avoid the obstacle, Or it is good to sound the warning sound which warns the person who becomes an obstacle, and you may combine these (contact determination step S8).

以上により、患者の導入と、術者の診療開始に合わせて診療ユニットのセットが自動的になされて、診療行為が開始され、ステップS10以下のステップに移行する。  As described above, the medical unit is automatically set in accordance with the introduction of the patient and the start of medical treatment by the surgeon, the medical practice is started, and the process proceeds to steps after step S10.

診療中は、インスツルメント判別手段22dにより、治療エリア内の術者の手元を認識し、使用中のインスツルメントを識別し、そのホース制御を行ったり、使用禁止器具のロック制御を行って術者の操作を支援する(インスツルメント認識ステップS10)。この詳細なフローは図8(a)に示す。  During medical treatment, theinstrument discriminating means 22d recognizes the operator's hand in the treatment area, identifies the instrument in use, controls its hose, and locks the prohibited instrument. The operator's operation is supported (instrument recognition step S10). This detailed flow is shown in FIG.

続いて、認識手段22aにより人物(術者、患者)の認識を行う(人物認識ステップS11)。この詳細フローはステップ2と同様であり、図6(b)に示す。  Subsequently, a person (surgeon, patient) is recognized by the recognition means 22a (person recognition step S11). This detailed flow is the same as in step 2, and is shown in FIG.

診療の終了を判断するため、診療ポジション或いは治療ポジションエリアLから術者が離れたかを判定する。術者が診療ポジションに存在する場合、診療継続中と判断しステップ10へ戻り監視を継続する。術者が離れた場合、ステップS13へ進む(診療終了判定ステップS12)。  In order to determine the end of the medical care, it is determined whether the operator has left the medical care position or treatment position area L. If the surgeon is present at the medical position, it is determined that the medical service is continuing, and the process returns to step 10 to continue monitoring. When the operator leaves, the process proceeds to step S13 (medical treatment end determination step S12).

診療終了と判断されたとき、歯科診療ユニットの各部をリセット位置に移動させる。この動作では、チェアー17の背板を起こしながらチェアー17を降ろすと共に、患者が退出するときの障害とならないようにテーブルなどを前方に移動させる指令を行う。なお、リセット位置は、前記最適ポジション情報23dに予め座標情報、または画像情報として登録しておき、ポジション制御手段22eが参照して制御信号を診療ユニット動作制御装置30に送出して行われる(ポジション制御ステップS13)。  When it is determined that the medical care is finished, each part of the dental medical unit is moved to the reset position. In this operation, thechair 17 is lowered while raising the back plate of thechair 17, and a command is given to move the table or the like forward so as not to be an obstacle when the patient leaves. The reset position is registered in advance as coordinate information or image information in theoptimum position information 23d, and is referred to by the position control means 22e to send a control signal to the medical unit operation control device 30 (position). Control step S13).

次に、ポジション制御ステップ13で動作を開始した歯科診療ユニットの各部の動作を認識する(動作認識ステップS14)。この詳細フローについてはステップ5と同様であり、図7(a)に示す。  Next, the operation of each part of the dental treatment unit that starts the operation in theposition control step 13 is recognized (operation recognition step S14). This detailed flow is the same as that in step 5, and is shown in FIG.

続いて、移動した装置各部が、リセット位置に移動したかを判断し、リセット位置まで移動していれば、ステップ18動作の終了工程に飛ぶ。リセット位置に達していなければ次に進む(動作終了判定ステップS15)。  Subsequently, it is determined whether each part of the apparatus that has moved has moved to the reset position, and if it has moved to the reset position, the process jumps to the end step ofstep 18 operation. If the reset position has not been reached, the process proceeds to the next (operation end determination step S15).

移動未了の場合、動作中の診療ユニット各部と、他の部位または人物との接触の恐れがあるか位置関係を監視する(接触監視ステップS16)。この詳細フローについては図7(b)に示す。  If the movement has not been completed, the positional relationship is monitored to determine whether there is a possibility of contact between each part of the operating medical treatment unit and another part or person (contact monitoring step S16). This detailed flow is shown in FIG.

移動により何かと接触することが予測されると判断したときは、ステップS18の動作の終了工程に移行する。接触の恐れがないと判断したときは移動動作を継続させステップS14の動作認識ステップに戻る(接触判定ステップS17)そして、診療ユニットをリセット状態として動作を終了する(ステップS18)。  When it is determined that contact with something is predicted due to the movement, the process proceeds to an operation end step in step S18. When it is determined that there is no risk of contact, the moving operation is continued and the process returns to the operation recognition step of step S14 (contact determination step S17). Then, the medical unit is reset and the operation is terminated (step S18).

以上が主な診療支援動作のフローである。続いて説明した各ステップについての詳細な動作を図6、図7、図8に基づき説明する。  The above is the flow of the main medical assistance operation. Next, the detailed operation of each step described will be described with reference to FIG. 6, FIG. 7, and FIG.

図6(a)は、画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。  FIG. 6A is a device recognition step in a dental care support operation by image recognition, FIG. 6B is a flowchart of a person recognition step, and FIG. 6C is a flowchart of a difference image processing step.

図6(a)に示す装置認識ステップは、装置各部の位置の確認を行うものであり、まずチェアー背板角度を認識する(チェアー背板角度認識S1−1)。この認識は、取得した画像からチェアー背板部を判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)し、最もマッチング値の高いモデルパターンとの組み合わせを選択する手法により傾き角度を識別する。  In the apparatus recognition step shown in FIG. 6A, the position of each part of the apparatus is confirmed. First, the chair backboard angle is recognized (chair backboard angle recognition S1-1). In this recognition, the chair back board is discriminated from the acquired image, compared with the model pattern registered in the unit movablerange image information 23a in advance (pattern matching), and the combination with the model pattern having the highest matching value is obtained. The tilt angle is identified by the method of selection.

次に、取得した画像からテーブルを判別し、予めユニット可動範囲画像情報23aに登録してあるモデルパターンとを比較(パターンマッチング)して、最もマッチング値の高いモデルパターンとの組み合わせを選択してテーブルの位置を求める(テーブル位置認識ステップS1−2)。  Next, the table is discriminated from the acquired image, compared with the model pattern registered in the unit movablerange image information 23a in advance (pattern matching), and the combination with the model pattern having the highest matching value is selected. The position of the table is obtained (table position recognition step S1-2).

続いて、取得した画像からアシスタントハンガーを判別し、同様にパターンマッチングでアシスタントハンガーの位置を求める(アシスタントハンガー位置認識ステップS1−3)。  Subsequently, the assistant hanger is discriminated from the acquired image, and the position of the assistant hanger is similarly obtained by pattern matching (assistant hanger position recognition step S1-3).

図6(b)に示す人物認識ステップでは、まず、診療エリア(歯科診療ユニット及びチェアー装置周辺)の画像を一定時間間隔で取得し、前後画像を比較してユニット周辺の背景を監視し、動的な変化を抽出する(差分画像処理ステップS2−1)。なお、この差分画像処理ステップの詳細は図6(c)で詳しく説明する。  In the person recognition step shown in FIG. 6B, first, images of a medical area (a dental medical unit and a chair device area) are acquired at regular time intervals, and the background around the unit is monitored by comparing the front and rear images. Change is extracted (difference image processing step S2-1). Details of this difference image processing step will be described in detail with reference to FIG.

続いて、診療エリアの画像内に大きな変化があるかを判定する。大きな変化がなければ、人物認識ステップを終了する。大きな変化があれば次に進む(変化判定ステップS2−2)。  Subsequently, it is determined whether there is a large change in the image of the medical care area. If there is no significant change, the person recognition step is terminated. If there is a large change, the process proceeds to the next (change determination step S2-2).

次に、診療エリアK(ユニット周辺)の中で差分の大きなエリアを特定する(変化エリア特定ステップS2−3)。  Next, an area with a large difference is specified in the medical area K (around the unit) (change area specifying step S2-3).

続いて、変化エリアが患者が着座するチェアー周辺であるか否かを判別し、チェアー周辺であればステップS2−5に進む(患者判断ステップS2−4)。  Subsequently, it is determined whether or not the change area is around the chair where the patient is seated. If the change area is around the chair, the process proceeds to step S2-5 (patient determination step S2-4).

変化エリアが術者が着座する治療ポジションエリアLの周辺(診療ポジション)か否かを判別し、治療ポジションエリアL周辺であればステップS2−7に進む(術者判断ステップS2−6)。  It is determined whether or not the change area is around the treatment position area L where the operator is seated (medical position). If the change area is around the treatment position area L, the process proceeds to step S2-7 (operator judgment step S2-6).

患者の存在を確認し、患者顔画像を取得して、患者画像情報23cとパターンマッチングすることにより患者個人の識別を行う(患者着座判定S2−5)。表示手段22fは、この患者個人識別により、患者のID番号から歯科診療サーバ50に格納されている患者情報を検索して、表示装置11に表示する。  The presence of the patient is confirmed, a patient face image is acquired, and the patient is identified by pattern matching with thepatient image information 23c (patient seating determination S2-5). The display means 22f searches the patient information stored in thedental care server 50 from the patient ID number based on the individual patient identification, and displays it on thedisplay device 11.

治療ポジションエリアLに術者の存在が認識されたとき、術者の診療ポジションの位置を判定し、また、術者の顔画像を取得して、術者画像情報23bとパターンマッチングすることにより術者個人を識別する(術者診療ポジション判定ステップS2−7)。  When the presence of the surgeon is recognized in the treatment position area L, the position of the surgeon's medical position is determined, and a face image of the surgeon is acquired and subjected to pattern matching with thesurgeon image information 23b. The individual is identified (surgeon medical position determination step S2-7).

この術者個人識別により、ポジション制御手段22eは術者ごとの最適な装置各部の配置を最適ポジション情報23dから検索し、術者個人の診療スタイルに合わせた装置の移動を指令することが可能となる。  By this individual identification of the operator, the position control means 22e can search for the optimal arrangement of each part of the apparatus for each operator from theoptimal position information 23d, and can instruct the movement of the apparatus in accordance with the operator's individual medical treatment style. Become.

ステップS2−1における差分画像処理ステップの詳細を図6(c)により説明する。まず、カメラから画像Aを取得する(ステップS2−11)。続いて、所定の変化監視間隔をタイマーにセットする(ステップS2−12)。  Details of the difference image processing step in step S2-1 will be described with reference to FIG. First, the image A is acquired from the camera (step S2-11). Subsequently, a predetermined change monitoring interval is set in the timer (step S2-12).

タイマーセット時間の経過を監視し、セット時間に達したとき次に進む(ステップS2−13)。  The progress of the timer set time is monitored, and when the set time is reached, the process proceeds to the next (step S2-13).

次に、カメラから画像Bを取得し(ステップS2−14)、取得した画像Aと画像Bとを比較し差分画像を取得する(ステップS2−15)。  Next, the image B is acquired from the camera (step S2-14), and the acquired image A and the image B are compared to acquire a difference image (step S2-15).

図7(a)は、画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。  FIG. 7A is an operation recognition step in a dental care support operation by image recognition, and FIG. 7B is a flowchart of a contact monitoring step.

図7(a)は、図6で説明したステップS5及びS14の動作認識ステップの詳細を示している。まず、上述した差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合には、ステップS5−4に移る(ステップS5−1)。  FIG. 7A shows details of the operation recognition step in steps S5 and S14 described in FIG. First, it is determined whether thechair 17 is operating from the area of the difference image obtained in the above-described difference image processing step (FIG. 6C). If there is no change, the process proceeds to step S5-4 (step S5-1).

チェアー17に変化が認められたときは、動作前画像と動作後画像とにより画像中の位置と動作方向を推定する(ステップS5−2)。続いて、パターンマッチングによりチェアー背板の角度を認識する(ステップS5−3)。  When a change is recognized in thechair 17, the position in the image and the motion direction are estimated from the pre-motion image and the post-motion image (step S5-2). Subsequently, the angle of the chair backboard is recognized by pattern matching (step S5-3).

次に、差分画像のエリアから、テーブル13が動作中か判断する。変化がない場合、ステップS5−7に移る(ステップS5−4)。テーブル13に変化が認められたときは、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−5)。続いて、パターンマッチングによりテーブル位置を認識する(ステップS5−6)。  Next, it is determined from the difference image area whether the table 13 is operating. If there is no change, the process proceeds to step S5-7 (step S5-4). When a change is recognized in the table 13, the position and the motion direction in the image are estimated from the pre-motion image and the post-motion image (step S5-5). Subsequently, the table position is recognized by pattern matching (step S5-6).

次に、差分画像のエリアから、アシスタントハンガー14が動作中か判断し、変化がない場合は終了する(ステップS5−7)。アシスタントハンガー14に変化が認められたとき、動作前画像と動作後画像により画像中の位置と動作方向を推定する(ステップS5−8)。続いて、パターンマッチングによりアシスタントハンガー14位置を認識する(ステップS5−9)。  Next, it is determined from the area of the difference image whether theassistant hanger 14 is operating. If there is no change, the process ends (step S5-7). When a change is recognized in theassistant hanger 14, the position and the motion direction in the image are estimated from the pre-motion image and the post-motion image (step S5-8). Subsequently, the position of theassistant hanger 14 is recognized by pattern matching (step S5-9).

図7(b)は、図6で説明した接触監視ステップS7の詳細を示すフローチャートである。まず、差分画像処理ステップ(図6(c))で得られた差分画像のエリアから、チェアー17が動作中か判断する。変化がない場合、ステップS7−3に移る(ステップS7−1)。  FIG. 7B is a flowchart showing details of the contact monitoring step S7 described in FIG. First, it is determined whether thechair 17 is operating from the area of the difference image obtained in the difference image processing step (FIG. 6C). If there is no change, the process proceeds to step S7-3 (step S7-1).

チェアー17に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−2)。なお、この接触判定ステップ(ステップS7−2)の詳細は図8(b)に示し、説明を後述する。  When a change is recognized in thechair 17, the movement destination is estimated from the position and the movement direction, and it is determined whether or not there is a possibility of contact with the obstacle at the movement destination (step S7-2). The details of this contact determination step (step S7-2) are shown in FIG. 8B and will be described later.

続いて、テーブル13が動作中か判断し、変化がない場合は、ステップS7−5に移る(ステップS7−3)。テーブル13に変化が認められたとき、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−4)。  Subsequently, it is determined whether the table 13 is operating. If there is no change, the process proceeds to step S7-5 (step S7-3). When a change is recognized in the table 13, the movement destination is estimated from the position and the movement direction, and it is determined whether or not there is a possibility that the movement destination touches an obstacle (step S7-4).

続いて、アシスタントハンガー14が動作中か判断し、変化がない場合は、終了する(ステップS7−5)。アシスタントハンガー14に変化が認められたときは、その位置と動作方向から、移動先の推定を行い、移動先に障害物に接触する恐れがあるか判定する(ステップS7−6)。  Subsequently, it is determined whether theassistant hanger 14 is operating. If there is no change, the process ends (step S7-5). When a change is recognized in theassistant hanger 14, the movement destination is estimated from the position and the movement direction, and it is determined whether there is a possibility that the movement destination touches an obstacle (step S7-6).

図8(a)は、画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。  FIG. 8A is an instrument recognition step in the dental care support operation by image recognition, and FIG. 8B is a flowchart of the contact determination step.

図8(a)は、図5におけるステップS10の詳細を示す。まず、上述した差分画像処理ステップで得られた治療エリアN周辺の差分画像を監視する(ステップS10−1)。このとき、治療エリアN周辺だけをデジタルズーム機能により取り込むか、光学ズーム機能を備えたカメラを用いてクローズアップ画像を用いることにより、認識精度を確保することができる。図3に示した無影灯12に取り付けたカメラ10の場合、カメラ位置をC位置とすれば、治療エリアNの真上で、かつ被写体までの距離が近いため認識精度を高めることが可能となる。  FIG. 8A shows details of step S10 in FIG. First, the difference image around the treatment area N obtained in the difference image processing step described above is monitored (step S10-1). At this time, recognition accuracy can be ensured by capturing only the periphery of the treatment area N with the digital zoom function or using a close-up image using a camera having an optical zoom function. In the case of thecamera 10 attached to the surgical light 12 shown in FIG. 3, if the camera position is the C position, it is possible to improve recognition accuracy immediately above the treatment area N and because the distance to the subject is short. Become.

治療エリアN周辺及び治療エリアN内の画像に大きな変化がなければ終了する。大きな変化が認められた場合には、ステップS10−3に移る(ステップS10−2)。  If there is no significant change in the image around the treatment area N and within the treatment area N, the process is terminated. When a big change is recognized, it moves to step S10-3 (step S10-2).

治療エリアN周辺及び治療エリアN内の中で差分(変化)の大きなエリアを特定すると共に、術者の手、把持している器具の動作方向を認識する(ステップS10−3)。このとき、治療エリアを分割したエリアとして特定することにより、処理を効率よく行うことができる。  An area with a large difference (change) is specified around the treatment area N and within the treatment area N, and the operating direction of the operator's hand and the grasped instrument is recognized (step S10-3). At this time, the treatment can be efficiently performed by specifying the treatment area as the divided area.

続いて、治療エリアN内で使用されているインスツルメントをパターンマッチング・色識別によって特定する(ステップS10−4)。このインスツルメント識別によって、インスツルメントロック手段22gは、重複して使用することが禁止されているインスツルメントが同時に識別された際に、インスツルメント制御動作部33に制御信号を出してインターロックしたり、識別されたインスツルメント以外をインターロックすることができる。  Subsequently, the instrument used in the treatment area N is specified by pattern matching and color identification (step S10-4). By this instrument identification, the instrument lock means 22g outputs a control signal to the instrumentcontrol operation unit 33 when the instruments prohibited from being used redundantly are simultaneously identified. It is possible to interlock or interlock other than the identified instrument.

さらに、インスツルメントホース制御手段22hが、インスツルメントを把持している術者の手の位置と動きを追尾判断する。そして、使用インスツルメントが診療エリアN内に移動されたときにはインスツルメントホース16aを送り出し状態とし、治療エリアN内にあるときはテンションフリー状態とし、使用インスツルメントが治療エリアN外に移動されたときはインスツルメントホース16aを巻き取り状態とする。  Further, the instrument hose control means 22h makes a tracking determination on the position and movement of the operator's hand holding the instrument. When the instrument used is moved into the medical area N, theinstrument hose 16a is sent out. When the instrument is within the therapeutic area N, theinstrument hose 16a is in a tension-free state, and the instrument used is moved out of the therapeutic area N. When it is done, theinstrument hose 16a is wound.

これらのインスツルメントならびに術者の手を識別する際に、インスツルメントのグリップやホースを色分けし、術者の手袋に決まった色を使用することが好ましい。このようにすることにより、インスツルメントの握り方や向きの変化があっても、さらに識別効果を高めることができる。  When identifying these instruments and the hand of the surgeon, it is preferable to color-code the grips and hoses of the instrument and use a predetermined color for the surgeon's gloves. By doing in this way, even if there is a change in the way the instrument is gripped or the direction, the discrimination effect can be further enhanced.

また、歯科診療管理サーバ50からの診療情報が取得されている場合、次の診療工程で必要となるインスツルメントの準備動作を自動的に行うことも可能である。従って、例えば、診療開始直後に使用する器具を取り出しやすい状態にしておくことができる。さらに、患者に説明のため治療説明を行うために使用する口腔内カメラを、取り出しやすいようにインスツルメントハンガーからせり出させたりすることができる。  In addition, when medical information is acquired from the dentalmedical management server 50, it is possible to automatically perform an instrument preparation operation required in the next medical process. Therefore, for example, it is possible to make it easy to take out an instrument to be used immediately after the start of medical treatment. Further, the intraoral camera used for explaining the treatment to the patient for explanation can be protruded from the instrument hanger so as to be easily taken out.

図8(b)は、図7(b)における接触判定ステップS7−2の詳細フローチャートである。まず差分画像処理で得られた情報から、目的の装置の動作方向を把握して移動先の推定を行う(ステップS7−21)。次に、移動先の障害物の有無を判定する(ステップS7−22)。このとき、第1のカメラ10aからの平面位置情報と第3のカメラ10cからの水平視した位置情報の両方を用いて高さについても判断する。  FIG. 8B is a detailed flowchart of the contact determination step S7-2 in FIG. First, from the information obtained by the differential image processing, the movement direction of the target device is grasped and the movement destination is estimated (step S7-21). Next, the presence / absence of an obstacle at the destination is determined (step S7-22). At this time, the height is also determined using both the planar position information from thefirst camera 10a and the horizontally viewed position information from thethird camera 10c.

障害物との距離は、移動している装置の外周から100mm〜200mm離れた周囲、または、術者の体型の外周から100mm〜200mm離れた範囲を境界エリアとし、この境界エリア近傍の障害物の有無を判定することが望ましい。障害物が認識されなければ終了し、障害物があればステップS7−24に進む(ステップS7−23)。  The distance to the obstacle is a boundary area that is 100 mm to 200 mm away from the outer periphery of the moving apparatus, or a range that is 100 mm to 200 mm away from the outer circumference of the operator's body shape. It is desirable to determine the presence or absence. If no obstacle is recognized, the process ends. If there is an obstacle, the process proceeds to step S7-24 (step S7-23).

ステップS7−24では、人物・装置各部の画像情報とパターンマッチングして障害物を識別する。そして、識別された障害物が既知の障害物(テーブル、アシスタントハンガー、規定ポジションの術者)の場合、第3のカメラ10cの画像から高さ方向を考慮した接触(当たり)予測を行う(ステップS7−26)。  In step S7-24, the obstacle is identified by pattern matching with the image information of each part of the person / device. Then, when the identified obstacle is a known obstacle (table, assistant hanger, surgeon at the specified position), contact (hit) prediction is performed in consideration of the height direction from the image of thethird camera 10c (step) S7-26).

接触(当たり)予測では、チェアー背板の傾動に際してドクターチェアー19に座っている術者の足が、背板にぶつかる危険があることを察知して警告したり、停止させたりすることが可能となる。これにより、背板によるドクターの脚挟みこみなどの事故を防止することができる。これに対し、障害物が既知のものでない場合(たとえば、患者が動き出したときなど)は、警告または動作停止させる(ステップS7−27)。  According to the contact (hit) prediction, it is possible to warn or stop the operator's foot sitting on thedoctor chair 19 when the chair back plate tilts by detecting that there is a risk of hitting the back plate. Become. Thereby, accidents, such as a doctor's leg pinching by a back board, can be prevented. On the other hand, when the obstacle is not known (for example, when the patient starts moving), a warning or operation is stopped (step S7-27).

本発明は以上の実施の形態に限定されることなく、種々変形が可能である。本発明では、術者がテーブルなど各装置を微調整のために手動で移動させても、その位置を認識することが可能であり、さらに診療中に、術者が診療ポジションを変えた場合でもリアルタイムにその位置を把握認識することができることから、それらの動きに合わせて最適ポジションに各装置を再配置するように制御することも可能となる。また、従来の動作制御においては、位置検出用センサーや、ステッピングモータによる制御が必要であったが、本発明によれば、画像認識で位置を検出するため複雑な制御配線やプログラムを必要としないものである。  The present invention is not limited to the above embodiment, and various modifications can be made. In the present invention, it is possible to recognize the position even if the operator manually moves each device such as a table for fine adjustment, and even if the operator changes the medical position during medical treatment. Since the position can be grasped and recognized in real time, it is possible to perform control so that each device is rearranged to the optimum position in accordance with the movement thereof. Further, in the conventional operation control, control by a position detection sensor or a stepping motor is necessary. However, according to the present invention, a complicated control wiring or program is not required for detecting a position by image recognition. Is.

本発明の一実施の形態における画像認識による歯科診療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the dental care assistance system by the image recognition in one embodiment of this invention.カメラの配置を示す正面図である。It is a front view which shows arrangement | positioning of a camera.カメラの別の配置を示す側面図であるIt is a side view which shows another arrangement | positioning of a camera.図3の平面図である。FIG. 4 is a plan view of FIG. 3.画像認識による歯科診療支援動作のゼネラルフローである。It is a general flow of dental care support operation by image recognition.(a)は画像認識による歯科診療支援動作における装置認識ステップ、(b)は人物認識ステップ、(c)は差分画像処理ステップのフローチャートである。(A) is a device recognition step in a dental care support operation by image recognition, (b) is a person recognition step, and (c) is a flowchart of a difference image processing step.(a)は画像認識による歯科診療支援動作における動作認識ステップ、(b)は接触監視ステップのフローチャートである。(A) is the operation | movement recognition step in the dental care assistance operation | movement by image recognition, (b) is a flowchart of a contact monitoring step.(a)は画像認識による歯科診療支援動作におけるインスツルメント認識ステップ、(b)は接触判定ステップのフローチャートである。(A) is an instrument recognition step in the dental care support operation by image recognition, (b) is a flowchart of a contact determination step.

符号の説明Explanation of symbols

1 歯科診療ユニット
10 カメラ
10a 第1のカメラ
10b 第2のカメラ
10c 第3のカメラ
11 表示装置
12 無影灯
12a,12b,12c,12d,12e 支持アーム
13 テーブル
13a,13b,13c 支持アーム
14 アシスタントハンガー
15 インスツルメントハンガー
16 インスツルメント
16a インスツルメントホース
17 チェアー
18 フットペダル
20 画像認識・制御コンピュータ
21 外部接続ポート
23 記憶部
30 診療ユニット動作制御装置
31 診療チェア昇降・背板傾動動作部
32 テーブル移動動作部
33 インスツルメント制御動作部
34 アシスタントハンガー移動動作部
35 無影灯移動動作部
DESCRIPTION OF SYMBOLS 1Dental care unit 10Camera10a 1st camera 10b2nd camera 10c3rd camera 11Display apparatus 12Surgical light 12a, 12b, 12c, 12d,12e Support arm 13 Table 13a, 13b,13c Support arm 14Assistant Hanger 15Instrument hanger 16Instrument16a Instrument hose 17Chair 18 Foot pedal 20 Image recognition /control computer 21 External connection port 23 Storage unit 30 Medical unitoperation control device 31 Medical chair elevating / back plate tiltingoperation unit 32 Tablemovement operation unit 33 Instrumentcontrol operation unit 34 Assistant hangermovement operation unit 35 Surgical lamp movement operation unit

Claims (2)

Translated fromJapanese
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
術者の顔画像を記録した術者画像情報と、
前記認識手段が術者の存在を認識したとき、前記カメラからの術者の顔画像と前記術者画像情報の顔画像とをパターンマッチングして術者識別を行う術者識別手段と、
術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備え
前記認識手段は前記カメラからの画像を一定時間間隔で取得し、前後画像を比較して歯科診療ユニット周辺の背景を監視し、その差分画像から動的な変化を抽出し、前記動的な変化が術者が着座する治療ポジションエリアの周辺か否かを判別し、
前記認識手段が治療ポジションエリア周辺と判別したとき、前記術者識別手段が前記術者識別を行うことを特徴とする画像認識による歯科診療支援システム。
A dental care unit including a medical chair on which a patient is seated, and one or more cameras for obtaining image information of a medical area in the vicinity of the examination chair of the surgeon and assistant;
Recognizing means for recognizing in real time the position of each device in the dental care unit and the presence of the patient and the operator and its position based on image information from the camera;
The surgeon image information that records the surgeon's face image,
When the recognizing means recognizes the presence of an operator, an operator identifying means for performing an operator identification by pattern matching the face image of the operator from the camera and the face image of the operator image information;
A position control means for moving a predetermined device in the dental care unit to an optimal position according to the treatment style of the surgeon identified by the surgeon identification means,
The recognition means obtains images from the camera at regular time intervals, compares the front and back images, monitors the background around the dental care unit, extracts dynamic changes from the difference image, and extracts the dynamic changes. To determine if it is around the treatment position area where the surgeon is seated,
A dental care support system based on image recognition, wherein the surgeon identification means performs the surgeon identification when the recognition means discriminates around the treatment position area.
患者が着座する診療チェアを含む歯科診療ユニットならびに術者及び補助者の診察椅子近傍における診療エリアの画像情報を取得する一つまたは複数のカメラと、
カメラからの画像情報に基づいて歯科診療ユニットにおける各装置の位置及び患者、術者の存在並びにその位置をリアルタイムに認識する認識手段と、
術者の顔画像を記録した術者画像情報と、
患者の顔画像を記録した患者画像情報と、
前記認識手段が術者の存在を認識したとき、前記カメラからの術者の顔画像と前記術者画像情報の顔画像とをパターンマッチングして術者識別を行う術者識別手段と、
前記認識手段が患者の存在を認識したとき、前記カメラからの患者の顔画像と前記患者画像情報の顔画像とをパターンマッチングして患者識別を行う患者識別手段と、
術者識別手段が識別した術者の診療スタイルに合わせた最適な位置に歯科診療ユニットにおける所定の装置を移動させるポジション制御手段とを備え、
前記認識手段は前記カメラからの画像を一定時間間隔で取得し、前後画像を比較して歯科診療ユニット周辺の背景を監視し、その差分画像から動的な変化を抽出し、前記動的な変化が術者が着座する治療ポジションエリアの周辺か否か及び患者が着座するチェアー周辺か否かを判別し、
前記認識手段が治療ポジションエリア周辺と判別したとき、前記術者識別手段が前記術者識別を行い、前記認識手段が患者が着座するチェアー周辺と判別したとき、前記患者識別手段が前記患者識別を行うことを特徴とする画像認識による歯科診療支援システム。
A dental care unit including a medical chair on which a patient is seated, and one or more cameras for obtaining image information of a medical area in the vicinity of the examination chair of the surgeon and assistant;
Recognizing means for recognizing in real time the position of each device in the dental care unit and the presence of the patient and the operator and its position based on image information from the camera;
The surgeon image information that records the surgeon's face image,
Patient image information that records the patient's face image, and
When the recognizing means recognizes the presence of an operator, an operator identifying means for performing an operator identification by pattern matching the face image of the operator from the camera and the face image of the operator image information;
When the recognition means recognizes the presence of a patient, patient identification means for performing patient identification by pattern matching the patient's face image from the camera and the face image of the patient image information;
A position control means for moving a predetermined device in the dental care unit to an optimal position according to the treatment style of the surgeon identified by the surgeon identification means,
The recognition means obtains images from the camera at regular time intervals, compares the front and back images, monitors the background around the dental care unit, extracts dynamic changes from the difference image, and extracts the dynamic changes. To determine whether it is around the treatment position area where the operator is seated and whether it is around the chair where the patient is seated,
When the recognizing means discriminates around the treatment position area, the operator identifying means performs the operator identification, and when the recognizing means discriminates around the chair where the patient is seated, the patient identifying means performs the patient identification. A dental care support system based on image recognition.
JP2008144017A2008-06-022008-06-02 Dental care support system based on image recognitionExpired - Fee RelatedJP4653822B2 (en)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
JP2008144017AJP4653822B2 (en)2008-06-022008-06-02 Dental care support system based on image recognition

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
JP2008144017AJP4653822B2 (en)2008-06-022008-06-02 Dental care support system based on image recognition

Related Parent Applications (1)

Application NumberTitlePriority DateFiling Date
JP2002330860ADivisionJP4172689B2 (en)2002-11-142002-11-14 Dental care support system based on image recognition

Publications (2)

Publication NumberPublication Date
JP2008200539A JP2008200539A (en)2008-09-04
JP4653822B2true JP4653822B2 (en)2011-03-16

Family

ID=39778573

Family Applications (1)

Application NumberTitlePriority DateFiling Date
JP2008144017AExpired - Fee RelatedJP4653822B2 (en)2008-06-022008-06-02 Dental care support system based on image recognition

Country Status (1)

CountryLink
JP (1)JP4653822B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JP2011036589A (en)*2009-08-182011-02-24Gc CorpDental unit
JP5634735B2 (en)*2010-04-142014-12-03株式会社モリタ製作所 Medical lighting device and medical diagnostic device
JP5647046B2 (en)*2011-03-182014-12-24株式会社モリタ製作所 Medical treatment equipment
JP5650568B2 (en)*2011-03-182015-01-07株式会社モリタ製作所 Medical treatment equipment
JP2012203572A (en)*2011-03-242012-10-22Morita Mfg Co LtdMedical treatment device
JP5884119B2 (en)*2011-07-142016-03-15学校法人 日本歯科大学 Medical training system
KR102531166B1 (en)*2020-12-022023-05-11오스템임플란트 주식회사A dental diagnostic device, its operation method and a computer-readable recording medium in which a program for executing the same is recorded

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
JPH0248259B2 (en)*1987-07-081990-10-24Yoshida Seisakusho Kk CHIRYOSOCHI
JP3086960B2 (en)*1990-11-222000-09-11株式会社モリタ東京製作所 Dental unit
JPH05268599A (en)*1992-03-171993-10-15Fujitsu Ltd Automatic control method of human image pickup camera in video conference system
JP3194706B2 (en)*1997-01-302001-08-06タカラベルモント株式会社 Dental care equipment
JPH11183145A (en)*1997-10-151999-07-09Yuusuke NonomuraThree-dimensional observation apparatus
US6513015B2 (en)*1998-09-252003-01-28Fujitsu LimitedSystem and method for customer recognition using wireless identification and visual data transmission
JP3750782B2 (en)*1998-12-012006-03-01株式会社モリタ製作所 Dental care equipment
JP3860682B2 (en)*1999-05-142006-12-20株式会社モリタ製作所 Medical treatment equipment
JP3897962B2 (en)*2000-07-192007-03-28株式会社モリタ製作所 Identification-type instrument body, identification-type adapter, identification-type tube, and medical device using these

Also Published As

Publication numberPublication date
JP2008200539A (en)2008-09-04

Similar Documents

PublicationPublication DateTitle
JP4172689B2 (en) Dental care support system based on image recognition
JP4653822B2 (en) Dental care support system based on image recognition
US11297285B2 (en)Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures
CN106102633B (en) Structural adjustment system and method for teleoperating medical systems
US6361323B1 (en)Skill acquisition, transfer and verification system hardware and point tracking system applied to health care procedures
US20190310819A1 (en)Augmented reality image display systems and methods
WO2020062773A1 (en)Tms positioning navigation method used for transcranial magnetic stimulation treatment
JP2007007041A (en)Surgery support
KR20140148243A (en)Method for providing information and medical diagnosis apparatus thereto
JP5315524B2 (en) Medical diagnostic imaging equipment
JPH0670884A (en)Medical diagnostic device using sight line detection
JP5647045B2 (en) Medical treatment equipment
JP5650568B2 (en) Medical treatment equipment
JP5647046B2 (en) Medical treatment equipment
JP2001275931A (en)Medical treatment system
JP6806364B2 (en) Dental treatment unit
JP2023107913A (en)Ophthalmologic apparatus and ophthalmologic system
CN118304165B (en) Intelligent robot for moxibustion and thermal therapy based on infrared-visible light fusion positioning and its control method
JP3942965B2 (en) Ophthalmic equipment system
CN110638524B (en) A real-time simulation system for tumor puncture based on VR glasses
KR101683176B1 (en)Method for providing information and magnetic resonance imaging apparatus thereto
JP4102155B2 (en) Surgical light automatic position correction lighting system
CN117190138A (en) Medical lighting devices, operating tables, treatment chairs, and lighting controllers, methods and devices
JP5647049B2 (en) Medical treatment equipment
JP2021509298A (en) Systems and methods for retrieving data associated with damage

Legal Events

DateCodeTitleDescription
A521Request for written amendment filed

Free format text:JAPANESE INTERMEDIATE CODE: A523

Effective date:20080701

A621Written request for application examination

Free format text:JAPANESE INTERMEDIATE CODE: A621

Effective date:20080701

TRDDDecision of grant or rejection written
A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

Effective date:20101201

A01Written decision to grant a patent or to grant a registration (utility model)

Free format text:JAPANESE INTERMEDIATE CODE: A01

A61First payment of annual fees (during grant procedure)

Free format text:JAPANESE INTERMEDIATE CODE: A61

Effective date:20101217

R150Certificate of patent or registration of utility model

Ref document number:4653822

Country of ref document:JP

Free format text:JAPANESE INTERMEDIATE CODE: R150

Free format text:JAPANESE INTERMEDIATE CODE: R150

FPAYRenewal fee payment (event date is renewal date of database)

Free format text:PAYMENT UNTIL: 20131224

Year of fee payment:3

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

R250Receipt of annual fees

Free format text:JAPANESE INTERMEDIATE CODE: R250

LAPSCancellation because of no payment of annual fees

[8]ページ先頭

©2009-2025 Movatter.jp