Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bewegungssteuerung eines bewegbaren Medizingerätes, insbesondere eines mobilen bildgebenden Medizingerätes, mittels einer Mensch-Maschine-Schnittstelle.
Im Bereich der Medizintechnik, insbesondere bei bildgebenden Medizingeräten, ist ein zunehmender Trend zur Automatisierung von Abläufen erkennbar. Dies betrifft nicht nur stationär montierte Anlagen, wie z.B. Radiographie-/Fluoroskopiesysteme, sondern verstärkt auch mobile, d.h. im Raum verfahrbare Röntgengeräte, wie beispielsweise C-Bogen-Röntgengeräte. Zu diesem Zweck werden solche mobilen Geräte mit geeigneten Antriebsplattformen, wie beispielsweise omnidirektionalen Rädern oder dergleichen, und geeigneten Steuerungssystemen ausgestattet, die eine automatisierbare Bewegung im Raum ermöglichen.
Hierfür ist eine funktionsfähige Erkennung der sich teilweise dynamisch verändernden, räumlichen Gegebenheiten am Einsatzort essentiell. Ebenso wichtig ist eine dazugehörige Mensch-Maschine Schnittstelle, die eine intuitive Interaktion mit einem derartigen System ermöglicht.
In
WO2015/068952A1 ist ein Verfahren zur Steuerung der Bewegung eines Medizingerätes beschrieben, bei dem ein Steuergerät von einem Anwender mittels einer Art Fernbedienung Ziel- und Richtungsinformationen, wie „rechts“ oder „links“, erhält. Das Steuergerät ermittelt unter Verwendung von Sensordaten der Umgebung einen kollisionsfreien Verfahrweg für das Medizingerät und steuert der Verfahrvorgang.
Es ist eine Aufgabe der vorliegenden Erfindung, eine technische Lösung zur kollisionsfreien Bewegung eines mobilen Medizingerätes im Raum bereitzustellen, die sich durch eine besonders einfache Bedienbarkeit auszeichnet.
Diese Aufgabe wird durch ein Verfahren nach Anspruch 1 bzw. durch eine Vorrichtung nach Anspruch 7 gelöst. Vorteilhafte Ausführungen der Erfindung sind in den Unteransprüchen angegeben.
Die im Folgenden im Zusammenhang mit dem Verfahren erläuterten Vorteile und Ausgestaltungen gelten sinngemäß auch für die erfindungsgemäße Vorrichtung und umgekehrt.
Eine Kernidee der Erfindung ist es, ein mobiles Medizingerät, wie z.B. ein C-Bogen-Röntgengerät, mit einer Mensch-Maschine-Schnittstelle auszustatten, die eine Positionsanzeige und eine besonders intuitive Bewegungssteuerung des Medizingerätes erlaubt. Dadurch wird eine Möglichkeit zur Bedienung des Medizingerätes bereitgestellt, die auf besonders einfache Weise eine kollisionsfreie Bewegung eines mobilen Medizingerätes und damit ein automatisierbares Verfahren de Medizingerätes im Raum ermöglicht.
Die Mensch-Maschine-Schnittstelle umfasst eine Anzeigevorrichtung, wie beispielsweise einen Monitor oder ein Display, die eine Bedienoberfläche bereitstellt zur Anzeige der räumlichen Gegebenheiten in der Umgebung des Medizingerätes, ähnlich wie bei einem Navigationssystem. Die Anzeigevorrichtung wird von einer Auswerte- und Steuereinheit angesteuert, die vorzugweise als ein Teil der zentralen Recheneinheit des Medizingeräts ausgeführt ist.
Die Bedienoberfläche lässt sich dabei mit einem geeigneten Bedienmittel bedienen, wobei es sich vorzugsweise um ein in die Anzeigevorrichtung integriertes Bedienmittel handelt, insbesondere bei der Verwendung eines berührungsempfindlichen Bildschirms (Touchscreen), und/oder bei dem Bedienmittel handelt es sich um eine andere geeignete Eingabevorrichtung, wie beispielsweise eine Computermaus. Optional kann als Anzeigevorrichtung, gegebenenfalls zusätzlich zu einer der oben genannten Möglichkeiten, auch eine Datenbrille benutzt werden, bei der Informationen, wie beispielsweise erkannte Objekte, mittels „Augmented Reality“-Verfahren in das reale Bild eingeblendet werden.
Eine bevorzugte Ausführungsform der Erfindung betrifft eine Visualisierung von Umgebungsinformationen (insbesondere Raum- und Objektinformationen), Raumgeometrien, Bewegungspfaden und/oder Kollisionsobjekten, vorzugsweise nach Art einer Landkarte, sowie eine intuitive Manipulation eines mobilen Medizingeräts mittels einer vorzugsweise touchscreen- oder mausbasierten Mensch-Maschine-Schnittstelle. Die Mensch-Maschine-Schnittstelle dient dabei vorzugsweise zur unmittelbaren Bedienung der Gerätesteuerung des Medizingerätes. Zu diesem Zweck erfolgt die Visualisierung der Realität vorzugweise in Echtzeit, d.h. die zur Visualisierung verwendeten Sensordaten werden zyklisch erfasst und unmittelbar, d.h. ohne nennenswerte Verzögerung, jedenfalls aber zeitnah, weiterverarbeitet.
Unter einem mobilen Medizingerät wird dabei in erster Linie, vorzugsweise ausschließlich, ein Medizingerät verstanden, welches mittels geeigneter antreibbarer Bewegungsmittel im Raum verfahrbar ist und dabei seine Position im Raum verändert. Der Begriff wird dabei in Abgrenzung zu stationären Medizingeräten verwendet, die an einer einzigen Raumposition verbleibend lediglich am Ort bewegbar sind, beispielsweise verschiedene Posen einnehmen können. Ein typisches Beispiel für ein mobiles Medizingerät ist ein bildgebendes C-Bogen-Röntgengerät mit antreibbaren Rädern, das nach Bedarf von einer Raumposition in eine andere Raumposition verfahrbar ist.
Die Mensch-Maschine-Schnittstelle dient dabei in erster Linie dazu, vor einem voll- oder halbautomatischen Verfahren des mobilen Medizingerätes oder, sofern vorgesehen, vor einem manuellen Verfahren des Medizingerätes, dem Anwender wenigstens einen Verfahrweg anzuzeigen, welcher später von dem Medizingerät genutzt wird. Dabei geht es allgemein um ein Verfahren des Medizingerätes von einer Start-Position, vorzugsweise der aktuellen Ist-Position des Medizingerätes, in eine Zielposition. Anstelle von Verfahrweg können auch die Begriffe Weg, Route, Strecke, Pfad, Fahrweg oder Bewegungsbahn verwendet werden.
Der dem Anwender anzuzeigende und gegebenenfalls vom Anwender auszuwählende und/oder zu bestätigende Fahrweg wird vorzugsweise von dem Medizingerät selbständig ermittelt. In diesem Fall weist das Medizingerät selbst eine geeignete Recheneinheit auf, die nachfolgend auch als Auswerte- und Steuereinheit bezeichnet wird. Diese Auswerte- und Steuereinheit ist vorzugsweise als Teil der zentralen Recheneinheit des Medizingerätes ausgeführt. Die Berechnung der Route kann aber auch in einer Recheneinheit außerhalb des Medizingerätes erfolgen, beispielsweise in einem Raumerfassungssystem, das weiter unten genauer erläutert wird.
Zur Ermittlung des Verfahrweges werden Umgebungs- und Objektinformationen benötigt, insbesondere Informationen des Raumes, in welchem sich das Medizingerät befindet, sowie Informationen über das Medizingerät selbst. Die Auswerte- und Steuereinheit ermittelt dabei, basierend auf einer Erkennung eines Medizingerätes in einem überwachten Raum, ein Kollisionsrisiko zwischen dem Medizingerät und weiteren Objekten im Raummodell und auf dieser Grundlage eine oder mehrere mögliche Routen zum Erreichen der gewünschten Zielposition. Geeignete Pfadplaner sowie Kollisionsvermeidungsalgorithmen sind aus dem Stand der Technik bekannt, insbesondere aus dem Bereich der Robotik, und werden in der Auswerte- und Steuereinheit ausgeführt.
Unter Verwendung der aktuellen Raum- und Objektinformationen und eines Kollisionsmodels (Modell zur Kollisionserkennung) visualisiert die Auswerte- und Steuereinheit durch geeignete Ansteuerung der Anzeigevorrichtung das Raummodell sowie die Position des Medizingerätes und die Route(n). Zugleich steuert unter Verwendung der aktuellen Raum- und Objektinformationen und eines Kollisionsmodels die mit der Auswerte- und Steuereinheit verbindbare oder verbundene Antriebssteuerung des Medizingerätes den Antrieb des Medizingerätes. Bei dem Antrieb handelt es sich vorzugsweise um einen elektromotorischen Antrieb für eine Anzahl omnidirektionaler Räder des Medizingerätes. In einer einfachen Ausführungsform, bei der keine omnidirektionalen Antriebseinheiten zum Einsatz kommen, sind auch auf klassische Weise motorisch lenkbare und angetriebene Räder denkbar.
Die Visualisierung des Verfahrweges dient in erster Linie zur Bestätigung bzw. Korrektur der Route durch den Anwender. Der Anwender der Mensch-Maschine-Schnittstelle soll und kann anhand der Anzeige des Verfahrweges entscheiden, ob ein bestimmter Verfahrweg gewählt werden soll oder aber ob beispielsweise ein alternativer Verfahrweg besser geeignet wäre.
Stehen mehrere Zielpositionen zur Auswahl, dann besteht vorzugsweise die Möglichkeit, dass diese von dem Anwender auf unterschiedliche Art und Weise ausgewählt und/oder bestätigt werden, beispielsweise durch eine manuelle Auswahl mit Hilfe der Mensch-Maschine-Schnittstelle, z. B. mittels eines Eingabegerätes, wie der Computermaus.
Es kann sich bei der Zielposition auch um eine von der Auswerte- und Steuereinheit bevorzugt angezeigte Position, wie beispielsweise eine Parkposition, handeln, die automatisch der Liste der möglichen Zielpositionen hinzugefügt wird, wenn entsprechende Positionsmarkierungen im Raum vorhanden sind und automatisch erkannt werden.
Bei den anzufahrenden Zielpositionen kann es sich nicht nur um Park- oder Betriebspositionen handeln. Mit anderen Worten ist die Erfindung nicht nur darauf beschränkt, ein Medizingerät von einer Betriebsposition, z.B. einer Röntgenposition, in eine Parkposition und zurück zu verfahren. Bei der Zielposition kann es sich auch um eine alternative oder eine weitere Betriebsposition handeln. Mit anderen Worten ist es auch möglich, das Medizingerät von einer ersten Betriebsposition in eine zweite Betriebsposition zu verfahren, beispielsweise in eine Betriebsposition mit einer anderen Angulation des C-Bogens.
Die Visualisierung des Verfahrweges erfolgt vorzugsweise im Rahmen einer Darstellung einer virtuellen Umgebung, für die ein dreidimensionales Raummodel verwendet wird. Dieses dreidimensionale Raummodel sowie auch das Kollisionsmodel, welches zur Bewertung des Kollisionsrisikos auf dem jeweils gewählten Pfad verwendet wird, wird unter Verwendung derjenigen Daten erstellt bzw. aktualisiert, die aus dem später noch genauer beschriebenen Raumerfassungsverfahren hervorgehen bzw. bereitgestellt werden.
Ungeachtet dessen, dass das Raummodell sowie das Kollisionsmodell vorzugsweise unter Verwendung aller drei Raumkoordinaten erstellt und verarbeitet wird, kann die Anzeige im Rahmen der Bedienoberfläche, insbesondere die Anzeige der Umgebung und/oder die Anzeige der Route, vorzugsweise wahlweise dreidimensional oder zweidimensional erfolgen. Bei einer zweidimensionalen Ansicht erfolgt beispielsweise eine Draufsicht auf den Raum, in welchem sich das Medizingerät befindet. Die dreidimensionale, räumliche Darstellung der Umgebung bzw. des Raumes, typischerweise eines Operationsraumes oder dergleichen, erfolgt vorzugsweise aus der Vogelperspektive oder aber aus einer isometrischen Perspektive, beispielsweise schräg von oben oder aus der Perspektive des Medizingerätes. Wird eine Darstellung aus der Perspektive des Medizingerätes verwendet, erfolgt die Darstellung vorzugsweise dreidimensional aus Sicht eines virtuellen Fahrers. Dies kann speziell bei einem Einsatz eines manuellen Verfahrens des Medizingerätes vorteilhaft sein, da auf diese Weise eine besonders intuitive Zuordnung der Bewegungsrichtung des realen Systems und der auf der Anzeigevorrichtung dargestellten Bedienelemente zur Bewegungssteuerung erfolgen kann.
Die Mensch-Maschine-Schnittstelle umfasst dann vorzugsweise eine nach Art eines Navigationsinterfaces ausgebildete Anzeigevorrichtung, die zur Visualisierung der Raumdaten und der Objektdaten, insbesondere zur räumlichen Darstellung der Ist-Situation ausgebildet ist. Vorzugsweise handelt es sich bei einer solchen Anzeigevorrichtung um einen Touchscreen. Neben der Darstellung des Raumes und der sich darin befindenden Objekte erfolgt dabei ebenfalls die Darstellung des Medizingerätes, vorzugsweise einschließlich der aktuellen Gerätestellung, wie beispielsweise eine bestimmte Angulation des C-Bogens eines C-Bogen-Röntgengerätes.
Die Darstellung des Medizingerätes erfolgt dabei vorzugsweise mit einer Einhüllenden, die nach Art eines Sicherheitsbereiches zur Definition einer kollisionsfreien Zone um das Medizingerät herum dient. Die Anzeige einer solchen Einhüllenden ist besonders bei einer alternativen manueller Steuerung wichtig, bei der das Medizingerät vollständig oder teilweise ohne Berücksichtigung einer zuvor ermittelten Route, sozusagen „auf Sicht“, verfahren wird. Die Einhüllende dient nicht nur zur Visualisierung des Medizingerätes. Sie bildet vorzugsweise zugleich die bei der Kollisionsprüfung verwendeten Außengrenzen des Medizingerätes.
Die Visualisierung umfasst darüber hinaus vorzugsweise auch die Darstellung des von dem Medizingerät zurückzulegenden Pfades von einer Ist- in eine Zielposition. Vorzugsweise ebenfalls angezeigt werden Kollisionswarnungen. Dies umfasst insbesondere Kollisionswarnungen in solchen Fällen, in denen eine gewünschte Zielposition nicht kollisionsfrei erreicht werden kann. Dann erfolgt die Kollisionswarnung bereits während der Planung des Verfahrweges oder unmittelbar im Anschluss an die Planung, jedenfalls aber vorzugsweise vor dem Beginn des Verfahrvorgangs. Darüber hinaus können aber auch Kollisionswarnungen angezeigt werden, welche sich erst nach Abschluss der Routenplanung ergeben. Dies betrifft insbesondere solche Fälle, in denen aufgrund einer sich dynamisch ändernden Umgebung während des Verfahrens des Medizingerätes eine Kollision stattfinden würde. Kollisionswarnungen erfolgen dabei in der Regel dann, wenn das Kollisionsrisiko einen bestimmten kritischen Wert übersteigt.
Die Besonderheit der zum Einsatz kommenden Mensch-Maschine-Schnittstelle besteht darin, dass sie eine virtuelle Realität abbildet, die auf der Grundlage realer Umgebungs- und Objektdaten aktuell ermittelt und quasi in Echtzeit dargestellt wird. Die Umgebung sowie die sich darin aufhaltenden Objekte, einschließlich des Medizingerätes, sind vorzugweise symbolisch dargestellt, können aber auch mehr oder weniger gegenständlich dargestellt sein. Eine gegenständliche Darstellung ist insbesondere bei der Anzeige des Medizingerätes vorteilhaft. In dieser Realität ist auch der Verfahrweg des Medizingerätes dargestellt. Wesentlich ist, dass die Visualisierung der Route durch die Mensch-Maschine-Schnittstelle nicht nur einer Anzeige eines Ist-Zustandes dient, dem Anwender also eine visuelle Darstellung der Ist-Situation gegeben wird. Die Visualisierung ermöglicht zugleich die Planung zukünftiger Ereignisse, beispielsweise möglicher Alternativrouten, einschließlich einer Rückmeldung an den Anwender über deren Ausführbarkeit. Diese Rückmeldung kann z.B. durch unterschiedliche Farbdarstellungen der Routen erfolgen, beispielsweise grün für ausführbare Routen und rot für kollisionsbehaftete Wege. Ganz besonders wesentlich ist jedoch, dass die Visualisierung eine Einflussnahme des Anwenders auf das Verhalten des Medizingerätes im Sinne einer Steuerung ermöglicht, und zwar vorzugsweise anhand eines auf Echtzeit-Informationen beruhenden virtuellen Raummodells. Zu diesem Zweck ist die Mensch-Maschine-Schnittstelle mit der Steuerung des Medizingerätes, insbesondere mit dessen Antriebssteuerung verbunden. Dies betrifft nicht nur die Möglichkeit einer Auswahl verschiedener Routen, die Bestätigung einer bestimmten Route und/oder das manuelle Ändern einer Route, sondern auch das weitere, zyklische Bestätigen einer einmal ausgewählten Route während ihrer Ausführung, d h. während des Verfahrens des Medizingerätes auf dieser Route, insbesondere nach Art eines Totmannschalters, und/oder das manuelle Abbrechen einer bereits begonnenen Ausführung, beispielweise aufgrund einer Kollisionswarnung oder aber aufgrund anderer, nicht von der Mensch-Maschine-Schnittstelle kommunizierter Gründe. Der Totmannschalter ist dabei vorzugsweise als Teil der Eingabevorrichtung ausgebildet, beispielsweise als Teil der Anzeigevorrichtung, z.B. als virtuelles Bedienelement auf dem TouchScreen eines als Eingabevorrichtung verwendeten Tablet-Computers. Der Totmannschalter kann aber auch unabhängig von der Anzeigevorrichtung realisiert sein, beispielsweise als separat ausgeführtes und während der Ausführung einer Bewegung zu betätigendes klassisches Fußschalterpedal.
Mit dieser Art der erfindungsgemäßen Bewegungssteuerung ist eine schnelle und besonders intuitive Positionierung des Medizingerätes möglich.
Bei den für das 3D-Raummodell bzw. das Kollisionsmodell verwendeten Daten handelt es sich entweder ausschließlich um Daten mobiler Sensoren, vorzugsweise aber zusätzlich auch um Daten stationärer Sensoren eines mit dem Medizingerät, genauer gesagt mit der Auswerte- und Steuereinheit, verbundenen oder verbindbaren Raumerfassungssystems.
Das bevorzugte Verfahren zur Erfassung von Objekt- und Umgebungsinformationen im dreidimensionalen Raum umfasst eine Erkennung bzw. Erfassung der Raumgeometrie. Das Verfahren arbeitet vorzugsweise in Echtzeit. Das bedeutet, dass die erfassten Daten zyklisch aktualisiert werden. Die Erfassung umfasst vorteilhafterweise sowohl eine raumbezogene, d.h. in der Regel unveränderliche, statische Erfassung, als auch eine objektbezogene, d.h. dynamische Erfassung.
Die Erfassung erfolgt dabei zur möglichst vollständigen Erfassung der Raumgeometrie mit Hilfe mehrerer Sensoren, vorzugsweise optischer Sensoren. Typischerweise handelt es sich dabei um ein Mehrfach-Sensor-Netzwerk, beispielsweise mit einem oder mehreren Laserscannern sowie einer Anzahl von 3D-Kameras oder mit einem oder mehreren Ultraschallsensoren sowie einer Anzahl von 3D-Kameras. Die Sensoren sind dabei an eine Recheneinheit angeschlossen bzw. anschließbar, in welcher die Daten erfasst und verarbeitet werden. Die Recheneinheit ist dabei entweder Teil des Raumerfassungssystems oder Teil des Medizingerätes. Beispielsweise wird die zentrale Recheneinheit des Medizingerätes, insbesondere die Auswerte- und Steuereinheit, hierfür verwendet. Die Verarbeitung der Daten umfasst dabei insbesondere die Berechnung des von dem erfindungsgemäßen Verfahren verwendeten Raummodells und/oder des von dem erfindungsgemäßen Verfahren verwendeten Kollisionsmodells.
Es wird vorgeschlagen, ein mobiles Medizingerät, wie z.B. ein C-Bogen-Röntgengerät, mit dem Raumerfassungssystem auszustatten. Mit anderen Worten wird das Medizingerät mit einem oder vorteilhafterweise mehreren Sensoren zur räumlichen Positionserkennung versehen. Am mobilen Gerät selber können derartige Sensoren z.B. sein: Laserscanner, 3D-Tiefenkameras, normale RGB-Kameras, vorzugsweise angeordnet rund um das Gerät mit entsprechender Fischaugenoptik und Nachentzerrung der Bilder für einen 360° Rundumblick, kapazitive Sensoren, Ultraschallsensoren oder Sensoren für magnetisches Tracking, die auf Basis elektromagnetischer Wellenausbreitung arbeiten. Ebenfalls möglich ist der Einsatz von Infrarotkameras, wie sie für stereoskopische Tracking-Verfahren verwendet werden. Mit Hilfe dieser Sensoren und entsprechender Verfahren zur Sensordatenfusion kann das mobile Medizingerät einen Teil des Raumes und vor allem seine direkte Umgebung erfassen.
Allerdings reicht dies oftmals nicht aus, um ein Medizingerät frei im Raum automatisiert zu bewegen, da die zum Einsatz kommenden Sensoren, insbesondere die Sensoren vom optischen Typ, nicht hinter blockierende Objekte sehen können und so keine vollständige Umgebungslandkarte zur Weg- und Kollisionsberechnung ermittelbar ist. Daher wird vorgeschlagen, den Raum, in welchem später das Verfahren des Medizingerätes erfolgen soll, zusätzlich mit einer oder mehreren fest montierten Sensoreinheiten zu versehen. Auswahl, Anzahl und Anordnung dieser stationären Sensoren hängen u.a. von der Geometrie des Raumes ab. Als stationäre Sensoren kommen grundsätzlich dieselben Sensoren zur Raum- und/oder Objekterfassung in Frage, wie sie mit dem mobilen Medizingerät verwendbar sind. Vorzugsweise werden als stationäre Sensoren 3D-Tiefenkameras verwendet. Kommen Infrarotkameras als stationäre Sensoren zum Einsatz, sind an dem Medizingerät (und ggf. an anderen zu erfassenden Objekten) geeignete Marker angebracht, z.B. aktiv oder passiv im Infrarotspektrum reflektierende Markergeometrien.
Zwingend vorhanden sind somit bewegliche Sensoreinheiten. Diese sind an dem mobilen Medizingerät selbst angebracht. Optional werden diese beweglichen Sensoreinheiten durch stationäre, ortsfeste Sensoreinheiten ergänzt. Bei diesen stationären Sensoreinheiten handelt es sich vorzugsweise um unbewegliche, also an einem Ort im Raum angeordnete Sensoren, die vorzugsweise an einer oder mehreren Wänden des Raumes installiert sind, in welchem sich das Medizingerät bewegt, wobei unter einer Wand auch eine Decke des Raumes verstanden wird. Die ortsfesten Sensoreinheiten können aber auch an geeigneten, vorzugsweise unbeweglichen, im Raum vorhandenen Ausstattungsobjekten angebracht sein, wie beispielsweise an Schränken, OP-Leuchten, Monitorampeln oder dergleichen.
Im Rahmen einer Wandinstallation verwendeten Sensoren sind vorzugweise von der Wand lösbar bzw. abnehmbar. Dies ermöglicht es, einen Satz dieser Sensoren in unterschiedlichen Räumen einzusetzen. Dabei kann es sich beispielsweise um benachbarte Räume eines Krankenhauses handeln oder um Räume in unterschiedlichen Etagen des Krankenhauses. Für eine rasche Deinstallation der Sensoren können die Sensoren beispielsweise mit Magnethalterungen versehen sein, wobei die entsprechenden Magnetaufnahmen an der Wand verbleiben.
Ein Verfahren zur Platzierung der Sensoren in einem Raum umfasst entweder, dass die geeigneten Positionen für die Wandsensoren anhand der Raumbesonderheiten bei der Erstinstallation manuell, d.h. händisch, ermittelt werden. Oder das Platzierungsverfahren umfasst ein automatisches Ausmessen der Raumgeometrie mittels geeigneter Messmittel, in Verbindung mit der Anwendung von Optimierungsalgorithmen zur Sensorplatzierung.
Ist in einem Raum bereits einmal eine Erstinstallation erfolgt und sind die optimalen Sensorpositionen nicht bereits erkennbar, beispielsweise aufgrund der an den Wänden verbliebenen Magnethalterungen, dann können die bereits bekannten Sensorpositionen für diesen Raum in einem von der Recheneinheit des Raumerfassungssystems auslesbaren Datenspeicher bzw. in einer Datei abgespeichert sein und diese Positionen können, beispielsweise unter Zuhilfenahme eines Projektors oder eines anderen geeigneten Anzeigemittels, dem Anwender zur erneuten Sensorinstallation angezeigt werden, wobei der Projektor vorzugsweise an dem mobilen Medizingerät angebracht ist.
Ist ein Raum einmal vermessen worden, bzw. handelt es sich um einen bereits bekannten Raum, dann ist vorzugsweise ein Verfahren zur automatischen Wiedererkennung des Raumes vorgesehen. Die Wiedererkennung des Raumes erfolgt dabei beispielsweise anhand der Raumgeometrie und/oder anhand der erkannten Positionen der Sensoren an den Wänden.
Die vorliegende Erfindung ist allgemein bei mehrachsigen, beweglichen Medizingeräten einsetzbar, insbesondere bei mobilen, bildgebenden Medizingeräten, wie beispielsweise bei mobilen, autonom beweglichen C-Bogen-Röntgengeräten.
Das erfindungsgemäße Verfahren kann rechnergestützt durchgeführt werden. Die zur Durchführung des erfindungsgemäßen Verfahrens geeignete Vorrichtung lässt sich teilweise durch die Bereitstellung eines geeigneten Computerprogramms realisieren, insbesondere eines Computerprogramms für die zentrale Recheneinheit des Medizingerätes.
Die erfindungsgemäße Vorrichtung ist ausgebildet zur Durchführung des beschriebenen Verfahrens. Vorzugsweise umfasst die Vorrichtung wenigstens eine Datenverarbeitungs- bzw. Recheneinheit, ausgebildet zur Durchführung aller Schritte entsprechend des hier beschriebenen Verfahrens, die in einem Zusammenhang mit der Verarbeitung von Daten stehen. Bei dieser Recheneinheit handelt es sich vorzugsweise um die zentrale Recheneinheit des Medizingerätes. Die Datenverarbeitungseinheit weist vorzugsweise eine Anzahl von Funktionsmodulen auf, wobei jedes Funktionsmodul ausgebildet ist zur Durchführung einer bestimmten Funktion oder einer Anzahl bestimmter Funktionen gemäß dem beschriebenen Verfahren. Bei den Funktionsmodulen kann es sich um Hardwaremodule oder Softwaremodule handeln. Mit anderen Worten kann die Erfindung, soweit es die Datenverarbeitungseinheit betrifft, entweder in Form von Computerhardware oder in Form von Computersoftware oder in einer Kombination aus Hardware und Software verwirklicht werden. Soweit die Erfindung in Form von Software, also als Computerprogramm, verwirklicht ist, werden sämtliche beschriebenen Funktionen durch Computerprogrammanweisungen realisiert, wenn das Computerprogramm auf einem Rechner mit einem Prozessor ausgeführt wird. Die Computerprogrammanweisungen sind dabei auf an sich bekannte Art und Weise in einer beliebigen Programmiersprache verwirklicht und können dem Rechner in beliebiger Form bereitgestellt werden, beispielsweise in Form von Datenpaketen, die über ein Rechnernetz übertragen werden, oder in Form eines auf einer Diskette, einer CD-ROM oder einem anderen Datenträger gespeicherten Computerprogramms.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Dabei zeigen:
- 1 ein Beispiel eines von der Mensch-Maschine-Schnittstelle abgebildeten Raummodells in Draufsicht mit Position des C-Bogen-Röntgengeräts,
- 2 ein Raummodell im Eingabemodus mit Zielpositionsvorgabe, Wegvorschlag und Alternativweg sowie Parkposition,
- 3 ein Raummodell mit Alternativroutenvorschlag bei Kollisionsgefahr,
- 4 ein Raummodell mit Kollisionsanzeige für geplante Aufnahmetechnik,
- 5 die zusammenwirkenden Systemkomponenten,
- 6 einen OP-Raum mit Sensorsetup.
Sämtliche Figuren zeigen die Erfindung lediglich schematisch und mit ihren wesentlichen Bestandteilen. Gleiche Bezugszeichen entsprechen dabei Elementen gleicher oder vergleichbarer Funktion.
Die folgende Beschreibung bezieht sich auf ein C-Bogen-Röntgengerät 1 mit einer Anzahl von Rädern 2, vorzugsweise mit drei oder mehr Rädern, als Bewegungsmittel. Die Räder 2 sind vorzugsweise unabhängig voneinander antreibbar, beispielsweise mittels eigener, von einer Antriebssteuerung 3 angesteuerter Antriebe 4, insbesondere elektromotorischer Antriebe 4. Vorzugsweise handelt es sich um omnidirektionale Räder 2. Die Antriebssteuerung 3 ist als Teil einer zentralen Recheneinheit 5 des Röntgengerätes 1 ausgebildet.
Das Röntgengerät 1 umfasst eine Mensch-Maschine Schnittstelle, die einen Touchscreen 6 als Anzeigevorrichtung aufweist. Der Touchscreen 6 wird von einer Auswerte- und Steuereinheit 7 angesteuert, die somit sämtliche Anzeigen auf dem Touchscreen 6 kontrolliert sowie sämtliche Eingaben bzw. Anwender-Interaktionen empfängt. Die Auswerte- und Steuereinheit 7 ist als Teil der zentralen Recheneinheit 5 des Röntgengerätes 1 ausgebildet.
Auf dem Touchscreen 6 ist eine Bedienoberfläche 8 angezeigt. Teil der Bedienoberfläche 8 ist eine Visualisierung der Ist-Position 9 des zu bewegenden Röntgengerätes 1. Zu diesem Zweck wird ein Modell 11 des Röntgengerätes 1 abgebildet, das dessen aktuelle räumliche Position und Lage im Raum wiedergibt.
Eine Darstellung des Modells 13 des OP-Raums 14 nach Art einer Landkarte mit positionsrichtig platziertem Modell 11 des Röntgengerätes 1 zeigt1. Darin ist beispielhaft das Modell 11 des Röntgengerätes 1 in Draufsicht mit einem um 90° angulierten C-Bogen dargestellt. In der in2 gezeigten Situation befindet sich der C-Bogen des Röntgengerätes 1 in der nicht angulierten Verfahrstellung, was sich auch in dem abgebildeten Modell 11 widerspiegelt.
In beiden Fällen ist eine mit durchbrochenen Linien gezeichnete Einhüllende 12 gezeigt, welche der aktuellen Kontur des Röntgengerätes 1 entspricht und vorzugsweise durch ein oder mehrere Rechtecke approximiert wird. Die von der Einhüllenden 12 umschlossene Fläche stellt denjenigen Bereich dar, in dem bei späteren Bewegungen des Röntgengerätes 1 keine Berührung mit anderen erkannten Objekten oder Personen erlaubt ist. Analog zum graphisch dargestellten Modell 11 wird dieses auch als Teil eines Kollisionsmodells in der Auswerte- und Steuereinheit 7 verwendet, um Kollisionen zu erkennen bzw. zu vermeiden.
Das Modell 11 des Röntgengerätes 1 wird gemäß seiner tatsächlichen räumlichen Position im Raum 14, beispielsweise einem OP-Raum, auf dem Touchscreen 6 platziert und in Relation zu seiner Umgebung dargestellt. In den illustrierten Beispielen befindet sich das Röntgengerät 1 zumeist in der Nähe eines Patiententisches 15 und in dem OP-Raum 14 befinden sich weitere Objekte, wie beispielsweise ortsfeste Schränke 16 und mobile Medizingeräte 17, siehe6, wobei der Einfachheit halber für die in6 abgebildeten realen Objekte und die in den1 bis 4 abgebildeten virtuellen Objekte dieselben Bezugszeichen verwendet werden.
Die Positionsermittlung kann z.B. mit Hilfe optischer Sensoren erfolgen, wie beispielsweise einer Anzahl Laserscanner und 3D-Tiefenkameras und/oder stereoskopischen Navigationskameras. Auch andere Sensoren wie Ultraschallsensoren und kapazitive Näherungssensoren können herangezogen werden. Ferner ist eine Fusion der Raumerfassungsdaten mehrerer unabhängiger Sensor- und/oder Kamerasysteme möglich und vorteilhaft, da eine direkte Sichtlinie eines einzelnen Sensorsystems zur Überwachung der gesamten Raumgeometrie sehr unwahrscheinlich ist. Einzelheiten zu dem hier vorzugsweise zum Einsatz kommenden Verfahren zur Raumerfassung werden weiter unten beschrieben.
Neben dem Modell 11 des Röntgengerätes 1 werden weitere statische und dynamische Hindernisse bzw. Objekte 15, 16, 17 als Teil der Bedienoberfläche 8 dargestellt. Der in1 nicht schraffierte Bereich 18 ist prinzipiell von dem Röntgengerät 1 ohne Kollision erreichbar, solange die Einhüllende 12 keines der als Hindernisse dargestellten Objekte 15, 16, 17 berührt, die mit schräger Schraffur dargestellt sind. Gibt es prinzipiell unerreichbare Bereiche 19, werden diese ebenfalls in der Landkarte eingezeichnet. In1 sind das die mit horizontaler Schraffur versehenen Bereiche.
Das Raummodell 13 wird durch die Auswerte- und Steuereinheit 7, vorzugsweise ausschließlich unter Verwendung aktueller Sensordaten erstellt. In anderen Ausführungsvarianten der Erfindung können für die Erstellung des Raummodells 13 zusätzlich auch Daten, insbesondere zu Positionen und Ausdehnungen von Objekten verwendet werden, die nicht aktuell von Sensoren ermittelt wurden, sondern die in einer Datei 21 abgespeichert sind, auf welche die Auswerte- und Steuereinheit 7 Zugriff hat.
Die Einteilung der Bodenfläche des Raummodells 13 in die verschiedenen Bereiche erfolgt durch die Auswerte- und Steuereinheit 7 unter Verwendung eines Kollisionsmodells. Zu diesem Zweck dient die Auswerte- und Steuereinheit 7 auch als Kollisionsrechner. Die Darstellung des Modells 11 des Röntgengerätes 1 sowie die Darstellung des Raummodells 13 mit den verschiedenen Bereichen vorzugsweise unterschiedlicher Farben erfolgt durch die von der Auswerte- und Steuereinheit 7 entsprechend angesteuerte Anzeigevorrichtung 6 der Mensch-Maschine-Schnittstelle.
Der Anwender kann nun eine oder mehrere verschiedene Zielpositionen 22 vorgeben. Dies geschieht mit Hilfe der angezeigten Bedienoberfläche 8 durch Platzierung des Gerätemodells 11 auf der gewünschten Zielposition, vorzugsweise durch ein Verschieben und/oder Drehen des Gerätemodells 11 auf dem Touchscreen 6 mit den Fingern zu der gewünschten Zielposition. Alternativ kann die Platzierung mit einer Computermaus 23 erfolgen.
Ist eine Zielposition 22 aufgrund bekannter Hindernisse nicht erreichbar, verhindert in einer Ausführungsform der Erfindung die Auswerte- und Steuereinheit 7 die Eingabe der gewünschten Zielposition 22 auf der Bedienoberfläche 8.
Ist die Zielposition 22 grundsätzlich erreichbar, aber in der aktuellen Gerätestellung nicht, z.B. weil der C-Bogen durch eine Angulation zu breit für einen schmalen Durchgang zwischen zwei Objekten ist, wird die aktuelle Gerätestellung von der Auswerte- und Steuereinheit 7 abgespeichert und der Anwender wird mittels eines geeigneten Abfrageprozesses gefragt, ob das Röntgengerät 1 für den Verfahrvorgang eine räumlich günstigere Stellung annehmen soll, z.B. durch das Hochkantstellen des C-Bogenarms, und ob nach Ende der Verfahrbewegung die alte Stellung wiederhergestellt werden soll.
Ist die Zielposition 22 erreichbar, wird sie von der Auswerte- und Steuereinheit 7 des Röntgengerätes 1 angenommen und abgespeichert. Sie ist dann als neue Zielposition 22 neben der aktuellen Ist-Position 9 des Röntgengerätes 1 in der als Teil der Bedienoberfläche 8 abgebildeten Landkarte sichtbar, wie in2 dargestellt.
Anschließend sind vorzugsweise zwei Möglichkeiten vorgesehen, wie das Röntgengerät 1 von der Ist-Position 9 zu der Zielposition 22 verfahren kann. In einem automatischen Modus wird dem Anwender auf der Landkarte der von der Auswerte- und Steuereinheit 7 errechnete, günstigste Weg 24 angezeigt. Dabei kann es sich vorzugsweise um eine zeitoptimierte Route handeln. Ein solcher Wegvorschlag ist in2 abgebildet. Der Anwender kann diesen Weg 24 bestätigen und das Röntgengerät 1 mit Hilfe eines geeigneten, erstfehlersicheren Auslösemechanismus entlang dieses Weges 24 fahren lassen.
Bei dem Auslösemechanismus zum Auslösen des Fahrbefehls kann es sich z.B. um einen geeigneten Fußschalter oder eine beliebige Art von Fernbedienung, vorzugsweise jeweils mit Totmannfunktion, oder einen erstfehlersicheren Computer (Tablet, PC, Smartphone, ...) handeln. Die entsprechenden Prozesse und Vorrichtungen zur erstfehlersicheren Steuerung sind aus dem Stand der Technik bekannt. Die Vorrichtung zur Verwirklichung des Auslösemechanismus ist dabei ebenso wie der Touchscreen drahtgebunden oder drahtlos an die Auswerte- und Steuereinheit 7 angebunden. Im vorliegenden Beispiel dient stellt die Mensch-Maschine-Schnittstelle über die auf dem Touchscreen 6 dargestellte Bedienoberfläche 8 den Auslösemechanismus zur Verfügung.
Die Auswerte- und Steuereinheit 7 sorgt dabei für die Kollisionserkennung sowie, über die Antriebssteuerung 3, für Lenkung und Antrieb der Räder 2 des Röntgengerätes 1. Der Anwender muss nur den eigentlichen Fahrbefehl geben. Die aktuelle Ist-Position 9 und alle erkannten statischen und dynamischen Objekte 15, 16, 17 werden vorzugsweise sowohl vor der eigentlichen Bewegung des Röntgengerätes 1, nämlich zur Planung der Route 24, als auch während der Bewegung des Röntgengerätes 1, nämlich zum Steuern des Verfahrvorgangs auf der Route 24, kontinuierlich auf der als Bedienoberfläche 8 angezeigten Landkarte, d.h. im Raummodell 13, und im Kollisionsrechner aktualisiert.
Mit der vorgeschlagenen Mensch-Maschine-Schnittstelle können Zielpositionen 22 in dem Raummodell 13 zunächst simuliert werden, bevor sie zu einem späteren Zeitpunkt angefahren werden, wenn sie sich als brauchbar erweisen. Falls dem Anwender ein von der Auswerte- und Steuereinheit 7 vorgegebener Weg nicht optimal erscheint, kann er in einem manuellen Editiermodus über die Bedienoberfläche 8 einen alternativen Weg 25 einzeichnen. Dies kann erneut mit den Fingern oder der Maus erfolgen. Die Auswerte- und Steuereinheit 7 prüft diesen Alternativweg 25 auf Umsetzbarkeit, optimiert ihn entsprechend der errechneten Kollisionsdaten und stellt ihn als Alternativweg 25 ebenfalls im Raummodell 13 dar, siehe2. Der Anwender kann nun entscheiden, welcher Weg ihm besser erscheint und diesen auswählen, bevor er den Fahrbefehl gibt. Besonders vorteilhaft ist es, wenn die Anzeigevorrichtung, hier in Form des Touchscreens 6, von dem Röntgengerät 1 lösbar und als erstfehlersicheres Eingabemittel zum Auslösen des Fahrbefehls ausgebildet ist, so dass das Verfahren des Röntgengerätes 1 von dem Anwender aus der Ferne, beispielsweise einem benachbarten Raum, geplant und ausgeführt werden kann.
Erkennt die Auswerte- und Steuereinheit 7 während der Bewegung des Röntgengerätes 1 bei einem automatischen Anfahren einer Zielposition 22 aufgrund veränderter Objektpositionen in der Umgebung des Röntgengerätes 1 eine drohende Kollision, so zeigt es diesen Umstand auf der Landkarte an und schlägt, sofern möglich, eine zuvor selbständig neuberechnete Alternativroute 26 vor. Zumindest wird jedoch ein Ausweichmanöver vorgenommen, um das Hindernis zu umfahren. Ist ein Ausweichen nicht möglich, wird das Verfahren des Röntgengerätes 1 über die Antriebssteuerung 3 verlangsamt und, falls erforderlich, gestoppt oder aber das Verfahren wird fortgesetzt, wenn sich das Hindernis wieder aus dem Fahrweg entfernt hat. Ein entsprechender Steuerbefehl wird von der Auswerte- und Steuereinheit 7 an die Antriebssteuerung 3 des Röntgengerätes 1 ausgegeben. Vorzugsweise ist vorgesehen, dass der Anwender den jeweiligen Steuerbefehl bestätigt. Erfolgt die Bestätigung durch den Anwender, verwendet die Antriebssteuerung 3 die Alternativroute 26, um das Röntgengerät 1 zu dem vorgegebenen Ziel zu verfahren bzw. um eine der anderen angegebenen Möglichkeiten zu verwirklichen. Erfolgt keine Bestätigung des Anwenders, wird der Verfahrvorgang in jedem Fall unterbrochen.
Vorzugsweise gilt für jeden Verfahrvorgang des mobilen Röntgengerätes 1, dass eine dauerhafte, insbesondere zyklische Freigabe durch den Anwender vorliegen muss, damit ein Verfahrvorgang begonnen wird. Vorzugsweise muss die Freigabe nach Art eines Totmannschalters manuell durch den Anwender selbst erfolgen und der Auswerte- und Steuereinheit 7 vorliegen. Die Freigabe kann beispielsweise durch eine zyklische Wiederholung oder Bestätigung des Verfahrbefehls erfolgen.
Für den Fall, dass mit dem Touchscreen 6 die nötigen Sicherheitsanforderungen, insbesondere die zweikanalige Auslösung, nicht umgesetzt werden können, kann neben der Anzeigevorrichtung optional ein weiteres Eingabemedium als Teil der Mensch-Maschine-Schnittstelle vorgesehen sein, z.B. ein Fußschalter (nicht dargestellt).
Positionsvorgaben für Zielpositionen 22 können, wie oben beschrieben, durch Verschieben und/oder Drehen des Gerätemodells 11 in der im Rahmen der Bedienoberfläche 8 angezeigten Landkarte erfolgen. Alternativ kann ein Anwender eine aktuelle Ist-Position 9 ebenfalls als Zielposition 22 abspeichern, um später an diese Position zurückkehren zu können. Weitere Zielpositionen können bereits vorgegeben und gespeichert sein. Zur Auswahl einer bereits vorhandenen Zielposition 22 stellt die Auswerte- und Steuereinheit 7 eine Auswahlliste zur Verfügung und zeigt diese auf dem Touchscreen 6 an. Der Anwender kann aus dieser Liste eine der gespeicherten Zielpositionen 22 mittels eines Anwählelements auswählen, beispielsweise über eine Touchscreenfunktionalität oder die Computermaus 23. In einer vorteilhaften Ausgestaltung wird bei der Positionsspeicherung neben der räumlichen Position auch die aktuelle C-Bogen-Stellung mitgespeichert, also z.B. Angulations- und Orbitalwinkel und Vertikelhub. Auf diese Weise können bei einem Wiederanfahren einer gespeicherten Position diese klinisch für den Aufnahmevorgang relevanten Informationen ebenfalls wiederhergestellt werden.
Ferner ist es auch möglich, eine Parkposition 27 zu definieren. Dies kann erneut durch eine manuelle Positionsvorgabe erfolgen, wie oben beschrieben, oder aber automatisch, indem Sensoren, beispielsweise geeignete Kamerasysteme, entsprechende Markierungen auf dem Boden des Raumes 14 erkennen, z.B. reflektierende Klebestreifen zur Kennzeichnung eines Parkplatzes. In2 ist eine solche Parkposition 27 dargestellt. Bei den Sensoren kann es sich um eigene Sensoren des Röntgengerätes 1, wie beispielsweise eine 3D-Kamera und/oder um Sensoren des mit dem Röntgengerät 1 zusammenwirkenden Raumerfassungssystems handeln, das weiter unten beschrieben wird.
Die Parkposition 27 kann auch als automatische Ladevorrichtung, beispielsweise nach dem Induktionsprinzip arbeitend, ausgestaltet sein, so dass in dem Röntgengerät 1 enthaltene Energiespeicher während der Positionierung des Röntgengerätes 1 in der Parkposition 27 automatisch aufgeladen werden. Ebenfalls möglich ist eine automatische mechanische Ankopplung des Medizingerätes 1 an eine entsprechende Ladestation beim Erreichen der Parkposition 27 für den Fall, dass keine berührungslose Aufladung vorgesehen ist.
Da die erkannte Raumgeometrie in der Regel einzigartig ist, kann man das Verfahren so nutzen, dass sich die Auswerte- und Steuereinheit 7 an alle einmal in diesem Raum 14 erzeugten Zielpositionen 22 erinnert, sobald es die bekannte Raumgeometrie wiedererkennt, den Raum 14 also identifiziert hat. Das kann eine praktische Funktion sein, wenn das Röntgengerät 1 z.B. zwischen mehreren OP-Räumen hin- und hergefahren wird.
Das Landkartenprinzip kann auch zur Visualisierung bestimmter, vorherbestimmter Bewegungsmuster benutzt werden. Solche Bewegungsmuster können z.B. sein: ein Spiralscan (bzw. Pseudospiralscan im Fall eines C-Bogen-Röntgengerätes), ein Verfahren entlang einer definierten Bahnkurve zur Aufnahme mehrerer Röntgenbilder, eine Bewegung in eine zu einer vorherigen Aufnahme senkrechte Projektionsebene. Für solche Muster ist der Auswerte- und Steuereinheit 7, genauer gesagt dem von der Auswerte- und Steuereinheit 7 bereitgestellten Kollisionsrechner, von vornherein bekannt, welchen Raumbereich das Röntgengerät 1 durchfahren muss. Befinden sich dort Hindernisse, die ein freies Verfahren des Röntgengerätes 1 behindern würden, kann die Auswerte- und Steuereinheit 7 bereits bei der Anwahl einer solchen Funktion in der Landkarte visualisieren, wo eine Kollision stattfinden wird bzw. welche Objekte 15, 16, 17 der Anwender entfernen muss, damit das Bewegungsmuster ausgeführt werden kann.4 zeigt dies am Beispiel einer parallel zu dem OP-Tisch geplanten, linearen Verschiebung des Röntgengerätes 1 zur Aufnahme mehrerer Röntgenbilder, die anschließend zu einer Gesamtaufnahme zusammengeführt werden. Die Auswerte- und Steuereinheit 7 erkennt hier anhand der ihr zur Verfügung stehenden Daten ein Objekt 28 im Bewegungsbereich, das erst vom Anwender weggeräumt werden muss, bevor die Parallelfahrt freigegeben wird.
Die auf dem Touchscreen 6 angezeigten Flächenbereiche werden vorzugweise entsprechend ihrer Eigenschaften farbig dargestellt. So kann beispielsweise ein frei befahrbarer Bereich 18 grün und ein nicht erreichbarer Bereich 19 gelb dargestellt sein, während bei einer Kollisionsgefahr die Route 24, 25, 26 und/oder ein zusätzlicher Warnhinweis rot dargestellt sein kann.
Während bisher die eigentliche Positionsanzeige und Bewegungssteuerung des Röntgengerätes 1 näher erläutert wurde, wird nachfolgend genauer auf die Art und Weise der Erfassung der Raumgeometrie eingegangen.
In6 ist stark vereinfacht und schematisch ein realer OP-Raum 14 mit einem Sensorsetup abgebildet. Die Darstellung ähnelt den in den1 bis 4 dargestellten Raummodellen 13, wie sie von der Anzeigevorrichtung 6 der Mensch-Maschine-Schnittstelle dargestellt werden, da diese Raummodelle 13 den realen OP-Raum 14 virtuell abbilden. Das Sensorsetup für eine zeitlich kontinuierliche Volumen- und Objekterkennung eines typischen OP-Raumes 14 umfasst drei stationäre, aktiv entfernungsmessende 3D-Kameras 31 und einen an dem mobilen Röntgengerät 1 schwenkbar montierten Laserscanner 32. Die dreidimensionale Umgebungserfassung wird bei zweidimensionalen Laserscannern 32 durch einen Schwenkantrieb der Laserscanner 32 erreicht, wodurch die Scanebene des Laserscanners 32 im Raum bewegt wird und dadurch der Raum dreidimensional vermessen wird.
Der Vorteil der Kombination mehrere Sensoren 31, 32 ist, dass durch die teilweise Redundanz der Volumendaten ein nahezu vollständiges, räumliches Bild der örtlichen Gegebenheiten erfasst werden kann, was für die automatisierte Gerätebewegung und Kollisionsvermeidung von Bedeutung ist. Dabei ist es vorzugsweise vorgesehen, dass Teilbereiche des Raumes 14, in denen ein hoher Bedarf einer genauen Umgebungsmodellierung besteht, nochmals gesondert durch weitere Sensoren erfasst werden, wodurch die Genauigkeit des Umgebungsmodells in diesen Teilbereichen erhöht wird. Solche Teilbereiche sind insbesondere Bereiche, in denen eine erhöhte Aktivität durch Bewegung von Objekten bzw. Personen vermutet wird.
Die hier verwendeten Sensoren 31, 32 können beliebig im Raum 14 angeordnet sein. Insbesondere können sie ortsfest im Raum 14 angeordnet sein. Jedoch besteht auch die Möglichkeit, zumindest einen Teil der Sensoren 32 an einem oder mehreren bewegbaren Geräten 1 im Raum 14 anzuordnen. Dadurch können insbesondere auch Bereiche der Umgebung erfasst werden, welche in bestimmten Positionen des bewegbaren Geräts 1 nicht durch ortsfest angeordnete Sensoren 31 gesehen werden können, da sie durch das bewegbare Gerät 1 abgeschattet sind. Die von den jeweiligen Sensoren 31, 32 erfassten Bereiche sind in6 mit Hilfe symbolischer Strahlen angedeutet, die jeweils vom Zentrum des Sensors 31, 32 ausgehend einen Raumbereich durchlaufen. Besonders vorteilhaft ist es, wenn die an den Wänden 33 des Raumes 13 angebrachten Sensoren 31 abnehmbar ausgeführt sind. Beispielsweise können fest an den Wänden 33 angebrachte magnetische Wandhalterungen 34 vorgesehen sein, mit denen 3D-Kameras 31 abnahmebar verbunden sind.
Mit den Sensoren 31, 32 wird nicht nur der Raum 14, sondern auch das sich in dem Raum 14 befindliche mobile Röntgengerät 1 erfasst, wobei das durch das Röntgengerät 1 belegte Raumvolumen in dem dreidimensionalen Umgebungsmodell angegeben wird. Basierend auf einer derartigen Identifikation eines mobilen Röntgengerätes 1 wird anschließend von dem in der Auswerte- und Steuereinheit 7 realisierten Kollisionsrechner ein Kollisionsrisiko zwischen dem Röntgengerät 1 und weiteren Objekten 15, 16, 17 im Raummodell 13 ermittelt.
Bei den genannten 3D-Kameras 31 handelt es sich beispielsweise um sogenannte Time-of-Flight-Kameras (TOF), also Kameras, die mit einem Laufzeitverfahren Abstände messen. 3D-Kameras, deren Arbeitsweise auf anderen Verfahren beruhen, sind ebenfalls verwendbar. Anstelle der 3D-Tiefenkameras können andere entfernungsmessende Erfassungsmittel als Sensoren zum Einsatz kommen, um den betreffenden Umgebungsbereich des mobilen Röntgengerätes 1 dreidimensional zu erfassen. Alternativ zu dem mobilen Laserscanner 32 kann beispielsweise an dem Röntgengerät 1 auch ein Ultraschallsensor angebracht sein.
Die stationären Sensoren 31, hier im Beispiel 3D-Tiefenkameras, kommunizieren dabei über ein drahtloses Verfahren, z.B. WLAN oder Bluetooth, mit dem Röntgengerät 1. Die stationären Sensoren 31 verfügen bevorzugt über eine autarke Energiequelle, z.B. einen Akkumulator, um einen komplett kabellosen Betrieb zu ermöglichen. Die stationären Sensoren 31 liefern die nötigen Daten an die im Röntgengerät 1 befindliche Auswerte- und Steuereinheit 7, die alle Sensordaten fusioniert und daraus eine zyklisch aktualisierte Landkarte der Geräte- und Raumumgebung, das Raummodell 13, erzeugt. Gleichzeitig und zum selben Zweck kommuniziert der mobile Sensor 32, hier der Laserscanner, mit dem Röntgengerät 1. Mit anderen Worten wird rechnergestützt ein dreidimensionales Umgebungsmodell (Raummodell) 13 erstellt. Dieses gibt neben den Grenzen (Wänden) 33 des Raumes 14 insbesondere an, welche Raumvolumen durch Objekte 15, 16, 17, wie Schränke, Tische, andere Medizingeräte oder auch Personen belegt sind.
Bei der Erstinbetriebnahme des mobilen Röntgengerätes 1 wird entweder in einem manuellen, klassischen Verfahren „von Hand“ der beste Anbringungsort für die stationären Sensoreinheiten 31 ermittelt. Oder in einem fortgeschrittenen Verfahren wird einmalig die Raumgeometrie erfasst, beispielsweise mittels eines tragbaren 3D-Laserscanners, wie er aus dem Stand der Technik bekannt ist. Anschließend berechnet ein geeigneter Algorithmus in der Recheneinheit des Raumerfassungssystems 35, bei welcher es sich auch um die zentrale Recheneinheit 5 des Röntgengerätes 1 handeln kann, die optimale Anzahl und Position von stationären Sensoreinheiten 31 und zeigt diese Positionen entweder auf dem Touchscreen 6, einer Datenbrille als „Augmented Reality“-Einblendung oder mittels eines optionalen Laserprojektors 36, der vorzugsweise Teil des Röntgengerätes 1 ist, an den Wänden 33 des Raumes 14 an. Dort können dann beispielsweise Magnetsockel als Wandhalterungen 34 angebracht sein, beispielsweise angeklebt sein, woran wiederum die autarken Sensoreinheiten 31 befestigt werden. Durch die Magnetbefestigung sind diese Sensoreinheiten 31 leicht abnehmbar und könnten bei Verlagerung des Röntgengerät 1 in einen anderen Raum einfach abgenommen werden, am Röntgengerät 1, z.B. in einer Anzahl Ladeschalen, transportiert und in einem anderen Raum schnell wieder an den dort ebenfalls vorhandenen Wandhalterungen 34 befestigt werden.
Mittels der stationären Sensoreinheiten 31 bzw. der Erkennung ihrer Lage im Raum 14 bzw. ihrer Lage zueinander ist es ferner möglich, dass das mobile Röntgensystem 1 den Raum 14, in dem sich das Röntgengerät 1 aktuell befindet, besonders schnell eindeutig erkennen kann, ohne dass hierzu eine aufwendige Erfassung der gesamten Raumgeometrie notwendig ist.
Sind keine stationären Sensoreinheiten 31 verbaut, kann alternativ zur aktiven Erfassung der Raumgeometrie auch eine einfache Raumidentifizierung anhand bestimmter Erkennungsmerkmale des Raumes 14 erfolgen. Bei diesen Erkennungsmerkmalen kann es sich beispielsweise um eine Anordnung passiver Marker (nicht abgebildet) im Raum handeln, die beispielsweise an den Wänden 33 des Raumes 14 befestigt sind. Die Positionen der Marker und/oder die Anordnung der Marker zueinander können von einem einfachen optischen System des mobilen Röntgengerätes 1, beispielsweise einer Kamera (nicht abgebildet), erfasst und dem Raum 14 zugeordnet werden. Als weitere Alternative zur Vermessung des Raumes 14 sind auch andere Verfahren zur Raumidentifizierung, wie iBeacons (Bluetooth), Intrarotsender mit eindeutiger Modulation oder Ultraschallsequenzen denkbar.
Die vorausgehende Beschreibung ist sinngemäß auf andere Medizingeräte mit mehreren räumlichen Bewegungsachsen bzw. Freiheitsgraden anwendbar, z.B. Radiographiegeräte.
Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht auf die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
Bezugszeichenliste
- 1
- mobiles Medizingerät, C-Bogen-Röntgengerät
- 2
- Bewegungsmittel, Rad
- 3
- Antriebssteuerung
- 4
- Antrieb
- 5
- zentrale Recheneinheit
- 6
- Anzeigevorrichtung, Touchscreen
- 7
- Auswerte- und Steuereinheit
- 8
- Bedienoberfläche
- 9
- Ist-Position
- 10
- (frei)
- 11
- Modell des Röntgengerätes
- 12
- Einhüllende
- 13
- Raummodell, Landkarte
- 14
- Raum, OP-Raum
- 15
- Patiententisch
- 16
- Schrank
- 17
- Medizingerät
- 18
- erreichbarer Bereich
- 19
- nicht erreichbarer Bereich
- 20
- (frei)
- 21
- Datenspeicher, Datei
- 22
- Zielposition
- 23
- Computermaus
- 24
- Weg, Route
- 25
- alternativer Weg, Route
- 26
- kollisionsvermeidender Weg, Route
- 27
- Parkposition
- 28
- Kollisionsobjekt
- 29
- (frei)
- 30
- (frei)
- 31
- ortsfester Sensor, 3D-Kamera
- 32
- mobiler Sensor, Laserscanner
- 33
- Wand
- 34
- Wandhalterung, Magnethalterung
- 25
- Raumerfassungssystem
- 36
- Laserprojektor