Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bewegungssteuerung eines bewegbaren Medizingerätes, insbesondere eines mobilen bildgebenden Medizingerätes, mittels einer Mensch-Maschine-Schnittstelle.
Im Bereich der Medizintechnik, insbesondere bei bildgebenden Medizingeräten, ist ein zunehmender Trend zur Automatisierung von Abläufen erkennbar. Dies betrifft nicht nur stationär montierte Anlagen, wie z.B. Radiographie-/Fluoroskopiesysteme, sondern verstärkt auch mobile, d.h. im Raum verfahrbare Röntgengeräte, wie beispielsweise C-Bogen-Röntgengeräte. Zu diesem Zweck werden solche mobilen Geräte mit geeigneten Antriebsplattformen, wie beispielsweise omnidirektionalen Rädern oder dergleichen, und geeigneten Steuerungssystemen ausgestattet, die eine automatisierbare Bewegung im Raum ermöglichen.
Hierfür ist eine funktionsfähige Erkennung der sich teilweise dynamisch verändernden, räumlichen Gegebenheiten am Einsatzort essentiell. Ebenso wichtig ist eine dazugehörige Mensch-Maschine Schnittstelle, die eine intuitive Interaktion mit einem derartigen System ermöglicht.
Es ist eine Aufgabe der vorliegenden Erfindung, eine technische Lösung zur kollisionsfreien Bewegung eines mobilen Medizingerätes im Raum bereitzustellen.
Diese Aufgabe wird durch ein Verfahren nach Anspruch 1 bzw. durch eine Vorrichtung nach Anspruch 7 gelöst. Vorteilhafte Ausführungen der Erfindung sind in den Unteransprüchen angegeben.
Die im Folgenden im Zusammenhang mit dem Verfahren erläuterten Vorteile und Ausgestaltungen gelten sinngemäß auch für die erfindungsgemäße Vorrichtung und umgekehrt.
Eine Kernidee der Erfindung ist es, ein mobiles Medizingerät, wie z.B. ein C-Bogen-Röntgengerät, mit einer Mensch-Maschine-Schnittstelle auszustatten, die eine Positionsanzeige und eine besonders intuitive Bewegungssteuerung des Medizingerätes erlaubt. Dadurch wird eine Möglichkeit zur Bedienung des Medizingerätes bereitgestellt, die auf besonders einfache Weise eine kollisionsfreie Bewegung eines mobilen Medizingerätes und damit ein automatisierbares Verfahren de Medizingerätes im Raum ermöglicht.
Die Mensch-Maschine-Schnittstelle umfasst eine Anzeigevorrichtung, wie beispielsweise einen Monitor oder ein Display, die eine Bedienoberfläche bereitstellt zur Anzeige der räumlichen Gegebenheiten in der Umgebung des Medizingerätes, ähnlich wie bei einem Navigationssystem. Die Anzeigevorrichtung wird von einer Auswerte- und Steuereinheit angesteuert, die vorzugweise als ein Teil der zentralen Recheneinheit des Medizingeräts ausgeführt ist.
Die Bedienoberfläche lässt sich dabei mit einem geeigneten Bedienmittel bedienen, wobei es sich vorzugsweise um ein in die Anzeigevorrichtung integriertes Bedienmittel handelt, insbesondere bei der Verwendung eines berührungsempfindlichen Bildschirms (Touchscreen), und/oder bei dem Bedienmittel handelt es sich um eine andere geeignete Eingabevorrichtung, wie beispielsweise eine Computermaus. Optional kann als Anzeigevorrichtung, gegebenenfalls zusätzlich zu einer der oben genannten Möglichkeiten, auch eine Datenbrille benutzt werden, bei der Informationen, wie beispielsweise erkannte Objekte, mittels „Augmented Reality“-Verfahren in das reale Bild eingeblendet werden.
Eine bevorzugte Ausführungsform der Erfindung betrifft eine Visualisierung von Umgebungsinformationen (insbesondere Raum- und Objektinformationen), Raumgeometrien, Bewegungspfaden und/oder Kollisionsobjekten, vorzugsweise nach Art einer Landkarte, sowie eine intuitive Manipulation eines mobilen Medizingeräts mittels einer vorzugsweise touchscreen- oder mausbasierten Mensch-Maschine-Schnittstelle. Die Mensch-Maschine-Schnittstelle dient dabei vorzugsweise zur unmittelbaren Bedienung der Gerätesteuerung des Medizingerätes. Zu diesem Zweck erfolgt die Visualisierung der Realität vorzugweise in Echtzeit, d.h. die zur Visualisierung verwendeten Sensordaten werden zyklisch erfasst und unmittelbar, d.h. ohne nennenswerte Verzögerung, jedenfalls aber zeitnah, weiterverarbeitet.
Unter einem mobilen Medizingerät wird dabei in erster Linie, vorzugsweise ausschließlich, ein Medizingerät verstanden, welches mittels geeigneter antreibbarer Bewegungsmittel im Raum verfahrbar ist und dabei seine Position im Raum verändert. Der Begriff wird dabei in Abgrenzung zu stationären Medizingeräten verwendet, die an einer einzigen Raumposition verbleibend lediglich am Ort bewegbar sind, beispielsweise verschiedene Posen einnehmen können. Ein typisches Beispiel für ein mobiles Medizingerät ist ein bildgebendes C-Bogen-Röntgengerät mit antreibbaren Rädern, das nach Bedarf von einer Raumposition in eine andere Raumposition verfahrbar ist.
Die Mensch-Maschine-Schnittstelle dient dabei in erster Linie dazu, vor einem voll- oder halbautomatischen Verfahren des mobilen Medizingerätes oder, sofern vorgesehen, vor einem manuellen Verfahren des Medizingerätes, dem Anwender wenigstens einen Verfahrweg anzuzeigen, welcher später von dem Medizingerät genutzt wird. Dabei geht es allgemein um ein Verfahren des Medizingerätes von einer Start-Position, vorzugsweise der aktuellen Ist-Position des Medizingerätes, in eine Zielposition. Anstelle von Verfahrweg können auch die Begriffe Weg, Route, Strecke, Pfad, Fahrweg oder Bewegungsbahn verwendet werden.
Der dem Anwender anzuzeigende und gegebenenfalls vom Anwender auszuwählende und/oder zu bestätigende Fahrweg wird vorzugsweise von dem Medizingerät selbständig ermittelt. In diesem Fall weist das Medizingerät selbst eine geeignete Recheneinheit auf, die nachfolgend auch als Auswerte- und Steuereinheit bezeichnet wird. Diese Auswerte- und Steuereinheit ist vorzugsweise als Teil der zentralen Recheneinheit des Medizingerätes ausgeführt. Die Berechnung der Route kann aber auch in einer Recheneinheit außerhalb des Medizingerätes erfolgen, beispielsweise in einem Raumerfassungssystem, das weiter unten genauer erläutert wird.
Zur Ermittlung des Verfahrweges werden Umgebungs- und Objektinformationen benötigt, insbesondere Informationen des Raumes, in welchem sich das Medizingerät befindet, sowie Informationen über das Medizingerät selbst. Die Auswerte- und Steuereinheit ermittelt dabei, basierend auf einer Erkennung eines Medizingerätes in einem überwachten Raum, ein Kollisionsrisiko zwischen dem Medizingerät und weiteren Objekten im Raummodell und auf dieser Grundlage eine oder mehrere mögliche Routen zum Erreichen der gewünschten Zielposition. Geeignete Pfadplaner sowie Kollisionsvermeidungsalgorithmen sind aus dem Stand der Technik bekannt, insbesondere aus dem Bereich der Robotik, und werden in der Auswerte- und Steuereinheit ausgeführt.
Unter Verwendung der aktuellen Raum- und Objektinformationen und eines Kollisionsmodels (Modell zur Kollisionserkennung) visualisiert die Auswerte- und Steuereinheit durch geeignete Ansteuerung der Anzeigevorrichtung das Raummodell sowie die Position des Medizingerätes und die Route(n). Zugleich steuert unter Verwendung der aktuellen Raum- und Objektinformationen und eines Kollisionsmodels die mit der Auswerte- und Steuereinheit verbindbare oder verbundene Antriebssteuerung des Medizingerätes den Antrieb des Medizingerätes. Bei dem Antrieb handelt es sich vorzugsweise um einen elektromotorischen Antrieb für eine Anzahl omnidirektionaler Räder des Medizingerätes. In einer einfachen Ausführungsform, bei der keine omnidirektionalen Antriebseinheiten zum Einsatz kommen, sind auch auf klassische Weise motorisch lenkbare und angetriebene Räder denkbar.
Die Visualisierung des Verfahrweges dient in erster Linie zur Bestätigung bzw. Korrektur der Route durch den Anwender. Der Anwender der Mensch-Maschine-Schnittstelle soll und kann anhand der Anzeige des Verfahrweges entscheiden, ob ein bestimmter Verfahrweg gewählt werden soll oder aber ob beispielsweise ein alternativer Verfahrweg besser geeignet wäre.
Stehen mehrere Zielpositionen zur Auswahl, dann besteht vorzugsweise die Möglichkeit, dass diese von dem Anwender auf unterschiedliche Art und Weise ausgewählt und/oder bestätigt werden, beispielsweise durch eine manuelle Auswahl mit Hilfe der Mensch-Maschine-Schnittstelle, z. B. mittels eines Eingabegerätes, wie der Computermaus.
Es kann sich bei der Zielposition auch um eine von der Auswerte- und Steuereinheit bevorzugt angezeigte Position, wie beispielsweise eine Parkposition, handeln, die automatisch der Liste der möglichen Zielpositionen hinzugefügt wird, wenn entsprechende Positionsmarkierungen im Raum vorhanden sind und automatisch erkannt werden.
Bei den anzufahrenden Zielpositionen kann es sich nicht nur um Park- oder Betriebspositionen handeln. Mit anderen Worten ist die Erfindung nicht nur darauf beschränkt, ein Medizingerät von einer Betriebsposition, z.B. einer Röntgenposition, in eine Parkposition und zurück zu verfahren. Bei der Zielposition kann es sich auch um eine alternative oder eine weitere Betriebsposition handeln. Mit anderen Worten ist es auch möglich, das Medizingerät von einer ersten Betriebsposition in eine zweite Betriebsposition zu verfahren, beispielsweise in eine Betriebsposition mit einer anderen Angulation des C-Bogens.
Die Visualisierung des Verfahrweges erfolgt vorzugsweise im Rahmen einer Darstellung einer virtuellen Umgebung, für die ein dreidimensionales Raummodel verwendet wird. Dieses dreidimensionale Raummodel sowie auch das Kollisionsmodel, welches zur Bewertung des Kollisionsrisikos auf dem jeweils gewählten Pfad verwendet wird, wird unter Verwendung derjenigen Daten erstellt bzw. aktualisiert, die aus dem später noch genauer beschriebenen Raumerfassungsverfahren hervorgehen bzw. bereitgestellt werden.
Ungeachtet dessen, dass das Raummodell sowie das Kollisionsmodell vorzugsweise unter Verwendung aller drei Raumkoordinaten erstellt und verarbeitet wird, kann die Anzeige im Rahmen der Bedienoberfläche, insbesondere die Anzeige der Umgebung und/oder die Anzeige der Route, vorzugsweise wahlweise dreidimensional oder zweidimensional erfolgen. Bei einer zweidimensionalen Ansicht erfolgt beispielsweise eine Draufsicht auf den Raum, in welchem sich das Medizingerät befindet. Die dreidimensionale, räumliche Darstellung der Umgebung bzw. des Raumes, typischerweise eines Operationsraumes oder dergleichen, erfolgt vorzugsweise aus der Vogelperspektive oder aber aus einer isometrischen Perspektive, beispielsweise schräg von oben oder aus der Perspektive des Medizingerätes. Wird eine Darstellung aus der Perspektive des Medizingerätes verwendet, erfolgt die Darstellung vorzugsweise dreidimensional aus Sicht eines virtuellen Fahrers. Dies kann speziell bei einem Einsatz eines manuellen Verfahrens des Medizingerätes vorteilhaft sein, da auf diese Weise eine besonders intuitive Zuordnung der Bewegungsrichtung des realen Systems und der auf der Anzeigevorrichtung dargestellten Bedienelemente zur Bewegungssteuerung erfolgen kann.
Die Mensch-Maschine-Schnittstelle umfasst dann vorzugsweise eine nach Art eines Navigationsinterfaces ausgebildete Anzeigevorrichtung, die zur Visualisierung der Raumdaten und der Objektdaten, insbesondere zur räumlichen Darstellung der Ist-Situation ausgebildet ist. Vorzugsweise handelt es sich bei einer solchen Anzeigevorrichtung um einen Touchscreen. Neben der Darstellung des Raumes und der sich darin befindenden Objekte erfolgt dabei ebenfalls die Darstellung des Medizingerätes, vorzugsweise einschließlich der aktuellen Gerätestellung, wie beispielsweise eine bestimmte Angulation des C-Bogens eines C-Bogen-Röntgengerätes.
Die Darstellung des Medizingerätes erfolgt dabei vorzugsweise mit einer Einhüllenden, die nach Art eines Sicherheitsbereiches zur Definition einer kollisionsfreien Zone um das Medizingerät herum dient. Die Anzeige einer solchen Einhüllenden ist besonders bei einer alternativen manueller Steuerung wichtig, bei der das Medizingerät vollständig oder teilweise ohne Berücksichtigung einer zuvor ermittelten Route, sozusagen „auf Sicht“, verfahren wird. Die Einhüllende dient nicht nur zur Visualisierung des Medizingerätes. Sie bildet vorzugsweise zugleich die bei der Kollisionsprüfung verwendeten Außengrenzen des Medizingerätes.
Die Visualisierung umfasst darüber hinaus vorzugsweise auch die Darstellung des von dem Medizingerät zurückzulegenden Pfades von einer Ist- in eine Zielposition. Vorzugsweise ebenfalls angezeigt werden Kollisionswarnungen. Dies umfasst insbesondere Kollisionswarnungen in solchen Fällen, in denen eine gewünschte Zielposition nicht kollisionsfrei erreicht werden kann. Dann erfolgt die Kollisionswarnung bereits während der Planung des Verfahrweges oder unmittelbar im Anschluss an die Planung, jedenfalls aber vorzugsweise vor dem Beginn des Verfahrvorgangs. Darüber hinaus können aber auch Kollisionswarnungen angezeigt werden, welche sich erst nach Abschluss der Routenplanung ergeben. Dies betrifft insbesondere solche Fälle, in denen aufgrund einer sich dynamisch ändernden Umgebung während des Verfahrens des Medizingerätes eine Kollision stattfinden würde. Kollisionswarnungen erfolgen dabei in der Regel dann, wenn das Kollisionsrisiko einen bestimmten kritischen Wert übersteigt.
Die Besonderheit der zum Einsatz kommenden Mensch-Maschine-Schnittstelle besteht darin, dass sie eine virtuelle Realität abbildet, die auf der Grundlage realer Umgebungs- und Objektdaten aktuell ermittelt und quasi in Echtzeit dargestellt wird. Die Umgebung sowie die sich darin aufhaltenden Objekte, einschließlich des Medizingerätes, sind vorzugweise symbolisch dargestellt, können aber auch mehr oder weniger gegenständlich dargestellt sein. Eine gegenständliche Darstellung ist insbesondere bei der Anzeige des Medizingerätes vorteilhaft. In dieser Realität ist auch der Verfahrweg des Medizingerätes dargestellt. Wesentlich ist, dass die Visualisierung der Route durch die Mensch-Maschine-Schnittstelle nicht nur einer Anzeige eines Ist-Zustandes dient, dem Anwender also eine visuelle Darstellung der Ist-Situation gegeben wird. Die Visualisierung ermöglicht zugleich die Planung zukünftiger Ereignisse, beispielsweise möglicher Alternativrouten, einschließlich einer Rückmeldung an den Anwender über deren Ausführbarkeit. Diese Rückmeldung kann z.B. durch unterschiedliche Farbdarstellungen der Routen erfolgen, beispielsweise grün für ausführbare Routen und rot für kollisionsbehaftete Wege. Ganz besonders wesentlich ist jedoch, dass die Visualisierung eine Einflussnahme des Anwenders auf das Verhalten des Medizingerätes im Sinne einer Steuerung ermöglicht, und zwar vorzugsweise anhand eines auf Echtzeit-Informationen beruhenden virtuellen Raummodells. Zu diesem Zweck ist die Mensch-Maschine-Schnittstelle mit der Steuerung des Medizingerätes, insbesondere mit dessen Antriebssteuerung verbunden. Dies betrifft nicht nur die Möglichkeit einer Auswahl verschiedener Routen, die Bestätigung einer bestimmten Route und/oder das manuelle Ändern einer Route, sondern auch das weitere, zyklische Bestätigen einer einmal ausgewählten Route während ihrer Ausführung, d h. während des Verfahrens des Medizingerätes auf dieser Route, insbesondere nach Art eines Totmannschalters, und/oder das manuelle Abbrechen einer bereits begonnenen Ausführung, beispielweise aufgrund einer Kollisionswarnung oder aber aufgrund anderer, nicht von der Mensch-Maschine-Schnittstelle kommunizierter Gründe. Der Totmannschalter ist dabei vorzugsweise als Teil der Eingabevorrichtung ausgebildet, beispielsweise als Teil der Anzeigevorrichtung, z.B. als virtuelles Bedienelement auf dem Touch-Screen eines als Eingabevorrichtung verwendeten Tablet-Computers. Der Totmannschalter kann aber auch unabhängig von der Anzeigevorrichtung realisiert sein, beispielsweise als separat ausgeführtes und während der Ausführung einer Bewegung zu betätigendes klassisches Fußschalterpedal.
Mit dieser Art der erfindungsgemäßen Bewegungssteuerung ist eine schnelle und besonders intuitive Positionierung des Medizingerätes möglich.
Bei den für das 3D-Raummodell bzw. das Kollisionsmodell verwendeten Daten handelt es sich entweder ausschließlich um Daten mobiler Sensoren, vorzugsweise aber zusätzlich auch um Daten stationärer Sensoren eines mit dem Medizingerät, genauer gesagt mit der Auswerte- und Steuereinheit, verbundenen oder verbindbaren Raumerfassungssystems.
Das bevorzugte Verfahren zur Erfassung von Objekt- und Umgebungsinformationen im dreidimensionalen Raum umfasst eine Erkennung bzw. Erfassung der Raumgeometrie. Das Verfahren arbeitet vorzugsweise in Echtzeit. Das bedeutet, dass die erfassten Daten zyklisch aktualisiert werden. Die Erfassung umfasst vorteilhafterweise sowohl eine raumbezogene, d.h. in der Regel unveränderliche, statische Erfassung, als auch eine objektbezogene, d.h. dynamische Erfassung.
Die Erfassung erfolgt dabei zur möglichst vollständigen Erfassung der Raumgeometrie mit Hilfe mehrerer Sensoren, vorzugsweise optischer Sensoren. Typischerweise handelt es sich dabei um ein Mehrfach-Sensor-Netzwerk, beispielsweise mit einem oder mehreren Laserscannern sowie einer Anzahl von 3D-Kameras oder mit einem oder mehreren Ultraschallsensoren sowie einer Anzahl von 3D-Kameras. Die Sensoren sind dabei an eine Recheneinheit angeschlossen bzw. anschließbar, in welcher die Daten erfasst und verarbeitet werden. Die Recheneinheit ist dabei entweder Teil des Raumerfassungssystems oder Teil des Medizingerätes. Beispielsweise wird die zentrale Recheneinheit des Medizingerätes, insbesondere die Auswerte- und Steuereinheit, hierfür verwendet. Die Verarbeitung der Daten umfasst dabei insbesondere die Berechnung des von dem erfindungsgemäßen Verfahren verwendeten Raummodells und/oder des von dem erfindungsgemäßen Verfahren verwendeten Kollisionsmodells.
Es wird vorgeschlagen, ein mobiles Medizingerät, wie z.B. ein C-Bogen-Röntgengerät, mit dem Raumerfassungssystem auszustatten. Mit anderen Worten wird das Medizingerät mit einem oder vorteilhafterweise mehreren Sensoren zur räumlichen Positionserkennung versehen. Am mobilen Gerät selber können derartige Sensoren z.B. sein: Laserscanner, 3D-Tiefenkameras, normale RGB-Kameras, vorzugsweise angeordnet rund um das Gerät mit entsprechender Fischaugenoptik und Nachentzerrung der Bilder für einen 360° Rundumblick, kapazitive Sensoren, Ultraschallsensoren oder Sensoren für magnetisches Tracking, die auf Basis elektromagnetischer Wellenausbreitung arbeiten. Ebenfalls möglich ist der Einsatz von Infrarotkameras, wie sie für stereoskopische Tracking-Verfahren verwendet werden. Mit Hilfe dieser Sensoren und entsprechender Verfahren zur Sensordatenfusion kann das mobile Medizingerät einen Teil des Raumes und vor allem seine direkte Umgebung erfassen.
Allerdings reicht dies oftmals nicht aus, um ein Medizingerät frei im Raum automatisiert zu bewegen, da die zum Einsatz kommenden Sensoren, insbesondere die Sensoren vom optischen Typ, nicht hinter blockierende Objekte sehen können und so keine vollständige Umgebungslandkarte zur Weg- und Kollisionsberechnung ermittelbar ist. Daher wird vorgeschlagen, den Raum, in welchem später das Verfahren des Medizingerätes erfolgen soll, zusätzlich mit einer oder mehreren fest montierten Sensoreinheiten zu versehen. Auswahl, Anzahl und Anordnung dieser stationären Sensoren hängen u.a. von der Geometrie des Raumes ab. Als stationäre Sensoren kommen grundsätzlich dieselben Sensoren zur Raum- und/oder Objekterfassung in Frage, wie sie mit dem mobilen Medizingerät verwendbar sind. Vorzugsweise werden als stationäre Sensoren 3D-Tiefenkameras verwendet. Kommen Infrarotkameras als stationäre Sensoren zum Einsatz, sind an dem Medizingerät (und ggf. an anderen zu erfassenden Objekten) geeignete Marker angebracht, z.B. aktiv oder passiv im Infrarotspektrum reflektierende Markergeometrien.
Zwingend vorhanden sind somit bewegliche Sensoreinheiten. Diese sind an dem mobilen Medizingerät selbst angebracht. Optional werden diese beweglichen Sensoreinheiten durch stationäre, ortsfeste Sensoreinheiten ergänzt. Bei diesen stationären Sensoreinheiten handelt es sich vorzugsweise um unbewegliche, also an einem Ort im Raum angeordnete Sensoren, die vorzugsweise an einer oder mehreren Wänden des Raumes installiert sind, in welchem sich das Medizingerät bewegt, wobei unter einer Wand auch eine Decke des Raumes verstanden wird. Die ortsfesten Sensoreinheiten können aber auch an geeigneten, vorzugsweise unbeweglichen, im Raum vorhandenen Ausstattungsobjekten angebracht sein, wie beispielsweise an Schränken, OP-Leuchten, Monitorampeln oder dergleichen.
Im Rahmen einer Wandinstallation verwendeten Sensoren sind vorzugweise von der Wand lösbar bzw. abnehmbar. Dies ermöglicht es, einen Satz dieser Sensoren in unterschiedlichen Räumen einzusetzen. Dabei kann es sich beispielsweise um benachbarte Räume eines Krankenhauses handeln oder um Räume in unterschiedlichen Etagen des Krankenhauses. Für eine rasche Deinstallation der Sensoren können die Sensoren beispielsweise mit Magnethalterungen versehen sein, wobei die entsprechenden Magnetaufnahmen an der Wand verbleiben.
Ein Verfahren zur Platzierung der Sensoren in einem Raum umfasst entweder, dass die geeigneten Positionen für die Wandsensoren anhand der Raumbesonderheiten bei der Erstinstallation manuell, d.h. händisch, ermittelt werden. Oder das Platzierungsverfahren umfasst ein automatisches Ausmessen der Raumgeometrie mittels geeigneter Messmittel, in Verbindung mit der Anwendung von Optimierungsalgorithmen zur Sensorplatzierung.
Ist in einem Raum bereits einmal eine Erstinstallation erfolgt und sind die optimalen Sensorpositionen nicht bereits erkennbar, beispielsweise aufgrund der an den Wänden verbliebenen Magnethalterungen, dann können die bereits bekannten Sensorpositionen für diesen Raum in einem von der Recheneinheit des Raumerfassungssystems auslesbaren Datenspeicher bzw. in einer Datei abgespeichert sein und diese Positionen können, beispielsweise unter Zuhilfenahme eines Projektors oder eines anderen geeigneten Anzeigemittels, dem Anwender zur erneuten Sensorinstallation angezeigt werden, wobei der Projektor vorzugsweise an dem mobilen Medizingerät angebracht ist.
Ist ein Raum einmal vermessen worden, bzw. handelt es sich um einen bereits bekannten Raum, dann ist vorzugsweise ein Verfahren zur automatischen Wiedererkennung des Raumes vorgesehen. Die Wiedererkennung des Raumes erfolgt dabei beispielsweise anhand der Raumgeometrie und/oder anhand der erkannten Positionen der Sensoren an den Wänden.
Die vorliegende Erfindung ist allgemein bei mehrachsigen, beweglichen Medizingeräten einsetzbar, insbesondere bei mobilen, bildgebenden Medizingeräten, wie beispielsweise bei mobilen, autonom beweglichen C-Bogen-Röntgengeräten.
Das erfindungsgemäße Verfahren kann rechnergestützt durchgeführt werden. Die zur Durchführung des erfindungsgemäßen Verfahrens geeignete Vorrichtung lässt sich teilweise durch die Bereitstellung eines geeigneten Computerprogramms realisieren, insbesondere eines Computerprogramms für die zentrale Recheneinheit des Medizingerätes.
Die erfindungsgemäße Vorrichtung ist ausgebildet zur Durchführung des beschriebenen Verfahrens. Vorzugsweise umfasst die Vorrichtung wenigstens eine Datenverarbeitungs- bzw. Recheneinheit, ausgebildet zur Durchführung aller Schritte entsprechend des hier beschriebenen Verfahrens, die in einem Zusammenhang mit der Verarbeitung von Daten stehen. Bei dieser Recheneinheit handelt es sich vorzugsweise um die zentrale Recheneinheit des Medizingerätes. Die Datenverarbeitungseinheit weist vorzugsweise eine Anzahl von Funktionsmodulen auf, wobei jedes Funktionsmodul ausgebildet ist zur Durchführung einer bestimmten Funktion oder einer Anzahl bestimmter Funktionen gemäß dem beschriebenen Verfahren. Bei den Funktionsmodulen kann es sich um Hardwaremodule oder Softwaremodule handeln. Mit anderen Worten kann die Erfindung, soweit es die Datenverarbeitungseinheit betrifft, entweder in Form von Computerhardware oder in Form von Computersoftware oder in einer Kombination aus Hardware und Software verwirklicht werden. Soweit die Erfindung in Form von Software, also als Computerprogramm, verwirklicht ist, werden sämtliche beschriebenen Funktionen durch Computerprogrammanweisungen realisiert, wenn das Computerprogramm auf einem Rechner mit einem Prozessor ausgeführt wird. Die Computerprogrammanweisungen sind dabei auf an sich bekannte Art und Weise in einer beliebigen Programmiersprache verwirklicht und können dem Rechner in beliebiger Form bereitgestellt werden, beispielsweise in Form von Datenpaketen, die über ein Rechnernetz übertragen werden, oder in Form eines auf einer Diskette, einer CD-ROM oder einem anderen Datenträger gespeicherten Computerprogramms.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Dabei zeigen:
1 ein Beispiel eines von der Mensch-Maschine-Schnittstelle abgebildeten Raummodells in Draufsicht mit Position des C-Bogen-Röntgengeräts,
2 ein Raummodell im Eingabemodus mit Zielpositionsvorgabe, Wegvorschlag und Alternativweg sowie Parkposition,
3 ein Raummodell mit Alternativroutenvorschlag bei Kollisionsgefahr,
4 ein Raummodell mit Kollisionsanzeige für geplante Aufnahmetechnik,
5 die zusammenwirkenden Systemkomponenten,
6 einen OP-Raum mit Sensorsetup.
Sämtliche Figuren zeigen die Erfindung lediglich schematisch und mit ihren wesentlichen Bestandteilen. Gleiche Bezugszeichen entsprechen dabei Elementen gleicher oder vergleichbarer Funktion.
Die folgende Beschreibung bezieht sich auf ein C-Bogen-Röntgengerät1 mit einer Anzahl von Rädern2, vorzugsweise mit drei oder mehr Rädern, als Bewegungsmittel. Die Räder2 sind vorzugsweise unabhängig voneinander antreibbar, beispielsweise mittels eigener, von einer Antriebssteuerung3 angesteuerter Antriebe4, insbesondere elektromotorischer Antriebe4. Vorzugsweise handelt es sich um omnidirektionale Räder2. Die Antriebssteuerung3 ist als Teil einer zentralen Recheneinheit5 des Röntgengerätes1 ausgebildet.
Das Röntgengerät1 umfasst eine Mensch-Maschine Schnittstelle, die einen Touchscreen6 als Anzeigevorrichtung aufweist. Der Touchscreen6 wird von einer Auswerte- und Steuereinheit7 angesteuert, die somit sämtliche Anzeigen auf dem Touchscreen6 kontrolliert sowie sämtliche Eingaben bzw. Anwender-Interaktionen empfängt. Die Auswerte- und Steuereinheit7 ist als Teil der zentralen Recheneinheit5 des Röntgengerätes1 ausgebildet.
Auf dem Touchscreen6 ist eine Bedienoberfläche8 angezeigt. Teil der Bedienoberfläche8 ist eine Visualisierung der Ist-Position9 des zu bewegenden Röntgengerätes1. Zu diesem Zweck wird ein Modell11 des Röntgengerätes1 abgebildet, das dessen aktuelle räumliche Position und Lage im Raum wiedergibt.
Eine Darstellung des Modells13 des OP-Raums14 nach Art einer Landkarte mit positionsrichtig platziertem Modell11 des Röntgengerätes1 zeigt1. Darin ist beispielhaft das Modell11 des Röntgengerätes1 in Draufsicht mit einem um 90° angulierten C-Bogen dargestellt. In der in2 gezeigten Situation befindet sich der C-Bogen des Röntgengerätes1 in der nicht angulierten Verfahrstellung, was sich auch in dem abgebildeten Modell11 widerspiegelt.
In beiden Fällen ist eine mit durchbrochenen Linien gezeichnete Einhüllende12 gezeigt, welche der aktuellen Kontur des Röntgengerätes1 entspricht und vorzugsweise durch ein oder mehrere Rechtecke approximiert wird. Die von der Einhüllenden12 umschlossene Fläche stellt denjenigen Bereich dar, in dem bei späteren Bewegungen des Röntgengerätes1 keine Berührung mit anderen erkannten Objekten oder Personen erlaubt ist. Analog zum graphisch dargestellten Modell11 wird dieses auch als Teil eines Kollisionsmodells in der Auswerte- und Steuereinheit7 verwendet, um Kollisionen zu erkennen bzw. zu vermeiden.
Das Modell11 des Röntgengerätes1 wird gemäß seiner tatsächlichen räumlichen Position im Raum14, beispielsweise einem OP-Raum, auf dem Touchscreen6 platziert und in Relation zu seiner Umgebung dargestellt. In den illustrierten Beispielen befindet sich das Röntgengerät1 zumeist in der Nähe eines Patiententisches15 und in dem OP-Raum14 befinden sich weitere Objekte, wie beispielsweise ortsfeste Schränke16 und mobile Medizingeräte17, siehe6, wobei der Einfachheit halber für die in6 abgebildeten realen Objekte und die in den1 bis4 abgebildeten virtuellen Objekte dieselben Bezugszeichen verwendet werden.
Die Positionsermittlung kann z.B. mit Hilfe optischer Sensoren erfolgen, wie beispielsweise einer Anzahl Laserscanner und 3D-Tiefenkameras und/oder stereoskopischen Navigationskameras. Auch andere Sensoren wie Ultraschallsensoren und kapazitive Näherungssensoren können herangezogen werden. Ferner ist eine Fusion der Raumerfassungsdaten mehrerer unabhängiger Sensor- und/oder Kamerasysteme möglich und vorteilhaft, da eine direkte Sichtlinie eines einzelnen Sensorsystems zur Überwachung der gesamten Raumgeometrie sehr unwahrscheinlich ist. Einzelheiten zu dem hier vorzugsweise zum Einsatz kommenden Verfahren zur Raumerfassung werden weiter unten beschrieben.
Neben dem Modell11 des Röntgengerätes1 werden weitere statische und dynamische Hindernisse bzw. Objekte15,16,17 als Teil der Bedienoberfläche8 dargestellt. Der in1 nicht schraffierte Bereich18 ist prinzipiell von dem Röntgengerät1 ohne Kollision erreichbar, solange die Einhüllende12 keines der als Hindernisse dargestellten Objekte15,16,17 berührt, die mit schräger Schraffur dargestellt sind. Gibt es prinzipiell unerreichbare Bereiche19, werden diese ebenfalls in der Landkarte eingezeichnet. In1 sind das die mit horizontaler Schraffur versehenen Bereiche.
Das Raummodell13 wird durch die Auswerte- und Steuereinheit7, vorzugsweise ausschließlich unter Verwendung aktueller Sensordaten erstellt. In anderen Ausführungsvarianten der Erfindung können für die Erstellung des Raummodells13 zusätzlich auch Daten, insbesondere zu Positionen und Ausdehnungen von Objekten verwendet werden, die nicht aktuell von Sensoren ermittelt wurden, sondern die in einer Datei21 abgespeichert sind, auf welche die Auswerte- und Steuereinheit7 Zugriff hat.
Die Einteilung der Bodenfläche des Raummodells13 in die verschiedenen Bereiche erfolgt durch die Auswerte- und Steuereinheit7 unter Verwendung eines Kollisionsmodells. Zu diesem Zweck dient die Auswerte- und Steuereinheit7 auch als Kollisionsrechner. Die Darstellung des Modells11 des Röntgengerätes1 sowie die Darstellung des Raummodells13 mit den verschiedenen Bereichen vorzugsweise unterschiedlicher Farben erfolgt durch die von der Auswerte- und Steuereinheit7 entsprechend angesteuerte Anzeigevorrichtung6 der Mensch-Maschine-Schnittstelle.
Der Anwender kann nun eine oder mehrere verschiedene Zielpositionen22 vorgeben. Dies geschieht mit Hilfe der angezeigten Bedienoberfläche8 durch Platzierung des Gerätemodells11 auf der gewünschten Zielposition, vorzugsweise durch ein Verschieben und/oder Drehen des Gerätemodells11 auf dem Touchscreen6 mit den Fingern zu der gewünschten Zielposition. Alternativ kann die Platzierung mit einer Computermaus23 erfolgen.
Ist eine Zielposition22 aufgrund bekannter Hindernisse nicht erreichbar, verhindert in einer Ausführungsform der Erfindung die Auswerte- und Steuereinheit7 die Eingabe der gewünschten Zielposition22 auf der Bedienoberfläche8.
Ist die Zielposition22 grundsätzlich erreichbar, aber in der aktuellen Gerätestellung nicht, z.B. weil der C-Bogen durch eine Angulation zu breit für einen schmalen Durchgang zwischen zwei Objekten ist, wird die aktuelle Gerätestellung von der Auswerte- und Steuereinheit7 abgespeichert und der Anwender wird mittels eines geeigneten Abfrageprozesses gefragt, ob das Röntgengerät1 für den Verfahrvorgang eine räumlich günstigere Stellung annehmen soll, z.B. durch das Hochkantstellen des C-Bogenarms, und ob nach Ende der Verfahrbewegung die alte Stellung wiederhergestellt werden soll.
Ist die Zielposition22 erreichbar, wird sie von der Auswerte- und Steuereinheit7 des Röntgengerätes1 angenommen und abgespeichert. Sie ist dann als neue Zielposition22 neben der aktuellen Ist-Position9 des Röntgengerätes1 in der als Teil der Bedienoberfläche8 abgebildeten Landkarte sichtbar, wie in2 dargestellt.
Anschließend sind vorzugsweise zwei Möglichkeiten vorgesehen, wie das Röntgengerät1 von der Ist-Position9 zu der Zielposition22 verfahren kann. In einem automatischen Modus wird dem Anwender auf der Landkarte der von der Auswerte- und Steuereinheit7 errechnete, günstigste Weg24 angezeigt. Dabei kann es sich vorzugsweise um eine zeitoptimierte Route handeln. Ein solcher Wegvorschlag ist in2 abgebildet. Der Anwender kann diesen Weg24 bestätigen und das Röntgengerät1 mit Hilfe eines geeigneten, erstfehlersicheren Auslösemechanismus entlang dieses Weges24 fahren lassen.
Bei dem Auslösemechanismus zum Auslösen des Fahrbefehls kann es sich z.B. um einen geeigneten Fußschalter oder eine beliebige Art von Fernbedienung, vorzugsweise jeweils mit Totmannfunktion, oder einen erstfehlersicheren Computer (Tablet, PC, Smartphone, ...) handeln. Die entsprechenden Prozesse und Vorrichtungen zur erstfehlersicheren Steuerung sind aus dem Stand der Technik bekannt. Die Vorrichtung zur Verwirklichung des Auslösemechanismus ist dabei ebenso wie der Touchscreen drahtgebunden oder drahtlos an die Auswerte- und Steuereinheit7 angebunden. Im vorliegenden Beispiel dient stellt die Mensch-Maschine-Schnittstelle über die auf dem Touchscreen6 dargestellte Bedienoberfläche8 den Auslösemechanismus zur Verfügung.
Die Auswerte- und Steuereinheit7 sorgt dabei für die Kollisionserkennung sowie, über die Antriebssteuerung3, für Lenkung und Antrieb der Räder2 des Röntgengerätes1. Der Anwender muss nur den eigentlichen Fahrbefehl geben. Die aktuelle Ist-Position9 und alle erkannten statischen und dynamischen Objekte15,16,17 werden vorzugsweise sowohl vor der eigentlichen Bewegung des Röntgengerätes1, nämlich zur Planung der Route24, als auch während der Bewegung des Röntgengerätes1, nämlich zum Steuern des Verfahrvorgangs auf der Route24, kontinuierlich auf der als Bedienoberfläche8 angezeigten Landkarte, d.h. im Raummodell13, und im Kollisionsrechner aktualisiert.
Mit der vorgeschlagenen Mensch-Maschine-Schnittstelle können Zielpositionen22 in dem Raummodell13 zunächst simuliert werden, bevor sie zu einem späteren Zeitpunkt angefahren werden, wenn sie sich als brauchbar erweisen. Falls dem Anwender ein von der Auswerte- und Steuereinheit7 vorgegebener Weg nicht optimal erscheint, kann er in einem manuellen Editiermodus über die Bedienoberfläche8 einen alternativen Weg25 einzeichnen. Dies kann erneut mit den Fingern oder der Maus erfolgen. Die Auswerte- und Steuereinheit7 prüft diesen Alternativweg25 auf Umsetzbarkeit, optimiert ihn entsprechend der errechneten Kollisionsdaten und stellt ihn als Alternativweg25 ebenfalls im Raummodell13 dar, siehe2. Der Anwender kann nun entscheiden, welcher Weg ihm besser erscheint und diesen auswählen, bevor er den Fahrbefehl gibt. Besonders vorteilhaft ist es, wenn die Anzeigevorrichtung, hier in Form des Touchscreens6, von dem Röntgengerät1 lösbar und als erstfehlersicheres Eingabemittel zum Auslösen des Fahrbefehls ausgebildet ist, so dass das Verfahren des Röntgengerätes1 von dem Anwender aus der Ferne, beispielsweise einem benachbarten Raum, geplant und ausgeführt werden kann.
Erkennt die Auswerte- und Steuereinheit7 während der Bewegung des Röntgengerätes1 bei einem automatischen Anfahren einer Zielposition22 aufgrund veränderter Objektpositionen in der Umgebung des Röntgengerätes1 eine drohende Kollision, so zeigt es diesen Umstand auf der Landkarte an und schlägt, sofern möglich, eine zuvor selbständig neuberechnete Alternativroute26 vor. Zumindest wird jedoch ein Ausweichmanöver vorgenommen, um das Hindernis zu umfahren. Ist ein Ausweichen nicht möglich, wird das Verfahren des Röntgengerätes1 über die Antriebssteuerung3 verlangsamt und, falls erforderlich, gestoppt oder aber das Verfahren wird fortgesetzt, wenn sich das Hindernis wieder aus dem Fahrweg entfernt hat. Ein entsprechender Steuerbefehl wird von der Auswerte- und Steuereinheit7 an die Antriebssteuerung3 des Röntgengerätes1 ausgegeben. Vorzugsweise ist vorgesehen, dass der Anwender den jeweiligen Steuerbefehl bestätigt. Erfolgt die Bestätigung durch den Anwender, verwendet die Antriebssteuerung3 die Alternativroute26, um das Röntgengerät1 zu dem vorgegebenen Ziel zu verfahren bzw. um eine der anderen angegebenen Möglichkeiten zu verwirklichen. Erfolgt keine Bestätigung des Anwenders, wird der Verfahrvorgang in jedem Fall unterbrochen.
Vorzugsweise gilt für jeden Verfahrvorgang des mobilen Röntgengerätes1, dass eine dauerhafte, insbesondere zyklische Freigabe durch den Anwender vorliegen muss, damit ein Verfahrvorgang begonnen wird. Vorzugsweise muss die Freigabe nach Art eines Totmannschalters manuell durch den Anwender selbst erfolgen und der Auswerte- und Steuereinheit7 vorliegen. Die Freigabe kann beispielsweise durch eine zyklische Wiederholung oder Bestätigung des Verfahrbefehls erfolgen.
Für den Fall, dass mit dem Touchscreen6 die nötigen Sicherheitsanforderungen, insbesondere die zweikanalige Auslösung, nicht umgesetzt werden können, kann neben der Anzeigevorrichtung optional ein weiteres Eingabemedium als Teil der Mensch-Maschine-Schnittstelle vorgesehen sein, z.B. ein Fußschalter (nicht dargestellt).
Positionsvorgaben für Zielpositionen22 können, wie oben beschrieben, durch Verschieben und/oder Drehen des Gerätemodells11 in der im Rahmen der Bedienoberfläche8 angezeigten Landkarte erfolgen. Alternativ kann ein Anwender eine aktuelle Ist-Position9 ebenfalls als Zielposition22 abspeichern, um später an diese Position zurückkehren zu können. Weitere Zielpositionen können bereits vorgegeben und gespeichert sein. Zur Auswahl einer bereits vorhandenen Zielposition22 stellt die Auswerte- und Steuereinheit7 eine Auswahlliste zur Verfügung und zeigt diese auf dem Touchscreen6 an. Der Anwender kann aus dieser Liste eine der gespeicherten Zielpositionen22 mittels eines Anwählelements auswählen, beispielsweise über eine Touchscreenfunktionalität oder die Computermaus23. In einer vorteilhaften Ausgestaltung wird bei der Positionsspeicherung neben der räumlichen Position auch die aktuelle C-Bogen-Stellung mitgespeichert, also z.B. Angulations- und Orbitalwinkel und Vertikelhub. Auf diese Weise können bei einem Wiederanfahren einer gespeicherten Position diese klinisch für den Aufnahmevorgang relevanten Informationen ebenfalls wiederhergestellt werden.
Ferner ist es auch möglich, eine Parkposition27 zu definieren. Dies kann erneut durch eine manuelle Positionsvorgabe erfolgen, wie oben beschrieben, oder aber automatisch, indem Sensoren, beispielsweise geeignete Kamerasysteme, entsprechende Markierungen auf dem Boden des Raumes14 erkennen, z.B. reflektierende Klebestreifen zur Kennzeichnung eines Parkplatzes. In2 ist eine solche Parkposition27 dargestellt. Bei den Sensoren kann es sich um eigene Sensoren des Röntgengerätes1, wie beispielsweise eine 3D-Kamera und/oder um Sensoren des mit dem Röntgengerät1 zusammenwirkenden Raumerfassungssystems handeln, das weiter unten beschrieben wird.
Die Parkposition27 kann auch als automatische Ladevorrichtung, beispielsweise nach dem Induktionsprinzip arbeitend, ausgestaltet sein, so dass in dem Röntgengerät1 enthaltene Energiespeicher während der Positionierung des Röntgengerätes1 in der Parkposition27 automatisch aufgeladen werden. Ebenfalls möglich ist eine automatische mechanische Ankopplung des Medizingerätes1 an eine entsprechende Ladestation beim Erreichen der Parkposition27 für den Fall, dass keine berührungslose Aufladung vorgesehen ist.
Da die erkannte Raumgeometrie in der Regel einzigartig ist, kann man das Verfahren so nutzen, dass sich die Auswerte- und Steuereinheit7 an alle einmal in diesem Raum14 erzeugten Zielpositionen22 erinnert, sobald es die bekannte Raumgeometrie wiedererkennt, den Raum14 also identifiziert hat. Das kann eine praktische Funktion sein, wenn das Röntgengerät1 z.B. zwischen mehreren OP-Räumen hin- und hergefahren wird.
Das Landkartenprinzip kann auch zur Visualisierung bestimmter, vorherbestimmter Bewegungsmuster benutzt werden. Solche Bewegungsmuster können z.B. sein: ein Spiralscan (bzw. Pseudospiralscan im Fall eines C-Bogen-Röntgengerätes), ein Verfahren entlang einer definierten Bahnkurve zur Aufnahme mehrerer Röntgenbilder, eine Bewegung in eine zu einer vorherigen Aufnahme senkrechte Projektionsebene. Für solche Muster ist der Auswerte- und Steuereinheit7, genauer gesagt dem von der Auswerte- und Steuereinheit7 bereitgestellten Kollisionsrechner, von vornherein bekannt, welchen Raumbereich das Röntgengerät1 durchfahren muss. Befinden sich dort Hindernisse, die ein freies Verfahren des Röntgengerätes1 behindern würden, kann die Auswerte- und Steuereinheit7 bereits bei der Anwahl einer solchen Funktion in der Landkarte visualisieren, wo eine Kollision stattfinden wird bzw. welche Objekte15,16,17 der Anwender entfernen muss, damit das Bewegungsmuster ausgeführt werden kann.4 zeigt dies am Beispiel einer parallel zu dem OP-Tisch geplanten, linearen Verschiebung des Röntgengerätes1 zur Aufnahme mehrerer Röntgenbilder, die anschließend zu einer Gesamtaufnahme zusammengeführt werden. Die Auswerte- und Steuereinheit7 erkennt hier anhand der ihr zur Verfügung stehenden Daten ein Objekt28 im Bewegungsbereich, das erst vom Anwender weggeräumt werden muss, bevor die Parallelfahrt freigegeben wird.
Die auf dem Touchscreen6 angezeigten Flächenbereiche werden vorzugweise entsprechend ihrer Eigenschaften farbig dargestellt. So kann beispielsweise ein frei befahrbarer Bereich18 grün und ein nicht erreichbarer Bereich19 gelb dargestellt sein, während bei einer Kollisionsgefahr die Route24,25,26 und/oder ein zusätzlicher Warnhinweis rot dargestellt sein kann.
Während bisher die eigentliche Positionsanzeige und Bewegungssteuerung des Röntgengerätes1 näher erläutert wurde, wird nachfolgend genauer auf die Art und Weise der Erfassung der Raumgeometrie eingegangen.
In6 ist stark vereinfacht und schematisch ein realer OP-Raum14 mit einem Sensorsetup abgebildet. Die Darstellung ähnelt den in den1 bis4 dargestellten Raummodellen13, wie sie von der Anzeigevorrichtung6 der Mensch-Maschine-Schnittstelle dargestellt werden, da diese Raummodelle13 den realen OP-Raum14 virtuell abbilden. Das Sensorsetup für eine zeitlich kontinuierliche Volumen- und Objekterkennung eines typischen OP-Raumes14 umfasst drei stationäre, aktiv entfernungsmessende 3D-Kameras31 und einen an dem mobilen Röntgengerät1 schwenkbar montierten Laserscanner32. Die dreidimensionale Umgebungserfassung wird bei zweidimensionalen Laserscannern32 durch einen Schwenkantrieb der Laserscanner32 erreicht, wodurch die Scanebene des Laserscanners32 im Raum bewegt wird und dadurch der Raum dreidimensional vermessen wird.
Der Vorteil der Kombination mehrere Sensoren31,32 ist, dass durch die teilweise Redundanz der Volumendaten ein nahezu vollständiges, räumliches Bild der örtlichen Gegebenheiten erfasst werden kann, was für die automatisierte Gerätebewegung und Kollisionsvermeidung von Bedeutung ist. Dabei ist es vorzugsweise vorgesehen, dass Teilbereiche des Raumes14, in denen ein hoher Bedarf einer genauen Umgebungsmodellierung besteht, nochmals gesondert durch weitere Sensoren erfasst werden, wodurch die Genauigkeit des Umgebungsmodells in diesen Teilbereichen erhöht wird. Solche Teilbereiche sind insbesondere Bereiche, in denen eine erhöhte Aktivität durch Bewegung von Objekten bzw. Personen vermutet wird.
Die hier verwendeten Sensoren31,32 können beliebig im Raum14 angeordnet sein. Insbesondere können sie ortsfest im Raum14 angeordnet sein. Jedoch besteht auch die Möglichkeit, zumindest einen Teil der Sensoren32 an einem oder mehreren bewegbaren Geräten1 im Raum14 anzuordnen. Dadurch können insbesondere auch Bereiche der Umgebung erfasst werden, welche in bestimmten Positionen des bewegbaren Geräts1 nicht durch ortsfest angeordnete Sensoren31 gesehen werden können, da sie durch das bewegbare Gerät1 abgeschattet sind. Die von den jeweiligen Sensoren31,32 erfassten Bereiche sind in6 mit Hilfe symbolischer Strahlen angedeutet, die jeweils vom Zentrum des Sensors31,32 ausgehend einen Raumbereich durchlaufen. Besonders vorteilhaft ist es, wenn die an den Wänden33 des Raumes13 angebrachten Sensoren31 abnehmbar ausgeführt sind. Beispielsweise können fest an den Wänden33 angebrachte magnetische Wandhalterungen34 vorgesehen sein, mit denen 3D-Kameras31 abnahmebar verbunden sind.
Mit den Sensoren31,32 wird nicht nur der Raum14, sondern auch das sich in dem Raum14 befindliche mobile Röntgengerät1 erfasst, wobei das durch das Röntgengerät1 belegte Raumvolumen in dem dreidimensionalen Umgebungsmodell angegeben wird. Basierend auf einer derartigen Identifikation eines mobilen Röntgengerätes1 wird anschließend von dem in der Auswerte- und Steuereinheit7 realisierten Kollisionsrechner ein Kollisionsrisiko zwischen dem Röntgengerät1 und weiteren Objekten15,16,17 im Raummodell13 ermittelt.
Bei den genannten 3D-Kameras31 handelt es sich beispielsweise um sogenannte Time-of-Flight-Kameras (TOF), also Kameras, die mit einem Laufzeitverfahren Abstände messen. 3D-Kameras, deren Arbeitsweise auf anderen Verfahren beruhen, sind ebenfalls verwendbar. Anstelle der 3D-Tiefenkameras können andere entfernungsmessende Erfassungsmittel als Sensoren zum Einsatz kommen, um den betreffenden Umgebungsbereich des mobilen Röntgengerätes1 dreidimensional zu erfassen. Alternativ zu dem mobilen Laserscanner32 kann beispielsweise an dem Röntgengerät1 auch ein Ultraschallsensor angebracht sein.
Die stationären Sensoren31, hier im Beispiel 3D-Tiefenkameras, kommunizieren dabei über ein drahtloses Verfahren, z.B. WLAN oder Bluetooth, mit dem Röntgengerät1. Die stationären Sensoren31 verfügen bevorzugt über eine autarke Energiequelle, z.B. einen Akkumulator, um einen komplett kabellosen Betrieb zu ermöglichen. Die stationären Sensoren31 liefern die nötigen Daten an die im Röntgengerät1 befindliche Auswerte- und Steuereinheit7, die alle Sensordaten fusioniert und daraus eine zyklisch aktualisierte Landkarte der Geräte- und Raumumgebung, das Raummodell13, erzeugt. Gleichzeitig und zum selben Zweck kommuniziert der mobile Sensor32, hier der Laserscanner, mit dem Röntgengerät1. Mit anderen Worten wird rechnergestützt ein dreidimensionales Umgebungsmodell (Raummodell)13 erstellt. Dieses gibt neben den Grenzen (Wänden)33 des Raumes14 insbesondere an, welche Raumvolumen durch Objekte15,16,17, wie Schränke, Tische, andere Medizingeräte oder auch Personen belegt sind.
Bei der Erstinbetriebnahme des mobilen Röntgengerätes1 wird entweder in einem manuellen, klassischen Verfahren „von Hand“ der beste Anbringungsort für die stationären Sensoreinheiten31 ermittelt. Oder in einem fortgeschrittenen Verfahren wird einmalig die Raumgeometrie erfasst, beispielsweise mittels eines tragbaren 3D-Laserscanners, wie er aus dem Stand der Technik bekannt ist. Anschließend berechnet ein geeigneter Algorithmus in der Recheneinheit des Raumerfassungssystems35, bei welcher es sich auch um die zentrale Recheneinheit5 des Röntgengerätes1 handeln kann, die optimale Anzahl und Position von stationären Sensoreinheiten31 und zeigt diese Positionen entweder auf dem Touchscreen6, einer Datenbrille als „Augmented Reality“-Einblendung oder mittels eines optionalen Laserprojektors36, der vorzugsweise Teil des Röntgengerätes1 ist, an den Wänden33 des Raumes14 an. Dort können dann beispielsweise Magnetsockel als Wandhalterungen34 angebracht sein, beispielsweise angeklebt sein, woran wiederum die autarken Sensoreinheiten31 befestigt werden. Durch die Magnetbefestigung sind diese Sensoreinheiten31 leicht abnehmbar und könnten bei Verlagerung des Röntgengerät1 in einen anderen Raum einfach abgenommen werden, am Röntgengerät1, z.B. in einer Anzahl Ladeschalen, transportiert und in einem anderen Raum schnell wieder an den dort ebenfalls vorhandenen Wandhalterungen34 befestigt werden.
Mittels der stationären Sensoreinheiten31 bzw. der Erkennung ihrer Lage im Raum14 bzw. ihrer Lage zueinander ist es ferner möglich, dass das mobile Röntgensystem1 den Raum14, in dem sich das Röntgengerät1 aktuell befindet, besonders schnell eindeutig erkennen kann, ohne dass hierzu eine aufwendige Erfassung der gesamten Raumgeometrie notwendig ist.
Sind keine stationären Sensoreinheiten31 verbaut, kann alternativ zur aktiven Erfassung der Raumgeometrie auch eine einfache Raumidentifizierung anhand bestimmter Erkennungsmerkmale des Raumes14 erfolgen. Bei diesen Erkennungsmerkmalen kann es sich beispielsweise um eine Anordnung passiver Marker (nicht abgebildet) im Raum handeln, die beispielsweise an den Wänden33 des Raumes14 befestigt sind. Die Positionen der Marker und/oder die Anordnung der Marker zueinander können von einem einfachen optischen System des mobilen Röntgengerätes1, beispielsweise einer Kamera (nicht abgebildet), erfasst und dem Raum14 zugeordnet werden. Als weitere Alternative zur Vermessung des Raumes14 sind auch andere Verfahren zur Raumidentifizierung, wie iBeacons (Bluetooth), Intrarotsender mit eindeutiger Modulation oder Ultraschallsequenzen denkbar.
Die vorausgehende Beschreibung ist sinngemäß auf andere Medizingeräte mit mehreren räumlichen Bewegungsachsen bzw. Freiheitsgraden anwendbar, z.B. Radiographiegeräte.
Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht auf die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
Bezugszeichenliste
- 1
- mobiles Medizingerät, C-Bogen-Röntgengerät
- 2
- Bewegungsmittel, Rad
- 3
- Antriebssteuerung
- 4
- Antrieb
- 5
- zentrale Recheneinheit
- 6
- Anzeigevorrichtung, Touchscreen
- 7
- Auswerte- und Steuereinheit
- 8
- Bedienoberfläche
- 9
- Ist-Position
- 10
- (frei)
- 11
- Modell des Röntgengerätes
- 12
- Einhüllende
- 13
- Raummodell, Landkarte
- 14
- Raum, OP-Raum
- 15
- Patiententisch
- 16
- Schrank
- 17
- Medizingerät
- 18
- erreichbarer Bereich
- 19
- nicht erreichbarer Bereich
- 20
- (frei)
- 21
- Datenspeicher, Datei
- 22
- Zielposition
- 23
- Computermaus
- 24
- Weg, Route
- 25
- alternativer Weg, Route
- 26
- kollisionsvermeidender Weg, Route
- 27
- Parkposition
- 28
- Kollisionsobjekt
- 29
- (frei)
- 30
- (frei)
- 31
- ortsfester Sensor, 3D-Kamera
- 32
- mobiler Sensor, Laserscanner
- 33
- Wand
- 34
- Wandhalterung, Magnethalterung
- 25
- Raumerfassungssystem
- 36
- Laserprojektor