- Technisches Gebiet 
- Die Erfindung betrifft Vorrichtungen zur Erkennung von Bediengesten eines Fahrers eines Kraftfahrzeugs zur Auswahl, Aktivierung oder Deaktivierung von Funktionen. Insbesondere betrifft die vorliegende Erfindung eine Nutzung einer 3D-Bildinformation einer Lichtlaufzeitkamera (TOF-Kamera) für eine Gestenerkennung. 
- Technischer Hintergrund 
- Für eine Erkennung von Gesten, d.h. einer Bewegung oder Haltung von Körperteilen eines Nutzers in einem Kraftfahrzeug wird üblicherweise eine 3D-Kamera verwendet, die in einem Bereich einer Decke des Fahrzeuginnenraums angeordnet ist. Die 3D-Kamera kann beispielsweise als Lichtlaufzeitkamera (TOF-Kamera) ausgebildet sein, die eine Laufzeitinformation aus einer Phasenverschiebung einer emittierten und empfangenen Strahlung für jeden Bildpunkt gewinnen und daraus eine Entfernungsinformation ableiten kann. Als TOF-Kameras (TOF: Time of Flight) können insbesondere PMD-Kameras mit Photomischdetektoren vorgesehen werden, die u.a. in der Druckschrift EP 1 777 747 B1-  beschrieben sind. 
- Durch die Erkennung der Entfernungsinformation für jeden Bildpunkt mithilfe einer TOF-Kamera kann ein sich im Erfassungsbereich der TOF-Kamera befindliches gestenausführendes Objekt, d.h. ein Körperteil oder ein sonstiger Gegenstand, dreidimensional erfasst werden. Eine Bediengeste, die einer Anordnung von mehreren gestenausführenden Objekten im Erfassungsbereich oder einer Bewegung eines gestenausführenden Objekts entlang einer bestimmten Bewegungstrajektorie entspricht, kann durch eine entsprechende Mustererkennung erkannt werden und eine entsprechende Funktion ausgewählt, aktiviert oder deaktiviert werden. 
- Der Erfassungsbereich der TOF-Kamera wird in Tiefenrichtung durch eine maximale Entfernung und eine minimale Entfernung begrenzt. Die maximale Entfernung entspricht einer Entfernung eines Objekts, bei der die Stärke des reflektierten Lichtstrahls nicht mehr ausreicht, um eine Laufzeitmessung vorzunehmen. Eine minimale Entfernung wird dadurch bestimmt, dass die Stärke des reflektierten Lichts eine Sättigung in Bildpunktsensoren der TOF-Kamera bewirkt, so dass für die betreffenden Bildpunkte eine Entfernungsinformation nicht erhalten werden kann. 
- Es ist Aufgabe der vorliegenden Erfindung, eine Gestenerkennung, die mit Hilfe einer Lichtlaufzeitkamera ausgeführt wird, zu verbessern. 
- Offenbarung der Erfindung 
- Diese Aufgabe wird durch das Verfahren zum Durchführen einer Gestenerkennung mit Hilfe einer Lichtlaufzeitkamera gemäß Anspruch 1 sowie durch die Vorrichtung und das Gestenerkennungssystem gemäß den nebengeordneten Ansprüchen gelöst. 
- Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. 
- Gemäß einem ersten Aspekt ist ein Verfahren zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug vorgesehen, mit folgenden Schritten: 
- – Erfassen eines Vorhandenseins und/oder einer Bewegung mindestens einen gestenausführenden Objektes in einem Sättigungsbereich eines 3D-Kamerasystems, das ausgebildet ist, um in einem Erfassungsbereich eine dreidimensionale Bildinformation des mindestens einen gestenausführenden Objektes bereitzustellen, wobei der Sättigungsbereich des 3D-Kamerasystems einen kameranahen Bereich darstellt, in dem lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes erhaltbar ist,
- – Erkennen einer Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes.
- Bediengesten können durch eine vorbestimmte Bewegung mindestens eines gestenausführenden Objekts und/oder eine vorbestimmte Anordnung von gestenausführenden Objekten durch einen Nutzer ausgeführt werden. Das mindestens eine gestenausführende Objekt kann dabei einem oder mehreren Körperteilen des Nutzers, wie z.B. einer Hand, einem Arm, Fingern und dergleichen, und/oder einem oder mehreren insbesondere vom Nutzer gehaltenen Gegenständen, wie z.B. einem Eingabestift oder dergleichen, entsprechen. 
- Wie eingangs beschrieben, weisen herkömmliche für die Gesteneingabe verwendete 3D-Kamerasysteme einen begrenzten Erfassungsbereich auf, in dem darin befindliche Objekte mit Hilfe von geeigneten Bildpunktsensoren dreidimensional erkannt werden können. Zwischen dem 3D-Kamerasystem und dem Erfassungsbereich, d.h. in der direkten Nähe des 3D-Kamerasystems, kann sich jedoch ein Sättigungsbereich befinden, in dem man keine Entfernungsinformation für die einzelnen Bildpunkte erhalten kann. Ein Grund hierfür liegt darin, dass die Bildpunktsensoren durch die hohe Lichtstärke der reflektierten Lichtstrahlen in eine Sättigung gelangen. Befinden sich Bildpunktsensoren in einer Sättigung kann man keine Phaseninformation für den betreffenden Bildpunkt erhalten, die für die Lichtlaufzeitmessung und damit für die Entfernungsmessung benötigt wird. 
- 3D-Kamerasysteme zur Gestenerkennung werden häufig an einer Decke des Fahrzeuginnenraums angeordnet. Die Weite des Bildaufnahmebereichs des 3D-Kamerasystems wird durch die Kameraoptik bestimmt. Ein Nutzer, z.B. ein Fahrer des Kraftfahrzeugs, kann beispielsweise eine Bediengeste in dem Bildaufnahmebereich des 3D-Kamerasystems ausführen. Das 3D-Kamerasystem wird in der Regel so eingestellt, dass sich der Erfassungsbereich in einem Raumbereich innerhalb des Bildaufnahmebereichs befindet, in dem der Nutzer eine Bediengeste im Normalfall ausführen wird. Angrenzend an den Erfassungsbereich schließt sich in Richtung des 3D-Kamerasystems der Sättigungsbereich an. Die Bildpunktsensoren des 3D-Kamerasystems sind ausgebildet, um im Falle einer Sättigung den entsprechenden Zustand anzuzeigen bzw. in Form eines Sättigungssignals zu signalisieren. Daraus lässt sich zwar keine Entfernungsinformation des betreffenden Bildpunkts mehr ableiten, jedoch steht durch die Anordnung der Bildpunkte, an denen die zugeordneten Bildpunktsensoren eine Sättigung signalisieren, eine zweidimensionale Bildinformation zur Verfügung, da die übrigen Bildpunktsensoren eine Phasen-/Entfernungsinformation und somit kein Sättigungssignal liefern. 
- Bediengesten werden als solche erkannt, indem eine Bewegung des mindestens einen gestenausführenden Objekts in dem Erfassungsbereich einem vorgegebenen Referenzbewegungsmuster des Objekts entspricht oder eine Anordnung von mindestens zwei der gestenausführenden Objekte in dem Erfassungsbereich einem vorgegebenen Referenzanordnungsmuster entspricht. Bei einer erkannten Bediengeste wird eine dem vorgegebenen Referenzbewegungsmuster oder eine dem vorgegebenen Referenzanordnungsmuster zugeordnete Funktion ausgewählt, aktiviert oder deaktiviert. 
- Befindet sich das mindestens eine gestenausführende Objekt, z.B. die Hand des Benutzers, in dem Sättigungsbereich oder bewegt sich das mindestens eine gestenausführende Objekt während der Ausführung einer Bediengeste in dem Sättigungsbereich, so brechen herkömmliche Verfahren die Gestenerkennung ab und es wird eine ausgeführte Geste nicht als Geste erkannt. Aufgrund der fehlenden 3D-Bildinformation können nämlich das der Bediengeste entsprechende Referenzbewegungsmuster des Objekts oder das Referenzanordnungsmuster von mindestens zwei der Objekte nicht mehr detektiert werden. 
- Eine Idee des obigen Verfahrens besteht darin, die zweidimensionale Bildinformation des Objektes im Sättigungsbereich für die Gestenerkennung zu nutzen. Dadurch kann die Erkennungswahrscheinlichkeit einer Bediengeste, die ganz oder teilweise in dem Sättigungsbereich ausgeführt wird, erhöht werden. 
- Dies betrifft zum einen Anordnungsgesten als Bedienungsgesten, bei denen mindestens zwei der gestenausführenden Objekte eine bestimmte Anordnung zueinander aufweisen sollen, wie z.B. ein ausgestreckter Zeigefinger an einer ansonsten zur Faust geballten Hand, die zu einer charakteristischen Abbildung eines zweidimensionalen Projektionsbildes für die 3D-Kamera führt. Dadurch kann eine solche Anordnungsgeste auch dann als Bediengeste erkannt werden, wenn diese in dem Sättigungsbereich ausgeführt wird. 
- Zum anderen kann eine Bediengeste erkannt werden, bei der eine Bewegung bzw. Bewegungstrajektorie des mindestens einen gestenausführenden Objekts zumindest teilweise in dem Sättigungsbereich verläuft. Dies kann für bestimmte Bewegungsgesten möglich sein, wenn die Bewegung durch den Sättigungsbereich in einer Bildebene, die quer zur Kameraachse verläuft, einer Bewegungstrajektorie bzw. einem Teil einer Bewegungstrajektorie des gestenausführenden Objekts entspricht, die einem Referenzbewegungsmuster für eine Bediengeste zugeordnet werden kann. Auf diese Weise können auch Bewegungsgesten als Bediengesten erkannt werden, die sich bei herkömmlichen Gestenerkennungssystemen außerhalb des Erfassungsbereichs befinden, wenn ein Teil der Gestenbewegung durch den Sättigungsbereich verläuft. Dies ermöglicht es, auch Bediengesten zu erkennen, bei denen der Nutzer mit dem mindestens einen gestenausführenden Objekt versehentlich den Erfassungsbereich verlässt. Auf diese Weise kann die Detektionszuverlässigkeit für Bedienungsgesten verbessert werden, die Bewegungsgesten darstellen. 
- Weiterhin kann das mindestens eine gestenausführende Objekt einem oder mehreren Körperteilen, insbesondere einem Arm, einer Hand und/oder einem Finger und/oder einem oder mehreren insbesondere gehaltenen Gegenständen, insbesondere einem Eingabestift, entsprechen. 
- Es kann vorgesehen sein, dass als Bediengeste eine Anordnungsgeste, bei der eine Anordnung von mehreren gestenausführenden Objekten vorliegt, im Sättigungsbereich erkannt wird, wenn die erhaltene zweidimensionale Bildinformation einem vorgegebenen Referenzanordnungsmuster entspricht. 
- Gemäß einer Ausführungsform kann als Bediengeste eine Bewegungsgeste, bei der eine Bewegung von mindestens einem gestenausführenden Objekt vorliegt, die mit einem Abschnitt einer Bewegungstrajektorie der Bewegung in dem Sättigungsbereich verläuft, erkannt werden, wenn ein Abschnitt der Bewegungstrajektorie in dem Erfassungsbereich einem entsprechenden Abschnitt eines vorgegebenen Referenzbewegungsmusters entspricht und ein Abschnitt der Bewegungstrajektorie in dem Sättigungsbereich einer 2D-Projektion eines entsprechenden Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters entspricht. 
- Insbesondere kann die Bewegungsgeste als die Bediengeste erkannt werden, nur wenn die Länge des Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters in dem Erfassungsbereich bezüglich der gesamten Länge der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters einem vorgegebenen Minimalanteil entspricht. 
- Gemäß einem weiteren Aspekt ist eine Vorrichtung zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug, vorgesehen, umfassend: 
- – ein 3D-Kamerasystem, das ausgebildet ist, um in einem Erfassungsbereich eine dreidimensionale Bildinformation mindestens eines gestenausführenden Objektes bereitzustellen, und in einem Sättigungsbereich, der einen kameranahen Bereich darstellt, lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes bereitzustellen, und
- – eine Gestenerkennungseinheit, die ausgebildet ist, um ein Vorhandensein und/oder eine Bewegung mindestens eines gestenausführenden Objektes in dem Sättigungsbereich (BS) zu erfassen und eine Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes zu erkennen.
- Kurzbeschreibung der Zeichnungen 
- Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen: 
- 1 eine schematische Darstellung eines Fahrgastinnenraums eines Kraftfahrzeugs mit einem Gestenerkennungssystem; und 
- 2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Erkennung von Gesten in einem Fahrgastinnenraum eines Kraftfahrzeugs. 
- Beschreibung von Ausführungsformen 
- In1 ist schematisch ein Fahrgastinnenraum1 eines Kraftfahrzeugs dargestellt. Man erkennt eine Querschnittsdarstellung entlang einer Längsachse des Kraftfahrzeugs, wobei an einer Decke des Kraftfahrzeugs ein 3D-Kamerasystem2 angeordnet ist. Das 3D-Kamerasystem2 kann eine Leuchtquelle21, eine 3D-Kameraeinheit22 und eine Auswerteeinheit23 umfassen. Die 3D-Kameraeinheit22 kann insbesondere als Lichtlaufzeitkamera (TOF-Kamera, TOF: Time of flight) ausgebildet sein und ein Array von Bildpunkten aufweisen. Die Lichtlaufzeitkamera ist insbesondere als PMD-Kamera ausgebildet. Die Leuchtquelle21 dient dazu, den Bildaufzeichnungsbereich für die 3D Kameraeinheit22 mit Licht auszuleuchten, das von Objekten, die sich in dem Bildaufzeichnungsbereich befinden, reflektiert und von der 3D Kameraeinheit22 erfasst werden kann. 
- Das Messprinzip der Lichtlaufzeitkamera basiert darauf, dass ausgehend von einer Phasenverschiebung des von der Leuchtquelle21 emittierten und durch die Lichtlaufzeitkamera empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts für jeden Bildpunkt mithilfe von entsprechenden Bildpunktsensoren ermittelt werden kann. Die Lichtquelle21 und die Lichtlaufzeitkamera werden dazu mit Hilfe eines Modulators mit einer bestimmten Modulationsfrequenz betrieben. Entsprechend der Modulationsfrequenz sendet die Leuchtquelle21 ein amplitudenmoduliertes Signal mit einer ersten Phase aus. Dieses Signal wird von mindestens einem im Bildaufzeichnungsbereich befindlichen Objekt reflektiert und aufgrund der durch das Licht zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage von der Lichtlaufzeitkamera empfangen. Aus dem resultierenden Signal wird die Phasenverschiebung und daraus die Entfernung des Objekts für jeden Bildpunkt ermittelt. Die Lichtlaufzeitmessung für die Lichtlaufzeitkamera ist im Wesentlichen aus dem Stand der Technik bekannt, und es wird deshalb nicht näher darauf eingegangen. 
- Ein im Bildaufzeichnungsbereich befindliches Objekt4 soll für das 3D-Kamerasystem ein gestenausführendes Objekt4 sein. Als gestenausführendes Objekt4 kann ein Körperteil, wie beispielsweise ein Finger, eine Hand, ein Unterarm oder dergleichen, oder ein insbesondere von einem Körperteil gehaltenen Gegenstand, wie beispielsweise ein Eingabestift oder dergleichen, angesehen werden. 
- Bei Lichtlaufzeitkameras ist eine 3D-Erfassung eines im Bildaufnahmebereich befindlichen Objekts nur in einem Bereich zwischen einem minimalen Abstand, angezeigt durch die gestrichelte Linie A, und einem maximalen Abstand, angezeigt durch die gestrichelte Linie B, von der 3D-Kameraeinheit22 möglich. Dieser Bereich wird als Erfassungsbereich BE bezeichnet und entspricht einem Bereich, in dem eine dreidimensionale Bildinformation des darin befindlichen Objekts4 erhalten werden kann. Zwischen der 3D-Kameraeinheit22 und der durch den minimalen Abstand von der 3D-Kameraeinheit22 bestimmte Grenzfläche erstreckt sich ein Sättigungsbereich BS, in dem der an einem darin befindlichen Objekt reflektierte Anteil des von der Leuchtquelle21 emittierten Lichts zu stark ist, um von der Lichtlaufzeitkamera der 3D-Kameraeinheit22 ausgewertet zu werden. 
- Insbesondere werden durch die hohe Stärke des reflektieren Lichts die einzelnen Bildpunktsensoren des Lichtlaufzeitsensors übersteuert und liefern ein entsprechendes Sättigungssignal, das damit angibt, dass eine Entfernungsmessung für diesen Bildpunkt nicht möglich ist. Durch die Auswertung der Bildpunkte, die das entsprechende Sättigungssignal bereitstellen, kann eine zweidimensionale Bildinformation des Objekts4 im Sättigungsbereich BS erkannt werden. 
- Das 3D-Kamerasystem2 ist mit einer Gestenerkennungseinheit3 verbunden. In der Gestenerkennungseinheit3 werden Anordnungen und Bewegungen von gestenausführenden Objekten4 in dem Erfassungsbereich BE mit Referenzanordnungsmustern und Referenzbewegungsmustern verglichen, die jeweils eine zugelassene Bediengeste angeben. 
- Durch die Gestenerkennungseinheit3 können somit Muster einer Anordnung von gestenausführenden Objekten zueinander, wie z.B. ein ausgestreckter Zeigefinger, der in eine vorgegebene Richtung zeigt, an einer geballten Hand oder dergleichen, als Bediengeste entsprechend einem Referenzanordnungsmuster erkannt werden. Weiterhin kann eine Bewegung eines gestenausführenden Objekts in dem Erfassungsbereich entsprechend einem Referenzbewegungsmuster als Bediengeste erkannt werden. 
- Wird eine Bediengeste so ausgeführt, dass das mindestens eine gestenausführende Objekt sich in den Sättigungsbereich BS hinein bewegt, sich durch den Sättigungsbereich BS hindurchbewegt oder sich aus dem Sättigungsbereich BS herausbewegt, kann eine Bediengeste mit Hilfe einer herkömmlichen Gestenerkennungseinheit nicht erkannt werden. Da ein Teil der dreidimensionalen Bewegungstrajektorie des gestenausführenden Objekts nicht durch die dreidimensionale Abbildung des 3D-Kamerasystems2 erfasst wird, ergibt ein Vergleich mit den vorgegebenen Referenzbewegungsmustern keine Entsprechung für eine Bediengeste. 
- In2 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Erkennung von Bedienungsgesten in einem Kraftfahrzeug schematisch dargestellt. 
- In Schritt S1 wird überprüft, ob von einem vorbestimmten Mindestanteil von Bildpunktsensoren der 3D-Kameraeinheit ein Sättigungssignal bereitgestellt wird. Ist dies der Fall (Alternative: Ja) wird das Verfahren mit Schritt S2 fortgesetzt. Andernfalls (Alternative: Nein) wird das Verfahren mit Schritt S10 fortgesetzt. Schritt S10 beinhaltet eine herkömmliche Gestenerkennung, auf die hierin nicht näher eingegangen wird. 
- In Schritt S2 wird überprüft, ob eine Bewegung eines gestenausführenden Objekts im Bildaufnahmebereich des 3D-Kamerasystems innerhalb eines vorbestimmten zurückliegenden Zeitraums erkannt worden ist. Wurde keine Bewegung erkannt (Alternative: Nein), wird das Verfahren mit Schritt S3 fortgesetzt. Andernfalls, d.h. es wurde eine Bewegung des gestenausführenden Objekts erkannt (Alternative: ja), so wird das Verfahren mit Schritt S4 fortgesetzt. 
- In Schritt S3 kann nun vorgesehen sein, dass im Sättigungsbereich BS ausgeführte Bediengesten, die durch eine bestimmte Anordnung von gestenausführenden Objekten4 ausgeführt werden (Anordnungsgesten) und keine (auswertbare) Bewegung enthalten, mithilfe von vorgegebenen zusätzlichen Referenzanordnungsmustern in der Gestenerkennungseinheit3 erkannt werden können. Die zusätzlichen Referenzanordnungsmuster entsprechend Referenzmuster die lediglich eine zweidimensionale Bildinformation einer Bediengeste zur Identifizierung der Bediengeste benötigen. Dazu werden zweidimensionale Bildinformation, die den Bildpunkten entsprechen, dessen zugeordnete Bildpunktsensoren Sättigungssignale bereitstellen, mit den entsprechenden vorgegebenen zusätzlichen Referenzanordnungsmustern verglichen und bei Erkennen einer entsprechenden Bediengeste (Anordnungsgeste) eine Funktion ausgelöst. 
- In Schritt S4 können Bewegungsgesten, die ganz oder teilweise in dem Sättigungsbereich durchgeführt werden, durch Zuordnung zu den vorgegebenen Referenzbewegungsmustern als Bedienungsgesten erkannt werden. Dazu wird die Bewegungstrajektorie des mindestens einen gestenausführenden Objektes4 im Erfassungsbereich bestimmt. Es werden weiterhin diejenigen Referenzbewegungsmuster ausgewählt, die nicht in Widerspruch zu der Bewegungstrajektorie des mindestens einen gestenausführenden Objekts4 im Erfassungsbereich BE stehen. Für den Abschnitt der Bewegungstrajektorie des mindestens einen gestenausführenden Objekts, der durch den Sättigungsbereich BS verläuft, wird eine entsprechend zweidimensionale Bewegungstrajektorie, die durch das 3D-Kamerasystem2 bereitgestellt wird, mit einer 2D-Projektion des entsprechenden Abschnitts der Bewegungstrajektorie der ausgewählten Referenzbewegungsmuster verglichen. Die 2D-Projektion erfolgt in einer Ebene quer zur Achse der 3D-Kameraeinheit22. Stimmt die zweidimensionale Bewegungstrajektorie des mindestens einen gestenausführenden Objekts4 mit der entsprechenden 2D-Projektion eines der ausgewählten Referenzbewegungsmuster überein, so kann angenommen, dass die Bewegungsgeste entsprechend dem vorgegebenen Referenzbewegungsmuster teilweise in dem Sättigungsbereich ausgeführt worden ist. 
- Beispielsweise verläuft eine Bewegungsgeste, die eine kreisförmige Bewegung in einer im Wesentlichen senkrechten Ebene mit der Hand (gestenausführendes Objekt) vollführt, teilweise durch den Sättigungsbereich BS. Dann kann ggfs. die entsprechende zweidimensionale Bewegtbildaufzeichnung, die durch die Bewegung des Musters der Bildpunkte, zu denen ein Sättigungssignal vorliegt, bestimmt ist, als Teil der dreidimensionalen Bewegung der Hand des Nutzers interpretiert werden, die zu der Bewegungsgeste gehört. Somit kann, wenn eine Bewegung eines gestenausführenden Objekts4 in dem Sättigungsbereich BS durch eine entsprechende Sättigungsinformation der entsprechenden Bildpunktsensoren abgebildet wird, eine Bediengeste erkannt werden, wenn die Bewegung des entsprechenden gestenausführenden Objekts einer 2D-Projektion eines entsprechenden Anteils der Bewegungstrajektorie, die durch ein entsprechendes Referenzbewegungsmuster angegeben wird, entspricht. 
- Insbesondere kann im obigen Fall, wobei eine Bewegungsgeste als Bediengeste erkannt wird, eine Ausführung der der Bediengeste zugeordneten Funktion zugelassen werden, nur wenn die durch das erkannte Referenzbewegungsmuster angegebene Bewegungstrajektorie bezüglich des Bewegungsweges zu einem vorbestimmten Mindestanteil in dem Erfassungsbereich ausgeführt wurde. Insbesondere kann der vorbestimmte Mindestanteil 50 bis 90 % der gesamten Bewegungstrajektorie des erkannten Referenzbewegungsmusters betragen. 
- Bezugszeichenliste 
- 1
- Fahrgastinnenraum
- 2
- 3D-Kamerasystem
- 3
- Gestenerkennungseinheit
- 4
- gestenausführendes Objekt
- 21
- Leuchtquelle
- 22
- 3D-Kameraeinheit
- 23
- Auswerteeinheit
- ZITATE ENTHALTEN IN DER BESCHREIBUNG 
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen. 
- Zitierte Patentliteratur