Movatterモバイル変換


[0]ホーム

URL:


DE102016202526A1 - Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug - Google Patents

Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug
Download PDF

Info

Publication number
DE102016202526A1
DE102016202526A1DE102016202526.0ADE102016202526ADE102016202526A1DE 102016202526 A1DE102016202526 A1DE 102016202526A1DE 102016202526 ADE102016202526 ADE 102016202526ADE 102016202526 A1DE102016202526 A1DE 102016202526A1
Authority
DE
Germany
Prior art keywords
gesture
movement
saturation region
executing object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016202526.0A
Other languages
English (en)
Inventor
Andreas Menath
Björn Westphal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AGfiledCriticalBayerische Motoren Werke AG
Priority to DE102016202526.0ApriorityCriticalpatent/DE102016202526A1/de
Publication of DE102016202526A1publicationCriticalpatent/DE102016202526A1/de
Pendinglegal-statusCriticalCurrent

Links

Images

Classifications

Landscapes

Abstract

Die Erfindung betrifft ein Verfahren zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug, mit folgenden Schritten: – Erfassen eines Vorhandenseins und/oder einer Bewegung mindestens eines gestenausführenden Objektes in einem Sättigungsbereich eines 3D-Kamerasystems, das ausgebildet ist, um in einem Erfassungsbereich eine dreidimensionale Bildinformation des mindestens einen gestenausführenden Objektes bereitzustellen, wobei der Sättigungsbereich des 3D-Kamerasystems einen kameranahen Bereich darstellt, in dem lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes erhaltbar ist, – Erkennen einer Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes.

Description

  • Die Erfindung betrifft Vorrichtungen zur Erkennung von Bediengesten eines Fahrers eines Kraftfahrzeugs zur Auswahl, Aktivierung oder Deaktivierung von Funktionen. Insbesondere betrifft die vorliegende Erfindung eine Nutzung einer 3D-Bildinformation einer Lichtlaufzeitkamera (TOF-Kamera) für eine Gestenerkennung.
  • Durch die Erkennung der Entfernungsinformation für jeden Bildpunkt mithilfe einer TOF-Kamera kann ein sich im Erfassungsbereich der TOF-Kamera befindliches gestenausführendes Objekt, d.h. ein Körperteil oder ein sonstiger Gegenstand, dreidimensional erfasst werden. Eine Bediengeste, die einer Anordnung von mehreren gestenausführenden Objekten im Erfassungsbereich oder einer Bewegung eines gestenausführenden Objekts entlang einer bestimmten Bewegungstrajektorie entspricht, kann durch eine entsprechende Mustererkennung erkannt werden und eine entsprechende Funktion ausgewählt, aktiviert oder deaktiviert werden.
  • Der Erfassungsbereich der TOF-Kamera wird in Tiefenrichtung durch eine maximale Entfernung und eine minimale Entfernung begrenzt. Die maximale Entfernung entspricht einer Entfernung eines Objekts, bei der die Stärke des reflektierten Lichtstrahls nicht mehr ausreicht, um eine Laufzeitmessung vorzunehmen. Eine minimale Entfernung wird dadurch bestimmt, dass die Stärke des reflektierten Lichts eine Sättigung in Bildpunktsensoren der TOF-Kamera bewirkt, so dass für die betreffenden Bildpunkte eine Entfernungsinformation nicht erhalten werden kann.
  • Es ist Aufgabe der vorliegenden Erfindung, eine Gestenerkennung, die mit Hilfe einer Lichtlaufzeitkamera ausgeführt wird, zu verbessern.
  • Offenbarung der Erfindung
  • Diese Aufgabe wird durch das Verfahren zum Durchführen einer Gestenerkennung mit Hilfe einer Lichtlaufzeitkamera gemäß Anspruch 1 sowie durch die Vorrichtung und das Gestenerkennungssystem gemäß den nebengeordneten Ansprüchen gelöst.
  • Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einem ersten Aspekt ist ein Verfahren zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug vorgesehen, mit folgenden Schritten:
    • – Erfassen eines Vorhandenseins und/oder einer Bewegung mindestens einen gestenausführenden Objektes in einem Sättigungsbereich eines 3D-Kamerasystems, das ausgebildet ist, um in einem Erfassungsbereich eine dreidimensionale Bildinformation des mindestens einen gestenausführenden Objektes bereitzustellen, wobei der Sättigungsbereich des 3D-Kamerasystems einen kameranahen Bereich darstellt, in dem lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes erhaltbar ist,
    • – Erkennen einer Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes.
  • Bediengesten können durch eine vorbestimmte Bewegung mindestens eines gestenausführenden Objekts und/oder eine vorbestimmte Anordnung von gestenausführenden Objekten durch einen Nutzer ausgeführt werden. Das mindestens eine gestenausführende Objekt kann dabei einem oder mehreren Körperteilen des Nutzers, wie z.B. einer Hand, einem Arm, Fingern und dergleichen, und/oder einem oder mehreren insbesondere vom Nutzer gehaltenen Gegenständen, wie z.B. einem Eingabestift oder dergleichen, entsprechen.
  • Wie eingangs beschrieben, weisen herkömmliche für die Gesteneingabe verwendete 3D-Kamerasysteme einen begrenzten Erfassungsbereich auf, in dem darin befindliche Objekte mit Hilfe von geeigneten Bildpunktsensoren dreidimensional erkannt werden können. Zwischen dem 3D-Kamerasystem und dem Erfassungsbereich, d.h. in der direkten Nähe des 3D-Kamerasystems, kann sich jedoch ein Sättigungsbereich befinden, in dem man keine Entfernungsinformation für die einzelnen Bildpunkte erhalten kann. Ein Grund hierfür liegt darin, dass die Bildpunktsensoren durch die hohe Lichtstärke der reflektierten Lichtstrahlen in eine Sättigung gelangen. Befinden sich Bildpunktsensoren in einer Sättigung kann man keine Phaseninformation für den betreffenden Bildpunkt erhalten, die für die Lichtlaufzeitmessung und damit für die Entfernungsmessung benötigt wird.
  • 3D-Kamerasysteme zur Gestenerkennung werden häufig an einer Decke des Fahrzeuginnenraums angeordnet. Die Weite des Bildaufnahmebereichs des 3D-Kamerasystems wird durch die Kameraoptik bestimmt. Ein Nutzer, z.B. ein Fahrer des Kraftfahrzeugs, kann beispielsweise eine Bediengeste in dem Bildaufnahmebereich des 3D-Kamerasystems ausführen. Das 3D-Kamerasystem wird in der Regel so eingestellt, dass sich der Erfassungsbereich in einem Raumbereich innerhalb des Bildaufnahmebereichs befindet, in dem der Nutzer eine Bediengeste im Normalfall ausführen wird. Angrenzend an den Erfassungsbereich schließt sich in Richtung des 3D-Kamerasystems der Sättigungsbereich an. Die Bildpunktsensoren des 3D-Kamerasystems sind ausgebildet, um im Falle einer Sättigung den entsprechenden Zustand anzuzeigen bzw. in Form eines Sättigungssignals zu signalisieren. Daraus lässt sich zwar keine Entfernungsinformation des betreffenden Bildpunkts mehr ableiten, jedoch steht durch die Anordnung der Bildpunkte, an denen die zugeordneten Bildpunktsensoren eine Sättigung signalisieren, eine zweidimensionale Bildinformation zur Verfügung, da die übrigen Bildpunktsensoren eine Phasen-/Entfernungsinformation und somit kein Sättigungssignal liefern.
  • Bediengesten werden als solche erkannt, indem eine Bewegung des mindestens einen gestenausführenden Objekts in dem Erfassungsbereich einem vorgegebenen Referenzbewegungsmuster des Objekts entspricht oder eine Anordnung von mindestens zwei der gestenausführenden Objekte in dem Erfassungsbereich einem vorgegebenen Referenzanordnungsmuster entspricht. Bei einer erkannten Bediengeste wird eine dem vorgegebenen Referenzbewegungsmuster oder eine dem vorgegebenen Referenzanordnungsmuster zugeordnete Funktion ausgewählt, aktiviert oder deaktiviert.
  • Befindet sich das mindestens eine gestenausführende Objekt, z.B. die Hand des Benutzers, in dem Sättigungsbereich oder bewegt sich das mindestens eine gestenausführende Objekt während der Ausführung einer Bediengeste in dem Sättigungsbereich, so brechen herkömmliche Verfahren die Gestenerkennung ab und es wird eine ausgeführte Geste nicht als Geste erkannt. Aufgrund der fehlenden 3D-Bildinformation können nämlich das der Bediengeste entsprechende Referenzbewegungsmuster des Objekts oder das Referenzanordnungsmuster von mindestens zwei der Objekte nicht mehr detektiert werden.
  • Eine Idee des obigen Verfahrens besteht darin, die zweidimensionale Bildinformation des Objektes im Sättigungsbereich für die Gestenerkennung zu nutzen. Dadurch kann die Erkennungswahrscheinlichkeit einer Bediengeste, die ganz oder teilweise in dem Sättigungsbereich ausgeführt wird, erhöht werden.
  • Dies betrifft zum einen Anordnungsgesten als Bedienungsgesten, bei denen mindestens zwei der gestenausführenden Objekte eine bestimmte Anordnung zueinander aufweisen sollen, wie z.B. ein ausgestreckter Zeigefinger an einer ansonsten zur Faust geballten Hand, die zu einer charakteristischen Abbildung eines zweidimensionalen Projektionsbildes für die 3D-Kamera führt. Dadurch kann eine solche Anordnungsgeste auch dann als Bediengeste erkannt werden, wenn diese in dem Sättigungsbereich ausgeführt wird.
  • Zum anderen kann eine Bediengeste erkannt werden, bei der eine Bewegung bzw. Bewegungstrajektorie des mindestens einen gestenausführenden Objekts zumindest teilweise in dem Sättigungsbereich verläuft. Dies kann für bestimmte Bewegungsgesten möglich sein, wenn die Bewegung durch den Sättigungsbereich in einer Bildebene, die quer zur Kameraachse verläuft, einer Bewegungstrajektorie bzw. einem Teil einer Bewegungstrajektorie des gestenausführenden Objekts entspricht, die einem Referenzbewegungsmuster für eine Bediengeste zugeordnet werden kann. Auf diese Weise können auch Bewegungsgesten als Bediengesten erkannt werden, die sich bei herkömmlichen Gestenerkennungssystemen außerhalb des Erfassungsbereichs befinden, wenn ein Teil der Gestenbewegung durch den Sättigungsbereich verläuft. Dies ermöglicht es, auch Bediengesten zu erkennen, bei denen der Nutzer mit dem mindestens einen gestenausführenden Objekt versehentlich den Erfassungsbereich verlässt. Auf diese Weise kann die Detektionszuverlässigkeit für Bedienungsgesten verbessert werden, die Bewegungsgesten darstellen.
  • Weiterhin kann das mindestens eine gestenausführende Objekt einem oder mehreren Körperteilen, insbesondere einem Arm, einer Hand und/oder einem Finger und/oder einem oder mehreren insbesondere gehaltenen Gegenständen, insbesondere einem Eingabestift, entsprechen.
  • Es kann vorgesehen sein, dass als Bediengeste eine Anordnungsgeste, bei der eine Anordnung von mehreren gestenausführenden Objekten vorliegt, im Sättigungsbereich erkannt wird, wenn die erhaltene zweidimensionale Bildinformation einem vorgegebenen Referenzanordnungsmuster entspricht.
  • Gemäß einer Ausführungsform kann als Bediengeste eine Bewegungsgeste, bei der eine Bewegung von mindestens einem gestenausführenden Objekt vorliegt, die mit einem Abschnitt einer Bewegungstrajektorie der Bewegung in dem Sättigungsbereich verläuft, erkannt werden, wenn ein Abschnitt der Bewegungstrajektorie in dem Erfassungsbereich einem entsprechenden Abschnitt eines vorgegebenen Referenzbewegungsmusters entspricht und ein Abschnitt der Bewegungstrajektorie in dem Sättigungsbereich einer 2D-Projektion eines entsprechenden Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters entspricht.
  • Insbesondere kann die Bewegungsgeste als die Bediengeste erkannt werden, nur wenn die Länge des Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters in dem Erfassungsbereich bezüglich der gesamten Länge der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters einem vorgegebenen Minimalanteil entspricht.
  • Gemäß einem weiteren Aspekt ist eine Vorrichtung zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug, vorgesehen, umfassend:
    • – ein 3D-Kamerasystem, das ausgebildet ist, um in einem Erfassungsbereich eine dreidimensionale Bildinformation mindestens eines gestenausführenden Objektes bereitzustellen, und in einem Sättigungsbereich, der einen kameranahen Bereich darstellt, lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes bereitzustellen, und
    • – eine Gestenerkennungseinheit, die ausgebildet ist, um ein Vorhandensein und/oder eine Bewegung mindestens eines gestenausführenden Objektes in dem Sättigungsbereich (BS) zu erfassen und eine Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes zu erkennen.
  • Kurzbeschreibung der Zeichnungen
  • Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung eines Fahrgastinnenraums eines Kraftfahrzeugs mit einem Gestenerkennungssystem; und
  • 2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Erkennung von Gesten in einem Fahrgastinnenraum eines Kraftfahrzeugs.
  • Beschreibung von Ausführungsformen
  • In1 ist schematisch ein Fahrgastinnenraum1 eines Kraftfahrzeugs dargestellt. Man erkennt eine Querschnittsdarstellung entlang einer Längsachse des Kraftfahrzeugs, wobei an einer Decke des Kraftfahrzeugs ein 3D-Kamerasystem2 angeordnet ist. Das 3D-Kamerasystem2 kann eine Leuchtquelle21, eine 3D-Kameraeinheit22 und eine Auswerteeinheit23 umfassen. Die 3D-Kameraeinheit22 kann insbesondere als Lichtlaufzeitkamera (TOF-Kamera, TOF: Time of flight) ausgebildet sein und ein Array von Bildpunkten aufweisen. Die Lichtlaufzeitkamera ist insbesondere als PMD-Kamera ausgebildet. Die Leuchtquelle21 dient dazu, den Bildaufzeichnungsbereich für die 3D Kameraeinheit22 mit Licht auszuleuchten, das von Objekten, die sich in dem Bildaufzeichnungsbereich befinden, reflektiert und von der 3D Kameraeinheit22 erfasst werden kann.
  • Das Messprinzip der Lichtlaufzeitkamera basiert darauf, dass ausgehend von einer Phasenverschiebung des von der Leuchtquelle21 emittierten und durch die Lichtlaufzeitkamera empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts für jeden Bildpunkt mithilfe von entsprechenden Bildpunktsensoren ermittelt werden kann. Die Lichtquelle21 und die Lichtlaufzeitkamera werden dazu mit Hilfe eines Modulators mit einer bestimmten Modulationsfrequenz betrieben. Entsprechend der Modulationsfrequenz sendet die Leuchtquelle21 ein amplitudenmoduliertes Signal mit einer ersten Phase aus. Dieses Signal wird von mindestens einem im Bildaufzeichnungsbereich befindlichen Objekt reflektiert und aufgrund der durch das Licht zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage von der Lichtlaufzeitkamera empfangen. Aus dem resultierenden Signal wird die Phasenverschiebung und daraus die Entfernung des Objekts für jeden Bildpunkt ermittelt. Die Lichtlaufzeitmessung für die Lichtlaufzeitkamera ist im Wesentlichen aus dem Stand der Technik bekannt, und es wird deshalb nicht näher darauf eingegangen.
  • Ein im Bildaufzeichnungsbereich befindliches Objekt4 soll für das 3D-Kamerasystem ein gestenausführendes Objekt4 sein. Als gestenausführendes Objekt4 kann ein Körperteil, wie beispielsweise ein Finger, eine Hand, ein Unterarm oder dergleichen, oder ein insbesondere von einem Körperteil gehaltenen Gegenstand, wie beispielsweise ein Eingabestift oder dergleichen, angesehen werden.
  • Bei Lichtlaufzeitkameras ist eine 3D-Erfassung eines im Bildaufnahmebereich befindlichen Objekts nur in einem Bereich zwischen einem minimalen Abstand, angezeigt durch die gestrichelte Linie A, und einem maximalen Abstand, angezeigt durch die gestrichelte Linie B, von der 3D-Kameraeinheit22 möglich. Dieser Bereich wird als Erfassungsbereich BE bezeichnet und entspricht einem Bereich, in dem eine dreidimensionale Bildinformation des darin befindlichen Objekts4 erhalten werden kann. Zwischen der 3D-Kameraeinheit22 und der durch den minimalen Abstand von der 3D-Kameraeinheit22 bestimmte Grenzfläche erstreckt sich ein Sättigungsbereich BS, in dem der an einem darin befindlichen Objekt reflektierte Anteil des von der Leuchtquelle21 emittierten Lichts zu stark ist, um von der Lichtlaufzeitkamera der 3D-Kameraeinheit22 ausgewertet zu werden.
  • Insbesondere werden durch die hohe Stärke des reflektieren Lichts die einzelnen Bildpunktsensoren des Lichtlaufzeitsensors übersteuert und liefern ein entsprechendes Sättigungssignal, das damit angibt, dass eine Entfernungsmessung für diesen Bildpunkt nicht möglich ist. Durch die Auswertung der Bildpunkte, die das entsprechende Sättigungssignal bereitstellen, kann eine zweidimensionale Bildinformation des Objekts4 im Sättigungsbereich BS erkannt werden.
  • Das 3D-Kamerasystem2 ist mit einer Gestenerkennungseinheit3 verbunden. In der Gestenerkennungseinheit3 werden Anordnungen und Bewegungen von gestenausführenden Objekten4 in dem Erfassungsbereich BE mit Referenzanordnungsmustern und Referenzbewegungsmustern verglichen, die jeweils eine zugelassene Bediengeste angeben.
  • Durch die Gestenerkennungseinheit3 können somit Muster einer Anordnung von gestenausführenden Objekten zueinander, wie z.B. ein ausgestreckter Zeigefinger, der in eine vorgegebene Richtung zeigt, an einer geballten Hand oder dergleichen, als Bediengeste entsprechend einem Referenzanordnungsmuster erkannt werden. Weiterhin kann eine Bewegung eines gestenausführenden Objekts in dem Erfassungsbereich entsprechend einem Referenzbewegungsmuster als Bediengeste erkannt werden.
  • Wird eine Bediengeste so ausgeführt, dass das mindestens eine gestenausführende Objekt sich in den Sättigungsbereich BS hinein bewegt, sich durch den Sättigungsbereich BS hindurchbewegt oder sich aus dem Sättigungsbereich BS herausbewegt, kann eine Bediengeste mit Hilfe einer herkömmlichen Gestenerkennungseinheit nicht erkannt werden. Da ein Teil der dreidimensionalen Bewegungstrajektorie des gestenausführenden Objekts nicht durch die dreidimensionale Abbildung des 3D-Kamerasystems2 erfasst wird, ergibt ein Vergleich mit den vorgegebenen Referenzbewegungsmustern keine Entsprechung für eine Bediengeste.
  • In2 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Erkennung von Bedienungsgesten in einem Kraftfahrzeug schematisch dargestellt.
  • In Schritt S1 wird überprüft, ob von einem vorbestimmten Mindestanteil von Bildpunktsensoren der 3D-Kameraeinheit ein Sättigungssignal bereitgestellt wird. Ist dies der Fall (Alternative: Ja) wird das Verfahren mit Schritt S2 fortgesetzt. Andernfalls (Alternative: Nein) wird das Verfahren mit Schritt S10 fortgesetzt. Schritt S10 beinhaltet eine herkömmliche Gestenerkennung, auf die hierin nicht näher eingegangen wird.
  • In Schritt S2 wird überprüft, ob eine Bewegung eines gestenausführenden Objekts im Bildaufnahmebereich des 3D-Kamerasystems innerhalb eines vorbestimmten zurückliegenden Zeitraums erkannt worden ist. Wurde keine Bewegung erkannt (Alternative: Nein), wird das Verfahren mit Schritt S3 fortgesetzt. Andernfalls, d.h. es wurde eine Bewegung des gestenausführenden Objekts erkannt (Alternative: ja), so wird das Verfahren mit Schritt S4 fortgesetzt.
  • In Schritt S3 kann nun vorgesehen sein, dass im Sättigungsbereich BS ausgeführte Bediengesten, die durch eine bestimmte Anordnung von gestenausführenden Objekten4 ausgeführt werden (Anordnungsgesten) und keine (auswertbare) Bewegung enthalten, mithilfe von vorgegebenen zusätzlichen Referenzanordnungsmustern in der Gestenerkennungseinheit3 erkannt werden können. Die zusätzlichen Referenzanordnungsmuster entsprechend Referenzmuster die lediglich eine zweidimensionale Bildinformation einer Bediengeste zur Identifizierung der Bediengeste benötigen. Dazu werden zweidimensionale Bildinformation, die den Bildpunkten entsprechen, dessen zugeordnete Bildpunktsensoren Sättigungssignale bereitstellen, mit den entsprechenden vorgegebenen zusätzlichen Referenzanordnungsmustern verglichen und bei Erkennen einer entsprechenden Bediengeste (Anordnungsgeste) eine Funktion ausgelöst.
  • In Schritt S4 können Bewegungsgesten, die ganz oder teilweise in dem Sättigungsbereich durchgeführt werden, durch Zuordnung zu den vorgegebenen Referenzbewegungsmustern als Bedienungsgesten erkannt werden. Dazu wird die Bewegungstrajektorie des mindestens einen gestenausführenden Objektes4 im Erfassungsbereich bestimmt. Es werden weiterhin diejenigen Referenzbewegungsmuster ausgewählt, die nicht in Widerspruch zu der Bewegungstrajektorie des mindestens einen gestenausführenden Objekts4 im Erfassungsbereich BE stehen. Für den Abschnitt der Bewegungstrajektorie des mindestens einen gestenausführenden Objekts, der durch den Sättigungsbereich BS verläuft, wird eine entsprechend zweidimensionale Bewegungstrajektorie, die durch das 3D-Kamerasystem2 bereitgestellt wird, mit einer 2D-Projektion des entsprechenden Abschnitts der Bewegungstrajektorie der ausgewählten Referenzbewegungsmuster verglichen. Die 2D-Projektion erfolgt in einer Ebene quer zur Achse der 3D-Kameraeinheit22. Stimmt die zweidimensionale Bewegungstrajektorie des mindestens einen gestenausführenden Objekts4 mit der entsprechenden 2D-Projektion eines der ausgewählten Referenzbewegungsmuster überein, so kann angenommen, dass die Bewegungsgeste entsprechend dem vorgegebenen Referenzbewegungsmuster teilweise in dem Sättigungsbereich ausgeführt worden ist.
  • Beispielsweise verläuft eine Bewegungsgeste, die eine kreisförmige Bewegung in einer im Wesentlichen senkrechten Ebene mit der Hand (gestenausführendes Objekt) vollführt, teilweise durch den Sättigungsbereich BS. Dann kann ggfs. die entsprechende zweidimensionale Bewegtbildaufzeichnung, die durch die Bewegung des Musters der Bildpunkte, zu denen ein Sättigungssignal vorliegt, bestimmt ist, als Teil der dreidimensionalen Bewegung der Hand des Nutzers interpretiert werden, die zu der Bewegungsgeste gehört. Somit kann, wenn eine Bewegung eines gestenausführenden Objekts4 in dem Sättigungsbereich BS durch eine entsprechende Sättigungsinformation der entsprechenden Bildpunktsensoren abgebildet wird, eine Bediengeste erkannt werden, wenn die Bewegung des entsprechenden gestenausführenden Objekts einer 2D-Projektion eines entsprechenden Anteils der Bewegungstrajektorie, die durch ein entsprechendes Referenzbewegungsmuster angegeben wird, entspricht.
  • Insbesondere kann im obigen Fall, wobei eine Bewegungsgeste als Bediengeste erkannt wird, eine Ausführung der der Bediengeste zugeordneten Funktion zugelassen werden, nur wenn die durch das erkannte Referenzbewegungsmuster angegebene Bewegungstrajektorie bezüglich des Bewegungsweges zu einem vorbestimmten Mindestanteil in dem Erfassungsbereich ausgeführt wurde. Insbesondere kann der vorbestimmte Mindestanteil 50 bis 90 % der gesamten Bewegungstrajektorie des erkannten Referenzbewegungsmusters betragen.
  • Bezugszeichenliste
  • 1
    Fahrgastinnenraum
    2
    3D-Kamerasystem
    3
    Gestenerkennungseinheit
    4
    gestenausführendes Objekt
    21
    Leuchtquelle
    22
    3D-Kameraeinheit
    23
    Auswerteeinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1777747 B1[0002]

Claims (9)

  1. Verfahren zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug, mit folgenden Schritten: – Erfassen eines Vorhandenseins und/oder einer Bewegung mindestens eines gestenausführenden Objektes (4) in einem Sättigungsbereich eines 3D-Kamerasystems (2), das ausgebildet ist, um in einem Erfassungsbereich (BE) eine dreidimensionale Bildinformation des mindestens einen gestenausführenden Objektes (4) bereitzustellen, wobei der Sättigungsbereich (BS) des 3D-Kamerasystems (2) einen kameranahen Bereich darstellt, in dem lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes (4) erhaltbar ist, – Erkennen einer Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes (4).
  2. Verfahren nach Anspruch 1, wobei das mindestens eine gestenausführende Objekt (4) einem oder mehreren Körperteilen, insbesondere einem Arm, einer Hand und/oder einem Finger und/oder einem oder mehreren insbesondere gehaltenen Gegenständen, insbesondere einem Eingabestift, entspricht.
  3. Verfahren nach Anspruch 1 oder 2, wobei als Bediengeste eine Anordnungsgeste, bei der eine Anordnung von mehreren gestenausführenden Objekten (4) vorliegt, im Sättigungsbereich (BS) erkannt wird, wenn die erhaltene zweidimensionale Bildinformation einem vorgegebenen Referenzanordnungsmuster entspricht.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei als Bediengeste eine Bewegungsgeste, bei der eine Bewegung von mindestens einem gestenausführenden Objekt (4) vorliegt, die mit einem Abschnitt einer Bewegungstrajektorie der Bewegung in dem Sättigungsbereich (BS) verläuft, erkannt wird, wenn ein Abschnitt der Bewegungstrajektorie in dem Erfassungsbereich (BE) einem entsprechenden Abschnitt eines vorgegebenen Referenzbewegungsmusters entspricht und ein Abschnitt der Bewegungstrajektorie in dem Sättigungsbereich einer 2D-Projektion eines entsprechenden Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters entspricht.
  5. Verfahren nach Anspruch 4, wobei die Bewegungsgeste als die Bediengeste erkannt wird, nur wenn die Länge des Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters in dem Erfassungsbereich (BE) bezüglich der gesamten Länge der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters einem vorgegebenen Minimalanteil entspricht.
  6. Vorrichtung zum Durchführen einer Gestenerkennung, insbesondere in einem Kraftfahrzeug, umfassend: – ein 3D-Kamerasystem (2), das ausgebildet ist, um in einem Erfassungsbereich (BE) eine dreidimensionale Bildinformation mindestens eines gestenausführenden Objektes (4) bereitzustellen, und in einem Sättigungsbereich (BS), der einen kameranahen Bereich darstellt, lediglich eine zweidimensionale Bildinformation des gestenausführenden Objektes bereitzustellen, und – eine Gestenerkennungseinheit (3), die ausgebildet ist, um ein Vorhandensein und/oder eine Bewegung mindestens eines gestenausführenden Objektes (4) in dem Sättigungsbereich (BS) zu erfassen und eine Bediengeste abhängig von der zweidimensionalen Bildinformation des mindestens einen gestenausführenden Objektes (4) zu erkennen.
  7. Vorrichtung nach Anspruch 6, wobei das 3D-Kamerasystem (2) eine TOF-Kameraeinheit oder eine PMD-Kameraeinheit umfasst.
  8. Vorrichtung nach einem der Ansprüche 6 und 7, wobei die Gestenerkennungseinheit ausgebildet ist, um als Bediengeste eine Bewegungsgeste, bei der eine Bewegung von mindestens einem gestenausführenden Objekt (4) vorliegt, die mit einem Abschnitt einer Bewegungstrajektorie der Bewegung in dem Sättigungsbereich (BS) verläuft, zu erkennen, wenn ein Abschnitt der Bewegungstrajektorie in dem Erfassungsbereich (BE) einem entsprechenden Abschnitt eines vorgegebenen Referenzbewegungsmusters entspricht und ein Abschnitt der Bewegungstrajektorie in dem Sättigungsbereich einer 2D-Projektion eines entsprechenden Abschnitts der Bewegungstrajektorie des vorgegebenen Referenzbewegungsmusters entspricht.
  9. Computerprogrammprodukt, das, wenn es auf einer Datenverarbeitungseinrichtung ausgeführt wird, das Verfahren nach einem der Ansprüche 1 bis 5 durchführt.
DE102016202526.0A2016-02-182016-02-18Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem KraftfahrzeugPendingDE102016202526A1 (de)

Priority Applications (1)

Application NumberPriority DateFiling DateTitle
DE102016202526.0ADE102016202526A1 (de)2016-02-182016-02-18Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug

Applications Claiming Priority (1)

Application NumberPriority DateFiling DateTitle
DE102016202526.0ADE102016202526A1 (de)2016-02-182016-02-18Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug

Publications (1)

Publication NumberPublication Date
DE102016202526A1true DE102016202526A1 (de)2017-08-24

Family

ID=59522066

Family Applications (1)

Application NumberTitlePriority DateFiling Date
DE102016202526.0APendingDE102016202526A1 (de)2016-02-182016-02-18Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug

Country Status (1)

CountryLink
DE (1)DE102016202526A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN112307865A (zh)*2020-02-122021-02-02北京字节跳动网络技术有限公司基于图像识别的交互方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
EP1777747B1 (de)2005-10-192008-03-26CSEM Centre Suisse d'Electronique et de Microtechnique SAEinrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE202015105611U1 (de)*2014-10-222015-11-09Visteon Global Technologies, Inc.Vorrichtung zur Gestensteuerung in einem Fahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
EP1777747B1 (de)2005-10-192008-03-26CSEM Centre Suisse d'Electronique et de Microtechnique SAEinrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE202015105611U1 (de)*2014-10-222015-11-09Visteon Global Technologies, Inc.Vorrichtung zur Gestensteuerung in einem Fahrzeug

Cited By (1)

* Cited by examiner, † Cited by third party
Publication numberPriority datePublication dateAssigneeTitle
CN112307865A (zh)*2020-02-122021-02-02北京字节跳动网络技术有限公司基于图像识别的交互方法及装置

Similar Documents

PublicationPublication DateTitle
DE102016214597A1 (de)Verfahren zur Unterstützung eines Ankuppelvorgangs eines Fahrzeugs sowie Unterstützungssystem
DE102009046107A1 (de)System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
EP2915022B1 (de)Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE102016200642A1 (de)Verfahren und vorrichtung zum klassifizieren von fahrbahnbegrenzungen und fahrzeug
DE102013012466A1 (de)Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP2963631B1 (de)Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
DE102015121353A1 (de)Verfahren zum Erkennen einer möglichen Kollision zwischen einem Kraftfahrzeug und einem Objekt unter Berücksichtigung einer räumlichen Unsicherheit, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019115330A1 (de)Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
DE102016009327A1 (de)Vorrichtung und Verfahren zur Kalibrierung einer Kamera
DE102015214425A1 (de)Verfahren zum Erkennen eines Verlaufs von Schienen
DE102017219119A1 (de)Verfahren zur Formerkennung eines Objekts in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102010049216A1 (de)Verfahren zum Betrieb einer an einem Fahrzeug angeordneten Kamera
DE102019219750A1 (de)Fahrerassistenzsystem und Verfahren zum Detektieren von Objektbarrieren in 3D-Punktewolken
DE102019127322A1 (de)Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102019211740A1 (de)Erhöhte Teilbereichsauflösung
DE102019211459A1 (de)Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102013018752A1 (de)Verfahren zur Klassifikation von Fußgängern
DE102016202526A1 (de)Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug
DE102008059551B4 (de)Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
DE102020206935A1 (de)Lidar mit vertikaler Abtastung
DE102020210116A1 (de)Verfahren zum Betreiben eines Assistenzsystems eines Fahrzeugs
DE102019106844B4 (de)Detektion von Fehlfunktionen der Schaltzustandserkennung von Lichtsignalanlagen
DE102021000447A1 (de)Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
DE102016006381B3 (de)Verfahren zum Betreiben einer Verarbeitungseinrichtung für Sensordaten eines in einem Kraftfahrzeug angeordneten Sensors und Kraftfahrzeug
DE102020204362A1 (de)Verfahren zum Bewerten einer Geste eines Fahrzeuginsassen in einem Innenraum eines Fahrzeugs, ein Verfahren zum Beleuchten eines Objekts sowie ein Beleuchtungssystem

Legal Events

DateCodeTitleDescription
R163Identified publications notified
R012Request for examination validly filed

[8]ページ先頭

©2009-2025 Movatter.jp