Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes von räumlichen Objekten.The invention relates to a method and an apparatus forRecording a three-dimensional image of the distance from raumliobjects.
Dreidimensional aufnehmende und verarbeitende Sensorsysteme gewinnen für verschiedenste Aufgabenstellungen in der industriellen Technik zunehmend an Bedeutung. Bekannte optische Radarsysteme, wie beispielsweise Laserradar basieren entweder auf dem Prinzip der Laserimpuls-Laufzeitmessung oder auf der Bestimmung der Phasendifferenz von moduliertem Laserlicht zur Ableitung der Objektdistanz. Zum Aufbau eines dreidimensionalen bildgebenden Systemes sind zusätzliche mechanische Scaneinrichtungen erforderlich. Dies führt zu einem relativ teuren elektronischen und mechanischen Aufwand, der den Einsatz solcher dreidimensionalen Systeme auf wenige Spezialanwendungen beschränkt.Three-dimensional recording and processing sensor systemswin for various tasks in the industrategic technology is becoming increasingly important. Known opticalRadar systems, such as laser radar, are either basedon the principle of laser pulse transit time measurement or on theDetermination of the phase difference of modulated laser light forDerivation of the object distance. To build a three-dimensionallen imaging systems are additional mechanicalScanning facilities required. This leads to a relativeexpensive electronic and mechanical effort that the oneset of such three-dimensional systems on a few speciallimited turns.
Es sind Verfahren bekannt, die eine CCD-Kamera (Charged Coupled Device) einsetzen, wobei für diese Halbeleiterkameras die Fernseh(TV)- Norm herangezogen wird. Somit lassen sich lediglich relativ lange Auslesezeiten erzielen.Methods are known which use a CCD camera (Charged Coupled Device) use, for these semiconductor camerasthe television (TV) standard is used. So you canonly achieve relatively long readout times.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Aufnahme eines dreidimensionalen Abstandsbildes, sowie eine Vorrichtung dazu zur Verfügung zu stellen, womit ein schnelles und kostengünstiges Verfahren zur Gewinnung eines dreidimensionalen Abstandsbildes für räumliche Objekte ohne aufwendige mechanische Einrichtungen bereitgestellt wird.The invention has for its object a method forRecording a three-dimensional distance image, as well as aTo provide a device with which a quickles and inexpensive method for obtaining a dreididimensional distance image for spatial objects without expendituremechanical equipment is provided.
Die Lösung dieser Aufgabe geschieht durch die Merkmale des Anspruchs 1, 2 bzw. des Anspruches 23.This problem is solved by the features ofClaim 1, 2 and claim 23.
Der Erfindung liegt die Erkenntnis zugrunde, daß unter Einsatz eines bildpunktauflösenden (pixelauflösenden) und wahlfrei auslesbaren optoelektronischen Sensors, dessen Integrationszeit punktweise einstellbar ist, eine extrem schnelle Bildaufnahme eines dreidimensionalen Abstandsbildes möglich ist. Dazu wird das Objekt mit einem oder mehreren sehr kurzen Lichtimpulsen beleuchtet, woraufhin Lichtimpulse der gleichen Länge vom Objekt zurückgestreut werden. Diese zurückgestreuten Lichtimpulse werden über eine entsprechende Optik auf den optoelektronischen Chip geleitet. Aufgrund der unterschiedlichen Abstände unterschiedlicher Objektpunkte vom Sensor werden mit jeweiligen Orten korrespondierende zurückgestreute Lichtimpulse zu jeweils unterschiedlichen Zeiten am Sensor ankommen. Für eine Abstandsmessung wird ein Zeitmeßfenster geöffnet, dessen Zeitdauer einer vorbestimmbaren Integrationszeit entspricht. Die Integrationszeit ist kleiner oder gleich der Länge der ausgesandten und damit auch der Länge der reflektierten Lichtimpulse. Somit ist sichergestellt, daß am Ende der Integrationszeit ein einheitliches Abschneiden der zurückgestreuten Lichtimpulse am Sensor erfolgt. Die zeitverzögert eintreffenden Lichtimpulse je Bildpunktelement werden hinten abgeschnitten, so daß aufgrund der unterschiedlichen Ladungen im Raster des optoelektronischen Sensors die unterschiedlichen Laufzeiten in Ladungsunterschiede umgesetzt werden können. Daraus läßt sich ein dreidimensionales Abstandsbild errechnen.The invention is based on the finding that under oneset of a pixel-resolving and choicefreely readable optoelectronic sensor, whose integrapoint of time is adjustable, an extremely fastImage acquisition of a three-dimensional distance image possibleis. To do this, the object with one or more very shortLight pulses illuminated, whereupon light pulses of the sameLength from the object. Scattered this backth light pulses are transmitted to theoptoelectronic chip passed. Due to the differdistance between different object points from the sensorthe scattered back corresponding to the respective placesLight pulses at different times on the sensorarrive. A time measurement window is used for a distance measurementopened, the duration of a predeterminable integrations time. The integration time is shorter orequal to the length of the emitted and thus also the lengthof the reflected light pulses. This ensures thata uniform performance at the end of the integration periodthe backscattered light pulses occur at the sensor. Thearriving light pulses per pixel element with a time delayare cut off at the back, so that due to the differencecharges in the grid of the optoelectronic sensordifferent terms in charge differencescan be. From this, a three-dimensional abcalculate still image.
Die Erfindung kann auch derart gestaltet sein, daß anstelle eines Lichtimpulses mit definierter Länge lediglich ein Lichtintensitätsanstieg mit steiler Flanke Verwendung findet, der entsprechend am Sensor aufgenommen und ausgewertet wird. Dadurch wird das Meßergebnis unabhängig vom Verlauf der abfallenden Flanke des Lichtimpulses. Zum anderen kann der Einfluß eines Dunkelstromes, der beispielsweise durch die Betriebswärme eines Sensorelementes erzeugt wird, sowie der Anteil des Umgebungslichtes (Störlicht) exakt für jeden Bildpunkt kompensiert werden. Durch insgesamt drei aufeinander folgende Messungen werden zunächst der Dunkelstrom und das Umgebungslicht erfaßt, danach werden in Zusammenhang mit einer Belichtung die vom Objekt reflektierten und am Sensor empfangenen Lichtmengen in Form des Sensorsignalses integriert, was anschließend mit einer höheren Integrationszeit wiederholt wird. Daraus läßt sich durch entsprechende Interpolation die Laufzeit des Lichtes für jeden Objektpunkt ermitteln. Dies eröffnet die Verwendung von geringeren Lichtleistungen bei gleichzeitig genauer Messung der Laufzeit und damit der Entfernung zum Objekt.The invention can also be designed such that insteadof a light pulse with a defined length only oneIncrease in light intensity with a steep flank is used,which is recorded and evaluated accordingly on the sensor.This makes the measurement result independent of the course of thefalling edge of the light pulse. On the other hand, the oneflow of a dark current, for example through the Bedriving heat of a sensor element is generated, as well as the onpart of the ambient light (stray light) exactly for each imagepoint can be compensated. By three in total the following measurements will first be the dark current and theAmbient light is detected, then in connection with eggexposure is reflected by the object and on the sensorreceived amounts of light in the form of the sensor signal integrants what subsequently with a higher integration timeis repeated. This can be done through appropriate interpolation the runtime of the light for each object pointaverage. This opens up the use of lower lightperformance with precise measurement of the runtime andhence the distance to the object.
In einer vorteilhaften Ausgestaltung der Erfindung werden mit einer sehr langen Integrationszeit sämtliche Lichtimpulse gleichzeitig mit der zuerst beschriebenen Messung oder zeitversetzt danach mit ihrer vollständigen Länge aufgenommen. Dies wird zur Normierung benutzt, so daß Unterschiede im Reflexionsverhalten des Objektes erkannt und ausgeglichen werden können.In an advantageous embodiment of the inventiona very long integration time all light pulsessimultaneously with the measurement or time described firstthen added with their full length offset.This is used for normalization, so that differences in Rethe object's flexion behavior is recognized and balancedthat can.
Weitere vorteilhafte Ausgestaltungen können den Unteransprüchen entnommen werden.Further advantageous refinements can be found in the subclaimsChen be removed.
Die wesentlichen Vorteile der Erfindung liegen darin, daß beispielsweise mechanische Shutter entfallen. Es können extrem kurze Bildaufnahmezeiten realisiert werden. Der verwendete optoelektronische Sensor wird allgemein als CMOS-Sensor bezeichnet, wobei dies lediglich die technologische Bezeichnung des Halbleiterbauelementes ist. Mit einem derartigen Sensor lassen sich minimale Integrationszeiten von 50 bis 30 nsec realisieren (Jitter bei weniger als 0,1%). Die technische Entwicklung schreitet bei den Integrationszeiten noch voran.The main advantages of the invention are thatfor example, mechanical shutters are eliminated. Exextremely short image acquisition times can be realized. The useThe optoelectronic sensor is commonly used as a CMOS sensorreferred to, whereby this is only the technological designationvoltage of the semiconductor device. With such aSensor integration times are minimal from 50 to 30Realize nsec (jitter at less than 0.1%). The techniThe development is still progressing with the integration timesAhead.
In folgenden werden anhand von schematischen Figuren Ausführungsbeispiele beschrieben.In the following, diagrammatic figures are useddescribed examples.
Fig. 1 zeigt das Funktionsprinzip zur Erfassung eines dreidimensionalen Abstandsbildes mit einem CMOS-Sensor,Fig. 1 shows the operating principle for detecting a three-dimensional distance image with a CMOS sensor,
Fig. 2 zeigt die schematische Darstellung einer zeitlichen Verschiebung zweier Lichtimpulse deren zugehörige Objektpunkte einen unterschlichen Abstand zum CMOS-Sensor besitzen, relativ zu Integrationsfenstern,Fig. 2 shows the schematic representation of a time shift between two light pulses whose associated object punk te under a creep distance from the CMOS sensor have, concentration relative to integration windows,
Fig. 3 zeigt zwei Varianten des Sensors zur gleichzeitigen Erfassung von dreidimensionalen Abstandsbildern und Intensitäts- bzw. Grauwertbildern mit einem CMOS-Sensor,Fig. 3 shows two variants of the sensor for the simultaneous detection of three-dimensional distance images and Intensi täts- or gray scale images with a CMOS sensor,
Fig. 4 zeigt die schematische Darstellung der Fahrzeuginnenraumüberwachung mit einem dreidimensionalen CMOS-Sensor.Fig. 4 shows the schematic representation of the vehicle interior monitoring with a three-dimensional CMOS sensor.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS-Bildsensor, wobei das Signal der sendeseitigen Laserdiode und die empfangsseitigen Sensorsignale dargestellt sind,Fig. 5 shows the distance measurement with integrating CMOS image sensor, the signal of the transmission side laser diode and the receiving side sensor signals are shown,
Fig. 6 zeigt die Entfernungsmessung mit integrierendem CMOS-Bildsensor, wobei inFig. 6a der sendeseitige Betrieb einer Laserdiode und inFig. 6b die durch fortlaufende Integration am Sensor erzielten Sensorsignale dargestellt sind,Fig. 6 shows the distance measurement with integrating CMOS image sensor, wherein the sensor signals obtained by continuous integration of the sensor are shown inFig. 6a of the transmission-side operation of a laser diode and inFig. 6b,
Fig. 7 zeigt in zeitlicher Korrelation die Zusammenhänge zwischen sendeseitiger Beleuchtung und empfangsseitiger Detektion eines Laserimpulses, wobei die in derFig. 7 unten dargestellten Meßsignale in Verbindung mit einer kurzen Integrationszeit und einer sehr langen Integrationszeit dargestellt werden,Fig. 7 shows the correlation in time correlation between transmission-side lighting and reception-side detection of a laser pulse, the measurement signals shown inFig. 7 below in conjunction with a short integration time and a very long integration time are Darge,
Fig. 8 zeigt in zeitlicher Korrelation die sende- und empfangsseitige Darstellung eines Laserimpulses, wobei auf die Beleuchtungssteuerung des Sensors bezogen zwei unterschiedliche kurze Integrationszeiten vorgesehen sind.Fig. 8 shows in time correlation the transmission and reception representation of a laser pulse, two different short integration times are provided based on the lighting control of the sensor.
Es wird ein Verfahren zur seriellen oder gleichzeitigen Erfassung bzw. Erzeugung eines Intensitäts- und eines dreidimensionalen Abstandsbildes räumlicher Objekt mit einem optoelektronischen Sensor unter Kurzzeitbelichtung beschrieben. Das Verfahren nutzt die Laufzeitunterschiede der von den dreidimensionalen Objekten zurückgestreuten Lichtimpulse bei der bildpunktsynchronen (pixelsynchronen) Detektion am Sensor innerhalb kurzer Integrationszeiten. Dabei wird ein CMOS-Sensor eingesetzt. Dieser Sensor besitzt eine Lichtempfindlichkeit von beispielsweise 1 mLux. Weiterhin weist er eine hohe Intensitätsdynamik von bis zu 107 auf, einen wahlfreien Zugriff auf die einzelnen Bildpunkte (Pixel), sowie eine einstellbare Integrationszeit (Sample & Hold). Für die Messung der Ladungsmenge Q(t) bei Belichtung am einzelnen Bildpunkt.A method for serial or simultaneous detection or generation of an intensity and a three-dimensional distance image of a spatial object with an optoelectronic sensor under short exposure is described. The method uses the runtime differences of the light impulses scattered back from the three-dimensional objects in the case of pixel-synchronous (pixel-synchronous) detection at the sensor within short integration times. A CMOS sensor is used for this. This sensor has a light sensitivity of 1 mLux, for example. Furthermore, it has a high intensity dynamic of up to 107 , an optional access to the individual pixels (pixels) and an adjustable integration time (sample & hold). For measuring the amount of charge Q (t) when exposed to a single pixel.
Gegenüber Verfahren die eine CCD-Kamera einsetzen, lassen sich besondere Vorteile erzielen, wie beispielsweise die parallele Erfassung von Intensitäts- und dreidimensionalen Bildern, sowie die Realisierung kurzer Bildaufnahmezeiten, die deutlich unter den Auslesezeiten von CCD-Kameras liegen. Weiterhin benötigt der CMOS keine aufwendigen mechanischen Shutter und es müssen auch keine leistungsstarken Laserlichtquellen für die Kurzzeitbelichtung eingesetzt werden.Compared to processes that use a CCD cameraachieve special advantages, such as the paparallel acquisition of intensity and three-dimensional images, as well as the realization of short image acquisition times, theare significantly lower than the readout times of CCD cameras. WeiFurthermore, the CMOS does not require any complex mechanical shutdownter and there is no need for powerful laser light sourceslen are used for the short exposure.
Das Verfahren ist insbesondere für die Erkennung von Personen und Bewegungsabläufen in der Raumüberwachung, beispielsweise Fahrzeuginnen/-außenüberwachung der Automatisierung von Krananlagen sowie der Navigation geeignet.The method is particularly useful for recognizing peopleand motion sequences in room surveillance, for exampleVehicle interior and exterior monitoring of automation from Krasystems and navigation.
Die wesentlichen Funktionsmerkmale werden anhand vonFig. l erläutert. Zunächst wird für die Beleuchtung der zu erfassenden räumlichen Objekte mit kurzen Lichtimpulsen beispielsweise <100 ns gesorgt. Die Beleuchtung kann mit Laserlicht, wie beispielsweise mit einer gepulsten Laserdiode oder mit Lichtquellen, wie beispielsweise einer gepulsten LED-Diode erfolgen. Das Verfahren ist unabhängig vom Winkel der Beleuchtung, die nicht unbedingt zentral zur allgemeinen Detek tionsrichtung erfolgen muß. So ist beispielsweise auch bei koaxialer Beleuchtung und Detektion der Einsatz eines Ringlichtes denkbar. Die inFig. 1 dargestellte Anordnung dient nur zur schematischen Verdeutlichung des Funktionsprinzips.The essential functional features are explained with reference toFIG. 1. First, the lighting of the spatial objects to be detected is provided with short light pulses, for example <100 ns. Illumination can take place with laser light, for example with a pulsed laser diode, or with light sources, for example with a pulsed LED diode. The method is independent of the angle of the lighting, which does not necessarily have to be central to the general direction of detection. For example, the use of a ring light is also conceivable for coaxial lighting and detection. The arrangement shown inFig. 1 only serves to illustrate the functional principle schematically.
Eine erste Bildaufnahme A wird mit einer kurzen Integrationszeit ΔA CMOS-Sensor verbunden. Die von den Objektpunkten G der dreidimensionalen Szene zurückgestreuten Lichtimpulse3 der Länge ΔL (<100 nsec) werden an den zugehörigen Bildpunkten9 des CMOS-Sensors innerhalb einer eingestellten kurzen Integrationszeit ΔA≦ΔL erfaßt. Durch einen elektronischen Triggerimpuls wird dabei ein fester zeitlicher Bezug zwischen ausgesandtem Lichtimpuls2 und dem Öffnen des Integrationszeitfensters am CMOS-Sensor hergestellt. Aufgrund der Laufzeit des Lichtes ergibt sich je nach Objektabstand R eine unterschiedliche zeitliche Verschiebung
A first image acquisition A is connected to a short integration time ΔA CMOS sensor. The back scattered light pulses3 of the length ΔL (<100 nsec) from the object points G of the three-dimensional scene are detected at the associated pixels9 of the CMOS sensor within a set short integration time ΔA ≦ ΔL. An electronic trigger pulse establishes a fixed temporal relationship between the emitted light pulse2 and the opening of the integration time window on the CMOS sensor. Due to the running time of the light, there is a different time shift depending on the object distance R.
τ = 2R/Vc (Vc = Lichtgeschwindigkeit)
τ = 2R / Vc (Vc = speed of light)
zwischen ausgesandtem und am CMOS-Sensor detektierten Lichtimpuls. Die am Bildpunkt innerhalb der Integrationszeit ΔA gemessene Ladung QA wird dadurch vom Abstand R zwischen Sensor und Objektpunkt G abhängig. Siehe hierzuFig. 2.
between the emitted light pulse and the CMOS sensor. The charge QA measured at the pixel within the integration time ΔA thus becomes dependent on the distance R between the sensor and the object point G. SeeFig. 2.
QA∞I0 * OR(ΔL - (2R/VC - tD)) (1)
QA ∞I0 * OR (ΔL - (2R / VC - tD )) (1)
I0 Intensität des ausgesandten Lichtimpulses
OR Oberflächenreflexionskoeffizient am Objektpunkt G
tD Triggerpunktzeitverzögerung zwischen ausgesandtem Lichtimpuls und Start des Integrationsfensters am CMOS-Sensor.I0 intensity of the emitted light pulse
 OR surface reflection coefficient at object point G
 tD Trigger point time delay between emitted light pulse and start of the integration window on the CMOS sensor.
Für Objektpunkte G mit gleichem Oberflächenreflektionskoeffizienten OR wird abhängig von ihrem Abstand R eine unterschiedliche Ladung QA am zugehörigen Bildpunkt des CMOS-Sensors gemessen. Damit werden kleine Laufzeitunterschiede der Lichtimpulse in Ladungsänderungen QA transformiert, so daß eine integrierte Ladung für jeweils einen Objektpunkt G mit seinem jeweiligen Abstand R(1,. . .) stellvertretend ist. Diese können bei einem CMOS-Sensor sehr empfindlich und mit hoher Dynamik detektiert werden. Üblicherweise besitzen die Objekte einer dreidimensionalen Szene eine unterschiedliche Oberflächenreflexion.For object points G with the same surface reflection coefficient OR , depending on their distance R, a different charge QA is measured at the associated pixel of the CMOS sensor. Thus small transit time differences of the light pulses are transformed into changes in charge QA , so that an integrated charge is representative for each object point G with its respective distance R(1,...) . With a CMOS sensor, these can be detected very sensitively and with high dynamics. Usually, the objects of a three-dimensional scene have a different surface reflection.
Es wird daher zur Normierung des Abstandsbildes noch eine zweite Bildaufnahme QB durchgeführt, die nur von der Oberflächereflexion der Objekte der dreidimensionalen Szene abhängig ist.To normalize the distance image, a second image recording QB is therefore carried out, which is only dependent on the surface reflection of the objects of the three-dimensional scene.
Die Durchführung einer zweiten Bildaufnahme B mit langer Integrationszeit ΔB dient zur Normierung der Oberflächenreflexion der dreidimensionalen Szene, wobei im Prinzip das herkömmliche Intensitäts- oder Grauwertbild verwendet wird. Hierzu wird am CMOS-Sensor bei einer zweiten Bildaufnahme eine Integrationszeit ΔB eingestellt, die sehr groß gegenüber der Länge eines Beleuchtungslichtimpulses ist; ΔB»ΔL z. B. 1 Mikrosekunde. Jetzt werden alle zurückgestreuten Lichtimpulse3 unabhängig von ihrer Laufzeit in vollem Umfang am CMOS-Sensor detektiert. Die an einem Bildpunkt gemessene Ladung QB gibt sich zu
Carrying out a second image recording B with a long integration time ΔB serves to standardize the surface reflection of the three-dimensional scene, in principle using the conventional intensity or gray value image. For this purpose, the integration time ΔB , which is very large compared to the length of an illuminating light pulse, is set on the CMOS sensor during a second image recording; ΔB »ΔL z. B. 1 microsecond. Now all backscattered light pulses3 are fully detected on the CMOS sensor regardless of their runtime. The charge QB measured at one pixel is admitted
QB∞ID.OR.ΔL. (2)
QB ∞ID .OR .ΔL. (2)
Das erhaltene Bild ist nur von der Beleuchtungsintensität I0, dem Oberflächenreflektions-Koeffizienten OR des zugehörigen Objektpunktes, sowie der Lichtimpulslänge ΔL abhängig.The image obtained is only dependent on the illumination intensity I0 , the surface reflection coefficient OR of the associated object point, and the light pulse length ΔL.
Die Erzeugung des zweidimensionalen Abstandsbildes QR geschieht durch die Berechnung aus der Differenz und Normierung von Bildaufnahme A und B bzw. QA und QB
The two-dimensional distance image QR is generated by the calculation from the difference and normalization of image acquisition A and B or QA and QB
QR = (QA - QB)/QB (3)QR = (QA - QB ) / QB (3)
Aus Gleichung (1) und (2) folgt mit td = 0 die Gleichung
From equations (1) and (2) follows the equation with td = 0
QR∞ - 2R/(VC * ΔL) (4)QR ∞ - 2R / (VC * ΔL ) (4)
Dieser Wert kann nach Auslesen und Digitalisieren sowie zusätzlicher Skalierung für alle Bildpunkte direkt als Abstandsbild QR ausgegeben werden. Ist die Triggerverzögerungszeit td ungleich 0, so addiert sich zu allen Punkten des Abstandsbildes QR ein konstanter Offset
After reading out and digitizing and for additional scaling, this value can be output directly as a distance image QR for all pixels. If the trigger delay time td is not equal to 0, then a constant offset is added to all points of the distance map QR
RD = tD/(VC * ΔL) (5)
RD = tD / (VC * ΔL ) (5)
RD = Abstandswert bei tD (Ladungsoffset)
Die gleichzeitige Aufnahme von Intensitäts- und dreidimensinalem Bild bezieht sich auf eine Ausführung einer örtlich und zeitlich parallelen Erfassung von Intensitäts-und Abstandswerten. Hierzu wird eine Chiparchitektur und pixelbezogene Integrationszeit derart gewählt, daß direkt benachbarte Pixel A und Pixel B entsprechend derFig. 3 auf dem CMOS-Sensor die zurückgestreuten Lichtimpulse3 der dreidimensionalen Szene gleichzeitig mit kurzer Integrationszeit ΔA≦ΔL (für Pixel A) aufnehmen und mit langer Integrationszeit ΔB « ΔL (für Pixel B) erfassen. Durch eine auf dem Chip integrierte elektronische Schaltung kann dann direkt das zweidimensionale Abstandsbild
RD = distance value at tD (charge offset)
 The simultaneous recording of the intensity and three-dimensional image relates to the execution of a spatially and temporally parallel recording of intensity and distance values. For this purpose, a chip architecture and pixel-related integration time is chosen such that directly adjacent pixels A and pixel B according toFIG. 3 on the CMOS sensor the backscattered light pulses3 of the three-dimensional scene simultaneously with a short integration time ΔA ≦ ΔL (for pixel A ) and record with a long integration time ΔB «ΔL (for pixel B). An integrated electronic circuit on the chip can then directly the two-dimensional distance image
QR = (QA - QB)/QB (6)
QR = (QA - QB ) / QB (6)
der zugeordneten Pixel A und B berechnet und ausgegeben werden.of the assigned pixels A and B are calculated and outputthe.
Fig. 3 zeigt dazu schematisch zwei mögliche Anordnungen auf dem CMOS-Sensor für die parallele Erfassung von Intensitäts und dreidimensionalem Abstandsbild. Weitere Varianten hierzu sind möglich. Die gleichzeitige Erfassung von Intensitäts- und dreidimensionalem Abstandsbild ist besonders für die Analyse bewegter dreidimensionaler Szenen von Bedeutung, bei spielsweise die Erfassung von Personengestik oder die Objektverfolgung. Weitere besondere Kennzeichen der Erfindung sind:
Fig. 3 illustrates this schematically two possible arrangements on the CMOS sensor for the parallel detection of intensity and a three-dimensional distance image. Other variants are possible. The simultaneous acquisition of intensity and three-dimensional distance images is particularly important for the analysis of moving three-dimensional scenes, for example the acquisition of gestures or the tracking of objects. Further special characteristics of the invention are:
Die wesentlichen Verwendungen des beschriebenen Verfahrens und der beschriebenen Vorrichtung betreffen die Überwachung von Innenräumen, insbesondere in Fahrzeugen in Verbindung mit volumetrischen Auswerteverfahren. Die Aufgabe der optischen Innenraummüberwachung bei Fahrzeugen ist die Erkennung der Sitzbelegung, wie beispielsweise Personen, Kindersitz, sonstige Objekte, die Erfassung der Sitzposition von Personen sowie der Diebstahlschutz, d. h. das unzulässige Eindringen in das Fahrzeuginnere von außen. Die Erkennung von Personen und ihrer Sitzposition ist für die stufenweise Auslösung eines Airbaigs (smart Airbaig) von hoher sicherheitsrelevanter Bedeutung und muß im Kollisionsfall sehr zuverlässig und in kurzen Meßzeiten erfolgen. Die Erfindung erfüllt diese Anforderungen durch eine schnelle und zuverlässige Erzeugung eines dreidimensionalen Abstandsbildes QR im Fahrzeuginneren, wobei volumentrische Auswerteverfahren eingesetzt werden. Dabei werden aus den Abstandswerten R in einem Raumwinkelelement Ω die von Objekten1 besetzten Nettovolumenanteile im Fahrzeuginnenraum als Differenz zu den Abstandswerten bei unbesetztem Fahrzeuginneren bestimmmt (siehe hierzuFig. 4).The essential uses of the described method and the described device relate to the monitoring of interior spaces, in particular in vehicles in connection with volumetric evaluation methods. The task of optical interior surveillance in vehicles is the detection of seat occupancy, such as people, child seats, other objects, the detection of the seating position of people and theft protection, ie the inadmissible intrusion into the vehicle interior from the outside. The detection of people and their seating position is of high safety-relevant importance for the gradual release of an Airbaig (smart Airbaig) and must be carried out very reliably and in short measuring times in the event of a collision. The invention fulfills these requirements by quickly and reliably generating a three-dimensional distance image QR in the vehicle interior, using volumetric evaluation methods. In this case, from the distance values R in a solid angle element Ω, the net volume portions occupied by objects1 in the vehicle interior are determined as the difference to the distance values when the vehicle interior is not occupied (seeFIG. 4).
Das Verfahren und die Vorrichtung liefern weitere wesentliche Vorteile, wie:
The method and the device provide further significant advantages, such as:
Diese integrale Volumenbetrachtung ermöglicht eine globale Erfassung von Objekten und Positionen im Raum und ist nicht auf die Bestimmung von Merkmalen, wie beispielsweise Konturen, Ecken, Kanten im Bild zur Objekterkennung angewiesen. Die Auswertezeiten können für die dreidimensionale Bildaufnahme und volumetrische Auswertung unter 10 ms liegen.This integral volume analysis enables a global oneDetection of objects and positions in space and is noton the determination of features such as contoursedges, corners, edges in the image are directed to object detection.The evaluation times can be for the three-dimensional imageacquisition and volumetric evaluation are less than 10 ms.
Als Anwendungsgebiet des beschriebenen Verfahrens und der Vorrichtung kommt insbesondere ein Fahrzeuginnenraum infrage. Dabei wird für die dreidimensionale Bildaufnahme mit LED-Lichtimpulsen von beispielsweise 50 ns (Nanosekunden) ein Objekt belichtet. Die Integrationszeiten am CMOS-Sensor werden für die Bildaufnahme QA zu 50 ns und für die Bildaufnahme QB zu 0,5 µs, gewählt. Die zu erfassende Szenendynamik im Fahrzeuginneren soll 200 : 1 betragen. Die Abstandswerte R sollen mit einer Meßunsicherheit <15 cm (entsprechender Laufzeitunterschied eines Lichtimpulses = 1 ns) in einem Meßbereich bis 1,5 m (Laufzeit 10 ns) erfaßt werden.A vehicle interior is particularly suitable as an area of application for the method and device described. An object is exposed for three-dimensional image acquisition with LED light pulses of, for example, 50 ns (nanoseconds). The integration times on the CMOS sensor are chosen for the image acquisition QA to 50 ns and for the image acquisition QB to 0.5 µs. The scene dynamics to be recorded inside the vehicle should be 200: 1. The distance values R should be recorded with a measurement uncertainty <15 cm (corresponding transit time difference of a light pulse = 1 ns) in a measuring range up to 1.5 m (transit time 10 ns).
Mit diesen Anforderungen wird am CMOS Sensor eine Intensitätsdynamik von (10×200 =) 2000 : 1 erforderlich. Die digitale Erfassung des dreidimensionalen Abstandsbildes QR wird damit durch einen 12 Bit A/D Wandler gewährleistet. Für eine Sensorortsauflösung von 50×50 Bildpunkten werden für die Bildaufnahmen A mit kurzer Integrationszeit und B mit langer Integrationszeit maximal 104 Ausleseoperationen notwendig, die bei Auslesefrequenzen, von beispielsweise 2 MHz zu einer gesamten Bildaufnahmezeit für das dreidimensionale Abstandsbild von maximal 5 ms führen. Die Berechnung der Differenzvolumina aus den 2500 Abstandswerten ist mit einem schnellen Prozessor, wie beispielsweise einem Pentium mit 200 Mhz in weiteren 5 ms ohne Schwierigkeit ausführbar.With these requirements, an intensity dynamic of (10 × 200 =) 2000: 1 is required on the CMOS sensor. The digital acquisition of the three-dimensional distance image QR is thus ensured by a 12 bit A / D converter. For a sensor location resolution of 50 × 50 pixels, a maximum of 104 readout operations are required for the image recordings A with a short integration time and B with a long integration time, which lead to a total image acquisition time for the three-dimensional distance image of a maximum of 5 ms at readout frequencies of, for example, 2 MHz. The calculation of the difference volume from the 2500 distance values can be carried out with a fast processor, such as a Pentium with 200 MHz, in a further 5 ms without difficulty.
InFig. 4 wird ein Schema für eine Anwendung der Erfindung in Fahrzeuginnenräumen dargestellt. Die Pfeile mit gepunkteten Linien sind stellvertretend für einen nichtbelegten Sitz und die mit durchgezogenen Linien für einen mit einer Person belegten Sitz. Für die globale Objekterkennung und Positionsbestimmung wird der umhüllende Nettovolumenanteil aus den dreidimensionalen Abstandsdaten bei besetztem und bei unbesetztem Fahrzeug bestimmt. Das Nettovolumen Vp einer Person oder eines sonstigen Objektes auf einem Autositz berechnet sich nach Gleichung (7).InFIG. 4 is a diagram of an application of the invention is illustrated in vehicle interiors. The arrows with dotted lines represent a vacant seat and those with solid lines represent a seat occupied by a person. For global object recognition and position determination, the enveloping net volume fraction is determined from the three-dimensional distance data for occupied and unoccupied vehicles. The net volume Vp of a person or other object on a car seat is calculated according to equation (7).
Das bisher beschriebene Verfahren zur Aufnahme eines Abstandsbildes beruht auf einem Differenzverfahren, wobei die Laufzeit T0=Up/Uges*ΔA beträgt, wobei:
T0 = Lichtlaufzeit, ΔA = Integrationszeit,
Uges = Meßsignal bei ΔB minus Dunkelstromanteil bei ΔB,
Up = Uges minus (Meßsignalanteil bei ΔA minus Dunkelstromanteil bei ΔA).The previously described method for recording a distance image is based on a difference method, the running time being T0 = Up / Utot * ΔA , where:
 T0 = light transit time, ΔA = integration time,
 Utot = measuring signal for ΔB minus dark current share of ΔB,
 Up = Uges minus (Meßsignalanteil at ΔA minus Dunkelstroman part at ΔA).
Die weitere hauptsächliche Lösung der Erfindung, die inFig. 8 dargestellt wird, wertet die aufgenommenen Meßsignale am Sensor mittels eines Interpolationsverfahrens aus. Dabei ergibt sich die Laufzeit des Lichtes von der Lichtquelle über das Objekt bis zum Sensor durch den Schnittpunkt der Kurve des Meßsignales inFig. 8, geschnitten mit der Kurve des Dunkelstromanteiles. Für die Lichtlaufzeit gilt
The further main solution of the invention, which is shown inFIG. 8, evaluates the recorded measurement signals at the sensor by means of an interpolation method. The time of flight of the light from the light source via the object to the sensor results from the intersection of the curve of the measurement signal inFIG. 8, intersected with the curve of the dark current component. The following applies to the light transit time
T0 = 2R / Vc,
T0 = 2R / Vc ,
woraus sich der Abstandswert R ergibt.from which the distance value R results.
Die bei zahlreichen industriellen Anwendungen der Bildverarbeitung notwendige dreidimensionale Bilddatenerfassung ist insbesondere für die automatische Überwachung von Räumen, beispielsweise Autoinnenraum, notwendig. An die Genauigkeit des Entfernungsbildes/Abstandsbildes werden nicht allzu hohe Anforderungen gestellt. Entfernungsbilder mit etwa 1000 Bildlpunkten wären für eine Raumüberwachung in den meisten Fällen schon ausreichend. Übliche Triangulationsverfahren scheiden dabei aus Kostengründen, sowie wegen der großen notwendigen Meßbasis, aus.The image processing in numerous industrial applicationsprocessing is necessary three-dimensional image data acquisitionespecially for the automatic monitoring of rooms,for example, car interior. Accuracythe distance image / distance image are not too highRequirements. Distance images with about 1000 Pixels would be for most room surveillanceCases sufficient. Usual triangulation proceduresdivorce for cost reasons, as well as because of the great needmanoeuvrable measuring base.
Sowohl die Beleuchtungsart entsprechendFig. 7, als auch die Beleuchtungsart entsprechendFig. 8 lassen eine schnelle und kostengünstige Aufnahme eines dreidimensionalen Abstandsbildes verwirklichen. Das Verfahren, bei dem über die Interpolation die Laufzeit des Lichtes, die zur Auswertung notwendig ist, für jeden Bildelementpunkt des Sensors4 erzielt wird, ist beispielhaft inFig. 8 dargestellt. Hierin wird anstatt eines Lichtimpulses mit definierter Länge nur ein Lichtintensitätsanstieg mit steiler Flanke ausgewertet. Der am Sensor empfangene vom Objekt reflektierte Laserpuls wird durch zwei unterschiedliche Integrationszeiten abgeschnitten. Dadurch wird zum einen das Meßsignal unabhängig vom Verlauf der abfallenden Flanke des Lichtimpulses und zum anderen kann der Einfluß des Dunkelstromes, der beispielsweise durch die Betriebswärme eines Sensors entsteht, und des Umgebungslichtes exakt für jeden Bildpunkt kompensiert werden.Both the type of illumination according toFIG. 7 and the type of illumination according toFIG. 8 enable a three-dimensional distance image to be recorded quickly and inexpensively. The method in which the transit time of the light, which is necessary for the evaluation, is achieved for each pixel point of the sensor4 via the interpolation is shown as an example inFIG. 8. Instead of a light pulse with a defined length, only a light intensity increase with a steep flank is evaluated here. The laser pulse received at the sensor and reflected by the object is cut off by two different integration times. As a result, the measurement signal is independent of the course of the falling edge of the light pulse and, on the other hand, the influence of the dark current, which arises, for example, from the operating heat of a sensor, and the ambient light can be compensated exactly for each pixel.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS-Bildsensor. In dem Zeit t/Sensorspannung U-Diagramm ist zum einen die sendeseitig beleuchtende Laserdiode bzw. deren rechteckförmig ausgebildeter Lichtimpuls dargestellt. Darunter sind die empfangsseitig aufgenommenen Meßsignale dargestellt. Die durchgezogene Linie, die vom Ursprung des Koordinatensystems zu der Spannung Ud führt, ist die erste durchgeführte Messung und beinhaltet einen Dunkelstromanteil plus einen Fremdlichtanteil. Ud wird zur Integrationszeit T2, die größer als eine andere Integrationszeit T1 ist, aufgenommen.Fig. 5 shows the distance measurement with integrating CMOS image sensor. The time t / sensor voltage U diagram shows, on the one hand, the laser diode illuminating on the transmission side or its rectangular light pulse. Below, the measurement signals received at the receiving end are shown. The solid line leading from the origin of the coordinate system to the voltage Ud is the first measurement carried out and contains a dark current component plus an extraneous light component. Ud is recorded at the integration time T2 , which is greater than another integration time T1 .
Im Anschluß daran wird das Objekt1 mit der Laserdiode beleuchtet, woraufhin zunächst in den einzelnen Bildpunkten nur die Dunkelströme verbunden mit dem Fremdlichtanteil integriert werden. Wenn aufgrund der Lichtlaufzeit T0 zusätzliches Licht vom Objektpunkt G zurückgestreut wird, so steigt  das Meßsignal vom Zeitpunkt T0 entsprechend der Helligkeit des jeweiligen Bildpunktes stärker an. Nach einer bestimmten Integrationszeit T1 wird dann die Spannung U1 für alle Bildpunkte ausgelesen und abgespeichert. Der gleiche Vorgang wiederholt sich nun mit der bereits aus der ersten Dunkelstrommessung bekannten Integrationszeit T2. T1 beträgt beispielsweise 30 ns und T2 beträgt beispielsweise 60 ns. An den Stellen, an denen das Meßsignal die Zeiten T1 bzw. T2 schneidet, was gleichbedeutend ist mit einem Abschneiden des empfangenen Lichtimpulses, ergibt sich der Punkt U1 bzw. der Punkt U2. Es gilt die Beziehung ΔU=U2-U1. Die Lichtlaufzeit T0 errechnet sich nach der Formel die inFig. 5 dargestellt ist. Verlängert man eine Gerade durch die Punkte U2 und U1, so schneidet diese Gerade nach unten hin die Dunkelstrom darstellende Gerade zwischen dem Ursprung des Koordinatensystems und der Spannung UD. Am Schnittpunkt kann die Lichtlaufzeit T0 abgelesen werden. Sämtliche Werte für U1 und U2 bzw. ΔU werden ebenfalls für alle Bildpunkte ausgelesen und gespeichert. Aus den für jeden Bildpunkt abgespeicherten Spannungen UD, U1, U2 und ΔU in Verbindung mit den vorgegebenen Integrationszeiten T1 und T2 läßt sich eindeutig und exakt für jeden Bildpunkt die Laufzeit T0 berechnen, auch wenn relativ hohe Dunkelstromanteile UD vorliegen. Dabei gilt:
Subsequently, object1 is illuminated with the laser diode, whereupon initially only the dark currents are integrated with the extraneous light component in the individual pixels. If, due to the light propagation time T0, additional light is scattered back from the object point G, the measurement signal rises more sharply from the time T0 in accordance with the brightness of the respective pixel. After a certain integration time T1, the voltage U1 is then for all pixels are read and stored. The same process as is now repeated with the integration time T2 already known from the first dark current measurement. T1 is, for example, 30 ns and T2 is, for example, 60 ns. At the points at which the measurement signal intersects the times T1 and T2 , which is equivalent to cutting off the received light pulse, the point U1 or the point U2 results. The relationship ΔU = U2 -U1 applies. The light propagation time T0 is calculated using the formula shown inFIG. 5. If one extends a straight line through the points U2 and U1 , this straight line intersects downward the straight line representing the dark current between the origin of the coordinate system and the voltage UD. The light propagation time T0 can be read at the intersection. All values for U1 and U2 or ΔU are also read out and stored for all pixels. From the stored voltages UD , U1 , U2 and ΔU for each pixel in conjunction with the predetermined integration times T1 and T2 , the transit time T0 can be calculated clearly and exactly for each pixel, even if relatively high dark current components UD available. The following applies:
T0 = U1.ΔT - ΔU.T1/(UD.ΔT/T2 - ΔU).T0 = U1 .ΔT - ΔU.T1 / (UD .ΔT / T2 - ΔU).
Dies eröffnet die Verwendung von geringeren Lichtleistungen bei gleichzeitig genauer Messung der Laufzeit und damit der Entfernung zum Objekt.This opens up the use of lower light outputswith precise measurement of the transit time and thus theDistance to the object.
Eine vorteilhafte Ausgestaltung sieht vor, daß zur Verringerung der aus Kostengründen meist kritischen Laserleistung eine mehrfache Wiederholung des oben beschriebenen Vorgangs in hintereinander geschieht, wobei sich die ergebenden Werte für U1, UD, und ΔU erst am Ende der Mehrfachbelichtung von CMOS-Sensoren auslesen lassen und digitalisiert werden. Siehe hierzu dieFig. 6a und 6b. Eine analoge Mittelwertbildung für die Mehrfachbelichtung auf dem CMOS-Sensor vermeidet auch die relativ langen Auslesezeiten bei einer späteren digitalen Mittelung. Eine adaptive Einstellung auf die jeweilige Reflektivität des Objektes im Hinblick auf die Optimierung des Signal-/Rauschverhältnisses der Meßwerte wird, dadurch erzielt, daß in wenigen Testbildern die Zahl der Belichtungen solange gesteigert wird, bis sich in einer gewissen Menge von Bildpunkten des Gesamtbildes eine Sättigung der Werte n(U1+ΔU) einstellt; mit n = Anzahl der Mehrfachbelichtungen.An advantageous embodiment provides that in order to reduce the laser power, which is usually critical for reasons of cost, a repeated repetition of the above-described process occurs in succession, the resulting values for U1 , UD , and ΔU only appearing at the end of the multiple exposure of CMOS Have sensors read out and digitized. SeeFIGS. 6a and 6b. An analog averaging for multiple exposure on the CMOS sensor also avoids the relatively long readout times in a later digital averaging. An adaptive adjustment to the respective reflectivity of the object with regard to the optimization of the signal / noise ratio of the measured values is achieved in that the number of exposures is increased in a few test images until points in a certain amount of the image Overall image sets a saturation of the values n (U1 + ΔU); with n = number of multiple exposures.
Durch die beschriebenen Schritte wird ermöglicht, daß eine exakte Berechnung von der Lichtlaufzeit T0 bei vorliegendem Dunkelstrom und Umgebungslicht möglich ist, daß das Auslesen des Signales vom CMOS-Sensor erst nach der Mehrfachbelichtung geschieht, woraufhin sich die Digitalisierung anschließt und daß eine adaptive Einstellung der Mehrfachbelichtung entsprechend der Objektreflektivität vorgenommen werden kann. Durch diese Maßnahmen kann eine bisher notwendige Laserleistung um den Faktor 10 bis 20 gesenkt werden bzw. die Genauigkeit er höht werden.The steps described enable an exact calculation of the light propagation time T0 in the presence of dark current and ambient light, that the reading of the signal from the CMOS sensor only takes place after the multiple exposure, whereupon the digitization follows and that an adaptive setting of the Multiple exposure can be made according to the object reflectivity. Through these measures, a previously required laser power can be reduced by a factor of 10 to 20 or the accuracy can be increased.
Das in dem Bildsensor verwendete Sensorprinzip ist ein integrierendes Verfahren, beispielsweise auf der Basis einer n⁺-p -Photodiode. Diese Photodiode ist Bestandteil eines elektronischen Kurzzeitintegrators, der weiterhin einen Kondensator und mehrere Transistoren aufweist. Die Verschaltung geschieht derart, daß sich beispielsweise die Kapazität des Kondensators in Abhängigkeit von dem auf die Photodiode ein fallenden Licht entlädt. Dies wird über einen sog. Shutter-Transistor gesteuert. Im Anschluß daran wird beispielsweise das in dem Kondensator verbleibende Potential ausgelesen. Um eine synchronisierte Beleuchtung zu gewährleisten wird die Zeitsteuerung des elektronischen Kurzzeitintegrators ein sog. Strobe-Signal zur Ansteuerung einer Lichtquelle erzeugen. Für jedes Bildpunktelement des Sensors4 wird ein derartiger elektronischer Kurzzeitintegrator (elektronischer Shutter) verwendet. Anstelle der am Ende einer Messung im Kondensator verbleibenden Potential kann auch das bereits abgeführte Potential als Meßwert herangezogen werden.The sensor principle used in the image sensor is an integrating process, for example based on an n⁺-p photodiode. This photodiode is part of an electronic short-term integrator, which also has a capacitor and several transistors. The circuitry is such that, for example, the capacitance of the capacitor discharges depending on the light falling on the photodiode. This is controlled by a so-called shutter transistor. The potential remaining in the capacitor is then read out, for example. In order to ensure synchronized lighting, the time control of the short-term electronic integrator will generate a so-called strobe signal for controlling a light source. Such an electronic short-time integrator (electronic shutter) is used for each pixel element of the sensor4 . Instead of the potential remaining in the capacitor at the end of a measurement, the potential already discharged can also be used as a measured value.
InFig. 6a sind mehrere hintereinander geschaltete sendeseitige Laserimpulse dargestellt. InFig. 6b wird beispielhaft die Integrationszeit T1 in Verbindung mit der jeweiligen Spannung U1 und dem Dunkelstromanteil UD dargestellt. Gleiches kann für T2, U2 und UD aufgetragen werden. Es ergibt sich für jede Belichtung bzw. Mehrfachbelichtung ein Wert für die Lichtlaufzeit T0.InFig. 6a a plurality of series-connected send-side laser pulses are shown. InFig. 6b, the integration time T1 in connection with the respective voltage U1, and the dark current component UD is exemplified. The same can be applied for T2 , U2 and UD. A value for the light propagation time T0 results for each exposure or multiple exposure.
In der Gegenüberstellung derFig. 7 und 8 ist zu erkennen, daß das Interpolationsverfahren entsprechendFig. 8 kürzere Beleuchtungszeiten aufweist. Die jeweils in der Mitte dargestellten Shutter-Zeiten von beispielsweise 30 ns und 60 ns inFig. 8 und 60 ns in Verbindung mit einer sehr langen Laserimpulszeit inFig. 7 sollen die Integrationszeiten am Sensor festlegen. In derFig. 7 ist im oberen Teil das zeitliche Verhältnis zwischen der sendeseitigen Beleuchtung und dem empfangsseitigen Eintreffen des Laserimpulses dargestellt. Die in denFig. 5 bis 8 jeweils dargestellten Ausführungsbeispiele weisen keine Triggerverzögerungszeit auf. Dies bedeutet, daß empfangsseitig mit dem Beginn des Sensorimpulses das Meßfenster geöffnet wird. Dies bedeutet für die Darstellung inFig. 7, daß der Kurzzeit-Shutter (60 ns) den empfangenen Laserpuls, jeweils bezogen auf einen Objekt- bzw. Bildelementpunkt, bei der Zeit ΔA abschneidet. Die Zeitdauer des Lichtimpulses ist sende- wie empfangsseitig ΔL. Es wird deutlich, das auf Grund von verschiedenen Lichtlaufzeiten der elektronische Kurzzeitintegrator am Sensor jeweils ein Potential als Meßwert liefern wird, daß in Abhängigkeit von der Laufzeit ab dem Zeitpunkt T0 bis zum Ende von und ΔA aufintegriert wird. Die Integrationszeit ΔB wird im Falle derFig. 7 zum Ausgleich von Reflektivitätsunterschieden am Objekt1 verwendet. Dabei wird ein Dunkelstrom und Fremdlichtanteil ermittelt, der entsprechend vom Meßsignal abgezogen werden kann.In the comparison ofFIGS. 7 and 8 it can be seen that the interpolation method according toFIG. 8 has shorter illumination times. The shutter times shown in the middle of, for example, 30 ns and 60 ns inFIGS. 8 and 60 ns in conjunction with a very long laser pulse time inFIG. 7 are intended to determine the integration times on the sensor. InFig. 7 in the upper part, the temporal relationship between the transmission-side lighting and the reception-side arrival of the laser pulse is Darge. The exemplary embodiments shown in FIGS. 5 to 8 each have no trigger delay time. This means that the measurement window is opened on the receiving side with the start of the sensor pulse. For the representation inFIG. 7, this means that the short-term shutter (60 ns) cuts off the received laser pulse, in each case based on an object or picture element point, at the time ΔA. The duration of the light pulse is ΔL on the transmission and reception side. It is clear that due to different light propagation times the electronic short-term integrator on the sensor will each deliver a potential as a measured value that is dependent on the travel time from time T0 to the end of and ΔA is integrated. In the case ofFIG. 7, the integration time ΔB is used to compensate for differences in reflectivity on object1 . A dark current and extraneous light component is determined, which can be deducted from the measurement signal.
DieFig. 8 zeigt eine derFig. 7 entsprechende Darstellung, wobei der obere Teil identisch dem derFig. 7 ist. In der Mitte derFig. 8 werden zwei Kurzzeit-Shutterzeiten dargestellt. Diese werden in ähnlicher Weise wie inFig. 7 zum Abschneiden der am Sensor4 eintreffenden Laserimpulse verwendet. Somit ergeben sich eine kürzere Integrationszeit T und eine längere Integrationszeit T2. Das Meßsignal weist in denFig. 7 und 8 einen Dunkelstrom und Fremdlichtanteil auf. Das Meßsignal ergibt sich somit aus der Addition des Photostromanteils zu dem Dunkelstrom und Fremdlichtanteil. Anders ausgedrückt kann der Photostromanteil ermittelt werden, indem vom Meßsignal der Dunkelstrom und Fremdlichtanteil angezogen wird. Die Lichtlaufzeit T0 ergibt sich an der Stelle auf der Zeitachse an der das Meßsignal bei einem eingehenden reflektierten Lichtimpuls von dem normalen Verlauf des Dunkelstrom- und Fremdlichtanteils abweist, weil der Photostromanteil nicht mehr Null ist. Die Auswertung, die die Lichtlaufzeit T0 ergibt, ist in Zusammenhang mitFig. 5 beschrieben worden.FIG. 8 shows a representation corresponding toFIG. 7, the upper part being identical to that ofFIG. 7. In the middle ofFIG. 8, two short-term shutter times are shown. These are used in a manner similar toFIG. 7 for cutting off the laser pulses arriving at the sensor4 . This results in a shorter integration time T and a longer integration time T2 . The measurement signal has inFigs. 7 and 8, a dark current and ambient light component. The measurement signal thus results from the addition of the photocurrent component to the dark current and extraneous light component. In other words, the photocurrent component can be determined by attracting the dark current and extraneous light component from the measurement signal. The light propagation time T0 results at the position on the time axis at which the measurement signal rejects the reflected light pulse from the normal course of the dark current and extraneous light component because the photo current component is no longer zero. The evaluation, which gives the light propagation time T0 , has been described in connection withFIG. 5.
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE19833207ADE19833207A1 (en) | 1998-07-23 | 1998-07-23 | Three-dimensional distance-measuring image generation of spatial object | 
| JP2000526831AJP3860412B2 (en) | 1997-12-23 | 1998-11-14 | Method and apparatus for taking a three-dimensional distance image | 
| US09/581,091US6373557B1 (en) | 1997-12-23 | 1998-11-14 | Method and apparatus for picking up a three-dimensional range image | 
| DE59809883TDE59809883D1 (en) | 1997-12-23 | 1998-11-14 | METHOD AND DEVICE FOR RECORDING A THREE-DIMENSIONAL DISTANCE IMAGE | 
| KR10-2000-7007058AKR100508277B1 (en) | 1997-12-23 | 1998-11-14 | Method and device for recording three-dimensional distance-measuring images | 
| EP98962257AEP1040366B1 (en) | 1997-12-23 | 1998-11-14 | Method and device for recording three-dimensional distance-measuring images | 
| PCT/DE1998/003344WO1999034235A1 (en) | 1997-12-23 | 1998-11-14 | Method and device for recording three-dimensional distance-measuring images | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE19833207ADE19833207A1 (en) | 1998-07-23 | 1998-07-23 | Three-dimensional distance-measuring image generation of spatial object | 
| Publication Number | Publication Date | 
|---|---|
| DE19833207A1true DE19833207A1 (en) | 2000-02-17 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| DE19833207AWithdrawnDE19833207A1 (en) | 1997-12-23 | 1998-07-23 | Three-dimensional distance-measuring image generation of spatial object | 
| Country | Link | 
|---|---|
| DE (1) | DE19833207A1 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| WO2000050268A1 (en)* | 1999-02-24 | 2000-08-31 | Siemens Automotive Corporation | Vehicle occupant sensing system | 
| DE10124160A1 (en)* | 2001-05-17 | 2002-12-05 | Sick Ag | Distance-resolved image generator for visualization and ranging of object, by determining normalization value from measured value from adjacent receiving element | 
| DE20213915U1 (en) | 2002-08-07 | 2003-02-06 | Sauermann, Hans, 85119 Ernsgaden | Safety device for fork lift truck evaluates time sequence of signals provided by seat contact switch and sensor in seatbelt lock before vehicle can be operated | 
| WO2003016944A3 (en)* | 2001-08-06 | 2003-10-09 | Siemens Ag | Method and device for recording a three-dimensional distance-measuring image | 
| WO2004021546A3 (en)* | 2002-08-09 | 2004-06-03 | Conti Temic Microelectronic | Means of transport with a three-dimensional distance camera and method for the operation thereof | 
| EP1221582A3 (en)* | 2001-01-05 | 2004-12-29 | Leuze electronic GmbH + Co. | Optoelectronic device | 
| DE10254778B3 (en)* | 2002-11-22 | 2005-02-03 | Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Surface topography determination method has surface topography reconstructed from combined values obtained from measured distances to surface provided by relatively spaced sensors | 
| DE10360174A1 (en)* | 2003-12-20 | 2005-07-21 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment | 
| DE102004035886A1 (en)* | 2004-07-23 | 2006-02-16 | Daimlerchrysler Ag | Gurtbringersystem in a vehicle | 
| DE10063697B4 (en)* | 2000-12-20 | 2006-07-13 | Siemens Ag | Method and device for detecting the position of an element in a vehicle, in particular for occupant protection systems | 
| DE10360789B4 (en)* | 2003-12-23 | 2007-03-15 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment | 
| WO2007036553A1 (en)* | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Device and method for recording distance images | 
| WO2007036557A1 (en)* | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Device and method for recording distance images | 
| DE102007011417A1 (en) | 2007-03-08 | 2008-09-11 | Siemens Ag | Apparatus and method for determining distance | 
| DE102008018718A1 (en) | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical distance meter and method for optical distance measurement | 
| EP2290393A2 (en) | 2009-08-14 | 2011-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for optical distance measurement | 
| EP2191298B1 (en)* | 2007-09-28 | 2013-11-27 | Odos imaging Ltd | Method for determining a distance by means of an optoelectronic image sensor | 
| WO2015071358A1 (en)* | 2013-11-14 | 2015-05-21 | Odos Imaging Ltd. | Method for illuminating an object | 
| WO2015092794A1 (en) | 2013-12-17 | 2015-06-25 | Brightway Vision Ltd. | System for controlling pixel array sensor with independently controlled sub pixels | 
| DE102014007466B3 (en)* | 2014-05-19 | 2015-08-06 | Elmos Semiconductor Aktiengesellschaft | Apparatus and method for improving the Cpk value in the manufacture of CMOS photodetectors for fast time of flight measurement | 
| DE102015002282A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement | 
| DE102016108496A1 (en) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optical transit time measurement according to a one- or two-stage delta-sigma method and associated device | 
| WO2017148772A1 (en) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver | 
| DE102017207317A1 (en)* | 2017-05-02 | 2018-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device for determining a distance to an object and corresponding method | 
| US10401483B2 (en) | 2014-12-02 | 2019-09-03 | Odos Imaging Ltd. | Distance measuring device and method for determining a distance | 
| JPWO2018181250A1 (en)* | 2017-03-30 | 2020-02-06 | パナソニックIpマネジメント株式会社 | Range image generation device and range image generation method | 
| US10557703B2 (en) | 2014-11-21 | 2020-02-11 | Rockwell Automation Limited | Distance measuring device and method for determining a distance | 
| EP2114630B2 (en)† | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensor device and system having a conveyor and a sensor device | 
| DE102021100913A1 (en) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Pixels for an imaging time-of-flight measurement system with an improved manufacturing yield | 
| EP4102252A1 (en)* | 2021-06-11 | 2022-12-14 | K. A. Schmersal Holding GmbH & Co. KG | Secure monitoring of a protected area using a tof camera | 
| WO2024170333A1 (en)* | 2023-02-13 | 2024-08-22 | Valeo Detection Systems GmbH | Method for operating a lidar system and lidar system for a vehicle | 
| CN119335557A (en)* | 2024-12-19 | 2025-01-21 | 中国人民解放军军事航天部队航天工程大学 | A distance error compensation method for laser range-gated three-dimensional imaging | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| EP0151257A2 (en)* | 1984-02-08 | 1985-08-14 | Dornier Gmbh | Method for producing range coded images | 
| DE3732347C1 (en)* | 1987-09-25 | 1989-03-16 | Messerschmitt Boelkow Blohm | Distance image sensor | 
| DE3839513A1 (en)* | 1988-11-23 | 1990-05-31 | Messerschmitt Boelkow Blohm | IMAGE SENSOR | 
| DE19619186C1 (en)* | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Spatial image recording method | 
| DE19757595A1 (en)* | 1997-12-23 | 1999-07-01 | Siemens Ag | Three=dimensional image recording method e.g. for monitoring movements and persons in given space | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| EP0151257A2 (en)* | 1984-02-08 | 1985-08-14 | Dornier Gmbh | Method for producing range coded images | 
| DE3732347C1 (en)* | 1987-09-25 | 1989-03-16 | Messerschmitt Boelkow Blohm | Distance image sensor | 
| DE3839513A1 (en)* | 1988-11-23 | 1990-05-31 | Messerschmitt Boelkow Blohm | IMAGE SENSOR | 
| DE19619186C1 (en)* | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Spatial image recording method | 
| DE19757595A1 (en)* | 1997-12-23 | 1999-07-01 | Siemens Ag | Three=dimensional image recording method e.g. for monitoring movements and persons in given space | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US6441363B1 (en) | 1999-02-24 | 2002-08-27 | Siemens Vdo Automotive Corporation | Vehicle occupant sensing system | 
| WO2000050268A1 (en)* | 1999-02-24 | 2000-08-31 | Siemens Automotive Corporation | Vehicle occupant sensing system | 
| US7376248B2 (en) | 2000-12-20 | 2008-05-20 | Siemens Aktiengesellschaft | Method and device for detecting an object in a vehicle in particular for occupant protection systems | 
| DE10063697B4 (en)* | 2000-12-20 | 2006-07-13 | Siemens Ag | Method and device for detecting the position of an element in a vehicle, in particular for occupant protection systems | 
| EP1221582A3 (en)* | 2001-01-05 | 2004-12-29 | Leuze electronic GmbH + Co. | Optoelectronic device | 
| DE10124160B4 (en)* | 2001-05-17 | 2006-04-06 | Sick Ag | Method for generating a distance-resolving image and optoelectronic sensor | 
| DE10124160A1 (en)* | 2001-05-17 | 2002-12-05 | Sick Ag | Distance-resolved image generator for visualization and ranging of object, by determining normalization value from measured value from adjacent receiving element | 
| WO2003016944A3 (en)* | 2001-08-06 | 2003-10-09 | Siemens Ag | Method and device for recording a three-dimensional distance-measuring image | 
| DE20213915U1 (en) | 2002-08-07 | 2003-02-06 | Sauermann, Hans, 85119 Ernsgaden | Safety device for fork lift truck evaluates time sequence of signals provided by seat contact switch and sensor in seatbelt lock before vehicle can be operated | 
| WO2004021546A3 (en)* | 2002-08-09 | 2004-06-03 | Conti Temic Microelectronic | Means of transport with a three-dimensional distance camera and method for the operation thereof | 
| DE10254778B3 (en)* | 2002-11-22 | 2005-02-03 | Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Surface topography determination method has surface topography reconstructed from combined values obtained from measured distances to surface provided by relatively spaced sensors | 
| US8698893B2 (en) | 2003-12-20 | 2014-04-15 | Leuze Lumiflex Gmbh & Co. Kg | Device for monitoring an area of coverage on a work tool | 
| DE10360174A1 (en)* | 2003-12-20 | 2005-07-21 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment | 
| DE10360174B4 (en)* | 2003-12-20 | 2007-03-08 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment | 
| US7412861B2 (en) | 2003-12-23 | 2008-08-19 | Leuze Lumiflex Gmbh & Co., Ltd. | Device for monitoring an area of coverage on a work tool | 
| DE10360789B4 (en)* | 2003-12-23 | 2007-03-15 | Leuze Lumiflex Gmbh + Co. Kg | Device for monitoring a detection area on a work equipment | 
| DE102004035886B4 (en)* | 2004-07-23 | 2006-10-12 | Daimlerchrysler Ag | Gurtbringersystem in a vehicle | 
| DE102004035886A1 (en)* | 2004-07-23 | 2006-02-16 | Daimlerchrysler Ag | Gurtbringersystem in a vehicle | 
| WO2007036553A1 (en)* | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Device and method for recording distance images | 
| WO2007036557A1 (en)* | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Device and method for recording distance images | 
| US7791714B2 (en) | 2005-09-30 | 2010-09-07 | Siemens Aktiengesellschaft | Device and method for recording distance-measuring images | 
| EP2114630B2 (en)† | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensor device and system having a conveyor and a sensor device | 
| DE102007011417A1 (en) | 2007-03-08 | 2008-09-11 | Siemens Ag | Apparatus and method for determining distance | 
| WO2008107374A1 (en)* | 2007-03-08 | 2008-09-12 | Siemens Aktiengesellschaft | Device and method for determining a distance | 
| EP2191298B1 (en)* | 2007-09-28 | 2013-11-27 | Odos imaging Ltd | Method for determining a distance by means of an optoelectronic image sensor | 
| DE102008018718B4 (en)* | 2008-04-14 | 2010-02-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical distance meter and method for optical distance measurement | 
| DE102008018718A1 (en) | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical distance meter and method for optical distance measurement | 
| DE102009037596A1 (en) | 2009-08-14 | 2011-05-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for optical distance measurement | 
| EP2290393A2 (en) | 2009-08-14 | 2011-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for optical distance measurement | 
| US10241204B2 (en) | 2013-11-14 | 2019-03-26 | Odos Imaging Ltd. | Method for illuminating an object | 
| CN106133552A (en)* | 2013-11-14 | 2016-11-16 | 欧都思影像公司 | For the method illuminating object | 
| WO2015071358A1 (en)* | 2013-11-14 | 2015-05-21 | Odos Imaging Ltd. | Method for illuminating an object | 
| EP3085076A4 (en)* | 2013-12-17 | 2017-08-16 | Brightway Vision Ltd. | System for controlling pixel array sensor with independently controlled sub pixels | 
| WO2015092794A1 (en) | 2013-12-17 | 2015-06-25 | Brightway Vision Ltd. | System for controlling pixel array sensor with independently controlled sub pixels | 
| DE102015002282A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement | 
| DE102015002283A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for in particular three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement and object-dependent spatial resolution of several different individual scanners | 
| DE102015002271A1 (en) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement | 
| DE102015002270A1 (en) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Device and method for in particular three-dimensional optical scanning, measuring and classifying objects and for object recognition by means of light transit time measurement | 
| DE102015002283B4 (en) | 2014-05-09 | 2023-01-19 | Elmos Semiconductor Se | Device for, in particular, three-dimensional optical scanning and measuring of objects and for object recognition using time-of-flight measurement and object-dependent spatial resolution of a number of different individual scanners | 
| DE102014007466B3 (en)* | 2014-05-19 | 2015-08-06 | Elmos Semiconductor Aktiengesellschaft | Apparatus and method for improving the Cpk value in the manufacture of CMOS photodetectors for fast time of flight measurement | 
| US10557703B2 (en) | 2014-11-21 | 2020-02-11 | Rockwell Automation Limited | Distance measuring device and method for determining a distance | 
| US10401483B2 (en) | 2014-12-02 | 2019-09-03 | Odos Imaging Ltd. | Distance measuring device and method for determining a distance | 
| WO2017148772A1 (en) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver | 
| US11187792B2 (en) | 2016-03-01 | 2021-11-30 | Elmos Semiconductor Se | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver | 
| DE102016108496A1 (en) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optical transit time measurement according to a one- or two-stage delta-sigma method and associated device | 
| JPWO2018181250A1 (en)* | 2017-03-30 | 2020-02-06 | パナソニックIpマネジメント株式会社 | Range image generation device and range image generation method | 
| DE102017207317A1 (en)* | 2017-05-02 | 2018-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device for determining a distance to an object and corresponding method | 
| DE102017207317B4 (en) | 2017-05-02 | 2022-03-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device for determining a distance to an object and a corresponding method | 
| US11016184B2 (en) | 2017-05-02 | 2021-05-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device for determining a distance from an object, and corresponding method | 
| DE102021100931A1 (en) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Method for producing a pixel for an imaging time-of-flight measurement system with an improved production yield | 
| DE102021100913A1 (en) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Pixels for an imaging time-of-flight measurement system with an improved manufacturing yield | 
| EP4102252A1 (en)* | 2021-06-11 | 2022-12-14 | K. A. Schmersal Holding GmbH & Co. KG | Secure monitoring of a protected area using a tof camera | 
| DE102021115221A1 (en) | 2021-06-11 | 2022-12-15 | K.A. Schmersal Holding Gmbh & Co. Kg | Secure surveillance of a protected area using a ToF camera | 
| WO2024170333A1 (en)* | 2023-02-13 | 2024-08-22 | Valeo Detection Systems GmbH | Method for operating a lidar system and lidar system for a vehicle | 
| CN119335557A (en)* | 2024-12-19 | 2025-01-21 | 中国人民解放军军事航天部队航天工程大学 | A distance error compensation method for laser range-gated three-dimensional imaging | 
| Publication | Publication Date | Title | 
|---|---|---|
| EP1040366B1 (en) | Method and device for recording three-dimensional distance-measuring images | |
| DE19757595C2 (en) | Method and device for recording a three-dimensional distance image | |
| DE19833207A1 (en) | Three-dimensional distance-measuring image generation of spatial object | |
| EP3185038B1 (en) | Optoelectronic sensor and method for measuring a distance | |
| EP2290393B1 (en) | Concept for optical distance measurement | |
| EP1423731B1 (en) | Method and device for recording a three-dimensional distance-measuring image | |
| EP2263103B1 (en) | Optical distance meter and method for the optical distance measurement | |
| DE102017113675A1 (en) | Optoelectronic sensor and method for measuring the distance to an object | |
| DE202013101039U1 (en) | Optoelectronic sensor for distance measurement | |
| EP2708913A1 (en) | Opto-electronic sensor and object detection method | |
| WO2007134730A1 (en) | Distance measuring method and distance measuring element for detecting the spatial dimension of a target | |
| DE102014108310B4 (en) | Optical runtime system | |
| DE112015004407T5 (en) | Background light detection for optical navigation systems | |
| DE102009045323A1 (en) | Optical distance measuring device with calibration device | |
| DE102006029025A1 (en) | Reflective object distance determining device, has two integrators connected with photoelectric unit and control input, where photoelectric unit is rectangle or square shape and exhibits specific side length | |
| DE212017000247U1 (en) | LiDAR device | |
| DE112020004621T5 (en) | Light detecting device and system | |
| DE112020002106T5 (en) | EVENT DETECTION DEVICE, SYSTEM CONTAINING EVENT DETECTION DEVICE, AND EVENT DETECTION METHOD | |
| WO2007031102A1 (en) | Recording optical radiation | |
| EP1636610B1 (en) | Detection of electromagnetic radiation | |
| DE10153742A1 (en) | Recording system for three-dimensional distance-measurement image for surface of object measures time for propagating light with short-term integrated photodetector | |
| EP2978216B1 (en) | Method for the detection of motion blur | |
| DE102018132473B4 (en) | Optoelectronic sensor and method for detecting an object | |
| EP3870997B1 (en) | Method for determining a distance of an object with the aid of an optical detection apparatus and optical detection apparatus | |
| DE10138531A1 (en) | Recording system for three-dimensional distance-measurement image for surface of object measures time for propagating light with short-term integrated photodetector | 
| Date | Code | Title | Description | 
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8139 | Disposal/non-payment of the annual fee |