






Die Erfindung betrifft ein System zum Erfassen von Messbildern eines Messobjekts sowie ein Verfahren zum Erfassen von Messbildern eines Messobjekts mittels des Systems und ein entsprechendes Computerprogrammprodukt.The invention relates to a system for acquiring measurement images of a measurement object and to a method for acquiring measurement images of a measurement object by means of the system and a corresponding computer program product.
In vielen technischen und nicht-technischen Anwendungen hängen interessierende Eigenschaften eines Objektes von der (bio-)chemischen Zusammensetzung des Objekts ab. Auch können Strukturen auf der Oberfläche des Objektes, die mit bloßem Auge nicht sichtbar sind, bestimmte Eigenschaften des Objektes beeinflussen. Für eine zufriedenstellende Beurteilung solcher Eigenschaften ist daher die optische Erfassung von Größe, Form und Farbe des Objekts oder der makroskopischen (mit bloßem Auge noch erkennbaren) Oberflächentextur des Objekts in der Regel nicht ausreichend. Exemplarisch sei die objektive Erfassung des Zustandes von Lebensmitteln im Hinblick auf Frische oder Unbehandeltheit, die verschleierte Nachbesserung von Autolacken nach Unfallschäden, aber auch das Erkennen von Fälschungen bei Dokumenten, Medikamenten oder hochwertigen Textilien genannt.In many technical and non-technical applications, interesting properties of an object depend on the (bio) chemical composition of the object. Also, structures on the surface of the object that are invisible to the naked eye may affect certain properties of the object. For a satisfactory assessment of such properties, therefore, the optical detection of the size, shape and color of the object or the macroscopic (with the naked eye still recognizable) surface texture of the object is usually not sufficient. Exemplary is the objective recording of the condition of food in terms of freshness or untreatedness, the veiled repair of car paints after accident damage, but also the detection of counterfeits in documents, drugs or high-quality textiles.
In vielen Fällen, vor allem in gewerblichen Anwendungen und in der Forschung, kommt die hyperspektrale Bilderfassung von Objekten zur Anwendung. Hierbei werden von dem Objekt hyperspektrale Messbilder erfasst, welche die spektralen Reflexionseigenschaften des Objektes ortsaufgelöst darstellen. Auf der Grundlage dieser Messbilder können die jeweils interessierenden Eigenschaften des Objektes beurteilt werden. Für die Erfassung hyperspektraler Messbilder sind zwei Ansätze bekannt. Beim ersten Ansatz wird das Objekt mit einer breitbandigen Lichtquelle beleuchtet, das reflektierte Licht über schmalbandige Frequenzfilter, Prismen oder Gitter in seine spektralen Bestandteile getrennt und mittels einer Spektralkamera einzeln abgebildet. Die breitbandige gleichmäßige Beleuchtung lässt sich großflächig künstlich realisieren oder das Tageslicht als natürliche Beleuchtung nutzen. Gemäß dem zweiten Ansatz wird dieses Prinzip umgekehrt und eine breitbandige Grauwertkamera zur Bildaufnahme verwendet und das Objekt sequenziell mit schmalbandigen Lichtquellen beleuchtet. Diese Variante wird vor allem bei kleinflächigen Objekten im Laborbereich oder der Mikroskopie angewendet. Zur Beleuchtung werden dann beispielsweise nach Spektren sortierte LEDs oder Filterräder eingesetzt.In many cases, especially in commercial applications and in research, the hyperspectral imaging of objects is used. In this case, hyperspectral measurement images are acquired by the object, which represent the spectral reflection properties of the object spatially resolved. On the basis of these measurement images, the respectively interesting properties of the object can be assessed. Two approaches are known for the acquisition of hyperspectral measurement images. In the first approach, the object is illuminated with a broadband light source, the reflected light via narrow-band frequency filters, prisms or grids separated into its spectral components and individually imaged by means of a spectral camera. The broadband uniform illumination can be realized over a large area artificially or use daylight as natural lighting. According to the second approach, this principle is reversed and a broadband gray scale camera used for image acquisition and the object illuminated sequentially with narrow-band light sources. This variant is mainly used for small-scale objects in the laboratory or microscopy. For illumination then sorted by spectra LEDs or filter wheels are then used.
Ein Nachteil der bekannten Verfahren zur Erfassung hyperspektraler Messbilder eines Objekts sind insbesondere die hohen Kosten für die hierfür benötigten Geräte, bei denen es sich in der Regel um komplexe Labormessgeräte handelt, und die in vielen Fällen für bestimmte Anwendungen eingerichtet und optimiert sind. Diesen Nachteil haben auch viele andere Verfahren, mit denen Messbilder von zu untersuchenden Objekten erfasst werden. Viele technisch geeignete Verfahren lassen sich daher in der Praxis oftmals nicht wirtschaftlich sinnvoll umsetzen, insbesondere im Bereich des Konsumenten. Weitere Nachteile vieler bekannter Verfahren zum Erfassen von Messbildern von zu untersuchenden Objekte ist außerdem der hohe zeitliche Aufwand oder die Erfordernis technischen Spezialwissens bei der Bedienung der Geräte bzw. bei der Durchführung der Verfahren.A disadvantage of the known methods for acquiring hyperspectral measurement images of an object are, in particular, the high costs for the devices required for this, which are usually complex laboratory measuring devices, and which in many cases are set up and optimized for specific applications. This disadvantage also has many other methods by which measurement images of objects to be examined are detected. Many technically suitable methods can therefore often not be implemented economically in practice, in particular in the area of the consumer. Further disadvantages of many known methods for acquiring measurement images of objects to be examined is also the high expenditure of time or the requirement of special technical knowledge in the operation of the devices or in the implementation of the method.
Es stellt sich somit die Aufgabe, ein System zum Erfassen von Messbildern eines zu untersuchenden Objektes, welches auch als Messobjekt bezeichnet wird, vorzuschlagen, das möglichst kostengünstig, möglichst einfach bedienbar und möglichst flexibel einsetzbar ist. Die Messbilder sollen aber dennoch eine möglichst gute Beurteilung interessierender Eigenschaften des Objekts erlauben. Außerdem soll ein Verfahren zum Erfassen entsprechender Messbilder vorgeschlagen werden, das möglichst einfach und möglichst kostengünstig durchgeführt werden kann und flexibel einsetzbar ist. Schließlich soll ein entsprechendes Computerprogrammprodukt vorgeschlagen werden, dass direkt in einen internen Speicher des vorgeschlagenen Systems geladen werden kann, und Softwarecode umfasst, mit denen die Schritte des vorgeschlagenen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem System läuft.It is therefore the task of proposing a system for acquiring measurement images of an object to be examined, which is also referred to as a measurement object, which is as cost-effective as possible, easy to use and as flexible as possible. Nevertheless, the measurement images should allow the best possible evaluation of interesting properties of the object. In addition, a method for detecting corresponding measurement images is to be proposed, which can be carried out as simply and inexpensively as possible and can be used flexibly. Finally, a corresponding computer program product is to be proposed which can be loaded directly into an internal memory of the proposed system and software code with which the steps of the proposed method are executed when the computer program product runs on the system.
Diese Aufgabe wird gelöst durch ein System gemäß dem Hauptanspruch sowie durch ein Verfahren und ein Computerprogrammprodukt gemäß den nebengeordneten Patentansprüchen. Weiterentwicklungen und besondere Ausführungsbeispiele ergeben sich aus den abhängigen Ansprüchen, aus der nachfolgenden Beschreibung und aus den Figuren.This object is achieved by a system according to the main claim and by a method and a computer program product according to the independent claims. Further developments and particular embodiments will become apparent from the dependent claims, from the following description and from the figures.
Das vorgeschlagene System zum Erfassen von Messbildern eines Messobjekts umfasst somit mindestens ein mobiles elektronisches Gerät, wie beispielsweise ein Smartphone oder einen Tablet-Computer oder einen anderen (digitalen) Computer. Das (mindestens eine) mobile elektronische Gerät, das im Folgenden oftmals auch einfach als das „Gerät“ bezeichnet wird, umfasst (jeweils):
Beleuchtungsbildes der vordefinierten Beleuchtungsbildfolge jeweils ein Messbild von dem Messobjekt zu erfassen.Illumination image of the predefined illumination sequence to capture a respective measurement image of the measurement object.
Das vorgeschlagene Verfahren zum Erfassen von Messbildern eines Messobjekts kann mit dem hier vorgeschlagenen System durchgeführt werden und umfasst die Schritte:
Das elektronische mobile Gerät umfasst typischerweise mindestens einen internen Datenspeicher, der in das Gehäuse des Geräts integriert ist. Der interne Datenspeicher ist typischerweise ein volatiler oder nicht-volatiler Datenspeicher oder eine Kombination hiervon, beispielsweise ein RAM, ein ROM, ein Festplattenlaufwerk oder ein Solid-State-Drive (Halbleiterlaufwerk) oder eine Kombination hiervon.The electronic mobile device typically includes at least one internal data memory integrated with the device's housing. The internal data store is typically a volatile or non-volatile data store or a combination thereof, for example a RAM, a ROM, a hard disk drive or a solid state drive (semiconductor drive) or a combination thereof.
Das vorgeschlagene Computerprogrammprodukt kann direkt in den internen Datenspeicher des Geräts geladen werden. Das Computerprogrammprodukt umfasst Softwarecodeabschnitte, mit denen zumindest die oben genannten Schritte des vorgeschlagenen Verfahrens (und gegebenenfalls weitere Schritte des Verfahrens) ausgeführt werden, wenn das Computerprogrammprodukt auf dem mobilen elektronischen Gerät geladen ist und läuft.The proposed computer program product can be loaded directly into the internal data memory of the device. The computer program product comprises software code sections with which at least the above-mentioned steps of the proposed method (and optionally further steps of the method) are executed when the computer program product is loaded and running on the mobile electronic device.
Bei dem Computerprogrammprodukt handelt es sich beispielsweise um ein auf einem Datenspeicher („Träger“) gespeichertes Computerprogramm. Bei dem Datenspeicher handelt es sich beispielsweise um eine Computerhardware, wie beispielsweise einen volatilen oder nicht-volatilen Datenspeicher, beispielsweise um den genannten internen Datenspeicher des Geräts oder um einen weiteren Datenspeicher des Systems außerhalb des mobilen elektronischen Geräts, beispielsweise um einen Datenspeicher eines Computers wie beispielsweise eines Computerservers. Der Computer bzw. Computerserver kann beispielsweise eine weitere Komponente des Systems sein. Als möglicher (weiterer) Datenspeicher kommt beispielsweise ein RAM, ein ROM, ein Festplattenlaufwerk oder ein Solid-State-Drive oder Kombinationen hieraus in Frage oder aber auch eine CD, eine DVD oder ein USB-Stick.The computer program product is, for example, a computer program stored on a data memory ("carrier"). The data store is, for example, a computer hardware, such as a volatile or non-volatile data storage, for example, the said internal data memory of the device or another data storage of the system outside of the mobile electronic device, such as a data memory of a computer such as a computer server. For example, the computer or computer server may be another component of the system. As a possible (further) data storage is for example a RAM, a ROM, a hard disk drive or a solid-state drive or combinations thereof in question or even a CD, a DVD or a USB stick.
Das Gerät umfasst typischerweise mindestens einen (digitalen) Prozessor, zum Beispiel mindestens einen Hauptprozessor (CPU), welcher selbst beispielsweise eine oder mehrere integrierte Einheiten (Coprozessoren) aufweisen kann, wie beispielsweise einen Grafikprozessor. Der Prozessor kann beispielsweise in Form eines elektronischen Schaltkreises realisiert sein, beispielsweise als ein Halbleiterchip. Die oben genannte Steuereinheit des Geräts kann eine (logische oder integrierte) Einheit des Prozessors sein. Der Prozessor ist beispielsweise mit dem internen Datenspeicher des Geräts verbunden, um auf den Datenspeicher zuzugreifen, insbesondere um das in den internen Datenspeicher geladene Computerprogrammprodukt bzw. dessen geladenen Softwarecodeabschnitte abzurufen und anschließend (als Steuereinheit des Geräts) die oben genannten Schritte des Verfahrens (synchrones Ansteuern von Bildschirm und Kamera) auszuführen. Die jeweiligen Schritte des vorgeschlagenen Verfahrens können beispielweise in Form von Anweisungen in den Softwarecodeabschnitten codiert sein, die mittels des Prozessors des Geräts ausführbar sind. Bei der Ausführung dieser Anweisungen fungiert der Prozessor dann beispielsweise als die genannte Steuereinheit des Geräts.The device typically includes at least one (digital) processor, for example at least one main processor (CPU), which itself may, for example, comprise one or more integrated units (coprocessors), such as a graphics processor. The processor may, for example, be realized in the form of an electronic circuit, for example as a semiconductor chip. The above-mentioned control unit of the apparatus may be a (logical or integrated) unit of the processor. The processor is connected, for example, to the internal data memory of the device in order to access the data memory, in particular in order to retrieve the computer program product loaded in the internal data memory or its loaded software code sections and subsequently (as control unit of the device) the above-mentioned steps of the method (synchronous activation from the screen and the camera). The respective steps of the proposed method may, for example, be coded in the form of instructions in the software code sections that can be executed by means of the processor of the device. When executing these instructions, the processor then functions, for example, as the named control unit of the device.
Das vorgeschlagene Verfahren kann weitere Schritte umfassen, die weiter unten näher beschrieben werden. Die Steuereinheit des Geräts kann zur Ausführung dieser weiteren Verfahrensschritte eingerichtet sein. Entsprechend kann auch das Computerprogrammprodukt weitere Softwarecodeabschnitte enthalten, in denen entsprechende weitere Anweisungen codiert sein können, die mittels des Prozessors des Geräts ausgeführt werden können. Bei der Ausführung dieser weiteren Anweisungen fungiert der Prozessor dann beispielsweise wiederum als die genannte Steuereinheit des Geräts oder als eine weitere Einheit des Geräts, beispielsweise als eine Auswerteeinheit des Geräts. Alternativ können die weiteren Verfahrensschritte auch mittels anderer Komponenten des Systems ausgeführt werden. Beispielsweise kann die Auswerteeinheit extern des mobilen elektronischen Geräts angeordnet sein. Bei der Auswerteeinheit kann es sich daher beispielsweise auch um einen entsprechend eingerichteten Computer, beispielsweise einen Computerserver eines Computernetzwerkes, handeln oder um eine (logische oder integrierte) Einheit eines Prozessors des Computers. Es sind auch Mischformen möglich, in denen die Auswerteinheit auf mehrere Komponenten des Systems verteilt ist und sowohl durch (logische oder integrierte) Einheiten mehrerer Prozessoren gebildet ist, beispielsweise des Prozessors des Geräts und eines Prozessors des genannten Computers bzw. Computerservers.The proposed method may include further steps, which will be described in more detail below. The control unit of the device can be set up to carry out these further method steps be. Accordingly, the computer program product may also contain further software code sections in which corresponding further instructions that can be executed by means of the processor of the device can be coded. In the execution of these further instructions, the processor then acts, for example, again as the said control unit of the device or as a further unit of the device, for example as an evaluation unit of the device. Alternatively, the further method steps can also be carried out by means of other components of the system. For example, the evaluation unit can be arranged externally of the mobile electronic device. The evaluation unit can therefore also be, for example, a suitably equipped computer, for example a computer server of a computer network, or a (logical or integrated) unit of a processor of the computer. Mixed forms are also possible in which the evaluation unit is distributed over several components of the system and is formed both by (logical or integrated) units of several processors, for example the processor of the device and a processor of said computer or computer server.
In manchen Ausführungsbeispielen ist das Verfahren also mittels des mobilen elektronischen Geräts alleine vollständig durchführbar. In anderen Ausführungsbeispielen wird das Verfahren teilweise auch mittels anderer Komponenten des Systems durchgeführt, beispielsweise mittels eines oder mehreren Computern, wobei die Kommunikation und Datenübertragung zwischen dem Gerät und den anderen Komponenten beispielsweise über das Internet erfolgen kann.In some embodiments, therefore, the method is completely feasible by means of the mobile electronic device alone. In other embodiments, the method is also partly performed by means of other components of the system, for example by means of one or more computers, wherein the communication and data transmission between the device and the other components can take place, for example via the Internet.
Sofern im Folgenden oder in den Ansprüchen das „Eingerichtetsein“ der Steuereinheit oder der Auswerteeinheit zur Durchführung weiterer Operationen beschrieben ist, so sind diese Operationen auch als mögliche (optionale) Schritte des vorgeschlagenen Verfahrens zu verstehen. Entsprechend kann auch das Computerprogrammprodukt Softwarecodeabschnitte umfassen, in denen Anweisungen zum Ausführen dieser weiteren Operationen kodiert sind, beispielsweise zum Ausführen durch den Prozessor des Geräts oder einer anderen Komponente des Systems. Sofern im Folgenden umgekehrt beschrieben wird, das Verfahrensschritte mittels einer Komponente des Systems ausgeführt werden können, wie beispielsweise mittels der Steuereinheit, der Auswerteeinheit oder einer anderen Komponente, dann wird dadurch auch ein entsprechendes „Eingerichtetsein“ der jeweiligen Komponenten impliziert. Dieses „Eingerichtetsein“ kann beispielsweise wiederum durch Laden des entsprechend ausgestalteten Computerprogrammprodukts, beispielsweise auf das Gerät oder den genannten weiteren Computer des Systems, ermöglicht werden.If the "configuration" of the control unit or the evaluation unit for carrying out further operations is described below or in the claims, these operations are also to be understood as possible (optional) steps of the proposed method. Accordingly, the computer program product may also comprise software code portions in which instructions are encoded for performing such further operations, for example, for execution by the processor of the apparatus or other component of the system. If, conversely, it is described below that the method steps can be performed by means of a component of the system, for example by means of the control unit, the evaluation unit or another component, this also implies a corresponding "set-up" of the respective components. This "set-up" can in turn be made possible, for example, by loading the correspondingly designed computer program product, for example onto the device or the said further computer of the system.
Die vordefinierte Beleuchtungsbildfolge ist typischerweise durch Beleuchtungsparameter teilweise oder vorzugsweise vollständig definiert. Konkrete Beispiele für Beleuchtungsparameter werden weiter unten beschrieben. Die Beleuchtungsparameter sind typischerweise auf mindestens einem Datenspeicher des Systems gespeichert, beispielsweise auf dem internen Datenspeicher des mobilen elektronischen Geräts und/oder auf einem Datenspeicher einer anderen Komponente des Systems, beispielsweise des genannten Computers. Beispielsweise kann durch das Laden des Computerprogrammprodukts auf das Gerät eine automatische Speicherung der Beleuchtungsparameter auf dem internen Speicher des Geräts erfolgen. Beispielsweise kann der Softwarecode des Computerprogrammprodukts Definitionen und/oder Werte der Beleuchtungsparameter beinhalten. Die Steuereinheit des mobilen elektronischen Geräts kann eingerichtet sein, die in dem mindestens einen Datenspeicher gespeicherte Beleuchtungsparameter aus dem Datenspeicher abzurufen und auf der Grundlage der abgerufenen Beleuchtungsparameter die vordefinierte Beleuchtungsbildfolge zu ermitteln. Typischerweise steuert die Steuereinheit erst danach den Bildschirm zum Anzeigen der Beleuchtungsbilder der so ermittelten vordefinierten Beleuchtungsbildfolge an und synchron hierzu die Kamera zum Aufnehmen der Messbilder an.The predefined illumination sequence is typically partially or preferably completely defined by illumination parameters. Specific examples of lighting parameters will be described below. The illumination parameters are typically stored on at least one data memory of the system, for example on the internal data memory of the mobile electronic device and / or on a data memory of another component of the system, for example of said computer. For example, by loading the computer program product onto the device, the illumination parameters can be automatically stored on the internal memory of the device. For example, the software code of the computer program product may include definitions and / or values of the illumination parameters. The control unit of the mobile electronic device can be set up to retrieve the illumination parameters stored in the at least one data memory from the data memory and to determine the predefined illumination sequence on the basis of the retrieved illumination parameters. The control unit then typically activates the screen for displaying the illumination images of the predefined illumination sequence determined in this way, and synchronously for this purpose the camera for recording the measurement images.
Das mobile elektronische Gerät kann eine Benutzerschnittstelle aufweisen, mit Hilfe derer das Gerät bedient werden kann, beispielsweise um das vorgeschlagene Verfahren durchzuführen. Beispielsweise kann über die Benutzerschnittstelle die vordefinierte Beleuchtungsbildfolge einstellbar oder zumindest beeinflussbar sein, beispielsweise durch Einstellen oder Verändern mindestens eines der Beleuchtungsparameter. Zusätzlich oder alternativ kann mittels der Benutzerschnittstelle eine Auswahl zwischen verschiedenen (gespeicherten) vordefinierten Beleuchtungsbildfolgen ermöglicht sein, wobei sich die Beleuchtungsbildfolgen beispielsweise durch einen oder mehrere Beleuchtungsparameter voneinander unterscheiden. Zusätzlich oder alternativ ist es außerdem möglich, dass mittels der Benutzerschnittstelle die Art des zu untersuchenden Messobjekts eingegeben werden kann. Neben einer solchen Eingabe können mittels der Benutzerschnittstellen weitere Eingaben ermöglicht sein, beispielsweise eine Auswahl interessierender Eigenschaften des jeweils ausgewählten Messobjekts. Von derartigen Eingaben über die Benutzerschnittstelle kann neben der Definition der Beleuchtungsbildfolge auch die nachfolgende Auswertung der Messbilder abhängen. Beispielsweise können die Eingaben auch von einer Auswerteeinheit des Systems berücksichtigt werden, wie weiter unten beschrieben wird.The mobile electronic device may include a user interface by means of which the device can be operated, for example to perform the proposed method. For example, the predefined lighting image sequence can be adjustable or at least influenced via the user interface, for example by setting or changing at least one of the lighting parameters. Additionally or alternatively, a selection between different (stored) predefined illumination image sequences can be made possible by means of the user interface, wherein the illumination image sequences differ from one another, for example, by one or more illumination parameters. Additionally or alternatively, it is also possible that the type of the test object to be examined can be input by means of the user interface. In addition to such an input, further inputs can be made possible by means of the user interfaces, for example a selection of properties of interest of the respectively selected measurement object. From such inputs via the user interface, in addition to the definition of the illumination sequence, the subsequent evaluation of the measurement images may also depend. For example, the inputs can also be taken into account by an evaluation unit of the system, as described below.
Der Bildschirm kann als ein Touchscreen ausgestaltet sein und somit als die genannte Benutzerschnittstelle des Geräts dienen, beispielsweise über die Darstellung einer graphischen Nutzeroberfläche mit auf dem Touchscreen dargestellten Eingabefeldern. The screen can be configured as a touchscreen and thus serve as the device's user interface, for example via the representation of a graphical user interface with input fields displayed on the touchscreen.
Die Benutzerschnittstelle kann außerdem eingerichtet sein, eine Warnmeldung auszugeben, beispielsweise wenn Umgebungslichteinflüsse als zu groß beurteilt werden oder falls eine durchgeführte Bildregistrierung der Messbilder oder eine Objekterkennung nicht erfolgreich durchgeführt werden konnte.The user interface may also be configured to issue a warning message, for example, when ambient light effects are judged to be too large or when performed image registration of the measurement images or object recognition could not be successfully performed.
Die Benutzerschnittstelle kann ein Vibrationsmodul des Geräts beinhalten, welches beispielsweise die genannten Warnmeldungen erzeugen kann. Weitere Benutzerschnittstellen können beispielsweise mittels weiterer kommunizierender Geräte mit Display realisiert werden, wie zum Beispiel Smartwatches und Head-Mounted Displays.The user interface may include a vibration module of the device, which may, for example, generate the mentioned warning messages. Other user interfaces can be realized for example by means of other communicating devices with display, such as smartwatches and head-mounted displays.
Der mindestens eine interne Datenspeicher des Geräts oder ein externer Datenspeicher, beispielsweise des genannten weiteren Computers, kann zum (Zwischen-)Speichern der aufgenommenen Messbilder dienen. Entsprechend kann die Steuereinheit eingerichtet sein, eine Übertragung der aufgenommenen Messbilder auf diesen mindestens einen Datenspeicher durchzuführen oder zu initiieren.The at least one internal data memory of the device or an external data memory, for example of said additional computer, can be used for (intermediate) storage of the recorded measurement images. Accordingly, the control unit may be configured to perform or initiate a transmission of the recorded measurement images to this at least one data memory.
Außerdem kann die Steuereinheit eingerichtet sein, den Bildschirm anzusteuern, die aufgenommenen Messbilder anzuzeigen, beispielsweise automatisch nach dem Aufnehmen der Messbilder. Beispielsweise können mittels des Bildschirms beispielsweise Messergebnisse auf dem Bildschirm während oder unmittelbar nach der Messung auf dem Bildschirm des Geräts angezeigt werden und beispielsweise ein aufgenommenes Bild des Messobjekts oder ein momentanes Live-Bild der Kamera auf dem Bildschirm überlagern, um auf diese Weise beispielsweise Augmented-Reality-Techniken umzusetzen.In addition, the control unit can be set up to control the screen, to display the recorded measurement images, for example automatically after taking the measurement images. For example, by means of the screen, for example, measurement results on the screen during or immediately after the measurement can be displayed on the screen of the device and superimposed on the screen, for example, a recorded image of the measurement object or an instantaneous live image of the camera, in this way, for example, augmented Implement reality techniques.
Auf dem mindestens einen internen Datenspeicher des Geräts kann beispielsweise auch ein Betriebssystem des Geräts installiert sein, wie beispielsweise iOS, Android, Windows, Linux, Blackberry OS oder ein anderes Betriebssystem, sowie typischerweise weitere Anwendungsprogramme, wie beispielsweise ein Internetbrowser und/oder eine App-Store-Anwendung. Über die App-Store-Anwendung kann beispielsweise eine (Internet-)Verbindung des Geräts zu einem App-Store, also einer internetbasierten digitalen Vertriebsplattform für Anwendungssoftware, herstellbar sein, wie beispielsweise App Store von Apple oder Play Store von Google. In einem Ausführungsbeispiel ist das Computerprogrammprodukt als eine App über diese App-Store-Anwendung auf den internen Datenspeicher des Geräts ladbar und wird dort beispielsweise dauerhaft (beispielsweise bis zu einem von dem Nutzer initiierten und/oder bestätigten Löschvorgang) gespeichert. Eine weitere Möglichkeit ist, das Computerprogrammprodukt bzw. die App direkt (z.B. per USB-Kabel) auf das Gerät, insbesondere das Smartphone, zu kopieren, sofern dies durch das jeweilige Betriebssystem nicht blockiert wird. In einem weiteren Ausführungsbeispiel ist das Computerprogrammprodukt als eine Web-App über den Internet-Browser des Geräts von einer Internet-Seite eines Providers auf den internen Speicher des Geräts ladbar. Die Web-App wird beispielsweise temporär (beispielsweise nur für einen vordefinierten Zeitraum oder nur für eine vordefinierte Anzahl von Durchführungen des Verfahrens) auf dem internen Speicher gespeichert und anschließend automatisch wieder vom internen Speicher des Geräts gelöscht. In allen Fällen aber ist das Computerprogrammprodukt vorzugsweise direkt nach dem Laden in den internen Speicher des Geräts auf dem Gerät lauffähig und für einen Nutzer für die Durchführung des Verfahrens verwendbar.On the at least one internal data memory of the device, for example, an operating system of the device can be installed, such as iOS, Android, Windows, Linux, Blackberry OS or another operating system, and typically other application programs, such as an Internet browser and / or App Store application. For example, the App Store application can be used to connect (device) the device to an App Store, an Internet-based digital distribution platform for application software, such as Apple's App Store or Google's Play Store. In one embodiment, the computer program product is loadable as an app via this app store application to the internal data memory of the device and is stored there, for example, permanently (for example, up to an erase process initiated and / or confirmed by the user). Another possibility is to copy the computer program product or the app directly (for example via USB cable) to the device, in particular the smartphone, if this is not blocked by the respective operating system. In another embodiment, the computer program product is loadable as a web app via the internet browser of the device from an internet site of a provider to the internal memory of the device. For example, the web app is temporarily stored on internal storage (for example, only for a predefined period of time or just for a predefined number of process executions) and then automatically deleted from the device's internal storage. In all cases, however, the computer program product is preferably executable on the device directly after being loaded into the internal memory of the device and can be used by a user to carry out the method.
Das Gerät umfasst typischerweise einen oder mehrere kabelgebundene oder vorzugsweise drahtlose Datenschnittstellen, wie beispielsweise mindestens eine Funkschnittstelle, um das Gerät beispielsweise mit dem Internet oder möglichen weiteren Komponenten des Systems, wie beispielsweise einem oder mehreren Computerservern, verbinden zu können, beispielsweise über das Internet.The device typically includes one or more wired or preferably wireless data interfaces, such as at least one radio interface, for example, to connect the device to the Internet or possible other components of the system, such as one or more computer servers, such as the Internet.
Das mobile (portable) elektronische Gerät ist möglichst leicht, um von einem Nutzer (insbesondere während der oben genannten Verfahrensschritte, also während der Anzeige der Beleuchtungsbilder und der Erfassung der Messbilder) bequem mit zwei Händen oder vorzugsweise mit nur einer Hand in einer geeigneten Position relativ zum Messobjekt ausgerichtet und gehalten werden zu können. Das Gerät wiegt daher vorzugsweise weniger als 3 kg, weniger als 2 kg oder weniger als 1 kg. Eine maximale Kantenlänge des Gehäuses beträgt typischerweise nicht mehr als 30 cm, typischerweise weniger als 25 cm oder weniger als 20 cm. Beispielsweise kann das Gehäuse im Wesentlichen quaderförmig ausgestaltet sein. Eine minimale Kantenlänge beträgt typischerweise weniger als 5 cm, vorzugsweise weniger als 2 cm.The mobile (portable) electronic device is as light as possible to be relatively easy by a user (especially during the above method steps, ie during the display of the illumination images and the acquisition of the measurement images) with two hands or preferably with only one hand in a suitable position to be aligned and held to the measurement object. The device therefore preferably weighs less than 3 kg, less than 2 kg or less than 1 kg. A maximum edge length of the housing is typically no more than 30 cm, typically less than 25 cm or less than 20 cm. For example, the housing may be designed substantially cuboid. A minimum edge length is typically less than 5 cm, preferably less than 2 cm.
Die Kamera umfasst in der Regel ein Objektiv, das auf einer Vorderseite des Gehäuses angeordnet ist und den Beobachtungsbereich der Kamera definiert. Der Bildschirm ist dann typischerweise ebenfalls auf der Vorderseite des Gehäuses angeordnet. Die Kamera (zumindest das Objekt der Kamera) und der Bildschirm sind typischerweise auf der gleichen Seite des Gehäuses angeordnet bzw. von der gleichen Seite des Gehäuses aus sichtbar. Die Kamera umfasst typischerweise außerdem einen Bildsensor, beispielsweise einen lichtempfindlichen Halbleiterchip, wie beispielsweise ein CCD - oder CMOS-Sensor oder einen InGAs-Sensor.The camera typically includes a lens that is disposed on a front of the housing and defines the viewing area of the camera. The screen is then typically also on the screen Front of the housing arranged. The camera (at least the object of the camera) and the screen are typically arranged on the same side of the housing or visible from the same side of the housing. The camera also typically includes an image sensor, such as a photosensitive semiconductor chip, such as a CCD or CMOS sensor or an InGAs sensor.
Ferner kann das Gerät einen Lautsprecher und einen Mikrophon umfassen, um beispielsweise mittels einer in dem internen Speicher installierten Telefonie-Anwendung Telefonate über ein mobiles Funktelefonnetz oder über das Internet zu ermöglichen. Außerdem kann das Gerät einen (wiederaufladbaren) Energiespeicher umfassen zum Versorgen des Geräts mit elektrischer Energie, insbesondere des Bildschirms, der Kamera und der Steuereinheit des Geräts.Further, the apparatus may include a speaker and a microphone to enable telephone calls over a mobile cellular telephone network or over the Internet, for example, by means of a telephony application installed in the internal memory. In addition, the device may comprise a (rechargeable) energy store for supplying the device with electrical energy, in particular the screen, the camera and the control unit of the device.
Bei der Durchführung des Verfahrens mittels des Systems emittiert der Bildschirm des Geräts während des Anzeigens der Beleuchtungsbilder Licht. Dadurch, dass der Bildschirm dem Beobachtungsbereich der Kamera zugewandt ist, kann ein in dem Beobachtungsbereich der Kamera angeordnetes Messobjekt somit mittels des Bildschirms beleuchtet werden. Hierbei trifft von dem Bildschirm das beim Anzeigen der Beleuchtungsbilder emittierte Licht auf das Messobjekt, wird an dem Messobjekt reflektiert und von der Kamera erfasst. Hierbei tritt das reflektierte Licht typischerweise durch das Objektiv der Kamera in die Kamera ein und wird auf dem Bildsensor der Kamera abgebildet.In performing the method by the system, the screen of the device emits light while displaying the illumination images. Due to the fact that the screen faces the observation area of the camera, a measurement object arranged in the observation area of the camera can thus be illuminated by means of the screen. In this case, the light emitted when displaying the illumination images impinges on the measurement object from the screen, is reflected at the measurement object and detected by the camera. In this case, the reflected light typically enters the camera through the lens of the camera and is imaged on the image sensor of the camera.
Der Bildsensor der Kamera weist typischerweise eine Vielzahl in einem Gesamtraster angeordneter Sensoreinheiten auf. Jede der Sensoreinheiten kann ein oder mehrere Sensorelemente des Bildsensors aufweisen. Beispielsweise entspricht jede Sensoreinheit einem Bildpunkt (Pixel) eines mittels der Kamera erfassten Messbildes. Die Positionen der Sensoreinheiten und ihrer Sensorelemente innerhalb des Bildsensors sind durch zwei Sensorkoordinaten (XY) der jeweiligen Sensoreinheit definiert.The image sensor of the camera typically has a multiplicity of sensor units arranged in a total grid. Each of the sensor units may comprise one or more sensor elements of the image sensor. For example, each sensor unit corresponds to a pixel (pixel) of a captured by the camera measurement image. The positions of the sensor units and their sensor elements within the image sensor are defined by two sensor coordinates (XY) of the respective sensor unit.
Jedes der Messbilder umfasst somit ebenfalls eine Vielzahl in einem Gesamtraster angeordneter Bildpunkte (Pixel), die den Sensoreinheiten des Bildsensors zugeordnet sind und deren Positionen innerhalb des jeweiligen Messbildes durch zwei Bildkoordinaten (XY) definiert sind, die den Sensorkoordinaten der jeweiligen Sensoreinheiten typischerweise entsprechen. Die Messbilder beinhalten außerdem Bilddaten, in denen Bildinformationen kodiert sind. In den Bilddaten sind beispielsweise Helligkeitswerte der jeweiligen Bildpunkte der Messbilder kodiert. Die Helligkeitswerte der Bildpunkte der Messbilder sind typischerweise vom Ladungs- oder Entladungszustand von lichtempfindlichen Sensorelementen der Sensoreinheiten beim Erfassens des jeweiligen Messbildes abhängig.Each of the measurement images thus likewise comprises a multiplicity of pixels arranged in a total grid (pixels) which are assigned to the sensor units of the image sensor and whose positions within the respective measurement image are defined by two image coordinates (XY) which typically correspond to the sensor coordinates of the respective sensor units. The measurement images also contain image data in which image information is encoded. For example, brightness values of the respective pixels of the measurement images are encoded in the image data. The brightness values of the pixels of the measurement images are typically dependent on the charge or discharge state of photosensitive sensor elements of the sensor units when the respective measurement image is acquired.
Aufgrund der Unterschiedlichkeit der Beleuchtungsbilder enthalten verschiedene Messbilder unterschiedliche Informationen über das Messobjekt. Beispielsweise können sich die Beleuchtungsbilder durch die spektrale Zusammensetzung des Lichts, das bei ihrer Anzeige vom Bildschirm emittiert wird, voneinander unterscheiden. Alternativ oder zusätzlich ist es möglich, dass die Beleuchtungsbilder in unterschiedlichen Bereichen des Bildschirms angeordnet sind, so dass das Messobjekt aus Sicht der Kamera aus unterschiedlichen Richtungen beleuchtet wird.Due to the diversity of the illumination images, different measurement images contain different information about the measurement object. For example, the illumination images may differ from one another by the spectral composition of the light emitted from the screen when displayed. Alternatively or additionally, it is possible for the illumination images to be arranged in different regions of the screen, so that the measurement object is illuminated from different directions from the perspective of the camera.
Somit ist es vorteilhafterweise möglich, aus den jeweils aufgenommenen Messbildern unterschiedliche Informationen über die Reflexionseigenschaften oder andere Eigenschaften des Messobjekts zu gewinnen. Zudem kann der Informationsgehalt der Messbilder durch ein Verändern der Beleuchtungsbildfolge sehr einfach beeinflusst werden.Thus, it is advantageously possible to obtain different information about the reflection properties or other properties of the measurement object from the respectively recorded measurement images. In addition, the information content of the measurement images can be influenced very easily by changing the illumination sequence.
Ein weiterer wichtiger Vorteil besteht darin, dass das mobile elektronische Gerät beispielsweise ein Smartphone, eine Tablet-Computer („Tablet“), ein Laptop oder ein ähnlich verbreitetes mobiles elektronisches Gerät sein kann. Vorteilhafterweise ist es für den Nutzer/Konsumenten sehr einfach, ein solches handelsübliches Gerät für die Durchführung des vorgeschlagenen Verfahrens zu konfigurieren, beispielsweise nämlich einfach dadurch, dass der Nutzer/Konsument das vorgeschlagene Computerprogrammprodukt auf das Gerät lädt, beispielsweise von einem App-Store oder von einer Web-Site eines Anbieters des Computerprogrammprodukts, wie oben beschrieben. Somit sind das System und das Verfahren im Vergleich zu vielen herkömmlichen Messgeräten sehr kostengünstig, über die Beleuchtungsbildfolge sehr variabel konfigurierbar und zudem für viele Nutzer intuitiv anwendbar bzw. durchführbar. Ein weiterer Vorteil gegenüber bekannten Systemen ist, dass das mobile elektronische Gerät nicht mit weiterer (externer) optischer Hardware nachgerüstet werden muss.Another important advantage is that the mobile electronic device may be, for example, a smartphone, a tablet computer, a laptop, or a similar mobile electronic device. Advantageously, it is very easy for the user / consumer to configure such a commercially available device for carrying out the proposed method, for example simply by the user / consumer downloading the proposed computer program product to the device, for example from an app store or from a Web site of a provider of the computer program product as described above. Thus, the system and the method compared to many conventional measuring devices are very cost-effective, highly variable configurable on the illumination sequence and also for many users intuitively applicable or feasible. Another advantage over known systems is that the mobile electronic device does not need to be retrofitted with additional (external) optical hardware.
Vor der Aufnahme der Messbilder kann vorgesehen sein, dass Vorverarbeitungsschritte, die durch die Kamera automatisch durchgeführt werden können, ausgeschaltet oder deaktiviert werden. Beispielsweise kann vorgesehen sein, dass eine durch die Kamera automatisch vorgenommene Einstellung einer Farbtemperatur der aufgenommenen Bilder ausgeschaltet wird oder dass die Farbtemperatur beispielsweise auf einen festen Wert gesetzt und anschließend bei der Auswertung der Messbilder berücksichtigt wird. Entsprechendes gilt für automatische Einstellungen anderer Aufnahmeparameter der Kamera, wie beispielsweise Empfindlichkeit, Belichtungszeit und Weißabgleich.Before the acquisition of the measurement images it can be provided that preprocessing steps that can be automatically performed by the camera are switched off or deactivated. For example, can be provided that an automatically made by the camera setting a color temperature of the recorded images is turned off or that the color temperature, for example, set to a fixed value and then taken into account in the evaluation of the measurement images. The same applies to automatic settings of other recording parameters of the camera, such as sensitivity, exposure time and white balance.
Entsprechend kann vorgesehen sein, dass eine automatische Helltgkeitsregelung des Bildschirms (durch die Steuereinheit) abgeschaltet und die Beleuchtung beispielsweise auf die höchstmögliche Helligkeit gesetzt wird.Accordingly, it can be provided that an automatic brightness control of the screen is switched off (by the control unit) and the illumination is set to the highest possible brightness, for example.
Der Bildschirm des mobilen elektronischen Geräts emittiert Licht in der Regel hauptsächlich oder ausschließlich im sichtbaren Spektralbereich, also Licht mit den Wellenlängen zwischen etwa 400 nm und etwa 800 nm. Typischerweise ist der Bildschirm ein Farbbildschirm und somit zur Anzeige von Farbbildern eingerichtet. Beispielsweise weist der Bildschirm mehrere Farbkanäle auf. In jedem der Farbkanäle weist der Bildschirm eine kanalspezifische spektrale Emissionscharakteristik auf, welche im Folgenden auch als Dd(λ) bezeichnet wird. Das in einem Farbkanal emittierte Licht weist somit eine für diesen Farbkanal vordefinierte spektrale Intensitätsverteilung auf und entspricht einer mit dem Bildschirm darstellbaren Grundfarbe des Bildschirms. Beispielsweise kann der Bildschirm einen roten Farbkanal, einen blauen Farbkanal und einen grünen Farbkanal aufweisen. Die Farben der Farbkanäle, also beispielsweise rot, grün und blau, stellen dann die Grundfarben des Bildschirms dar. Der Bildschirm und die Kameras sind typischerweise an das menschliche Sehsystem angepasst. Sichtbares Licht mit Wellenlängen bis ca. 485 nm wird als blau, von ca. 500 nm bis ca. 550 nm als grün und ab ca. 630 nm als rot wahrgenommen wird. Entsprechend emittiert der rote Farbkanal (hauptsächlich) in einem roten Wellenlängenbereich, der grüne Farbkanal (hauptsächlich) in einem grünen Wellenlängenbereich und der blaue Farbkanal des Bildschirms Licht (hauptsächlich) in einem grünen Wellenlängenbereich.The screen of the mobile electronic device usually emits light mainly or exclusively in the visible spectral range, ie light with the wavelengths between about 400 nm and about 800 nm. Typically, the screen is a color screen and thus set up to display color images. For example, the screen has multiple color channels. In each of the color channels, the screen has a channel-specific spectral emission characteristic, which is also referred to below as Dd (λ). The light emitted in a color channel thus has a predefined for this color channel spectral intensity distribution and corresponds to a displayable with the screen basic color of the screen. For example, the screen may have a red color channel, a blue color channel, and a green color channel. The colors of the color channels, for example red, green and blue, then represent the basic colors of the screen. The screen and the cameras are typically adapted to the human visual system. Visible light with wavelengths up to about 485 nm is perceived as blue, from about 500 nm to about 550 nm as green and from about 630 nm as red. Accordingly, the red color channel (mainly) in a red wavelength region, the green color channel (mainly) in a green wavelength region, and the blue color channel of the screen emit light (mainly) in a green wavelength region.
Der Bildschirm weist typischerweise eine Vielzahl in einem Gesamtraster des Bildschirms angeordneter Leuchtelemente auf, welche Bildpunkte (Pixel) des Bildschirms bilden und zusammen eine Gesamtbildfläche des Bildschirms befüllen. Jeder der Farbkanäle ist dann durch eine Teilmenge der Leuchtelemente des Bildschirms gebildet ist, deren spektralen Emissionscharakteristika mit der kanalspezifischen spektralen Emissionscharakteristik des jeweiligen Farbkanals übereinstimmen. Jeder Bildpunkt des Bildschirms wird beispielsweise durch eine Gruppe benachbarter Leuchtelemente gebildet, die den unterschiedlichen Farbkanälen angehören. Die zu einem gemeinsamen Bildpunkt gehörigen Leuchtelemente verschiedener Farbkanäle werden auch als Subpixel des Bildschirms bezeichnet. Die Leuchtelemente jedes Farbkanals sind jeweils in einem Raster angeordnet. Die Raster der Farbkanäle überlagern sich räumlich gegenseitig und bilden so das Gesamtraster der Bildpunkte des Bildschirms.The screen typically has a plurality of luminous elements arranged in an overall grid of the screen, which form pixels of the screen and together fill an overall image area of the screen. Each of the color channels is then formed by a subset of the luminous elements of the screen whose spectral emission characteristics match the channel-specific spectral emission characteristics of the respective color channel. Each pixel of the screen is formed, for example, by a group of adjacent light elements that belong to the different color channels. The luminous elements belonging to a common pixel of different color channels are also referred to as subpixels of the screen. The luminous elements of each color channel are each arranged in a grid. The grids of the color channels are spatially superimposed on each other and thus form the overall grid of the pixels of the screen.
Typischerweise handelt es sich bei der Kamera des mobilen elektronischen Geräts um eine Farbkamera, die also für Licht mit den Wellenlängen zwischen etwa 400 nm und etwa 800 nm empfindlich ist und mehrere verschiedene Farbkanäle aufweist. Für jeden der Farbkanäle weist die Kamera typischerweise eine kanalspezifische spektrale Empfindlichkeit auf, welche im Folgenden auch als Cc(λ) bezeichnet wird. Beispielsweise kann die Kamera einen roten Farbkanal, einen blauen Farbkanal und einen grünen Farbkanal aufweisen. In vielen Fällen stimmen die Wellenlängenbereich der Farbkanäle der Kamera mit denen Farbkanäle des Bildschirms paarweise weitgehend (typischerweise aber nicht vollständig) überein.Typically, the camera of the mobile electronic device is a color camera, which is sensitive to light having the wavelengths between about 400 nm and about 800 nm and having a plurality of different color channels. For each of the color channels, the camera typically has a channel-specific spectral sensitivity, which is also referred to below as Cc (λ). For example, the camera may have a red color channel, a blue color channel, and a green color channel. In many cases, the wavelength ranges of the color channels of the camera match those of the color channels of the screen in pairs largely (but typically not completely).
Jeder der Farbkanäle der Kamera ist durch eine Teilmenge von Sensorelementen des Bildsensors gebildet, deren spektralen Empfindlichkeiten mit der kanalspezifischen spektralen Empfindlichkeit des jeweiligen Farbkanals der Kamera übereinstimmen. Jede Sensoreinheit des Bildsensors der Kamera wird beispielsweise durch eine Gruppe benachbarter Sensorelemente des Bildsensors gebildet, die den unterschiedlichen Farbkanälen der Kamera angehören.Each of the color channels of the camera is formed by a subset of sensor elements of the image sensor whose spectral sensitivities coincide with the channel-specific spectral sensitivity of the respective color channel of the camera. Each sensor unit of the image sensor of the camera is formed for example by a group of adjacent sensor elements of the image sensor, which belong to the different color channels of the camera.
Die Sensorelemente jedes Farbkanals sind somit jeweils in einem Teilraster angeordnet, dass sich über den Bildsensor erstreckt. Die Teilraster der Sensorelemente der verschiedenen Farbkanäle überlagern sich räumlich gegenseitig und bilden so das Gesamtraster der Sensoreinheiten des Bildsensors. Beispielsweise sind die Sensorelemente des roten Farbkanals am empfindlichsten für rotes Licht, die Sensorelemente des grünen Farbkanals am empfindlichsten für grünes Licht und die Sensorelemente des blauen Farbkanals am empfindlichsten für blaues Licht. Rotes Licht hat beispielsweise eine Wellenlänge von etwa 605 nm oder mehr, grünes Licht eine Wellenlänge von etwa 555 nm und blaues Licht von etwa 450 nm oder mehr. Weitere Beispiele für Wellenlängenbereiche für die verschiedenen Farben sind oben angegeben.The sensor elements of each color channel are thus each arranged in a sub-grid that extends over the image sensor. The sub-grids of the sensor elements of the different color channels are spatially superimposed on one another and thus form the overall grid of the sensor units of the image sensor. For example, the red color channel sensing elements are most sensitive to red light, the green color channel sensing elements most sensitive to green light, and the blue color channel sensing elements are the most sensitive to blue light. For example, red light has a wavelength of about 605 nm or more, green light has a wavelength of about 555 nm, and blue light has about 450 nm or more. Further examples of wavelength ranges for the different colors are given above.
Beispielsweise ist die Steuereinheit des mobilen elektronischen Geräts eingerichtet, den Bildschirm des mobilen elektronischen Geräts anzusteuern, eines oder mehrere der Beleuchtungsbilder der vordefinierten Beleuchtungsbildfolge anzuzeigen
Das Aktivieren der Leuchtelemente eines Farbkanals kann beispielsweise durch ein Einschalten dieser Leuchtelemente erfolgen oder durch ein Ansteuern mit einem einheitlichen Helligkeitswert, der größer als ein kleinstmöglicher Helligkeitswert der Leuchtelemente ist. Um eine möglichst helle Beleuchtung des Messobjekts mittels der aktivierten Leuchtelemente zu erzielen, entspricht der jeweilige einheitliche Helligkeitswert vorzugsweise einem maximal möglichen Helligkeitswert der Leuchtelemente.The activation of the luminous elements of a color channel can be effected for example by switching on these luminous elements or by driving with a uniform brightness value which is greater than a smallest possible brightness value of the luminous elements. In order to achieve the brightest possible illumination of the measurement object by means of the activated luminous elements, the respective uniform brightness value preferably corresponds to a maximum possible brightness value of the luminous elements.
Entsprechend können die jeweils nicht-aktivierten Leuchtelemente der übrigen Farbkanäle ausgeschaltet werden oder ausgeschaltet bleiben oder jeweils mit einem kleinstmöglichen Helligkeitswert angesteuert werden.Accordingly, the respectively non-activated luminous elements of the remaining color channels can be switched off or remain switched off or can be controlled in each case with the smallest possible brightness value.
Durch die Ansteuerung mit einem einheitlichen Helligkeitswert wird erreicht, dass das jeweilige Beleuchtungsbild eine einheitliche Farbe hat, dass also jeder Bildpunkt des Bildschirms in dieser einheitlichen Farbe leuchtet oder, falls das Beleuchtungsbild nicht den gesamten Bildschirm, also die Gesamtbildfläche des Bildschirms, ausfüllt, ausgeschaltet ist oder nur mit der kleinstmöglichen Helligkeit leuchtet. Auf diese Weise kann mit dem Bildschirm das Messobjekt räumlich homogen mit Licht einer definierten spektralen Intensitätsverteilung beleuchtet werden.By controlling with a uniform brightness value is achieved that the respective illumination image has a uniform color, so that each pixel of the screen in this uniform color lights or, if the illumination image does not fill the entire screen, so the overall image area of the screen is turned off or only lit with the lowest possible brightness. In this way, the measured object can be spatially homogeneously illuminated with light of a defined spectral intensity distribution with the screen.
Falls beispielsweise nur ein einziger Farbkanal des Bildschirms aktiviert ist, leuchtet der Bildschirm einheitlich in der jeweiligen Grundfarbe des Bildschirms, zum Beispiel in rot, grün oder blau. Beispielsweise kann die Beleuchtungsabfolge ein rotes Beleuchtungsbild, ein grünes Beleuchtungsbild und ein blaues Beleuchtungsbild umfassen oder nur eines oder nur zwei dieser Beleuchtungsbilder. Die Steuereinheit ist beispielsweise dazu eingerichtet, den Bildschirm anzusteuern,
Durch Aktivieren mehrerer Farbkanäle gleichzeitig können einheitliche Mischungen der Grundfarben des Bildschirms erzeugt werden. Eines der Beleuchtungsbilder kann beispielsweise ein weißes Beleuchtungsbild (im Folgenden auch als Weißbild bezeichnet) sein, bei dem alle Leuchtelemente des Bildschirms aktiviert und mit dem größtmöglichen Helligkeitswert angesteuert werden. Ein weiteres Beleuchtungsbild kann beispielsweise ein schwarzes Beleuchtungsbild (im Folgenden auch als Schwarzbild bezeichnet) sein, bei dem alle Leuchtelemente des Bildschirms ausgeschaltet oder deaktiviert sind oder mit dem kleinstmöglichen Helligkeitswert angesteuert werden. Das weiße Beleuchtungsbild und das schwarze Beleuchtungsbild können beispielsweise zur Kalibrierung der übrigen Messbilder und zur Abschätzung von Umgebungslichteinflüssen verwendet werden. Die auf bestimmten Maximal- und Minimalhelligkeiten beruhende Kalibration zur Berücksichtigung von Umgebungslichteinflüssen kann beispielweise über eine lineare Funktion (Verschiebung und Skalierung) erreicht werden. Sie kann auch über eine nichtlineare Funktion erreicht werden, beispielsweise um dunkle Bereiche im Bild anzuheben oder helle Bereiche im Bild abzusenken.By activating several color channels simultaneously uniform blends of the basic colors of the screen can be generated. One of the illumination images can be, for example, a white illumination image (also referred to below as white image) in which all the illumination elements of the screen are activated and activated with the greatest possible brightness value. A further illumination image can be, for example, a black illumination image (also referred to below as a black image) in which all the illumination elements of the screen are switched off or deactivated or activated with the smallest possible brightness value. The white illumination image and the black illumination image can be used, for example, to calibrate the remaining measurement images and to estimate ambient light influences. The calibration based on certain maximum and minimum brightness levels for the consideration of ambient light influences can be achieved, for example, by a linear function (displacement and scaling). It can also be achieved via a non-linear function, for example, to raise dark areas in the image or to lower light areas in the image.
Zur Definition der Beleuchtungsbilder können beispielsweise einer oder mehrere der folgenden Beleuchtungsparameter verwendet werden:
Jedes der Beleuchtungsbilder ist typischerweise zusammenhängend. Beispielsweise kann eines, mehrere oder jedes der Beleuchtungsbilder die Gesamtbildfläche des Bildschirms jeweils vollständig ausfüllen. Es ist aber auch möglich, dass eines, mehrere oder jedes der Beleuchtungsbilder jeweils nur einen Teilbereich der Gesamtbildfläche des Bildschirms ausfüllen, wobei der Bildschirm außerhalb des vom Beleuchtungsbild ausgefüllten Teilbereichs typischerweise schwarz ist (d.h. Leuchtelemente sind ausgeschaltet oder nicht aktiviert, leuchten also nicht oder nur mit der kleinstmöglichen Helligkeit). Der von den Beleuchtungsbildern jeweils ausgefüllte Bildschirmbereich entspricht beispielsweise mindestens 1/6, 1/5, 1/4, 1/3, 1/2 oder mehr der Gesamtbildfläche des Bildschirms. Beispielsweise kann die Beleuchtungsbildfolge R Beleuchtungsbilder umfassen, die jeweils etwa nur 1/R-tel der Gesamtbildfläche des Bildschirms ausfüllen, wobei R beispielsweise eine natürliche Zahl ist, die größer 2 und beispielsweise kleiner als 20 ist. Typischerweise liegt sie zwischen 3 und 10. Beispielsweise ist also R = 3, 4, 5 oder 6. Typischerweise überlappen die jeweils ausgefüllten Teilbereiche der Beleuchtungsbilder sich auf dem Bildschirm nicht gegenseitig.Each of the illumination images is typically contiguous. For example, one, several or each of the illumination images may completely fill the entire image area of the screen. But it is also possible that one, several or each of the illumination images each fill only a portion of the overall image area of the screen, the screen is outside the area filled by the illumination image typically black (ie lighting elements are off or not activated, so do not light or only with the smallest possible brightness). For example, the screen area filled in by the illumination images is at least 1/6, 1/5, 1/4, 1/3, 1/2, or more of the overall screen area. For example, the illumination image sequence R may comprise illumination images each filling approximately only 1 / Rth of the total image area of the screen, where R is for example a natural number that is greater than 2 and, for example, less than 20. Typically, it is between 3 and 10. Thus, for example, R = 3, 4, 5 or 6. Typically, the respective filled partial regions of the illumination images do not overlap one another on the screen.
Die ausgefüllten Teilbereiche der Beleuchtungsbilder können an einer gleichen Stelle innerhalb der Gesamtbildfläche des Bildschirms angeordnet sein. Typischerweise unterscheiden sich die Beleuchtungsbilder dann aber zumindest in ihrer Farbe voneinander. Alternativ ist es möglich, dass sich die Beleuchtungsbilder nicht nur in ihrer Farbe unterscheiden, sondern auch in ihrer Anordnung auf dem Bildschirm. Außerdem ist es möglich, dass sich die Beleuchtungsbilder nicht in ihrer Farbe unterscheiden, sondern nur in ihrer Anordnung auf dem Bildschirm.The filled-in portions of the illumination images may be located at a same location within the overall image area of the screen. Typically, however, the illumination images then differ from each other at least in their color. Alternatively, it is possible that the illumination images differ not only in their color but also in their arrangement on the screen. In addition, it is possible that the illumination images do not differ in their color, but only in their arrangement on the screen.
Beispielsweise kann der Bildinhalt eines jeden Beleuchtungsbildes jeweils eine einfarbig ausgefüllte Fläche sein (welche den genannten Teilbereich typischerweise vollständig ausfüllt), wobei die Farbe beispielsweise eine der Grundfarben (z.B. rot, grün oder blau) des Bildschirms sein kann oder weiß (alle Farbkanäle mit gleicher, vorzugsweiser maximaler Helligkeit), wie oben beschrieben wurde.For example, the image content of each illumination image may each be a solid filled area (which typically completely fills that portion), where the color may be one of the primary colors (eg, red, green, or blue) of the screen, or white (all color channels having the same, preferably maximum brightness) as described above.
Haben die Beleuchtungsbilder die gleiche Farbe und unterscheiden sie sich nur in ihrer Position auf dem Bildschirm, so handelt es sich bei den Beleuchtungsbildern typischerweise jeweils um einfarbig ausgefüllte Flächen (welche die jeweiligen Teilbereiche vollständig ausfüllen), wobei die Farbe beispielsweise jeweils die gleiche Grundfarbe (z.B. rot, grün oder blau) des Bildschirms oder weiß (alle Farbkanäle mit gleicher, vorzugsweiser maximaler Helligkeit) ist.If the illumination images have the same color and differ only in their position on the screen, then the illumination images are typically in each case filled with monochrome surfaces (which completely fill the respective subregions), the color, for example, each having the same base color (eg red, green or blue) of the screen or white (all color channels with the same, preferably maximum brightness).
Beispielsweise kann die Gesamtbildfläche des Bildschirms einen oberen Rand, einen unteren Rand, einen linken Rand und einen rechten Rand aufweisen, wobei sich die ausgefüllten Teilbereiche der Beleuchtungsbilder in ihrem Abstand von dem oberen Rand der Gesamtbildfläche des Bildschirms voneinander unterscheiden, wobei das Objektiv oberhalb des oberen Rands der Gesamtbildfläche des Bildschirms angeordnet ist.For example, the overall image area of the screen may have an upper edge, a lower edge, a left edge, and a right edge, with the filled portions of the illumination images being different in distance from the upper edge of the overall image area of the screen, with the lens above the upper Rands of the overall picture area of the screen is arranged.
Beispielsweise kann die Beleuchtungsbildfolge mittels eines oder mehrerer folgender weiterer Beleuchtungsparameter definiert sein:
Die Gesamtzahl der Beleuchtungsbilder ergibt sich beispielsweise aus der Anzahl der Farbkanäle der Kamera und des Bildschirms. Haben beide beispielsweise drei einander entsprechende Farbkanäle (beispielsweise rot, grün und blau), so kann die Beleuchtungsbildfolge zumindest drei Beleuchtungsbilder beinhalten, nämlich eines für jeden Farbkanal (rot, grün und blau). Zusätzlich kann die Beleuchtungsbildfolge das oben beschriebene Weißbild und das Schwarzbild beinhalten, so dass die Beleuchtungsbildfolge dann beispielsweise (zumindest) fünf Beleuchtungsbilder beinhaltet. Die Reihenfolge kann beispielsweise beliebig festgelegt sein. Die Anzeigedauer ist zumindest so lang gewählt, dass der Bildsensor beim Aufnehmen der Messbilder ausreichend belichtet werden kann. Die Anzeigedauer liegt typischerweise in einem Bereich zwischen 10 ms und 500 ms, vorzugsweise in einem Bereich zwischen 100 ms und 200 ms. Die Beleuchtungsbilder werden typischerweise zeitlich nacheinander und nicht gleichzeitig angezeigt. Der zeitliche Abstand zwischen dem Anzeigen der einzelnen Beleuchtungsbilder liegt typischerweise in einem Bereich zwischen 1 ms und 20 ms, vorzugsweise in einem Bereich zwischen 5 ms und 10 ms. Eine Gesamtdauer zum Erfassen der Messbilder liegt somit typischerweise in einem Bereich zwischen 60 ms und 3000 ms.The total number of illumination images results, for example, from the number of color channels of the camera and the screen. If, for example, both have three corresponding color channels (for example red, green and blue), then the illumination sequence can contain at least three illumination images, namely one for each color channel (red, green and blue). In addition, the illumination sequence may include the white image and the black image described above, so that the illumination image sequence then For example, includes (at least) five lighting images. The order can be set arbitrarily, for example. The display duration is at least selected so long that the image sensor can be sufficiently exposed when taking the measurement images. The display duration is typically in a range between 10 ms and 500 ms, preferably in a range between 100 ms and 200 ms. The illumination images are typically displayed one after the other and not simultaneously. The time interval between the display of the individual illumination images is typically in a range between 1 ms and 20 ms, preferably in a range between 5 ms and 10 ms. A total duration for acquiring the measurement images is thus typically in a range between 60 ms and 3000 ms.
Jedes der aufgenommenen Messbilder beinhaltet eine Vielzahl von Bildpunkten sowie Bilddaten, die den jeweiligen Bildpunkten zugeordnet sind. Wie oben beschrieben worden ist, kann das System eine Auswerteeinheit umfassen, welche Teil des Geräts (beispielsweise als logische oder integrierte Einheit des Prozessors des Geräts) oder Teil einer anderen Komponente des Systems (beispielsweise als logische oder integrierte Einheit des Prozessors dieser jeweiligen Komponente), beispielsweise eines Computerservers sein kann.Each of the captured measurement images includes a plurality of pixels and image data associated with the respective pixels. As described above, the system may comprise an evaluation unit which is part of the device (for example as a logical or integrated unit of the processor of the device) or part of another component of the system (for example as a logical or integrated unit of the processor of that particular component), For example, a computer server can be.
Die Auswerteeinheit ist beispielsweise eingerichtet, beispielsweise mittels des Computerprogrammprodukts, die Bildpunkte der Messbilder zusammenzuführen und die Bilddaten zusammengeführter Bildpunkte zu Messdatensätzen der jeweiligen zusammengeführten Bildpunkte zusammenzufassen. Typischerweise erfolgt die Zusammenführung der Bildpunkte mittels einer Bildregistrierung der Messbilder. Die zusammengeführten Bildpunkte bilden dann ein einzelnes registriertes Messbild, die Bildpunkte des registrierten Messbildes beinhalten die jeweils zugeordneten Messdatensätze.The evaluation unit is set up, for example, by means of the computer program product to merge the pixels of the measurement images and to combine the image data of merged pixels into measurement data sets of the respective merged pixels. Typically, the merging of the pixels takes place by means of an image registration of the measurement images. The merged pixels then form a single registered measurement image, the pixels of the registered measurement image contain the respectively associated measurement data records.
Für die Bildregistrierung der Messbilder sind typischerweise Bildtransformationen der Messbilder erforderlich, z.B. (lokale) Koordinatentransformationen (Drehungen, Verschiebungen, Verkippung und/oder (lokale) Reskalierungen, Subpixelinterpolation), um Relativbewegungen zwischen dem Gerät und dem Messobjekt während der Aufnahme der Messbilder zu kompensieren bzw. herauszurechnen. Im Idealfall besteht eine 1:1-Korrepondenz zwischen den Bildpunkten der Messbilder, typischerweise aber eine 1:X-Korrespondenz, wobei X ≠ 1. Bei X≠1 werden die Messwerte der zusammengeführten Bildpunkte typischerweise interpoliert oder gemittelt, um die Messdatensätze zu ermitteln.Image registration of the measurement images typically requires image transformations of the measurement images, e.g. (local) coordinate transformations (rotations, displacements, tilting and / or (local) rescaling, subpixel interpolation) in order to compensate for relative movements between the device and the measurement object during acquisition of the measurement images. Ideally, there is a 1: 1 correspondence between the pixels of the measurement images, but typically a 1: X correspondence, where X ≠ 1. At X ≠ 1, the measurements of the merged pixels are typically interpolated or averaged to determine the measurement data sets.
Beispielsweise kann auf der Grundlage der Messbilder, vorzugsweise auf der Grundlage des registrierten Messbildes, ein Objekterkennungsalgorithmus durchgeführt werden, um in dem Messbild bzw. in dem registrierten Messbild solche Bildpunkte zu erkennen, die das Messobjekt abbilden. Diese Bildpunkte werden im Folgenden als Objektbildpunkte bezeichnet. Jeder dieser erkannten Objektbildpunkte bildet in dem Messbild bzw. in dem registrierten Messbild einen Teilbereich auf der Oberfläche des Objektes ab. Diese Teilbereiche werden nachfolgend als Objektpunkte bezeichnet. Beispielsweise kann der Objekterkennungsalgorithmus einen „Region growing“-Algorithmus beinhalten. Zu Beginn dieses Algorithmus wird ein erster Bildpunkt definiert, von dem angenommen wird, dass er ein Objektbildpunkt ist. Als erster Bildpunkt kann beispielsweise ein Bildpunkt in der Mitte eines der Messbilder oder des registrierten Messbildes definiert werden. Alternativ kann der erste Bildpunkt auch durch den Nutzer über die Benutzerschnittstelle definiert werden. Beispielsweise durch Markieren eines Bereichs auf einem mit dem Bildschirm angezeigten Messbildes oder angezeigten registrierten Messbildes, insbesondere wenn der Bildschirm als Touchscreen ausgestaltet ist. Anschließend wird geprüft, wie stark die Messdatensätze benachbarter Bildpunkte von dem Messdatensatz des ersten Bildpunktes abweichen. Nur bei einer ausreichend geringen Abweichung wird ein benachbarter Bildpunkt ebenfalls als ein Objektbildpunkt klassifiziert. Dieser Algorithmus wird (ausgehend von den jeweils als neu klassifizierten Objektpunkten) solange fortgesetzt bzw. iteriert, bis keine weiteren Bildpunkte als Objektpunkte klassifiziert werden.For example, on the basis of the measurement images, preferably on the basis of the registered measurement image, an object recognition algorithm can be performed in order to recognize in the measurement image or in the registered measurement image those pixels which image the measurement object. These pixels are referred to below as object pixels. Each of these recognized object image points forms a partial area on the surface of the object in the measurement image or in the registered measurement image. These subareas are referred to below as object points. For example, the object recognition algorithm may include a "region growing" algorithm. At the beginning of this algorithm, a first pixel is defined, which is assumed to be an object pixel. For example, a pixel in the middle of one of the measurement images or the registered measurement image can be defined as the first pixel. Alternatively, the first pixel may also be defined by the user via the user interface. For example, by marking a region on a measurement image displayed on the screen or displayed registered measurement image, in particular if the screen is designed as a touchscreen. Subsequently, it is checked how much the measured data records of adjacent pixels deviate from the measured data record of the first pixel. Only with a sufficiently small deviation is an adjacent pixel also classified as an object pixel. This algorithm is continued or iterated (starting from the respectively newly classified object points) until no further pixels are classified as object points.
Weisen der Bildschirm und die Kamera mehrere Farbkanäle auf und unterscheiden sich die Beleuchtungsbilder in ihrer Farbe, wie oben beschrieben wurde, kann jeder der Messdatensätze beispielsweise ein sogenannter „spektraler Fingerabdruck“ des Messobjekts in dem zugehörigen Objektpunkt des Messobjekts sein. Weist der Bildschirm beispielsweise M Farbkanäle und die Kamera beispielsweise N Farbkanäle auf, so kann jeder der Messdatensätze beispielsweise M × N Messwerte oder mehr umfassten. Beispielsweise kann für jeden Farbkanal des Bildschirms ein Beleuchtungsbild angezeigt und für jedes dieser Beleuchtungsbilder ein Messbild aufgenommen werden, wobei die in den einzelnen Farbkanälen der Kamera gemessenen Helligkeitswerte als einzelne Messwerte in den Messdatensätzen enthalten sind. Die (ersten) M × N Messwerte des Messdatensatzes eines Objektpunktes entsprechen dabei beispielsweise den verschiedenen möglichen Kombinationen der Farbkanäle des Bildschirms mit den Farbkanälen der Kamera. Beispielsweise kann M = 3 und N=3 sein, wenn Kamera und Bildschirm jeweils die Farbkanäle rot, grün und blau aufweisen. Werden zusätzlich noch das oben beschriebene Weißbild und das Schwarzbild angezeigt und jeweils ein Messbild aufgenommen, kann jeder Messdatensatz (M + 2) × N Messwerte umfassen.If the screen and the camera have a plurality of color channels and the illumination images differ in their color, as described above, each of the measurement data sets can be, for example, a so-called "spectral fingerprint" of the measurement object in the associated object point of the measurement object. If, for example, the screen has M color channels and the camera has N color channels, for example, each of the measured data sets may comprise M × N measured values or more. For example, an illumination image can be displayed for each color channel of the screen and a measurement image can be recorded for each of these illumination images, the brightness values measured in the individual color channels of the camera being contained as individual measured values in the measurement data sets. The (first) M × N measured values of the measurement data set of an object point correspond, for example, to the various possible combinations of the color channels of the screen with the color channels of the camera. For example, M = 3 and N = 3 if the camera and the screen each have the color channels red, green and blue. Become In addition, the above-described white image and the black image are displayed and recorded in each case one measurement image, each measurement data set (M + 2) × N measured values include.
Der zu einem Objektpunkt des Messobjekts bzw. zu dessen Objektbildpunkt gehörige Messdatensatz wird im Folgenden auch mit F(d, c) bezeichnet, wenn die Kamera und der Bildschirm jeweils mehrere Farbkanäle aufweisen. Der Index d bezeichnet die Farben der Beleuchtungsbilder (oder die Farbkanäle des Bildschirms) und kann beispielsweise numerisch definiert sein und gemäß den obigen Beispielen beispielsweise 1≤d≤M oder 1≤d≤M+2 erfüllen, beispielsweise mit M=3. Alternativ kann der Index d auch durch entsprechende Buchtstaben definiert sein und gemäß den obigen Beispielen beispielsweise d = {r, g, b} oder d = {r, g, b, w, s} erfüllen, wobei r, g, b für den roten, grün bzw. blauen Farbkanal des Bildschirms oder das jeweilige rote, grüne bzw. blaue Beleuchtungsbild stehen und w für das Weißbild und s für das Schwarzbild. Entsprechend kann auch der Index c, der für die Farbkanäle der Kamera steht, numerisch definiert sein und gemäß den obigen Beispielen beispielsweise 1≤c≤N erfüllen, beispielsweise mit N=3. Alternativ kann auch der Index c durch entsprechende Buchtstaben definiert sein und gemäß den obigen Beispielen beispielsweise c = {r, g, b} erfüllen, wobei r, g, b für den roten, grün bzw. blauen Farbkanal der Kamera stehen. Beispielsweise können die in einem Messdatensatz enthaltenen Messdaten in Form einer Tabelle dargestellt werden. Für d = {r, g, b, w, s} und c = {r, g, b} beispielsweise als Tabelle 1: Beispiel für Komponenten eines Messdatensatz F(d, c) für einen Objektpunkt eines Messobjekts.
Beispielsweise enthält F(d, c) den unter der Beleuchtung mit einem Beleuchtungsbild der Grundfarbe d mit einem Sensorelement des Farbkanals c der Kamera gemessene Helligkeitswert für den jeweiligen Objektpunkt des Messobjekts.For example, F (d, c) contains the brightness value for the respective object point of the measurement object measured under illumination with an illumination image of the base color d with a sensor element of the color channel c of the camera.
Die Messdatensätze der einzelnen Bildpunkte können aber auch Gesamthelligkeitswerte ohne Farbinformationen sein. Beispielsweise kann der Messdatensatz ein sogenannter „Glanzmessvektor“ sein, der im Folgenden auch als G(a) bezeichnet wird, wobei der Index a die einzelnen Beleuchtungsbilder der Beleuchtungsbildfolge repräsentiert.However, the measurement data sets of the individual pixels can also be total brightness values without color information. For example, the measurement data set may be a so-called "gloss measurement vector", which is also referred to below as G (a), where the index a represents the individual illumination images of the illumination sequence.
Beispielsweise können, wie oben beschrieben, R Beleuchtungsbilder vorgesehen sein, welche, wie oben beschrieben, jeweils 1/R-tel der Gesamtbildschirmfläche abdecken und sich gegenseitig typischerweise nicht überschneiden. Sie unterscheiden sich in ihrer Position auf dem Bildschirm und decken zusammengenommen (würden sie gleichzeitig angezeigt werden) den Gesamtbildschirm ab. Die ausgefüllten Teilbereiche der Beleuchtungsbilder unterscheiden sich in ihrem Abstand von dem oberen Rand der Gesamtbildfläche des Bildschirms voneinander, wobei das Objektiv oberhalb des oberen Rands der Gesamtbildfläche des Bildschirms angeordnet ist. Außerdem kann die Beleuchtungsbildfolge das bereits oben beschriebene Weißbild und das Schwarzbild enthalten. Der Index a kann dann beispielsweise numerisch definiert sein und beispielsweise 1≤a≤R oder 1≤a≤R+2 (mit Weißbild und Schwarzbild) erfüllen. Der „Glanzmessvektor“ G(a) hat für R=3 beispielsweise die folgenden Komponenten: Tabelle 2: Beispiel für Komponenten eines Messdatensatz G(a) für einen Objektpunkt eines Messobjekts.
Typischerweise sind alle Farbkanäle des Bildschirms in den jeweiligen Teilbereichen mit dem größtmöglichen Helligkeitswert angesteuert, so dass diese Beleuchtungsbilder weiß erscheinen. Beispielsweise enthält der Glanzmessvektor G(a) für jeden Index a einen Gesamthelligkeitswert, der unter der Beleuchtung mit dem Beleuchtungsbild mit dem Index a mit allen Sensorelementen der Kamera im jeweiligen Objektbildpunkt gemessenen worden ist.Typically, all the color channels of the screen in the respective subareas are driven with the greatest possible brightness value, so that these illumination images appear white. For example, the gloss measurement vector G (a) for each index a contains a total brightness value which has been measured under the illumination with the illumination image with the index a with all the sensor elements of the camera in the respective object pixel.
Prinzipiell ist es aber auch möglich, dass die Beleuchtungsbildfolge Beleuchtungsbilder umfasst, die sich sowohl in ihrer spektralen Zusammensetzung bzw. Farbe als auch, wie oben beschrieben, durch die Position a der jeweils ausgefüllten Teilbereiche voneinander unterscheiden. Beispielsweise kann für jede Position a der oben beschriebene spektrale Fingerabdruck F(c,d) erfasst werden, wobei die farbigen Beleuchtungsbilder nur den beschriebenen Teilbereich in dieser Position a ausfüllen. Auf diese Weise lässt sich für jeden Objektpunkt ein Messdatensatz H(c,d,a) erzeugen, der Informationen sowohl über die spektralen Reflexionseigenschaften wie auch über den Glanz des Messobjekts in dem jeweiligen Objektpunkt beinhaltet. In principle, however, it is also possible for the illumination sequence to comprise illumination images which differ from one another in terms of their spectral composition or color as well as, as described above, by the position a of the subregions filled in each case. For example, for each position a, the above-described spectral fingerprint F (c, d) can be detected, wherein the colored illumination images fill only the described partial area in this position a. In this way, a measurement data set H (c, d, a) can be generated for each object point, which contains information about both the spectral reflection properties and the gloss of the measurement object in the respective object point.
Durch eine Auswertung des Glanzmessvektors G(a) wie auch des Messdatensatzes H(c, d, a) können beispielsweise Rückschlüsse auf die Glanzeigenschaften eines Messobjekts gezogen werden. Als Messobjekt kommen, neben vielen anderen möglichen Beispielen, beispielsweise (menschliche oder tierische) Haare in Frage bzw. eine von vielen nebeneinander liegenden (menschlichen) Haaren gebildete Oberfläche.By evaluating the gloss measurement vector G (a) as well as the measurement data set H (c, d, a), it is possible, for example, to draw conclusions about the gloss properties of a measurement object. As a measuring object come, among many other possible examples, for example, (human or animal) hair in question or one of many adjacent (human) hair surface formed.
Je nach Anzahl der Bildpunkte bzw. Objektbildpunkten in den Messbildern können durch das Aufnehmen der Messbilder während einer Beleuchtungsbildfolge Hunderte, Tausende oder Millionen von Messdatensätzen des Messobjekts erzeugt werden.Depending on the number of pixels or object pixels in the measurement images, hundreds, thousands or millions of measurement data sets of the measurement object can be generated by taking the measurement images during an illumination sequence.
Die Auswerteeinheit kann beispielsweise eingerichtet sein, einen, mehrere oder jeden der Messdatensätze, wie beispielsweise den oben beschriebenen spektralen Fingerabdruck F(c, d), den Glanzmessvektor G(a) und/oder den Messdatensatz H(c, d, a), mit mindestens einem vordefinierten Referenzdatensatz zu vergleichen. Ein Ergebnis dieses Vergleichs kann beispielsweise eine Maßzahl sein, welche bemisst, wie stark sich der jeweilige Messdatensatz von dem jeweiligen Referenzdatensatz unterscheidet. Beispielsweise kann der mindestens eine Referenzdatensatz in einem Merkmalsraum definiert sein und die Messdatensätze vor dem Vergleich mittels der Auswerteeinheit zunächst in diesen Merkmalsraum transformiert werden, um anschließend den Vergleich zwischen Messdatensatz und Referenzdatensatz in dem Merkmalsraum durchzuführen.The evaluation unit may, for example, be equipped with one, several or each of the measurement data sets, such as the spectral fingerprint F (c, d) described above, the gloss measurement vector G (a) and / or the measurement data set H (c, d, a) to compare at least one predefined reference data set. A result of this comparison can be, for example, a measure which measures how much the respective measurement data record differs from the respective reference data record. For example, the at least one reference data record can be defined in a feature space and the measurement data records can first be transformed into this feature space by means of the evaluation unit before the comparison, in order then to perform the comparison between the measurement data set and the reference data record in the feature space.
Bei mehreren Referenzdatensätzen kann ein Ergebnis die Identifikation desjenigen Referenzdatensatzes sein, von dem sich der jeweilige Messdatensatz am wenigsten unterscheidet. Es kann beispielsweise ein Ranking erzeugt werden, wobei derjenige Referenzdatensatz einen umso höheren Rang erhält, je weniger sich der jeweilige Messdatensatz von diesem unterscheidet. Durch die Identifikation des Referenzdatensatzes mit dem höchsten Rang kann mittels der Auswerteeinheit eine Klassifikation des jeweiligen Messdatensatzes erfolgen.In the case of several reference data sets, a result may be the identification of the reference data record from which the respective measurement data set is the least different. For example, a ranking can be generated, wherein the reference data set acquires the higher the rank, the less the respective measurement data set differs from it. By the identification of the reference data record with the highest rank, a classification of the respective measurement data set can take place by means of the evaluation unit.
Nach dem Vergleich mehrerer oder aller Messdatensätze mit den (mehreren) Referenzdatensätzen kann derjenige Referenzdatensatz identifiziert werden, der bei dem beschriebenen Ranking am besten abgeschnitten hat, der beispielsweise am häufigsten den obersten Rang erhalten hat und somit einen höchsten Gesamtrang erhält (per „Mehrheitsentscheidung“). Hierdurch kann mittels der Auswerteeinheit eine Klassifikation des Messobjekts als Ganzes erfolgen.After comparing several or all measurement data sets with the (multiple) reference data records, the reference data set that has performed best in the described ranking can be identified, for example, which has most often received the highest rank and thus receives the highest overall rank (by "majority decision"). , In this way, by means of the evaluation unit, a classification of the measurement object as a whole can take place.
Der identifizierte Referenzdatensatz mit dem höchsten Gesamtrang kann beispielsweise über eine Nutzerschnittstelle, beispielsweise über den Bildschirm des Geräts, als Messergebnis ausgegeben werden. Anstelle des identifizierten Referenzdatensatzes mit dem höchsten Gesamtrang kann auch eine mit diesem Referenzdatensatz korrespondierende Eigenschaft des Messobjekts oder eine korrespondierende Klassifikation des Messobjekts auf entsprechende Weise ausgegeben werden.The identified reference data record with the highest overall rank can be output, for example via a user interface, for example via the screen of the device, as a measurement result. Instead of the identified reference data record having the highest overall rank, a property of the DUT corresponding to this reference data record or a corresponding classification of the DUT can also be output in a corresponding manner.
Die Auswerteeinheit kann eingerichtet sein, den oben beschriebenen Vergleich zwischen den Messdatensätzen und den Referenzdatensätzen mittels eines - entsprechend trainierten bzw. optimierten - künstlichen neuronalen Netzes durchzuführen. Die beschriebene Klassifikation der Messdatensätze und des Messobjekts als Ganzes kann in diesem Fall beispielsweise mittels eines mathematischen Klassifikationsmodells auf Basis dieses künstlichen neuronalen Netzes erfolgen. Das künstliche neuronale Netz kann beispielsweise ein Mehrschichtperzeptron sein, welches beispielsweise zwei Schichten oder mehr als zwei Schichten aufweisen kann, insbesondere verborgene (innere) Schichten.The evaluation unit can be set up to carry out the above-described comparison between the measurement data records and the reference data records by means of a - correspondingly trained or optimized - artificial neural network. The described classification of the measurement data sets and of the measurement object as a whole can be done in this case, for example, by means of a mathematical classification model based on this artificial neural network. The artificial neural network may, for example, be a multi-layer perceptron, which may for example have two layers or more than two layers, in particular hidden (inner) layers.
Das künstliche neuronale Netz kann mittels Trainingsfällen trainiert worden sein. Beispielsweise können bei einem überwachten Lernverfahren eine Vielzahl von Trainingsfällen jeweils durch einen Eingangsvektor und einen Ausgangsvektor gegeben sein. Als Eingangsvektoren dienen beispielsweise die oben beschriebenen Messdatensätze von Messbildern eines bekannten Messobjekts, die mit dem vorgeschlagenen Verfahren erzeugt wurden. Als Ausgangsvektoren dienen beispielsweise Messwerte, die unabhängig von den Messbildern gewonnen wurden und die bestimmte, interessierende Eigenschaften des Messobjekts charakterisieren (zum Beispiel chemische Zusammensetzung, Reifegrad, Glanzeigenschaften oder andere interessende Eigenschaften des Messobjekts). Anschließend wird das künstliche neuronale Netz (d.h. dessen Parameter) für diese Trainingsfälle optimiert, beispielsweise mittels einer Fehlerrückführung (Backpropagation). Weitere Details zu derartigen Techniken können beispielsweise den folgenden Lehrbüchern entnommen werden:
Der vordefinierte mindestens eine Referenzdatensatz kann beispielsweise in einem Datenspeicher gespeichert sein, beispielsweise in dem internen Datenspeicher des mobilen elektronischen Geräts oder einer anderen Komponente des Systems, beispielsweise eines Computerservers. Die Auswerteeinheit kann eingerichtet sein, automatisch auf diesen Datenspeicher zuzugreifen und die Referenzdatensätze von dem Datenspeicher abzurufen, um den beschriebenen Vergleich durchführen zu können. Beispielsweise kann die Auswerteinheit eingerichtet sein, die Referenzdatensätze in Abhängigkeit von einer Eingabe über die Nutzerschnittstelle durchzuführen. Beispielsweise kann vorgesehen sein, dass mittels der Nutzerschnittstelle eingegeben wird, welche Art von Messobjekt untersucht werden soll und welche Eigenschaften dieses Messobjekts untersucht werden sollen.The predefined at least one reference data record can be stored, for example, in a data memory, for example in the internal data memory of the mobile electronic device or another component of the system, for example a computer server. The evaluation unit can be set up to automatically access this data memory and to retrieve the reference data records from the data memory in order to be able to carry out the described comparison. For example, the evaluation unit may be set up to execute the reference data sets as a function of an input via the user interface. For example, it can be provided that the user interface is used to enter which type of measurement object is to be examined and which properties of this measurement object are to be investigated.
Die Auswerteeinheit kann eingerichtet sein, bei der Auswertung der Messdatensätze die spektrale Empfindlichkeit Cc(λ) der Kamera oder die spektrale Emissionscharakteristik Dd(λ) des Bildschirms oder beides zu berücksichtigen. (Die Indizes c und d sind definiert wie oben beschrieben.) Auf diese Weise ist es beispielsweise möglich, die Vergleichbarkeit der Messdatensätze, die mittels verschiedener Bildschirme und Kameras gewonnen wurden, zu verbessern, insbesondere die Vergleichbarkeit des oben beschriebenen spektralen Fingerabdrucks F(d, c) oder des Glanzmessvektors G(a). Die spektrale Empfindlichkeit Cc(λ) der Kamera und die spektrale Emissionscharakteristik Dd(λ) des Bildschirms können beispielsweise mittels eines Spektrometers gemessen werden oder den jeweiligen Herstellerangaben entnommen werden.The evaluation unit can be set up to take into account the spectral sensitivity Cc (λ) of the camera or the spectral emission characteristic Dd (λ) of the screen or both in the evaluation of the measurement data records. (The indices c and d are defined as described above.) In this way it is possible, for example, to improve the comparability of the measurement data records obtained by means of different screens and cameras, in particular the comparability of the spectral fingerprint F (d, d) described above. c) or the gloss measurement vector G (a). The spectral sensitivity Cc (λ) of the camera and the spectral emission characteristic Dd (λ) of the screen can be measured, for example, by means of a spectrometer or taken from the respective manufacturer's instructions.
Zusätzlich oder alternativ zur oben beschriebenen Auswertung kann die Auswerteeinheit eingerichtet sein, unter Berücksichtigung der spektralen Empfindlichkeit Cc(λ) der Kamera und der spektralen Emissionscharakteristik Dd(λ) des Bildschirms aus den Messdatensätzen eine Reflexionscharakteristik des Messobjekts zu ermitteln. Bei der genannten Reflexionscharakteristik kann es sich beispielsweise um das Reflexionsspektrum des Messobjekts (in den jeweiligen Objektpunkten) handeln, welche die Abhängigkeit des Reflexionsgrads des Messobjekts (in den jeweiligen Objektpunkten) von der Wellenlänge des Lichts bemisst. Das ermittelte Reflexionsspektrum erlaubt in vielen Fällen Rückschlüsse auf die (bio-)chemische Zusammensetzung des Messobjekts (zumindest auf dessen Oberfläche) oder hiermit korrelierten Eigenschaften des Messobjekts.In addition or as an alternative to the above-described evaluation, the evaluation unit can be set up to determine a reflection characteristic of the measurement object from the measurement data records, taking into account the spectral sensitivity Cc (λ) of the camera and the spectral emission characteristic Dd (λ) of the screen. The reflection characteristic mentioned can be, for example, the reflection spectrum of the measurement object (in the respective object points), which measures the dependence of the reflectance of the measurement object (in the respective object points) on the wavelength of the light. The determined reflection spectrum in many cases allows conclusions to be drawn about the (bio) chemical composition of the test object (at least on its surface) or correlated properties of the test object.
Allgemein lässt sich der Zusammenhang zwischen dem gemessenen „spektralen Fingerabdruck“ F(d, c) des Messobjekts in einem Objektpunkt und dem eigentlich interessierenden (unbekannten) Reflexionsspektrum S(λ) des Messobjekts in diesem Objektpunkt mathematisch schreiben als Integral über den gesamten Wellenlängenbereich:
Die spektrale Emissionscharakteristik Dd(λ) mit d = {r, g, b, w, s} des Bildschirms und die die spektrale Empfindlichkeit Cc(λ) der Kamera c = {r, g, b} sind definiert wie oben beschrieben. Es können spektrale Kanäle Sk als Mittelwerte über den jeweiligen Wellenlängenbereich [Ak, Ak+1] zwischen den Wellenlängen Ak und Ak+1 definiert werden mit ΔA = Ak+1 - Ak:
Die Komponenten des spektralen Fingerabdrucks F(d, c) lassen sich dann näherungsweise als Summe über die spektralen Kanäle Sk auffassen, also als:
Die spektrale Kanäle Sk sind von den gerätespezifischen Größen Dd(λ) und Cc(λ) nicht (oder nur relativ schwach) abhängig und eignen sich daher besonders gut für eine gerätetypübergreifende Anwendung. Typischerweise umfassen die spektralen Kanäle Sk den gesamten Wellenlängenbereich des Displays und der Kamera. Bei bekannten gerätespezifischen Größen Dd(λ) und Cc(λ) ergibt sich bei einer Messung des spektralen Fingerabdrucks F(d, c) ein Gleichungssystem (Gleichung 3) mit den spektralen Kanälen Sk als Unbekannte. Ist das Gleichungssystem hinreichend linear unabhängig, kann es gelöst werden und man erhält die gesuchten spektralen Kanäle Sk. Die Anzahl und Lage der spektralen Kanäle Sk können hierfür geeignet gewählt werden. Wird die Anzahl der spektralen Kanäle Sk zu hoch gewählt, ist das Gleichungssystem jedoch nicht mehr ausreichend linear unabhängig. In einigen Anwendungen, beispielsweise mit marktüblichen Smartphones, lässt sich das Gleichungssystem bei einer Anzahl von beispielsweise 5 bis 6 Kanälen Sk in vielen Fällen lösen. Unter Ausnutzung nichtlinearer Effekte lassen sich in manchen Fällen eine höhere Anzahl von Kanälen Sk erzielen. Die mögliche Anzahl und Lage der berechenbaren Kanäle Sk für das jeweilige Gerät hängen in der Regel von den Unterschieden zwischen den gerätespezifischen Größen Dd(λ) und Cc(λ) und von Rauscheinflüssen ab. In manchen Fällen lassen sich beispielsweise auch 15 Kanäle Sk realisieren.The spectral channels Sk are not dependent on the device-specific variables Dd (λ) and Cc (λ) (or only relatively weak) and are therefore particularly well suited for a device-type application. Typically, the spectral channels Sk cover the entire wavelength range of the display and the camera. In known device-specific sizes Dd (λ) and Cc (λ) results in a measurement of the spectral fingerprint F (d, c) a system of equations (Equation 3) with the spectral channels Sk as the unknowns. If the system of equations is sufficiently linearly independent, it can be solved and the desired spectral channels Sk are obtained . The number and location of the spectral channels Sk can be suitably selected for this purpose. If the number of spectral channels Sk is selected to be too high, however, the equation system is no longer sufficiently linearly independent. In some applications, for example with commercially available smartphones, the equation system can be solved in a number of, for example, 5 to 6 channels Sk in many cases. By taking advantage of nonlinear effects, in some cases a higher number of channels Sk can be achieved. The possible number and location of the calculable channels Sk for the respective device generally depend on the differences between the device-specific variables Dd (λ) and Cc (λ) and on noise influences. In some cases, for example, 15 channels Sk can also be realized.
Das auf die oben beschriebene Weise bestimmte Reflexionsspektrum S(λ) ist eine Näherung mit einer begrenzten Genauigkeit. Dennoch lassen sich hiermit nützliche Anwendungen umsetzen.The reflection spectrum S (λ) determined in the manner described above is an approximation with a limited accuracy. Nevertheless, useful applications can be implemented herewith.
Alternativ oder zusätzlich zu den spektralen Kanälen Sk kann die genannte Reflexionscharakteristik beispielsweise auch die Abhängigkeit des Reflexionsgrads des Messobjekts (in den jeweiligen Objektpunkten) von dem Einfallwinkel des Lichts auf das Messobjekt (in dem jeweiligen Objektpunkten) sein oder beinhalten. Der winkelabhängige Reflexionsgrad erlaubt In vielen Fällen objektive Rückschlüsse auf den Glanz einer Oberfläche, also auf den Anteil des auf der Oberfläche des Messobjekts gerichtet reflektierten Lichts (im Unterschied zum diffus reflektierten Licht). Beispielsweise kann dieser winkelabhängige Reflexionsgrad auf der Grundlage des oben beschriebenen Glanzmessvektors G(a) oder des Messdatensatzes H(c,d,a) für jeden Objektpunkt ermittelt oder quantitativ abgeschätzt werden. Bei einer stark glänzenden Oberfläche zeigt der winkelabhängige Reflex der Oberfläche typischerweise ein besonders hohes und schmales Intensitätsmaximum auf, wenn der Austrittswinkel der gemessenen reflektierten Strahlung genau dem Einfallswinkel der eintreffenden Strahlung entspricht. Beispielsweise kann ein Histogramm über die Helligkeiten der einzelnen Pixel berechnet werden. Auf Basis des Histogramms bzw. dessen Eigenschaften kann beispielsweise über Schwellwerte oder eine Analyse des Histogramms eine Maßzahl für die Reflexion bezogen auf den Winkel (entsprechend dem aktuell beleuchteten Teil des Bildschirms) berechnet werden.As an alternative or in addition to the spectral channels Sk , the reflection characteristic mentioned may also be or include the dependence of the reflectance of the measurement object (in the respective object points) on the angle of incidence of the light on the measurement object (in the respective object points). In many cases, the angle-dependent reflectance allows objective conclusions to be drawn about the gloss of a surface, ie the proportion of the light reflected on the surface of the test object (in contrast to the diffusely reflected light). For example, this angle-dependent reflectance can be determined or quantitatively estimated on the basis of the above described gloss measurement vector G (a) or the measurement data set H (c, d, a) for each object point. In the case of a strongly glossy surface, the angle-dependent reflection of the surface typically exhibits a particularly high and narrow intensity maximum if the exit angle of the measured reflected radiation exactly corresponds to the angle of incidence of the incident radiation. For example, a histogram of the brightnesses of the individual pixels can be calculated. On the basis of the histogram or its properties, it is possible to calculate, for example via threshold values or an analysis of the histogram, a measure of the reflection with respect to the angle (corresponding to the currently illuminated part of the screen).
Wie bereits zuvor im Zusammenhang mit den Messdatensätzen beschrieben worden ist, insbesondere im Zusammenhang mit dem spektralen Fingerabdruck F(c, d), dem Glanzvektor G(a) und dem Messdatensatzes H(c,d,a), kann die Auswerteeinheit zusätzlich oder alternativ eingerichtet sein, die ermittelten Reflexionscharakteristika des Messobjekts, also beispielsweise die spektralen Kanäle Sk oder die ermittelten Werte für den winkelabhängige Reflexionsgrad, mit mindestens einer vordefinierten Referenzreflexionscharakteristik zu vergleichen.As has already been described above in connection with the measurement data sets, in particular in connection with the spectral fingerprint F (c, d), the gloss vector G (a) and the measurement data set H (c, d, a), the evaluation unit may additionally or alternatively be set up to compare the determined reflection characteristics of the measurement object, so for example, the spectral channels Sk or the determined values for the angle-dependent reflectance, with at least one predefined reference reflection characteristic.
Für das System, das Verfahren und das Computerprogramm ergeben sich verschiedene Anwendungen, von denen einige exemplarisch und nach Anwendungskomplexen sortiert aufgezählt werden.The system, the method and the computer program result in various applications, some of which are listed as examples and sorted by application complex.
Anwendungskomplex 1:Application complex 1:
Mensch - Medizin:
Mensch - Kosmetik (Empfehlung von Pflegeprodukten und Verhaltensweisen):
Haus- und Nutztier:
Anwendungskomplex 2:Application complex 2:
Produktion und Verarbeitung pflanzlicher Produkte:
Anwendungskomplex 3:Application complex 3:
Bestimmung von Eigenschaften von Textilien, wie Leder, Fell, Stoffe natürlichen oder künstlichen Ursprungs:
Anwendungskomplex 4:Application complex 4:
Bestimmung von Eigenschaften von Lebensmitteln (Obst, Gemüse, Fisch, Fleisch, Pilze, Molkereiprodukte, verarbeitete Produkte)
Nachfolgend wird die Erfindung anhand von speziellen Ausführungsbeispielen näher erläutert, welche in den
Identische oder einander entsprechende Merkmale sind in den Figuren mit den gleichen Bezugszeichen versehen.Identical or corresponding features are provided in the figures with the same reference numerals.
Im gezeigten Beispiel sind das Gerät
Bei dem Gerät
Das Gerät umfasst ein Gehäuse
Das Gerät
Auf dem Gerät
Bei dem Computerprogrammprodukt
Die Steuereinheit
Das Gerät
Prinzipiell ist es zusätzlich oder alternativ auch möglich, dass entsprechende Auswerteschritte beispielsweise mittels des Computers
Die vordefinierte Beleuchtungsbildfolge ist in diesem Beispiel durch einen Satz von Beleuchtungsparametern, die weiter unter näher beschrieben werden, vollständig definiert. Die Beleuchtungsparameter sind auf dem Datenspeicher 9 des mobilen elektronischen Geräts
Der Bildschirm
Der Datenspeicher
Auf dem Datenspeicher
Das Gerät umfasst mehrere (drahtlose) Datenschnittstellen
Das mobile (portable) elektronische Gerät
Die Kamera
Die Kamera
Der Bildschirm
Neben einem Lautsprecher und einem Mikrophon (beides nicht dargestellt) beispielsweise für Telefonie-Anwendungen umfasst das Gerät außerdem einen wiederaufladbaren Energiespeicher
In
Die Steuereinheit
Die nicht-aktivierten Leuchtelemente der jeweils übrigen Farbkanäle werden ausgeschaltet oder jeweils mit einem kleinstmöglichen Helligkeitswert angesteuert werden.The non-activated light elements of the remaining color channels are switched off or each controlled with a minimum possible brightness value.
Das Weißbild 26 wird erzeugt, indem die Steuereinheit
Die Beleuchtungsbilder 23, 24, 25, 26, 27 der ersten Beleuchtungsbildfolge füllen die Gesamtbildfläche
In
In
Das erste, zweite und dritte Beleuchtungsbild 28, 29, 30 sind jeweils zusammenhängend und füllen jeweils nur einen Teilbereich
Die ausgefüllten Teilbereiche
Neben den oben definierten Helligkeitswerten ist die zweite Beleuchtungsbild durch folgende weitere Beleuchtungsparameter definiert:
Die Steuereinheit
In
Über die Benutzerschnittstelle
Die Auswertung kann prinzipiell von weiteren mittels des Geräts ermittelten Größen abhängen, beispielsweise von einer aktuellen Zeit und aktuellen Ortskoordinaten des Geräts
Jedes der mittels der Kamera
Wie in
Außerdem wird beispielsweise mittels der Auswerteeinheit
Handelt es sich bei den Messbildern
Handelt es sich bei den Messbildern
Es lassen sich prinzipiell beliebig viele weitere Beleuchtungsbildfolgen definieren, welche auf den jeweiligen Anwendungsfall, d.h. auf das jeweilige Messobjekt und die jeweils zu untersuchenden Eigenschaften des Messobjekts abgestimmt sind. Wie bereits oben beschrieben wurde, kann eine Beleuchtungsbildfolge Beleuchtungsbilder beinhalten, die sich sowohl in ihrer Position a auf dem Bildschirm als auch in ihrer Farbe voneinander unterscheiden. Beispielsweise kann für jede Position a der oben beschriebene spektrale Fingerabdruck F(c, d) erfasst werden, wobei die farbigen Beleuchtungsbilder nur den beschriebenen Teilbereich
Die Auswerteeinheit
Die Auswerteeinheit ist außerdem eingerichtet, unter Berücksichtigung der spektralen Empfindlichkeit Cc(λ) der Kamera und der spektralen Emissionscharakteristik Dd(λ) des Bildschirms aus den Messdatensätzen eine Reflexionscharakteristik des Messobjekts zu ermitteln.The evaluation unit is also set up, taking into account the spectral sensitivity Cc (λ) of the camera and the spectral emission characteristic Dd (λ) of the screen, to determine a reflection characteristic of the measurement object from the measurement data records.
Je nach Anwendungsfall, der beispielsweise über die Benutzerschnittstelle
Alternativ handelt es sich bei der zu ermittelnden Reflexionscharakteristik beispielsweise um die Abhängigkeit des Reflexionsgrads des Messobjekts (in den jeweiligen Objektpunkten) von dem Einfallwinkel des Lichts auf das Messobjekt (in dem jeweiligen Objektpunkten). Beispielsweise kann die Auswerteeinheit eingerichtet sein, den winkelabhängigen Reflexionsgrad auf der Grundlage des oben beschriebenen Glanzmessvektors G(a) (oder des Messdatensatzes H(c, d, a)) für jeden Objektpunkt abzuschätzen.Alternatively, the reflection characteristic to be determined is, for example, the dependence of the reflectance of the measurement object (in the respective object points) on the angle of incidence of the light on the measurement object (in the respective object points). For example, the evaluation unit may be set up to estimate the angle-dependent reflectance on the basis of the gloss measurement vector G (a) (or the measurement data set H (c, d, a)) described above for each object point.
Die Auswerteeinheit
Anschließend können die Ergebnisse der Auswertung auf dem Bildschirm
In
Schritt S1 umfasst:
Schritt S2 umfasst:
Schritt S3 umfasst:
Schritt S4 umfasst:
Schritt S5 umfasst:
Schritt S6 umfasst:
Prinzipiell ist es möglich, die Schritte S2 bis S6 alleine mit der Auswerteeinheit 13 des Geräts
Das Messobjekt
Für das vorgeschlagene Verfahren werden unter anderem folgende Ausführungsbeispiele beschrieben:
Das vorgeschlagene Computerprogrammprodukt, das in einen internen Datenspeicher des mobilen elektronischen Geräts geladen werden kann, umfasst beispielsweise Softwarecodeabschnitte, mit denen die Schritte des Verfahrens gemäß einem der Beispiele 1 bis 18 ausgeführt werden, wenn das Computerprogrammprodukt auf dem mobilen elektronischen Gerät läuft.The proposed computer program product that can be loaded into an internal data memory of the mobile electronic device comprises, for example, software code sections with which the steps of the method according to one of Examples 1 to 18 are executed when the computer program product is running on the mobile electronic device.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102016226206.8ADE102016226206A1 (en) | 2016-12-23 | 2016-12-23 | System and method for acquiring measurement images of a measurement object |
| CA3048123ACA3048123A1 (en) | 2016-12-23 | 2017-12-21 | A system and method for capturing measurement images of an object to be measured |
| RU2019121249ARU2758914C2 (en) | 2016-12-23 | 2017-12-21 | System and method for capturing measuring images of measured object |
| PCT/EP2017/084212WO2018115346A1 (en) | 2016-12-23 | 2017-12-21 | System and method for capturing measurement images of an object to be measured |
| CN201780087346.1ACN110383805B (en) | 2016-12-23 | 2017-12-21 | Method and system for capturing a measurement image of a measured object |
| AU2017383047AAU2017383047B2 (en) | 2016-12-23 | 2017-12-21 | System and method for capturing measurement images of an object to be measured |
| KR1020197021539AKR102454562B1 (en) | 2016-12-23 | 2017-12-21 | Systems and methods for capturing a measurement image of a measured object |
| JP2019534173AJP2020507103A (en) | 2016-12-23 | 2017-12-21 | System and method for capturing a measured image of a device under test |
| EP17823141.1AEP3560185B1 (en) | 2016-12-23 | 2017-12-21 | System and method for capturing measurement images of an object to be measured |
| US16/472,023US10951831B2 (en) | 2016-12-23 | 2017-12-21 | System and method for capturing measurement images of an object to be measured |
| US17/248,759US11588979B2 (en) | 2016-12-23 | 2021-02-05 | System and method for capturing measurement images of an object to be measured |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102016226206.8ADE102016226206A1 (en) | 2016-12-23 | 2016-12-23 | System and method for acquiring measurement images of a measurement object |
| Publication Number | Publication Date |
|---|---|
| DE102016226206A1true DE102016226206A1 (en) | 2018-06-28 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102016226206.8AWithdrawnDE102016226206A1 (en) | 2016-12-23 | 2016-12-23 | System and method for acquiring measurement images of a measurement object |
| Country | Link |
|---|---|
| US (2) | US10951831B2 (en) |
| EP (1) | EP3560185B1 (en) |
| JP (1) | JP2020507103A (en) |
| KR (1) | KR102454562B1 (en) |
| CN (1) | CN110383805B (en) |
| AU (1) | AU2017383047B2 (en) |
| CA (1) | CA3048123A1 (en) |
| DE (1) | DE102016226206A1 (en) |
| RU (1) | RU2758914C2 (en) |
| WO (1) | WO2018115346A1 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020216938A1 (en)* | 2019-04-24 | 2020-10-29 | University Of Ulster | Method and system for generating optical spectra |
| DE102021117494A1 (en) | 2021-07-07 | 2023-01-12 | Schneider Electric Industries Sas | Display device, method and mobile end device for the optical output of an internal operating state of an electrical device |
| US11635671B2 (en) | 2017-07-09 | 2023-04-25 | Ringo Ai, Inc. | Techniques for creating characterization matrices for reflectance, illuminance, or sensor response |
| US11640101B2 (en) | 2017-07-09 | 2023-05-02 | Ringo Ai, Inc. | Determining spectral properties of an object through sequential illumination with different colors |
| US11790510B2 (en) | 2018-06-12 | 2023-10-17 | Carl Zeiss Jena Gmbh | Material testing of optical test pieces |
| US11803105B2 (en) | 2017-07-09 | 2023-10-31 | Ringo Ai, Inc. | Electromagnetic emitters and detectors for electronic devices |
| US11943546B2 (en) | 2019-03-13 | 2024-03-26 | Ringo Ai, Inc. | White balance with reference illuminants |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015133693A (en)* | 2013-12-10 | 2015-07-23 | 株式会社半導体エネルギー研究所 | Display device, and electronic apparatus |
| DE102016226206A1 (en) | 2016-12-23 | 2018-06-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System and method for acquiring measurement images of a measurement object |
| WO2019246471A1 (en)* | 2018-06-20 | 2019-12-26 | Centric Software, Inc. | Guide-assisted capture of material data |
| CN109269643B (en)* | 2018-11-02 | 2021-05-11 | 天津津航技术物理研究所 | Spectrum demodulation system and method based on mobile device screen light source |
| US11533417B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Laser scanning and tool tracking imaging in a light deficient environment |
| US12126887B2 (en)* | 2019-06-20 | 2024-10-22 | Cilag Gmbh International | Hyperspectral and fluorescence imaging with topology laser scanning in a light deficient environment |
| US11758256B2 (en) | 2019-06-20 | 2023-09-12 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
| US11012599B2 (en) | 2019-06-20 | 2021-05-18 | Ethicon Llc | Hyperspectral imaging in a light deficient environment |
| US11937784B2 (en) | 2019-06-20 | 2024-03-26 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
| US11348334B1 (en)* | 2019-06-30 | 2022-05-31 | George Douglas MacEwen | Methods and systems for skin color matching using an imaging device and a controlled light source |
| DE102019210405A1 (en) | 2019-07-15 | 2021-01-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for the investigation of substances, computer program product for use in this method, and mobile electronic device |
| WO2021105223A1 (en) | 2019-11-26 | 2021-06-03 | F. Hoffmann-La Roche Ag | Methods and devices for performing an analytical measurement |
| US11887088B2 (en)* | 2020-01-22 | 2024-01-30 | Salesforce, Inc. | Smart moderation and/or validation of product and/or service details in database systems |
| WO2022126276A1 (en)* | 2020-12-18 | 2022-06-23 | Terramera, Inc. | Systems and methods for hyperspectral imaging of plants |
| JP7602195B2 (en)* | 2021-01-27 | 2024-12-18 | オムロン株式会社 | Photographing condition setting system, photographing condition setting method, and program |
| CN112837299B (en)* | 2021-02-09 | 2024-02-27 | 浙江工业大学 | Textile image fingerprint retrieval method |
| DE102021207924A1 (en)* | 2021-07-23 | 2023-01-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Method for monitoring and/or calibrating a device that is designed for the three-dimensional X-ray optical inspection of seedlings in different growth phases |
| CN118397021B (en)* | 2024-06-24 | 2024-08-20 | 吉林建筑大学 | A screen area division method considering visual characteristics |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2821762A1 (en)* | 2013-07-03 | 2015-01-07 | Akzo Nobel Coatings International B.V. | Process of measuring color properties of an object using a mobile device |
| US20150062584A1 (en)* | 2012-02-17 | 2015-03-05 | Color Grail Research | Method and device for measuring the colour of an object |
| WO2017055580A1 (en)* | 2015-09-30 | 2017-04-06 | Color Grail Research | Method for determining the reflectance of an object and associated device |
| EP3184977A1 (en)* | 2015-12-23 | 2017-06-28 | IMEC vzw | User device |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7092089B2 (en) | 2002-02-07 | 2006-08-15 | Rgb Technologies Ab | Method and system for chemical or biochemical analysis of a target analyte in a target environment |
| JP4899424B2 (en)* | 2005-11-04 | 2012-03-21 | トヨタ自動車株式会社 | Object detection device |
| JP2011106931A (en)* | 2009-11-16 | 2011-06-02 | Roland Dg Corp | Three-dimensional shape measuring system and mobile phone |
| US10230880B2 (en)* | 2011-11-14 | 2019-03-12 | Tseng-Lu Chien | LED light has built-in camera-assembly for colorful digital-data under dark environment |
| US9317913B2 (en)* | 2011-12-21 | 2016-04-19 | Sca Hygiene Products Ab | Method for measuring the absorption of fluid in an absorbent product |
| US20140028799A1 (en)* | 2012-07-25 | 2014-01-30 | James Kuffner | Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information |
| US20150363481A1 (en)* | 2012-09-06 | 2015-12-17 | Michael N. Haynes | Systems, Devices, and/or Methods for Managing Information |
| EP2946198B1 (en)* | 2013-01-21 | 2019-10-30 | Cornell University | Smartphone-based apparatus and method for obtaining repeatable, quantitative colorimetric measurement |
| US20140378810A1 (en)* | 2013-04-18 | 2014-12-25 | Digimarc Corporation | Physiologic data acquisition and analysis |
| JP6506507B2 (en)* | 2013-05-15 | 2019-04-24 | キヤノン株式会社 | Measurement apparatus and control method thereof |
| US9525811B2 (en)* | 2013-07-01 | 2016-12-20 | Qualcomm Incorporated | Display device configured as an illumination source |
| JP2015127680A (en)* | 2013-12-27 | 2015-07-09 | スリーエム イノベイティブ プロパティズ カンパニー | Measuring device, system and program |
| US10478127B2 (en)* | 2014-06-23 | 2019-11-19 | Sherlock Solutions, LLC | Apparatuses, methods, processes, and systems related to significant detrimental changes in health parameters and activating lifesaving measures |
| US9897434B2 (en)* | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
| RU2601678C2 (en)* | 2014-12-15 | 2016-11-10 | Самсунг Электроникс Ко., Лтд. | Portable device for measurement of chromophores in skin and method of using said device |
| US9230140B1 (en)* | 2014-12-30 | 2016-01-05 | Hand Held Products, Inc. | System and method for detecting barcode printing errors |
| US10475361B2 (en)* | 2015-02-02 | 2019-11-12 | Apple Inc. | Adjustable display illumination |
| US9521331B2 (en)* | 2015-04-21 | 2016-12-13 | Hand Held Products, Inc. | Capturing a graphic information presentation |
| US9786101B2 (en)* | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
| US9507974B1 (en)* | 2015-06-10 | 2016-11-29 | Hand Held Products, Inc. | Indicia-reading systems having an interface with a user's nervous system |
| US20160377414A1 (en)* | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
| US9835486B2 (en)* | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
| EP3118576B1 (en)* | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensioning device with dynamic accuracy compatible with nist standard |
| DE102016226206A1 (en) | 2016-12-23 | 2018-06-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System and method for acquiring measurement images of a measurement object |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20150062584A1 (en)* | 2012-02-17 | 2015-03-05 | Color Grail Research | Method and device for measuring the colour of an object |
| EP2821762A1 (en)* | 2013-07-03 | 2015-01-07 | Akzo Nobel Coatings International B.V. | Process of measuring color properties of an object using a mobile device |
| WO2017055580A1 (en)* | 2015-09-30 | 2017-04-06 | Color Grail Research | Method for determining the reflectance of an object and associated device |
| EP3184977A1 (en)* | 2015-12-23 | 2017-06-28 | IMEC vzw | User device |
| Title |
|---|
| J. Lunze: Künstliche Intelligenz für Ingenieure, Oldenbourg, 2010 |
| R. Brause: Neuronale Netze: Eine Einführung in die Neuroinformatik, Teubner, 1995 |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11635671B2 (en) | 2017-07-09 | 2023-04-25 | Ringo Ai, Inc. | Techniques for creating characterization matrices for reflectance, illuminance, or sensor response |
| US11640101B2 (en) | 2017-07-09 | 2023-05-02 | Ringo Ai, Inc. | Determining spectral properties of an object through sequential illumination with different colors |
| US11803105B2 (en) | 2017-07-09 | 2023-10-31 | Ringo Ai, Inc. | Electromagnetic emitters and detectors for electronic devices |
| US11815789B2 (en) | 2017-07-09 | 2023-11-14 | Ringo Ai, Inc. | Full-spectrum flash for electronic devices |
| US11790510B2 (en) | 2018-06-12 | 2023-10-17 | Carl Zeiss Jena Gmbh | Material testing of optical test pieces |
| US11943546B2 (en) | 2019-03-13 | 2024-03-26 | Ringo Ai, Inc. | White balance with reference illuminants |
| WO2020216938A1 (en)* | 2019-04-24 | 2020-10-29 | University Of Ulster | Method and system for generating optical spectra |
| DE102021117494A1 (en) | 2021-07-07 | 2023-01-12 | Schneider Electric Industries Sas | Display device, method and mobile end device for the optical output of an internal operating state of an electrical device |
| Publication number | Publication date |
|---|---|
| AU2017383047A1 (en) | 2019-07-11 |
| RU2019121249A3 (en) | 2021-03-04 |
| EP3560185B1 (en) | 2021-07-21 |
| AU2017383047B2 (en) | 2022-06-02 |
| US11588979B2 (en) | 2023-02-21 |
| US20200195826A1 (en) | 2020-06-18 |
| WO2018115346A1 (en) | 2018-06-28 |
| CN110383805A (en) | 2019-10-25 |
| KR20190118562A (en) | 2019-10-18 |
| CN110383805B (en) | 2021-08-24 |
| RU2758914C2 (en) | 2021-11-03 |
| EP3560185A1 (en) | 2019-10-30 |
| JP2020507103A (en) | 2020-03-05 |
| KR102454562B1 (en) | 2022-10-17 |
| US20210185212A1 (en) | 2021-06-17 |
| US10951831B2 (en) | 2021-03-16 |
| CA3048123A1 (en) | 2018-06-28 |
| RU2019121249A (en) | 2021-01-26 |
| Publication | Publication Date | Title |
|---|---|---|
| EP3560185B1 (en) | System and method for capturing measurement images of an object to be measured | |
| DE112012004493B4 (en) | Color lighting control method to improve image quality in an imaging system | |
| CN109564155B (en) | Signal processing device, signal processing method, and program | |
| EP3649459B1 (en) | System for managing hair condition information and method for optimizing a cosmetic consultation system | |
| DE112013005127T5 (en) | High precision imaging colorimeter using closed loop calibration with specially designed patterns supported by a spectrograph | |
| DE112019007102T5 (en) | ENDOSCOPE PROCESSOR, INFORMATION PROCESSING DEVICE, ENDOSCOPE SYSTEM, PROGRAM AND INFORMATION PROCESSING METHOD | |
| DE112020001631T5 (en) | SYSTEMS, DEVICES AND METHODS FOR IMPLEMENTING SPECTRAL REFLECTIVE IMAGING USING NARROW RAND EMITTERS | |
| DE102011005056A1 (en) | Active vision aid and method for vehicle | |
| DE102009029391A1 (en) | Image processing apparatus and image processing method | |
| EP3528609A1 (en) | Yield prediction for a cornfield | |
| KR102630133B1 (en) | Method for measuring phenotype of plants using the images | |
| DE102023113704A1 (en) | DEVICE, EVALUATION DEVICE, EVALUATION SYSTEM AND METHOD FOR A CONDITION ANALYSIS OF A PLANT | |
| DE112016000067T5 (en) | Image processing means | |
| DE102019133515B3 (en) | Method and device for parallax determination of recordings of a multi-lens camera system | |
| DE102016213754A1 (en) | Method, device and data processing device for computer-aided hair color consultation | |
| WO2024104731A1 (en) | Technical design of an analysis device for spectral analysis, and machine learning system | |
| CH716240B9 (en) | Device and method for classifying and identifying seeds of hybrid Abelmoschus esculentus. | |
| DE102019123479B3 (en) | Analysis and quality control of food | |
| DE102021207009A1 (en) | Method and device for detecting a plant health condition of plants for an agricultural machine | |
| Mollazade et al. | Spatial mapping of moisture content in tomato fruits using hyperspectral imaging and artificial neural networks | |
| DE10065783B4 (en) | Method, arrangement and system for determining process variables | |
| DE102024107007B4 (en) | Analysis device and method for its technical design as well as computer program product and trained machine learning system | |
| Hernández-Orellana et al. | White balance adjustment in hyperspectral images through statistical analysis | |
| DE102023101120A1 (en) | Chromatic undertone detection | |
| DE102024107007A1 (en) | Analysis device and method for its technical design as well as computer program product and trained machine learning system |
| Date | Code | Title | Description |
|---|---|---|---|
| R079 | Amendment of ipc main class | Free format text:PREVIOUS MAIN CLASS: G01N0021170000 Ipc:G01N0021550000 | |
| R163 | Identified publications notified | ||
| R005 | Application deemed withdrawn due to failure to request examination |