Die Erfindung geht aus von einem Verfahren zur Erstellung einer Versandinformation bzw. einer mobilen Vorrichtung und einem Auswerterechner zur Durchführung des Verfahrens nach der Gattung der unabhängigen Patentansprüche. Es ist bereits bekannt Versandinformationen durch Auswertung eines Fotos eines Transportträgers zu erstellen.The invention is based on a method for creating shipping information or a mobile device and an evaluation computer for carrying out the method according to the category of the independent claims. It is already known to create shipping information by evaluating a photo of a transport carrier.
Vorteile der ErfindungAdvantages of the invention
Das erfindungsgemäße Verfahren zur Erstellung einer Versandinformation bzw. die mobile Vorrichtung und der Auswerterechner zur Durchführung des Verfahrens haben demgegenüber den Vorteil, dass eine besonders effiziente Aufteilung der einzelnen Schritte des Verfahrens auf das mobile Gerät bzw. den Auswerterechner erfolgt. Es wird so ein besonders einfaches mobiles Gerät geschaffen, bei dem die Menge an übertragenen Informationen vom mobilen Gerät zum Auswerterechner möglichst geringgehalten werden kann. Das erfindungsgemäße Verfahren ist dabei durch die im mobilen Gerät vorhandene künstliche Intelligenz so ausgebildet, dass relevante Informationen erkannt und nur diese mit einem Foto erfasst und übertragen werden. Der Auswerterechner ist so ausgebildet, dass er diese begrenzte Informationsmenge optimal auswertet, um die relevanten Transportinformationen aus dem übertragenen Foto zu erkennen und auszuwerten. Die so ermittelten Transportinformationen werden dann zur Erstellung der Versandinformationen verwendet. Durch die optimierte Aufteilung des Verfahren zwischen dem mobilen Gerät und dem Auswerterechner werden Ressourcen optimal verwendet, um das Verfahren effizient und kostengünstig zu realisieren.The method according to the invention for creating shipping information or the mobile device and the evaluation computer for carrying out the method have the advantage over the fact that the individual steps of the method are divided particularly efficiently between the mobile device and the evaluation computer. This creates a particularly simple mobile device in which the amount of information transmitted from the mobile device to the evaluation computer can be kept as low as possible. The method according to the invention is designed by the artificial intelligence present in the mobile device in such a way that relevant information is recognized and only this is recorded and transmitted with a photo. The evaluation computer is designed in such a way that it optimally evaluates this limited amount of information in order to recognize and evaluate the relevant transport information from the transmitted photo. The transport information determined in this way is then used to create the shipping information. Due to the optimized division of the procedure between the mobile device and the evaluation computer, resources are optimally used to implement the procedure efficiently and cost-effectively.
Weitere Verbesserung und Vorteile ergeben sich durch die Merkmale der abhängigen Patentansprüche. Besonders einfach erfolgt ein Trainieren der ersten und/oder zweiten künstlichen Intelligenz durch die Verwendung von entsprechenden optisch realisierten Transportinformationen. Diese werden besonders einfach synthetisch erzeugt, hinsichtlich der Perspektive angepasst und dann mit einem Bild eines Transportträgers verschmolzen. Um dabei einen optimalen Trainingseffekt zu erzeugen können insbesondere noch Fehler hinzugefügt werden. Die Extraktion relevanter Informationen erfolgt insbesondere durch eine optische Zeichenerkennung. Insbesondere können so Informationen, die als Buchstaben, Zahlen oder Barcode realisiert sind, ausgewertet werden. Die so ermittelten Informationen werden zu einer Verbesserung der Datenqualität mit einer Datenbank abgeglichen, die Bestellinformationen enthält. Es können so die relevanten Informationen zuverlässig ermittelt werden.Further improvements and advantages result from the features of the dependent claims. Training of the first and / or second artificial intelligence is particularly simple by using corresponding optically implemented transport information. These are generated synthetically in a particularly simple manner, adjusted with regard to the perspective and then fused with an image of a transport carrier. In order to create an optimal training effect, errors can be added. Relevant information is extracted in particular by optical character recognition. In particular, information that is implemented as letters, numbers or bar codes can be evaluated. The information determined in this way is compared with a database containing order information in order to improve the data quality. The relevant information can thus be reliably determined.
Figurenlistelist of figures
Ausführungsbeispiele der Erfindung werden in den Zeichnungen dargestellt und in der Beschreibung näher erläutert.
- In der1 wird das erfindungsgemäße Verfahren anhand eines Transportträgers, eines mobilen Geräts und eines Auswerterechners erläutert und
- 2 zeigt verschiedene Schritte des Verfahrens.
Embodiments of the invention are illustrated in the drawings and explained in more detail in the description.- In the 1 the method according to the invention is explained using a transport carrier, a mobile device and an evaluation computer and
- 2 shows different steps of the process.
Beschreibung des AusführungsbeispielsDescription of the embodiment
In der1 wird schematisch ein Transportträger1 gezeigt, der hier insbesondere als Palette6 ausgebildet ist. Auf der Palette6 sind eine Vielzahl von Verpackungseinheiten insbesondere Kartons5 angeordnet, die jeweils mit einer Versandinformation4, in optisch lesbarer Realisierung beispielsweise durch ein Etikett, Aufkleber oder Ausdruck, versehen sind. Im Folgenden wird der Begriff Etikett stellvertretend für jede Form von optisch lesbaren Transportinformationen4 verwendet. Durch den Transportträger1 bzw. die Palette6 können eine Vielzahl von Warensendungen für einen bestimmten Empfänger zusammengestellt werden und gemeinsam zu diesem Empfänger transportiert werden. Regelmäßig ist es dabei erforderlich, den Empfänger eine Information zur Verfügung zu stellen, welche Waren nun mit dem Transportträger an ihn gesandt werden. Diese Vorabinformation ermöglicht es dem Empfänger der Waren in den Kartons5 vorab zu planen, da er weiß, wann er die Waren erhalten wird. Insbesondere wenn die so versandten Waren einem kommerziellen Zweck dienen, beispielsweise einer Zulieferung von Teilen für eine Fertigung, ist eine derartige vorab gesendete Versandinformation wesentlich, um eine Planung der Fertigung zu ermöglichen.In the 1 becomes a transport carrier schematically 1 shown here in particular as apallet 6 is trained. On thepallet 6 are a large number of packaging units, inparticular cardboard boxes 5 arranged, each withshipping information 4 , are provided in an optically readable implementation, for example by a label, sticker or printout. In the following, the term label becomes representative of every form of opticallyreadable transport information 4 used. Through the carrier 1 or the pallet 6 a large number of consignments can be put together for a specific recipient and transported together to this recipient. It is regularly necessary to provide the recipient with information as to which goods are now being sent to him with the carrier. This advance information enables the recipient of the goods in theboxes 5 To plan in advance as he knows when he will receive the goods. In particular, if the goods shipped in this way serve a commercial purpose, for example the supply of parts for production, such advance shipping information is essential in order to enable planning of the production.
Zur Erstellung der Versandinformationen, die an den Empfänger gesandt wird, wird in der1 ein mobiles Gerät2 und ein Auswerterechner3, die mittels einer Schnittstelle7, insbesondere einer Funkschnittstelle7, verbunden sind, gezeigt. Das mobile Gerät2 dient dazu, die auf den Verpackungseinheiten5 angebrachten optisch lesbaren Versandinformationen4 einzulesen und über die Schnittstelle7 an den Auswerterechner3 zu übertragen. Dabei wird in dem mobilen Gerät2 nur eine begrenzte Verarbeitungskapazität vorgesehen und der wesentliche Teil der Datenverarbeitung erfolgt in dem Auswerterechner3. Um jedoch eine sinnvolle Erfassung der Versandinformationen4 zu ermöglichen, wird eine begrenzte Datenverarbeitungskapazität in dem mobilen Gerät2 vorgesehen.To create the shipping information that is sent to the recipient, the 1 a mobile device 2 and anevaluation computer 3 using an interface 7 , especially a radio interface 7 , are connected. The mobile device 2 is used on thepackaging units 5 attached opticallyreadable shipping information 4 read and via the interface 7 to theevaluation computer 3 transferred to. Doing so in the mobile device 2 only a limited processing capacity is provided and the major part of the data processing takes place in theevaluation computer 3 , However, in order to sensibly record theshipping information 4 to enable a limited data processing capacity in the mobile device 2 intended.
Bei dem Transportträger1 handelt es sich bei dem Beispiel der1 beispielsweise um eine Palette6, auf dem Kartons5 als Verpackungseinheiten angeordnet sind. Alternativ sind aber auch andere Transportträger, wie beispielsweise Container, Gitterboxen oder auch größere Papierkartons geeignet, in denen mehrere Verpackungseinheiten5 angeordnet sein können. Wenn der Transportträger so ausgebildet ist, dass die Verpackungseinheiten5 von außen nicht mehr sichtbar sind, so sollte eine Erfassung beim Befüllen des Transportträgers1 mit den Verpackungseinheiten5 erfolgen.At the carrier 1 is the example of 1 for example by onepalette 6 , on thecardboard boxes 5 are arranged as packaging units. Alternatively, however, other transport carriers, such as containers, lattice boxes or even larger paper boxes, are suitable, in whichseveral packaging units 5 can be arranged. If the transport carrier is designed so that thepackaging units 5 are no longer visible from the outside, so a recording should be made when filling the transport carrier 1 with thepackaging units 5 respectively.
Das mobile Gerät2 kann insbesondere aus einem entsprechend programmierten Mobiltelefon oder Smartphone bestehen, welches eine Kamera aufweist. Alternativ können aber auch alle nur für diesen Zweck vorgesehenen mobilen Gerät2 verwendet werden. Bezüglich des mobilen Geräts2 ist insbesondere an die Verwendung dieses Geräts durch einen menschlichen Bediener beispielsweise einen Lagermitarbeiter, der die entsprechenden Verpackungseinheiten5 auf dem Transportträger1 anordnet, gedacht. Alternativ kann das mobile Gerät2 auch Teil eines automatischen Systems zur Bestückung von Transportträgern1 mit Verpackungseinheiten5 sein und beispielsweise am Ende automatischen Bestückungsanlage die Versandinformationen4 einlesen. Bezüglich der Schnittstelle7 ist insbesondere an eine Funkschnittstelle entweder über einen WLAN oder einen Mobilfunkstandard gedacht. Alternativ kann das mobile Gerät2 auch nach jeder Benutzung in eine Mutterstation gelegt werden, in der eine Drahtgebundene Übertragung von Daten zwischen dem mobilen Gerät2 und dem Auswerterechner3 erfolgt.The mobile device 2 can in particular consist of a suitably programmed mobile phone or smartphone which has a camera. Alternatively, all mobile devices intended only for this purpose can also be used 2 be used. Regarding the mobile device 2 is particularly concerned with the use of this device by a human operator, for example a warehouse worker, who handles theappropriate packaging units 5 on the carrier 1 orders, thought. Alternatively, the mobile device 2 also part of an automatic system for loading transport carriers 1 withpackaging units 5 and, for example, the shipping information at the end of theautomatic assembly system 4 Read. Regarding the interface 7 is particularly intended for a radio interface either via a WLAN or a cellular standard. Alternatively, the mobile device 2 also be placed in a mother station after each use, in which a wired transfer of data between the mobile device 2 and theevaluation computer 3 he follows.
Der Auswerterechner3 stellt eine üblich Datenverarbeitungsdaten dar, die ausreichend Kapazität aufweist, um die notwendigen Schritte des Verfahrens durchzuführen. Diese Auswerterechner3 muss dabei nicht unbedingt unter der unmittelbaren Kontrolle desjenigen sei, der den Verpackungsträger1 mit den Verpackungseinheiten5 versieht. Der Auswerterechner3 kann beispielsweise unter der Kontrolle einer größeren Fabrik stehen, die von einer Vielzahl von kleineren Speditionen beliefert wird. Jede dieser kleinen Speditionen weist dann ein mobiles Gerät2 auf, welches typischerweise einfach ein entsprechend programmiertes Mobiltelefon mit einer Kamera ist. Die einzelnen kleinen Speditionsbetriebe übertragen dann die mit dem Mobiltelefon übertragenen Informationen zu dem Rechensystem der größeren Fertigung, die dann aus den so übertragenen Informationen die Versandinformationen ermittelt.Theevaluation computer 3 represents a common data processing data that has sufficient capacity to carry out the necessary steps of the method. Thisevaluation computer 3 does not necessarily have to be under the direct control of the person who is responsible for the packaging 1 with thepackaging units 5 provides. Theevaluation computer 3 can be under the control of a larger factory, for example, which is supplied by a large number of smaller forwarding agents. Each of these small freight forwarders then has a mobile device 2 which is typically simply a suitably programmed mobile phone with a camera. The individual small forwarding companies then transmit the information transmitted with the mobile phone to the computer system of the larger production facility, which then determines the shipping information from the information transmitted in this way.
Die Datenübertragung von dem mobilen Gerät2 zum Auswerterechner3 erfolgt insbesondere durch das Übersenden von Fotos. Bei der Übertragung von Fotos ist es nicht erforderlich, dass in dem mobilen Gerät2 eine inhaltliche Auswertung der auf den Verpackungseinheiten5 angebrachten Transportinformationen erfolgt. Da jedoch die Datenmenge von Fotos relativ groß ist, ist es wünschenswert, nur Fotos über die Schnittstelle7 zu übertragen, die tatsächlich relevante Transportinformationen enthalten. Zu diesem Zweck kann eine Vorverarbeitung der von dem mobilen Gerät2 aufgenommenen Informationen erfolgen. Beispielsweise kann von einem menschlichen Bediener des mobilen Geräts2 nach der Zusammenstellung einer Ladung eines Transportträgers eine Erfassung der relevanten Transportinformationen4 gestartet werden. Das mobile Gerät1 wertet dann kontinuierlich Kamerainformationen dahingehend aus, ob eine Transportinformation4, d.h. ein auf den Verpackungseinheiten5 angebrachte optisch lesbare Transportinformation4 in der Art eines Etiketts, Aufklebers oder Ausdrucks erkannt wird. Eine derartige Erkennung von Etiketten oder Transportinformationen4 kann besonders einfach durch eine erste künstliche Intelligenz erfolgen, die nur dahingehend ausgebildet ist, optisch lesbare Transportinformation beispielsweise Etiketten zu erkennen. Eine besonders einfache Erkennung von Etiketten kann beispielsweise darin bestehen, dass rechteckige Bereiche erkannt werden, die sich farblich vom Rest der Verpackungseinheiten5 bzw. vom Transportträger1 unterscheiden. Weiterhin kann eine einfache Erkennung von Transportinformationen dadurch erfolgen, dass Barcodes oder zweidimensionale Punktecodes erkannt werden. Immer wenn ein derartiger Barcode oder zweidimensionaler Punktecode erkannt wird, kann eine einfach ausgebildete künstliche Intelligenz in dem mobilen Gerät2 Transportinformationen erkennen. Immer dann, wenn eine Transportinformation4, d.h. ein Etikett durch Auswertung der Kamerainformationen erkannt wird, erstellt das mobile Gerät2 ein Foto dieser optisch lesbaren Transportinformation4 d.h. des Etiketts. Dabei können auch noch weitere Kriterien wie beispielsweise eine ausreichende Scharfstellung bzw. eine ausreichende Größe des Fotos sichergestellt werden.The data transfer from the mobile device 2 to theevaluation computer 3 is done in particular by sending photos. When transferring photos it is not necessary that in the mobile device 2 a content evaluation of the on thepackaging units 5 attached transport information is done. However, since the amount of data from photos is relatively large, it is desirable to only use photos through the interface 7 to transmit that actually contain relevant transport information. For this purpose, preprocessing of the mobile device 2 recorded information. For example, a human operator of the mobile device 2 after compiling a load from a transport carrier, recording therelevant transport information 4 be started. The mobile device 1 Then continuously evaluates camera information to determine whether it istransport information 4 , ie one on thepackaging units 5 attached opticallyreadable transport information 4 recognized in the manner of a label, sticker or printout. Such recognition of labels ortransportation information 4 can be done particularly easily by a first artificial intelligence, which is only designed to recognize optically readable transport information, for example labels. A particularly simple recognition of labels can, for example, consist in recognizing rectangular areas that differ in color from the rest of thepackaging units 5 or from the carrier 1 differ. Furthermore, transport information can be easily identified by recognizing barcodes or two-dimensional point codes. Whenever such a barcode or two-dimensional point code is recognized, a simply trained artificial intelligence can be found in the mobile device 2 Recognize transportation information. Whenever there istransport information 4 , ie a label is recognized by evaluating the camera information, the mobile device creates 2 a photo of this opticallyreadable transport information 4 ie the label. Additional criteria such as sufficient focus or size of the photo can also be ensured.
In einer Ausgestaltung kann dabei ein menschlicher Bediener des mobilen Geräts2 auch angeleitet werden, welche Bereiche des Transportträgers1 relevant sind. Es würde zunächst der Transportträger1 mit einem gewissen Abstand abfotografiert, so dass alle Transportinformationen4 die von einer Seite des Transportträgers1 sichtbar sind, zu sehen sind. Aufgrund der künstlichen Intelligenz werden die rechteckigen Etiketten4 identifiziert und der menschliche Bediener wird aufgefordert, von jedem dieser Etiketten noch eine Nahaufnahme zu erstellen. Es kann so sichergestellt werden, dass die an den Auswerterechner3 übertragenen Fotos alle relevanten Informationen dieses Transportträgers1 enthalten. Entsprechend kann ein menschlicher Bediener des mobilen Geräts2 auch noch aufgefordert werden, Bilder weiterer Seiten (bei einer rechteckigen Palette, in der Regel4 Seiten) aufzunehmen, um noch weitere Transportinformationen auf den anderen Seiten des Transportträgers1 zu ermitteln.In one embodiment, a human operator of the mobile device can 2 also guide which areas of the carrier 1 are relevant. It would be the carrier first 1 photographed with a certain distance, so that alltransport information 4 from one side of the carrier 1 are visible, can be seen. Because of the artificial intelligence, therectangular labels 4 identified and the human operator is prompted to take a close-up of each of these labels. In this way it can be ensured that the data is sent to theevaluation computer 3 transferred photos all relevant information of this carrier 1 contain. Accordingly, a human operator of the mobile device 2 also be asked to take pictures of additional pages (for a rectangular palette, usually 4 Pages) to include more transportation information on the other pages of the carrier 1 to investigate.
Die in dem mobilen Gerät2 vorhandene erste künstliche Intelligenz muss dabei nicht besonders leistungsstark sein und auch keine große Datenverarbeitungskapazität aufweisen, sondern nur Etiketten mit darauf angeordneten optisch lesbaren Transportinformationen4 identifizieren. Wenn dabei fälschlicherweise ein Bereich des Transportträgers1 fehlerhaft als Transportinformation4 interpretiert wurde, ist dies unschädlich, da ja noch eine Nachverarbeitung durch den Auswerterechner3 erfolgt. Eine inhaltliche Auswertung erfolgt nämlich erst im Auswerterechner3. The one in the mobile device 2 Existing first artificial intelligence does not have to be particularly powerful and also does not have to have a large data processing capacity, but only labels with optically readable transport information arranged thereon 4 identify. If there is an incorrect area of the carrier 1 incorrect astransport information 4 was interpreted, this is harmless, since there is still postprocessing by theevaluation computer 3 he follows. The content is only evaluated in theevaluation computer 3 ,
Durch weitere Eingaben am mobilen Gerät2 kann insbesondere eine Zuordnung von Verpackungseinheiten5 zu dem Transportträger1 erfolgen. Dies kann beispielsweise einfach dadurch erfolgen, dass durch eine erste Eingabe am mobilen Gerät2 eine Erfassung eines Transportträgers1 gestartet wird und durch eine weitere Eingabe die Erfassung des Transportträgers1 beendet wird, wenn alle Etiketten, die die Transportinformationen4 enthalten, abfotografiert sind. Durch diese weitere Eingabe, die einfach in einem Start- und Ende der Erfassung1 eines Transportträgers bestehen kann, wird somit eine Zuordnung von Verpackungseinheiten5 zu einem Transportträger1 erreicht.By further entries on the mobile device 2 can in particular assignpackaging units 5 to the carrier 1 respectively. This can be done, for example, simply by making a first entry on the mobile device 2 a registration of a carrier 1 is started and the entry of the carrier is entered again 1 will exit when all the labels containing thetransportation information 4 included, are photographed. Through this further input, simply in one start and end of the capture 1 of a carrier can be assignedpackaging units 5 to a carrier 1 reached.
Nach der Übertragung mindestens eines Fotos, in der Regel aber mehrerer Fotos, und der weiteren Eingaben am mobilen Gerät2 erfolgt die Auswertung durch den Auswerterechner3. In dem Auswerterechner3 werden dann die von dem mobilen Gerät2 erfassten Fotos ausgewertet. Zunächst erfolgt dabei eine Erkennung der verschiedenen Transportinformationen. Die Transportinformationen4 sind typischerweise in unterschiedlichen standardisierten Anordnungen auf den Etiketten angeordnet. Beispielsweise befindet sich relativ zu einem Barcode in vordefiniertem Abstand eine schriftliche Information, die die Informationen des Barcodes wiederholt oder andere Informationen, wie beispielsweise eine nähere Bezeichnung der enthaltenen Waren oder der Menge oder des Absenders oder des Empfängers enthält. Anhand der Anordnung dieser Informationen kann ein Typ von Etikett identifiziert werden. In der Auswerteeinheit3 wird ebenfalls eine künstliche Intelligenz verwendet, die mit Informationen über die verwendeten optischen Realisierungen der Transportinformationen4 trainiert wurde. Dieses System ist jedoch deutlich leistungsfähiger und kann beispielsweise nicht nur die Umrisse von Etiketten erkennen, sondern auch noch erkennen, um welche Art von Etiketten es sich handelt und in welchem Bereich des Etiketts welche Information zu finden ist.After transferring at least one photo, but usually several photos, and making further entries on the mobile device 2 the evaluation is carried out by theevaluation computer 3 , In theevaluation computer 3 then those from the mobile device 2 captured photos evaluated. First, the various transport information are recognized. Thetransportation information 4 are typically arranged on the labels in different standardized arrangements. For example, in relation to a bar code, there is written information that repeats the information of the bar code or contains other information, such as, for example, a more detailed description of the goods contained or the quantity or the sender or the recipient. A type of label can be identified based on the arrangement of this information. In theevaluation unit 3 an artificial intelligence is also used, which provides information about the optical implementations of the transport information used 4 was trained. However, this system is significantly more powerful and can not only recognize the outline of labels, for example, but also recognize what type of label it is and in which area of the label which information can be found.
Die erste künstliche Intelligenz im mobilen Gerät2 kann beispielsweise zwei Etiketten, die zufällig in geringer räumlicher Nähe angeordnet sind, nicht unterscheiden und auch nicht erkennen, ob es sich um ein Etikett oder zwei Etiketten handelt. Die künstliche Intelligenz des Auswerterechners3 kann jedoch auch derartige eng nebeneinanderliegende Etiketten trennen, da diese zweite künstliche Intelligenz sehr viel leistungsfähiger ist und zusätzliche Informationen über den Aufbau der Etiketten auswerten kann. In dieser zweiten künstlichen Intelligenz in dem Verarbeitungsrechnern3 erfolgt somit eine Unterscheidung der Transportinformation4 hinsichtlich des Typs der optischen Realisierung in dem Etikett und eine inhaltliche Auswertung. Die inhaltliche Auswertung kann beispielsweise dadurch erfolgen, dass Bereiche die eine schriftliche Information enthalten durch die künstliche Intelligenz erkannt werden und dann durch eine optische Signalauswertung die darin entstandenen schriftlichen Informationen ausgelesen werden. Entsprechend können Bereiche, die einen Barcode oder einen zweidimensionalen Punktcode enthalten erkannt werden und die darin enthaltenen Informationen (in der Regel Zahlen) ausgelesen werden.The first artificial intelligence in the mobile device 2 cannot distinguish, for example, two labels that are randomly arranged in close proximity, and also cannot recognize whether it is one label or two labels. The artificial intelligence of theevaluation computer 3 can, however, also separate such closely adjacent labels, since this second artificial intelligence is much more powerful and can evaluate additional information about the structure of the labels. In this second artificial intelligence in the processing computer 3 A distinction is thus made between thetransport information 4 with regard to the type of optical implementation in the label and a content evaluation. The content can be evaluated, for example, in that areas containing written information are recognized by the artificial intelligence and then the written information generated therein is read out by means of an optical signal evaluation. Areas that contain a barcode or a two-dimensional point code can be recognized accordingly and the information contained therein (usually numbers) can be read out.
Trotz der Verarbeitung durch eine künstliche Intelligenz können bei der Auswertung Fehler auftreten, die durch eine Beschädigung oder Verschmutzung der Etiketten mit den darin enthaltenen Transportinformationen4 verursacht sind. Es können so beispielsweise einzelne Bereiche eines Barcodes oder einzelne Buchstaben einer schriftlichen Information nicht lesbar sein. Derartige Fehler können dann durch einen Abgleich mit weiteren Informationen in dem Auswerterechner3 kompensiert werden. Zum einen enthalten die schriftlichen oder in Barcode codierten Informationen Redundanzen, die ausreichend sind, um die eigentlich beabsichtigten Transportinformationen zu rekonstruieren. Alternativ kann auch ein Abgleich mit weiteren Daten beispielsweise Bestellinformationen erfolgen, um so die eigentlich beabsichtigten Transportinformationen wieder zu ermitteln.Despite the processing by an artificial intelligence, errors can occur during the evaluation, which are caused by damage or soiling of the labels with the transport information contained therein 4 are caused. For example, individual areas of a bar code or individual letters of written information may not be readable. Such errors can then be compared with other information in theevaluation computer 3 be compensated. On the one hand, the written or barcode-encoded information contains redundancies that are sufficient to reconstruct the actually intended transport information. Alternatively, a comparison can also be made with further data, for example order information, in order to determine the actually intended transport information again.
Sowohl die erste künstliche Intelligenz im mobilen Gerät2 wie auch die zweite künstliche Intelligenz im Auswerterechner3 müssen anhand von Trainingsbildern trainiert werden. Dabei müssen Bilder von verschiedenen Transportträgern1 mit verschiedenen Verpackungseinheiten und darauf angeordneten unterschiedlichen Etiketten, Aufklebern oder Beschriftungen mit Transportinformationen4 als Trainingsdaten für das Training der ersten und zweiten künstlichen Intelligenz zur Verfügung gestellt werden. Dazu können beispielsweise verschiedene Transportträger1 mit verschiedenen Verpackungseinheiten5 und unterschiedlichen Transportinformationen4 abfotografiert werden und zusammen mit den korrekten Transportinformationen4 den beiden künstlichen Intelligenzsystemen zur Verfügung gestellt werden. Wenn sich dann Veränderungen ergeben, beispielsweise durch andere Verpackungseinheiten5 oder andere Etiketten, Aufkleber oder Beschriftungen mit den Transportinformationen4, so müssen erneut Bilder bzw. Fotos zum Trainieren der künstlichen Intelligenz aufgenommen werden. Dieses Verfahren ist relativ aufwendig, da jeweils Transportträger1, Verpackungseinheiten5 und optische Realisierungen von Transportinformation4 in allen möglichen Kombinationen aufgebaut und abfotografiert werden müssen. Alternativ können derartige Bilder synthetisch erzeugt werden. Dazu werden die optischen Realisierungen der Transportinformationen4, die ohnehin typischerweise in einem Rechner vorliegen, dazu genutzt, ein Bild des Etiketts, des Aufklebers oder des Aufdrucks der Transportinformation4 zu erzeugen. Die so erzeugten Bilder der Etiketten, Aufkleber oder Ausdrucke der Transportinformationen4 werden dann so nachbearbeitet, dass sie optisch dem Erscheinungsbild derartiger Transportinformationen4 auf realen Transportträgern1 bzw. Verpackungseinheiten5 entsprechen. Dazu werden diese Bilder hinsichtlich ihrer Perspektive verändert, da ja bei der Aufnahme eines Fotos durch das mobile Gerät2 nicht immer eine eindeutig senkrechte Orientierung gegeben ist. Das mobile Gerät2 kann auch schräg oder leicht verkippt, oder mit einem Winkel verdreht zu den Transportinformationen4 ausgerichtet sein kann. Ein rechteckiges Transportetikett würde beispielsweise trapezförmig verzerrt, wodurch sich die Größe der Buchstaben oder der Barcode-Balken auf dem Etikett entsprechend ändert. Entsprechend können auch wellige Oberflächen, Verknitterungen, Verschmutzungen oder Beschädigungen simuliert werden, die eine Erkennbarkeit der Transportinformationen4 auf Etiketten, Aufklebern oder Beschriftungen verändern können. Die so veränderten Transportinformationen4 werden dann mit Bildern von Verpackungseinheiten5 und Bildern von Transportträgern1 synthetisch zu Bildern von Transportträgern1 mit Verpackungseinheiten5 und darauf angebrachten Transportinformationen4 zusammengesetzt. Diese synthetischen Bilder werden dann zum Training der künstlichen Intelligenz in dem mobilen Gerät2 bzw. dem Auswerterechner3 verwendet.Both the first artificial intelligence in the mobile device 2 just like the second artificial intelligence in theevaluation computer 3 must be trained using training images. In doing so, images from different transport carriers must be used 1 with different packaging units and different labels, stickers or labels with transport information arranged on them 4 are provided as training data for training the first and second artificial intelligence. Various transport carriers can be used, for example 1 withdifferent packaging units 5 anddifferent transport information 4 be photographed and together with thecorrect transport information 4 be made available to the two artificial intelligence systems. If changes then occur, for example due toother packaging units 5 or other labels, stickers or labels with thetransport information 4 , images or photos have to be taken again to train the artificial intelligence. This method is relatively complex, since it has a transport carrier 1 ,Packaging units 5 and optical realizations oftransport information 4 must be built up and photographed in all possible combinations. Alternatively, such images can be created synthetically. For this, the optical realizations of thetransport information 4 , which are typically present in a computer anyway, are used to provide an image of the label, the sticker or the imprint of thetransport information 4 to create. The images of the labels, stickers or printouts of the transport information generated in thisway 4 are then reworked so that they visually reflect the appearance ofsuch transport information 4 on real carriers 1 orpackaging units 5 correspond. For this purpose, these images are changed with regard to their perspective, since when taking a photo with the mobile device 2 there is not always a clearly vertical orientation. The mobile device 2 can also be tilted or slightly tilted, or twisted at an angle to thetransport information 4 can be aligned. For example, a rectangular transport label would be trapezoidally distorted, causing the size of the letters or barcode bars on the label to change accordingly. Correspondingly, wavy surfaces, wrinkles, dirt or damage can be simulated, making the transport information recognizable 4 change on labels, stickers or labels. The changedtransport information 4 are then with pictures ofpackaging units 5 and pictures of transport carriers 1 synthetic to pictures of transport carriers 1 withpackaging units 5 and transportation information attached to it 4 composed. These synthetic images are then used to train artificial intelligence in the mobile device 2 or theevaluation computer 3 used.
Dabei ist noch festzuhalten, dass typischerweise die künstliche Intelligenz in dem mobilen Gerät2 deutlich einfacher ausgebildet sein kann, da nur erkannt werden muss, ob ein Foto sinnvoll ist oder nicht. Wenn dabei fehlerhaft ein nicht relevanter Bereich des Transportträgers1 abfotografiert wird, so ist dies unproblematisch, da ein derartiges fehlerhaftes Foto in der Weiterverarbeitung durch den Auswerterechner3 zuverlässig erkannt wird.It should also be noted that typically the artificial intelligence in the mobile device 2 can be made significantly simpler, since it only has to be recognized whether a photo is useful or not. If an incorrect area of the carrier is incorrect 1 is photographed, this is not a problem, since such a faulty photo is further processed by theevaluation computer 3 is reliably recognized.
In der2 werden einzelne Verfahrensschritte des erfindungsgemäßen Verfahrens dargestellt. In einem ersten Schritt201 erfolgt durch eine Eingabe am mobilen Gerät2 ein Start des Verfahrens. Diese Eingabe kann beispielsweise manuell von einem menschlichen Bediener des mobilen Geräts2 eingegeben werden. Alternativ kann bei einer automatisierten Bestückung von Transportträgern1 ein Abschluss der Bestückung des Transportträgers1 festgestellt werden, und das mobile Gerät2 automatisiert gestartet werden. Im darauffolgenden Schritt202 wertet das mobile Gerät2 kontinuierlich Kamerainformationen, d.h. einen kontinuierlichen Strom von Bilddaten aus, die von einer Kamera des mobilen Geräts2 aufgenommen werden. Immer wenn dabei eine Transportinformation4 erkannt wird, wird ein Foto dieser Transportinformation4 erstellt. Wie bereits ausgeführt muss dazu die mobile Einheit2 nur eine leistungsschwache künstliche Intelligenz verwenden, da beispielsweise nur farblich deutlich unterschiedliche Etiketten oder sonstige Beschriftungen auf den Verpackungseinheiten5 erkannt werden müssen. Wenn alle Transportinformationen4 eines Transportträgers1 erfasst sind, folgt im darauffolgenden Schritt203 durch eine Eingabe am mobilen Gerät2 eine Eingabe, die anzeigt, dass für den bearbeiteten Transportträger1 die Erfassung von Transportinformationen abgeschlossen ist. Dies kann auch wieder durch einen menschlichen Bediener des mobilen Geräts2 erfolgen. Die von dem mobilen Gerät2 im Schritt202 erstellten Fotos wurden entweder kontinuierlich oder aber erst mit Abschluss der Erfassung, d.h. im Schritt203 über die Schnittstelle7 an den Auswerterechner3 übertragen. Im Schritt204 erfolgt dann die Verarbeitung der Fotos im Auswerterechner. Dabei werden durch die zweite künstliche Intelligenz die Fotos der Transportinformationen4 näher untersucht und dabei wird der Typ von Transportinformationen bzw. die konkrete Realisierung dieser Transportinformationen4 auf einem Etikett, Aufkleber oder Beschriftung erkannt. Es werden dann die Transportinformationen43 ermittelt, wobei ggf. ein Abgleich mit einer Datenbank erfolgt, um diesen Transportinformationen weitere Informationen zuzuordnen. Insbesondere kann hier ein Abgleich zwischen Bestellinformationen und den Transportinformationen erfolgen, wodurch festgestellt werden kann, dass die mit einer bestimmten Bestellung bestellten Waren sich nun auf dem Transportträger befinden und nun ein Transport zum Bestellen der Ware erfolgt. Entsprechend werden dann im darauffolgenden Schritt205 die Versandinformationen erstellt, aus denen entnehmbar ist, welche Waren aufgrund welcher Bestellung sich nun auf dem Transportweg hin zum Besteller befinden. Mit dem Schritt205 endet dann auch das Verfahren.In the 2 Individual process steps of the method according to the invention are shown. In afirst step 201 is done by entering on the mobile device 2 a start of the process. This input can, for example, be made manually by a human operator of the mobile device 2 can be entered. Alternatively, in the case of automated loading of transport carriers 1 a completion of the assembly of the transport carrier 1 and the mobile device 2 can be started automatically. In thenext step 202 evaluates the mobile device 2 continuously camera information, ie a continuous stream of image data from a camera of the mobile device 2 be included. Whenever there is atransport information 4 is recognized, a photo of thistransport information 4 created. As already stated, the mobile unit must do this 2 Only use poorly performing artificial intelligence, for example because labels or other inscriptions on the packaging units are clearly different incolor 5 must be recognized. If alltransportation information 4 of a carrier 1 are recorded, follows in thenext step 203 by an entry on the mobile device 2 an entry that indicates that for the processed carrier 1 the collection of transport information is complete. This can also be done by a human operator of the mobile device 2 respectively. The from the mobile device 2 instep 202 Photos created were either continuous or only at the end of the capture, ie instep 203 over the interface 7 to theevaluation computer 3 transfer. In step 204 the photos are then processed in the evaluation computer. The photos of the transport information are made by the secondartificial intelligence 4 examined in more detail and thereby the type of transport information or the concrete implementation of thistransport information 4 recognized on a label, sticker or label. It will then be the transportation information 43 determined, where appropriate a comparison with a database takes place in order to assign further information to this transport information. In particular, a comparison can be made here between the order information and the transport information, as a result of which it can be established that the goods ordered with a specific order are now on the transport carrier and a transport for ordering the goods is now taking place. Then in thenext step 205 creates the shipping information, from which you can see which goods are now on the way to the customer based on which order. With thestep 205 The procedure then ends.