La présente invention concerne un procédé et dispositif de production d'une image contextuelle d'un objet en mouvement. Une image contextuelle d'un objet est une représentation numérique bidimensionnelle réaliste à la fois de cet objet mais aussi de l'environnement dans lequel se trouve cet objet. Une image contextuelle est à opposer, par exemple, à une image thermique qui représente uniquement les points chauds d'une scène au détriment de l'environnement dans lequel se trouvent ces points. Une image contextuelle obtenue par une caméra vidéo classique présente une résolution qui peut s'avérer insuffisante dans certaines applications et peut présenter des défauts qui ne permettent pas son exploitation par des processus automatiques d'extraction d'informations sémantiques. A titre d'illustration de ces inconvénients, prenons le cas de dispositifs qui sont disposés le long d'une voie de circulation pour contrôler la vitesse d'un véhicule. Il est connu que ces dispositifs soient équipés de caméras vidéo classiques pour produire une image contextuelle soit en continu soit uniquement sur déclenchement d'un top de passage qui peut, à cet effet, nécessiter une estimation de la vitesse du véhicule. Une image contextuelle acquise peut alors être obtenue lorsque la vitesse du véhicule est excessive et être alors soumise à des traitements numériques pour extraire la plaque d'immatriculation de ce véhicule ou encore le visage du conducteur.The present invention relates to a method and device for producing a contextual image of an object in motion. A contextual image of an object is a realistic two-dimensional digital representation of both this object and the environment in which the object is located. For example, a contextual image can be contrasted with a thermal image that represents only the hot spots of a scene to the detriment of the environment in which these points lie. A contextual image obtained by a conventional video camera has a resolution that may be insufficient in some applications and may have defects that do not allow its exploitation by automatic processes of extraction of semantic information. As an illustration of these disadvantages, consider the case of devices that are arranged along a traffic lane to control the speed of a vehicle. It is known that these devices are equipped with conventional video cameras to produce a contextual image either continuously or only on triggering a passing mark which may, for this purpose, require an estimate of the speed of the vehicle. An acquired contextual image can then be obtained when the speed of the vehicle is excessive and then be subjected to digital processing to extract the license plate of this vehicle or the face of the driver.
Le problème résolu par la présente invention est de produire une image contextuelle d'un objet en mouvement qui soit fortement résolue et qui permette l'extraction d'informations sémantiques, telle qu'une plaque d'immatriculation pour reprendre l'exemple d'application précédent. A cet effet, la présente invention concerne un dispositif de production d'une 25 image contextuelle d'un objet en mouvement, caractérisé en ce qu'il comporte : - des moyens d'obtention de lignes d'image de l'objet, - des moyens d'obtention de la vitesse de l'objet, - des moyens de production d'une image contextuelle regroupant o des moyens de calcul d'une fréquence d'échantillonnage temporel 30 des lignes d'image ainsi obtenues en multipliant une valeur de résolution souhaitée de l'objet dans l'image contextuelle par la vitesse de cet objet ainsi obtenue, o des moyens de juxtaposition des lignes d'image pour obtenir une image bidimensionnelle, et o des moyens d'échantillonnage de l'image bidimensionnelle selon la fréquence d'échantillonnage ainsi calculée. Selon un mode de réalisation, les moyens d'obtention de la vitesse de l'objet sont un cinémomètre laser ou radar Doppler ou des boucles au sol, ou encore un système vidéo stéréo. Selon un mode de réalisation, les moyens d'obtention de lignes d'image sont un capteur de lignes d'image. Les lignes d'images étant obtenues par un capteur de lignes d'image, l'impact des ombres portées à variation lente devant la durée de présence de l'objet dans le champ de vision du capteur de lignes d'image occasionne des variations de luminosité ayant une structure de bandes dans l'image contextuelle qui est plus facile à corriger que dans le cas d' une image obtenue classiquement par une caméra vidéo où la forme de ces ombres portées diminue les performances des algorithmes d'extraction d'informations sémantiques.The problem solved by the present invention is to produce a contextual image of a moving object that is strongly resolved and that allows the extraction of semantic information, such as a license plate to resume the application example previous. To this end, the present invention relates to a device for producing a contextual image of an object in motion, characterized in that it comprises: means for obtaining image lines of the object; means for obtaining the speed of the object; means for producing a contextual image including means for calculating a temporal sampling frequency of the image lines thus obtained by multiplying a value of desired resolution of the object in the contextual image by the speed of this object thus obtained; means for juxtaposing the image lines to obtain a two-dimensional image; and means for sampling the two-dimensional image according to the sampling frequency calculated in this way. According to one embodiment, the means for obtaining the speed of the object are a laser speedmeter or Doppler radar or loops on the ground, or a stereo video system. According to one embodiment, the means for obtaining image lines are an image line sensor. Since the image lines are obtained by an image line sensor, the impact of the slowly changing shadows before the duration of the presence of the object in the field of view of the image line sensor causes variations in the image lines. brightness having a band structure in the contextual image which is easier to correct than in the case of an image conventionally obtained by a video camera where the shape of these drop shadows decreases the performance of the semantic information extraction algorithms .
Ce mode de réalisation est également avantageux car un système d'éclairage dans le spectre proche infra-rouge pourra être utilisé, permettant d'éclairer la zone de capture du capteur de lignes d'image. Ceci est particulièrement avantageux car il suffit alors d'éclairer de façon homogène une bande correspondant au volume de capture du capteur de lignes d'image, ce qui est beaucoup plus simple et moins coûteux à réaliser que de réaliser un éclairage homogène pour une capteur matriciel comportant un volume de capture important. De plus, l'éclairage sera, par construction, homogène dans la dimension du défilement de l'objet, alors que suivant l'importance des variations de distances de l'application, c'est dans cet axe que la réalisation d'un éclairage homogène est en général le plus complexe.This embodiment is also advantageous because a lighting system in the near infra-red spectrum may be used, making it possible to illuminate the capture area of the image line sensor. This is particularly advantageous because it is then sufficient to illuminate homogeneously a band corresponding to the capture volume of the image line sensor, which is much simpler and less costly to achieve than to achieve homogeneous illumination for a matrix sensor with a large catch volume. In addition, the lighting will be, by construction, homogeneous in the dimension of the scrolling of the object, whereas according to the importance of the variations of distances of the application, it is in this axis that the realization of a lighting Homogeneous is usually the most complex.
Selon un mode de réalisation, le capteur de lignes d'image est positionné en surplomb de l'objet et les moyens d'obtention de la vitesse de l'objet sont prévus pour estimer la vitesse de cet objet à partir de lignes d'image acquises par ce capteur. Ce mode de réalisation est particulièrement avantageux car il utilise un seul capteur de lignes d'image pour obtenir une image contextuelle et pour obtenir une estimation de la vitesse de l'objet. Selon un mode de réalisation, dit premier, l'axe longitudinal de ce capteur forme un angle non nul par rapport à la perpendiculaire à l'axe de déplacement de cet objet et chaque ligne d'image acquise par le capteur représentant alors l'intersection de l'objet avec l'axe longitudinal de ce capteur, les moyens d'obtention de la vitesse de l'objet sont alors prévus pour que la vitesse soit estimée à partir de deux lignes d'images qui représentent des intersections différentes. Selon un autre mode de réalisation, dit deuxième, le dispositif comporte également deux miroirs formant entre eux un angle prédéfini pour que chaque miroir reflète une zone spatiale différente sur une partie des cellules du capteur de lignes d'image, et les moyens d'obtention de la vitesse de l'objet sont alors prévus pour que la vitesse soit estimée à partir de deux ensembles de lignes d'image, chacun acquis par une partie des cellules du capteur. Selon un autre mode de réalisation, les moyens d'obtention de lignes d'image sont une caméra matricielle dotée d'une fonctionnalité de transfert d'image partielle et les moyens d'obtention de la vitesse de l'objet sont alors prévus pour que la vitesse soit estimée à partir de deux ensembles de lignes d'image, chacun acquis par une partie des cellules du capteur. La présente invention concerne également un procédé de production d'une 15 image contextuelle d'un objet en mouvement, caractérisé en ce qu'il comporte : - une étape d'obtention de lignes d'image de l'objet, - une étape d'obtention de la vitesse de l'objet, - une étape de calcul d'une fréquence d'échantillonnage temporel des lignes d'image ainsi obtenues en multipliant une valeur de résolution souhaitée de l'objet 20 dans l'image contextuelle souhaitée par la vitesse de cet objet ainsi obtenue, - une étape de juxtaposition des lignes d'image pour obtenir une image bidimensionnelle, et - une étape d'échantillonnage de l'image bidimensionnelle selon la fréquence d'échantillonnage ainsi calculée. Cette étape d'échantillonnage permet de normaliser 25 l'apparence de l'objet en fonction de sa vitesse. Le procédé permet d'obtenir une image contextuelle ayant une dynamique plus étendue et mieux résolue que celle d'une image obtenue classiquement par une caméra vidéo du fait de l'obtention de lignes d'image plutôt que directement d'une image bidimensionnelle et, ce y compris pour des objets allongés tels que des poids lourds 30 pour reprendre l'exemple d'application cité ci-dessus. En effet, la dynamique étendue pourra être obtenue en exploitant la vitesse d'acquisition du capteur permettant d'acquérir deux lignes successives avec des paramètres différents afin de reconstituer au final une image de dynamique supérieure à la dynamique de chacune des deux images.According to one embodiment, the image line sensor is positioned in overhang of the object and the means for obtaining the speed of the object are provided to estimate the speed of this object from image lines. acquired by this sensor. This embodiment is particularly advantageous because it uses a single image line sensor to obtain a contextual image and to obtain an estimate of the speed of the object. According to one embodiment, said first, the longitudinal axis of this sensor forms a non-zero angle relative to the perpendicular to the axis of movement of this object and each image line acquired by the sensor then representing the intersection of the object with the longitudinal axis of this sensor, the means for obtaining the speed of the object are then provided so that the speed is estimated from two lines of images that represent different intersections. According to another embodiment, said second, the device also comprises two mirrors forming between them a predefined angle so that each mirror reflects a different spatial area on part of the cells of the image line sensor, and the means for obtaining the speed of the object are then provided so that the speed is estimated from two sets of image lines, each acquired by a portion of the sensor cells. According to another embodiment, the means for obtaining image lines are a matrix camera equipped with a partial image transfer function and the means for obtaining the speed of the object are then provided so that the velocity is estimated from two sets of image lines, each acquired by a portion of the sensor cells. The present invention also relates to a method for producing a contextual image of an object in motion, characterized in that it comprises: a step of obtaining image lines of the object, a step of obtaining the speed of the object, - a step of calculating a temporal sampling frequency of the image lines thus obtained by multiplying a desired resolution value of the object 20 in the contextual image desired by the speed of this object thus obtained, a step of juxtaposing the image lines to obtain a two-dimensional image, and a step of sampling the two-dimensional image according to the sampling frequency thus calculated. This sampling step makes it possible to normalize the appearance of the object according to its speed. The method makes it possible to obtain a contextual image having a larger and more resolute dynamic than that of an image conventionally obtained by a video camera because of obtaining image lines rather than directly from a two-dimensional image and, this including for elongated objects such as heavy goods 30 to resume the application example cited above. Indeed, the extended dynamics can be obtained by exploiting the acquisition speed of the sensor for acquiring two successive lines with different parameters in order to reconstitute ultimately a dynamic image greater than the dynamics of each of the two images.
De plus, dans le cas où le procédé est mis en oeuvre pour le contrôle routier, le procédé permet d'obtenir une image contextuelle d'un véhicule et une vue de sa plaque d'immatriculation qui est lisible et exploitable par un procédé de reconnaissance de plaque même si la plaque est rétro-réflective et la carrosserie du véhicule est faiblement réflective. Le procédé peut donc permettre d'utiliser une caméra vidéo pour obtenir une image contextuelle et une caméra infrarouge pour obtenir une image sur laquelle est lisible la plaque d'immatriculation de ce véhicule comme cela est fait dans les dispositifs de l'état de la technique. Selon une variante du procédé, l'image bidimensionnelle est interpolée avant 10 d'être échantillonnée. Cette variante améliore la qualité de l'image contextuelle sur le plan du rapport signal sur bruit et du contenu fréquentiel de l'image. Selon un premier mode de réalisation du procédé, au cours de l'étape d'obtention de lignes d'image, deux ensembles de lignes d'image sont obtenus par un 15 dispositif conforme soit au deuxième soit au troisième mode de réalisation et au cours de l'étape d'obtention de la vitesse de l'objet, la vitesse de l'objet est estimée par corrélation de ces deux ensembles de lignes d'image. Selon un second mode de réalisation du procédé, deux lignes d'image sont acquises par le capteur de lignes d'image d'un dispositif conforme au premier mode 20 de réalisation, les deux lignes d'image représentant des intersections différentes de cet objet avec l'axe longitudinal du capteur, et la vitesse est estimée à partir de ces deux lignes d'image. Selon une mise en oeuvre particulière de ce second mode de réalisation, l'étape d'estimation de la vitesse comporte les sous-étapes suivantes : 25 - estimation de la variation de l'intersection de l'objet avec l'axe longitudinal du capteur à partir des deux lignes d'image, et - estimation de la vitesse (de cet objet à partir du rapport de la variation de l'intersection ainsi estimée et de la durée qui sépare les instants d'acquisition de ces deux lignes. 30 Selon une variante de ce second mode de réalisation du procédé, le capteur acquiert une ligne d'image au rythme d'une fréquence d'acquisition, la durée qui sépare les instants d'acquisition des deux lignes d'image est calculée à partir de la fréquence d'acquisition du capteur et du nombre de lignes acquises entre ces deux lignes d'image.Moreover, in the case where the method is implemented for the road control, the method makes it possible to obtain a contextual image of a vehicle and a view of its registration plate which is readable and exploitable by a recognition method plate even if the plate is retro-reflective and the body of the vehicle is weakly reflective. The method can therefore make it possible to use a video camera to obtain a contextual image and an infrared camera to obtain an image on which is readable the license plate of this vehicle as is done in the devices of the state of the art. . According to a variant of the method, the two-dimensional image is interpolated before being sampled. This variant improves the quality of the contextual image in terms of the signal-to-noise ratio and the frequency content of the image. According to a first embodiment of the method, during the step of obtaining image lines, two sets of image lines are obtained by a device conforming to either the second or the third embodiment and during from the step of obtaining the speed of the object, the speed of the object is estimated by correlation of these two sets of image lines. According to a second embodiment of the method, two image lines are acquired by the image line sensor of a device according to the first embodiment, the two image lines representing different intersections of this object with the longitudinal axis of the sensor, and the speed is estimated from these two image lines. According to a particular implementation of this second embodiment, the step of estimating the speed comprises the following substeps: estimation of the variation of the intersection of the object with the longitudinal axis of the sensor from the two image lines, and - estimation of the speed (of this object from the ratio of the variation of the intersection thus estimated and the duration which separates the acquisition instants of these two lines. a variant of this second embodiment of the method, the sensor acquires an image line at the rate of an acquisition frequency, the duration which separates the acquisition instants of the two image lines is calculated from the frequency of acquisition of the sensor and the number of lines acquired between these two image lines.
Selon une variante de la mise en oeuvre particulière, la variation de l'intersection est estimée en calculant la différence entre le nombre de cellules du capteur qui sont dans un état particulier dit PRESENT dans l'une des deux lignes d'image et le nombre de cellules du capteur qui sont dans l'état PRESENT dans l'autre ligne d'image.According to a variant of the particular implementation, the variation of the intersection is estimated by calculating the difference between the number of sensor cells that are in a particular state called PRESENT in one of the two image lines and the number sensor cells that are in the PRESENT state in the other image line.
Selon une variante de la mise en oeuvre particulière, le sens de déplacement de l'objet est déterminé selon le signe positif ou négatif de la vitesse de l'objet ainsi estimée. Selon une variante de son second mode de réalisation, le procédé comporte de plus les étapes suivantes : - détermination de deux lignes d'image qui représentent la même intersection, et - estimation de la largeur de l'objet à partir de l'une de ces deux lignes d'image. Selon une variante de son second mode de réalisation, le procédé comporte aussi les étapes suivantes : - détermination d'une ligne d'image qui correspond à l'entrée de l'objet dans le champ de vision du capteur et d'une ligne d'image qui correspond à la sortie de l'objet de ce champs de vision, et - estimation de la longueur de l'objet par calcul du rapport de la vitesse de l'objet préalablement estimée et de la durée qui sépare les deux lignes d'image ainsi déterminées.According to a variant of the particular implementation, the direction of movement of the object is determined according to the positive or negative sign of the speed of the object thus estimated. According to a variant of its second embodiment, the method further comprises the following steps: determining two image lines that represent the same intersection, and estimating the width of the object from one of these two lines of image. According to a variant of its second embodiment, the method also comprises the following steps: determining an image line that corresponds to the entry of the object in the field of view of the sensor and a line of image which corresponds to the exit of the object of this field of vision, and - estimation of the length of the object by calculation of the ratio of the velocity of the previously estimated object and the duration which separates the two lines of image thus determined.
Selon une variante de son second mode de réalisation, le procédé comporte également une étape de classification de l'objet en fonction de sa largeur et/ou de sa longueur ainsi déterminées et/ou à partir de la vitesse ainsi estimée de cet objet. La présente invention concerne aussi un programme d'ordinateur qui met en oeuvre le procédé de production d'une image contextuelle d'un objet en mouvement.According to a variant of its second embodiment, the method also comprises a step of classifying the object according to its width and / or length thus determined and / or from the speed thus estimated of this object. The present invention also relates to a computer program which implements the method of producing a contextual image of an object in motion.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels: Les Fig. la et lb représentent schématiquement un dispositif de production d'une image contextuelle d'un objet en mouvement selon la présente invention. Les Fig. 2a, 2b, 2c et 2d représentent schématiquement des exemples d'acquisition de lignes d'image par un capteur de lignes d'image selon un premier mode de réalisation du dispositif.The characteristics of the invention mentioned above, as well as others, will appear more clearly on reading the following description of an exemplary embodiment, said description being given in relation to the attached drawings, among which: FIGS. . 1a and 1b show schematically a device for producing a contextual image of a moving object according to the present invention. Figs. 2a, 2b, 2c and 2d show schematically examples of acquisition of image lines by an image line sensor according to a first embodiment of the device.
La Fig. 3 représente schématiquement un second mode de réalisation du dispositif de production d'une image contextuelle d'un objet en mouvement selon la présente invention. La Fig. 4 représente schématiquement un mode de réalisation des moyens de 5 production d'une image contextuelle. La Fig. 5 représente une illustration des étapes du procédé de production d'une image contextuelle selon la présente invention. La Fig. 6 représente une illustration des étapes du procédé de production d'une image contextuelle selon un premier mode de réalisation. 10 Les Fig. 7 et 8 représentent une illustration d'une mise en oeuvre particulière d'un second mode de réalisation du procédé. A la Fig. la et lb, est représenté de manière générale un dispositif D de production d'une image contextuelle d'un objet O en mouvement selon la présente invention. 15 Le dispositif D comporte des moyens C d'obtention de lignes d'image de l'objet et des moyens OV d'obtention de la vitesse de l'objet et des moyens PROD de production d'une image contextuelle regroupant des moyens de calcul d'une fréquence Fe d'échantillonnage temporel des lignes d'image ainsi obtenues en multipliant une valeur de résolution souhaitée R de l'objet O dans l'image 20 contextuelle par la vitesse VI de cet objet ainsi obtenue, des moyens de juxtaposition des lignes d'image pour obtenir une image bidimensionnelle, et des moyens d'échantillonnage de l'image bidimensionnelle selon la fréquence d'échantillonnage Fe ainsi calculée. Les moyens C et OV sont reliés aux moyens PROD par un réseau de 25 communication N filaire ou sans fil et, selon une variante, les moyens PROD sont intégrés aux moyens C ou aux moyens 0V. Le réseau de communication N peut être également utilisé par le dispositif D pour communiquer des données à un équipement distant (non représenté) qui regroupe les infractions constatées. Selon un mode de réalisation, les moyens OV d'obtention de la vitesse de l'objet 30 sont un cinémomètre laser ou un radar Doppler ou des boucles au sol, ou encore un système vidéo stéréo. Selon un mode de réalisation, les moyens C d'obtention de lignes d'image sont un capteur de lignes d'image.Fig. 3 schematically shows a second embodiment of the device for producing a contextual image of a moving object according to the present invention. Fig. 4 schematically represents an embodiment of the means for producing a contextual image. Fig. 5 is an illustration of the steps of the method of producing a contextual image according to the present invention. Fig. 6 is an illustration of the steps of the method of producing a contextual image according to a first embodiment. Figs. 7 and 8 show an illustration of a particular implementation of a second embodiment of the method. In FIG. 1a and 1b is generally shown a device D for producing a contextual image of an object O in motion according to the present invention. The device D comprises means C for obtaining image lines of the object and means OV for obtaining the speed of the object and means PROD for producing a contextual image comprising computation means of a temporal sampling frequency Fe of the image lines thus obtained by multiplying a desired resolution value R of the object O in the contextual image by the speed VI of this object thus obtained, means of juxtaposition of the image lines for obtaining a two-dimensional image, and means for sampling the two-dimensional image according to the sampling frequency Fe thus calculated. The means C and OV are connected to the means PROD by a wired or wireless N communication network and, alternatively, the means PROD are integrated in the means C or the means OV. The communication network N can also be used by the device D to communicate data to a remote device (not shown) which groups the detected infractions. According to one embodiment, the OV means for obtaining the speed of the object 30 are a laser speedometer or a Doppler radar or loops on the ground, or a stereo video system. According to one embodiment, the means C for obtaining image lines are an image line sensor.
Un capteur de lignes d'image est un capteur qui comporte un ensemble de cellules de type, par exemple, CCD (Charge-Coupled Device en anglais) ou CMOS (Complementary metal-oxide-semiconductor en anglais), qui sont alignées sur un axe. Ce type de capteur, qui équipe, par exemple, des caméras dites linéaires, permet l'acquisition ligne par ligne d'un objet en mouvement à une fréquence d'acquisition donnée. Cette fréquence d'acquisition détermine la période séparant l'acquisition de deux lignes d'image successives. Selon un mode de réalisation, le capteur de lignes d'image C est positionné en surplomb de l'objet O, c'est-à-dire qu'il est soit au-dessus de cet objet O, tel que illustré à la Fig. la, soit positionné sur un mât à côté de l'objet O à une hauteur supérieure à la hauteur de l'objet O. Les moyens OV d'obtention de la vitesse de l'objet sont alors prévus pour estimer la vitesse de cet objet à partir de lignes d'image acquises par ce capteur. Ces moyens OV sont alors regroupés dans les moyens PROD. Selon un mode de réalisation, dit premier et illustré aux Fig. 2a à 2d, le capteur de lignes d'image C est positionné de manière à ce que son axe longitudinal X forme un angle A non nul par rapport à la perpendiculaire à l'axe Y de déplacement de l'objet O. Chaque ligne d'image acquise par le capteur C représente alors l'intersection de l'objet O avec l'axe longitudinal de ce capteur et les moyens PROD pour estimer la vitesse sont alors prévus pour que la vitesse soit estimée à partir de deux lignes d'image qui représentent des intersections différentes. Selon les exemples de ces Figs. 2a à 2d, le capteur C comporte 24 cellules qui correspondent chacune à une valeur d'une ligne d'image. Le capteur C peut comporter un nombre différent de cellules sans pour autant limiter la portée de la présente invention.An image line sensor is a sensor which comprises a set of cells of type, for example, CCD (Charge-Coupled Device in English) or CMOS (Complementary metal-oxide-semiconductor in English), which are aligned on an axis. . This type of sensor, which equips, for example, so-called linear cameras, allows line-by-line acquisition of an object in motion at a given acquisition frequency. This acquisition frequency determines the period between the acquisition of two successive image lines. According to one embodiment, the image line sensor C is positioned above the object O, that is to say it is either above this object O, as illustrated in FIG. . la, is positioned on a mast next to the object O at a height greater than the height of the object O. OV means for obtaining the speed of the object are then provided to estimate the speed of this object from image lines acquired by this sensor. These OV means are then grouped in the means PROD. According to one embodiment, said first and illustrated in FIGS. 2a to 2d, the image line sensor C is positioned so that its longitudinal axis X forms a non-zero angle A relative to the perpendicular to the Y axis of displacement of the object O. Each line of image acquired by the sensor C then represents the intersection of the object O with the longitudinal axis of this sensor and the means PROD to estimate the speed are then provided so that the speed is estimated from two image lines which represent different intersections. According to the examples of these Figs. 2a to 2d, the sensor C has 24 cells each corresponding to a value of an image line. The sensor C may comprise a different number of cells without limiting the scope of the present invention.
A la Fig. 2a, l'objet O entre dans le champ de vision du capteur C et coupe l'axe longitudinal X du capteur C. La ligne d'image acquise représente alors l'intersection de l'objet O avec l'axe X de ce capteur. Selon l'exemple donné, l'intersection est représentée par une seule des cellules de ce capteur C. Cette cellule prend alors un état dit PRESENT (en noir). Sur la droite de la Fig. la est représentée la ligne d'image acquise. L'objet O se déplace et l'intersection augmente. A la Fig. 2b, cette intersection est représentée par quatre cellules du capteur C qui sont alors dans d'état PRESENT et à la Fig. 2c, par quinze cellules du capteur C qui sont alors dans l'état PRESENT. Cette dernière ligne d'image correspond à l'intersection maximale c'est-à-dire à la largeur de l'objet O. Les lignes d'images suivantes qui sont acquises par le capteur C sont toutes identiques et dès que l'objet O commence à quitter le champ de vision du capteur C, l'intersection diminue. Par exemple, la Fig. 2d illustre le cas où cette intersection est représentée par dix cellules du capteur C qui sont dans l'état PRESENT. Ainsi, on comprend que lorsqu'un objet O entre dans le champ de vision du capteur et jusqu'à ce qu'il en sorte complètement, un ensemble de lignes d'images est acquis par le capteur C selon sa fréquence d'acquisition. Ces lignes d'image représentent l'intersection de l'objet O avec l'axe X du capteur C. Cette intersection augmente au fur et à mesure que l'objet O entre dans le champ de vision du capteur, puis reste constante lorsque l'intersection maximale est atteinte, puis diminue au fur et à mesure que cet objet O sort du champ de vision. La Fig. 3 représente schématiquement un autre mode de réalisation du dispositif D, dit deuxième.In FIG. 2a, the object O enters the field of view of the sensor C and intersects the longitudinal axis X of the sensor C. The acquired image line then represents the intersection of the object O with the X axis of this sensor . According to the example given, the intersection is represented by only one of the cells of this sensor C. This cell then takes a state called PRESENT (in black). On the right of FIG. the is represented the image line acquired. The object O moves and the intersection increases. In FIG. 2b, this intersection is represented by four cells of the sensor C which are then in the PRESENT state and in FIG. 2c, by fifteen cells of the sensor C which are then in the PRESENT state. This last line of image corresponds to the maximum intersection, that is to say the width of the object O. The following lines of images which are acquired by the sensor C are all identical and as soon as the object O starts to leave the field of view of the sensor C, the intersection decreases. For example, FIG. 2d illustrates the case where this intersection is represented by ten cells of the sensor C which are in the PRESENT state. Thus, it is understood that when an object O enters the field of view of the sensor and until it comes out completely, a set of image lines is acquired by the sensor C according to its acquisition frequency. These image lines represent the intersection of the object O with the X axis of the sensor C. This intersection increases as the object O enters the field of view of the sensor, then remains constant when the maximum intersection is reached, then decreases as this object O leaves the field of view. Fig. 3 schematically shows another embodiment of the device D, said second.
Selon ce mode de réalisation, le dispositif D comporte également deux miroirs Ml et M2 formant entre eux un angle prédéfini E pour dédoubler le champ de vision du capteur C. On parle habituellement de repliement optique. Chaque miroir reflète une zone spatiale particulière sur une partie des cellules CCD du capteur C. Une zone spatiale peut, par exemple, être une zone d'une voie de circulation routière.According to this embodiment, the device D also comprises two mirrors M1 and M2 forming between them a predefined angle E to split the field of view of the sensor C. It is usually referred to as optical folding. Each mirror reflects a particular spatial area on a portion of the sensor C CCD cells. A spatial area may, for example, be an area of a traffic lane.
Ainsi, en réglant l'angle E, on définit deux zones spatiales différentes dont la distance qui les sépare est connue. Lorsqu'un objet O passe alors dans l'une de ces zones, un ensemble de lignes d'image qui est acquis par une partie du capteur, représente l'objet dans le champ de vision du capteur C et lorsque cet objet O passe dans l'autre de ces zones, un autre ensemble de lignes d'image est acquis par l'autre partie du capteur. Ainsi, le passage d'un objet O dans chacune de ces deux zones permet l'acquisition de deux ensembles de lignes d'image. Les moyens OV pour estimer la vitesse sont alors prévus pour que la vitesse soit estimée à partir de deux ensembles de lignes d'image, chacun acquis par une partie des cellules CCD du capteur C. Ces moyens OV sont alors regroupés dans les moyens PROD. Selon un autre mode de réalisation, les moyens C d'obtention de lignes d'image sont une caméra matricielle dotée d'une fonctionnalité de transfert d'image partielle, dite région d'intérêt. En sélectionnant, de manière alternative ou simultanée, deux régions d'intérêt d'une image acquise, deux ensembles de lignes sont acquis. En pratique, l'un de ces ensembles de lignes d'images est formé de quelques lignes de cette image qui sont situées à une extrémité de l'image et l'autre ensemble de lignes d'image est formé de quelques lignes de cette image situées à une extrémité opposée de l'image. Ces deux ensembles de lignes correspondent alors au passage de l'objet O dans deux zones spatiales différentes qui sont distantes de quelques mètres. La distance qui sépare ces deux zones est connue car le nombre de pixels de l'image qui sépare ces deux ensembles de lignes et la distance réelle représentée par chaque pixel de cette image sont connus en particulier par calibration de la caméra matricielle.Thus, by adjusting the angle E, two different spatial zones are defined whose distance between them is known. When an object O then passes into one of these zones, a set of image lines that is acquired by a part of the sensor, represents the object in the field of view of the sensor C and when this object O passes into the other of these areas, another set of image lines is acquired by the other part of the sensor. Thus, the passage of an object O in each of these two areas allows the acquisition of two sets of image lines. The OV means for estimating the speed are then provided so that the speed is estimated from two sets of image lines, each acquired by a portion of the CCD cells of the sensor C. These OV means are then grouped in the means PROD. According to another embodiment, the means C for obtaining image lines are a matrix camera with a partial image transfer function, called region of interest. By selecting, alternately or simultaneously, two regions of interest of an acquired image, two sets of lines are acquired. In practice, one of these sets of image lines is formed of a few lines of this image which are located at one end of the image and the other set of image lines is formed of a few lines of this image. located at an opposite end of the image. These two sets of lines then correspond to the passage of the object O in two different spatial zones which are separated by a few meters. The distance separating these two zones is known because the number of pixels of the image which separates these two sets of lines and the real distance represented by each pixel of this image are known in particular by calibration of the matrix camera.
Les moyens OV pour estimer la vitesse sont alors prévus pour que la vitesse soit estimée à partir de deux ensembles de lignes d'image, chacun acquis par une partie des cellules CCD du capteur. Ces moyens OV sont alors regroupés dans les moyens PROD. La Fig. 4 illustre un mode de réalisation des moyens PROD.The OV means for estimating the speed are then provided so that the speed is estimated from two sets of image lines, each acquired by a portion of the CCD cells of the sensor. These OV means are then grouped in the means PROD. Fig. 4 illustrates an embodiment of the PROD means.
Selon ce mode de réalisation, les moyens PROD sont regroupés dans un terminal éventuellement portable tel qu'un ordinateur, qui comporte, reliés par un bus de communication 210 : - un processeur, micro-processeur, microcontrôleur (noté µc) ou CPU (Central Processing Unit en anglais ou Unité Centrale de Traitement en français) 200 ; - une mémoire vive RAM (Random Access Memory en anglais ou Mémoire à Accès Aléatoire en français) 201 ; - une mémoire morte ROM (Read Only Memory en anglais ou Mémoire à Lecture Seule en français) 202 ; - des moyens d'interface COM 205 avec le réseau de communication N, comme par exemple un réseau de radiotéléphonie cellulaire ; et optionnellement, - des moyens d'interfaçage graphique GUI 204 tels qu'un écran tactile et/ou encore un ensemble de touches. Le microcontrôleur 200 est capable d'exécuter des instructions chargées dans la RAM 201 à partir de la ROM 202, d'une mémoire externe (non représentée), d'un support de stockage, tel qu'une carte SD ou autre, ou d'un réseau de communication. Lorsque le terminal est mis sous tension, le microcontrôleur 200 est capable de lire de la RAM 201 des instructions et de les exécuter. Ces instructions forment un programme d'ordinateur. Ce programme d'ordinateur cause la mise en oeuvre, par le microcontrôleur 200, de tout ou partie des procédés décrits ci-après. Tout ou partie des procédés décrits ci-après peut être implémenté sous forme logicielle par exécution d'un ensemble d'instructions par une machine programmable, tel qu'un DSP (Digital Signal Processor en anglais ou Unité de Traitement de Signal Numérique en français) ou un microcontrôleur, tel que le microcontrôleur 200, ou être implémenté sous forme matérielle par une machine ou un composant dédié, tel qu'un FPGA (Field-Programmable Gate Array en anglais ou Circuit Intégré Programmable en français) ou un ASIC (Application-Specific Integrated Circuit en anglais ou Circuit Intégré Spécifique à une Application en français). A la Fig. 5 est représentée une illustration des étapes du procédé de production d'une image contextuelle d'un objet O en mouvement. Le procédé comporte une étape 1 d'obtention de lignes d'image de l'objet O, une étape 2 d'obtention de la vitesse VI de l'objet O, une étape 3 de calcul d'une fréquence d'échantillonnage Fe temporel des lignes d'image ainsi obtenues en multipliant une valeur de résolution R souhaitée de l'objet O dans l'image contextuelle souhaitée par la vitesse VI de cet objet ainsi obtenue, une étape 4 de juxtaposition des lignes d'image pour obtenir une image bidimensionnelle, et une étape 5 d'échantillonnage de l'image bidimensionnelle selon la fréquence d'échantillonnage ainsi calculée. Selon une variante du procédé, l'image bidimensionnelle est interpolée avant d'être échantillonnée. Une méthode d'interpolation quelconque de l'état de l'art peut être utilisée tant que cette méthode garantit le respect du théorème de Shannon et évite le repliement de spectre. Des méthodes basées sur un filtre spatial coupe-haut tel qu'un filtre gaussien, ou encore filtre sinus cardinal sont adaptées. En termes mathématiques, la fréquence d'échantillonnage Fe est le rapport entre le nombre de lignes d'image nL considéré pour reconstruire l'image contextuelle sur la durée T de présence de l'objet O dans le champ de vision du capteur C, c'est-à-dire la durée estimée entre les lignes LE et LS. Fe=nL/T avec nL=R x LO avec LO la longueur estimée de l'objet O. A la Fig. 6 est représenté un premier mode de réalisation du procédé.According to this embodiment, the means PROD are grouped in a possibly portable terminal such as a computer, which comprises, connected by a communication bus 210: a processor, microprocessor, microcontroller (noted μc) or CPU (Central Processing Unit in English or Central Processing Unit in French) 200; random access memory RAM (Random Access Memory in English) 201; a ROM (Read Only Memory in English or Mémoire à Lire Seul in French) 202; COM interface means 205 with the communication network N, for example a cellular radiotelephone network; and optionally, graphical interfacing means GUI 204 such as a touch screen and / or a set of keys. The microcontroller 200 is capable of executing instructions loaded into the RAM 201 from the ROM 202, an external memory (not shown), a storage medium, such as an SD card or the like, or a communication network. When the terminal is powered up, the microcontroller 200 is able to read instructions from RAM 201 and execute them. These instructions form a computer program. This computer program causes the implementation, by the microcontroller 200, of all or part of the methods described below. All or part of the methods described below can be implemented in software form by executing a set of instructions by a programmable machine, such as a DSP (Digital Signal Processor in English or Digital Signal Processing Unit in French). or a microcontroller, such as the microcontroller 200, or be implemented in hardware form by a machine or a dedicated component, such as an FPGA (Field Programmable Gate Array) or an ASIC (Application- Specific Integrated Circuit in English or Integrated Circuit Specific to an Application in French). In FIG. An illustration of the steps of the method of producing a contextual image of an object O in motion is shown. The method comprises a step 1 of obtaining image lines of the object O, a step 2 of obtaining the speed VI of the object O, a step 3 of calculating a sampling frequency Fe temporal image lines thus obtained by multiplying a desired resolution value R of the object O in the desired contextual image by the speed VI of this object thus obtained, a step 4 of juxtaposing the image lines to obtain an image two-dimensional image, and a step of sampling the two-dimensional image according to the sampling frequency thus calculated. According to a variant of the method, the two-dimensional image is interpolated before being sampled. Any method of interpolation of the state of the art can be used as long as this method guarantees the respect of Shannon's theorem and avoids the aliasing of the spectrum. Methods based on a high-level spatial filter such as a Gaussian filter, or cardinal sinus filter are adapted. In mathematical terms, the sampling frequency Fe is the ratio between the number of image lines nL considered to reconstruct the contextual image on the duration T of presence of the object O in the field of view of the sensor C, c i.e., the estimated time between the LE and LS lines. Fe = nL / T with nL = R x LO with LO the estimated length of object O. In FIG. 6 is shown a first embodiment of the method.
Selon ce mode de réalisation, au cours de l'étape 1, deux ensembles de lignes d'image sont acquis par un dispositif alors conforme soit au deuxième soit au troisième mode de réalisation et, au cours de l'étape 2, la vitesse de l'objet O est estimée par corrélation de ces deux ensembles de lignes d'image.According to this embodiment, during step 1, two sets of image lines are acquired by a device then conforming to either the second or the third embodiment and, during step 2, the speed of the object O is estimated by correlation of these two sets of image lines.
En effet, une fois ces deux ensembles de lignes d'image corrélés, la vitesse de l'objet O est estimée en divisant la distance (connue au préalable) entre les deux zones de la voie par la durée ainsi déterminée par la corrélation de ces deux ensembles de lignes. Selon un second mode de réalisation du procédé, au cours de l'étape 1, deux lignes d'image sont acquises par le capteur C du dispositif D conforme au premier mode de réalisation. Ces deux lignes correspondent à des intersections différentes de cet objet O avec l'axe longitudinal X du capteur C. Par exemple, ces deux lignes d'image sont les lignes L1 et L2 des Fig. 2b et 2c. Au cours de l'étape 2, la vitesse de ce véhicule est estimée à partir de ces deux lignes d'image L1 et L2. Selon une mise en oeuvre particulière de ce second mode de réalisation, illustrée aux Figs. 7 et 8, l'étape 1 d'estimation de la vitesse comporte les sous-étapes suivantes : - estimation (1) de la variation dic de l'intersection de l'objet O avec l'axe 20 longitudinal X du capteur à partir des deux lignes d'image L1 et L2, et - estimation (2) de la vitesse VI de cet objet O à partir du rapport de la variation dic de l'intersection de l'objet O avec l'axe X ainsi estimée et de la durée dt qui sépare les instants d'acquisition de ces deux lignes L1 et L2. Selon une variante de ce second mode de réalisation du procédé, la durée dt est 25 calculée à partir de la fréquence d'acquisition du capteur C et du nombre de lignes acquises entre ces deux lignes d'image. En effet, l'inverse de la fréquence d'acquisition définit la période de temps qui s'écoule entre l'acquisition de deux lignes d'image successives et en multipliant cette période par le nombre de lignes acquises entre les lignes L1 et L2, on en déduit 30 aisément la durée dt. Selon une variante de la mise en oeuvre particulière, la variation de l'intersection est estimée en calculant la différence entre le nombre de cellules du capteur qui sont dans l'état PRESENT dans la ligne d'image L1 qui a été acquise à un instant Tl et le nombre de cellules du capteur qui sont dans l'état PRESENT dans la ligne d'image L2 acquise à un instant T2. Cette différence est signée.Indeed, once these two sets of correlated image lines, the speed of the object O is estimated by dividing the distance (previously known) between the two zones of the pathway by the duration thus determined by the correlation of these two sets of lines. According to a second embodiment of the method, during step 1, two image lines are acquired by the sensor C of the device D according to the first embodiment. These two lines correspond to different intersections of this object O with the longitudinal axis X of the sensor C. For example, these two image lines are the lines L1 and L2 of FIGS. 2b and 2c. During step 2, the speed of this vehicle is estimated from these two image lines L1 and L2. According to a particular implementation of this second embodiment, illustrated in FIGS. 7 and 8, step 1 of estimation of the speed comprises the following substeps: estimation (1) of the variation dic of the intersection of the object O with the longitudinal axis X of the sensor from of the two image lines L1 and L2, and - estimation (2) of the speed VI of this object O from the ratio of the variation dic of the intersection of the object O with the axis X thus estimated and of the duration dt which separates the instants of acquisition of these two lines L1 and L2. According to a variant of this second embodiment of the method, the duration dt is calculated from the acquisition frequency of the sensor C and the number of lines acquired between these two image lines. Indeed, the inverse of the acquisition frequency defines the period of time which elapses between the acquisition of two successive image lines and by multiplying this period by the number of lines acquired between lines L1 and L2, it is easy to deduce the duration dt. According to a variant of the particular implementation, the variation of the intersection is estimated by calculating the difference between the number of sensor cells which are in the PRESENT state in the image line L1 which has been acquired at a given moment. Tl and the number of sensor cells that are in the PRESENT state in the L2 image line acquired at a time T2. This difference is signed.
La Fig. 8 représente l'exemple des Figs. 2b et 2c en superposant les deux positions de l'objet O sur une même figure. La position de l'objet O à un instant Tl relatif à la Fig. 2b est représentée en pointillés tandis que la position de cet objet à un instant T2 relatif à la Fig. 2c est représentée en trait plein.Fig. 8 represents the example of FIGS. 2b and 2c by superimposing the two positions of the object O on the same figure. The position of the object O at a time T1 relative to FIG. 2b is shown in dashed lines while the position of this object at a time T2 relative to FIG. 2c is represented in solid line.
La vitesse VI de l'objet O est estimée par dP dl c * sin(A) VI =- dt dtThe speed VI of the object O is estimated by dP dl c * sin (A) VI = - dt dt
dans laquelle dP désigne le déplacement de l'objet O pendant la durée dt=T2-T1, et clic désigne la variation de l'intersection de l'objet O avec l'axe X du capteur C pendant la durée dt.where dP denotes the displacement of the object O during the period dt = T2-T1, and click denotes the variation of the intersection of the object O with the X axis of the sensor C during the duration dt.
Selon une variante de la mise en oeuvre particulière, le sens de déplacement de l'objet O est déterminé selon le signe positif ou négatif de la vitesse VI de l'objet O ainsi estimée, c'est-à-dire du signe de la variation dlc.According to a variant of the particular implementation, the direction of movement of the object O is determined according to the positive or negative sign of the speed VI of the object O thus estimated, that is to say the sign of the variation dlc.
Selon une variante de son second mode de réalisation, le procédé comporte de plus les étapes suivantes :According to a variant of its second embodiment, the method further comprises the following steps:
- détermination de deux lignes d'image qui représentent la même intersection, et- determination of two image lines that represent the same intersection, and
- estimation de la largeur de l'objet O à partir de l'une de ces deux lignes d'image.estimating the width of the object O from one of these two image lines.
Deux lignes d'image représentent la même intersection de l'objet O avec l'axe X du capteur C lorsque ces deux lignes correspondent au même nombre de cellules du capteur C qui sont à l'état PRESENT. Connaissant la taille de chaque cellule, la focale f de l'objectif du dispositif et approximativement la distance entre l'objet O et le capteur C, il est aisé d'obtenir une estimation de la largeur de l'objet O. La largeur 1 de l'objet O est donnée par : 1=Nc x Tc x d/f dans laquelle Nc représente le nombre de cellules qui sont à l'état PRESENT, Tc la taille d'une cellule et d la distance entre l'objet O et le capteur C.Two image lines represent the same intersection of the object O with the X axis of the sensor C when these two lines correspond to the same number of cells of the sensor C which are in the PRESENT state. Knowing the size of each cell, the focal length f of the lens of the device and approximately the distance between the object O and the sensor C, it is easy to obtain an estimate of the width of the object O. The width 1 of the object O is given by: 1 = Nc x Tc xd / f where Nc is the number of cells in the PRESENT state, Tc the size of a cell and the distance between the object O and the sensor C.
Selon une variante de son second mode de réalisation, le procédé comporte aussi les étapes suivantes : - détermination d'une ligne d'image qui correspond à l'entrée de l'objet O dans le champ de vision du capteur de lignes d'image et d'une ligne d'image qui correspond à la sortie de l'objet 0 de ce champ de vision, et - estimation de la longueur de l'objet O par calcul du rapport de la vitesse de l'objet O préalablement estimée VI et de la durée qui sépare les deux lignes ainsi déterminées. La ligne d'image acquise LE qui correspond à l'entrée de l'objet O dans le champ de vision du capteur C est la première ligne d'image qui correspond à au moins une cellule du capteur C dans l'état PRESENT. De manière duale, tant que l'objet O est présent dans le champ de vision du capteur C, au moins une des cellules du capteur C est dans l'état PRESENT et dès qu'aucune de ces cellules n'est dans cet état, la première ligne d'image acquise juste après est la ligne d'image LS qui correspond à la sortie de l'objet O du champ de vision du capteur C. Une fois connues ces deux lignes d'image LE et LS, il est possible de calculer la durée qui sépare ces deux lignes d'image et d'en déduire alors la longueur de l'objet O par division de la vitesse VI déterminée ci-dessus par cette durée. Selon une variante de son second mode de réalisation, le procédé comporte 15 également une étape de classification de l'objet O en fonction de sa largeur et/ou de sa longueur ainsi déterminées et/ou à partir de sa vitesse estimée VI. Selon une variante du procédé, les lignes LE et LS sont considérées pour estimer la vitesse VI de l'objet O. Cette variante permet de fiabiliser une (voire plusieurs autres) estimation 20 préalable de la vitesse de l'objet O calculée à partir de deux autres lignes d'image comprises entre ces deux lignes LE et LS. Elle permet aussi de détecter si un objet O s'est arrêté dans le champ de vision du capteur C car l'instant où l'objet O sort de ce champ n'existera pas.According to a variant of its second embodiment, the method also comprises the following steps: determining an image line that corresponds to the input of the object O in the field of view of the image line sensor and an image line that corresponds to the output of the object 0 of this field of view, and - estimating the length of the object O by calculating the ratio of the speed of the object O previously estimated VI and the length of time between the two lines thus determined. The acquired image line LE which corresponds to the input of the object O in the field of view of the sensor C is the first image line which corresponds to at least one cell of the sensor C in the PRESENT state. In a dual way, as long as the object O is present in the field of view of the sensor C, at least one of the cells of the sensor C is in the PRESENT state and as soon as none of these cells is in this state, the first image line acquired just after is the image line LS which corresponds to the output of the object O from the field of view of the sensor C. Once these two image lines LE and LS are known, it is possible to calculate the duration which separates these two image lines and to deduce then the length of the object O by division of the speed VI determined above by this duration. According to a variant of its second embodiment, the method also comprises a step of classifying the object O according to its width and / or length thus determined and / or from its estimated speed VI. According to a variant of the method, the lines LE and LS are considered to estimate the speed VI of the object O. This variant makes it possible to make reliable one (or several others) preliminary estimate of the speed of the object O calculated from two other image lines between these two lines LE and LS. It also makes it possible to detect if an object O has stopped in the field of view of the sensor C because the moment when the object O leaves this field will not exist.
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1154066AFR2975208B1 (en) | 2011-05-11 | 2011-05-11 | METHOD AND DEVICE FOR PRODUCING A CONTEXTUAL IMAGE OF A MOVING OBJECT |
| PCT/EP2012/058644WO2012152868A1 (en) | 2011-05-11 | 2012-05-10 | Method and device for the production of a contextual image of a moving object |
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1154066AFR2975208B1 (en) | 2011-05-11 | 2011-05-11 | METHOD AND DEVICE FOR PRODUCING A CONTEXTUAL IMAGE OF A MOVING OBJECT |
| Publication Number | Publication Date |
|---|---|
| FR2975208A1true FR2975208A1 (en) | 2012-11-16 |
| FR2975208B1 FR2975208B1 (en) | 2014-01-03 |
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR1154066AActiveFR2975208B1 (en) | 2011-05-11 | 2011-05-11 | METHOD AND DEVICE FOR PRODUCING A CONTEXTUAL IMAGE OF A MOVING OBJECT |
| Country | Link |
|---|---|
| FR (1) | FR2975208B1 (en) |
| WO (1) | WO2012152868A1 (en) |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0834838A2 (en)* | 1994-04-13 | 1998-04-08 | Toyota Jidosha Kabushiki Kaisha | Automatic debiting system suitable for free lane traveling |
| US7099496B2 (en)* | 2000-12-05 | 2006-08-29 | Validity Sensors, Inc. | Swiped aperture capacitive fingerprint sensing systems and methods |
| US20090279749A1 (en)* | 2008-05-12 | 2009-11-12 | Sonavation, Inc. | Methods and Apparatus for Digit Swipe Sensor Data Streaming |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1993019429A1 (en)* | 1992-03-18 | 1993-09-30 | In-Mar-Tech Australia Pty. Ltd. | Vision apparatus |
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0834838A2 (en)* | 1994-04-13 | 1998-04-08 | Toyota Jidosha Kabushiki Kaisha | Automatic debiting system suitable for free lane traveling |
| US7099496B2 (en)* | 2000-12-05 | 2006-08-29 | Validity Sensors, Inc. | Swiped aperture capacitive fingerprint sensing systems and methods |
| US20090279749A1 (en)* | 2008-05-12 | 2009-11-12 | Sonavation, Inc. | Methods and Apparatus for Digit Swipe Sensor Data Streaming |
| Publication number | Publication date |
|---|---|
| WO2012152868A1 (en) | 2012-11-15 |
| FR2975208B1 (en) | 2014-01-03 |
| Publication | Publication Date | Title |
|---|---|---|
| US10557925B2 (en) | Time-of-flight (TOF) image sensor using amplitude modulation for range measurement | |
| BE1022490B1 (en) | METHOD FOR CONTROLLING A TIME-OF-VOL. | |
| EP1694058A1 (en) | Image capture method and device comprising local motion estimation | |
| EP3271869B1 (en) | Method for processing an asynchronous signal | |
| CA2859900A1 (en) | Method of estimating optical flow on the basis of an asynchronous light sensor | |
| EP3572976A1 (en) | Method for processing a video image stream | |
| EP3113103A1 (en) | High-resolution camera unit for drone, with correction of wobble distortion | |
| FR2858447A1 (en) | AUTOMATED PERCEPTION METHOD AND DEVICE WITH DETERMINATION AND CHARACTERIZATION OF EDGES AND BORDERS OF OBJECTS OF A SPACE, CONSTRUCTION OF CONTOURS AND APPLICATIONS | |
| EP2059831A1 (en) | Device and method for estimating the dimensions of a parking space, motor vehicle comprising such a device | |
| EP3770806B1 (en) | Method for video monitoring of the crossing of a line by persons, corresponding device and computer program | |
| EP0588815B1 (en) | Road image sequence analysis device and method for obstacle detection | |
| EP3070643B1 (en) | Method and device for object recognition by analysis of digital image signals representative of a scene | |
| WO2019166720A1 (en) | Dynamic detection of stray light in a digital image | |
| EP1995693A1 (en) | Method for detecting a moving object in a stream of images | |
| FR2975208A1 (en) | METHOD AND DEVICE FOR PRODUCING A CONTEXTUAL IMAGE OF A MOVING OBJECT | |
| EP3770805A1 (en) | Method for identifying a person in a video, by a visual signature of said person, corresponding device and computer program | |
| EP3170205B1 (en) | Device for detecting movement | |
| WO2017005930A1 (en) | Detection of objects by image processing | |
| FR2975186A1 (en) | METHOD AND DEVICE FOR MEASURING THE SPEED OF A VEHICLE CIRCULATING ON A TRACK. | |
| EP3360055B1 (en) | Method of optimizing decomposition of an asynchronous signal | |
| EP3069319B1 (en) | System and method for characterising objects of interest in a scene | |
| WO2020094441A1 (en) | Image sensor for optical code recognition | |
| EP3072110B1 (en) | Method for estimating the movement of an object | |
| FR3092426A1 (en) | Dynamic three-dimensional imaging process | |
| EP4439478A1 (en) | Method for tracking multiple objects |
| Date | Code | Title | Description |
|---|---|---|---|
| CA | Change of address | Effective date:20130917 | |
| PLFP | Fee payment | Year of fee payment:6 | |
| PLFP | Fee payment | Year of fee payment:7 | |
| PLFP | Fee payment | Year of fee payment:8 | |
| PLFP | Fee payment | Year of fee payment:9 | |
| PLFP | Fee payment | Year of fee payment:10 | |
| PLFP | Fee payment | Year of fee payment:11 | |
| CA | Change of address | Effective date:20210526 | |
| CD | Change of name or company name | Owner name:IDEMIA IDENTITY & SECURITY FRANCE, FR Effective date:20210526 | |
| PLFP | Fee payment | Year of fee payment:12 | |
| PLFP | Fee payment | Year of fee payment:13 | |
| PLFP | Fee payment | Year of fee payment:14 |