

Die Erfindung betrifft ein Videoverarbeitungssystem, insbesondere als Teil eines Fernsehübertragungssystems, zur Verarbeitung von Videoeinzelbildern einer Videobildabfolge, insbesondere eines Videostreams, wobei das Videoverarbeitungssystem dazu eingerichtet ist, zu jedem Videoeinzelbild wenigstens eine zugeordnete Bildmaske und zugeordnete Kameradaten bereitzustellen und wobei das Videoverarbeitungssystem eine Videoeinzelbild-Manipulationseinheit aufweist, die dazu eingerichtet ist, jedes eingangsseitig eingehende Videoeinzelbild anzupassen und als manipuliertes Videoeinzelbild ausgangsseitig auszugeben, derart, dass eine Videobildabfolge aus manipulierten Videoeinzelbildern gebildet wird.The invention relates to a video processing system, in particular as part of a television transmission system, for processing individual video images of a video image sequence, in particular of a video stream, wherein the video processing system is configured to provide at least one associated image mask and associated camera data for each individual video image, and wherein the video processing system has a video image manipulation unit configured to adapt each individual video image arriving on the input side and to output it as a manipulated individual video image on the output side, such that a video image sequence is formed from manipulated individual video images.
Zum Stand der Technik wird beispielhaft auf die
Die der Erfindung zu Grunde liegende Aufgabe wird darin gesehen, ein Videoverarbeitungssystem anzugeben, das eine verbesserte und für den Konsumenten eines manipulierten Videostreams nicht wahrnehmbare Bildanpassung bzw. Bildmanipulation ermöglicht.The object underlying the invention is to provide a video processing system that enables improved image adaptation or image manipulation that is imperceptible to the consumer of a manipulated video stream.
Diese Aufgabe wird gelöst durch ein Videoverarbeitungssystem mit den Merkmalen des unabhängigen Patentanspruchs Vorteilhafte Ausgestaltungen mit zweckmäßigen Weiterbildungen sind in den abhängigen Patentansprüchen angegeben.This object is achieved by a video processing system having the features of the independent patent claim. Advantageous embodiments with expedient further developments are specified in the dependent patent claims.
Vorgeschlagen wird also ein Videoverarbeitungssystem, insbesondere als Teil eines Fernsehübertragungssystems, zur Verarbeitung von Videoeinzelbildern einer Videobildabfolge, insbesondere eines Videostreams, wobei das Videoverarbeitungssystem dazu eingerichtet ist, zu jedem Videoeinzelbild wenigstens eine zugeordnete Bildmaske und zugeordnete Kameradaten bereitzustellen und wobei das Videoverarbeitungssystem aufweist:
Bei dem Videoverarbeitungssystem kann eine Bildmaske eine Patchmaske sein, wobei die Patchmaske eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild ist, wobei die Patchmaske Pixel angibt, die in dem Videoeinzelbild zu manipulieren sind. Dabei ist die Patchmaske jeweils einem Videoeinzelbild bzw. Frame zugeordnet, so dass für dieses Videoeinzelbild festgelegt ist, welche Pixel manipuliert werden sollen. Beispielweise können zu manipulierende Patchpixel mit „1“ gekennzeichnet sein, während alle anderen Pixel mit „0“ gekennzeichnet sind.In the video processing system, an image mask can be a patch mask. The patch mask is a binary mask with the same pixel resolution as the video frame. The patch mask specifies pixels to be manipulated in the video frame. The patch mask is assigned to each video frame, so that the pixels to be manipulated are determined for that video frame. For example, patch pixels to be manipulated can be marked with "1," while all other pixels are marked with "0."
Bei dem Videoverarbeitungssystem kann eine Bildmaske eine Vordergrundmaske sein, wobei die Vordergrundmaske eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild ist, wobei die Vordergrundmaske Pixel angibt, die aufgenommene Objekte repräsentieren, welche von der Patchmaske identifizierte Bereiche abdecken. Dabei ist die Vordergrundmaske jeweils einem Videoeinzelbild bzw. Frame zugeordnet, so dass für dieses Videoeinzelbild festgelegt ist, welches zu manipulierende (Patch-) Pixel von einem Vordergrundpixel abgedeckt ist. Beispielweise können Vordergrundpixel mit „1“ gekennzeichnet sein, während alle anderen Pixel mit „0“ gekennzeichnet sind.In the video processing system, an image mask can be a foreground mask. The foreground mask is a binary mask with the same pixel resolution as the video frame. The foreground mask specifies pixels representing recorded objects that cover areas identified by the patch mask. The foreground mask is assigned to each video frame, so that for this video frame, it is determined which (patch) pixel to be manipulated is covered by a foreground pixel. For example, foreground pixels can be labeled "1," while all other pixels are labeled "0."
Bei dem Videoverarbeitungssystem kann aus der Patchmaske und der Vordergrundmaske eine verschmolzene Maske gebildet werden, wobei die verschmolzene Maske eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild ist, wobei die verschmolzene Maske Pixel angibt, die ein Patchpixel oder/und ein Vordergrundpixel bilden. Beispielweise können zu manipulierende Patchpixel und Vordergrundpixel mit „1“ gekennzeichnet sein, während alle anderen Pixel mit „0“ gekennzeichnet sind.In the video processing system, a fused mask can be formed from the patch mask and the foreground mask. The fused mask is a binary mask with the same pixel resolution as the video frame. The fused mask specifies pixels that form a patch pixel and/or a foreground pixel. For example, patch pixels and foreground pixels to be manipulated can be labeled "1," while all other pixels are labeled "0."
Bei dem Videoverarbeitungssystem kann die Texturpatch-Erzeugungseinheit ein Vorbedingungsmodul aufweisen, das dazu eingerichtet ist, das Erfüllen von einer oder mehreren Vorbedingung(en) zu überprüfen, und das Berechnen des Texturpatches nur bei Erfüllen der Vorbedingung(en) durchzuführen. Mit anderen Worten wird mittels des Vorbedingungsmoduls das Berechnen von Texturpatches nur unter bestimmten bzw. gewünschten Umständen durchgeführt, wobei diese Umstände bzw. Vorbedingungen einstellbar bzw. anpassbar sind.In the video processing system, the texture patch generation unit may comprise a precondition module configured to check whether one or more preconditions are met and to calculate the texture patch only if the precondition(s) are met. In other words, the precondition module calculates texture patches only under specific or desired circumstances, wherein these circumstances or preconditions are adjustable or adaptable.
Dabei kann bzw. können die Vorbedingung(en) eine oder mehrere aus der folgenden Aufzählung sein:
Bei der Vorbedingung a) wird also überprüft, ob die Texturpatch-Erzeugungseinheit mit der Berechnung eines vorherigen Texturpatches bereits fertig ist und in der Lage ist, ein neues Ergebnis bzw. Texturpatch zu berechnen.Precondition a) checks whether the texture patch generation unit has already finished calculating a previous texture patch and is able to calculate a new result or texture patch.
Bei der Vorbedingung b) wird überprüft, ob die mittels der Patchmaske festgelegten, zu manipulierenden Pixel innerhalb des Videoeinzelbildes liegen.Precondition b) checks whether the pixels to be manipulated, as defined by the patch mask, are located within the video frame.
Bei der Vorbedingung c) wird sichergestellt, dass ein überwiegender Teil der zu manipulierenden Pixel, also der Patchpixel der Patchmaske, nicht von Vordergrundpixeln abgedeckt sind.Precondition c) ensures that a predominant part of the pixels to be manipulated, i.e. the patch pixels of the patch mask, are not covered by foreground pixels.
Bei der Vorbedingung d) wird überprüft, ob gar keine Überlappung zwischen Vordergrundmaske und Pixelmaske vorliegt.Precondition d) checks whether there is no overlap at all between the foreground mask and the pixel mask.
Bei der Vorbedingung e) wird im Fall einer Überlappung, etwa gemäß Vorbedingung c), sichergestellt, dass diese Überlappung nicht nur kurzfristig vorliegt, sondern während einer längeren Zeitdauer, von beispielsweise mehreren Sekunden, wobei als Zeitgrenzwert beispielsweise 10 Sekunden oder länger angesetzt werden kann.In the case of an overlap, for example in accordance with precondition c), precondition e) ensures that this overlap does not only occur for a short time, but for a longer period of time, for example several seconds, whereby the time limit can be set to 10 seconds or longer.
Bei der Vorbedingung f) können die Kameradaten zu dem Videoeinzelbild ausgewertet werden, um sicherzustellen, dass ein Texturpatch nur dann berechnet wird, wenn keine zu schnelle Kamerabewegung durchgeführt wird.In precondition f), the camera data for the video frame can be evaluated to ensure that a texture patch is only calculated if the camera movement is not too fast.
Bei dem Videoverarbeitungssystem kann die Texturpatch-Erzeugungseinheit dazu eingerichtet sein, ein Videoeinzelbild, die zugeordnete Patchmaske und die Kameradaten so lange zu speichern, bis die Vorbedingung(en) ein nächstes Mal erfüllt ist bzw. sindIn the video processing system, the texture patch generation unit may be configured to store a video frame, the associated patch mask, and the camera data until the precondition(s) are met a next time
Dabei kann die Texturpatch-Erzeugungseinheit dazu eingerichtet sein, ein Textur-Videoeinzelbild zu berechnen, das gleich ist wie das Videoeinzelbild außer in den Bereichen mit Patchpixeln basierend auf der Patchmaske, und Pixelfarben für die Patchpixel derart zu berechnen, dass das Textur-Videoeinzelbild von einem Betrachter wie ein real aufgenommenes Kamerabild wahrgenommen wird.The texture patch generation unit may be configured to calculate a texture video frame that is the same as the video frame except in the areas with patch pixels based on the patch mask, and to calculate pixel colors for the patch pixels such that the texture video frame is perceived by a viewer as a real camera image.
Dabei kann die Texturpatch-Erzeugungseinheit ein Texturpatch-Extraktionsmodul aufweisen, das dazu eingerichtet ist, basierend auf dem berechneten Textur-Videoeinzelbild das Texturpatch in geometrisch normalisiertem Format zu erzeugen.The texture patch generation unit may comprise a texture patch extraction module configured to generate the texture patch in geometrically normalized format based on the calculated texture video frame.
In diesem Zusammenhang wird ergänzend darauf hingewiesen, dass die Texturpatch-Erzeugungseinheit potentiell auch ein Ergebnis (Textur-Videoeinzelbild) berechnen kann, das einen größeren Bereich manipuliert als durch die Patchmaske angegeben. Mit anderen Worten ist die Manipulation nicht zwingend auf die Patchpixel beschränkt, sondern kann auch benachbart zu diesen oder in anderen Bildbereichen erfolgen. Allerdings wird in einem solchen Fall das Texturpatch-Extraktionsmodul nur den Bereich, der durch die Patchmaske angegeben ist, von diesem Ergebnis extrahieren und das extrahierte Texturpatch in einem geometrisch normalisierten Format speichern.In this context, it should be noted that the texture patch generation unit can potentially also calculate a result (texture video frame) that manipulates a larger area than specified by the patch mask. In other words, the manipulation is not necessarily limited to the patch pixels, but can also occur adjacent to them or in other image areas. However, in such a case, the texture patch extraction module will only extract the area specified by the patch mask from this result and save the extracted texture patch in a geometrically normalized format.
Bei dem Videoverarbeitungssystem kann die Anpassungseinheit dazu eingerichtet sein,
ein erstes Videopatch basierend auf einem ersten Referenzbild und einem ersten Referenz-Texturpatch zu bestimmen,
ein zweites Videopatch basierend auf einem zweiten Referenzbild und einem zweiten Referenz-Texturpatch zu bestimmen,
ein auf das auszugebende Videoeinzelbild anwendbares Videopatch basierend auf dem ersten Videopatch und dem zweiten Videopatch zu berechnen, derart, dass während einer bestimmten Zeitdauer das erste Videopatch und das zweite Videopatch in Bezug auf die Farben gemischt werden.In the video processing system, the adaptation unit may be configured to
 to determine a first video patch based on a first reference image and a first reference texture patch,
 to determine a second video patch based on a second reference image and a second reference texture patch,
 to calculate a video patch applicable to the video frame to be output based on the first video patch and the second video patch, such that during a certain period of time the first video patch and the second video patch are mixed in terms of colors.
Bei dem Videoverarbeitungssystem kann das anwendbare Videopatch berechnet werden nach der Formel:
In diesem Zusammenhang wird darauf hingewiesen, dass ein Videoeinzelbild auch als Videoframe bzw. Frame bezeichnet werden kann. Ferner wird darauf hingewiesen, dass die Videoeinzelbild-Manipulationseinheit in Echtzeit bzw. real time arbeiten kann, derart, dass die Anpassung bzw. Manipulation an dem eingangsseitig erhaltenen Videoeinzelbild so schnell erfolgt, dass keine Verzögerung bei der Ausstrahlung bzw. Aussendung des manipulierten Videoeinzelbildes erfolgt. Hierdurch kann sichergestellt werden, dass ein Videostream der keine manipulierten Videoeinzelbilder enthält, und ein Videostream, der manipulierte Videoeinzelbilder enthält, gleichzeitig ausgestrahlt bzw. bereitgestellt werden können.In this context, it should be noted that a single video image can also be referred to as a video frame. Furthermore, it should be noted that the single video image manipulation unit can operate in real time, such that the adjustment or manipulation of the input video image is carried out so quickly that there is no delay in the transmission or broadcast of the manipulated video image. This ensures that a video stream containing no manipulated video images and a video stream containing manipulated video images can be transmitted or provided simultaneously.
Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsformen unter Bezugnahme auf die Figuren. Dabei zeigt:
In
Das Videoverarbeitungssystem 10 dient der Verarbeitung von Videoeinzelbildern VE einer Videobildabfolge, insbesondere eines Videostreams. Dabei ist das Videoverarbeitungssystem 10 dazu eingerichtet, zu jedem Videoeinzelbild VE wenigstens eine zugeordnete Bildmaske PM, VM und zugeordnete Kameradaten KD bereitzustellen.The
Das Videoverarbeitungssystem 10 weist eine Videoeinzelbild-Manipulationseinheit 12 auf, die dazu eingerichtet ist, jedes eingangsseitig eingehende Videoeinzelbild VE anzupassen und als manipuliertes Videoeinzelbild manVE ausgangsseitig auszugeben, derart, dass eine Videobildabfolge aus manipulierten Videoeinzelbildern manVE gebildet wird.The
Das Videoverarbeitungssystem 10 weist ferner eine Videopatch-Erzeugungseinheit 14 auf, die dazu eingerichtet ist, für jedes in das Videoverarbeitungssystem 10 eingehende Videoeinzelbild VE ein zugeordnetes Videopatch VP bereitzustellen, wobei die Videoeinzelbild-Manipulationseinheit 12 dazu eingerichtet ist, das manipulierte Videoeinzelbild manVE basierend auf dem Videopatch VP zu erzeugen.The
Die Videopatch-Erzeugungseinheit 14 weist eine Texturpatch-Erzeugungseinheit 16 auf, die dazu eingerichtet ist, basierend auf einem Videoeinzelbild VE und wenigstens einer diesem Videoeinzelbild VE zugeordneten Bildmaske PM, VM ein Texturpatch TP zu berechnen.The video patch generation unit 14 has a texture
Ferner weist die Videopatch-Erzeugungseinheit 14 eine Referenzspeichereinheit 18 auf, die dazu eingerichtet ist, wenigstens zwei Referenzbilder RB1m RB2 mit jeweiligen Referenz-Texturpatches RT1, RT2 zu speichern, wobei ein Referenzbild RB1, RB2 einem Videoeinzelbild VE entspricht, auf dessen Basis das Texturpatch TP berechnet worden ist, wobei das Texturpatch TP als Referenz-Texturpatch RT1, RT2 gespeichert wird.Furthermore, the video patch generation unit 14 has a
Ferner weist die Videopatch-Erzeugungseinheit 14 eine Anpassungseinheit 20 auf, die dazu eingerichtet ist, für jedes in das Videoverarbeitungssystem 10 eingegangene Videoeinzelbild VE das zugeordnete Videopatch VP zu berechnen, wobei bei der Berechnung die wenigstens zwei gespeicherten Referenzbilder RB1, RB2 und Referenz-Texturpatches RT1, RT2 berücksichtigt werden.Furthermore, the video patch generation unit 14 has an
Bevor später wieder auf die
In der
Die erste Reihe zeigt die Abfolge von drei im Laufe einer Videobildabfolge von einer Kamera aufgenommenen Videoeinzelbilder. Diese drei Videoeinzelbilder VE können direkt aufeinander folgen, also mit x=1 und y=2, sie können aber innerhalb des Videostreams nicht direkt aufeinander folgen, beispielweise mit x=20 und y=40.The first row shows the sequence of three individual video frames recorded by a camera during a video frame sequence. These three individual video frames VE can directly follow one another, i.e., with x=1 and y=2, but they cannot directly follow one another within the video stream, for example, with x=20 and y=40.
In den jeweiligen Videoeinzelbildern sind von der Kamera aufgenommen: ein Untergrund UG, eine Begrenzung BG, beispielweise eine Wand oder eine Bande oder dergleichen, ein als Ellipse dargestelltes Objekt OB, das vor oder auf der Begrenzung BG angeordnet ist. Das Objekt OB kann beispielweise eine auf der Begrenzung BG dargestellte Gestaltung sein, etwa ein Text, ein Logo oder dergleichen. Ferner hat die Kamera ein im Vordergrund befindliches Objekt VB aufgenommen, das hier beispielhaft als Konturpfeil dargestellt ist.In each individual video frame, the camera captures: a background UG, a boundary BG, for example, a wall or a barrier or the like, and an object OB represented as an ellipse, which is located in front of or on the boundary BG. The object OB can, for example, be a design represented on the boundary BG, such as text, a logo, or the like. Furthermore, the camera has captured an object VB located in the foreground, which is represented here as an exemplary contour arrow.
Wie aus der Abfolge der Videoeinzelbilder VE (N, N+x, N+y) ersichtlich ist, bleibt das Objekt OB an Ort und Stelle und bildet einen statischen Teil der Bildszene. Die Kamera wird in diesem Beispiel nach links geschwenkt und gleichzeitig bewegt sich das im Vordergrund befindliche Objekt VB vor das Objekt OB bewegt und dieses teilweise abdeckt.As can be seen from the sequence of video frames VE (N, N+x, N+y), object OB remains in place and forms a static part of the scene. In this example, the camera pans to the left, and at the same time, object VB, located in the foreground, moves in front of object OB, partially covering it.
In den drei dargestellten Videoeinzelbildern VE (N, N+x, N+y) ist durch die enger werdende Schraffur des Untergrunds UG, des Objekts OB bzw. des im Vordergrund befindlichen Objekts VB sowie der zunehmenden Punktdichte auf der Begrenzung BG eine Veränderung von Lichtverhältnissen dargestellt. Anders ausgedrückt wird es vom Videoeinzelbild VEN zu dem Videoeinzelbild VEN+y immer etwas dunkler.In the three video frames VE (N, N+x, N+y) shown, a change in lighting conditions is represented by the narrowing hatching of the background UG, the object OB, and the foreground object VB, as well as the increasing dot density on the boundary BG. In other words, it becomes slightly darker from the video frame VEN to the video frame VEN+y.
In der zweiten Reihe ist die zu dem jeweiligen Videoeinzelbild VE (N, N+x, N+y) zugeordnete Patchmaske PM (N, N+x, N+y) dargestellt. Die dem Videoeinzelbild VE zugeordnete PM ist eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild VE, wobei die Patchmaske PM Pixel angibt, die in dem Videoeinzelbild VE zu manipulieren sind. Die zu manipulierenden Pixel werden als Patchpixel bezeichnet und sind in der
In der dritten Reihe ist eine optionale zu dem jeweiligen Videoeinzelbild VE (N, N+x, N+y) zugeordnete Vordergrundmaske VM dargestellt. Die dem Videoeinzelbild VE zugeordnete Vordergrundmaske VM ist eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild VE, wobei die Vordergrundmaske VM Pixel angibt, die aufgenommene Objekte VB repräsentieren, welche von der Patchmaske PM identifizierte Bereiche, hier das Objekt OB, abdecken können. Solche Pixel der Vordergrundmaske VG werden als Vordergrundpixel bezeichnet und sind in der
In der vierten Reihe ist eine optionale zu dem jeweiligen Videoeinzelbild VE (N, N+x, N+y) zugeordnete bzw. berechenbare verschmolzene Maske FM bzw. Fuse-Maske dargestellt. Die Fuse-Maske FM ist eine binäre Maske mit gleicher Pixelauflösung wie das Videoeinzelbild VE, wobei die Fuse-Maske Pixel angibt, die ein Patchpixel oder/und ein Vordergrundpixel bilden. Solche Pixel können auch als Fuse-Pixel bezeichnet werden, die in der
Anhand der
Nachdem unter Bezugnahme auf die
Die bereits oben erwähnte Texturpatch-Erzeugungseinheit 16 weist ein Vorbedingungsmodul 22 auf, das dazu eingerichtet ist, das Erfüllen von einer oder mehreren Vorbedingung(en) zu überprüfen, und das Berechnen des Texturpatches TP nur bei Erfüllen der Vorbedingung(en) durchzuführen.The texture
Die Vorbedingung kann dabei eine oder mehrere aus der folgenden Aufzählung sein:
Wenn die geforderte(n) Vorbedingung(en) erfüllt ist bzw. sind, werden ein Videoeinzelbild VE, Kameradaten KD, Patchmaske PM und optional eine Fuse-Maske FM solange gespeichert, bis sie von dem Vorbedingungsmodul 22 wieder überschrieben werden.If the required precondition(s) is/are met, a video frame VE, camera data KD, patch mask PM and optionally a fuse mask FM are stored until they are overwritten again by the
Das Videoeinzelbild VE und die Fuse-Maske FM sind Eingaben an ein Texturmodul 24. Sofern keine Fuse-Maske FM verfügbar ist, kann die Patchmaske PM als Eingabe in das Texturmodul 24 genutzt werden. Das Texturmodul 24 erzeugt bzw. berechnet ein Textur-Videoeinzelbild TVE, das gleich ist wie das Videoeinzelbild VE außer in den Bereichen mit Patchpixeln basierend auf der Patchmaske PM. Dabei werden Pixelfarben für die Patchpixel derart berechnet, dass das Textur-Videoeinzelbild TVE von einem Betrachter wie ein real aufgenommenes Kamerabild wahrgenommen wird.The video frame VE and the fuse mask FM are inputs to a
Das Texturmodul 24 ist insbesondere derart ausgeführt, dass es beispielsweise Informationen über die oben unter Bezugnahme auf die
Das Textur-Videoeinzelbild TVE wird einem Patch-Extraktions-Modul 26 zur Verfügung gestellt. Das Patch-Extraktions-Modul 26 nutzt die Kameradaten KD und die Patchmaske PM als Eingangsgrößen und speichert die Farbinformationen des Textur-Videoeinzelbildes TVE in Bereichen, die durch die Patchmaske PM spezifiziert sind, in geometrisch normalisierter Form, was als Texturpatch TP bezeichnet wird.The texture video frame TVE is provided to a
Texturpatches TP speichern dabei nur die Farbinformation an Pixelstellen, die durch die Patchmaske PM angezeigt sind, wobei deren geometrische Repräsentation unabhängig von Kameradaten KD des spezifischen Videoeinzelbildes VE ist. Dieses Speicherformat des Texturpatches TP ermöglicht die Anwendung von einem Texturpatch in geometrisch korrekter Weise auch in einem anderen Videoeinzelbild VE, das andere zugeordnete Kameradaten KD aufweist.Texture patches TP store only the color information at pixel locations indicated by the patch mask PM, whereby their geometric representation is independent of the camera data KD of the specific video frame VE. This storage format of the texture patch TP enables the geometrically correct application of a texture patch to another video frame VE that has different associated camera data KD.
In diesem Zusammenhang wird ergänzend darauf hingewiesen, dass das Texturmodul 24 potentiell auch ein Ergebnis (Textur-Videoeinzelbild TVE) berechnen kann, das einen größeren Bereich manipuliert als durch die Patchmaske PM angegeben. Mit anderen Worten ist die Manipulation nicht zwingend auf die Patchpixel beschränkt, sondern kann auch benachbart zu diesen oder in anderen Bildbereichen erfolgen. Insbesondere kann es für eine optimale Wahrnehmung hilfreich sein, wenn in der Nachbarschaft der Patchpixel vorhandene Bildinhalte ebenfalls manipuliert werden. Allerdings wird in einem solchen Fall das Texturpatch-Extraktions-Modul 26 nur den Bereich, der durch die Patchmaske angegeben ist, von diesem Ergebnis extrahieren und das extrahierte Texturpatch in einem geometrisch normalisierten Format speichern.In this context, it should be noted that the
Da die Berechnung eines Texturpatches TP nicht unbedingt in Echtzeit (realtime) erfolgen kann bzw. muss, kann ein für ein Videoeinzelbild VE berechnetes Texturpatch TP nicht für dieses Videoeinzelbild verwendet werden, um das manipulierte Videoeinzelbild manVE zu erzeugen.Since the calculation of a texture patch TP cannot or does not necessarily have to be done in real time, a texture patch TP calculated for a video frame VE cannot be used for this video frame to generate the manipulated video frame manVE.
Daher wird ein Texturpatch TP dauerhaft gespeichert, bis ein aktualisiertes Texturpatch TP berechnet wird. Hierzu dient die bereits oben erwähnte Referenzspeichereinheit 18, die dazu eingerichtet ist, wenigstens zwei Referenzbilder RB1, RB2 mit jeweiligen Referenz-Texturpatches RT1, RT2 zu speichern, wobei ein Referenzbild RB1, RB2 einem Videoeinzelbild VE entspricht, auf dessen Basis das Texturpatch TP berechnet worden ist, wobei das Texturpatch TP als Referenz-Texturpatch RT1, RT2 gespeichert wird.Therefore, a texture patch TP is permanently stored until an updated texture patch TP is calculated. This is done by the above-mentioned
Werden in der Referenzspeichereinheit 18 zwei Referenzdatensätze, die jeweils ein Referenz-Texturpatch RT1 bzw. RT2, und ein Referenzbild RB1 bzw. RB2 enthalten, kann eine Aktualisierung beispielsweise wie folgt durchgeführt werden.If two reference data sets, each containing a reference texture patch RT1 or RT2, and a reference image RB1 or RB2, are stored in the
Sobald, nach Erfüllen entsprechender Vorbedingungen, in der Texturpatch-Erzeugungseinheit 16 ein neues Videoeinzelbild VE verendet wird, um ein neues Texturpatch TP zu berechnen, wird das Referenzbild RB2 mit den Daten des Referenzbildes RB1 überschrieben. Das Referenz-Texturpatch RT2 wird mit den Daten des Referenz-Texturpatches RT1 überschrieben. Als Referenzbild RB1 wird das neue Videoeinzelbild VE verwendet und als Referenz-Texturpatch RT1 wird das neu berechnete Tetxurpatch TP verwendet.As soon as, after fulfilling corresponding preconditions, a new video frame VE is used in the texture
Mit anderen Worten werden die Referenz-Texturpatches RT1, RT2 und die Referenzbilder RB1, RB2 bedarfsweise aktualisiert bzw. ersetzt, wobei der ältere Referendatensatz (RB2, RT2) jeweils durch den jüngeren Referenzdatensatz (RB1, RT1) ersetzt wird.In other words, the reference texture patches RT1, RT2 and the reference images RB1, RB2 are updated or replaced as needed, whereby the older reference data set (RB2, RT2) is replaced by the younger reference data set (RB1, RT1).
Die in
ein erstes Videopatch VP1 basierend auf dem ersten Referenzbild RB1 und dem ersten Referenz-Texturpatch RT1 zu bestimmen,
ein zweites Videopatch VP2 basierend auf dem zweiten Referenzbild RB1 und dem zweiten Referenz-Texturpatch RT2 zu bestimmen, und das auf das auszugebende Videoeinzelbild VE anwendbares Videopatch VP basierend auf dem ersten Videopatch VP1 oder/und dem zweiten Videopatch VP2 zu berechnen, derart, dass während einer bestimmten Zeitdauer das erste Videopatch VP1 und das zweite Videopatch in Bezug auf die Farben gemischt werden.The
 to determine a first video patch VP1 based on the first reference image RB1 and the first reference texture patch RT1,
 to determine a second video patch VP2 based on the second reference image RB1 and the second reference texture patch RT2, and the video patch VP applicable to the video frame VE to be output based on the first video patch VP1 and/or the second video patch VP2, such that during a certain period of time the first video patch VP1 and the second video patch are mixed in terms of colors.
Dabei kann das auf ein aktuelles Videoeinzelbild VEc anwendbare Videopatch VP berechnet werden nach der Formel:
Mit anderen Worten ist die Anpassungseinheit 20 dazu eingerichtet die Farbe der Referenz-Texturpatches RT1, RT2 so anzupassen, dass Videopatches VP1, VP2 erzeugt werden, die eine nicht wahrnehmbare Videobildmanipulation für eine aktuelles Videoeinzelbild VEc ermöglichen.In other words, the
Es ist möglich, dass nur das erste Videopatch VP1 direkt verwendet wird, um eine Manipulation an einem aktuellen Videoeinzelbild VE vorzunehmen und das manipulierte Videoeinzelbild manVE zu berechnen.It is possible that only the first video patch VP1 is used directly to perform a manipulation on a current video frame VE and to calculate the manipulated video frame manVE.
Ein aktuelles Videoeinzelbild VEc kann beispielweise in einer Rendereinheit 30 mit dem Videopatch VP zusammengeführt werden, so dass das manipulierte Videoeinzelbild manVE ausgegeben werden kann.For example, a current video frame VEc can be merged with the video patch VP in a
Das hier vorgestellte Videoverarbeitungssystem 10 kann beispielweise bei einer Sportübertragung oder dergleichen eingesetzt werden. Nachfolgend soll der Einsatz anhand eines konkreten Beispiels erläutert werden, wobei bedarfsweise Bezug genommen wird auf die
Bei einem Tennisevent kann von einem Rechtehalter/Organisator des Events gewünscht sein, dass bestimmte fest im Stadion installierte Werbung (z.B. bestimmte Bandenwerbung), unsichtbar gemacht wird in dem Fernsehsignal, welches in bestimme Länder übertragen wird. In Bezug auf die
Ein solche Maßnahme ist beispielweise erforderlich, weil es beispielweise länderspezifische, rechtliche Regelungen gibt, die bestimme Arten von Werbung verbieten (z.B. Alkohol oder Glücksspiel). Sollte solche Werbung im Stadion installiert sein und man möchte dennoch das Signal in einem Land mit entsprechendem Werbeverbot übertragen, so muss man vor der Übertagung des Fernsehsignals diese Werbung visuell im Fernsehsignal entfernen.Such a measure is necessary, for example, because there are country-specific legal regulations that prohibit certain types of advertising (e.g., alcohol or gambling). If such advertising is installed in the stadium and the broadcaster still wants to transmit the signal in a country with a corresponding advertising ban, the advertising must be visually removed from the television signal before transmitting the television signal.
Zusätzlich kommt bei dem hier betrachteten Beispiel eines Tennisevents noch hinzu, dass die farbliche Ausgestaltung der Werbebanden oft vom Organisator vorgegeben ist. In Bezug auf die
Soll daher eine bestehende Werbung (Ellipse OB) entfernt werden, so muss man die Farbgebung, welche physisch im Stadion vorhanden ist, berücksichtigen bei der Berechnung einer Bildtextur (Videopatch VP), die die Werbung (Ellipse OB) als verschwunden erscheinen lässt.Therefore, if an existing advertisement (Ellipse OB) is to be removed, the color scheme that is physically present in the stadium must be taken into account when calculating an image texture (Video Patch VP) that makes the advertisement (Ellipse OB) appear to have disappeared.
Zusätzlich müssen Farbvariationen, verursacht durch Veränderung der Lichtverhältnisse (Sonnenlicht, Flutlicht, Wolken, Schatten) oder Eigenschaften des Bandenmaterials (Stoff, Plastik, etc.), bei der Berechnung der Textur berücksichtigt werden. Schlussendlich wird ein manipuliertes Fernsehsignal manVE erzeugt, in dem die Werbung (Ellipse OB) durch eine berechnete Textur (Videopatch VP) so überdeckt wird, dass die Werbung (Ellipse OB) als nicht vorhanden im Fernsehsignal erscheint für die TV-Zuschauer. Es wird hierzu erneut auf
Mittels des hier vorgestellten Videobearbeitungssystems 10 kann eine Werbung (Ellipse OB) mittels einer berechneten Textur, die final als Videopatch VP für ein aktuelles Videoeinzelbild VE zur Verfügung gestellt wird, überdeckt bzw. überblendet werden, wobei das Videopatch VP unter Berücksichtigung der Umgebung der zu überblendenden Werbung (Ellipse OB) laufend bzw. unter bestimmten Bedingungen angepasst wird. Selbstverständlich ist es auch denkbar, nicht nur eine Werbung (Ellipse OB) mit einer Textur zu überblenden, sondern statt der ursprünglichen Werbung eine andere Werbung einzublenden, ggf. in Kombination mit der berechneten Textur.By means of the
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES CONTAINED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents submitted by the applicant was generated automatically and is included solely for the convenience of the reader. This list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE102023129941.7ADE102023129941A1 (en) | 2023-10-30 | 2023-10-30 | Video processing system for imperceptible blending of objects with a video patch | 
| PCT/EP2024/073422WO2025093153A1 (en) | 2023-10-30 | 2024-08-21 | Video processing system for imperceptible blending of objects with a video patch | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE102023129941.7ADE102023129941A1 (en) | 2023-10-30 | 2023-10-30 | Video processing system for imperceptible blending of objects with a video patch | 
| Publication Number | Publication Date | 
|---|---|
| DE102023129941A1true DE102023129941A1 (en) | 2025-04-30 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| DE102023129941.7APendingDE102023129941A1 (en) | 2023-10-30 | 2023-10-30 | Video processing system for imperceptible blending of objects with a video patch | 
| Country | Link | 
|---|---|
| DE (1) | DE102023129941A1 (en) | 
| WO (1) | WO2025093153A1 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US20160028968A1 (en)* | 2013-03-08 | 2016-01-28 | Jean-Philippe JACQUEMET | Method of replacing objects in a video stream and computer program | 
| DE102016119637A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Television transmission system for generating enriched images | 
| DE102016119640A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System for generating enriched images | 
| DE102016119639A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System for dynamic contrast maximization between foreground and background in images or / and image sequences | 
| US20190132641A1 (en)* | 2015-12-16 | 2019-05-02 | Gracenote, Inc. | Dynamic Video Overlays | 
| US20220398823A1 (en)* | 2019-11-10 | 2022-12-15 | Mirage Dynamics Ltd | Video Advertising Signage Replacement | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| US20160028968A1 (en)* | 2013-03-08 | 2016-01-28 | Jean-Philippe JACQUEMET | Method of replacing objects in a video stream and computer program | 
| US20190132641A1 (en)* | 2015-12-16 | 2019-05-02 | Gracenote, Inc. | Dynamic Video Overlays | 
| DE102016119637A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Television transmission system for generating enriched images | 
| DE102016119640A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System for generating enriched images | 
| DE102016119639A1 (en)* | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System for dynamic contrast maximization between foreground and background in images or / and image sequences | 
| US20220398823A1 (en)* | 2019-11-10 | 2022-12-15 | Mirage Dynamics Ltd | Video Advertising Signage Replacement | 
| Publication number | Publication date | 
|---|---|
| WO2025093153A1 (en) | 2025-05-08 | 
| Publication | Publication Date | Title | 
|---|---|---|
| DE112006000358B4 (en) | Method and device for creating a panoramic image | |
| DE69611733T2 (en) | TELEVISION APPARATUS AND METHOD WITH DEVICES FOR DISPLAYING AN ADDITIONAL IMAGE OF VARIABLE SIZE | |
| DE102012001835B4 (en) | Vision system for a commercial vehicle for displaying legally required fields of vision of a main mirror and a wide-angle mirror | |
| DE69602515T2 (en) | DEVICE AND METHOD FOR REAL-TIME DISPLAY IN VIDEO IMAGES USING ADAPTIVE OCCLUSION WITH A SYNTHETIC REFERENCE IMAGE | |
| DE2636209A1 (en) | DEVICE FOR IMPROVING THE QUALITY OF A GRID IMAGE | |
| DE10126623A1 (en) | Character data display method for digital television, involves selecting correction size and display position of character data, depending on the aspect ratio of received video and monitor | |
| DE60225807T2 (en) | IMAGE PROCESSING DEVICE | |
| DE102016121755A1 (en) | Method for determining a composite image of a surrounding area of a motor vehicle with adaptation of brightness and / or color, camera system and power vehicle | |
| DE68917214T2 (en) | TV motion detection arrangement. | |
| EP1263221A2 (en) | Method and device for displaying at least two pictures in a whole picture | |
| DE1292174B (en) | Device for inserting text into television programs | |
| DE102017201000B4 (en) | Method for combining a plurality of camera images, control unit and vehicle | |
| Bruckner | Hybrides Bild, hybride Montage | |
| DE69215719T2 (en) | Digital generator of a border around an object superimposed on a background | |
| DE19843919B4 (en) | Method for superimposing sub-pictures in a main picture | |
| EP3106349B1 (en) | Vision system for a commercial vehicle for the display of the statutory fields of view of a main mirror and a wide-angle mirror | |
| DE102023129941A1 (en) | Video processing system for imperceptible blending of objects with a video patch | |
| DE10315442A1 (en) | Process and circuit for scaling raster images | |
| DE112014003174T5 (en) | An image forming apparatus, an image forming method, and a non-volatile computer-readable storage medium | |
| DE3606456A1 (en) | ARRANGEMENT AND METHOD FOR OVERLAYING TELEVISION PICTURES | |
| DE19742931C2 (en) | Method and device for image synthesis | |
| DE102016119637A1 (en) | Television transmission system for generating enriched images | |
| DE4004948C2 (en) | ||
| DE2300515A1 (en) | SCANNER FOR REPRODUCTION PURPOSES | |
| EP0954175A2 (en) | Teletext with transparent function | 
| Date | Code | Title | Description | 
|---|---|---|---|
| R163 | Identified publications notified |