Die Erfindung betrifft ein Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen, wobei die dreidimensionale Darstellung in mindestens einer Projektionsebene in zweidimensionale Texturbilddaten transformiert wird.The invention relates to a method for automatically linking image areas of a threedimensional representation of an object with functions, the three-dimensional representationis transformed into two-dimensional texture image data in at least one projection plane.
In Dietmar Jackel "Grafik-Computergrundlagen, Architekturen und Konzepte computergrafischer Sichtsysteme" Springer-Verlag1992, Kapitel 4, sind die Grundlagen der Verarbeitung von dreidimensionalen Bilddaten beschrieben. Dreidimensionale Objekte werden vorzugsweise mit einer Vielzahl dreiseitiger Polygone beschrieben, deren Kantenvektoren koplaner ausgerichtet sind und einen einheitlichen Umlaufsinn besitzen. Jedes Polygon ist mit einem Datensatz definiert, der die Eckpunktkoordinaten, Eckpunktnormalenvektoren und den Flächennormalenvektor enthält. Die räumliche Ausrichtung der Polygonebene wird durch den Flächennormalenvektor beschrieben, während die Ausrichtung des Polygons innerhalb seiner benachbarten Polygonmenge durch die Eckpunktnormalenvektoren darstellt wird. Mit dem Prozess der Geometrietransformation kann das dreidimensionale Objekt in seiner räumlichen Lage verändert werden. Hierzu werden die Polynome mit entsprechenden Transformationsmatrixen, zum Beispiel einer Translation, Skalierung oder Rotation unterworfen. Mit dem Prozess des Back-Facing werden die Polygone eliminiert, die von einer Betrachtungsebene aus gesehen nicht sichtbar sind, da diesen Polygonen sichtbare Polygone vorgelagert sind. Mit Hilfe einer perspektivischen Projektion kann der räumliche Tiefeneindruck verbessert werden. Zudem werden die Flächenelemente an den Grenzflächen abgeschnitten, die nur zum Teil innerhalb eines dreidimensionalen Sichtbereichs liegen. Dieser Prozess wird Polygonkappen genannt.In Dietmar Jackel "Graphic-Computer Basics, Architectures and Concepts of Computer-Graphic Vision Systems" Springer-Verlag1992 , Chapter 4, the basics of processing three-dimensional image data are described. Three-dimensional objects are preferably described with a large number of three-sided polygons, the edge vectors of which are coplaner and have a uniform sense of rotation. Each polygon is defined with a data set that contains the vertex coordinates, vertex normal vectors and the surface normal vector. The spatial orientation of the polygon plane is described by the surface normal vector, while the orientation of the polygon within its neighboring set of polygons is represented by the vertex normal vectors. With the process of geometry transformation, the three-dimensional object can be changed in its spatial position. For this purpose, the polynomials are subjected to corresponding transformation matrices, for example translation, scaling or rotation. The back-facing process eliminates the polygons that are not visible from a viewing level, because visible polygons precede these polygons. With the help of a perspective projection, the spatial impression of depth can be improved. In addition, the surface elements are cut off at the interfaces, which are only partially within a three-dimensional field of view. This process is called polygon caps.
Aus diesen Prozessen resultiert eine Drahtmodelldarstellung des im Raum gedrehten oder skalierten dreidimensionalen Objektes, die als Projektion im zweidimensionalen Raum zum Beispiel auf einem Monitor dargestellt werden kann. Diese Drahtmodelldarstellung vermittelt jedoch nur einen relativ ungenauen visuellen Eindruck des dreidimensionalen Objektes. Es werden daher zusätzlich noch Rendering-Prozesse durchgeführt, die zur Berechnung und Anzeige der Koordinaten und der Farbwerte der Bildpunkte dienen, die sich auf den Flächen der darzustellenden Polygone befinden. Hierzu wird die Oberflächentextur des dreidimensionalen Objektes nicht nur als Polygondarstellung berücksichtigt. Vielmehr werden auch die Reflektionseigenschaften als Reflektionsdaten, die Farbeigenschaften als Farbwertdaten, die Transparenzeigenschaften als Transparenzdaten etc. abgespeichert. Diese jeweils als Texturbilddaten bezeichneten Bilddaten sind eine Projektion des dreidimensionalen Objektes auf eine zweidimensionale Ebene vergleichbar mit einer Kameraaufnahme aus einem beliebigen Blickwinkel. Sie werden als sogenannte Maps unabhängig voneinander abgespeichert. So ist zum Beispiel eine Colour-Map für die Farbwerte, eine Reflection-Map für die Reflektionseigenschaften zur Darstellung der Tiefe des Objektes, eine Transparency-Map zur Darstellung der Transparenzeigenschaften etc. vorgesehen.These processes result in a wireframe representation of what was rotated or scaled in spacethree-dimensional object, which as a projection in two-dimensional space for example on eggcan be displayed on a monitor. However, this wireframe representation only conveys onerelatively imprecise visual impression of the three-dimensional object. It will therefore be additionalstill rendering processes carried out to calculate and display the coordinates and theColor values of the pixels are used, which are on the surfaces of the polygons to be displayed.For this purpose, the surface texture of the three-dimensional object is not only displayed as a polygonconsidered. Rather, the reflection properties as reflection data, the Farproperties as color value data, the transparency properties as transparency data, etc.saves. This image data, referred to as texture image data, is a projection of the threedimensional object on a two-dimensional level comparable to a camera shotfrom any angle. They are created as so-called maps independently of each othersaves. For example, a color map for the color values, a reflection map for the Rereflection properties to show the depth of the object, a transparency map to showposition of the transparency properties etc. provided.
Das Rendering-Verfahren ist zum Beispiel in Peter Oel, Jens Riemschneider "Am Anfang war das Bild" in c't 1999, Heft 17, Seite 164 bis 169 beschrieben. Das sogenannte "Image-based Rendering" basiert auf Projektionsstrahlen, die einen dreidimensionalen Gegenstand auf eine 2D-Fläche projizieren. Insofern entspricht das Verfahren einer fotografischen Aufnahme einer Umgebung auf eine plane Fläche mit einer Kamera. Mit Hilfe der Rendering-Prozesse werden neue Ansichten eines Objektes berechnet. Hierzu wird eine gedachte Kamera und damit eine neue Projektionsebene an eine Position gestellt, von der keine reale Aufnahme des Objektes existiert. Dadurch, dass einige Strahlen von aufgenommenen Bildern durch die neue Projektionsebene verlaufen, werden Bildinformationen gewonnen, mit denen die neue Ansicht des Objektes berechnet werden kann.The rendering process is described, for example, in Peter Oel, Jens Riemschneider "In the beginning it wasImage "in c't 1999, issue 17, pages 164 to 169. The so-called" image-based rendering "is based on projection rays that project a three-dimensional object onto a 2D surfaceproject. In this respect, the method corresponds to a photograph of an environmenta flat surface with a camera. With the help of the rendering processes new views are createdcalculated object. For this purpose, an imaginary camera and thus a new projection levelplaced at a position from which there is no real image of the object. By having someBeams of recorded images run through the new projection plane, become imagesFormations obtained with which the new view of the object can be calculated.
Zur interaktiven Nutzung der dargestellten Objekte bzw. Bilder ist es bekannt, Bildbereiche mit Funktionen zu verknüpfen. Beim Auswählen der Bildbereiche zum Beispiel mit einer Maus oder einem entsprechenden Zeigegerät auf dem Bildschirm wird die entsprechende Bildposition und der zugehörige Bildbereich ermittelt. Herkömmlicherweise wird die Verknüpfung der Funktionen mit Funktionsbereichen mit CAD-Werkzeugen (Computer Aided Design-Werkzeuge) definiert. Dies ist relativ aufwendig. Zudem ist die Zuordnung der Bildbereiche zu den Funktionen relativ ungenau, wenn die Position des dargestellten Objektes im Raum verschoben wird. Die Methode der Zuordnung von Funktionen zu Bildpositionen mit Hilfe von CAD-Werkzeugen eignet sich daher nur für zweidimensionale Darstellungen.For the interactive use of the objects or images shown, it is known to use image areasLink functions. When selecting the image areas, for example with a mouse or a corresponding pointing device on the screen shows the corresponding image position and theassociated image area determined. Traditionally, the linking of functions withFunctional areas defined with CAD tools (Computer Aided Design tools). This isrelatively complex. In addition, the assignment of the image areas to the functions is relatively imprecise,when the position of the displayed object is shifted in space. The method of assignmentThe use of CAD tool functions for image positions is therefore only suitable fortwo-dimensional representations.
Weiterhin ist es bekannt, den dreiseitigen Polygonen Funktionen zuzuordnen. Dies erfolgt durch eine entsprechende Datenbank. Auch bei einer Transformation der Polygone bleibt die Zuordnung eines Polygons zu den Funktionen erhalten, so dass die Verknüpfung eines Polygons zu einer Funktion bei einer Verschiebung des Objektes im Raum keinen zusätzlichen Rechenaufwand erfordert. Allerdings sind die auswählbaren Bildbereiche auf die Form der Polygone beschränkt und folglich relativ ungenau.Furthermore, it is known to assign functions to the three-sided polygons. This is done byan appropriate database. The assignment remains even when the polygons are transformedof a polygon to get the functions, so that the linking of a polygon to aFunction when moving the object in space requires no additional computing effortdifferent. However, the selectable image areas are limited to the shape of the polygons andconsequently relatively inaccurate.
Aufgabe der Erfindung war es daher, ein verbessertes Verfahren zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes mit Funktionen zu schaffen.The object of the invention was therefore to provide an improved method for automatic linkingto create image areas of a three-dimensional representation of an object with functions.
Die Aufgabe wird in dem erfindungsgemäßen Verfahren gelöst durch
The object is achieved in the method according to the invention by
Erfindungsgemäß wird somit parallel zu der Textur zur Beschreibung der dreidimensionalen Darstellung eine zweidimensionale Textur der Funktionsbereichsdaten erzeugt, indem auf der Oberfläche des dreidimensionalen Objektes Bildbereiche definiert und mit Funktionen verknüpft werden und diese Bildbereiche mit den Funktionsverknüpfungen als zweidimensionale Projektion abgespeichert werden. Bei einer Verschiebung des Objektes im Raum können diese Funktionsbereichsdaten gleichermaßen wie die Texturbilddaten einer geometrischen Transformation unterzogen werden, nachdem eine Funktion durch Auswählen eines Bildbereiches aufgerufen wird. Auf diese Weise kann der zu dem ausgewählten Bildbereich gehörende Funktionsbereich bestimmt und die entsprechende zugeordnete Funktion ausgeführt werden.According to the invention, the three-dimensional Dar is thus described in parallel with the textureposition creates a two-dimensional texture of the functional area data by using the surfacesurface of the three-dimensional object image areas are defined and linked with functionsand these image areas with the function links as a two-dimensional projectionbe saved. If the object is moved in space, this functional area candata is subjected to a geometric transformation in the same way as the texture image dataafter a function is called by selecting an image area. In this wayThe functional area belonging to the selected image area can be determined and the entspeaking assigned function are executed.
Die Texturbilddaten sind vorzugsweise dreiseitigen Polygonen zugeordnet, mit denen die Oberfläche des dreidimensionalen Objektes bzw. Bildes definiert werden. Mit diesen Polygonen kann eine zweidimensionale Drahtmodelldarstellung des dreidimensionalen Bildes erzeugt werden, die einen dreidimensionalen Eindruck vermittelt.The texture image data are preferably assigned to three-sided polygons with which the surfacesurface of the three-dimensional object or image can be defined. With these polygons one cantwo-dimensional wireframe representation of the three-dimensional image are generated, the onegives a three-dimensional impression.
Zusätzlich zu den Polygonen können als Texturbilddaten Reflektionsdaten, Farbwertdaten und/oder Transparenzdaten definiert und abgespeichert werden. Sie dienen zur Beschreibung der Reflektionseigenschaften, der Farbeigenschaften und der Transparenzeigenschaften des dreidimensionalen Objektes, insbesondere bezogen auf die Polygonflächen. Diese verschiedenen Texturbilddaten werden unabhängig voneinander als Reflektions-Map, Farbwert-Map und Transparenz-Map abgespeichert. Die Funktionsbereichsdaten werden erfindungsgemäß auf die gleiche Weise wie die vorgenannten Texturbilddaten als sogenannte Funktions-Map behandelt.In addition to the polygons, reflection data, color value data and / or can be used as texture image dataTransparency data can be defined and saved. They are used to describe the reflectionsproperties, the color properties and the transparency properties of the three-dimensionalObject, in particular related to the polygon areas. These different texture image data whosaved independently of each other as a reflection map, color value map and transparency mapchert. The functional area data are inventively in the same way as the precalled texture image data treated as a so-called function map.
Zur Visualisierung eines Objektes wird vorteilhafterweise ein sogenannter Rendering-Prozess durchgeführt, bei dem aus der Polygondarstellung, den Texturbilddaten und aus den Koordinaten, Farbeigenschaften, Reflektionseigenschaften und/oder Transparenzeigenschaften der Bildpunkte auf den Polygonen mittels der Reflektionsdaten, Farbwertdaten und Transparenzdaten Objektansichten berechnet werden, die beispielsweise auf einem Bildschirm dargestellt werden können. Erfindungsgemäß wird der Rendering-Prozess auch mit den Funktionsbereichsdaten durchgeführt, wenn eine Funktion durch Auswählen eines Bildpunktes aufgerufen wird. Aus den Funktionsbereichsdaten, die mit dem Bildpunkt korrelieren, wird die Funktion bestimmt und ausgeführt, die mit dem entsprechenden Funktionsbereich verknüpft ist. Die Funktionsbereichsdarstellung wird somit entsprechend dem Objekt im Raum verschoben, wobei durch den Rendering-Prozess eine Projektion auf die zweidimensionale Ebene des Betrachters vorgenommen wird. Aus den zweidimensionalen Koordinaten des ausgewählten Bildpunktes kann sofort der zugehörige Funktionsbereich und die damit verknüpfte Funktion bestimmt werden.A so-called rendering process is advantageously used to visualize an objectcarried out in which from the polygon representation, the texture image data and from the coordinates,Color properties, reflection properties and / or transparency properties of the pixelsobject on the polygons using the reflection data, color value data and transparency dataviews that can be displayed on a screen, for example. HeAccording to the invention, the rendering process is also carried out with the functional area data,when a function is called up by selecting a pixel. From the functional arearich data, which correlate with the pixel, the function is determined and executed, withis linked to the corresponding functional area. The functional area display is thus moved according to the object in space, whereby a projection the two-dimensional level of the viewer. From the two-dimensionalThe coordinates of the selected pixel can immediately be assigned to the associated functional area andthe associated function can be determined.
Vorteilhafterweise sind die Funktionen in einer Datenbank abgespeichert und mit Funktionskennungen, das heißt mit Funktionscodewörtern verknüpft. Die als Textur abgespeicherten Funktionsbereichsdaten beinhalten dann lediglich nur eine Verknüpfung von Funktionsbereichen zu den Funktionskennungen. Hierdurch kann Speicherplatz eingespart werden.The functions are advantageously stored in a database and have functionsnations, that is linked with function code words. The function saved as textureArea data then only contain a link between functional areas and theFunction IDs. This can save storage space.
Die Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:The invention is explained below with reference to the accompanying drawings. Show it:
Fig. 1 - Verfahrensablauf zur erfindungsgemäßen Verknüpfung von Bildbereichen mit Funktionen;Fig. 1 - Procedure for linking image areas with radio functions;
Fig. 2 - herkömmliches Verfahren zur Verknüpfung von Bildbereichen mit Funktionen.Fig. 2 - conventional method for linking image areas with functions.
DieFig. 1 lässt eine Skizze des Verfahrens zur automatischen Verknüpfung von Bildbereichen einer dreidimensionalen Darstellung eines Objektes1 mit Funktionen erkennen. Das dreidimensionale Objekt1 wird in der dreidimensionalen perspektivischen Darstellung2 als Drahtmodell in den drei Ebenen X, Y und Z skizziert. Das Drahtmodell besteht aus dreiseitigen Polygonen3 zur annähernden Beschreibung der Oberfläche des Objektes1. Die im Hintergrund liegenden nicht sichtbaren Polygone sind mit der sogenannten Backfacing-Methode eliminiert.TheFig. 1 can be a sketch of the process for automatic linking of image areas of a three-dimensional representation recognize an object1 with functions. The three-dimensional object1 is outlined in the three-dimensional perspective representation2 as a wire model in the three planes X, Y and Z. The wire model consists of three-sided polygons3 for an approximate description of the surface of the object1 . The invisible polygons in the background are eliminated with the so-called backfacing method.
Wenn das Objekt von einer gedachten virtuellen Kamera4 aus einer beliebigen Perspektive aufgenommen wird, würde auf der Aufnahmefläche5, wie z. B. einem Film, eine zweidimensionale Projektion des Bildes auf der Projektionsebene der Aufnahmefläche5 entstehen. Diese zweidimensionale Projektion ist in der zweidimensionalen Textur-Map6 skizziert, die die Projektion eines ausgewählten Polygons3a zeigt.If the object is taken from an imaginary virtual camera4 from any perspective, would on the recording surface5 , such as. B. a film, a two-dimensional projection of the image on the projection plane of the recording surface5 arise. This two-dimensional projection is outlined in the two-dimensional texture map6 , which shows the projection of a selected polygon3 a.
Zusätzlich zu der Textur-Map der Polygone3 können entsprechende Ansichten zur Beschreibung der Reflektionseigenschaften, Farbeigenschaften und Transparenzeigenschaften der projizierten Ansicht aufgenommen und abgespeichert werden. Mit diesen Reflektionsdaten-Maps, Farbwertdaten-Maps und Transparenzdaten-Maps können insbesondere die Flächen der einzelnen Polygone3 detaillierter beschrieben und der räumliche Eindruck des Objektes1 verbessert werden.In addition to the texture map of the polygons3 , corresponding views for describing the reflection properties, color properties and transparency properties of the projected view can be recorded and stored. With these reflection data maps, color value data maps and transparency data maps, in particular the areas of the individual polygons3 can be described in more detail and the spatial impression of the object1 can be improved.
Die Erfindung sieht eine weitere entsprechende Funktionsbereichsdaten-Map7 vor, in der Funktionsbereiche8 definiert und mit Funktionskennungen A, B verknüpft sind. Die Funktionsbereiche8 entsprechen ausgewählten Bildbereichen, die nicht die Form eines Polygones3 haben müssen. Beim Auswählen eines entsprechenden Bildbereiches, zum Beispiel mit einem Zeigeinstrument eines Computers können Funktionen Funkt.a, Funkt.b ausgeführt werden, die über die Funktionskennungen A, B mit den entsprechenden Funktionsbereichen8 verknüpft sind. Zur Beschreibung der Verknüpfung der Funktionskennungen A, B mit den zugehörigen Funktionen Funkt.a, Funkt.b ist eine entsprechende Datenbank9 vorgesehen.The invention provides a further corresponding functional area data map7 , in which functional areas8 are defined and linked to functional identifiers A, B. The functional areas8 correspond to selected image areas which do not have to have the shape of a polygon3 . When selecting a corresponding image area, for example with a pointing instrument of a computer, functions Funkt.a, Funkt.b can be carried out, which are linked via function IDs A, B to the corresponding function areas8 . A corresponding database9 is provided to describe the linking of the function identifiers A, B with the associated functions Funkt.a, Funkt.b.
Die Funktionsbereichsdaten-Map7 zur Definition der Funktionsbereiche8 wird entsprechend der Textur-Map6 und der Reflektionsdaten-Maps, Farbwertdaten-Maps und Transparenzdaten-Maps als Teil der zweidimensionalen Projektion des dreidimensionalen Objektes1 behandelt.The functional area data map7 for defining the functional areas8 is treated in accordance with the texture map6 and the reflection data maps, color value data maps and transparency data maps as part of the two-dimensional projection of the three-dimensional object1 .
Ein dreidimensionales Objekt1 kann aus Gründen des Speicherplatzes nicht in allen Ansichten aufgenommen und abgespeichert werden. Daher werden üblicherweise von einem Objekt1 nur Aufnahmen in ausgewählten Perspektiven aufgenommen und in entsprechenden Maps abgespeichert. Zur Darstellung einer neuen perspektivischen Ansicht werden die erforderlichen Bildinformationen aus den abgespeicherten Maps berechnet. Dies erfolgt mit dem sogenannten Rendering-Verfahren. Dies ist möglich, weil einige Projektionsstrahlen von bereits aufgenommenen und abgespeicherten Bildern durch die neue Projektionsebene des neu zu berechnenden Bildes verlaufen und auf diese Weise bereits Bildinformationen für die einzelnen Bildpunkte zur Verfügung stehen. Wenn nun ein Bildbereich mit einem Zeigeinstrument ausgewählt und eine Funktion ausgeführt werden soll, wird die Funktionsbereichsansicht auf die momentane perspektivische Ansicht des Objektes1 angepasst. Hierzu wird aus den Funktionsbereichsdaten-Maps7 mit Hilfe bekannter Geometrietransformations- und Rendering-Verfahren die neue Perspektive berechnet. Die Funktionsbereichsdaten werden somit genauso wie die anderen Maps als Texturdaten-Maps behandelt. Nachdem die Funktionsbereichsdaten-Map7 auf die neue Perspektive umgerechnet wurde, kann die dem ausgewählten Bildbereich zugeordnete Funktionskennung ermittelt und mit Hilfe der Funktionsdatenbank9 die auszuführende Funktion Funkt.a, Funkt.b bestimmt und ausgeführt werden.For reasons of storage space, a three-dimensional object1 cannot be recorded and saved in all views. For this reason, an object1 usually only records images in selected perspectives and stores them in corresponding maps. To display a new perspective view, the necessary image information is calculated from the saved maps. This is done with the so-called rendering process. This is possible because some projection beams of images that have already been recorded and stored run through the new projection plane of the image to be recalculated and in this way image information is already available for the individual pixels. If an image area is now selected with a pointing instrument and a function is to be carried out, the functional area view is adapted to the current perspective view of the object1 . For this purpose, the new perspective is calculated from the functional area data maps7 with the aid of known geometry transformation and rendering methods. The functional area data are thus treated like the other maps as texture data maps. After the function area data map7 has been converted to the new perspective, the function identifier assigned to the selected image area can be determined and the function Funkt.a, Funkt.b to be executed can be determined and executed using the function database9 .
DieFig. 2 lässt ein herkömmliches Verfahren zur Verknüpfung von Funktionen zu dreidimensionalen Objekten1 erkennen. Auch hier ist wiederum ein Objekt1 in der dreidimensionalen Ansicht2 und der zweidimensionalen Projektion als Textur-Map6 skizziert. Die Textur-Map6 zeigt ein ausgewähltes Polygon3a, das als solches in dem Verfahren identifiziert wird. Im Unterschied zu dem erfindungsgemäßen Verfahren ist in der Funktionsdatenbank9 die Verknüpfung der Nummer des ausgewählten Polygons3a mit der zugehörigen Funktion Funkt.a, Funkt.b abgespeichert. Als auswählbare Bildbereiche können somit nur Polygone3 mit Funktionen verknüpft werden. Dabei entfällt zwar die Notwendigkeit des zusätzlichen Anpassens der Funktionsbereichsdaten-Map7 an die dargestellte Projektion. Die auswählbaren Bildbereiche sind jedoch relativ ungenau.TheFig. 2 reveals a conventional method to allocate functions to dreidimensio dimensional objects1. Here, too, an object1 is sketched in the three-dimensional view2 and the two-dimensional projection as a texture map6 . The texture map6 shows a selected polygon3 a, which is identified as such in the method. In contrast to the process of the invention in the function database9, the combination of the number of the selected polygon3 a with the associated function Funkt.a, Funkt.b is stored. Only polygons3 can be linked with functions as selectable image areas. This eliminates the need for additional adaptation of the functional area data map7 to the projection shown. However, the selectable image areas are relatively imprecise.
Die verknüpfbaren Funktionen können beliebiger Art sein. Denkbar sind Funktionen zur Transformation und Bewegung des Objektes1, Video- und Audiodaten als Multimedia-Anwendungen, Funktionen zum Austausch von Texturdaten, die Aktivierung von Hyper-Links zum Anwählen von Funktionen und Seiten im Internet oder Intranet, das Anzeigen von erklärenden Texten oder die Durchführung eines Datenaustausches. Bei dem Austausch von Texturdaten können Bildbereiche geändert werden und auf diese Weise bestimmte Effekte, wie zum Beispiel das Zwinkern eines Auges einer dargestellten Person erzielt werden. Durch die Aktivierung von Hyper-Links können zum Beispiel Benutzerhandbücher für das dargestellte Objekt oder das ausgewählte Bildelement aufgerufen werden. Es können auch nur einfache erklärende Texte zusätzlich zu dem Objekt1 auf dem Bildschirm angezeigt werden. Diese erklärenden Texte können zum Beispiel als Nutzerhilfe oder als Marketing-Information dienen. Weitere beliebige Aktionen und Interaktionen sind als Funktionen denkbar.The functions that can be linked can be of any type. Functions for transforming and moving object1 , video and audio data as multimedia applications, functions for exchanging texture data, activating hyperlinks for selecting functions and pages on the Internet or intranet, displaying explanatory texts or are conceivable the implementation of a data exchange. When exchanging texture data, image areas can be changed and certain effects, such as the winking of a person's eye, can be achieved in this way. By activating hyperlinks, user manuals for the displayed object or the selected picture element can be called up, for example. Only simple explanatory texts can be displayed on the screen in addition to object1 . These explanatory texts can serve, for example, as user help or as marketing information. Any other actions and interactions are conceivable as functions.
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE2000108385DE10008385A1 (en) | 2000-02-23 | 2000-02-23 | Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image | 
| AU2001239159AAU2001239159A1 (en) | 2000-02-23 | 2001-02-07 | Method for automatically linking image areas of a 3-dimensional representation of an object with functions | 
| PCT/DE2001/000468WO2001063559A2 (en) | 2000-02-23 | 2001-02-07 | Method for automatically linking image areas of a 3-dimensional representation of an object with functions | 
| Application Number | Priority Date | Filing Date | Title | 
|---|---|---|---|
| DE2000108385DE10008385A1 (en) | 2000-02-23 | 2000-02-23 | Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image | 
| Publication Number | Publication Date | 
|---|---|
| DE10008385A1true DE10008385A1 (en) | 2001-08-30 | 
| Application Number | Title | Priority Date | Filing Date | 
|---|---|---|---|
| DE2000108385WithdrawnDE10008385A1 (en) | 2000-02-23 | 2000-02-23 | Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image | 
| Country | Link | 
|---|---|
| AU (1) | AU2001239159A1 (en) | 
| DE (1) | DE10008385A1 (en) | 
| WO (1) | WO2001063559A2 (en) | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| EP0438017A2 (en)* | 1990-01-18 | 1991-07-24 | International Business Machines Corporation | Method of graphically accessing electronic data with animated icons | 
| DE4411261A1 (en)* | 1993-04-03 | 1994-11-10 | Secotron Elektrogeraetebau Gmb | Interactive video system | 
| EP0677801A1 (en)* | 1994-04-04 | 1995-10-18 | AT&T Corp. | Graphical password | 
| US5678015A (en)* | 1995-09-01 | 1997-10-14 | Silicon Graphics, Inc. | Four-dimensional graphical user interface | 
| US5768565A (en)* | 1994-08-11 | 1998-06-16 | Kabushiki Kaisha Toshiba | Operation verification apparatus and method | 
| US5844392A (en)* | 1992-12-02 | 1998-12-01 | Cybernet Systems Corporation | Haptic browsing | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| WO1993023835A1 (en)* | 1992-05-08 | 1993-11-25 | Apple Computer, Inc. | Textured sphere and spherical environment map rendering using texture map double indirection | 
| JPH07282292A (en)* | 1994-04-05 | 1995-10-27 | Toshiba Corp | Texture mapping method and image processing apparatus | 
| Publication number | Priority date | Publication date | Assignee | Title | 
|---|---|---|---|---|
| EP0438017A2 (en)* | 1990-01-18 | 1991-07-24 | International Business Machines Corporation | Method of graphically accessing electronic data with animated icons | 
| US5844392A (en)* | 1992-12-02 | 1998-12-01 | Cybernet Systems Corporation | Haptic browsing | 
| DE4411261A1 (en)* | 1993-04-03 | 1994-11-10 | Secotron Elektrogeraetebau Gmb | Interactive video system | 
| EP0677801A1 (en)* | 1994-04-04 | 1995-10-18 | AT&T Corp. | Graphical password | 
| US5768565A (en)* | 1994-08-11 | 1998-06-16 | Kabushiki Kaisha Toshiba | Operation verification apparatus and method | 
| US5678015A (en)* | 1995-09-01 | 1997-10-14 | Silicon Graphics, Inc. | Four-dimensional graphical user interface | 
| Title | 
|---|
| BEYER,Detlef, EHRMANN,Stephan: Illusion rundherum. In: c't 1995, S.104-107* | 
| FELLNER,Wolf-Dietrich: Computer Grafik, BI-Wissenschaftsverlag, Mannheim, u.a., 1988, S.331-334,339,351-354* | 
| RADETZKY,Arne: Mit Gefühl. In: IX 9/1999, S.116- S.121* | 
| Publication number | Publication date | 
|---|---|
| WO2001063559A2 (en) | 2001-08-30 | 
| AU2001239159A1 (en) | 2001-09-03 | 
| WO2001063559A3 (en) | 2002-03-14 | 
| Publication | Publication Date | Title | 
|---|---|---|
| DE69632578T2 (en) | COMPUTER GRAPHICS SYSTEM FOR CREATING AND IMPROVING TEXTURE-TRAINING SYSTEMS | |
| DE69807479T2 (en) | Creation of an image of a three-dimensional object | |
| DE69427210T2 (en) | Method and device for generating three-dimensional animation | |
| DE60133386T2 (en) | DEVICE AND METHOD FOR DISPLAYING A TARGET BY IMAGE PROCESSING WITHOUT THREE DIMENSIONAL MODELING | |
| DE102007045834B4 (en) | Method and device for displaying a virtual object in a real environment | |
| DE102020000810A1 (en) | 3D object reconstruction using a photometric network representation | |
| DE112004000377B4 (en) | Method and device Image segmentation in a three-dimensional working environment | |
| EP2082686A1 (en) | Method to display orientated (overlap) images | |
| EP2206090A1 (en) | Method and device for illustrating a virtual object in a real environment | |
| EP0789328A2 (en) | Picture processing method for displaying reflective objects and device therefor | |
| DE10339979B4 (en) | Method and device for displaying a predeterminable area in multi-dimensional data sets | |
| DE102015210453B3 (en) | METHOD AND APPARATUS FOR GENERATING DATA FOR A TWO OR THREE-DIMENSIONAL PRESENTATION OF AT LEAST ONE PART OF AN OBJECT AND FOR PRODUCING THE TWO OR THREE-DIMENSIONAL PRESENTATION AT LEAST THE PART OF THE OBJECT | |
| DE602004012341T2 (en) | Method and system for providing a volume rendering of a three-dimensional object | |
| DE102006021118B4 (en) | Rendering of anatomical structures with their near surrounding area | |
| EP2528042A1 (en) | Method and device for the re-meshing of 3D polygon models | |
| DE102006003179B4 (en) | Method and device for virtual endoscopy of a hollow channel | |
| DE102018100211A1 (en) | A method for generating a representation of an environment by moving a virtual camera towards an interior mirror of a vehicle; as well as camera setup | |
| DE10056978A1 (en) | Generating stereographic images using Z-buffer by producing two two-dimensional images for right and left eyes from colour and depth information stored in buffers | |
| DE60030401T2 (en) | Display techniques for three-dimensional virtual reality | |
| EP3465608B1 (en) | Method and device for determining a transfer between two display images, and vehicle | |
| DE10008385A1 (en) | Method for automatic linking of image areas of a 3-D object image with a function, in which the 3-D image is transformed into, in at least one projection plane, a 2-D texture image | |
| DE102012010799B4 (en) | Method for the spatial visualization of virtual objects | |
| DE69233060T2 (en) | System for displaying spatial incisions for solid model surfaces | |
| DE60109813T2 (en) | METHOD AND DEVICE FOR PRESENTING THREE-DIMENSIONAL SCENES IN VIRTUAL REALITY | |
| DE102015120927A1 (en) | Method for displaying a simulation environment | 
| Date | Code | Title | Description | 
|---|---|---|---|
| OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
| 8139 | Disposal/non-payment of the annual fee | ||
| 8170 | Reinstatement of the former position | ||
| 8139 | Disposal/non-payment of the annual fee |