DE10348618A1 - Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth - Google Patents

Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth Download PDF

Info

Publication number
DE10348618A1
DE10348618A1 DE10348618A DE10348618A DE10348618A1 DE 10348618 A1 DE10348618 A1 DE 10348618A1 DE 10348618 A DE10348618 A DE 10348618A DE 10348618 A DE10348618 A DE 10348618A DE 10348618 A1 DE10348618 A1 DE 10348618A1
Authority
DE
Germany
Prior art keywords
image
virtual
dimensional
depth
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10348618A
Other languages
German (de)
Other versions
DE10348618B4 (en
Inventor
Armin Grasnick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D PHOTO AG, SCHWECHAT, AT
Original Assignee
Armin Grasnick
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Armin Grasnick filed Critical Armin Grasnick
Priority to DE10348618A priority Critical patent/DE10348618B4/en
Priority to PCT/EP2004/009480 priority patent/WO2005029871A2/en
Priority to JP2006526536A priority patent/JP2007506167A/en
Priority to US10/572,025 priority patent/US20070159476A1/en
Priority to EP04764457A priority patent/EP1665815A2/en
Publication of DE10348618A1 publication Critical patent/DE10348618A1/en
Application granted granted Critical
Publication of DE10348618B4 publication Critical patent/DE10348618B4/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Abstract

The method involves creating a virtual three-dimensional image structure (307), based on an assumed three-dimensional gradation of image depth on the basis of the image information of reproduced objects which has been determined from monocular original-image data. The original-image data is adapted to the virtual three-dimensional image structure to create a virtual three-dimensional image master and a series of individual images that reproduce the virtual three-dimensional image model are obtained. An INDPENDENT CLAIM is included for a device for displaying three dimensional depth renditions.

Description

Die Erfindung betrifft ein Verfahren zum Erstellen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 1 und eine Vorrichtung zum Anzeigen einer Raumbildvorlage nach dem Oberbegriff des Anspruchs 16.The The invention relates to a method for creating a spatial image template according to the preamble of claim 1 and a device for displaying a Room image template according to the preamble of claim 16.

Dreidimensionale Objekte werden mit monokularen Aufnahmeeinrichtungen nur zweidimensional abgebildet. Das liegt daran, daß diese Objekte von einem einzigen Beobachtungsstandort und unter nur einem Beobachtungswinkel aufgenommen werden. Bei einem derartigen Aufnahmeverfahren wird das räumliche Objekt auf einen Film, einen photovoltaischen Empfänger, insbesondere ein CCD-Array oder eine andere lichtempfindliche Fläche projiziert. Ein räumlicher Eindruck ergibt sich von dem abgebildeten Objekt erst dann, wenn das Objekt von mindestens zwei unterschiedlichen Beobachtungspunkten bzw. unter mindestens zwei verschiedenen Betrachtungswinkeln aufgenommen und einem Betrachter so präsentiert wird, daß die beiden zweidimensionalen monokularen Bilder von beiden Augen getrennt wahrgenommen und in dessen physiologischem Wahrnehmungsapparat zusammengefügt werden. Dazu werden die monokularen Einzelbilder zu einer Raumbildvorlage kombiniert, die unter Verwendung eines dafür geeigneten Abbildungsverfahrens zu einem räumlichen Bildeindruck beim Betrachter führen. Derartige Verfahren werden auch auch als „Anaglyphentechnik" bezeichnet.Three-dimensional Objects are only displayed two-dimensionally with monocular recording devices. That's because these Objects from a single observation site and under only one Observation angle to be recorded. In such a recording method becomes the spatial Object on a film, a photovoltaic receiver, in particular a CCD array or other photosensitive surface is projected. A spatial Impression results from the imaged object only when the object of at least two different observation points or taken under at least two different viewing angles and presented to a viewer like that will that the perceived two two-dimensional monocular images separated by two eyes and be put together in its physiological perception apparatus. To the monocular frames are combined to a spatial image template, the ones using one for that appropriate imaging process to a spatial image impression Viewers lead. such Methods are also referred to as "anaglyphics".

Eine für ein solches Verfahren verwendbare Raumbildvorlage kann auf verschiedene Weise vorliegen bzw. erstellt werden. Als einfachstes Beispiel sind hier die bekannten Stereo-Diabetrachter zu erwähnen, bei denen der Betrachter mit je einem Auge je ein in einem verschiedenen Blickwinkel aufgenommenes Bildmotiv betrachtet. Bei einer zweiten Möglichkeit wird das unter dem ersten Blickwinkel erzeugte Bild mit einer ersten Farbe und das andere unter dem zweiten Blickwinkel fotografierte Bild mit einer zweiten Farbe eingefärbt. Beide Bilder werden mit einer dem natürlichen Blickwinkelunterschied der menschlichen Augen oder dem Blickwinkelunterschied des Kamerasystems entsprechenden Versetzung zum Erstellen einer Raumbildvorlage übereinander gedruckt oder übereinander projiziert, wobei der Betrachter eine Zweifarbenbrille zum Betrachten der Bildvorlage benutzt. Dabei wird die jeweils andere Blickwinkelkomponente durch das entsprechend gefärbte Brillenglas ausgefiltert. Jedes Auge des Betrachters erhält somit ein entsprechend des unterschiedlichen Blickwinkels differierendes Bild, wobei bei dem Betrachter ein räumlicher Eindruck der Bildvorlage entsteht. Ein derartiges Verfahren ist vorteilhaft, wenn Daten aus einer Stereokamera in Echtzeit und unter geringem apparativem Aufwand übertragen und dargestellt werden sollen. Darüber hinaus werden auch simulierte räumliche Abbildungen mit einem derartigen Verfahren zum Erzeugen einer Raumbildvorlage dargestellt, wobei der Betrachter einen besseren Eindruck komplizierter räumlicher Strukturen, beispielsweise komplizierter simulierter Molekülstrukturen und dergleichen erhalten kann.A for a such room image template can be used on various Be present or created way. The simplest example is Here to mention the well-known stereo slide viewer, where the viewer with one eye each, taken from a different angle Picture motive considered. In a second possibility this will be under the first viewpoint generated image with a first color and that another picture shot under the second angle with a second one Color colored. Both images become with a natural perspective difference the human eyes or the viewing angle difference of the camera system corresponding offset to create a spatial image template on top of each other printed or on top of each other projected, the viewer a two-tone glasses for viewing the Image template used. In doing so, the respective other perspective component becomes through the correspondingly colored Spectacle lens filtered out. Each eye of the observer thus receives a different according to the different point of view Picture, whereby the viewer a spatial impression of the picture template arises. Such a method is advantageous when data out a stereo camera in real time and with little equipment expense transferred and should be displayed. In addition, are also simulated spatial Illustrations with such a method for generating a spatial image template shown, with the viewer a better impression more complicated spatial structures, For example, more complicated simulated molecular structures and the like can receive.

Weiterhin können subtiler wirkende Mechanismen des physiologischen Wahrnehmungsapparates zum Erzeugen der Raumbildvorlage angewendet werden. So ist beispielsweise bekannt, daß zwei kurz innerhalb der Reaktionszeit nacheinander wahrgenommene Bilder zu einem subjektiven Gesamteindruck zusammengeführt werden. Sendet man demnach als kombinierte Raumbildvorlage kurz hintereinander zwei Bildinformationen, die jeweils aus Aufnahmen bestehen, die aus dem ersten, bzw. dem zweiten Betrachtungswinkel gemacht wurden, fügen diese sich in der Wahrnehmung des Betrachters zu einem subjektiven räumlichen Gesamteindruck unter Verwendung einer Shutterbrille zusammen.Farther can subtler mechanisms of the physiological apparatus of perception be used to generate the spatial image template. Such is for example known that two shortly after the reaction time, successively perceived images be brought together to a subjective overall impression. If you send accordingly as a combined spatial image template in quick succession two image information, each consisting of recordings, consisting of the first, and the second Viewing angles are made, they add in the perception the viewer to a subjective overall impression using a shutter glasses together.

Allen erwähnten Verfahren ist jedoch gemeinsam, daß mindestens eine binokulare Aufnahme des räumlichen Bildmotivs vorab vorliegen muß. Das heißt, daß mindestens zwei aus unterschiedlichen Betrachtungswinkeln gemachte Aufnahmen von vornherein vorhanden sein oder (wie zum Beispiel bei Zeichnungen) von Anfang an erzeugt wer den müssen. Bilder oder Filme, Videosequenzen und dergleichen Abbildungen, die von vornherein monokular erzeugt wurden und daher nur monokulare Bildinformationen tragen, sind demnach nicht für eine räumliche Darstellung des Objektes verwendbar. Ein beispielsweise mit einem monokularen Fotoapparat aufgenommenes Foto ist eine zweidimensionale Projektion ohne Raumtiefe. Die Information über die Raumtiefe ist durch die monokulare Abbildung unwiederbringlich verlorengegangen und muss vom Betrachter aufgrund von Erfahrungswerten in das Bild hinein interpretiert werden. Verständlicherweise ergibt sich dabei aber keine echte räumliche Abbildung mit Tiefenwirkung.all mentioned However, the common method is that at least one binocular Recording the spatial Picture motif must be available in advance. The is called, that at least two shots taken from different angles be present in the first place or (as for example in drawings) produced from the beginning who must. Images or films, video sequences and the like images that were produced monocularly from the beginning and therefore only monocular Therefore image information is not for a spatial representation of the object usable. An example taken with a monocular camera Photo is a two-dimensional projection without room depth. The information about the depth of the room has been irretrievably lost through monocular imaging and must by the viewer due to experience in the picture be interpreted into it. Understandably, this results but no real spatial Illustration with depth effect.

Dies ist insofern nachteilig, als daß bei einer ganzen Reihe derartiger zweidimensionaler monokular erzeugter Aufnahmen ein beträchtlicher Teil der ursprünglichen Wirkung und der Information des Bildmotivs verlorengeht. Der Betrachter muß sie sich hinzudenken oder versuchen, dies anderen Betrachtern zu erklären, wobei natürlich der ursprüngliche Eindruck der Räumlichkeit mit keinem räumlichen Abbildungsverfahren der oben genannten Beispiele zurück zu gewinnen ist.This is disadvantageous in that at a whole series of such two-dimensional monocular generated Recordings a considerable Part of the original Effect and the information of the image is lost. The viewer does she have to to think or try to explain this to other viewers, where Naturally the original one Impression of the space with no spatial To recover the mapping process of the above examples is.

Es besteht somit die Aufgabe, ein Verfahren zum Erstellen von Raumbildvorlagen aus zweidimensionalen Bilddaten, insbesondere von Bilddaten aus Bildsequenzen, Videofilmen und dergleichen Informationen anzugeben, bei dem aus einer zweidimensionalen Aufnahme eine Raumbildvorlage für ein Abbildungsverfahren mit räumlicher Tiefenwirkung erzeugt wird.It is therefore the task of a method to create spatial image templates from two-dimensional image data, in particular from image data from image sequences, video films and the like, in which a spatial image template for an imaging process with spatial depth effect is generated from a two-dimensional image.

Diese Aufgabe wird mit einem Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst, wobei die Unteransprüche mindestens ausgestaltende Merkmale der Erfindung enthalten.These The object is achieved by a method according to the features of the claim 1 solved, the dependent claims contain at least ausgestaltende features of the invention.

Bei der folgenden Beschreibung wird unter dem Begriff des „Urbildes" die anfangs gegebene monokular angefertigte zweidimensionale Abbildung verstanden. Es ist unmittelbar einsichtig, daß eine Anwendung des nachfolgend beschriebenen erfindungsgemäßen Verfahrens auch auf Sequenzen von derartigen Urbildern anwendbar ist und daher ohne weiteres auch für bewegte Bilder, insbesondere Video- oder Filmaufnah men, verwendet werden kann, sofern diese aus einer Serie aufeinander abfolgender Abbildungen bestehen oder in diese überführt werden können.at In the following description, under the term "archetype", the initially given monocular made two-dimensional image understood. It is immediate understand that an application of the method according to the invention described below also on sequences is applicable by such Urbildern and therefore readily for moving Images, in particular video or Filmaufnah men used can, if this from a series of successive illustrations exist or be transferred to this can.

Erfindungsgemäß wird auf der Grundlage von aus monokularen Urbilddaten ermittelten Bildinformationen abgebildeter Objekte ein auf einer vermutungsbasierten Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst erzeugt. Die Urbilddaten werden auf das virtuelle dreidimensionale Bildgerüst zum Erzeugen eines virtuellen dreidimensionalen Bildmodells angepaßt. Die Daten des virtuellen dreidimensionalen Bildmodells werden als Vorlage zum Erstellen der Raumbildvorlage für das Abbildungsverfahren mit räumlicher Tiefenwirkung verwendet.According to the invention the basis of image information determined from monocular original image data imaged objects on a guess-based image depth gradation based virtual three-dimensional image framework generated. The original image data are applied to the virtual three-dimensional image framework for generating adapted to a virtual three-dimensional image model. The Data of the virtual three-dimensional image model are used as a template to create the spatial image template for the imaging process with spatial Depth effect used.

Es werden erfindungsgemäß somit zunächst die auf der zweidimensionalen Abbildung abgebildeten Objekte ermittelt. Dann wird diesen Objekten jeweils eine Vermutung über deren Raumtiefe zugeordnet. Es entsteht ein virtuelles dreidimensionales Modell, wobei die ursprünglichen Bilddaten der zweidimensionalen Abbildung auf dieses virtuelle dreidimensionale Modell angepaßt werden. Dieses virtuelle dreidimensionale Modell bildet nun ein virtuelles Objekt, dessen Daten den Ausgangspunkt zum Erzeugen der Raumbildvorlage darstellen.It become according to the invention thus first the determined on the two-dimensional image imaged objects. Then each of these objects is a guess about their Assigned room depth. The result is a virtual three-dimensional model, being the original one Image data of the two-dimensional image on this virtual three-dimensional Model adapted become. This virtual three-dimensional model now forms virtual object whose data is the starting point for generating the Represent room image template.

Auf den monokularen Urbilddaten wird zum Ermitteln der Bildinformation ein Verfahren zu einer Kantenerkennung der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes ausgeführt. Dabei werden bei der vermutungsbasierten Bildtiefenabstufung Urbildareale aufgrund eines ermittelten Kantenreichtums verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder Vordergrund zugeordnet.On The monocular master image data is used to determine the image information a method for edge detection of the imaged objects executed with a generation of an edge-marked image. there become in the presumption-based image depth gradation Urbildareale due to a determined edge richness different virtual depth levels, especially associated with a background and / or foreground.

Hier wird die Erkenntnis genutzt, daß detailreiche und damit kantenreiche Objekte im allgemeinen zu einer anderen Bildtiefe und damit Tiefenebene gehören, als detailarme und damit auch kantenarme Objekte. Der Schritt der Kantenerkennung sortiert demnach Bestandteile des Urbilds aus, von denen auszugehen ist, dass sich diese im Hintergrund des Bildes befinden und separiert sie von denen, die im Vordergrund oder einer weiteren Tiefenebene zu vermuten sind.Here the realization is used that detailed and thus edge-rich objects in general to a different image depth and thus include deep level, as low-detail and thus low-edge objects. The step of Edge detection therefore sorts out components of the original image, from which is assumed to be in the background of the picture they are located and separated from those in the foreground or one further depth level are to be assumed.

Bei einer weiteren Vorgehensweise zum Ermitteln der Bildinformation wird ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt. Dabei wird bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet.at another approach to determining the image information For example, a method for determining the color information of given original image areas is performed. there becomes at the guess-based depth of image at least a first identified color information of a first virtual Depth plane and a second color information of a second virtual Assigned depth level.

Dabei wird hier die Erfahrungstatsache angewandt, daß bestimmte Farben oder Farbkombinationen bei gewissen Bildmotiven bevorzugt in einer anderen Tiefenebene auftreten, als andere Farben oder Farbkombinationen. Beispiele sind hierfür Blau als eine typische Hintergrundfarbe bei Landschaften einerseits und Rot oder Grün als typische Vordergrundfarben des abgebildeten Motivs andererseits.there here the fact of experience is applied that certain colors or color combinations in certain image motifs, preferably in a different depth plane occur as other colors or color combinations. examples are therefor Blue as a typical background color in landscapes on the one hand and red or green on the other hand, as typical foreground colors of the depicted subject.

Das Verfahren zur Kantenerkennung und das Verfahren zum Ermitteln der Farbinformation können sowohl einzeln oder in Kombination miteinander angewendet werden, wobei vor allem eine kombinierte Anwendung aus Kantenerkennung und Ermitteln der Farbinformation weitere Differenzierungsmöglichkeiten der Urbilddaten, insbesondere ein feineres Festlegen weiterer Tiefenebenen erlaubt.The Edge detection method and method for determining the Color information can both individually or in combination with each other, especially a combined application of edge detection and detection the color information further differentiation options of the original image data, in particular a finer setting of further depth levels allowed.

Auf dem kantenmarkierten Bild wird in einer zweckmäßigen Ausgestaltung ein Weichzeichnungsverfahren zur Verstärkung und zum Vereinheitlichen eines kantenreichen Urbildareals angewendet. Damit werden einerseits mögliche Fehler bei der Kantenerkennung ausgeglichen und andererseits nebeneinander liegende, nicht zufällig vorgegebene Strukturen verstärkt. Optional können die Werte des kantenmarkierten Bildes zusätzlich tonwertkorrigiert werden.On the edge-marked image is in a suitable embodiment, a soft-focus method for reinforcement and used to unify an edged original picture area. This will be possible on the one hand Error in edge detection balanced and on the other side lying, not accidental reinforced given structures. Optionally the values of the edge-marked image are additionally corrected for tone value.

Auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes, wird eine auf dem Tonwert eines Bildpunktes basierende Zuordnung eines betreffenden Bildabschnittes zu einer Tiefenebene ausgeführt. Die Strukturen des kantenmarkierten Bildes, das weichgezeichnet und optional tonwertkorrigiert ist, werden nun je nach ihrem Tonwert einzelnen definierten Tiefenebenen zugeordnet. Das kantenmarkierte, weichgezeichnete und optional tonwertkorrigierte Bild bildet daher die Grundlage für eine eindeutige Zuweisung der einzelnen Bildstrukturen zu den Tiefenebenen, wie beispielsweise dem definierten virtuellen Hintergrund, einer virtuellen Bildebene oder einem virtuellen Vordergrund.On the basis of the softened and / or additionally tone-corrected edge-marked image, an assignment of a relevant image section based on the tonal value of a pixel to a depth plane is carried out. The structures of the edge-marked image, which is softened and optionally tone-corrected, are now assigned to individual defined depth levels, depending on their tone value. The edge-marked, softened and optionally tone-corrected image bil Therefore, the basis for a clear assignment of the individual image structures to the depth levels, such as the defined virtual background, a virtual image plane or a virtual foreground.

Bei einer dabei ausgeführten Fixpunktdefinition erfolgt eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert. Damit wird ein virtueller Drehpunkt für die später zu erzeugenden Einzelansichten festgelegt. Dabei bildet der ausgewählte Farb- und/oder Tonwert einen Referenzwert, der einer virtuellen Bildebene zugeordnet wird und somit einen virtuellen Tiefenhintergrund von einem virtuell aus der Bildebene herausragenden Vordergrund trennt.at an executed thereby Fixed point definition, the color and / or tone values are limited to a predetermined value. This becomes a virtual pivot for the later set to be generated individual views. The selected color and / or Tonwert a reference value of a virtual image plane and thus a virtual depth background of a foreground that is virtually out of the picture plane.

Die Zuweisung einer virtuellen Tiefenebene kann auf verschiedene Weise erfolgen. Die bereits dargestellten Verfahrensschritte legen zweckmäßigerweise eine Zuordnung einer Tiefenebene an einen jeweils vorgegebenen Farb- und/oder Helligkeitswert eines Bildpixels nahe. Objekte mit Bildpixeln, die somit gleiche Farb- und/oder Helligkeitswerte aufweisen, werden somit einer Tiefenebene zugeordnet.The Assigning a virtual depth layer can be done in several ways respectively. The process steps already described expediently an assignment of a depth level to a given color and / or brightness value of an image pixel. Objects with image pixels, which thus have the same color and / or brightness values thus assigned to a depth level.

Alternativ dazu besteht auch die Möglichkeit, willkührlich festgelegte Bildabschnitte, insbesondere einen Bildrand und/oder die Bildmitte, einer virtuellen Tiefenebene zuzuordnen. Damit wird insbesondere eine virtuelle „Wölbung", „Verspannung", „Kippung" und dergleichen dreidimensionale Bildeffekte erreicht.alternative There is also the possibility of arbitrarily determined Image sections, in particular a picture edge and / or the center of the picture, assign to a virtual depth layer. This is especially a virtual "curvature", "strain", "tilt" and the like achieved three-dimensional image effects.

Zum Erzeugen des virtuellen dreidimensionalen Bildmodells wird das virtuelle dreidimensionale Bildgerüst als eine entsprechend der virtuellen Tiefenebenen deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt. Die Netzstruktur bildet dabei eine Art virtuelle dreidimensionale „Matrize" oder „Profilform", während das zweidimensionale Urbild eine Art „elastisches Tuch" darstellt, das über die Matrize gespannt und in die Matrize in einer Art virtuellem „Tiefziehverfahren" hineingepreßt wird. Das Ergebnis ist ein virtuelles dreidimensionales Bildmodell mit den Bildinformationen des zweidimensionalen Urbilds und der zusätzlich dem Urbild aufgeprägten „virtuellen Tiefziehstruktur" der virtuellen dreidimensionelen Matrize.To the Creating the virtual three-dimensional image model becomes the virtual one three-dimensional image framework as a virtual deformed according to the virtual depth planes Net structure generated and the two-dimensional archetype in a mapping process as a texture adapted to the deformed network structure. The network structure forms doing a kind of virtual three-dimensional "matrix" or "profile shape", while the two-dimensional archetype represents a kind of "elastic cloth" that over the Matriar is stretched and pressed into the matrix in a kind of virtual "thermoforming process". The result is a virtual three-dimensional image model with the image information of the two-dimensional archetype and the additional the Original image imprinted "virtual Thermoforming structure "the virtual three-dimensional matrix.

Von diesem dreidimensionalen Bildmodell können virtuelle binokulare oder auch multiokulare Ansichten abgeleitet werden. Das geschieht dadurch, indem von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Bobachtungswinkeln eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenen Einzelbildern erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes entsprechend des virtuellen Beobachtungswinkels verschoben und/oder verzerrt werden. Das virtuelle dreidimensionale Bildmodell dient somit als ein virtuelles räumliches Objekt, das virtuell binokular oder multiokular betrachtet wird, wobei dabei virtuelle Ansichten gewonnen werden, die sich entsprechend den Beobachtungswinkeln unterscheiden.From This three-dimensional image model can be virtual binocular or Also, multi-focal views are derived. That happens by from the virtual three-dimensional image model from a Set of virtual observation angles a series of virtual, Play the views of the virtual three-dimensional image model Frames are generated, where a fixed depth corresponding image sections of the original image corresponding to the virtual Observation angle shifted and / or distorted. The virtual Three-dimensional image model thus serves as a virtual spatial Object that is considered to be virtually binocular or multi-eyed, where doing this, virtual views are gained that are appropriate differ from the observation angles.

Diese virtuellen Einzelbilder werden nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage kombiniert. Dabei werden die virtuellen Einzelbilder wie real binokular oder multiokular aufgenommene Einzelbilder behandelt, die nun für ein dreidimensionales Darstellungsverfahren geeignet aufbereitet und kombiniert werden. Damit liegt eine virtuell gewonnene binokulare oder multiokulare Bildinformation vor, die für jedes beliebige räumliche Abbildungsverfahren verwendet werden kann.These virtual frames are after one for the imaging process with additional room effect suitable algorithm for generating a spatial image template combined. The virtual frames are like binocular or real treated multi-ocular captured frames, which now for a three-dimensional Preparation method suitably prepared and combined. This is a virtual binocular or multi-cellular Picture information before, for any spatial Imaging method can be used.

Zum Erstellen der Raumbildvorlage wird bei einer Ausführungsform des Verfahrens eine Bildbearbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln ausgeführt und die so erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters angezeigt.To the Creating the room image template is in one embodiment the process an image processing of individual image areas of the original image, in particular scaling and / or rotating and / or mirroring executed and the generated space image template by means of an overlying monofocal lens raster displayed.

Dabei werden die Bildstrukturen, die in dem virtuellen dreidimensionalen Bildmodell gewissen Tiefenebenen zugeordnet werden, so verändert, dass diese bei Anzeige der so erzeugten Raumbildvorlage einen ausreichenden Akkomodationsreiz für das betrachtende menschliche Auge bieten. Die so hervorgehobenen Bildstrukturen werden mittels der optischen Abbildung durch das Linsenraster entweder vor oder hinter der gegebenen Bildebene wahrgenommen und führen somit zu einem räumlichen Eindruck beim Betrachten des Bildes. Dieses Verfahren benötigt nur eine relativ einfach gestaltete Raumbildvorlage in Verbindung mit einer einfachen Ausführung des Abbildungsverfahrens mit räumlicher Tiefenwirkung.there be the image structures in the virtual three-dimensional Image model assigned to certain depth levels, so changed that These are sufficient when displaying the generated space image template Accommodation stimulus for the to provide contemplating human eye. The highlighted image structures either by means of optical imaging through the lens grid perceived before and behind the given image plane and thus lead to a spatial impression when viewing the picture. This method only requires a relatively simple designed room image template in conjunction with a simple execution of the Imaging method with spatial depth effect.

Das zweidimensionale Urbild kann auch direkt ohne eine Bildbearbeitung durch das monofokale Linsenraster angezeigt werden. Das zweidimensionale Urbild ist somit sofort als Raumbildvorlage für eine Anzeige durch das monofokale Linsenraster verwendbar. Eine derartige Vorgehensweise ist besonders dann zweckmäßig, wenn einfache Bildstrukturen vor einem homogen strukturierten Hintergrund, insbesondere Zeichen vor einem einheitlich ausgebildeten Texthintergrund, mit Tiefenwirkung anzuzeigen sind. Der durch die abbildene Wirkung des monofokalen Linsenrasters erzielte Akkomodationsreiz für das betrachtende Auge bewirkt dann einen Tiefeneffekt, wobei das Urbild an sich für eine derartige Anzeige nicht vorher aufbereitet werden muß.The two-dimensional archetype can also be displayed directly without any image processing by the monofocal lenticular. The two-dimensional archetype image can thus be used immediately as a spatial image template for display by the monofocal lenticular grid. Such a procedure is particularly expedient if simple image structures in front of a homogeneously structured background, in particular characters in front of a uniformly formed text background, are to be displayed with depth effect. The obtained by the imaging effect of the monofocal lens raster Akkomodationsreiz for the viewing eye then effects a depth effect, wherein the original image does not have to be prepared beforehand for such a display.

Eine Vorrichtung zum Anzeigen einer Raumbildvorlage ist durch eine zweidimensionale Raumbildvorlage und ein über der Raumbildvorlage angeordnetes monofokales Linsenraster gekennzeichnet. Das monofokale Linsenraster bildet hierbei Bereiche der Raumbildvorlage ab und bewirkt einen entsprechenden Akkomodationsreiz im betrachtenden Auge.A Apparatus for displaying a spatial image template is characterized by a two-dimensional Room image template and an over the spatial image template arranged monofocal lens grid characterized. The monofocal lenticular forms here areas of the spatial image template and causes a corresponding Akkomodationsreiz in observing Eye.

Die zweidimensionale Bildvorlage ist dazu zweckmäßigerweise aus einem Mosaik aus der Rasterstruktur des Linsenrasters zugeordneten Bildabschnitten ausgeführt, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein zugehöriges Linsenelement des monofokalen Linsenrasters ist. Die zweidimensionale Bildvorlage ist demnach in eine Gesamtheit einzelner Bildbereiche aufgeteilt, die jeweils durch ein Linsenelement angezeigt werden.The Two-dimensional image template is expediently made of a mosaic from the grid structure of the lens grid associated image sections executed wherein substantially each one image section is an imaging object for essentially one associated each Lens element of the monofocal lens grid is. The two-dimensional Picture template is therefore in a totality of individual image areas divided, each by a lens element are displayed.

Bei dieser Vorrichtung sind prinzipiell zwei Ausführungsformen der Bildvorlage und insbesondere der Bildbereiche möglich. Bei einer ersten Ausführungsform sind die Bildabschnitte im wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage des Urbildes. Das heißt, dass bei dieser Ausführungsform das im wesentlichen unveränderte zweidimensionale Bild die Raumbildvorlage für das Linsenraster bildet. Bei dieser Ausführungsform wird somit, abgesehen von Größenänderungen oder Skalierungen des gesamten Bildes, auf eine Bildbearbeitung einzelner Bildbereiche verzichtet.at This device are in principle two embodiments of the image template and in particular the image areas possible. In a first embodiment the image sections are essentially unchanged image components of two-dimensional image template of the archetype. It means that in this embodiment essentially unchanged two-dimensional image forms the spatial image template for the lenticular grid. In this embodiment thus, apart from size changes or scaling the entire image, to image editing omitted individual image areas.

Bei einer weiteren Ausführungsform sind die Bildabschnitte zur Kompensation der Abbildungswirkungen des Linsenrasters skaliert und/oder gespiegelt und/oder gedreht. Dadurch wird eine verbesserte Bildqualität erreicht, wobei allerdings der Aufwand für die Erstellung der Raumbildvorlage zunimmt.at a further embodiment are the image sections to compensate for the imaging effects the lens grid scaled and / or mirrored and / or rotated. This achieves an improved image quality, although the effort for the Creation of the room image template increases.

Die zweidimensionale Bildvorlage ist insbesondere ein auf einem Display erzeugtes Bild, während das Linsenraster auf der Oberfläche des Displays befestigt ist. Das Linsenraster wird somit auf einem vorab vorhandenen Display, beispielsweise einem Röhren- oder Flachbildschirm, an einer geeigneten Stelle angebracht und befindet sich somit über dem auf dem Display angezeigten Bild. Diese Anordnung läßt sich in sehr einfacher Weise verwirklichen.The two-dimensional image template is in particular a on a display generated image while the lenticular grid on the surface the display is attached. The lenticular is thus on a pre-existing display, such as a tube or Flat screen, attached to a suitable place and is located thus above the displayed on the screen. This arrangement can be in a very simple way.

In einer ersten Ausführungsform ist das Linsenraster als eine rasterartige, auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt. Die Verwendung von Fresnel-Linsen gewährleistet eine flache und einfache Gestaltung des Linsenrasters, wobei die für Fresnel-Linsen typischen Rillenstrukturen in der nach dem Stand der Technik bekannten Weise in ein durchsichtiges Kunststoffmaterial, insbesondere eine Kunststofffolie eingearbeitet werden können.In a first embodiment The lenticular is a grid-like, adhering to the display surface Fresnel lens assembly executed. The use of Fresnel lenses ensures a flat and simple Design of the lenticular grid, wherein the groove structures typical for Fresnel lenses in the manner known in the art in a transparent Plastic material, in particular a plastic film are incorporated can.

In einer zweiten Ausführungsform ist das Linsenraster als eine rasterartige, insbesondere flexible, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt. Eine Zonenplatte ist ein konzentrisches System aus hellen und dunklen Ringen, die durch Lichtinterferenz eine Bündelung des hindurchlaufenden Lichtes bewirken und damit eine abbildende Wirkung ermöglichen. Eine derartige Ausführungsform ist durch ein Bedrucken einer durchsichtigen flexiblen Folie in aufwandsarmer und kostengünstiger Weise herstellbar.In a second embodiment is the lenticular grid as a grid-like, in particular flexible, on the display surface adhesive zone plate assembly executed. A zone plate is a concentric one System of light and dark rings caused by light interference a bundling of the passing light effect and thus an imaging Enable effect. Such an embodiment is by printing a transparent flexible film in less expensive and less expensive Way to produce.

Bei einer dritten Ausführungsform ist das Linsenraster auch als eine Anordnung konventionell geformter Konvexlinsen möglich, wobei allerdings die Dicke der gesamten Anordnung und damit auch deren Materialverbrauch zunimmt.at a third embodiment For example, the lenticular grid is also conventionally shaped as an array Convex lenses possible, However, although the thickness of the entire arrangement and thus their material consumption increases.

Das Verfahren und die Vorrichtung sollen im Folgenden anhand von Ausführungsbeispielen näher erläutert werden. Zur Verdeutlichung dienen die angefügten Figuren. Es werden für gleiche oder gleich wirkende Verfahrensschritte und Verfahrensbestandteile die gleichen Bezugszeichen verwendet. Es zeigt:The Method and the device will be described below with reference to exemplary embodiments be explained in more detail. To clarify serve the attached figures. It will be for same or equivalent process steps and process components the same reference numerals are used. It shows:

1 einen ersten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens, 1 a first part of an exemplary schematic program flowchart of the method,

2 einen beispielhaften Ablaufplan einer Kantenerkennung, 2 an exemplary flowchart of edge detection,

3 einen zweiten Teil eines beispielhaften schematischen Programmablaufplanes des Verfahrens, 3 a second part of an exemplary schematic program flowchart of the method,

4 ein beispielhaftes Auswahlmenü zum Ausführen der Kantenerkennung, 4 an exemplary selection menu for performing the edge detection,

5a ein beispielhaftes Urbild, 5a an exemplary prototype,

5b ein beispielhaftes kantenmarkiertes Bild als Ergebnis einer auf dem beispielhaften Urbild aus 5a ausgeführten Kantenerkennung, 5b an exemplary edge-marked image as a result of on the exemplary archetype 5a executed edge detection,

6a ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach 5b ausgeführten Weichzeichnung, 6a an exemplary result of one on the edge-marked image 5b executed soft focus,

6b ein beispielhaftes Ergebnis einer auf dem kantenmarkierten Bild nach 6a ausgeführten Tonwertkorrektur, 6b an exemplary result of one on the edge-marked image 6a executed tonal correction,

7a ein beispielhaftes Auswahlmenü für eine Fixpunktdefinition, 7a an example selection menu for a fixed point definition,

7b ein beispielhaftes fixpunktdefiniertes Bild, 7b an exemplary fixpoint-defined image,

8a ein schematisches Beispiel für graphische Objekte in einem schematischen zweidimensionalen Urbild, 8a a schematic example of graphical objects in a schematic two-dimensional archetype,

8b ein schematisches Beispiel einer Tiefenebenenzuordnung der graphischen Objekte aus 8a und einer Erzeugung eines virtuellen dreidimensionalen Bild modells entlang beispielhafter Schnitte entlang der Linien A-A und B-B aus 8a, 8b a schematic example of a depth-plane assignment of the graphical objects 8a and generating a virtual three-dimensional image model along exemplary sections along the lines AA and BB 8a .

9a ein schematisches Beispiel einer virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie A-A aus den 8a und 8b, 9a a schematic example of a virtual binocular viewing and projection of the virtual three-dimensional image model along the line AA from the 8a and 8b .

9b ein schematisches Beispiel einer beispielhaften virtuellen binokularen Betrachtung und Projektion des virtuellen dreidimensionalen Bildmodells entlang der Linie B-B aus den 8a und 8b, 9b a schematic example of an exemplary virtual binocular viewing and projection of the virtual three-dimensional image model along the line BB of the 8a and 8b .

10 ein schematisches Beispiel einer virtuellen Einzelbilderzeugung aus einem beispielhaften Betrachtungswinkel entlang der beispielhaften Linie A-A nach 9a, 10 a schematic example of a virtual frame formation from an exemplary viewing angle along the exemplary line AA 9a .

11a eine Reihe beispielhafter virtueller Einzelbilder unterschiedlicher Betrachtungswinkel unter Verwendung des Urbildes aus 5a, 11a a series of exemplary virtual frames of different viewing angles using the archetype 5a .

11b eine beispielhafte Kombination der in der 11a gezeigten virtuellen Einzelbilder in einer beispielhaften Raumbildvorlage für ein Abbildungsverfahren mit zusätzlicher Tiefenwirkung, 11b an exemplary combination of in the 11a shown virtual frames in an exemplary room image template for an imaging process with additional depth effect,

12a,b beispielhafte Darstellungen einer zweidimensionalen Bildvorlage und eines darüber befindlichen monofokalen Linsenrasters, 12a , b exemplary representations of a two-dimensional image template and a monofocal lens raster located above it,

13a–c beispielhafte Darstellungen einer Abbildung eines zweidimensionalen Bildabschnittes mittels des monofokalen Linsenrasters der vorhergehenden Abbildungen. 13a Fig. 2c shows exemplary representations of an image of a two-dimensional image section by means of the monofocal lens raster of the preceding figures.

Die 1 und 3 zeigen in zwei Teilen einen beispielhaften schematischen Ablaufplan des Verfahrens. 2 erläutert ein Kantenerkennungsverfahren in einem detaillierteren Ablaufplan. Die 4 bis 11b zeigen beispielhafte Resultate und weitere Einzelheiten des in den Ablaufplänen erläuterten erfindungsgemäßen Verfahrens.The 1 and 3 show in two parts an exemplary schematic flowchart of the method. 2 discusses an edge detection method in a more detailed schedule. The 4 to 11b show exemplary results and further details of the process of the invention explained in the flowcharts.

Den Ausgangspunkt des Verfahrens bildet eine Menge von Urbilddaten 10 eines vorgegebenen zweidimensionalen, zweckmäßigerweise digitalisierten, Urbildes. Sofern das Urbild ein Einzelbild als Bestandteil einer Bildsequenz oder eines digitalisiert vorliegenden Films ist, ist bei der nachfolgenden Beschreibung davon auszugehen, daß alle weiteren Einzelbilder der Bildsequenz in einer dem Einzelbild entsprechenden Weise verarbeitet werden können. Daher ist das im folgenden beispielhaft beschriebene Verfahren auch für Bildsequenzen, Filme und dergleichen verwendbar.The starting point of the method is a set of original image data 10 a given two-dimensional, suitably digitized, archetype. If the original image is a single image as part of an image sequence or of a film that has been digitized in the following description, it can be assumed that all further individual images of the image sequence can be processed in a manner corresponding to the individual image. Therefore, the method exemplified below is also applicable to image sequences, films, and the like.

Zweckmäßigerweise wird davon ausgegangen, daß die Urbilddaten 10 in einer Bilddatei, einer digitalen Speichereinrichtung oder einer vergleichbaren Speichereinheit vorliegen. Diese Daten können durch die üblichen Mittel zum Erzeugen digitalisierter Bilddaten, insbesondere durch einen bekannten Scan-Vorgang, eine Digitalfotografie, eine digitalisierte Videoinformation und dergleichen weitere bekannte Bildgewinnungsverfahren erzeugt werden. Dies schließt insbesondere auch Bilddaten ein, die unter der Verwendung sogenannter Frame Grabber aus Video- bzw. Filmsequenzen gewonnen wurden. Als Datenformate sind prinzipiell alle bekannten Bildformate, insbesondere das BMP-, JPEG-, PNG-, TGA-, TIFF- oder EPS-Format in allen jeweiligen Versionen verwendbar. Obwohl bei den nachfolgend beschriebenen Ausführungsbeispielen auf Figuren Bezug genommen wird, die aus Darstellungsgründen schwarz-weiß, bzw. in Grauwerten abgebildet sind, können die Urbilddaten ohne weiteres Farbinformationen beinhalten.Appropriately, it is assumed that the original image data 10 in an image file, a digital storage device or a comparable storage unit. This data can be generated by the usual means for generating digitized image data, in particular by a known scanning process, digital photography, digitized video information and the like, further known image acquisition methods. This includes, in particular, image data obtained from video or film sequences using so-called frame grabbers. In principle, all known image formats, in particular the BMP, JPEG, PNG, TGA, TIFF or EPS format, can be used as data formats in all respective versions. Although reference is made in the exemplary embodiments described below to figures that are depicted in black-and-white or gray values for reasons of representation, the original image data can easily contain color information.

Die Urbilddaten 10 werden in einem Einleseschritt 20 in einen Arbeitsspeicher zum Ausführen des Verfahrens geladen. In einem Verfahrensschritt eines Anpassens 30 werden zunächst die Urbilddaten für eine optimale Verfahrensausführung angepaßt. Das Anpassen 30 der Bildeigenschaften umfaßt mindestens ein Verändern der Bildgröße und des Farbmodells des Bildes. Kleinere Bilder werden in der Regel dann bevorzugt, wenn die Rechenzeit des Verfahrens zu minimieren ist. Eine Bildgrößenänderung kann jedoch auch eine mögliche Fehlerquelle für das erfindungsgemäße Verfahren sein. Als anzupassendes Farbmodell können prinzipiell alle derzeit gebräuchlichen Farbmodelle, insbesondere RGB- und CMYK- oder Graustufenmodelle, aber auch Lab-, Index- bzw. Duplex-Modelle je nach Erfordernis verwendet werden.The original image data 10 be in a read-in step 20 loaded into a working memory for carrying out the method. In a process step of fitting 30 First, the original image data are adapted for optimal process execution. The customization 30 The image properties include at least one of changing the image size and the color model of the image. Smaller images are usually preferred when the computational time of the method is to be minimized. However, a picture size change can also be a possible source of error for the method according to the invention. In principle, all color models currently in use, in particular RGB and CMYK or grayscale models, but also Lab, index or duplex models can be used as the color model to be adapted as required.

Für die weitere Verarbeitung werden die angepaßten Bilddaten in einem Schritt 40 für einen wiederholten Zugriff zwischengespeichert. Die zwischengespeicherten Bilddaten 50 bilden die Grundlage im wesentlichen aller nachfolgenden Datenoperationen.For further processing, the adjusted image data in one step 40 cached for repeated access. The cached image data 50 form the basis of essentially all subsequent data operations.

In Abhängigkeit von dem vermuteten räumlichen Bildaufbau, d.h. der vermuteten Abstufung der Tiefenebenen im Urbild, folgt nun optional unter einem Zugriff auf die zwischengespeicherten Bilddaten 50 entweder eine Änderung des Farbkanals/der Farbverteilung 60 oder eine Überführung der Bilddaten in ein grauwertabgestuftes Bild mittels einer Grauwertabstufung 70. Die Grauwertabstufung 70 ist vor allem dann vorteilhaft, wenn davon auszugehen ist, daß vorwiegend den auf dem Bild dargestellten Objektkonturen eine Tiefeninformation zuzuordnen ist. In diesem Fall sind alle Farbinformationen des Bildes für eine Tiefeninterpretation des Urbildes gleich relevant und können demnach in gleicher Weise in Grauwerte überführt werden. Eine Abwandlung des Farbkanals bzw. der Farbverteilung in den Bilddaten ist dann zweckmäßig, wenn anzunehmen ist, daß im wesentlichen ein Farbkanal Träger der interpretierten Tiefeninformation ist und daher für die folgende Bearbeitung besonders hervorzuheben bzw. zu berücksichtigen ist. Bei der hier gegebenen beispielhaften Beschreibung des Verfahrensablaufs wird auch aus Gründen der besseren Darstellung insbesondere in Hinblick auf die Figuren davon ausgegangen, daß die zwischengespeicherten Bilddaten 50 unabhängig von ihren Farbwerten in Grauwerte umgewandelt werden, wobei die Farbinformation unverändert bleibt.Depending on the assumed spatial image structure, ie the presumed gradation of the depth planes in the archetype, now optionally follows under ei Access to the cached image data 50 either a change of the color channel / the color distribution 60 or a conversion of the image data into a gray-scale graded image by means of a gray level graduation 70 , The gray value gradation 70 is especially advantageous if it can be assumed that a predominantly the object contours shown in the image is to be assigned a depth information. In this case all color information of the image is equally relevant for a deep interpretation of the original image and can therefore be converted into gray values in the same way. A modification of the color channel or of the color distribution in the image data is expedient if it is to be assumed that a color channel is essentially the carrier of the interpreted depth information and should therefore be particularly emphasized or taken into account for the following processing. In the exemplary description of the method sequence given here, it is also assumed for reasons of better illustration, in particular with regard to the figures, that the buffered image data 50 regardless of their color values are converted into gray values, the color information remains unchanged.

Im weiteren Verfahrensverlauf schließt sich eine Kantenerkennung 80 an. Dabei wird von der Annahme ausgegangen, daß die in das zweidimensionale Urbild hinein interpretierten Tiefenebenen vor allem durch in die in dem Bildmotiv vorhandenen Objekte definiert sind. Beispielsweise kann davon ausgegangen werden, dass reich strukturierte und damit stark durch Konturen und somit kantenartigen Strukturen geprägte Objekte vorwiegend im Vordergrund des Bildes vorhanden sind und konturarme, verwaschene und somit kantenarme Objekte den Bildhintergrund bilden. Das Kantenerkennungsverfahren 80 wird ausgeführt, um die unterschiedlichen Areale des Urbildes, die aufgrund ihrer Strukturierung zu verschiedenen Tiefenebenen gehören, eindeutig zu identifizieren und voneinander möglichst eindeutig zu unterscheiden.In the further course of the process, an edge detection closes 80 at. The assumption here is that the depth levels interpreted into the two-dimensional archetype are primarily defined by the objects present in the image motif. For example, it can be assumed that richly textured objects, which are thus heavily influenced by contours and thus edge-like structures, are present predominantly in the foreground of the image, and low-contour, washed-out and thus low-edge objects form the image background. The edge detection method 80 is executed in order to uniquely identify the different areas of the archetype, which belong to different depth levels due to their structuring, and to distinguish them from each other as clearly as possible.

2 stellt einen schematischen und beispielhaften Ablaufplan zur Kantenerkennung dar. 4 zeigt in Verbindung damit ein beispielhaftes Eingabemenü 89 zur Festlegung der durchzuführenden Veränderungen an den Helligkeitswerten eines zentralen Pixels und einer festgelegten Pixelumgebung. Die durch ihren Grauwert definierten Bildpixel 81 werden in einem Schleifenprozeß fortlaufend bearbeitet. Zunächst erfolgt eine Auswahl 82 eines Pixels und ein Einlesen dessen Helligkeitswertes 83. Dieser Helligkeitswert wird mit einem möglichst großen positiven Wert (in dem hier dargestellten Beispiel mit dem willkürlichen Wert +10) multipliziert, wodurch ein sehr heller Bildpixel 85 erzeugt wird. Ein Helligkeitswert eines jeweils rechts davon liegenden Pixels wird dagegen mit einem möglichst stark negativen Wert (in dem hier dargestellten Beispiel mit –10) in einem Schritt 86 multipliziert, wodurch ein sehr dunkler Pixel 87 erzeugt wird. Dann wird in einem Schritt 88 der nächste Pixel eingelesen. Das Resultat der Kantenerkennung ist ein kantenmarkiertes Bild. Dort, wo das ursprüngliche Bild einen großen Struktur- und damit Kantenreichtum zeigt, bestehen die nunmehr gegebenen kantenmarkierten Bilddaten aus einer Struktur sehr heller bzw. sehr dunkler Pixel, während strukturarme und daher kontur- und kantenarme Bildbereiche eine einheitliche dunkle Färbung aufweisen. Die Struktur der abwechselnd sehr hellen und sehr dunklen Pixel und des damit markierten Objekts weist demnach einen höheren durchschnittlichen Helligkeitswert auf, als ein Areal durchgängig dunkler Pixel. 2 illustrates a schematic and exemplary flowchart for edge detection. 4 shows in conjunction with this an exemplary input menu 89 determining the changes to be made to the brightness values of a central pixel and a specified pixel environment. The image pixels defined by their gray value 81 are processed continuously in a loop process. First, a selection is made 82 of a pixel and reading in its brightness value 83 , This brightness value is multiplied by the largest possible positive value (in the example shown here with the arbitrary value +10), resulting in a very bright image pixel 85 is produced. On the other hand, a brightness value of a respective pixel lying to the right thereof is given a value which is as negative as possible (in the example shown here with -10) in one step 86 multiplied, creating a very darker pixel 87 is produced. Then in one step 88 read in the next pixel. The result of edge detection is an edge-marked image. Where the original image shows a large structural and thus edge richness, the edge-marked image data now given consist of a structure of very light or very dark pixels, while low-structured and therefore contour-poor and edge-poor image areas have a uniform dark color. The structure of the alternately very light and very dark pixels and the object marked thereby has a higher average brightness value than an area of consistently darker pixels.

Nebeneinander liegende Strukturen werden nachfolgend mittels eines als „Weichzeichnung" bezeichneten Verfahrensschrittes 90 verstärkt. Dabei werden die Helligkeitswerte einer bestimmten ausgewählten Pixelmenge im kantenmarkierten Bild nach einem bestimmten Algorithmus gemittelt und den Pixeln der ausgewählten Menge zugewiesen. Bewährt hat sich hier insbesondere ein Gaussches Weichzeichnungsverfahren. Im weichgezeichneten kantenmarkierten Bild heben sich die Objektstrukturen als eine hellere Pixelmenge vom dem übrigen Bilddteil ab und ermöglichen eine Identifizierung eines einheitlichen Objektes.Adjacent structures will hereinafter be referred to as a "softening" process step 90 strengthened. In this case, the brightness values of a specific selected pixel quantity in the edge-marked image are averaged according to a specific algorithm and assigned to the pixels of the selected quantity. In particular, a Gaussian blur has proven its worth here. In the soft-edged edge-marked image, the object structures stand out as a lighter amount of pixels from the rest of the image part and allow identification of a uniform object.

Gegebenenfalls kann anschließend in einem Schritt 100 eine Tonwertkorrektur des kantenmarkierten weichgezeichneten Bildes erfolgen. Dabei werden vorzugsweise die Tonwerte der Bildpunkte so korrigiert, dass sich ein möglichst deutlicher Kontrast zwischen der Objektstruktur und dem als Hintergrund des Bildes definierten Rest ergibt.Optionally, then in one step 100 tonal correction of the edge-marked blurred image. In this case, the tonal values of the pixels are preferably corrected in such a way that the most distinct contrast between the object structure and the rest defined as the background of the image results.

Der nächste Verfahrensschritt ist durch eine Fixpunktfestlegung 110 bezeichnet. Bei diesem Schritt werden die Farb- und/oder Grauwerte des kantenmarkierten weichgezeichneten Bildes auf einen gewissen Wert so begrenzt, dass de facto der virtuelle Drehpunkt der zu erzeugenden virtuellen Einzelansichten definiert wird. Die Fixpunktfestlegung 110 definiert mit anderen Worten die Objekte oder Strukturen, die virtuell als vor oder hinter der Bildoberfläche gelegen angenommen und später so in ihrer Tiefenwirkung abgebildet werden sollen.The next step in the process is a fixed point fix 110 designated. In this step, the color and / or gray values of the edge-marked blurred image are limited to a certain value so as to de facto define the virtual fulcrum of the virtual single views to be generated. The fixed point fixing 110 in other words, defines the objects or structures that are supposed to be virtually located in front of or behind the image surface and later displayed in their depth effect.

Weiterhin können optional in einem Verfahrensschritt 120 weitere Fixpunktoptionen berücksichtigt werden. So kann beispielsweise eine erste Vermutung angewendet werden, dass größere blaue Flächen vorwiegend einen Hintergrund (blauer Himmer, Wasser usw.) bilden, während kleinere, scharf umgrenzte und farblich hervorstechende Objekte den Vordergrund des Bildes bilden. Ebenso können gewissen Farbwerten gewisse virtuelle Tiefenebenen von von Beginn an zugeordnet werden. So können zum Beispiel Farbwerte, die einer Gesichtsfarbe entsprechen, einer virtuellen Tiefenebene zugeordnet werden, die einer mittleren Bildtiefe entspricht. Ebenso können definierte Bildabschnitte, wie zum Beispiel der Bildrand oder die Bildmitte gewissen Tiefenebenen, zum Beispiel dem Vordergrund oder dem Hintergrund zugeordnet werden, wobei eine „Vorspannung" oder „Wölbung" des später erzeugten räumlichen Bildes erzeugt werden kann.Furthermore, optional in one process step 120 other fixed point options are taken into account. For example, a first assumption can be made that larger blue areas predominantly form a background (blue sky, water, etc.), while smaller, sharply defined and colorfully prominent objects form the foreground of the image. Similarly, certain color values may be assigned certain virtual depth levels from the beginning. So can For example, color values corresponding to a face color are assigned to a virtual depth plane corresponding to an average image depth. Likewise, defined image sections, such as the image border or the image center certain depth levels, for example, the foreground or the background can be assigned, with a "bias" or "curvature" of the later generated spatial image can be generated.

Durch die so erzeugten Abstufungen der virtuellen Tiefenebenen wird ein virtuelles dreidimensionales Bildgerüst erzeugt, die als eine Verzerrungsmaske oder „Displacement-Map" dient und in Form einer Graustufenmaske visualisiert werden kann. Dieses virtuelle dreidimensionale Bildgerüst wird in einem Schritt 130 zur weiteren Verwendung gespeichert.The gradations of the virtual depth planes produced in this way create a virtual three-dimensional image framework that serves as a distortion mask or "displacement map" and can be visualized in the form of a gray scale mask.This virtual three-dimensional image framework becomes in one step 130 saved for further use.

Das virtuelle dreidimensionales Bildgerüst dient als Verzerrungsmaske und virtuelle Form zum Erzeugen eines virtuellen dreidimensionalen Bildmodells. Dabei wird in einem Verfahrensschritt 150, der in 3 als „Displace" bezeichnet ist, das Urbild als Textur über das virtuelle Bildgerüst gelegt und so verzerrt, daß die entsprechenden Urbildabschnitte auf die virtuellen Tiefenebenen „tiefgezogen" d.h. diesen Tiefenebenen zugeordnet werden. Von diesem virtuellen dreidimensionalen Bildmodell werden nun von einer Reihe verschiedener virtueller Betrachtungswinkel aus virtuelle Einzelbilder 160 des virtuellen dreidimensionalen Bildmodells durch eine virtuelle Projektion der Bilddaten des virtuellen dreidimensionalen Bildmodells entsprechend bekannter perspektivischer Abbildungsgesetze erzeugt.The virtual three-dimensional image framework serves as a distortion mask and virtual shape for creating a virtual three-dimensional image model. It is in a process step 150 who in 3 is called "Displace", placed the original image as a texture on the virtual image framework and distorted so that the corresponding pre-image sections on the virtual depth levels "deep drawn" ie assigned to these depth levels. From this virtual three-dimensional image model, individual virtual images are now transformed from a number of different virtual viewing angles 160 of the virtual three-dimensional image model generated by a virtual projection of the image data of the virtual three-dimensional image model according to known perspective mapping laws.

In einem Kombinationsschritt 170 werden die virtuellen Einzelbilder nach einem für das Abbildungsverfahren mit zusätzlicher Tiefenwirkung festgelegten Algorithmus so kombiniert, dass schließlich Bilddaten 180 für die dreidimensionale Abbildung des anfänglichen Urbildes vorliegen.In a combination step 170 For example, the virtual frames are combined according to an algorithm set for the additional depth effect imaging method such that finally image data 180 for the three-dimensional mapping of the initial archetype.

Im Folgenden werden einige Bildbearbeitungen anhand von Beispielen näher erläutert. 5a zeigt ein, im allgemeinen farbiges, zweidimensionales Urbild 200. Wie dem Bild zu entnehmen ist, befinden sich eine Reihe von Pflanzen offensichtlich im Vordergrund des Bildmotivs, während offensichtlich weiter im Hintergrund gelegene undeutliche Hafenanlagen, Gebäude und ein weitgehend strukturloser Strand zu erkennen sind. Weiterhin wird der praktisch im Unendlichen gelegene Hintergrund im Urbild 200 durch einen weich verlaufenden Himmel gebildet. Wie der 5a zu entnehmen ist, zeichnen sich die im offensichtlichen Vordergrund angeordneten Pflanzen durch einen im Vergleich zum Hintergrund beträchtlichen Detailreichtum aus, der sich unter anderem in einer großen Anzahl von „Kanten", beispielsweise im Bereich der Blätter oder der Blüten, zeigt. Der Hintergrund ist im Vergleich dazu kantenarm bzw. kantenfrei. Es ist demnach naheliegend, die Dichte der Kanten im Urbild 200 als Indikator für die räumliche Lage der dargestellten Objekte heranzuziehen.In the following, some image processing will be explained in more detail by means of examples. 5a indicates a generally colored, two-dimensional archetype 200 , As can be seen from the picture, a number of plants are obviously in the foreground of the image, while obviously located in the background located indistinct port facilities, buildings and a largely unstructured beach. Furthermore, the background, which is practically at infinity, is in the archetype 200 formed by a softly running sky. Again 5a It can be seen that the plants arranged in the obvious foreground are characterized by a considerable amount of detail compared to the background, which is manifested inter alia in a large number of "edges", for example in the area of the leaves or the flowers It is therefore obvious, the density of the edges in the archetype 200 as an indicator of the spatial position of the objects presented.

5b zeigt ein aus dem Urbild 200 nach einer Graustufenumwandlung und einer optionalen Größenkorrektur gewonnenes kantenmarkiertes Bild 210. Dort, wo sich die strukturreichen Pflanzen aus dem in 5a gezeigten Urbild 200 befinden, zeigt das kantenmarkierte Bild 210 eine Vielzahl durch helle Pixel markierter Kanten, die besonders im rechten Bildbereich zu einer höheren mittleren Bildhelligkeit führen. Dagegen sind sowohl der Himmel als auch der Strandbereich aus dem Urbild 200 kantenarm und daher im kantenmarkierten Bild 210 vorwiegend dunkel, während die im Urbild 200 erkennbaren Gebäude einige wenige Kantenstrukturen in Form vereinzelter heller Bildpunkte erzeugen. 5b shows one from the archetype 200 edge-marked image obtained after grayscale conversion and optional size correction 210 , There, where the structurally rich plants from the in 5a shown archetype 200 show the edge-marked image 210 a multiplicity of bright-pixel-marked edges, which lead to a higher average image brightness, especially in the right-hand image area. In contrast, both the sky and the beach area from the archetype 200 low edge and therefore in the edge-marked image 210 mostly dark, while those in the archetype 200 recognizable building produce a few edge structures in the form of isolated bright pixels.

Die 6a und 6b zeigen ein weichgezeichnetes kantenmarkiertes Bild 220 und ein weichgezeichnetes kantenmarkiertes und zusätzlich tonwertkorrigiertes Bild 230. Auf dem weichgezeichneten Bild 220 ist zu erkennen, daß sich der rechte Bilddteil durch einen höheren Bildhelligkeitswert vom linken Bildteil unterscheidet. Dieser Unterschied zeigt sich noch deutlicher im tonwertkorrigierten Bild 230 in 6b. Der Kantenreichtum im Bereich der Pflanzen des Urbildes, mit anderen Worten der Strukturreichtum des angenommenen Vordergrundes, zeigt sich in den Bildern 220 und 230 deutlich als ein heller Bereich. Deutlich ist im tonwertkorrigierten Bild 230 auf der linken Bildhälfte ein etwas hellerer Streifen zu erkennen, der allerdings deutlich dunkler als der Bildbereich der Pflanzen ist. Dieser Streifen entspricht den abgebildeten Gebäuden aus dem Urbild 200 aus 5a. Der deutlich dunklere Helligkeitswert verweist auf die kantenärmere Struktur der abgebildeten Gebäude und somit auf deren Anordnung im angenommenen Bildhintergrund.The 6a and 6b show a softened edge-marked image 220 and a soft-edged edge-marked and additionally tone-corrected image 230 , On the softened picture 220 It can be seen that the right image part differs from the left image part by a higher image brightness value. This difference is even more evident in the tone-corrected image 230 in 6b , The richness of edges in the area of the plants of the archetype, in other words the structure richness of the assumed foreground, is shown in the pictures 220 and 230 clearly as a bright area. It is clear in the tone-corrected image 230 on the left half of the picture a slightly lighter stripe can be seen, which is, however, much darker than the image area of the plants. This strip corresponds to the depicted buildings from the archetype 200 out 5a , The much darker brightness value refers to the lower-edge structure of the buildings depicted and thus to their arrangement in the assumed background image.

Im weichgezeichneten und tonwertkorrigierten Bild bilden der Himmel und der Strand aus dem Urbild 200 eine einheitlich dunkle Fläche. Obwohl der Strand eher zum mittleren Vordergrund des Bildes, als zum durch den Himmel gebildeten Hintergrund zu rechnen ist, kann aus dem kantenmarkierten sowie dem weichgezeichneten und tonwerkorrigierten Bild allein dessen mittlere Vordergrundlage nicht eindeutig bestimmt werden. Hier bietet sich eine Zuordnung des Strandes zu einer virtuellen mittleren Tiefenebene aufgrund des gelben oder braunen Farbwertes an, der sich in diesem Beispiel eindeutig vom Farbwert des blauen Himmels unterscheidet.In the softened and tone-corrected image, the sky and the beach form the archetype 200 a uniformly dark surface. Although the beach is more likely to be the middle foreground of the picture than the background formed by the sky, the central edge position of the edge-marked, softened and tone-corrected image alone can not be clearly determined. Here, an assignment of the beach to a virtual middle depth level is appropriate due to the yellow or brown color value, which in this example clearly differs from the color value of the blue sky.

Dies ist mit der oben bereits erwähnten Fixpunktfestlegung 110 möglich. 7a zeigt ein diesbezügliches beispielhaftes Menü 239, 7b das dem Menü entsprechende Bild 240. In einem Histogramm 241 sind eine Reihe von Farbkanälen dargestellt, die in dem in 7a gezeigten Ausführungsbeispiel eine Reihe von Grauwerten sind. Die entsprechenden Grauwerte sind in einer Grauwertleiste 242 angezeigt. Im linken Teil des Histogramms 241, bzw. der Grauwertleiste 242 befinden sich die dunklen Hellig keitswerte, im rechten Teil die hellen Helligkeitswerte. Die Größe der Histogrammbalken zeigt die Häufigkeitsverteilung der entsprechenden Grauwerte an. Zu erkennen ist, dass sich der helle Bereich des weichgezeichneten, bzw. tonwertkorrigierten Bildes 220 oder 230 in einem breiten Maximum des Histogramms 241 zeigt, während die dunklen Bereiche in den Bildern 220 und 230 zu einem Maximum im linken Teil des Histogramms 241 bei den dunklen Helligkeitswerten führt. Mittels Indikatorenzeigern 243 können gewisse Helligkeitswerte ausgewählt werden. Mit Hilfe der Tasten 245 können Helligkeitswerte ausgewählter Pixel direkt aus dem Bild 241 in das Histogramm 241 ausgelesen und übertragen werden.This is with the above-mentioned fixed point specification 110 possible. 7a shows a related example menu 239 . 7b the the menu corresponding image 240 , In a histogram 241 are a series of color channels shown in the in 7a embodiment shown are a series of gray levels. The corresponding gray values are in a gray scale bar 242 displayed. In the left part of the histogram 241 , or the gray scale bar 242 are the dark brightness values, in the right part are the bright brightness values. The size of the histogram bars indicates the frequency distribution of the corresponding gray values. It can be seen that the bright area of the softened, or tone-corrected image 220 or 230 in a broad maximum of the histogram 241 shows while the dark areas in the pictures 220 and 230 to a maximum in the left part of the histogram 241 at the dark brightness values leads. Using indicator pointers 243 certain brightness values can be selected. Using the buttons 245 can brightness values of selected pixels directly from the image 241 into the histogram 241 be read out and transmitted.

In dem hier dargestellten Beispiel stellt sich heraus, dass sich der dem Strand aus dem Urbild 200 entsprechende Bereich in seinem Helligkeitswert vom dem dem Himmel aus dem Urbild 210 entsprechenden Bildabschnitt unterscheidet. Dieser kann mittels eines Auswahlindikators 244 als virtuelle Bildebene ausgewählt werden und bildet einen möglichen Fixpunkt für virtuelle Einzelansichten des später zu erzeugenden virtuellen dreidimensionalen Bildmodells.In the example shown here turns out that the beach from the archetype 200 corresponding area in its brightness value from the sky from the archetype 210 corresponding image section distinguishes. This can be done by means of a selection indicator 244 be selected as a virtual image plane and forms a possible fixed point for virtual single views of the later to be generated virtual three-dimensional image model.

Die 8a und 8b zeigen an einem sehr stark schematisierten Beispiel eine Tiefenebenenzuordnung und eine Konstruktion eines virtuellen dreidimensionalen Bildgerüstes. In 8a ist ein stark schematisiertes monokular erzeugtes zweidimensionales Urbild 301 dargestellt, dessen einzelne Objekte in ihrer räumlichen Lage im Bild schon durch die vorhergehend beschriebenen Konturerkennungsverfahren identifiziert worden seien. Das in 8a beispielhaft dargestellte schematische Urbild 301 weist ein erstes Objekt 303, ein zweites Objekt 304 und ein drittes Objekt 305 auf, die vor einer als Hintergrund identifizierten Fläche 306 angeordnet sind und sich von dieser abheben.The 8a and 8b show in a very highly schematic example a depth-plane assignment and a construction of a virtual three-dimensional image frame. In 8a is a highly schematic monocular two-dimensional archetype 301 represented, the individual objects were already identified in their spatial position in the image by the previously described contour recognition method. This in 8a exemplified schematic prototype 301 has a first object 303 , a second object 304 and a third object 305 on, in front of a surface identified as background 306 are arranged and stand out from this.

Die vorhergehend beschriebenen Verfahren zur Konturenmarkierung, zur Fixpunktdefinition und weitere Vermutungen über die Bildtiefe lassen es beispielhafter Weise für das schematische Urbild 301 in 8a in sinnvoll erscheinen, das erste Objekt 303 in der Tiefenebene im Vordergrund anzuordnen, während die Objekte 304 und 305 weiter im Bildhintergrund vermuteten Tiefenebenen zuzuordnen sind. Die Fläche 306 bildet einen quasi im Unendlichen gelegenen Bildhintergrund. In 8b ist das aus den Zuordnungen der Objekte aus 8a zu den entsprechenden Tiefenebenen erzeugte virtuelle Bildgerüst 307 in einem Schnitt entlang der Linien A – A bzw. der Linie B – B aus 8a gezeigt. Die Schnitte entlang der Schnittlinien A – A, bzw. B – B ergeben somit ein virtuelles „Höhenprofil" des virtuellen Bildgerüstes. Wie aus 8b zu entnehmen ist, ist das Objekt 303 in diesem virtuellen „Höhenprofil" auf der obersten Tiefenebene angeordnet, während das Objekt 304 einer darunter befindlichen Tiefenebene zugeordnet wird. Das Objekt 305 bildet eine weitere Tiefenebene im virtuellen Bildgerüst in der 8b aus. Die virtuelle Tiefenebene des Bildhintergrundes 306 ist in 8b aus Darstellungsgründen relativ nahe zu den Tiefenebenen der anderen Objekte 303, 304 und 305 angeordnet. Ein zweckmäßiges virtuelles Bildgerüst muß zweckmäßigerweise Tiefenebenenabstufungen aufweisen, die der vermuteten tatsächlichen räumlichen Lage der Objekte entsprechen. So sollte die virtuelle Tiefenebene des Bildhintergrundes demnach zweckmäßigerweise so angeordnet sein, dass deren Abstand zu den übrigen definierten Tiefenebenen des virtuellen Bildgerüstes ein Vielfaches der Abstände zwischen den jeweils anderen entspricht. Werden beispielsweise die Abstände zwischen den virtuellen Tiefenebenen der Objekte 303 und 304 bzw. zwischen der virtuellen Tiefenebene des Objektes 304 und 305 im Bereich von einigen Metern definiert, muß der zweckmäßige virtuelle Abstand zwischen der Tiefenebene des Objektes 305 und der Tiefenebene des Hintergrundes 306 für ein realistisches Bildgerüst zweckmäßigerweise eine Größe annehmen, die im Kilometerbereich liegt, da erfahrungsgemäß für Objekte im Hintergrund gilt, dass diese praktisch unverändert bei kleinen Unterschieden im Betrachtungswinkel abgebildet werden.The above-described methods for contour marking, for fixed-point definition and further assumptions about the image depth allow it, for example, for the schematic archetype 301 in 8a make sense, the first object 303 in the foreground, while the objects 304 and 305 continue to be assigned in the image background suspected depth levels. The area 306 forms an image background that is virtually at infinity. In 8b that's from the mappings of the objects 8a generated virtual image framework to the corresponding depth levels 307 in a section along the lines A - A and the line B - B aus 8a shown. The sections along the section lines A - A and B - B thus provide a virtual "height profile" of the virtual image framework 8b it can be seen, is the object 303 arranged in this virtual "height profile" at the top depth level, while the object 304 is assigned to an underlying depth level. The object 305 forms another depth plane in the virtual frame in the 8b out. The virtual depth layer of the image background 306 is in 8b for reasons of representation, relatively close to the depth planes of the other objects 303 . 304 and 305 arranged. An expedient virtual image framework must expediently have depth-plane graduations which correspond to the assumed actual spatial position of the objects. Thus, the virtual depth plane of the image background should therefore expediently be arranged such that their distance from the other defined depth planes of the virtual image framework corresponds to a multiple of the distances between the respective others. For example, become the distances between the virtual depth planes of the objects 303 and 304 or between the virtual depth plane of the object 304 and 305 defined in the range of a few meters, the appropriate virtual distance between the depth plane of the object 305 and the deep level of the background 306 for a realistic scaffold expediently assume a size that is in the kilometer range, as experience has shown that objects in the background, that they are displayed virtually unchanged with small differences in the viewing angle.

Das zweidimensionale Urbild wird auf das virtuelle Bildgerüst angepaßt. Bei dem in den 8a und 8b gezeigten schematischen Beispiel erfolgt dies so, daß die Bilddaten des Urbildes 301, insbesondere die Bildinformationen der einzelnen Pixel, virtuell den einzelnen Tiefenebenen im virtuellen Bildgerüst zugewiesen werden. Es entsteht ein virtuelles dreidimensionales Bildmodell, das in dem hier dargestellten Beispiel einer Anordnung aus „Kulissen" vergleichbar ist, bei der sich das Objekt 303 virtuell auf der Höhe einer ersten virtuellen Tiefenebene im Vordergrund befindet und die weiteren, auf den Niveaus der entsprechenden anderen Tiefenebenen gelegenen „Kulissen" der Objekte 304 und 305 „verdeckt".The two-dimensional archetype is adapted to the virtual framework. In the in the 8a and 8b shown schematic example, this is done so that the image data of the original image 301 , in particular the image information of the individual pixels, are virtually assigned to the individual depth levels in the virtual image framework. The result is a virtual three-dimensional image model, which in the example shown here is comparable to an arrangement of "scenes" in which the object 303 is virtually at the height of a first virtual depth plane in the foreground and the other located on the levels of the corresponding other depth levels "scenes" of the objects 304 and 305 "Concealed".

Fließende Übergänge zwischen den einzelnen virtuellen Tiefenebenen können in Ergänzung dazu zum einen dadurch erreicht werden, indem das Raster der Abstufungen der virtuellen Abstände zwischen den einzelnen Tiefenebenen verfeinert wird und bei den einzelnen Tiefenebenen weitere Abstufungen vorgenommen werden. Zum anderen ist es auch möglich, die Ränder der Tiefenebenen bzw. der auf den Tiefenebenen gelegenen Objekte geeignet virtuell so zu deformieren, daß diese ineinander übergehen. So wäre es beispielsweise bei dem schematischen Objekt 303 in 8a möglich, den Rand von dessen Tiefenebene virtuell so deformieren, dass das Objekt 303 eine virtuelle sphärische Krümmung erhält. In einer dazu entsprechenden Weise können die Tiefenebenen des virtuellen Bildgerüstes so deformiert werden, daß die darauf abgebildeten Bildinformationen des zweidimensionalen Urbildes im Rahmen eines zweckmäßigen oder gewünschten virtuellen dreidimensionalen Bildmodells prinzipiell beliebige Formen oder Verzerrungen aufweisen können, die entweder einer wirklichen dreidimensionalen Körperform weitgehend entsprechen oder auch mit beliebigen künstlerischen Effekten angereichert sein können.In addition to this, fluid transitions between the individual virtual depth levels can be achieved by refining the grid of the gradations of the virtual distances between the individual depth levels and by further grading the individual depth levels. On the other hand, it is also possible to use the edges of the depth planes or the objects located on the depth planes to deform virtually so that they merge into each other. For example, it would be the schematic object 303 in 8a possible to virtually deform the edge of its depth plane so that the object 303 gets a virtual spherical curvature. In a corresponding manner, the depth planes of the virtual image framework can be deformed so that the image information of the two-dimensional archetypal image imaged in the context of a suitable or desired virtual three-dimensional image model can in principle have any shapes or distortions which either largely correspond to a real three-dimensional body shape or else can be enriched with any artistic effects.

Die 9a und 9b zeigen ein aus dem virtuellen Bildgerüst aus der 8b erzeugtes virtuelles dreidimensionales Bildmodell 807 im Schnitt entlang der Linien A – A bzw. B – B aus 8a und deren virtuelle Aufnahmen aus zwei Betrachtungswinkeln 351 und 352. Die in den 9a und 9b dargestellte Konfiguration entspricht einer binokularen Betrachtung eines dreidimensionalen Objektes, die innerhalb des Verfahrens virtuell ausgeführt wird. Entsprechend den Gesetzmäßigkeiten der Perspektive erscheinen die virtuellen dreidimensionalen Objekte 303, 304, 305 und 306 von den betreffenden virtuellen Betrachtungswinkeln 351 und 352 aus unterschiedlich gegeneinander verschoben. Diese perspektivische Verschiebung ist die Grundlage der binokularen oder multiokularen Betrachtung räumlicher Objekte und wird im Rahmen des erfindungsgemäßen Verfahrens virtuell modellhaft nachvollzogen.The 9a and 9b show one from the virtual framework from the 8b generated virtual three-dimensional image model 807 in section along the lines A - A and B - B aus 8a and their virtual images from two viewing angles 351 and 352 , The in the 9a and 9b illustrated configuration corresponds to a binocular viewing of a three-dimensional object that is performed virtually within the method. According to the laws of perspective, the virtual three-dimensional objects appear 303 . 304 . 305 and 306 from the respective virtual viewing angles 351 and 352 from different shifted against each other. This perspective shift is the basis of the binocular or multi-eyed viewing of spatial objects and is virtually modeled in the context of the method according to the invention.

10 zeigt ein Beispiel einer virtuell erzeugten Verschiebung unter dem Einfluß der virtuellen betrachtenden Projektion aus dem virtuellen Betrachtungswinkel 352 am Beispiel des Ausschnitts des virtuellen dreidimensionalen Bildmodells aus 9a. Zum Berechnen der virtuellen perspektivischen Verschiebung der virtuellen Objekte des virtuellen dreidimensionalen Bildmodells können unterschiedliche Verfahren angewen det werden. Bei dem in 10 beispielhaft gezeigten Verfahren wird das Prinzip der zentrischen Streckung angewendet, wobei die virtuell vom Betrachtungswinkel 352 aus anvisierten Objekte 303, 304 und 306 auf eine virtuelle Projektionsebene 308 projiziert werden und dabei eine Größenveränderung erfahren. Die Projektionsebene kann sich sowohl virtuell vor dem virtuellen dreidimensionalen Bildmodell, als auch hinter dem dreidimensionalen Bildmodell befinden. Eine Lage der virtuellen Projektionsebene innerhalb des virtuellen dreidimensionalen Bildmodells, beispielsweise in einer der bei der Fixpunktbestimmung festgelegten Bildschirmebene ist ebenfalls möglich und sogar am zweckmäßigsten, da eine solche Projektion binokulare Betrachtungsverhältnisse am besten nachvollzieht. Bei der in 10 gezeigten Projektion bildet der Betrachtungswinkel 352 gleichzeitig ein Projektionszentrum, wobei das virtuelle dreidimensionale Bildmodell gleichsam in einem virtuellen „Auflichtverfahren" betrachtet wird, bei dem die Strahlenquelle virtuell mit der Kamera zusammenfällt. 10 shows an example of a virtual generated shift under the influence of the virtual viewing projection from the virtual viewing angle 352 using the example of the section of the virtual three-dimensional image model 9a , For calculating the virtual perspective displacement of the virtual objects of the virtual three-dimensional image model, different methods can be employed. At the in 10 By way of example, the principle of centric stretching is applied, the virtual being from the viewing angle 352 from targeted objects 303 . 304 and 306 on a virtual projection plane 308 be projected and thereby experience a change in size. The projection plane can be located virtually in front of the virtual three-dimensional image model as well as behind the three-dimensional image model. A location of the virtual projection plane within the virtual three-dimensional image model, for example in one of the screen levels defined in the fixed point determination, is also possible and even most convenient since such projection best reflects binocular viewing conditions. At the in 10 The projection shown forms the viewing angle 352 at the same time a projection center, wherein the virtual three-dimensional image model is considered, as it were, in a virtual "incident light method" in which the radiation source virtually coincides with the camera.

Andere virtuelle Projektionstechniken sind ebenfalls anwendbar bzw. zweckmäßig. So kann das Projektionszentrum virtuell hinter dem Hintergrund des virtuellen dreidimensionalen Bildmodells angeordnet sein und die entsprechenden Objekte der virtuellen Tiefenebenen als „Schattenriß" auf eine zweckmäßig positionierte Projektionsebene projizieren, die von einem Betrachtungswinkel aus betrachtet wird. Bei einer derartigen virtuellen Projektion erscheinen die im virtuellen Vordergrund gelegenen Objekte gegenüber den virtuell hinter ihnen befindlichen Objekten vergrößert, wodurch ein zusätzlicher Raumeffekt hervorgerufen werden kann.Other Virtual projection techniques are also applicable. So can the projection center virtually behind the background of the be arranged in a virtual three-dimensional image model and the corresponding objects of the virtual depth planes as a "silhouette" on a suitably positioned Projection plane projecting from a viewing angle is looked at. In such a virtual projection appear the objects located in the virtual foreground opposite the magnified virtually behind them objects, causing an additional space effect can be caused.

Weiterhin ist es möglich, mehrere virtuelle Projektionszentren in Verbindung mit mehreren virtuellen Projektionsebenen in beliebiger zweckmäßiger Kombination vorzusehen. So kann beispielsweise der virtuelle Hintergrund von einem virtuell sehr weit hinter dem virtuellen dreidimensionalen Bildmodell angeordneten Projektionszentrum auf eine erste Projektionsebene projiziert werden, während eine Anordnung vieler, sehr dicht gegeneinander abgestufter Objekte im virtuellen Vordergrund durch ein zweites Projektionszentrum projiziert werden, die keinerlei Vergrößerungen an diesen Objekten, sondern nur eine virtuelle Verschiebung dieser Objekte hervorruft.Farther Is it possible, multiple virtual projection centers in conjunction with multiple virtual projection levels in any convenient combination provided. For example, the virtual background of a virtual very far behind the virtual three-dimensional Image model arranged projection center on a first projection level be projected while an arrangement of many, very close to each other graduated objects projected through a second projection center in the virtual foreground will be no enlargements at these objects, but only a virtual shift of these Causes objects.

Die Wahl der virtuellen Projektionsmechanismen bzw. der Anzahl der Betrachtungswinkel hängt von konkreten Einzelfall, insbesondere vom Bildmotiv des zweidimensionalen Urbildes, von den in das Urbild hinein interpretierten Tiefenverhältnissen, von den gewünschten und/oder zu unterdrückenden Bildeffekten und nicht zuletzt auch vom als zweckmäßig erachteten Rechenaufwand und von dem letztlich angewendeten räumlichen Abbildungsverfahren ab, für das die Raumbildvorlage erzeugt werden soll. Prinzipiell können jedoch von dem virtuellen dreidimensionalen Bildmodell beliebig viele perspektivische Einzelbilder mit beliebig vielen, beliebig angeordneten virtuellen Projektionszentren, virtuellen Projektionsebenen, Betrachtungswinkeln usw. erzeugt werden, wobei das in 10 dargestellte sehr einfache Ausführungsbeispiel nur eine nicht repräsentative, sondern nur beispielhafte Ausführungsmöglichkeit aufzeigt.The choice of the virtual projection mechanisms or the number of viewing angles depends on a specific individual case, in particular on the image motif of the two-dimensional archetype, on the depth ratios interpreted in the archetype, on the desired and / or suppressible image effects and last but not least on the computational effort considered appropriate and the ultimately applied spatial imaging method for which the spatial image template is to be generated. In principle, however, any number of individual perspective images with any desired number of arbitrarily arranged virtual projection centers, virtual projection planes, viewing angles, etc., can be generated by the virtual three-dimensional image model 10 shown very simple embodiment only shows a non-representative, but only exemplary execution option.

In der 11a ist eine Reihe von nach einem der vorhergehend beschriebenen Projektionsverfahren virtuell erzeugten Einzelbildern 208a bis 208d aus einem virtuellen dreidimensionalen Bildmodell des in 5a beispielhaft gezeigten Urbildes 200 dargestellt. Obwohl die virtuellen Einzelbilder 208a bis 208d in diesem Ausführungsbeispiel schwarz/weiß dargestellt sind, sind diese in der Regel farbig. In den Einzelbildern 208a, 208b, 208c und 208d ist vor allem durch Vergleich der im oberen Bildteil dargestellten Blütenstruktur eine unterschiedliche Deformation dieses Bildabschnittes zu erkennen. Diese entsteht durch die virtuelle Projektion des virtuellen dreidimensionalen Bildmodells für die jeweiligen, in diesem Ausführungsbeispiel vier virtuellen Betrachtungswinkel.In the 11a is a series of virtually generated by one of the previously described projection methods frames 208a to 208d from a virtual three-dimensional image model of the in 5a exemplified original image 200 shown. Although the virtual frames 208a to 208d black / white are shown in this embodiment, these are usually colored. In the single pictures 208a . 208b . 208c and 208d Above all, a different deformation of this image section can be recognized by comparing the flower structure shown in the upper part of the picture. This is created by the virtual projection of the virtual three-dimensional image model for the respective, in this embodiment, four virtual viewing angles.

11 zeigt eine aus den virtuellen Einzelbildern 208a, 208b, 208c und 208d kombinierte Raumbildvorlage 209 für ein Abbildungsverfahren mit Raumeindruck in Verbindung mit einem vergrößerten Bildausschnitt 211 des oberen mittleren Bildteiles aus der Raumbildvorlage 209. Die Raumbildvorlage 209 wird aus den Einzelbildern 208a–d nach einem für das jeweils zur Anwendung kommende Abbildungsverfahren mit Tiefenwirkung kombiniert. 11 shows one of the virtual frames 208a . 208b . 208c and 208d combined room image template 209 for an imaging process with spatial impression in conjunction with a magnified image detail 211 of the upper middle part of the image from the room image template 209 , The room image template 209 gets out of the frames 208a -D is combined with a depth effect according to the respective imaging method used.

Im Folgenden werden unter Bezugnahme auf die 12a und 12b, bzw. auf die 13a bis 13c beispielhafte zweidimensionale Bildvorlagen und deren Abbildungen mittels eines monofokalen Linsenrasters beschrieben.The following are with reference to the 12a and 12b , or on the 13a to 13c exemplary two-dimensional image templates and their images by means of a monofocal lens grid described.

12a zeigt ein beispielhaftes zweidimensionales Urbild 200, das in eine Reihe von Bildabschnitten 361 unterteilt ist. Die Größe der einzelnen Bildabschnitte ist prinzipiell beliebig und wird im wesentlichen durch die durchschnittliche Größe der kleinsten geschlossenen Bildobjekte und der einzelnen Bildpunkte bestimmt. Sofern angenommen wird, dass deutlich erkennbare Bildstrukturen im Bildvordergrund liegen, müssen diese zweckmäßigerweise durch die Bildabschnitte im wesentlichen als Einheit erfaßt werden, damit diese von anderen Strukturen unterscheidbar sind und dem betrachtenden Auge einen ausreichenden Akkomodationsreiz bieten. Das bedeutet, dass mit einer zunehmend kleinen Rasterung für eine zunehmende Anzahl von Einzelheiten Akkomodationsreize geschaffen werden können, die zu einem Tiefeneindruck beim Betrachter führen, sofern dabei nicht die einzelnen Bildpunkte, d.h. die Bildpixel hervorgehoben werden. 12a shows an exemplary two-dimensional archetype 200 in a series of image sections 361 is divided. The size of the individual image sections is in principle arbitrary and is essentially determined by the average size of the smallest closed image objects and the individual pixels. If it is assumed that clearly recognizable image structures lie in the foreground of the image, these must be detected by the image sections substantially as a unit, so that they are distinguishable from other structures and offer the viewing eye a sufficient Akkomodationsreiz. This means that with an increasingly small grid for a growing number of details Akkomodationsreize can be created that lead to a sense of depth in the viewer, unless the individual pixels, ie the image pixels are highlighted.

Die 12a zeigt ein matrixförmiges Raster aus im wesentlichen quadratischen Bildabschnitten. Eine andere Einteilung des zweidimensionalen Urbildes 200 ist jedoch ohne weiteres möglich. Zweckmäßig sind unter anderem hier nicht dargestellte kreisförmige Bildabschnitte in einer hexagonalen Anordnung. Die hexagonale Anordnung kreisförmiger Bildabschnitte bietet den Vorteil, daß ein gegebener Bildabschnitt im Vergleich zu der matrixförmigen Bildaufteilung sechs unmittelbare Nachbarn existieren und somit für das akkomodierende Auge ein homogenerer Übergang von einem ersten Bildabschnitt zur nächsten Umgebung des Bildes vorhanden ist.The 12a shows a matrix-shaped grid of substantially square image portions. Another division of the two-dimensional archetype 200 is however readily possible. It is expedient, inter alia, not shown here circular image sections in a hexagonal arrangement. The hexagonal arrangement of circular image sections offers the advantage that a given image section will have six immediate neighbors compared to the matrixed image partitioning, thus providing the accommodating eye with a more homogeneous transition from a first image section to the next environment of the image.

Die Bildabschnitte 361 können vorverarbeitete, insbesondere skalierte, gedrehte oder auch gegenüber mehreren Achsen gespiegelte Bilddaten enthalten, die vor allem in Hinblick auf die Kompensation der abbildenden Wirkung des Linsenrasters vorab vorgenommen werden. In diesem Fall bilden die Bildabschnitte ein tatsächlich auf der zweidimensionalen Bildvorlage vorhandenes Mosaik aus. Aus 12a geht darüber hinaus hervor, dass einige Bildabschnitte 361a eine überwiegend strukturarme Bildinformation enthalten, während einige andere Bildabschnitte 361b besonders strukturreich sind.The picture sections 361 can contain preprocessed, in particular scaled, rotated or even mirrored over multiple axes image data, which are made primarily in view of the compensation of the imaging effect of the lens array in advance. In this case, the image sections form a mosaic actually present on the two-dimensional image template. Out 12a moreover, it shows that some image sections 361a contain a predominantly structurally poor image information, while some other image sections 361b are particularly structurally.

In dem in 12a dargestellten Beispiel liegt das Raster der Bildabschnitte jedoch zunächst nicht tatsächlich in der Bildvorlage selbst vor und tritt erst durch das darüber gelegte Linsenraster in Erscheinung. Eine dafür beispielhafte Anordnung ist in einer Seitenansicht in 12b gezeigt. Die zweidimensionale Bildvorlage erscheint auf einer Display-Fläche 370, beispielsweise der fluoreszierenden Fläche einer Bildröhre oder der flüssigkristallinen Matrix eines Flachbildschirms und wird durch eine Display-Oberfläche 375 hindurch betrachtet. Auf der Display-Oberfläche 375 ist das monofokale Linsenraster 360 angeordnet, das beispielsweise als eine transparente, einer Reihe von matrixartig oder hexagonal angeordneten Fresnel-Linsen oder Zonenplatten enthaltende Folie ausgebildet sein kann. Die Folie selbst haftet durch adhäsive Haftkräfte, elektrostatische Kräfte oder einen transparenten Haftfilm fest auf der Displayoberfläche. Jedes Linsenelement 365 des Linsenrasters bildet einen darunter befindlichen Bildabschnitt 361 so ab, dass dieser durch die dabei bewirkte Vergrößerung vor oder hinter der Bildebene des Displays 370 erscheint. Daher sind die Linsenelemente 365 so ausgeführt, dass sich die Displayoberfläche entweder kurz vor oder hinter den einzelnen Brennpunkten des Linsenrasters befindet.In the in 12a However, the grid of the image sections is initially not actually present in the original image itself and only appears through the lenticular grid placed above it. An example of this arrangement is shown in a side view in 12b shown. The two-dimensional image template appears on a display surface 370 , For example, the fluorescent surface of a picture tube or the liquid-crystalline matrix of a flat panel and is through a display surface 375 looked through. On the display surface 375 is the monofocal lenticular 360 arranged, for example, as a transparent, a series of matrix-like or hexagonal Fresnel lenses or zone plates containing film may be formed. The film itself adheres firmly to the surface of the display by adhesive adhesive forces, electrostatic forces or a transparent adhesive film. Each lens element 365 of the lens raster forms an image section underneath 361 so that this is caused by the magnification in front of or behind the image plane of the display 370 appears. Therefore, the lens elements 365 designed so that the display surface is either just before or behind the individual focal points of the lens grid.

In den 13a bis 13c ist dies näher dargestellt. Die Figuren zeigen einen beispielhaften Bildausschnitt 200a aus dem in 12a gezeigten zweidimensionalen Urbild 200 mit den durch das Linsenraster 360 bzw. den lokalen Linsenelementen hervorgerufenen Veränderungen des Bildausschnitts.In the 13a to 13c this is shown in more detail. The figures show an exemplary image detail 200a from the in 12a shown two-dimensional archetype 200 with those through the lenticular grid 360 or the local lens elements caused changes in the image detail.

Der Bildausschnitt 200a wird durch einen unveränderten Teil des zweidimensionalen Urbildes 200 aus 12a gebildet, der auf dem Display 370 angezeigt wird. In 13b wird der Bildausschnitt 200a durch eine Anordnung aus vier beispielhaften Bildabschnitten 361 unterteilt. Dabei enthalten die beiden linken Bildabschnitte 361a jeweils eine eher strukturlose und diffuse Bildhintergrundinformation, während die rechten Bildabschnitte 361 einen strukturreichen Inhalt zeigen, der sich offensichtlich im Bildvordergrund befindet.The picture section 200a becomes an unchanged part of the two-dimensional archetype 200 out 12a formed on the display 370 is shown. In 13b becomes the image section 200a by an arrangement of four exemplary image sections 361 divided. The two left picture sections are included 361a each a rather featureless and diffuse image background information, while the right image sections 361 show a structurally rich content that is obviously in the foreground of the picture.

Jeder dieser Bildabschnitte wird, wie in 13c beispielhaft dargestellt, durch ein Linsenelement 365 vergrößert abgebildet. In der in 13c gezeigten beispielhaften Darstellung beträgt der Vergrößerungsfaktor bei Verwendung eines Linsenelementes mit fokussierender Wirkung 365 etwa 1:2. Bei dieser beispielhaften Darstellung ergeben die linken Bildteile 361a, die einen diffusen strukturlosen Bildhintergrund enthalten, auch bei der Vergrößerung durch das Linsenraster durch deren Strukturlosigkeit einen geringen Akkomodationsreiz, während die beiden rechten Bildabschnitte 361b aus 13c Strukturen enthalten, die eine Akkomodation des Auges auf die so dargestellten Bildinhalte veranlassen. Im Ergebnis erscheinen die Bildinhalte der rechten Bildabschnitte 361b aus 13c dem Betrachter deutlich näher als die Inhalte der linken Bildabschnitte 361a. Bei einer zweckmäßigen Größe der einzelnen Bildabschnitte 361 werden die bei der Abbildung durch das Linsenraster erzeugten Lücken durch die Wirkungsweise des physiologischen visuellen Wahrnehmungsapparates ausgeglichen und integriert.Each of these image sections will, as in 13c exemplified by a lens element 365 shown enlarged. In the in 13c shown exemplary representation, the magnification factor when using a lens element with focusing effect 365 about 1: 2. In this exemplary illustration, the left-hand parts of the picture yield 361a , which contain a diffuse structureless image background, even when magnified by the lenticular by their structurelessness a small Akkomodationsreiz, while the two right image sections 361b out 13c Contain structures that cause an accommodation of the eye on the image contents so represented. As a result, the picture contents of the right picture sections appear 361b out 13c much closer to the viewer than the contents of the left picture sections 361a , At an appropriate size of the individual image sections 361 The gaps created during imaging by the lenticular grid are compensated for and integrated by the action of the physiological visual perception apparatus.

Bei dem Ausführungsbeispiel aus den 13a bis 13c führt die Abbildung der Bildabschnitte 361 zu einer horizontal und vertikal gespiegelten Darstellung. Grundsätzlich bieten sich zwei Möglichkeiten, um diesem Effekt zu begegnen. Bei einer ersten Vorgehensweise werden die einzelnen Bildabschnitte der zweidimensionalen Urbildvorlage in der Nachfolge des vorhergehend erwähnten Bildbearbeitungsverfahrens so vorbereitet, insbesondere skaliert bzw. horizontal oder vertikal gespiegelt, dass deren Abbildung wieder zum ursprünglichen Ausgangsbild zurückführt. Die Stärke der vorbereitenden Skalierungen, bzw. Spiegelungen wird aufgrund des Vergrößerungsfaktors des Linsenrasters bzw. der aus dem virtuellen dreidimensionalen Bildmodell abgeleiteten Lage der darzustellenden Objekte abgeleitet und an den Bildabschnitten vorab ausgeführt.In the embodiment of the 13a to 13c performs the mapping of the image sections 361 to a horizontally and vertically mirrored representation. Basically, there are two ways to counteract this effect. In a first procedure, the individual image sections of the two-dimensional archetype template are prepared in the successor of the previously mentioned image processing method, in particular scaled or mirrored horizontally or vertically, so that their image returns to the original output image. The strength of the preparatory scaling, or reflections, is derived on the basis of the magnification factor of the lens grid or the position of the objects to be displayed derived from the virtual three-dimensional image model and executed in advance on the image sections.

Bei einer zweiten Möglichkeit, die insbesondere für einfache Bildmotive, wie Zeichen oder einfache geometrische Strukturen auf einem einheitlichen Bildhintergrund, anwendbar ist, werden Anzahl, Anordnung und Größe der Linsenelemente im Linsenraster so gewählt, dass die Abbildungsfaktoren für das gesamte Bild unbedeutend sind. Diese Ausführungsform bietet vor allem den Vorteil, dass zum Teil rechenintensive Bildvorbereitungen entfallen und die Raumbildvorlage ohne Linsenraster problemlos erkannt werden kann. Das Bild 200 wirkt ohne monofokales Linsenraster als ein normales zweidimensionales Bild, während es durch die Anwendung des Linsenrasters in einer Tiefenwirkung gestaffelt erscheint, wobei die Tiefenwirkung durch ein bloßesIn a second possibility, which is applicable in particular for simple image motifs, such as characters or simple geometric structures on a uniform image background, the number, arrangement and size of the lens elements in the lenticular grid are chosen so that the image factors for the entire image are insignificant. Above all, this embodiment offers the advantage that in some cases computation-intensive image preparations can be dispensed with and the spatial image original without lenticular grids can be easily recognized. The picture 200 works without a monofocal lens grid as a normal two-dimensional image, while it appears staggered by the application of the lens grid in a depth effect, the depth effect by a mere

Anbringen des Linsenrasters, also mit sehr einfachen Mitteln, hervorgerufen werden kann.install the lenticular grid, so with very simple means, caused can be.

1010
Urbilddatenarchetype data
2020
Einlesen der Urbilddatenread in the archetype data
3030
Anpassen der UrbilddatenTo adjust the archetype data
4040
Zwischenspeichern der angepaßten Urbilddatencaching the adapted one archetype data
5050
zwischen gespeicherte Bilddatenbetween stored image data
6060
optionale Farbkanal/Farbverteilungsänderungoptional Color channel / color distribution change
7070
Umwandlung in Grauwerteconversion in gray values
8080
KantenerkennungsverfahrenEdge detection method
8181
Daten des Bildpixelsdates of the image pixel
8282
Auswahl des Bildpixelsselection of the image pixel
8383
Einlesen des Helligkeitswertes des Bildpixelsread in the brightness value of the image pixel
8484
Erhöhen des HelligkeitswertesIncrease the brightness value
8585
Bildpixel mit erhöhtem Helligkeitswertimage pixels with increased brightness value
8686
Erniedrigen des Helligkeitswerteshumiliate the brightness value
8787
Bildpixel mit erniedrigtem Helligkeitswertimage pixels with reduced brightness value
8888
Gehe zu: nächster PixelGo to: next pixel
8989
Bildmenü zur KantenerkennungPicture menu for edge detection
9090
WeichzeichnungsprozedurSoftening procedure
100100
optional: Tonwertkorrekturoptional: Levels
110110
Fixpunktdefinitionfixed point definition
120120
optional: setzen weiterer Fixpunktoptionenoptional: set more checkpoint options
130130
Speichern der Graustufenmasketo save the grayscale mask
140140
erzeugte Graustufenmaskegenerated Grayscale mask
150150
Verzerren der Urbildtextur, Erstellen des virtuellen dreidimensionalen BildmoDistort the original image texture, creating the virtual three-dimensional Bildmo
dells, Erzeugen virtueller Einzelbilderdells, Create virtual frames
160160
virtuelle Einzelbildervirtual Single images
170170
Kombination der virtuellen Einzelbildercombination the virtual frames
180180
Bilddaten für räumliches Abbildungsverfahrenimage data for spatial imaging
200200
Beispielhaftes zweidimensionales Urbildexemplary two-dimensional archetype
200a200a
Bildausschnittimage section
208a208a
erstes virtuelles Einzelbildfirst virtual single picture
208b208b
zweites virtuelles Einzelbildsecond virtual single picture
208c208c
drittes virtuelles Einzelbildthird virtual single picture
208d208d
viertes virtuelles Einzelbildfourth virtual single picture
209209
kombinierte Raumbildvorlagecombined Space template
209a209a
vergrößerter Ausschnitt einer kombinierten Raumbildvorlageenlarged section of a combined room image template
210210
beispielhaftes kantenmarkiertes Bildexemplary edge-marked image
220220
beispielhaftes kantenmarkiertes, weichgezeichnetes Bildexemplary edge-marked, softened image
230230
beispielhaftes tonwertkorrigiertes weichgezeichnetes Bildexemplary Tonwertkorrigiertes soft-drawn image
239239
FixpunktdefinitionsmenüFixed point definition menu
240240
fixpunktdefiniertes Bildfixed point defined image
241241
Histogrammhistogram
242242
GrauwertleisteGray scale bar
243243
Indikatorenzeigerindicators pointer
244244
Auswahlindikatorselection indicator
245245
Direktauswahl für Helligkeitswertedirect selection for brightness values
301301
Urbild, schematischarchetype, schematically
303303
erstes Objektfirst object
304304
zweites Objektsecond object
305305
drittes Objektthird object
306306
angenommener Hintergrundaccepted background
307307
virtuelles Bildgerüst mit virtuellen Tiefenebenenvirtual picture frame with virtual depth levels
308308
virtuelles Einzelbildvirtual frame
351351
erster virtueller Betrachtungspunkt mit erstem Betrachtungswinkelfirst virtual viewpoint with first viewing angle
352352
zweiter virtueller Betrachtungspunkt mit zweitem Betrachtungswinkelsecond virtual viewing point with second viewing angle
360360
monofokales Linsenrastermonofokales lenticular
361361
Bildabschnittpicture section
361a361a
strukturarme Bildabschnittelow-structured image sections
361b361b
strukturreiche Bildabschnittestructurally rich sections of the picture
365365
Linsenelementlens element
370370
Displaydisplay
375 Displayoberfläche375 display surface

Claims (23)

Verfahren zum Erstellen und Anzeigen einer Raumbildvorlage für Abbildungsverfahren mit räumlichen Tiefenwirkungen aus zweidimensionalen Bilddaten insbesondere von Bilddaten aus Bildern, Bildsequenzen, Videofilmen und dergleichen zweidimensionalen Urbildern, dadurch gekennzeichnet, dass – auf der Grundlage von aus monokularen Urbilddaten (10) ermittelten Bildinformationen ein auf einer vermutungsbasierten räumlichen Bildtiefenabstufung beruhendes virtuelles dreidimensionales Bildgerüst (307) erzeugt wird, – die Urbilddaten auf das virtuelle dreidimensionale Bildgerüst (307) zum Erzeugen eines virtuellen dreidimensionalen Bildmodells (150) angepaßt werden, – die Daten des virtuellen dreidimensionalen Bildmodells als Vorlage zum Erstellen der Raumbildvorlage (209, 209a) verwendet werden.Method for creating and displaying a spatial image template for imaging methods with spatial depth effects from two-dimensional image data, in particular image data from images, image sequences, video films and the like two-dimensional archetypes, characterized in that - on the basis of monocular original image data ( 10 ) determined image information based on a presumption-based spatial image depth grading virtual three-dimensional image framework ( 307 ), - the original image data on the virtual three-dimensional image framework ( 307 ) for generating a virtual three-dimensional image model ( 150 ), - the data of the virtual three-dimensional image model as a template for creating the spatial image template ( 209 . 209a ) be used. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf den monokularen Urbilddaten (10) zum Ermitteln der Bildinformationen ein Verfahren zur Kantenerkennung (80) der abgebildeten Objekte mit einer Generierung eines kantenmarkierten Bildes (210) ausgeführt wird, wobei aufgrund eines ermittelten Kantenreichtums verschiedene Urbildareale verschiedenen virtuellen Tiefenebenen, insbesondere einem Hintergrund und/oder einem Vordergrund, zugeordnet werden.Method according to claim 1, characterized in that on the monocular original image data ( 10 ) for determining the image information, a method for edge detection ( 80 ) of the imaged objects with generation of an edge-marked image ( 210 ), wherein due to a determined edge richness different original image areas are assigned to different virtual depth planes, in particular a background and / or a foreground. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf den Urbilddaten (10) zum Ermitteln der Bildinformation ein Verfahren zum Ermitteln der Farbinformation gegebener Urbildareale ausgeführt wird, wobei bei der vermutungsbasierten Bildtiefenabstufung mindestens eine erste identifizierte Farbinformation einer ersten virtuellen Tiefenebene und eine zweite Farbinformation einer zweiten virtuellen Tiefenebene zugeordnet werden.Method according to claim 1, characterized in that on the original image data ( 10 ) is carried out to determine the image information, a method for determining the color information given Urbildareale, wherein the guess-based image depth gradation at least a first identified color information of a first virtual depth plane and a second color information of a second virtual depth plane are assigned. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren zur Kantenerkennung (80) und das Verfahren zum Ermitteln der Farbinformation einzeln und unabhängig voneinander oder in Kombination ausgeführt werden.Method according to one of the preceding claims, characterized in that the method for edge detection ( 80 ) and the method for determining the color information individually and independently or in combination. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass auf dem kantenmarkierten Bild (210) zur Verstärkung und Vereinheitlichen eines kantenreichen Urbildareals ein Weichzeichnungsverfahren (90, 220) angewendet wird.Method according to one of claims 1 to 3, characterized in that on the edge-marked image ( 210 ) to reinforce and unify an edge-rich archetype realm as a blur ( 90 . 220 ) is applied. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass optional eine Tonwertkorrektur (100) des kantenmarkierten Bildes (210) erfolgt.Method according to one of claims 1 to 5, characterized in that optionally a tonal value correction ( 100 ) of the edge-marked image ( 210 ) he follows. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass auf der Grundlage des weichgezeichneten und/oder zusätzlich tonwertkorrigierten kantenmarkierten Bildes (210, 220) eine auf dem Tonwert eines Bildpunktes beruhende Zuordnung eines betreffenden Bildabschnittes zu einer virtuellen Tiefenebene (303, 304, 305, 306, 307) ausgeführt wird.Method according to one of claims 1 to 6, characterized in that on the basis of the softened and / or additionally tonwertkorrigierten edge-marked image ( 210 . 220 ) based on the tone value of a pixel assignment of a relevant image section to a virtual depth level ( 303 . 304 . 305 . 306 . 307 ) is performed. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Fixpunktdefinition (110) eine Begrenzung der Farb- und/oder Tonwerte auf einen vorgegebenen Wert erfolgt und ein virtueller Drehpunkt der später erzeugten virtuellen Einzelansichten festgelegt wird.Method according to one of the preceding claims, characterized in that in a fixed point definition ( 110 ) a limitation of the color and / or tone values to a predetermined value and a virtual pivot of the later generated virtual single views is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass optional einem vorgegebenen Farb- und/oder Helligkeitswert eines Bildpixels eine fest vorgegebene virtuelle Tiefenebene (303, 304, 305, 306, 307) zugeordnet wird.Method according to one of the preceding claims, characterized in that optionally a predefined color and / or brightness value of an image pixel has a predefined virtual depth plane ( 303 . 304 . 305 . 306 . 307 ). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass festgelegten Bildabschnitten, insbesondere dem Bildrand und/oder der Bildmitte eine fest vorgegebene virtuelle Tiefenebene zugeordnet wird.Method according to one of the preceding claims, characterized characterized in that defined image sections, in particular the image edge and / or center of the image a predetermined virtual Depth level is assigned. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Erzeugen des virtuellen dreidimensionalen Bildmodells das virtuelle dreidimensionale Bildgerüst (307) als eine entsprechend der virtuellen Tiefenebenen (303, 304, 305, 306, 307) deformierte virtuelle Netzstruktur erzeugt und das zweidimensionale Urbild in einem Mapping-Verfahren als Textur auf die deformierte Netzstruktur angepaßt wird.Method according to one of the preceding claims, characterized in that for generating the virtual three-dimensional image model, the virtual three-dimensional image framework ( 307 ) as one corresponding to the virtual depth planes ( 303 . 304 . 305 . 306 . 307 ) generates deformed virtual network structure and the two-dimensional archetype is adapted in a mapping process as a texture to the deformed network structure. Verfahren nach Anspruch 1 und 11, dadurch gekennzeichnet, dass von dem virtuellen dreidimensionalen Bildmodell aus einer Reihe von virtuellen Beobachtungswinkeln (351, 352) eine Reihe von virtuellen, die Ansichten des virtuellen dreidimensionalen Bildmodells wiedergebenden Einzelbildern (208a, 208b, 208c, 208d, 308) erzeugt werden, bei denen die einer festgelegten Tiefenebene entsprechenden Bildabschnitte des Urbildes (200, 301) entsprechend des virtuellen Betrachtungswinkels verschoben und/oder verzerrt werden.Method according to claim 1 and 11, characterized in that of the virtual three-dimensional image model from a series of virtual observation angles ( 351 . 352 ) a series of virtual images representing the views of the virtual three-dimensional image model ( 208a . 208b . 208c . 208d . 308 ) are generated in which the image sections of the original image corresponding to a defined depth plane ( 200 . 301 ) are shifted and / or distorted according to the virtual viewing angle. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die virtuellen Einzelbilder (208a, 208b, 208c, 208d, 308) nach einem für das Abbildungsverfahren mit zusätzlicher Raumwirkung geeigneten Algorithmus zum Erzeugen einer Raumbildvorlage (209, 209a) kombiniert werden.Method according to one of the preceding claims, characterized in that the virtual single images ( 208a . 208b . 208c . 208d . 308 ) according to an algorithm for generating a spatial image template suitable for the imaging method with additional spatial effect ( 209 . 209a ) be combined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Erstellen der Raumbildvorlage (209, 209a) eine Bildberarbeitung einzelner Bildbereiche des Urbildes, insbesondere ein Skalieren und/oder Drehen und/oder Spiegeln, ausgeführt und die dabei erzeugte Raumbildvorlage mittels eines darüber liegenden monofokalen Linsenrasters (360) angezeigt wird.A method according to claim 1, characterized in that for creating the spatial image template ( 209 . 209a ) image processing of individual image areas of the original image, in particular a scaling and / or rotating and / or mirroring, executed and the resulting spatial image template by means of an overlying monofocal lens grid ( 360 ) is shown. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass das zweidimensionale Urbild (200) ohne eine Bildbearbeitung durch das monofokale Linsenraster (360) angezeigt wird, wobei das zweidimensionale Urbild (200) die Raumbildvorlage für die Anzeige durch das monofokale Linsenraster bildet.Method according to claim 14, characterized in that the two-dimensional archetype ( 200 ) without an image processing by the monofocal lens grid ( 360 ), the two-dimensional archetype ( 200 ) forms the spatial image template for the display by the monofocal lenticular grid. Vorrichtung zum Anzeigen einer Raumbildvorlage, gekennzeichnet durch ein zweidimensionales Urbild (200) als zweidimensionale Bildvorlage und ein über der Bildvorlage ausgedehntes monofokales Linsenraster (360).Apparatus for displaying a spatial image template, characterized by a two-dimensional archetype image ( 200 ) as a two-dimensional image original and a monofocal lens grid ( 360 ). Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass die zweidimensionale Bildvorlage aus einem Mosaik aus der Rasterstruktur des Linsenrasters (360) zugeordneten Bildabschnitten (361, 361a, 361b) ausgeführt ist, wobei im wesentlichen jeweils ein Bildabschnitt ein Abbildungsobjekt für im wesentlichen jeweils ein Linsenelement (365) des monofokalen Linsenrasters ist.Apparatus according to claim 16, characterized in that the two-dimensional image template of a mosaic of the grid structure of the lenticular grid ( 360 ) associated image sections ( 361 . 361a . 361b ), wherein essentially one image section in each case forms an imaging object for essentially one respective lens element ( 365 ) of the monofocal lens grid. Vorrichtung nach einem der Ansprüche 16 oder 17, dadurch gekennzeichnet, dass bei einer ersten Ausführungsform die Bildabschnitte (361, 361a, 361b) um wesentlichen unveränderte Bildbestandteile der zweidimensionalen Bildvorlage (200) sind.Device according to one of claims 16 or 17, characterized in that in a first embodiment the image sections ( 361 . 361a . 361b ) by substantially unchanged image components of the two-dimensional image template ( 200 ) are. Vorrichtung nach einem der Ansprüche 16 oder 17, dadurch gekennzeichnet, dass bei einer weiteren Ausführungsform die Bildabschnitte (361, 361a, 361b) zur Kompensation der Abbildungswirkungen des Linsenrasters (360) skaliert und/oder gespiegelt und/oder gedreht sind.Device according to one of claims 16 or 17, characterized in that in a further embodiment the image sections ( 361 . 361a . 361b ) for compensating the imaging effects of the lenticular grid ( 360 ) are scaled and / or mirrored and / or rotated. Vorrichtung nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass die zweidimensionale Bildvorlage (200) ein auf einem Display (370) erzeugtes Bild ist und das Linsenraster (360) auf der Oberfläche (375) des Displays befestigt ist.Device according to one of claims 16 to 19, characterized in that the two-dimensional image template ( 200 ) on a display ( 370 ) and the lenticular ( 360 ) on the surface ( 375 ) of the display is attached. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige und auf der Display-Oberfläche haftende Fresnel-Linsen-Anordnung ausgeführt ist.Device according to one of claims 16 to 20, characterized in that the lenticular grid ( 360 ) is designed as a grid-like and adhering to the display surface Fresnel lens assembly. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende Zonenplatten-Anordnung ausgeführt ist.Device according to one of claims 16 to 20, characterized in that the lenticular grid ( 360 ) as a grid-like, adhering to the display surface zone plate assembly is executed. Vorrichtung nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass das Linsenraster (360) als eine rasterartige, auf der Display-Oberfläche haftende konventionelle Konvexlinsen-Anordnung ausgeführt ist.Device according to one of claims 16 to 20, characterized in that the lenticular grid ( 360 ) is designed as a grid-like, adhering to the display surface conventional convex lens arrangement.
DE10348618A 2003-09-15 2003-10-20 Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth Expired - Lifetime DE10348618B4 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10348618A DE10348618B4 (en) 2003-09-15 2003-10-20 Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth
PCT/EP2004/009480 WO2005029871A2 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master
JP2006526536A JP2007506167A (en) 2003-09-15 2004-08-25 Method of generating 3D image pattern for image display method having 3D depth effect and apparatus for displaying 3D image pattern
US10/572,025 US20070159476A1 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a steroscopic image master
EP04764457A EP1665815A2 (en) 2003-09-15 2004-08-25 Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10342465.2 2003-09-15
DE10342465 2003-09-15
DE10348618A DE10348618B4 (en) 2003-09-15 2003-10-20 Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth

Publications (2)

Publication Number Publication Date
DE10348618A1 true DE10348618A1 (en) 2005-04-14
DE10348618B4 DE10348618B4 (en) 2006-07-27

Family

ID=34305745

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10348618A Expired - Lifetime DE10348618B4 (en) 2003-09-15 2003-10-20 Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth

Country Status (1)

Country Link
DE (1) DE10348618B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009041328A1 (en) 2009-09-15 2011-03-24 Natural View Systems Gmbh Method and device for generating partial views and / or a spatial image template from a 2D view for stereoscopic reproduction

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012100848B4 (en) 2012-02-01 2019-05-29 Hans Pfriem System and method for the stereoscopic display of images of an endoscope
DE102015112411A1 (en) 2015-07-29 2017-02-02 Universal Consulting GmbH System for the stereoscopic display of images of an endoscope

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4878247A (en) * 1986-03-19 1989-10-31 Rollei Fototechnic Gmbh Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor
US6069608A (en) * 1996-12-03 2000-05-30 Sony Corporation Display device having perception image for improving depth perception of a virtual image
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4878247A (en) * 1986-03-19 1989-10-31 Rollei Fototechnic Gmbh Method for the photogrammetrical pick up of an object with the aid of at least one opto-electric solid-state surface sensor
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US6069608A (en) * 1996-12-03 2000-05-30 Sony Corporation Display device having perception image for improving depth perception of a virtual image

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.ht Remote Sensing Tutorioal:Table of Contents (S.1-6), Section 11:The Display of Contuors in Maps (S.1-4), Section 11:Seeing in 3-D Stereo (S.1-4),Section 11: Measuring Heights from Individual and Paired Images (S.1-4),Section 11:Digital Elevation Models (DEMs) and Viewing Modes (S.1-4),Start bei:http://rst.gsfc.nasa.gov./Front/tofc.html
http://erg.usgs.gov/isb/pubs/factsheets/fs04000.htRemote Sensing Tutorioal:Table of Contents (S.1-6), Section 11:The Display of Contuors in Maps (S.1-4), Section 11:Seeing in 3-D Stereo (S.1-4),Section 11: Measuring Heights from Individual and Paired Images (S.1-4),Section 11:Digital Elevation Models (DEMs) and Viewing Modes (S.1-4),Start bei:http://rst.gsfc.nasa.gov./Front/tofc.html *
IWAINSKY,A.,WILHELMI,W.:Lexikon der Computergrafik und Bildverarbeitung,Vieweg, 1994, S.273,281-283, ISBN 3-528-05342-9 *
IWAINSKY,A.,WILHELMI,W.:Lexikon der Computergrafik und Bildverarbeitung,Vieweg, 1994, S.273,281-283; ISBN 3-528-05342-9
US GeoData Digital Elevation Models, Fact Sheet 040-00 (April 2000),S.1-4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009041328A1 (en) 2009-09-15 2011-03-24 Natural View Systems Gmbh Method and device for generating partial views and / or a spatial image template from a 2D view for stereoscopic reproduction
WO2011032642A1 (en) 2009-09-15 2011-03-24 Natural View Systems Gmbh Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
US8693767B2 (en) 2009-09-15 2014-04-08 Natural View Systems Gmbh Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback
AU2010294914B2 (en) * 2009-09-15 2014-05-01 Natural View Systems Gmbh Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback

Also Published As

Publication number Publication date
DE10348618B4 (en) 2006-07-27

Similar Documents

Publication Publication Date Title
WO2005029871A2 (en) Method for creating a stereoscopic image master for imaging methods with three-dimensional depth rendition and device for displaying a stereoscopic image master
EP1784978B1 (en) Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry
DE69433842T2 (en) Method for computer generation of autostereoscopic images
EP2153269B1 (en) Method for the orientation of a parallax barrier screen on a display screen
DE19500315C1 (en) Personal autostereoscopic viewing screen for TV or displays
DE112007002524T5 (en) Create and display spatially offset subframes
DE102014205519A1 (en) Method and apparatus for adapting a display of an autostereoscopic display for a vehicle
EP1782637A1 (en) Method for the autostereoscopic representation of a stereoscopic original image displayed on a display unit
DE69927239T2 (en) SYSTEM AND METHOD FOR PROCESSING PICTURES
DE60114498T2 (en) Presentation of the performance of a spectacle lens by an index display in a visually understandable way
DE19646046C1 (en) Stereo hologram display
DE10126546A1 (en) Arrangement for determining position-dependent intensity and color profile and/or focus profile of optical lens systems has measurement fields arranged in both dimensions of test image
DE10348618B4 (en) Stereoscopic image master creation method e.g. for creating image from two-dimensional image data, involves creating virtual three-dimensional image structure based on assumed three-dimensional gradation of image depth
DE10241475A1 (en) simulation methods
DE102012200930A1 (en) Apparatus and method for detecting a plant against a background
DE19500699A1 (en) Personal adaptive stereoscopic picture screen (PASS)
DE3529819C2 (en) Projection device for generating autostereoscopically viewable images
WO2011032642A1 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2d-view for stereoscopic playback
DE60121443T2 (en) Block-based motion or depth estimation
DE212022000122U1 (en) Stereoscopic display device based on a beam splitting device and test device
DE19853608C2 (en) Method for displaying an autostereoscopic image
WO1999009449A1 (en) Method and device for producing an image which can be represented in 3-d
DE1772820A1 (en) Process for recording and reproducing images in color and in plastic state and in color, in particular for use in television, and devices for carrying out this process
WO1996031797A1 (en) Method and device for generating 3d images
DE102008017317B4 (en) Apparatus and method for displaying image mosaics

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: 3D PHOTO AG, SCHWECHAT, AT

8381 Inventor (new situation)

Inventor name: GRASNICK, ARMIN, 07745 JENA, DE

8339 Ceased/non-payment of the annual fee
R073 Re-establishment requested
R073 Re-establishment requested
R409 Internal rectification of the legal status completed