EP1605338A2 - Apparatus and method for determining a position, in particular for augmented reality applications - Google Patents
Apparatus and method for determining a position, in particular for augmented reality applications Download PDFInfo
- Publication number
- EP1605338A2 EP1605338A2 EP05104782A EP05104782A EP1605338A2 EP 1605338 A2 EP1605338 A2 EP 1605338A2 EP 05104782 A EP05104782 A EP 05104782A EP 05104782 A EP05104782 A EP 05104782A EP 1605338 A2 EP1605338 A2 EP 1605338A2
- Authority
- EP
- European Patent Office
- Prior art keywords
- processing unit
- user
- tracking
- movement
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Definitions
- the invention relates to a system and a method for position determination a user and / or a mobile one Device by means of tracking methods, in particular for augmented reality Applications.
- Augmented reality is a form of Human-technology interaction, which gives humans z. B. over a Data glasses display information in his field of view and so that the reality perceived by him expands.
- Around virtual extension of the real field of view accurately positioned tracking methods are used. These can consist of both hardware and software. Come here optical, inertial, acoustic, magnetic etc. procedures for use. The individual methods are based on different Algorithms on, all a more or less provide accurate information about the position of the user.
- Object of the present invention is therefore a system and to provide a method by means of which a simple combination and application of different tracking methods to determine a position is possible.
- the object is achieved by a system with the specified in claim 1 Characteristics solved. Furthermore, the task is through a method having the features specified in claim 15 solved.
- the invention is based on the finding that the combination the results of the procedures to improve the Overall result leads.
- a system or framework is provided which the Exchange or adaptation of the procedures allowed. Furthermore a well-defined framework quickly allows new, improved To include procedures in this framework and thus the Suitability of the whole system in the application domain too improve.
- a universal tracking framework plays a major role in the realization of industrial tracking methods or the related applications because of this framework the possibility is given of different tracking systems / procedures to integrate into the system. Thus, within applications quickly responded to changing conditions and that is suitable and optimized for the application System can be selected.
- the tracking framework builds at runtime based on a configuration description the communication between the needed Tracking methods and algorithms.
- the data flows This communication will be automatic by the tracking framework with timestamps that synchronize with the Ensure processing of the data. Due to the flexibility With these basic mechanisms, the framework ensures its openness towards future improved or enhanced tracking methods.
- This framework will meet the requirements of the application domains Industry, medicine, komsumer etc. just by the procedures to follow an overall system concept.
- the framework offers the possibility of different sensors in the system neutral to integrate and thus creates an openness for later Adjustments and extensions.
- the integration of procedures happens with the help of defined interfaces, so that an exchange of information between processing units different suppliers within the framework is possible.
- Sensors and visualization units can have a neutral Interface to access the framework or information provide. Sensors can be used via the interface integrated, which are not yet known today.
- the Configurability through a simple description (for example XML file) is a novel method of data flows build up between the individual procedures. The takeover the synchronization of the data through the framework to facilitate the construction of such methods today's techniques. Thus, this framework meets the requirements fair, but also future applications.
- the interface further allows that different visualization units can be used, which e.g. optimized for a particular application.
- different visualization units e.g. optimized for a particular application.
- the framework e.g. a pure visual positioning method build on the basis of markers.
- the sensors are via sensor-specific processing units (Sources) 5, 6, 7, 8 connected to the system. These accomplish sensor-specific processing units the process-specific implementation as well as the synchronization necessary extensions of the sensor information. About these sources 5, 6, 7, 8 becomes a sensor-neutral Integration via the framework interface or the interface 9, so that more and possibly still unknown Sensors can also be integrated later.
- Sensors sensor-specific processing units
- the video-based data becomes features from the images certainly.
- the features e.g., points, lines, color values, etc.
- the shifts give the Movement of the user again. This takes place in the respective Pre-processing units 10, 11. These units are specially optimized for fast execution, which for mobile systems with limited computing power is needed.
- preprocessing light 12 In the direct processing unit (preprocessing light) 12 will be based on the results of preprocessing 10, 11 and provided by the central processing unit 13 exact position calculates a user position.
- the "Preprocessing light” must also have real-time requirements fulfill.
- the indirect processing unit 16 at the "pre-processing robust" algorithms are used the fault accumulations, such as Avoid drifts, and with it a long-term stability can be ensured. These Procedures consume more power than the other methods.
- this unit can be outsourced. This can e.g. take place via a radio link 21.
- the processing must be initialized at the beginning.
- the initialization 14 represents the exact position of the user to disposal. Should the reliability of the position calculation get worse in central processing 13, a further initialization (reinitialization) is initiated. This will again be a precise position of the user made available. When (re) initializing is no user interaction necessary.
- the manager 17 manages the result of the position calculation of the framework.
- the results are the visualization 18, 19 provided on the basis of User position the virtual objects in the field of view of the user Pose user. This is done via a neutral interface 9, so that different visualizations are served can. Only by means of an exact position can a user-friendly Overlay occur.
- a configuration 20 is read at startup.
- the configuration contains the ones for the position determination necessary modules and the exchanged between the modules Information flows.
- the framework is built and adapted to the application become.
- the visualizations 18, 19 parameter sets via the manager 17 to the Transfer processing units.
- the parameter sets contain the situation-based configurations of the position determination, which can vary over a use case.
- FIG. 1 gives an overview of the framework for position determination of a user.
- a System with several video-based sensors and several shown further sensors.
- the information of the sensors are processed and used to calculate the position of the user.
- the position determination takes place, as described above, in various processing steps, so that the necessary real-time capability of the system can be ensured can.
Abstract
Description
Die Erfindung betrifft ein System und ein Verfahren zur Positionsbestimmung eines Benutzers und/oder einer beweglichen Vorrichtung mittels Trackingverfahren, insbesondere für Augmented-Reality Anwendungen.The invention relates to a system and a method for position determination a user and / or a mobile one Device by means of tracking methods, in particular for augmented reality Applications.
Augmented Reality, erweiterte Realität, ist eine Form der Mensch-Technik-Interaktion, die dem Menschen z. B. über eine Datenbrille Informationen in sein Sichtfeld einblendet und damit die von ihm wahrgenommene Realität erweitert. Um diese virtuelle Erweiterung des realen Blickfeldes positionsgenau zu erreichen, werden Trackingverfahren eingesetzt. Diese können sowohl aus Hard- als auch Software bestehen. Dabei kommen optische, inertiale, akustische, magnetische etc. Verfahren zum Einsatz. Die einzelnen Verfahren setzten dabei auf unterschiedlichen Algorithmen auf, die alle eine mehr oder minder genaue Aussage über die Position des Benutzers liefern.Augmented reality, augmented reality, is a form of Human-technology interaction, which gives humans z. B. over a Data glasses display information in his field of view and so that the reality perceived by him expands. Around virtual extension of the real field of view accurately positioned tracking methods are used. these can consist of both hardware and software. Come here optical, inertial, acoustic, magnetic etc. procedures for use. The individual methods are based on different Algorithms on, all a more or less provide accurate information about the position of the user.
Für die Bestimmung der Benutzerposition und dessen Blickrichtung, ist eine positionsgenaue Überlagerung notwendig. Einzelne Trackingverfahren haben für sich genommen Vorteile aber auch Nachteile. So kommt ein optisches Verfahren ohne zusätzliche Instrumentierung aus, benötigt dafür aber sehr viel Rechenleistung, welche derzeit nicht durch ein industrietaugliches mobiles System bereitgestellt werden kann. Inertiale Systeme verfügen über sehr gute Echtzeitfähigkeit, wohingegen solche Verfahren nur relative Bewegungen des Benutzers erfassen können. Magnetische Verfahren sind anfällig gegenüber magnetischen Felder, so dass in industriellen Umgebungen aufgrund der vorhandenen Maschinen und der elektrischen Antriebe solche Verfahren gestört werden. Ebenso können aufgrund der Geräuschkulisse in einer Produktionshalle akustische Verfahren nur bedingt zum Einsatz kommen. For the determination of the user position and its viewing direction, is a positionally precise overlay necessary. Separate Tracking methods have advantages in themselves also disadvantages. So comes an optical process without additional Instrumentation, but requires a lot of computing power, Which is currently not an industrial grade mobile system can be provided. inertial Systems have very good real-time capability, whereas such methods capture only relative movements of the user can. Magnetic processes are prone to magnetic fields, so due to industrial environments the existing machines and electric drives such procedures are disturbed. Likewise, due to the Noise background in a production hall. Acoustic process only conditionally used.
Die unterschiedlichen Verfahren werden bisher fast ausschließlich alleine für sich betrachtet. Erste Ansätze gibt es bei der Kombination dieser Verfahren (z.B. inertial mit akustisch). Diese Ansätze sind aber aufgrund der aufwendigen Instrumentierung der Umgebung für industrielle, medizinische oder Konsumer-Anwendungen nicht geeignet.The different procedures are so far almost exclusively considered alone. First approaches exist in the combination of these methods (e.g., inertial with acoustically). These approaches are, however, due to the elaborate Instrumentation of the environment for industrial, medical or consumer applications are not suitable.
Heutige Systeme beruhen hauptsächlich auf einem Verfahren. Rein videobasierte Verfahren arbeiten meist mit einer Instrumentierung der Umgebung, welche für industrielle Anwendungen nicht geeignet ist, da die Umgebung mit Marker ausgestattet werden muss. Diese Marker unterliegen in einer industriellen Umgebung den Umwelteinflüssen, so dass diese Verschmutzen und dann von dem System nicht mehr erkannt werden. Weiter ist eine Instrumentarisierung der Umgebung mit einem hohen zeitlichen Aufwand verbunden, so dass die Effektivität eines solchen Systems nicht mehr akzeptabel ist. Ebenso existieren Ansätze für optische Verfahren, welche ohne Instrumentierung auskommen. Es ist aber kein Verfahren bekannt, welches die für einen industriellen Anwendungsfall notwendige Echtzeitfähigkeit auf einem mobilen System bereitstellen kann.Today's systems are mainly based on a procedure. Purely video-based methods usually work with instrumentation the environment, which for industrial applications not suitable because the environment is equipped with markers must become. These markers are subject to an industrial Surrounding the environment, so that this pollution and then no longer be recognized by the system. Next is one Instrumentation of the environment with a high temporal Effort, so the effectiveness of such System is no longer acceptable. There are also approaches for optical processes, which without instrumentation get along. But there is no known method which the Real-time capability required for an industrial application on a mobile system.
In der Forschungslandschaft sind ebenfalls Kombinationen von Verfahren zu finden, die aber keinen Anspruch auf Echtzeitfähigkeit legen. Dieses ist aber für einen industriellen Einsatz unbedingt erforderlich. Weiter muss beim Einsatz in den Anwendungsdomänen berücksichtigt werden, dass tragbare Systeme zum Einsatz kommen, die nur eine begrenzte Rechenleistung zur Verfügung stellen. Ein Ansatz für ein solches System ist derzeit nicht bekannt. Weiter ist zu beachten, dass die verschiedenen Verfahren ihre Ergebnisse in unterschiedlichen Frequenzen bereitstellen. Beim Zusammenführen der Einzelergebnisse muss dieses berücksichtigt werden.In the research landscape are also combinations of To find methods that are not eligible for real-time capability lay. But this is for an industrial use absolutely necessary. Next must when using in the Application domains that are considered portable systems are used, the only limited computing power provide. One approach to such a system is currently unknown. It should also be noted that the various Process their results in different ways Provide frequencies. When merging the individual results this must be taken into account.
Aufgabe der vorliegenden Erfindung ist daher, ein System und ein Verfahren anzugeben, mittels dessen eine einfache Kombination und Anwendung der unterschiedlichen Trackingverfahren zur Bestimmung einer Position ermöglicht wird.Object of the present invention is therefore a system and to provide a method by means of which a simple combination and application of different tracking methods to determine a position is possible.
Die Aufgabe wird durch ein System mit den in Anspruch 1 angegebenen
Merkmalen gelöst. Weiterhin wird die Aufgabe durch
ein Verfahren mit den in Anspruch 15 angegebenen Merkmalen
gelöst.The object is achieved by a system with the specified in claim 1
Characteristics solved. Furthermore, the task is through
a method having the features specified in
Der Erfindung liegt die Erkenntnis zugrunde, dass die Kombination der Ergebnisse der Verfahren zu einer Verbesserung des Gesamtergebnisses führt.The invention is based on the finding that the combination the results of the procedures to improve the Overall result leads.
Über die Definition eines universellen Systems, im Folgenden Framework genannt, für die Verfahren zur Positionsbestimmung (Tracking-Framework) wird sichergestellt, dass die einzelnen Verfahren austauschbar bzw. ergänzbar sind. Dieses hat den Vorteil, dass neue bzw. verbesserte Verfahren schnell über das System bzw. Framework in eine Anwendung eingebunden werden können. Durch die Definition von Schnittstellen können ebenfalls fremd entwickelte Verfahren eingebunden werden. Hierdurch wird eine größtmögliche Offenheit gewährleistet.About the definition of a universal system, below Framework called, for the positioning method (Tracking framework) will ensure that the individual Procedures are interchangeable or supplements. This one has the Advantage that new or improved procedures quickly over the system or framework are integrated into an application can. By defining interfaces can also foreign-developed procedures are involved. This ensures the greatest possible openness.
Aufgrund der sehr unterschiedlichen Anwendungen und den damit verbundenen Anforderungen (Einsatzort, Einsatzbedingungen, Umgebungsbedingungen etc.) werden verschiedene Ansätze bei den Trackingverfahren benötigt. Im Anwendungsfall Automobilindustrie kommt als Arbeitsraum z.B. ein Motorraum eines Autos zum Einsatz. Dieser unterscheidet sich erheblich von dem Anwendungsfall Flugzeug, wo z.B. beim Fahrwerk keine Begrenzung des Arbeitsraumes durch die Karosserie gegeben ist. Der Anwendungsfall Automatisierung kann z.B. nicht auf existierende 3D-Modelle zurückgreifen, da diese in dieser Anwendungsdomäne in der Regel nicht vorhanden sind. Andere Anwendungsdomänen haben noch weitere unterschiedliche Randbedingungen. Because of the very different applications and the so related requirements (location, conditions of use, Environmental conditions, etc.) will be accompanied by different approaches needed the tracking method. In the application case automotive industry comes as workspace e.g. an engine room of a car for use. This differs considerably from the Application aircraft, where e.g. the chassis no limit of the working space is given by the body. Of the Application Automation can e.g. not on existing ones Falling back on 3D models as these are in this application domain usually are not present. Other application domains have even more different boundary conditions.
Um diesen Anforderungen gerecht zu werden, wird erfindungsgemäß ein System bzw. Framework bereitgestellt, welches den Austausch bzw. die Anpassung der Verfahren erlaubt. Außerdem erlaubt ein wohl definiertes Framework schnell neue, verbesserte Verfahren in dieses Framework aufzunehmen und damit die Tauglichkeit des Gesamtsystems in der Anwendungsdomäne zu verbessern.To meet these requirements, is according to the invention a system or framework is provided which the Exchange or adaptation of the procedures allowed. Furthermore a well-defined framework quickly allows new, improved To include procedures in this framework and thus the Suitability of the whole system in the application domain too improve.
Ein universelles Tracking-Framework spielt eine tragende Rolle bei der Realisierung industrieller Trackingverfahren bzw. den damit verbundenen Anwendungen, da durch dieses Framework die Möglichkeit gegeben wird, verschiedene Trackingsysteme/verfahren in das System zu integrieren. Somit kann innerhalb der Anwendungen schnell auf veränderte Randbedingungen eingegangen werden und das für den Anwendungsfall passende und optimierte System ausgewählt werden.A universal tracking framework plays a major role in the realization of industrial tracking methods or the related applications because of this framework the possibility is given of different tracking systems / procedures to integrate into the system. Thus, within applications quickly responded to changing conditions and that is suitable and optimized for the application System can be selected.
Damit die verschiedenen Arten von Trackingverfahren zusammenarbeiten können, müssen die unterschiedlichen Sensoren an das System angeschlossen werden. Die Aufteilung in schnelle und robuste Trackinganteile ermöglicht die Realisierung der Echtzeitfähigkeit des Gesamtsystems unter der Berücksichtigung der vorhandenen Ressourcen (z.B. eines tragbaren Computers).So that the different types of tracking methods work together can, the different sensors have to System can be connected. The division into fast and Robust tracking shares enable real-time capability to be realized of the overall system under consideration of existing resources (e.g., a portable computer).
Das Tracking-Framework baut zur Laufzeit anhand einer Konfigurationsbeschreibung die Kommunikation zwischen den benötigten Trackingverfahren und -algorithmen auf. Die Datenflüsse dieser Kommunikation werden vom Tracking-Framework automatisch mit Zeitstempeln versehen, die die Synchronität bei der Verarbeitung der Daten sicherstellen. Durch die Flexibilität dieser Grundmechanismen sichert das Framework seine Offenheit gegenüber zukünftige verbesserte oder erweiterte Trackingverfahren.The tracking framework builds at runtime based on a configuration description the communication between the needed Tracking methods and algorithms. The data flows This communication will be automatic by the tracking framework with timestamps that synchronize with the Ensure processing of the data. Due to the flexibility With these basic mechanisms, the framework ensures its openness towards future improved or enhanced tracking methods.
Besonders vorteilhaft ist, dass ein Framework zur Positionsbestimmung in industriellen Umgebungen bereitgestellt wird. Dieses Framework wird den Anforderungen der Anwendungsdomänen Industrie, Medizin, Komsumer etc. gerecht, indem die Verfahren einem Gesamtsystemgedanken folgen. Das Framework bietet die Möglichkeit verschiedene Sensoren in das System neutral zu integrieren und schafft damit eine Offenheit für spätere Anpassungen und Erweiterungen. Die Integration der Verfahren geschieht mit Hilfe von definierten Schnittstellen, so dass ein Austausch von Informationen zwischen Verarbeitungseinheiten unterschiedlicher Lieferanten innerhalb des Frameworks ermöglicht wird.It is particularly advantageous that a framework for position determination in industrial environments. This framework will meet the requirements of the application domains Industry, medicine, komsumer etc. just by the procedures to follow an overall system concept. The framework offers the possibility of different sensors in the system neutral to integrate and thus creates an openness for later Adjustments and extensions. The integration of procedures happens with the help of defined interfaces, so that an exchange of information between processing units different suppliers within the framework is possible.
Sensoren und Visualisierungseinheiten können über eine neutrale Schnittstelle auf das Framework zugreifen bzw. Informationen bereitstellen. Über die Schnittstelle können Sensoren integriert werden, die heute noch nicht bekannt sind. Die Konfigurierbarkeit durch eine einfache Beschreibung (Beispielsweise XML-Datei) ist eine neuartige Methode die Datenflüsse zwischen den einzelnen Verfahren aufzubauen. Die Übernahme der Synchronisation der Daten durch das Framework ist eine Erleichterung des Aufbaus solcher Verfahren gegenüber heutigen Techniken. Somit wird dieses Framework den Anforderungen heutiger, aber auch zukünftiger Anwendungen gerecht.Sensors and visualization units can have a neutral Interface to access the framework or information provide. Sensors can be used via the interface integrated, which are not yet known today. The Configurability through a simple description (for example XML file) is a novel method of data flows build up between the individual procedures. The takeover the synchronization of the data through the framework to facilitate the construction of such methods today's techniques. Thus, this framework meets the requirements fair, but also future applications.
Die Schnittstelle ermöglicht weiter, dass verschiedene Visualisierungseinheiten genutzt werden können, welche z.B. optimiert für einen bestimmten Anwendungsfall sind. Somit wird mit dem Framework ermöglicht z.B. ein reines visuelles Positionsbestimmungsverfahren auf der Basis von Markern aufzubauen. Für industrielle Anwendungen müssen aber kombinierte Verfahren zum Einsatz kommen. Durch die Offenheit des Frameworks wird sichergestellt, dass komplexe Kombinationen verschiedener Verfahren aufgebaut werden können.The interface further allows that different visualization units can be used, which e.g. optimized for a particular application. Thus, will with the framework, e.g. a pure visual positioning method build on the basis of markers. For industrial applications, however, must be combined procedures be used. Due to the openness of the framework Ensures that complex combinations of different Procedures can be established.
Weiter können verschiedene Ansätze von Augmented Reality ermöglicht werden. Diese sind zum einen eine Video-See-Through Darstellung, bei denen der Benutzer seine Umgebung mittels eines eingeblendeten Videos wahrnehmen kann. Dieses ist für industrielle Anwendungen aber nur bedingt einsetzbar, so dass mittels des Frameworks ebenfalls Optical See-Through Ansätze realisiert werden können, bei denen nur die zusätzlichen virtuellen Objekte lagerichtig auf Basis der Positionsbestimmung eingeblendet werden.Further, various approaches of augmented reality can be made possible become. These are for a video sea-through Representation in which the user uses his environment a perceived video. This is for industrial applications but only conditionally usable, so that using the framework also Optical See-Through approaches can be realized in which only the additional virtual Objects in the correct position based on the position determination to be displayed.
Im Folgenden ist die Erfindung anhand des in der Figur dargestellten
Ausführungsbeispiels näher beschrieben und erläutert:
Die Sensoren werden über sensorspezifische Verarbeitungseinheiten
(Sources) 5, 6, 7, 8 an das System angeschlossen. Diese
sensorspezifischen Verarbeitungseinheiten bewerkstelligen
die verfahrensspezifische Umsetzung sowie die für eine Synchronisation
notwendigen Erweiterungen der Sensorinformationen.
Über diese Sources 5, 6, 7, 8 wird eine sensorneutrale
Integration über das Framework-Interface bzw. die Schnittstelle
9 erreicht, so dass weitere und ggf. derzeit noch unbekannte
Sensoren später ebenfalls integriert werden können.The sensors are via sensor-specific processing units
(Sources) 5, 6, 7, 8 connected to the system. These
accomplish sensor-specific processing units
the process-specific implementation as well as the synchronization
necessary extensions of the sensor information.
About these
Aus den videobasierten Daten werden Merkmale aus den Bildern
bestimmt. Die Merkmale (z.B. Punkte, Linien, Farbwerte etc.)
werden dann von Bild zu Bild verfolgt und daraus die jeweiligen
Verschiebungen berechnet. Die Verschiebungen geben die
Bewegung des Benutzers wieder. Dieses erfolgt in den jeweiligen
Vorverarbeitungseinheiten 10, 11. Diese Einheiten sind
speziell auf eine schnelle Ausführung optimiert, welche für
mobile Systeme mit begrenzter Rechenleistung benötigt wird. The video-based data becomes features from the images
certainly. The features (e.g., points, lines, color values, etc.)
are then tracked from image to image and from it the respective
Shifts calculated. The shifts give the
Movement of the user again. This takes place in the respective
In der Direkt-Verarbeitungseinheit (Vorverarbeitung light) 12
wird auf Basis der Ergebnisse der Vorverarbeitung 10, 11 und
der von der zentralen Verarbeitungseinheit 13 bereitgestellten
genauen Position eine Benutzerposition berechnet. Die
"Vorverarbeitung light" muss dabei ebenfalls Echtzeitanforderungen
erfüllen. In der Indirekt-Verarbeitungseinheit 16 bei
der "Vorverarbeitung robust" werden Algorithmen verwendet,
die Fehlerakkumulationen, wie z.B. Drifts, vermeiden und damit
eine Langzeitstabilität gewährleistet werden können. Diese
Verfahren verbrauchen mehr Leistung als die anderen Verfahren.In the direct processing unit (preprocessing light) 12
will be based on the results of preprocessing 10, 11 and
provided by the
Sollte die Leistung des Verarbeitungssystems nicht ausreichen,
so kann diese Einheit ausgelagert werden. Dieses kann
z.B. über eine Funkverbindung 21 erfolgen.Should the performance of the processing system be insufficient,
so this unit can be outsourced. This can
e.g. take place via a
Alle Ergebnisse der einzelnen Verarbeitungsschritte 7, 8, 10,
11, 16 werden in der zentralen Verarbeitungseinheit 13 zusammengeführt.
Hier werden mittels Berechnungen die Zuverlässigkeiten
der Ergebnisse bewertet um eine möglichst genaue Aussage
über die aktuelle Position des Benutzers zu treffen.
Mittels eines optionalen Bewegungsmodells 15 des Menschen
kann das Berechnungsergebnis weiter verbessert werden. Das
Ergebnis der zentralen Verarbeitungseinheit 13 kann jedem Modul
als Grundlage für die Berechnungen zur Verfügung gestellt
werden. Die Module "Vorverarbeitung light" 12 und das Bewegungsmodell
15 benötigen diese Daten um weitere, neue Berechnungen
durchführen zu können. Das Ergebnis der zentralen Verarbeitung
13 wird ebenfalls an einen Manager 17 geliefert.All results of the
Die Verarbeitung muss zu Beginn initialisiert werden. Die Initialisierung
14 stellt die genaue Position des Benutzers
zur Verfügung. Sollte die Zuverlässigkeit der Positionsberechnung
in der zentralen Verarbeitung 13 schlechter werden,
wird eine weitere Initialisierung (Reinitialisierung) angestoßen.
Hierdurch wird wieder eine genaue Position des Benutzers
zur Verfügung gestellt. Bei der (Re-)Initialisierung ist
keine Benutzersinteraktion notwendig.The processing must be initialized at the beginning. The
Der Manager 17 verwaltet zum einen das Ergebnis der Positionsberechnung
des Frameworks. Die Ergebnisse werden der Visualisierung
18, 19 bereitgestellt, welche auf der Basis der
Benutzerposition die virtuellen Objekte in das Sichtfeld des
Benutzers darstellen. Diese erfolgt über ein neutrales Interface
9, so dass verschiedene Visualisierungen bedient werden
können. Erst mittels einer genauen Position kann eine anwendergerechte
Überlagerung erfolgen.The
Zum anderen wird beim Start eine Konfiguration 20 gelesen.
Die Konfiguration enthält die für die Positionsbestimmung
notwendigen Module sowie die zwischen den Modulen auszutauschenden
Informationsströme. Mittels der Konfiguration kann
somit das Framework aufgebaut und an den Anwendungsfall angepasst
werden. Weiter besteht die Möglichkeit von den Visualisierungen
18, 19 Parametersätze über den Manager 17 an die
Verarbeitungseinheiten zu übergeben. Die Parametersätze enthalten
die situationsbezogenen Konfigurationen der Positionsbestimmung,
welche über einen Anwendungsfall variieren können.On the other hand, a
Die Figur 1 gibt einen Überblick über das Framework zur Positionsbestimmung eines Anwenders. In dieser Abbildung ist ein System mit mehreren videobasierten Sensoren sowie mehreren weiteren Sensoren dargestellt. Die Informationen der Sensoren werden verarbeitet und daraus die Position des Benutzers berechnet. Die Positionsbestimmung erfolgt dabei, wie oben beschrieben, in verschiedenen Verarbeitungsschritten, damit die notwendige Echtzeitfähigkeit des Systems gewährleistet werden kann.FIG. 1 gives an overview of the framework for position determination of a user. In this picture is a System with several video-based sensors and several shown further sensors. The information of the sensors are processed and used to calculate the position of the user. The position determination takes place, as described above, in various processing steps, so that the necessary real-time capability of the system can be ensured can.
Weiterhin kann mittels des Systems bzw. Frameworks neben der Position eines menschlichen Anwenders auch die Position und die Bewegungsrichtung einer beweglichen Vorrichtung, wie beispielsweise eines Roboters bestimmt werden. Die Ergebnisse der Verarbeitung der verschiedenen Trackingverfahren werden der Vorrichtung dann entsprechend in maschinenlesbarer Form zur Verfügung gestellt.Furthermore, by means of the system or framework in addition to the Position of a human user also the position and the direction of movement of a movable device, such as of a robot. The results processing the various tracking methods the device then in machine-readable form made available.
Ein Szenario für eine mögliche Nutzung des Systems/Frameworks sieht wie folgt aus:
- Es wird durch z.B. einen Anwendungsentwickler festgestellt,
welche
Sensoren 1, 2, 3, 4 und welche Verarbeitungseinheiten 10, 11, 12, 13, 14, 15, 16 für einen Anwendungsfall zum Einsatz kommen sollen. Aus diesen Informationen wird eine Konfiguration 20 erstellt, der die Sensoren an das System anschließt sowie die Algorithmen mit einander verschaltet. Diese Konfiguration wird dem System bekannt gemacht. - Durch das Starten des Frameworks bzw.
des Manager 17 wird die Konfiguration eingelesen und das Positionsbestimmungssystem entsprechend der Konfiguration aufgebaut. 10, 11, 12, 13, 14, 15, 16 werden miteinander verschaltet, sodass eine Verarbeitung der Sensordaten ermöglicht wird.Die einzelnen Verarbeitungseinheiten Eine Visualisierung 18 oder 19 wird gestartet und die Visualisierung baut über das Interface bzw. dieSchnittstelle 9 eineVerbindung zum Manager 17 auf.Mittels der Initialisierung 14 wird die Position des Benutzers zu Beginn festgestellt. Hier kann z.B. ein markerbasiertes Verfahren zum Einsatz kommen. Es sind aber auch andere Verfahren denkbar.- Nachdem die initiale Position des Benutzers bekannt ist, wird diese den Verarbeitungseinheiten bekannt gegeben.
- Die
5, 6, 7, 8 liefern daraufhin ihre Daten inkl. Synchronisationsdaten über das Interface bzw. dieAnbindungen der Sensoren Schnittstelle 9 an die Verarbeitungseinheiten. - Aus
5, 6 werden inden videobasierten Daten 10, 11 Merkmale (z.B. Punkte, Linien etc.) extrahiert, die weiter verfolgt werden. Bei einer Bewegung des Benutzers und damit einer Bewegung der erkannten Merkmale innerhalb des Bildes kann die Positionsveränderung berechnet werden.der Vorverarbeitung - Diese Positionsveränderungen werden an die "Vorverarbeitung light" 12 weitergegeben. Aus der vorherigen Position sowie der Positionsveränderung wird eine neue Position mit einer Zuverlässigkeit berechnet. Die Eingangsdaten der "Vorverarbeitung light" werden an eine optionale robuste Verarbeitungseinheit 16 weitergeleitet.
Die robuste Verarbeitungseinheit 16 hat im Gegensatz zu der vorherigen Verarbeitungseinheit 12 einen wesentlich größeren Suchbereich, so dass eine verlässlichere Positionsbestimmung berechnet werden kann.- Bei schnellen Bewegungen des Benutzers kann es vorkommen,
dass die
Einheiten unter 7 und 8 keine verlässlichen Werte geliefert können, da die Verschiebungen zu groß sind. Dieses wird durch dieweiteren Sensoren 3, 4 kompensiert, da diese ihr Informationen in einer wesentlich größeren Frequenz bereitstellen können. - Die Auswertung der verschiedenen Positionsberechnungen mit ihren Verlässlichkeiten erfolgt in der zentralen Verarbeitung 13. Sollte ein Sensor temporär keine verlässlichen Positionen liefern können, werden verlässlichere Sensoren höher bewertet.
- Sollten keine Position mehr durch die zentrale Verarbeitungseinheit 13 bereitgestellt werden können, wird automatisch eine Reinitialisierung 14 angestoßen, so dass wieder eine genaue Position des Benutzers dem System bekannt ist. Diese Reinitialisierung erfolgt möglichst ohne Benutzersinteraktion.
Der Manager 17 bezieht die aktuelle Benutzerpositionvon der Verarbeitung 13.Die Visualisierung 18 oder 19 fordert die aktuelle Position des Benutzers überdas Interface 9vom Manager 17 an. Auf Basis dieser Position wird die Überlagerung des realen Blickfeldes mit virtuellen Informationen erreicht.
- It is determined by, for example, an application developer, which
sensors 1, 2, 3, 4 and which 10, 11, 12, 13, 14, 15, 16 are to be used for an application. From this information, aprocessing units configuration 20 is created which connects the sensors to the system and interconnects the algorithms. This configuration will be made known to the system. - By starting the framework or the
manager 17, the configuration is read in and the positioning system is set up according to the configuration. The 10, 11, 12, 13, 14, 15, 16 are interconnected, so that a processing of the sensor data is made possible.individual processing units - A
18 or 19 is started and the visualization establishes a connection to thevisualization manager 17 via the interface or theinterface 9. - By means of the
initialization 14, the position of the user is determined at the beginning. Here, for example, a marker-based method can be used. But there are also other methods conceivable. - After the initial position of the user is known, this is announced to the processing units.
- The connections of the
5, 6, 7, 8 then deliver their data including synchronization data via the interface or thesensors interface 9 to the processing units. - From the video-based
5, 6 are in the pre-processing 10, 11 features (eg points, lines, etc.) extracted, which are further tracked. When the user moves and thus moves the recognized features within the image, the change in position can be calculated.data - These position changes are forwarded to the "preprocessing light" 12. From the previous position and the position change, a new position is calculated with a reliability. The input data of the "pre-processing light" are forwarded to an optional
robust processing unit 16. - The
robust processing unit 16, in contrast to theprevious processing unit 12, has a much larger search area, so that a more reliable position determination can be calculated. - In the case of fast movements of the user, the units under 7 and 8 can not deliver reliable values because the shifts are too large. This is compensated by the
other sensors 3, 4, since they can provide their information in a much greater frequency. - The evaluation of the various position calculations with their reliability takes place in the
central processing 13. If a sensor temporarily can not deliver reliable positions, more reliable sensors are rated higher. - If no more position can be provided by the
central processing unit 13,reinitialization 14 is automatically triggered, so that again an exact position of the user is known to the system. This reinitialization is possible without user interaction. - The
manager 17 obtains the current user position from theprocessing 13. - The
18 or 19 requests the current position of the user via thevisualization interface 9 from themanager 17. Based on this position, the superposition of the real field of view is achieved with virtual information.
Claims (28)
mit Mitteln, insbesondere Zeitstempeln, zur Synchronisation der Datenflüsse der Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen.System according to claim 1,
with means, in particular timestamps, for the synchronization of the data flows of the communication between the tracking methods and / or tracking algorithms.
bei dem die mindestens eine Verarbeitungseinheit (5, 6, 7, 8, 10, 11, 12, 13, 16) zur Berechnung des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten vorgesehen ist.System according to one of the preceding claims,
in which the at least one processing unit (5, 6, 7, 8, 10, 11, 12, 13, 16) for calculating the angle of view of the user and / or the direction of movement of the movable device based on the supplied by the tracking method and / or tracking algorithms Data is provided.
bei dem sensortypspezifische Verarbeitungseinheiten (5, 6, 7, 8) zur sensorneutralen Integration der von den Sensoren und/oder Datengebern (1, 2, 3, 4) gelieferten Daten in die Schnittstelle (9) vorgesehen sind. System according to one of the preceding claims,
in which sensor-type-specific processing units (5, 6, 7, 8) are provided for sensor-neutral integration of the data supplied by the sensors and / or data transmitters (1, 2, 3, 4) into the interface (9).
bei dem Vorverarbeitungseinheiten (10, 11) zur Berechnung der Bewegung des Benutzers und/oder der beweglichen Vorrichtung auf Basis von videobasierten Daten vorgesehen sind, wobei die Berechnung aufgrund einer Verfolgung der Verschiebung von Merkmalen in aufeinander folgenden Bildern erfolgt.System according to one of the preceding claims,
in which preprocessing units (10, 11) are provided for calculating the movement of the user and / or the moving device on the basis of video-based data, the calculation taking place on the basis of a tracking of the displacement of features in successive images.
mit einer Initialisierungseinheit (14) zur Bereitstellung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung bei Beginn der Verwendung des Systems.System according to one of the preceding claims,
with an initialization unit (14) for providing the position and / or the viewing angle of the user and / or the direction of movement of the movable device at the beginning of the use of the system.
bei dem die Initialisierungseinheit (14) zur Re-Initialsierung und/oder zur Kalibrierung des Systems vorgesehen ist, wenn die Zuverlässigkeit der Positionsbestimmung und oder des Blickwinkels und/oder der Bewegungsrichtung schlechter wird.System according to claim 6,
in which the initialization unit (14) is provided for re-initializing and / or calibrating the system if the reliability of the position determination and / or the viewing angle and / or the direction of movement deteriorates.
bei dem eine Direkt-Verarbeitungseinheit (12) zur Berechnung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung vorgesehen ist, wobei die Berechnung auf Basis der Ergebnisse der Vorverarbeitungseinheiten (10, 11) und/oder der von einer zentralen Verarbeitungseinheit (13) bereitgestellten Position erfolgt.System according to one of the preceding claims,
in which a direct processing unit (12) is provided for calculating the position and / or the viewing angle of the user and / or the direction of movement of the movable device, the calculation being based on the results of the preprocessing units (10, 11) and / or of a position provided to a central processing unit (13).
bei dem eine Indirekt-Verarbeitungseinheit (16) zur Berechnung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung vorgesehen ist, wobei die Berechnung auf Basis von Algorithmen zur Fehlervermeidung erfolgt. System according to one of the preceding claims,
in which an indirect processing unit (16) is provided for calculating the position and / or the angle of view of the user and / or the direction of movement of the movable device, the calculation taking place on the basis of algorithms for avoiding errors.
bei dem die zentrale Verarbeitungseinheit (13) zur Zusammenführung der einzelnen Verarbeitungsschritte der Verarbeitungseinheiten (7, 8, 10, 11, 16) vorgesehen ist, wobei Mittel (22) zur Berechnung der Zuverlässigkeit der Ergebnisse vorgesehen sind.System according to one of the preceding claims,
in which the central processing unit (13) is provided for merging the individual processing steps of the processing units (7, 8, 10, 11, 16), wherein means (22) are provided for calculating the reliability of the results.
mit einer Funkverbindung (21) zur Übertragung der Daten zwischen der zentralen Verarbeitungseinheit (13) und/oder der Direkt-Verarbeitungseinheit (12) und der Indirekt-Verarbeitungseinheit (16).System according to one of the preceding claims,
with a radio link (21) for transmitting the data between the central processing unit (13) and / or the direct processing unit (12) and the indirect processing unit (16).
mit einem Bewegungsmodell (15) des Menschen und oder der beweglichen Vorrichtung zur Verbesserung des Berechnungsergebnisses.System according to one of the preceding claims,
with a human movement model (15) and / or the mobile device for improving the calculation result.
mit einem Manager (17) zur Aufnahme der berechneten Ergebnisse der zentralen Verarbeitungseinheit (13), wobei der Manager (17) zur Verwaltung der Ergebnisse der Positions- und/oder Blickwinkel- und/oder Bewegungsrichtungsberechnung vorgesehen ist.System according to one of the preceding claims,
with a manager (17) for receiving the calculated results of the central processing unit (13), wherein the manager (17) is provided for managing the results of the position and / or viewing angle and / or movement direction calculation.
mit mindestens einer Visualisierungsvorrichtung (18, 19) zur Darstellung virtueller Objekte in einem Sichtfeld eines Benutzers, wobei der Manager (17) zur Bereitstellung der Ergebnisse der Positions- und/oder Blickwinkelberechnung für die mindestens eine Visualisierungsvorrichtung vorgesehen ist.System according to one of the preceding claims,
with at least one visualization device (18, 19) for displaying virtual objects in a field of view of a user, wherein the manager (17) is provided for providing the results of the position and / or viewing angle calculation for the at least one visualization device.
bei dem die Datenflüsse der Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen insbesondere mit Zeitstempeln synchronisiert werden.Method according to claim 15,
in which the data flows of the communication between the tracking methods and / or tracking algorithms are synchronized in particular with time stamps.
bei dem der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten berechnet wird.Method according to one of claims 15 or 16,
wherein the angle of view of the user and / or the direction of movement of the mobile device is calculated on the basis of the data supplied by the tracking methods and / or tracking algorithms.
bei dem eine sensorneutrale Integration der von den Sensoren und/oder Datengebern (1, 2, 3, 4) gelieferten Daten in die Schnittstelle (9) durch sensortypspezifische Verarbeitungseinheiten (5, 6, 7, 8) erfolgt.Method according to one of claims 15 to 17,
in which sensor-neutral integration of the data supplied by the sensors and / or data transmitters (1, 2, 3, 4) into the interface (9) is effected by sensor-type-specific processing units (5, 6, 7, 8).
bei dem die Berechnung der Bewegung des Benutzers und/oder der beweglichen Vorrichtung auf Basis von videobasierten Daten aufgrund einer Verfolgung der Verschiebung von Merkmalen in aufeinander folgenden Bildern erfolgt. Method according to one of claims 15 to 18,
wherein the calculation of the motion of the user and / or the moving device is based on video-based data due to a tracking of the displacement of features in successive images.
bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung bei Beginn der Verwendung des Systems durch eine Initialisierungseinheit (14) bereitgestellt wird.Method according to one of claims 15 to 19,
in which the position and / or the angle of view of the user and / or the direction of movement of the mobile device is provided by an initialization unit (14) at the start of the use of the system.
bei dem eine Re-Initialsierung und/oder Kalibrierung des Systems durch die Initialisierungseinheit (14) erfolgt wenn die Zuverlässigkeit der Positionsbestimmung und/oder des Blickwinkels und/oder der Bewegungsrichtung schlechter wird.Method according to claim 20,
in which a re-initialization and / or calibration of the system by the initialization unit (14) takes place when the reliability of the position determination and / or the viewing angle and / or the direction of movement becomes worse.
bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis der Ergebnisse der Vorverarbeitungseinheiten (10, 11) und/oder der von einer zentralen Verarbeitungseinheit (13) bereitgestellten Position durch eine Direkt-Verarbeitungseinheit (12) berechnet wird.Method according to one of claims 15 to 21,
in which the position and / or the angle of view of the user and / or the direction of movement of the movable device are determined by a direct processing unit (12) on the basis of the results of the pre-processing units (10, 11) and / or the position provided by a central processing unit (13) ) is calculated.
bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis von Algorithmen zur Fehlervermeidung durch eine Indirekt-Verarbeitungseinheit (16) berechnet wird.Method according to one of claims 15 to 22,
in which the position and / or the viewing angle of the user and / or the direction of movement of the movable device is calculated on the basis of algorithms for error prevention by an indirect processing unit (16).
bei dem die einzelnen Verarbeitungsschritte der Verarbeitungseinheiten (7, 8, 10, 11, 16) durch eine zentrale Verarbeitungseinheit (13) zusammengeführt werden, wobei eine Berechnung der Zuverlässigkeit der Ergebnisse erfolgt.Method according to one of claims 15 to 23,
in which the individual processing steps of the processing units (7, 8, 10, 11, 16) are brought together by a central processing unit (13), wherein a calculation of the reliability of the results takes place.
bei dem die Daten zwischen der zentralen Verarbeitungseinheit (13) und/oder der Direkt-Verarbeitungseinheit (12) und der Indirekt-Verarbeitungseinheit (16)mit einer Funkverbindung (21) übertragen werden.Method according to one of claims 15 to 24,
in which the data is transmitted between the central processing unit (13) and / or the direct processing unit (12) and the indirect processing unit (16) with a radio link (21).
bei dem das Berechnungsergebnis mithilfe eines Bewegungsmodells (15) des Menschen und oder der beweglichen Vorrichtung verbessert wird.Method according to one of claims 15 to 25,
in which the calculation result is improved by means of a movement model (15) of the human and or the mobile device.
bei dem die berechneten Ergebnisse der zentralen Verarbeitungseinheit (13) durch einen Manager (17) aufgenommen werden, wobei der Manager (17) die Ergebnisse der Positions-und/oder Blickwinkel- und/oder Bewegungsrichtungsberechnung verwaltet.Method according to one of claims 15 to 26,
in which the calculated results of the central processing unit (13) are recorded by a manager (17), wherein the manager (17) manages the results of the position and / or viewing angle and / or movement direction calculation.
bei dem virtuelle Objekte in einem Sichtfeld eines Benutzers mittels mindestens einer Visualisierungsvorrichtung (18, 19) dargestellt werden, wobei die Bereitstellung der Ergebnisse der Positions- und/oder Blickwinkelberechnung für die mindestens eine Visualisierungsvorrichtung durch den Manager (17) erfolgt.Method according to one of claims 15 to 27,
in which virtual objects are displayed in a field of view of a user by means of at least one visualization device (18, 19), wherein the results of the position and / or viewing angle calculation for the at least one visualization device are provided by the manager (17).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102004027270 | 2004-06-03 | ||
DE102004027270A DE102004027270A1 (en) | 2004-06-03 | 2004-06-03 | System and method for determining a position, in particular for augmented reality applications |
Publications (2)
Publication Number | Publication Date |
---|---|
EP1605338A2 true EP1605338A2 (en) | 2005-12-14 |
EP1605338A3 EP1605338A3 (en) | 2008-03-19 |
Family
ID=34940065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP05104782A Ceased EP1605338A3 (en) | 2004-06-03 | 2005-06-02 | Apparatus and method for determining a position, in particular for augmented reality applications |
Country Status (3)
Country | Link |
---|---|
US (1) | US7592997B2 (en) |
EP (1) | EP1605338A3 (en) |
DE (1) | DE102004027270A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101640767B1 (en) * | 2010-02-09 | 2016-07-29 | 삼성전자주식회사 | Real-time virtual reality input/output system and method based on network for heterogeneous environment |
US8686851B2 (en) | 2011-06-08 | 2014-04-01 | General Electric Company | System and method for rapid location of an alarm condition |
FR2984057B1 (en) | 2011-12-13 | 2014-01-03 | Solidanim | VIDEO FILM TURNING SYSTEM |
US9936902B2 (en) | 2013-05-06 | 2018-04-10 | The Boeing Company | Ergonomic data collection and analysis |
US20170169612A1 (en) | 2015-12-15 | 2017-06-15 | N.S. International, LTD | Augmented reality alignment system and method |
CN105867631A (en) * | 2016-04-22 | 2016-08-17 | 江苏卡罗卡国际动漫城有限公司 | Motion capture device for AR (augmented reality) maintenance guiding system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004015369A2 (en) * | 2002-08-09 | 2004-02-19 | Intersense, Inc. | Motion tracking system and method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5930741A (en) * | 1995-02-28 | 1999-07-27 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
US6630993B1 (en) * | 1999-03-22 | 2003-10-07 | Arc Second Inc. | Method and optical receiver with easy setup means for use in position measurement systems |
AU2002232614A1 (en) * | 2000-10-30 | 2002-05-15 | Arc Second, Inc. | Position measurement system and method using cone math calibration |
-
2004
- 2004-06-03 DE DE102004027270A patent/DE102004027270A1/en not_active Ceased
-
2005
- 2005-06-01 US US11/142,718 patent/US7592997B2/en active Active
- 2005-06-02 EP EP05104782A patent/EP1605338A3/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004015369A2 (en) * | 2002-08-09 | 2004-02-19 | Intersense, Inc. | Motion tracking system and method |
Non-Patent Citations (2)
Title |
---|
BAUER M ET AL: "Design of a component-based augmented reality framework", AUGMENTED REALITY, 2001. PROCEEDINGS. IEEE AND ACM INTERNATIONAL SYMPO SIUM ON NEW YORK, NY, USA 29-30 OCT. 2001, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 29 October 2001 (2001-10-29), pages 45 - 54, XP010568047, ISBN: 978-0-7695-1375-1, DOI: 10.1109/ISAR.2001.970514 * |
DIETER SCHMALSTIEG ET AL: "The Studierstube Augmented Reality Project - TR-186-2-00-22", TECHNICAL REPORTS OF THE TECHNICAL UNIVERSITY OF VIENNA, 31 December 2000 (2000-12-31), pages 1 - 24, XP055270593, Retrieved from the Internet <URL:https://www.cg.tuwien.ac.at/research/publications/2000/Schm-2000-Stb/TR-186-2-00-22Paper.pdf> [retrieved on 20160504] * |
Also Published As
Publication number | Publication date |
---|---|
DE102004027270A1 (en) | 2005-12-29 |
US20050275722A1 (en) | 2005-12-15 |
US7592997B2 (en) | 2009-09-22 |
EP1605338A3 (en) | 2008-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1605338A2 (en) | Apparatus and method for determining a position, in particular for augmented reality applications | |
EP2176833A1 (en) | Method and system for determining the position and orientation of a camera relative to a real object | |
WO2002050649A2 (en) | User-controlled link of information within an augmented reality system | |
DE102014210053A1 (en) | Surgical microscope with data unit and method for overlaying images | |
DE102004046430A1 (en) | System for visual situation-based real-time based surgeon support and real-time documentation and archiving of the surgeon's visually perceived support-based impressions during surgery | |
DE60313522T2 (en) | Internet inspection system in a wireless handheld panel | |
EP3959702A1 (en) | Motor vehicle | |
DE102005045973A1 (en) | Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval | |
WO2005037093A1 (en) | Generation of an image provided with processing information in a sterile working area | |
WO2019042778A1 (en) | Augmented reality glasses, method for determining a pose of augmented reality glasses, and motor vehicle suitable for using the augmented reality glasses or the method | |
WO2014108165A1 (en) | Device and method for displaying an item of information on a display device in a vehicle | |
EP3012712A1 (en) | Virtual drawing in real environment | |
EP1364260B1 (en) | Combined eye tracking information in an augmented reality system | |
DE102013211005A1 (en) | A method for determining a condition of a vehicle after use of the vehicle and corresponding system | |
EP3539085B1 (en) | 3d localization | |
EP2721585B1 (en) | Method and device for determining and reproducing virtual, location-based information for a region of space | |
DE19625835A1 (en) | Medical system architecture | |
DE102019116041A1 (en) | Method and system for the safe remote control of a vehicle | |
EP2312525A2 (en) | Method and camera system for generating images for transfer to an external control unit | |
DE102016119538A1 (en) | Low-latency test stand for an image processing system | |
DE112019004282T5 (en) | Information processing apparatus, information processing method and program | |
DE102018113047A1 (en) | Method for controlling a display, computer program and augmented reality, virtual reality or mixed reality display device | |
WO2002007449A2 (en) | Method and system for determining the actual projection data for a projection of a spatially variable surface | |
DE102015205077B4 (en) | Distance recognition device for a vehicle | |
DE102021100653B3 (en) | Method and device for registering coordinate systems of at least two display devices for virtual objects, computer program for carrying out such a method, and display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA HR LV MK YU |
|
PUAL | Search report despatched |
Free format text: ORIGINAL CODE: 0009013 |
|
AK | Designated contracting states |
Kind code of ref document: A3 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA HR LV MK YU |
|
17P | Request for examination filed |
Effective date: 20080411 |
|
17Q | First examination report despatched |
Effective date: 20080521 |
|
AKX | Designation fees paid |
Designated state(s): DE FR GB IT |
|
RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: METAIO GMBH Owner name: SIEMENS AKTIENGESELLSCHAFT |
|
RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: METAIO GMBH Owner name: SIEMENS AKTIENGESELLSCHAFT |
|
RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: SIEMENS AKTIENGESELLSCHAFT Owner name: METAIO GMBH |
|
APBK | Appeal reference recorded |
Free format text: ORIGINAL CODE: EPIDOSNREFNE |
|
APBN | Date of receipt of notice of appeal recorded |
Free format text: ORIGINAL CODE: EPIDOSNNOA2E |
|
APAF | Appeal reference modified |
Free format text: ORIGINAL CODE: EPIDOSCREFNE |
|
APBT | Appeal procedure closed |
Free format text: ORIGINAL CODE: EPIDOSNNOA9E |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED |
|
18R | Application refused |
Effective date: 20170306 |