EP1605338A2 - Apparatus and method for determining a position, in particular for augmented reality applications - Google Patents

Apparatus and method for determining a position, in particular for augmented reality applications Download PDF

Info

Publication number
EP1605338A2
EP1605338A2 EP05104782A EP05104782A EP1605338A2 EP 1605338 A2 EP1605338 A2 EP 1605338A2 EP 05104782 A EP05104782 A EP 05104782A EP 05104782 A EP05104782 A EP 05104782A EP 1605338 A2 EP1605338 A2 EP 1605338A2
Authority
EP
European Patent Office
Prior art keywords
processing unit
user
tracking
movement
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP05104782A
Other languages
German (de)
French (fr)
Other versions
EP1605338A3 (en
Inventor
Jan-Friso Evers-Senne
Jan-Michael Frahm
Mehdi Hamadou
Dirk Jahn
Peter Georg Meier
Juri Platonov
Didier Stricker
Jens Weidenhausen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Metaio GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1605338A2 publication Critical patent/EP1605338A2/en
Publication of EP1605338A3 publication Critical patent/EP1605338A3/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Definitions

  • the invention relates to a system and a method for position determination a user and / or a mobile one Device by means of tracking methods, in particular for augmented reality Applications.
  • Augmented reality is a form of Human-technology interaction, which gives humans z. B. over a Data glasses display information in his field of view and so that the reality perceived by him expands.
  • Around virtual extension of the real field of view accurately positioned tracking methods are used. These can consist of both hardware and software. Come here optical, inertial, acoustic, magnetic etc. procedures for use. The individual methods are based on different Algorithms on, all a more or less provide accurate information about the position of the user.
  • Object of the present invention is therefore a system and to provide a method by means of which a simple combination and application of different tracking methods to determine a position is possible.
  • the object is achieved by a system with the specified in claim 1 Characteristics solved. Furthermore, the task is through a method having the features specified in claim 15 solved.
  • the invention is based on the finding that the combination the results of the procedures to improve the Overall result leads.
  • a system or framework is provided which the Exchange or adaptation of the procedures allowed. Furthermore a well-defined framework quickly allows new, improved To include procedures in this framework and thus the Suitability of the whole system in the application domain too improve.
  • a universal tracking framework plays a major role in the realization of industrial tracking methods or the related applications because of this framework the possibility is given of different tracking systems / procedures to integrate into the system. Thus, within applications quickly responded to changing conditions and that is suitable and optimized for the application System can be selected.
  • the tracking framework builds at runtime based on a configuration description the communication between the needed Tracking methods and algorithms.
  • the data flows This communication will be automatic by the tracking framework with timestamps that synchronize with the Ensure processing of the data. Due to the flexibility With these basic mechanisms, the framework ensures its openness towards future improved or enhanced tracking methods.
  • This framework will meet the requirements of the application domains Industry, medicine, komsumer etc. just by the procedures to follow an overall system concept.
  • the framework offers the possibility of different sensors in the system neutral to integrate and thus creates an openness for later Adjustments and extensions.
  • the integration of procedures happens with the help of defined interfaces, so that an exchange of information between processing units different suppliers within the framework is possible.
  • Sensors and visualization units can have a neutral Interface to access the framework or information provide. Sensors can be used via the interface integrated, which are not yet known today.
  • the Configurability through a simple description (for example XML file) is a novel method of data flows build up between the individual procedures. The takeover the synchronization of the data through the framework to facilitate the construction of such methods today's techniques. Thus, this framework meets the requirements fair, but also future applications.
  • the interface further allows that different visualization units can be used, which e.g. optimized for a particular application.
  • different visualization units e.g. optimized for a particular application.
  • the framework e.g. a pure visual positioning method build on the basis of markers.
  • the sensors are via sensor-specific processing units (Sources) 5, 6, 7, 8 connected to the system. These accomplish sensor-specific processing units the process-specific implementation as well as the synchronization necessary extensions of the sensor information. About these sources 5, 6, 7, 8 becomes a sensor-neutral Integration via the framework interface or the interface 9, so that more and possibly still unknown Sensors can also be integrated later.
  • Sensors sensor-specific processing units
  • the video-based data becomes features from the images certainly.
  • the features e.g., points, lines, color values, etc.
  • the shifts give the Movement of the user again. This takes place in the respective Pre-processing units 10, 11. These units are specially optimized for fast execution, which for mobile systems with limited computing power is needed.
  • preprocessing light 12 In the direct processing unit (preprocessing light) 12 will be based on the results of preprocessing 10, 11 and provided by the central processing unit 13 exact position calculates a user position.
  • the "Preprocessing light” must also have real-time requirements fulfill.
  • the indirect processing unit 16 at the "pre-processing robust" algorithms are used the fault accumulations, such as Avoid drifts, and with it a long-term stability can be ensured. These Procedures consume more power than the other methods.
  • this unit can be outsourced. This can e.g. take place via a radio link 21.
  • the processing must be initialized at the beginning.
  • the initialization 14 represents the exact position of the user to disposal. Should the reliability of the position calculation get worse in central processing 13, a further initialization (reinitialization) is initiated. This will again be a precise position of the user made available. When (re) initializing is no user interaction necessary.
  • the manager 17 manages the result of the position calculation of the framework.
  • the results are the visualization 18, 19 provided on the basis of User position the virtual objects in the field of view of the user Pose user. This is done via a neutral interface 9, so that different visualizations are served can. Only by means of an exact position can a user-friendly Overlay occur.
  • a configuration 20 is read at startup.
  • the configuration contains the ones for the position determination necessary modules and the exchanged between the modules Information flows.
  • the framework is built and adapted to the application become.
  • the visualizations 18, 19 parameter sets via the manager 17 to the Transfer processing units.
  • the parameter sets contain the situation-based configurations of the position determination, which can vary over a use case.
  • FIG. 1 gives an overview of the framework for position determination of a user.
  • a System with several video-based sensors and several shown further sensors.
  • the information of the sensors are processed and used to calculate the position of the user.
  • the position determination takes place, as described above, in various processing steps, so that the necessary real-time capability of the system can be ensured can.

Abstract

An improved position determining system, especially for an augmented reality system, has a number of imaging systems (1, 2) and position sensors (3, 4) linked to the system via an interface (9) via which the inputs are integrated into the processing system. The different sensor outputs and their algorithms are processed to provide an optimum position identity, with simple and rapid updates for new data.

Description

Die Erfindung betrifft ein System und ein Verfahren zur Positionsbestimmung eines Benutzers und/oder einer beweglichen Vorrichtung mittels Trackingverfahren, insbesondere für Augmented-Reality Anwendungen.The invention relates to a system and a method for position determination a user and / or a mobile one Device by means of tracking methods, in particular for augmented reality Applications.

Augmented Reality, erweiterte Realität, ist eine Form der Mensch-Technik-Interaktion, die dem Menschen z. B. über eine Datenbrille Informationen in sein Sichtfeld einblendet und damit die von ihm wahrgenommene Realität erweitert. Um diese virtuelle Erweiterung des realen Blickfeldes positionsgenau zu erreichen, werden Trackingverfahren eingesetzt. Diese können sowohl aus Hard- als auch Software bestehen. Dabei kommen optische, inertiale, akustische, magnetische etc. Verfahren zum Einsatz. Die einzelnen Verfahren setzten dabei auf unterschiedlichen Algorithmen auf, die alle eine mehr oder minder genaue Aussage über die Position des Benutzers liefern.Augmented reality, augmented reality, is a form of Human-technology interaction, which gives humans z. B. over a Data glasses display information in his field of view and so that the reality perceived by him expands. Around virtual extension of the real field of view accurately positioned tracking methods are used. these can consist of both hardware and software. Come here optical, inertial, acoustic, magnetic etc. procedures for use. The individual methods are based on different Algorithms on, all a more or less provide accurate information about the position of the user.

Für die Bestimmung der Benutzerposition und dessen Blickrichtung, ist eine positionsgenaue Überlagerung notwendig. Einzelne Trackingverfahren haben für sich genommen Vorteile aber auch Nachteile. So kommt ein optisches Verfahren ohne zusätzliche Instrumentierung aus, benötigt dafür aber sehr viel Rechenleistung, welche derzeit nicht durch ein industrietaugliches mobiles System bereitgestellt werden kann. Inertiale Systeme verfügen über sehr gute Echtzeitfähigkeit, wohingegen solche Verfahren nur relative Bewegungen des Benutzers erfassen können. Magnetische Verfahren sind anfällig gegenüber magnetischen Felder, so dass in industriellen Umgebungen aufgrund der vorhandenen Maschinen und der elektrischen Antriebe solche Verfahren gestört werden. Ebenso können aufgrund der Geräuschkulisse in einer Produktionshalle akustische Verfahren nur bedingt zum Einsatz kommen. For the determination of the user position and its viewing direction, is a positionally precise overlay necessary. Separate Tracking methods have advantages in themselves also disadvantages. So comes an optical process without additional Instrumentation, but requires a lot of computing power, Which is currently not an industrial grade mobile system can be provided. inertial Systems have very good real-time capability, whereas such methods capture only relative movements of the user can. Magnetic processes are prone to magnetic fields, so due to industrial environments the existing machines and electric drives such procedures are disturbed. Likewise, due to the Noise background in a production hall. Acoustic process only conditionally used.

Die unterschiedlichen Verfahren werden bisher fast ausschließlich alleine für sich betrachtet. Erste Ansätze gibt es bei der Kombination dieser Verfahren (z.B. inertial mit akustisch). Diese Ansätze sind aber aufgrund der aufwendigen Instrumentierung der Umgebung für industrielle, medizinische oder Konsumer-Anwendungen nicht geeignet.The different procedures are so far almost exclusively considered alone. First approaches exist in the combination of these methods (e.g., inertial with acoustically). These approaches are, however, due to the elaborate Instrumentation of the environment for industrial, medical or consumer applications are not suitable.

Heutige Systeme beruhen hauptsächlich auf einem Verfahren. Rein videobasierte Verfahren arbeiten meist mit einer Instrumentierung der Umgebung, welche für industrielle Anwendungen nicht geeignet ist, da die Umgebung mit Marker ausgestattet werden muss. Diese Marker unterliegen in einer industriellen Umgebung den Umwelteinflüssen, so dass diese Verschmutzen und dann von dem System nicht mehr erkannt werden. Weiter ist eine Instrumentarisierung der Umgebung mit einem hohen zeitlichen Aufwand verbunden, so dass die Effektivität eines solchen Systems nicht mehr akzeptabel ist. Ebenso existieren Ansätze für optische Verfahren, welche ohne Instrumentierung auskommen. Es ist aber kein Verfahren bekannt, welches die für einen industriellen Anwendungsfall notwendige Echtzeitfähigkeit auf einem mobilen System bereitstellen kann.Today's systems are mainly based on a procedure. Purely video-based methods usually work with instrumentation the environment, which for industrial applications not suitable because the environment is equipped with markers must become. These markers are subject to an industrial Surrounding the environment, so that this pollution and then no longer be recognized by the system. Next is one Instrumentation of the environment with a high temporal Effort, so the effectiveness of such System is no longer acceptable. There are also approaches for optical processes, which without instrumentation get along. But there is no known method which the Real-time capability required for an industrial application on a mobile system.

In der Forschungslandschaft sind ebenfalls Kombinationen von Verfahren zu finden, die aber keinen Anspruch auf Echtzeitfähigkeit legen. Dieses ist aber für einen industriellen Einsatz unbedingt erforderlich. Weiter muss beim Einsatz in den Anwendungsdomänen berücksichtigt werden, dass tragbare Systeme zum Einsatz kommen, die nur eine begrenzte Rechenleistung zur Verfügung stellen. Ein Ansatz für ein solches System ist derzeit nicht bekannt. Weiter ist zu beachten, dass die verschiedenen Verfahren ihre Ergebnisse in unterschiedlichen Frequenzen bereitstellen. Beim Zusammenführen der Einzelergebnisse muss dieses berücksichtigt werden.In the research landscape are also combinations of To find methods that are not eligible for real-time capability lay. But this is for an industrial use absolutely necessary. Next must when using in the Application domains that are considered portable systems are used, the only limited computing power provide. One approach to such a system is currently unknown. It should also be noted that the various Process their results in different ways Provide frequencies. When merging the individual results this must be taken into account.

Aufgabe der vorliegenden Erfindung ist daher, ein System und ein Verfahren anzugeben, mittels dessen eine einfache Kombination und Anwendung der unterschiedlichen Trackingverfahren zur Bestimmung einer Position ermöglicht wird.Object of the present invention is therefore a system and to provide a method by means of which a simple combination and application of different tracking methods to determine a position is possible.

Die Aufgabe wird durch ein System mit den in Anspruch 1 angegebenen Merkmalen gelöst. Weiterhin wird die Aufgabe durch ein Verfahren mit den in Anspruch 15 angegebenen Merkmalen gelöst.The object is achieved by a system with the specified in claim 1 Characteristics solved. Furthermore, the task is through a method having the features specified in claim 15 solved.

Der Erfindung liegt die Erkenntnis zugrunde, dass die Kombination der Ergebnisse der Verfahren zu einer Verbesserung des Gesamtergebnisses führt.The invention is based on the finding that the combination the results of the procedures to improve the Overall result leads.

Über die Definition eines universellen Systems, im Folgenden Framework genannt, für die Verfahren zur Positionsbestimmung (Tracking-Framework) wird sichergestellt, dass die einzelnen Verfahren austauschbar bzw. ergänzbar sind. Dieses hat den Vorteil, dass neue bzw. verbesserte Verfahren schnell über das System bzw. Framework in eine Anwendung eingebunden werden können. Durch die Definition von Schnittstellen können ebenfalls fremd entwickelte Verfahren eingebunden werden. Hierdurch wird eine größtmögliche Offenheit gewährleistet.About the definition of a universal system, below Framework called, for the positioning method (Tracking framework) will ensure that the individual Procedures are interchangeable or supplements. This one has the Advantage that new or improved procedures quickly over the system or framework are integrated into an application can. By defining interfaces can also foreign-developed procedures are involved. This ensures the greatest possible openness.

Aufgrund der sehr unterschiedlichen Anwendungen und den damit verbundenen Anforderungen (Einsatzort, Einsatzbedingungen, Umgebungsbedingungen etc.) werden verschiedene Ansätze bei den Trackingverfahren benötigt. Im Anwendungsfall Automobilindustrie kommt als Arbeitsraum z.B. ein Motorraum eines Autos zum Einsatz. Dieser unterscheidet sich erheblich von dem Anwendungsfall Flugzeug, wo z.B. beim Fahrwerk keine Begrenzung des Arbeitsraumes durch die Karosserie gegeben ist. Der Anwendungsfall Automatisierung kann z.B. nicht auf existierende 3D-Modelle zurückgreifen, da diese in dieser Anwendungsdomäne in der Regel nicht vorhanden sind. Andere Anwendungsdomänen haben noch weitere unterschiedliche Randbedingungen. Because of the very different applications and the so related requirements (location, conditions of use, Environmental conditions, etc.) will be accompanied by different approaches needed the tracking method. In the application case automotive industry comes as workspace e.g. an engine room of a car for use. This differs considerably from the Application aircraft, where e.g. the chassis no limit of the working space is given by the body. Of the Application Automation can e.g. not on existing ones Falling back on 3D models as these are in this application domain usually are not present. Other application domains have even more different boundary conditions.

Um diesen Anforderungen gerecht zu werden, wird erfindungsgemäß ein System bzw. Framework bereitgestellt, welches den Austausch bzw. die Anpassung der Verfahren erlaubt. Außerdem erlaubt ein wohl definiertes Framework schnell neue, verbesserte Verfahren in dieses Framework aufzunehmen und damit die Tauglichkeit des Gesamtsystems in der Anwendungsdomäne zu verbessern.To meet these requirements, is according to the invention a system or framework is provided which the Exchange or adaptation of the procedures allowed. Furthermore a well-defined framework quickly allows new, improved To include procedures in this framework and thus the Suitability of the whole system in the application domain too improve.

Ein universelles Tracking-Framework spielt eine tragende Rolle bei der Realisierung industrieller Trackingverfahren bzw. den damit verbundenen Anwendungen, da durch dieses Framework die Möglichkeit gegeben wird, verschiedene Trackingsysteme/verfahren in das System zu integrieren. Somit kann innerhalb der Anwendungen schnell auf veränderte Randbedingungen eingegangen werden und das für den Anwendungsfall passende und optimierte System ausgewählt werden.A universal tracking framework plays a major role in the realization of industrial tracking methods or the related applications because of this framework the possibility is given of different tracking systems / procedures to integrate into the system. Thus, within applications quickly responded to changing conditions and that is suitable and optimized for the application System can be selected.

Damit die verschiedenen Arten von Trackingverfahren zusammenarbeiten können, müssen die unterschiedlichen Sensoren an das System angeschlossen werden. Die Aufteilung in schnelle und robuste Trackinganteile ermöglicht die Realisierung der Echtzeitfähigkeit des Gesamtsystems unter der Berücksichtigung der vorhandenen Ressourcen (z.B. eines tragbaren Computers).So that the different types of tracking methods work together can, the different sensors have to System can be connected. The division into fast and Robust tracking shares enable real-time capability to be realized of the overall system under consideration of existing resources (e.g., a portable computer).

Das Tracking-Framework baut zur Laufzeit anhand einer Konfigurationsbeschreibung die Kommunikation zwischen den benötigten Trackingverfahren und -algorithmen auf. Die Datenflüsse dieser Kommunikation werden vom Tracking-Framework automatisch mit Zeitstempeln versehen, die die Synchronität bei der Verarbeitung der Daten sicherstellen. Durch die Flexibilität dieser Grundmechanismen sichert das Framework seine Offenheit gegenüber zukünftige verbesserte oder erweiterte Trackingverfahren.The tracking framework builds at runtime based on a configuration description the communication between the needed Tracking methods and algorithms. The data flows This communication will be automatic by the tracking framework with timestamps that synchronize with the Ensure processing of the data. Due to the flexibility With these basic mechanisms, the framework ensures its openness towards future improved or enhanced tracking methods.

Besonders vorteilhaft ist, dass ein Framework zur Positionsbestimmung in industriellen Umgebungen bereitgestellt wird. Dieses Framework wird den Anforderungen der Anwendungsdomänen Industrie, Medizin, Komsumer etc. gerecht, indem die Verfahren einem Gesamtsystemgedanken folgen. Das Framework bietet die Möglichkeit verschiedene Sensoren in das System neutral zu integrieren und schafft damit eine Offenheit für spätere Anpassungen und Erweiterungen. Die Integration der Verfahren geschieht mit Hilfe von definierten Schnittstellen, so dass ein Austausch von Informationen zwischen Verarbeitungseinheiten unterschiedlicher Lieferanten innerhalb des Frameworks ermöglicht wird.It is particularly advantageous that a framework for position determination in industrial environments. This framework will meet the requirements of the application domains Industry, medicine, komsumer etc. just by the procedures to follow an overall system concept. The framework offers the possibility of different sensors in the system neutral to integrate and thus creates an openness for later Adjustments and extensions. The integration of procedures happens with the help of defined interfaces, so that an exchange of information between processing units different suppliers within the framework is possible.

Sensoren und Visualisierungseinheiten können über eine neutrale Schnittstelle auf das Framework zugreifen bzw. Informationen bereitstellen. Über die Schnittstelle können Sensoren integriert werden, die heute noch nicht bekannt sind. Die Konfigurierbarkeit durch eine einfache Beschreibung (Beispielsweise XML-Datei) ist eine neuartige Methode die Datenflüsse zwischen den einzelnen Verfahren aufzubauen. Die Übernahme der Synchronisation der Daten durch das Framework ist eine Erleichterung des Aufbaus solcher Verfahren gegenüber heutigen Techniken. Somit wird dieses Framework den Anforderungen heutiger, aber auch zukünftiger Anwendungen gerecht.Sensors and visualization units can have a neutral Interface to access the framework or information provide. Sensors can be used via the interface integrated, which are not yet known today. The Configurability through a simple description (for example XML file) is a novel method of data flows build up between the individual procedures. The takeover the synchronization of the data through the framework to facilitate the construction of such methods today's techniques. Thus, this framework meets the requirements fair, but also future applications.

Die Schnittstelle ermöglicht weiter, dass verschiedene Visualisierungseinheiten genutzt werden können, welche z.B. optimiert für einen bestimmten Anwendungsfall sind. Somit wird mit dem Framework ermöglicht z.B. ein reines visuelles Positionsbestimmungsverfahren auf der Basis von Markern aufzubauen. Für industrielle Anwendungen müssen aber kombinierte Verfahren zum Einsatz kommen. Durch die Offenheit des Frameworks wird sichergestellt, dass komplexe Kombinationen verschiedener Verfahren aufgebaut werden können.The interface further allows that different visualization units can be used, which e.g. optimized for a particular application. Thus, will with the framework, e.g. a pure visual positioning method build on the basis of markers. For industrial applications, however, must be combined procedures be used. Due to the openness of the framework Ensures that complex combinations of different Procedures can be established.

Weiter können verschiedene Ansätze von Augmented Reality ermöglicht werden. Diese sind zum einen eine Video-See-Through Darstellung, bei denen der Benutzer seine Umgebung mittels eines eingeblendeten Videos wahrnehmen kann. Dieses ist für industrielle Anwendungen aber nur bedingt einsetzbar, so dass mittels des Frameworks ebenfalls Optical See-Through Ansätze realisiert werden können, bei denen nur die zusätzlichen virtuellen Objekte lagerichtig auf Basis der Positionsbestimmung eingeblendet werden.Further, various approaches of augmented reality can be made possible become. These are for a video sea-through Representation in which the user uses his environment a perceived video. This is for industrial applications but only conditionally usable, so that using the framework also Optical See-Through approaches can be realized in which only the additional virtual Objects in the correct position based on the position determination to be displayed.

Im Folgenden ist die Erfindung anhand des in der Figur dargestellten Ausführungsbeispiels näher beschrieben und erläutert:

  • In Figur 1 ist das System, im Folgenden Framework, dargestellt. Die Wahrnehmung der Umgebung erfolgt über die Sensoren 1, 2, 3, 4. Zum einen können mehrere Videokameras 1, 2 eingesetzt werden, die den Arbeitsraum oder die Umgebung beobachten. Um die Stabilität des Gesamtsystems zu verbessern können weitere Sensoren 3, 4 integriert werden. Diese können z.B. Intertial-Sensoren aber auch Sensoren sein, welche auf anderen Verfahren beruhen.
  • In the following the invention with reference to the embodiment shown in the figure is described and explained in more detail:
  • FIG. 1 shows the system, in the following framework. The perception of the environment via the sensors 1, 2, 3, 4. On the one hand, a plurality of video cameras 1, 2 can be used, which observe the work space or the environment. To improve the stability of the overall system further sensors 3, 4 can be integrated. These can be eg intertial sensors but also sensors based on other methods.
  • Die Sensoren werden über sensorspezifische Verarbeitungseinheiten (Sources) 5, 6, 7, 8 an das System angeschlossen. Diese sensorspezifischen Verarbeitungseinheiten bewerkstelligen die verfahrensspezifische Umsetzung sowie die für eine Synchronisation notwendigen Erweiterungen der Sensorinformationen. Über diese Sources 5, 6, 7, 8 wird eine sensorneutrale Integration über das Framework-Interface bzw. die Schnittstelle 9 erreicht, so dass weitere und ggf. derzeit noch unbekannte Sensoren später ebenfalls integriert werden können.The sensors are via sensor-specific processing units (Sources) 5, 6, 7, 8 connected to the system. These accomplish sensor-specific processing units the process-specific implementation as well as the synchronization necessary extensions of the sensor information. About these sources 5, 6, 7, 8 becomes a sensor-neutral Integration via the framework interface or the interface 9, so that more and possibly still unknown Sensors can also be integrated later.

    Aus den videobasierten Daten werden Merkmale aus den Bildern bestimmt. Die Merkmale (z.B. Punkte, Linien, Farbwerte etc.) werden dann von Bild zu Bild verfolgt und daraus die jeweiligen Verschiebungen berechnet. Die Verschiebungen geben die Bewegung des Benutzers wieder. Dieses erfolgt in den jeweiligen Vorverarbeitungseinheiten 10, 11. Diese Einheiten sind speziell auf eine schnelle Ausführung optimiert, welche für mobile Systeme mit begrenzter Rechenleistung benötigt wird. The video-based data becomes features from the images certainly. The features (e.g., points, lines, color values, etc.) are then tracked from image to image and from it the respective Shifts calculated. The shifts give the Movement of the user again. This takes place in the respective Pre-processing units 10, 11. These units are specially optimized for fast execution, which for mobile systems with limited computing power is needed.

    In der Direkt-Verarbeitungseinheit (Vorverarbeitung light) 12 wird auf Basis der Ergebnisse der Vorverarbeitung 10, 11 und der von der zentralen Verarbeitungseinheit 13 bereitgestellten genauen Position eine Benutzerposition berechnet. Die "Vorverarbeitung light" muss dabei ebenfalls Echtzeitanforderungen erfüllen. In der Indirekt-Verarbeitungseinheit 16 bei der "Vorverarbeitung robust" werden Algorithmen verwendet, die Fehlerakkumulationen, wie z.B. Drifts, vermeiden und damit eine Langzeitstabilität gewährleistet werden können. Diese Verfahren verbrauchen mehr Leistung als die anderen Verfahren.In the direct processing unit (preprocessing light) 12 will be based on the results of preprocessing 10, 11 and provided by the central processing unit 13 exact position calculates a user position. The "Preprocessing light" must also have real-time requirements fulfill. In the indirect processing unit 16 at the "pre-processing robust" algorithms are used the fault accumulations, such as Avoid drifts, and with it a long-term stability can be ensured. These Procedures consume more power than the other methods.

    Sollte die Leistung des Verarbeitungssystems nicht ausreichen, so kann diese Einheit ausgelagert werden. Dieses kann z.B. über eine Funkverbindung 21 erfolgen.Should the performance of the processing system be insufficient, so this unit can be outsourced. This can e.g. take place via a radio link 21.

    Alle Ergebnisse der einzelnen Verarbeitungsschritte 7, 8, 10, 11, 16 werden in der zentralen Verarbeitungseinheit 13 zusammengeführt. Hier werden mittels Berechnungen die Zuverlässigkeiten der Ergebnisse bewertet um eine möglichst genaue Aussage über die aktuelle Position des Benutzers zu treffen. Mittels eines optionalen Bewegungsmodells 15 des Menschen kann das Berechnungsergebnis weiter verbessert werden. Das Ergebnis der zentralen Verarbeitungseinheit 13 kann jedem Modul als Grundlage für die Berechnungen zur Verfügung gestellt werden. Die Module "Vorverarbeitung light" 12 und das Bewegungsmodell 15 benötigen diese Daten um weitere, neue Berechnungen durchführen zu können. Das Ergebnis der zentralen Verarbeitung 13 wird ebenfalls an einen Manager 17 geliefert.All results of the individual processing steps 7, 8, 10, 11, 16 are merged in the central processing unit 13. Here are the calculations by means of the reliabilities the results evaluated by a statement as accurate as possible about the current position of the user. By means of an optional movement model 15 of humans the calculation result can be further improved. The The result of the central processing unit 13 can be any module provided as a basis for the calculations become. The modules "preprocessing light" 12 and the motion model 15 need this data for further, new calculations to carry out. The result of central processing 13 is also delivered to a manager 17.

    Die Verarbeitung muss zu Beginn initialisiert werden. Die Initialisierung 14 stellt die genaue Position des Benutzers zur Verfügung. Sollte die Zuverlässigkeit der Positionsberechnung in der zentralen Verarbeitung 13 schlechter werden, wird eine weitere Initialisierung (Reinitialisierung) angestoßen. Hierdurch wird wieder eine genaue Position des Benutzers zur Verfügung gestellt. Bei der (Re-)Initialisierung ist keine Benutzersinteraktion notwendig.The processing must be initialized at the beginning. The initialization 14 represents the exact position of the user to disposal. Should the reliability of the position calculation get worse in central processing 13, a further initialization (reinitialization) is initiated. This will again be a precise position of the user made available. When (re) initializing is no user interaction necessary.

    Der Manager 17 verwaltet zum einen das Ergebnis der Positionsberechnung des Frameworks. Die Ergebnisse werden der Visualisierung 18, 19 bereitgestellt, welche auf der Basis der Benutzerposition die virtuellen Objekte in das Sichtfeld des Benutzers darstellen. Diese erfolgt über ein neutrales Interface 9, so dass verschiedene Visualisierungen bedient werden können. Erst mittels einer genauen Position kann eine anwendergerechte Überlagerung erfolgen.The manager 17 manages the result of the position calculation of the framework. The results are the visualization 18, 19 provided on the basis of User position the virtual objects in the field of view of the user Pose user. This is done via a neutral interface 9, so that different visualizations are served can. Only by means of an exact position can a user-friendly Overlay occur.

    Zum anderen wird beim Start eine Konfiguration 20 gelesen. Die Konfiguration enthält die für die Positionsbestimmung notwendigen Module sowie die zwischen den Modulen auszutauschenden Informationsströme. Mittels der Konfiguration kann somit das Framework aufgebaut und an den Anwendungsfall angepasst werden. Weiter besteht die Möglichkeit von den Visualisierungen 18, 19 Parametersätze über den Manager 17 an die Verarbeitungseinheiten zu übergeben. Die Parametersätze enthalten die situationsbezogenen Konfigurationen der Positionsbestimmung, welche über einen Anwendungsfall variieren können.On the other hand, a configuration 20 is read at startup. The configuration contains the ones for the position determination necessary modules and the exchanged between the modules Information flows. By means of the configuration can Thus, the framework is built and adapted to the application become. There is also the possibility of the visualizations 18, 19 parameter sets via the manager 17 to the Transfer processing units. The parameter sets contain the situation-based configurations of the position determination, which can vary over a use case.

    Die Figur 1 gibt einen Überblick über das Framework zur Positionsbestimmung eines Anwenders. In dieser Abbildung ist ein System mit mehreren videobasierten Sensoren sowie mehreren weiteren Sensoren dargestellt. Die Informationen der Sensoren werden verarbeitet und daraus die Position des Benutzers berechnet. Die Positionsbestimmung erfolgt dabei, wie oben beschrieben, in verschiedenen Verarbeitungsschritten, damit die notwendige Echtzeitfähigkeit des Systems gewährleistet werden kann.FIG. 1 gives an overview of the framework for position determination of a user. In this picture is a System with several video-based sensors and several shown further sensors. The information of the sensors are processed and used to calculate the position of the user. The position determination takes place, as described above, in various processing steps, so that the necessary real-time capability of the system can be ensured can.

    Weiterhin kann mittels des Systems bzw. Frameworks neben der Position eines menschlichen Anwenders auch die Position und die Bewegungsrichtung einer beweglichen Vorrichtung, wie beispielsweise eines Roboters bestimmt werden. Die Ergebnisse der Verarbeitung der verschiedenen Trackingverfahren werden der Vorrichtung dann entsprechend in maschinenlesbarer Form zur Verfügung gestellt.Furthermore, by means of the system or framework in addition to the Position of a human user also the position and the direction of movement of a movable device, such as of a robot. The results processing the various tracking methods the device then in machine-readable form made available.

    Ein Szenario für eine mögliche Nutzung des Systems/Frameworks sieht wie folgt aus:

    • Es wird durch z.B. einen Anwendungsentwickler festgestellt, welche Sensoren 1, 2, 3, 4 und welche Verarbeitungseinheiten 10, 11, 12, 13, 14, 15, 16 für einen Anwendungsfall zum Einsatz kommen sollen. Aus diesen Informationen wird eine Konfiguration 20 erstellt, der die Sensoren an das System anschließt sowie die Algorithmen mit einander verschaltet. Diese Konfiguration wird dem System bekannt gemacht.
    • Durch das Starten des Frameworks bzw. des Manager 17 wird die Konfiguration eingelesen und das Positionsbestimmungssystem entsprechend der Konfiguration aufgebaut. Die einzelnen Verarbeitungseinheiten 10, 11, 12, 13, 14, 15, 16 werden miteinander verschaltet, sodass eine Verarbeitung der Sensordaten ermöglicht wird.
    • Eine Visualisierung 18 oder 19 wird gestartet und die Visualisierung baut über das Interface bzw. die Schnittstelle 9 eine Verbindung zum Manager 17 auf.
    • Mittels der Initialisierung 14 wird die Position des Benutzers zu Beginn festgestellt. Hier kann z.B. ein markerbasiertes Verfahren zum Einsatz kommen. Es sind aber auch andere Verfahren denkbar.
    • Nachdem die initiale Position des Benutzers bekannt ist, wird diese den Verarbeitungseinheiten bekannt gegeben.
    • Die Anbindungen der Sensoren 5, 6, 7, 8 liefern daraufhin ihre Daten inkl. Synchronisationsdaten über das Interface bzw. die Schnittstelle 9 an die Verarbeitungseinheiten.
    • Aus den videobasierten Daten 5, 6 werden in der Vorverarbeitung 10, 11 Merkmale (z.B. Punkte, Linien etc.) extrahiert, die weiter verfolgt werden. Bei einer Bewegung des Benutzers und damit einer Bewegung der erkannten Merkmale innerhalb des Bildes kann die Positionsveränderung berechnet werden.
    • Diese Positionsveränderungen werden an die "Vorverarbeitung light" 12 weitergegeben. Aus der vorherigen Position sowie der Positionsveränderung wird eine neue Position mit einer Zuverlässigkeit berechnet. Die Eingangsdaten der "Vorverarbeitung light" werden an eine optionale robuste Verarbeitungseinheit 16 weitergeleitet.
    • Die robuste Verarbeitungseinheit 16 hat im Gegensatz zu der vorherigen Verarbeitungseinheit 12 einen wesentlich größeren Suchbereich, so dass eine verlässlichere Positionsbestimmung berechnet werden kann.
    • Bei schnellen Bewegungen des Benutzers kann es vorkommen, dass die Einheiten unter 7 und 8 keine verlässlichen Werte geliefert können, da die Verschiebungen zu groß sind. Dieses wird durch die weiteren Sensoren 3, 4 kompensiert, da diese ihr Informationen in einer wesentlich größeren Frequenz bereitstellen können.
    • Die Auswertung der verschiedenen Positionsberechnungen mit ihren Verlässlichkeiten erfolgt in der zentralen Verarbeitung 13. Sollte ein Sensor temporär keine verlässlichen Positionen liefern können, werden verlässlichere Sensoren höher bewertet.
    • Sollten keine Position mehr durch die zentrale Verarbeitungseinheit 13 bereitgestellt werden können, wird automatisch eine Reinitialisierung 14 angestoßen, so dass wieder eine genaue Position des Benutzers dem System bekannt ist. Diese Reinitialisierung erfolgt möglichst ohne Benutzersinteraktion.
    • Der Manager 17 bezieht die aktuelle Benutzerposition von der Verarbeitung 13.
    • Die Visualisierung 18 oder 19 fordert die aktuelle Position des Benutzers über das Interface 9 vom Manager 17 an. Auf Basis dieser Position wird die Überlagerung des realen Blickfeldes mit virtuellen Informationen erreicht.
    A scenario for a possible use of the system / framework is as follows:
    • It is determined by, for example, an application developer, which sensors 1, 2, 3, 4 and which processing units 10, 11, 12, 13, 14, 15, 16 are to be used for an application. From this information, a configuration 20 is created which connects the sensors to the system and interconnects the algorithms. This configuration will be made known to the system.
    • By starting the framework or the manager 17, the configuration is read in and the positioning system is set up according to the configuration. The individual processing units 10, 11, 12, 13, 14, 15, 16 are interconnected, so that a processing of the sensor data is made possible.
    • A visualization 18 or 19 is started and the visualization establishes a connection to the manager 17 via the interface or the interface 9.
    • By means of the initialization 14, the position of the user is determined at the beginning. Here, for example, a marker-based method can be used. But there are also other methods conceivable.
    • After the initial position of the user is known, this is announced to the processing units.
    • The connections of the sensors 5, 6, 7, 8 then deliver their data including synchronization data via the interface or the interface 9 to the processing units.
    • From the video-based data 5, 6 are in the pre-processing 10, 11 features (eg points, lines, etc.) extracted, which are further tracked. When the user moves and thus moves the recognized features within the image, the change in position can be calculated.
    • These position changes are forwarded to the "preprocessing light" 12. From the previous position and the position change, a new position is calculated with a reliability. The input data of the "pre-processing light" are forwarded to an optional robust processing unit 16.
    • The robust processing unit 16, in contrast to the previous processing unit 12, has a much larger search area, so that a more reliable position determination can be calculated.
    • In the case of fast movements of the user, the units under 7 and 8 can not deliver reliable values because the shifts are too large. This is compensated by the other sensors 3, 4, since they can provide their information in a much greater frequency.
    • The evaluation of the various position calculations with their reliability takes place in the central processing 13. If a sensor temporarily can not deliver reliable positions, more reliable sensors are rated higher.
    • If no more position can be provided by the central processing unit 13, reinitialization 14 is automatically triggered, so that again an exact position of the user is known to the system. This reinitialization is possible without user interaction.
    • The manager 17 obtains the current user position from the processing 13.
    • The visualization 18 or 19 requests the current position of the user via the interface 9 from the manager 17. Based on this position, the superposition of the real field of view is achieved with virtual information.

    Claims (28)

    System zur Positionsbestimmung eines Benutzers und/oder einer beweglichen Vorrichtung mittels Trackingverfahren, insbesondere für Augmented-Reality Anwendungen, mit einer Schnittstelle (9) zur Integration mindestens eines Sensortyps und/oder Datengebers (1, 2, 3, 4) eines Trackingverfahrens, einer Konfigurationseinheit (20) zur Beschreibung einer Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen und mindestens einer Verarbeitungseinheit (5, 6, 7, 8, 10, 11, 12, 13, 16) zur Berechnung der Position des Benutzers und/oder der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten. System for determining the position of a user and / or a movable device by means of tracking methods, in particular for augmented reality applications an interface (9) for integrating at least one sensor type and / or data transmitter (1, 2, 3, 4) of a tracking method, a configuration unit (20) for describing communication between the tracking methods and / or tracking algorithms and at least one processing unit (5, 6, 7, 8, 10, 11, 12, 13, 16) for calculating the position of the user and / or the mobile device based on the data supplied by the tracking methods and / or tracking algorithms. System nach Anspruch 1,
    mit Mitteln, insbesondere Zeitstempeln, zur Synchronisation der Datenflüsse der Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen.
    System according to claim 1,
    with means, in particular timestamps, for the synchronization of the data flows of the communication between the tracking methods and / or tracking algorithms.
    System nach einem der vorhergehenden Ansprüche,
    bei dem die mindestens eine Verarbeitungseinheit (5, 6, 7, 8, 10, 11, 12, 13, 16) zur Berechnung des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten vorgesehen ist.
    System according to one of the preceding claims,
    in which the at least one processing unit (5, 6, 7, 8, 10, 11, 12, 13, 16) for calculating the angle of view of the user and / or the direction of movement of the movable device based on the supplied by the tracking method and / or tracking algorithms Data is provided.
    System nach einem der vorhergehenden Ansprüche,
    bei dem sensortypspezifische Verarbeitungseinheiten (5, 6, 7, 8) zur sensorneutralen Integration der von den Sensoren und/oder Datengebern (1, 2, 3, 4) gelieferten Daten in die Schnittstelle (9) vorgesehen sind.
    System according to one of the preceding claims,
    in which sensor-type-specific processing units (5, 6, 7, 8) are provided for sensor-neutral integration of the data supplied by the sensors and / or data transmitters (1, 2, 3, 4) into the interface (9).
    System nach einem der vorhergehenden Ansprüche,
    bei dem Vorverarbeitungseinheiten (10, 11) zur Berechnung der Bewegung des Benutzers und/oder der beweglichen Vorrichtung auf Basis von videobasierten Daten vorgesehen sind, wobei die Berechnung aufgrund einer Verfolgung der Verschiebung von Merkmalen in aufeinander folgenden Bildern erfolgt.
    System according to one of the preceding claims,
    in which preprocessing units (10, 11) are provided for calculating the movement of the user and / or the moving device on the basis of video-based data, the calculation taking place on the basis of a tracking of the displacement of features in successive images.
    System nach einem der vorhergehenden Ansprüche,
    mit einer Initialisierungseinheit (14) zur Bereitstellung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung bei Beginn der Verwendung des Systems.
    System according to one of the preceding claims,
    with an initialization unit (14) for providing the position and / or the viewing angle of the user and / or the direction of movement of the movable device at the beginning of the use of the system.
    System nach Anspruch 6,
    bei dem die Initialisierungseinheit (14) zur Re-Initialsierung und/oder zur Kalibrierung des Systems vorgesehen ist, wenn die Zuverlässigkeit der Positionsbestimmung und oder des Blickwinkels und/oder der Bewegungsrichtung schlechter wird.
    System according to claim 6,
    in which the initialization unit (14) is provided for re-initializing and / or calibrating the system if the reliability of the position determination and / or the viewing angle and / or the direction of movement deteriorates.
    System nach einem der vorhergehenden Ansprüche,
    bei dem eine Direkt-Verarbeitungseinheit (12) zur Berechnung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung vorgesehen ist, wobei die Berechnung auf Basis der Ergebnisse der Vorverarbeitungseinheiten (10, 11) und/oder der von einer zentralen Verarbeitungseinheit (13) bereitgestellten Position erfolgt.
    System according to one of the preceding claims,
    in which a direct processing unit (12) is provided for calculating the position and / or the viewing angle of the user and / or the direction of movement of the movable device, the calculation being based on the results of the preprocessing units (10, 11) and / or of a position provided to a central processing unit (13).
    System nach einem der vorhergehenden Ansprüche,
    bei dem eine Indirekt-Verarbeitungseinheit (16) zur Berechnung der Position und/oder des Blickwinkels des Benutzers und/oder der Bewegungsrichtung der beweglichen Vorrichtung vorgesehen ist, wobei die Berechnung auf Basis von Algorithmen zur Fehlervermeidung erfolgt.
    System according to one of the preceding claims,
    in which an indirect processing unit (16) is provided for calculating the position and / or the angle of view of the user and / or the direction of movement of the movable device, the calculation taking place on the basis of algorithms for avoiding errors.
    System nach einem der vorhergehenden Ansprüche,
    bei dem die zentrale Verarbeitungseinheit (13) zur Zusammenführung der einzelnen Verarbeitungsschritte der Verarbeitungseinheiten (7, 8, 10, 11, 16) vorgesehen ist, wobei Mittel (22) zur Berechnung der Zuverlässigkeit der Ergebnisse vorgesehen sind.
    System according to one of the preceding claims,
    in which the central processing unit (13) is provided for merging the individual processing steps of the processing units (7, 8, 10, 11, 16), wherein means (22) are provided for calculating the reliability of the results.
    System nach einem der vorhergehenden Ansprüche,
    mit einer Funkverbindung (21) zur Übertragung der Daten zwischen der zentralen Verarbeitungseinheit (13) und/oder der Direkt-Verarbeitungseinheit (12) und der Indirekt-Verarbeitungseinheit (16).
    System according to one of the preceding claims,
    with a radio link (21) for transmitting the data between the central processing unit (13) and / or the direct processing unit (12) and the indirect processing unit (16).
    System nach einem der vorhergehenden Ansprüche,
    mit einem Bewegungsmodell (15) des Menschen und oder der beweglichen Vorrichtung zur Verbesserung des Berechnungsergebnisses.
    System according to one of the preceding claims,
    with a human movement model (15) and / or the mobile device for improving the calculation result.
    System nach einem der vorhergehenden Ansprüche,
    mit einem Manager (17) zur Aufnahme der berechneten Ergebnisse der zentralen Verarbeitungseinheit (13), wobei der Manager (17) zur Verwaltung der Ergebnisse der Positions- und/oder Blickwinkel- und/oder Bewegungsrichtungsberechnung vorgesehen ist.
    System according to one of the preceding claims,
    with a manager (17) for receiving the calculated results of the central processing unit (13), wherein the manager (17) is provided for managing the results of the position and / or viewing angle and / or movement direction calculation.
    System nach einem der vorhergehenden Ansprüche,
    mit mindestens einer Visualisierungsvorrichtung (18, 19) zur Darstellung virtueller Objekte in einem Sichtfeld eines Benutzers, wobei der Manager (17) zur Bereitstellung der Ergebnisse der Positions- und/oder Blickwinkelberechnung für die mindestens eine Visualisierungsvorrichtung vorgesehen ist.
    System according to one of the preceding claims,
    with at least one visualization device (18, 19) for displaying virtual objects in a field of view of a user, wherein the manager (17) is provided for providing the results of the position and / or viewing angle calculation for the at least one visualization device.
    Verfahren zur Positionsbestimmung eines Benutzers und/oder einer beweglichen Vorrichtung mittels Trackingverfahren, insbesondere für Augmented-Reality Anwendungen, bei dem mindestens ein Sensortyp und/oder Datengeber (1, 2, 3, 4) eines Trackingverfahrens über eine Schnittstelle (9) integriert wird, eine Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen mittels einer Konfigurationseinheit (20) beschrieben wird und eine Position des Benutzers und/oder der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten durch mindestens eine Verarbeitungseinheit (5, 6, 7, 8, 10, 11, 12, 13, 16) berechnet wird. Method for determining the position of a user and / or a movable device by means of tracking methods, in particular for augmented reality applications, in which at least one sensor type and / or data transmitter (1, 2, 3, 4) of a tracking method is integrated via an interface (9), a communication between the tracking methods and / or tracking algorithms is described by means of a configuration unit (20) and a position of the user and / or the mobile device is calculated on the basis of the data supplied by the tracking methods and / or tracking algorithms by at least one processing unit (5, 6, 7, 8, 10, 11, 12, 13, 16). Verfahren nach Anspruch 15,
    bei dem die Datenflüsse der Kommunikation zwischen den Trackingverfahren und/oder Trackingalgorithmen insbesondere mit Zeitstempeln synchronisiert werden.
    Method according to claim 15,
    in which the data flows of the communication between the tracking methods and / or tracking algorithms are synchronized in particular with time stamps.
    Verfahren nach einem der Ansprüche 15 oder 16,
    bei dem der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis der von den Trackingverfahren und/oder Trackingalgorithmen gelieferten Daten berechnet wird.
    Method according to one of claims 15 or 16,
    wherein the angle of view of the user and / or the direction of movement of the mobile device is calculated on the basis of the data supplied by the tracking methods and / or tracking algorithms.
    Verfahren nach einem der Ansprüche 15 bis 17,
    bei dem eine sensorneutrale Integration der von den Sensoren und/oder Datengebern (1, 2, 3, 4) gelieferten Daten in die Schnittstelle (9) durch sensortypspezifische Verarbeitungseinheiten (5, 6, 7, 8) erfolgt.
    Method according to one of claims 15 to 17,
    in which sensor-neutral integration of the data supplied by the sensors and / or data transmitters (1, 2, 3, 4) into the interface (9) is effected by sensor-type-specific processing units (5, 6, 7, 8).
    Verfahren nach einem der Ansprüche 15 bis 18,
    bei dem die Berechnung der Bewegung des Benutzers und/oder der beweglichen Vorrichtung auf Basis von videobasierten Daten aufgrund einer Verfolgung der Verschiebung von Merkmalen in aufeinander folgenden Bildern erfolgt.
    Method according to one of claims 15 to 18,
    wherein the calculation of the motion of the user and / or the moving device is based on video-based data due to a tracking of the displacement of features in successive images.
    Verfahren nach einem der Ansprüche 15 bis 19,
    bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung bei Beginn der Verwendung des Systems durch eine Initialisierungseinheit (14) bereitgestellt wird.
    Method according to one of claims 15 to 19,
    in which the position and / or the angle of view of the user and / or the direction of movement of the mobile device is provided by an initialization unit (14) at the start of the use of the system.
    Verfahren nach Anspruch 20,
    bei dem eine Re-Initialsierung und/oder Kalibrierung des Systems durch die Initialisierungseinheit (14) erfolgt wenn die Zuverlässigkeit der Positionsbestimmung und/oder des Blickwinkels und/oder der Bewegungsrichtung schlechter wird.
    Method according to claim 20,
    in which a re-initialization and / or calibration of the system by the initialization unit (14) takes place when the reliability of the position determination and / or the viewing angle and / or the direction of movement becomes worse.
    Verfahren nach einem der Ansprüche 15 bis 21,
    bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis der Ergebnisse der Vorverarbeitungseinheiten (10, 11) und/oder der von einer zentralen Verarbeitungseinheit (13) bereitgestellten Position durch eine Direkt-Verarbeitungseinheit (12) berechnet wird.
    Method according to one of claims 15 to 21,
    in which the position and / or the angle of view of the user and / or the direction of movement of the movable device are determined by a direct processing unit (12) on the basis of the results of the pre-processing units (10, 11) and / or the position provided by a central processing unit (13) ) is calculated.
    Verfahren nach einem der Ansprüche 15 bis 22,
    bei dem die Position und/oder der Blickwinkel des Benutzers und/oder die Bewegungsrichtung der beweglichen Vorrichtung auf Basis von Algorithmen zur Fehlervermeidung durch eine Indirekt-Verarbeitungseinheit (16) berechnet wird.
    Method according to one of claims 15 to 22,
    in which the position and / or the viewing angle of the user and / or the direction of movement of the movable device is calculated on the basis of algorithms for error prevention by an indirect processing unit (16).
    Verfahren nach einem der Ansprüche 15 bis 23,
    bei dem die einzelnen Verarbeitungsschritte der Verarbeitungseinheiten (7, 8, 10, 11, 16) durch eine zentrale Verarbeitungseinheit (13) zusammengeführt werden, wobei eine Berechnung der Zuverlässigkeit der Ergebnisse erfolgt.
    Method according to one of claims 15 to 23,
    in which the individual processing steps of the processing units (7, 8, 10, 11, 16) are brought together by a central processing unit (13), wherein a calculation of the reliability of the results takes place.
    Verfahren nach einem der Ansprüche 15 bis 24,
    bei dem die Daten zwischen der zentralen Verarbeitungseinheit (13) und/oder der Direkt-Verarbeitungseinheit (12) und der Indirekt-Verarbeitungseinheit (16)mit einer Funkverbindung (21) übertragen werden.
    Method according to one of claims 15 to 24,
    in which the data is transmitted between the central processing unit (13) and / or the direct processing unit (12) and the indirect processing unit (16) with a radio link (21).
    Verfahren nach einem der Ansprüche 15 bis 25,
    bei dem das Berechnungsergebnis mithilfe eines Bewegungsmodells (15) des Menschen und oder der beweglichen Vorrichtung verbessert wird.
    Method according to one of claims 15 to 25,
    in which the calculation result is improved by means of a movement model (15) of the human and or the mobile device.
    Verfahren nach einem der Ansprüche 15 bis 26,
    bei dem die berechneten Ergebnisse der zentralen Verarbeitungseinheit (13) durch einen Manager (17) aufgenommen werden, wobei der Manager (17) die Ergebnisse der Positions-und/oder Blickwinkel- und/oder Bewegungsrichtungsberechnung verwaltet.
    Method according to one of claims 15 to 26,
    in which the calculated results of the central processing unit (13) are recorded by a manager (17), wherein the manager (17) manages the results of the position and / or viewing angle and / or movement direction calculation.
    Verfahren nach einem der Ansprüche 15 bis 27,
    bei dem virtuelle Objekte in einem Sichtfeld eines Benutzers mittels mindestens einer Visualisierungsvorrichtung (18, 19) dargestellt werden, wobei die Bereitstellung der Ergebnisse der Positions- und/oder Blickwinkelberechnung für die mindestens eine Visualisierungsvorrichtung durch den Manager (17) erfolgt.
    Method according to one of claims 15 to 27,
    in which virtual objects are displayed in a field of view of a user by means of at least one visualization device (18, 19), wherein the results of the position and / or viewing angle calculation for the at least one visualization device are provided by the manager (17).
    EP05104782A 2004-06-03 2005-06-02 Apparatus and method for determining a position, in particular for augmented reality applications Ceased EP1605338A3 (en)

    Applications Claiming Priority (2)

    Application Number Priority Date Filing Date Title
    DE102004027270 2004-06-03
    DE102004027270A DE102004027270A1 (en) 2004-06-03 2004-06-03 System and method for determining a position, in particular for augmented reality applications

    Publications (2)

    Publication Number Publication Date
    EP1605338A2 true EP1605338A2 (en) 2005-12-14
    EP1605338A3 EP1605338A3 (en) 2008-03-19

    Family

    ID=34940065

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    EP05104782A Ceased EP1605338A3 (en) 2004-06-03 2005-06-02 Apparatus and method for determining a position, in particular for augmented reality applications

    Country Status (3)

    Country Link
    US (1) US7592997B2 (en)
    EP (1) EP1605338A3 (en)
    DE (1) DE102004027270A1 (en)

    Families Citing this family (6)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    KR101640767B1 (en) * 2010-02-09 2016-07-29 삼성전자주식회사 Real-time virtual reality input/output system and method based on network for heterogeneous environment
    US8686851B2 (en) 2011-06-08 2014-04-01 General Electric Company System and method for rapid location of an alarm condition
    FR2984057B1 (en) 2011-12-13 2014-01-03 Solidanim VIDEO FILM TURNING SYSTEM
    US9936902B2 (en) 2013-05-06 2018-04-10 The Boeing Company Ergonomic data collection and analysis
    US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
    CN105867631A (en) * 2016-04-22 2016-08-17 江苏卡罗卡国际动漫城有限公司 Motion capture device for AR (augmented reality) maintenance guiding system

    Citations (1)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    WO2004015369A2 (en) * 2002-08-09 2004-02-19 Intersense, Inc. Motion tracking system and method

    Family Cites Families (3)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US5930741A (en) * 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
    US6630993B1 (en) * 1999-03-22 2003-10-07 Arc Second Inc. Method and optical receiver with easy setup means for use in position measurement systems
    AU2002232614A1 (en) * 2000-10-30 2002-05-15 Arc Second, Inc. Position measurement system and method using cone math calibration

    Patent Citations (1)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    WO2004015369A2 (en) * 2002-08-09 2004-02-19 Intersense, Inc. Motion tracking system and method

    Non-Patent Citations (2)

    * Cited by examiner, † Cited by third party
    Title
    BAUER M ET AL: "Design of a component-based augmented reality framework", AUGMENTED REALITY, 2001. PROCEEDINGS. IEEE AND ACM INTERNATIONAL SYMPO SIUM ON NEW YORK, NY, USA 29-30 OCT. 2001, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 29 October 2001 (2001-10-29), pages 45 - 54, XP010568047, ISBN: 978-0-7695-1375-1, DOI: 10.1109/ISAR.2001.970514 *
    DIETER SCHMALSTIEG ET AL: "The Studierstube Augmented Reality Project - TR-186-2-00-22", TECHNICAL REPORTS OF THE TECHNICAL UNIVERSITY OF VIENNA, 31 December 2000 (2000-12-31), pages 1 - 24, XP055270593, Retrieved from the Internet <URL:https://www.cg.tuwien.ac.at/research/publications/2000/Schm-2000-Stb/TR-186-2-00-22Paper.pdf> [retrieved on 20160504] *

    Also Published As

    Publication number Publication date
    DE102004027270A1 (en) 2005-12-29
    US20050275722A1 (en) 2005-12-15
    US7592997B2 (en) 2009-09-22
    EP1605338A3 (en) 2008-03-19

    Similar Documents

    Publication Publication Date Title
    EP1605338A2 (en) Apparatus and method for determining a position, in particular for augmented reality applications
    EP2176833A1 (en) Method and system for determining the position and orientation of a camera relative to a real object
    WO2002050649A2 (en) User-controlled link of information within an augmented reality system
    DE102014210053A1 (en) Surgical microscope with data unit and method for overlaying images
    DE102004046430A1 (en) System for visual situation-based real-time based surgeon support and real-time documentation and archiving of the surgeon&#39;s visually perceived support-based impressions during surgery
    DE60313522T2 (en) Internet inspection system in a wireless handheld panel
    EP3959702A1 (en) Motor vehicle
    DE102005045973A1 (en) Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval
    WO2005037093A1 (en) Generation of an image provided with processing information in a sterile working area
    WO2019042778A1 (en) Augmented reality glasses, method for determining a pose of augmented reality glasses, and motor vehicle suitable for using the augmented reality glasses or the method
    WO2014108165A1 (en) Device and method for displaying an item of information on a display device in a vehicle
    EP3012712A1 (en) Virtual drawing in real environment
    EP1364260B1 (en) Combined eye tracking information in an augmented reality system
    DE102013211005A1 (en) A method for determining a condition of a vehicle after use of the vehicle and corresponding system
    EP3539085B1 (en) 3d localization
    EP2721585B1 (en) Method and device for determining and reproducing virtual, location-based information for a region of space
    DE19625835A1 (en) Medical system architecture
    DE102019116041A1 (en) Method and system for the safe remote control of a vehicle
    EP2312525A2 (en) Method and camera system for generating images for transfer to an external control unit
    DE102016119538A1 (en) Low-latency test stand for an image processing system
    DE112019004282T5 (en) Information processing apparatus, information processing method and program
    DE102018113047A1 (en) Method for controlling a display, computer program and augmented reality, virtual reality or mixed reality display device
    WO2002007449A2 (en) Method and system for determining the actual projection data for a projection of a spatially variable surface
    DE102015205077B4 (en) Distance recognition device for a vehicle
    DE102021100653B3 (en) Method and device for registering coordinate systems of at least two display devices for virtual objects, computer program for carrying out such a method, and display device

    Legal Events

    Date Code Title Description
    PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

    Free format text: ORIGINAL CODE: 0009012

    AK Designated contracting states

    Kind code of ref document: A2

    Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

    AX Request for extension of the european patent

    Extension state: AL BA HR LV MK YU

    PUAL Search report despatched

    Free format text: ORIGINAL CODE: 0009013

    AK Designated contracting states

    Kind code of ref document: A3

    Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

    AX Request for extension of the european patent

    Extension state: AL BA HR LV MK YU

    17P Request for examination filed

    Effective date: 20080411

    17Q First examination report despatched

    Effective date: 20080521

    AKX Designation fees paid

    Designated state(s): DE FR GB IT

    RAP1 Party data changed (applicant data changed or rights of an application transferred)

    Owner name: METAIO GMBH

    Owner name: SIEMENS AKTIENGESELLSCHAFT

    RAP1 Party data changed (applicant data changed or rights of an application transferred)

    Owner name: METAIO GMBH

    Owner name: SIEMENS AKTIENGESELLSCHAFT

    RAP1 Party data changed (applicant data changed or rights of an application transferred)

    Owner name: SIEMENS AKTIENGESELLSCHAFT

    Owner name: METAIO GMBH

    APBK Appeal reference recorded

    Free format text: ORIGINAL CODE: EPIDOSNREFNE

    APBN Date of receipt of notice of appeal recorded

    Free format text: ORIGINAL CODE: EPIDOSNNOA2E

    APAF Appeal reference modified

    Free format text: ORIGINAL CODE: EPIDOSCREFNE

    APBT Appeal procedure closed

    Free format text: ORIGINAL CODE: EPIDOSNNOA9E

    STAA Information on the status of an ep patent application or granted ep patent

    Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

    18R Application refused

    Effective date: 20170306