DE69835321T2 - Vorrichtung und Verfahren zur Darstellung gemischter virtueller Realität, gemeinsam von mehreren Bedienungspersonen genutzt - Google Patents

Vorrichtung und Verfahren zur Darstellung gemischter virtueller Realität, gemeinsam von mehreren Bedienungspersonen genutzt Download PDF

Info

Publication number
DE69835321T2
DE69835321T2 DE69835321T DE69835321T DE69835321T2 DE 69835321 T2 DE69835321 T2 DE 69835321T2 DE 69835321 T DE69835321 T DE 69835321T DE 69835321 T DE69835321 T DE 69835321T DE 69835321 T2 DE69835321 T2 DE 69835321T2
Authority
DE
Germany
Prior art keywords
image
player
camera
operators
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69835321T
Other languages
English (en)
Other versions
DE69835321D1 (de
Inventor
Toshikazu Nishi-ku Yokohama-shi Ohshima
Kiyohide Nishi-ku Yokohama-shi Sato
Hiroyuki Nishi-ku Yokohama-shi Yamamoto
Masakazu Nishi-ku Yokohama-shi Fujiki
Naosato Nishi-ku Yokohama-shi Taniguchi
Akihiro Nishi-ku Yokohama-shi Katayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP23637697A external-priority patent/JP3486536B2/ja
Priority claimed from JP06582498A external-priority patent/JP3450704B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69835321D1 publication Critical patent/DE69835321D1/de
Publication of DE69835321T2 publication Critical patent/DE69835321T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Description

  • Die vorliegende Erfindung bezieht sich auf eine Darstellung gemischter Realität zur Darstellung für einen Benutzer oder eine Bedienperson von gemischter Realität, welche ein durch Computergrafiken erzeugtes virtuelles Bild in den realen Raum koppelt.
  • In den letzten Jahren wurden umfangreiche Studien über (nachfolgend als "MR" abzukürzende) gemischte Realität vorgenommen, welche auf eine nahtlose Kopplung eines realen Raums und eines virtuellen Raums gerichtet ist. MR hat eine weit verbreitete Anziehungskraft als eine Technik zur Verbesserung von (nachfolgend als "VR" abzukürzender) virtueller Realität für den Zweck einer Koexistenz des realen Raums und der VR-Welt erworben, welche nur in einer von dem realen Raum isolierten Situation erfahren werden kann.
  • Anwendungen von MR werden in neuen Gebieten erwartet, welche von bisher verwendeter VR qualitativ verschieden sind, wie beispielsweise eine Verwendung als medizinischer Assistent zur Darstellung des Zustands des Patientenkörpers für einen Arzt, als wenn durch ihn hindurchgesehen werden könnte, eine Verwendung als Arbeitsassistent zur Anzeige der Zusammenbauschritte eines Erzeugnisses für tatsächliche Teile in einer Fabrik, und dergleichen.
  • Diese Anwendungen erfordern alle eine Technik des Beseitigens von "Abweichungen" zwischen einem realen Raum und einem virtuellen Raum. Die "Abweichungen" können in eine Positionsabweichung, Zeitabweichung und qualitative Abweichung klassifiziert werden. Es wurden viele Versuche unternommen, die Positionsabweichung (d.h. Ausrichtung) als das grundlegendste Erfordernis unter den vorangehenden Abweichungen zu beseitigen.
  • Im Falle einer MR des Videodurchsichttyps, welche ein virtuelles Objekt bzw. Gegenstand auf ein durch eine Videokamera erfasstes Bild überlagert, reduziert sich das Ausrichtproblem auf eine akkurate bzw. genaue Bestimmung der dreidimensionalen Position dieser Videokamera.
  • Im Falle einer eine transparente kopfmontierte Anzeigeeinrichtung (HMD) verwendenden MR des optischen Durchsichttyps beläuft sich das Ausrichtproblem auf eine Bestimmung der dreidimensionalen Position des Benutzeransichtspunkts. Als ein Verfahren des Messens einer derartigen Position wird üblicherweise ein dreidimensionaler Positions-Azimuth-Sensor, wie beispielsweise ein magnetischer Sensor, ein Ultraschallwellensensor, ein Gyro bzw. Kreisel, oder dergleichen verwendet. Jedoch ist die Präzision derartiger Sensoren nicht ausreichend, und ihre Fehler erzeugen Positionsabweichungen.
  • Andererseits kann bei dem Videodurchsichtsystem ein Verfahren des direkten Ausrichtens eines Bildes auf der Grundlage von Bildinformationen ohne Verwendung derartiger Sensoren verwendet werden. Mit diesem Verfahren kann eine Ausrichtung präzise erzielt werden, da die Positionsabweichung direkt verarbeitet werden kann. Jedoch leidet dieses Verfahren unter anderen Problemen, d.h. es weist keine Echtzeitverarbeitung auf, und es hat eine geringe Zuverlässigkeit.
  • In den letzten Jahren wurden Versuche zur Realisierung einer präzisen Ausrichtung unter Verwendung von sowohl einem Positions-Azimuth-Sensor als auch von Bildinformationen berichtet, da sie ihre Schwächen bzw. Mängel gegenseitig kompensieren.
  • Als ein Versuch hat "Dynamic Registration Correction in Video-Based-Augmented Reality Systems" (Bajura Michael und Ulrich Neumann, IEEE computer Graphics and Applications 15, 5, Seiten 52-60, 1995) (welches nachfolgend als ein erstes Bezugsdokument bezeichnet wird) ein Verfahren des Korrigierens einer aus Magnetsensorfehlern entstehenden Positionsabweichung unter Verwendung von Bildinformationen bei einer MR des Videodurchsichttyps vorgeschlagen.
  • Außerdem hat "Superior Augmented Reality Registration by Integrating Landmark Tracking and Magnetic Tracking" (State Andrei et al., Proc. of SIGGRAPH 96, Seiten 429-438, 1996) (welches nachfolgend als ein zweites Bezugsdokument bezeichnet wird) ein das zuvor erwähnte Verfahren weiterentwickelndes Verfahren vorgeschlagen, welches eine Unklarheit bei einer Positionsabschätzung auf der Grundlage von Bildinformationen kompensiert. Das zweite Bezugsdokument setzt einen Grenzstein bzw. Markstein, dessen dreidimensionale Position bekannt ist, in einen realen Raum, um so eine beliebige Positionsabweichung an einem Bild zu beseitigen, welche durch Sensorfehler verursacht wird, wenn ein MR-Präsentationssystem des Videodurchsichttyps unter Verwendung nur eines Positions-Azimuth-Sensors aufgebaut ist. Dieser Markstein dient als ein Maßstab zur Erfassung der Positionsabweichung von Bildinformationen.
  • Umfasst die Ausgabe aus dem Positions-Azimuth-Sensor keine Fehler, muss ein (als Q1 bezeichneter) Koordinatenpunkt des tatsächlich an dem Bild betrachteten bzw. beobachteten Marksteins mit einem (als P1 bezeichneten) vorausgesagten Betrachtungskoordinatenpunkt des Marksteins, welcher aus der auf der Grundlage der Sensorausgabe erlangten Kameraposition berechnet wird, und der dreidimensionalen Position des Marksteins übereinstimmen.
  • In der Praxis stimmen jedoch Q1 und P1 nicht miteinander überein, da die auf der Grundlage der Sensorausgabe erlangte Kameraposition nicht akkurat ist. Die Abweichung zwischen der vorausgesagten Betrachtungskoordinate Q1 und der Marksteinkoordinate P1 repräsentiert die Positionsabweichung zwischen den Marksteinpositionen in dem virtuellen und realen Raum, und daher kann die Richtung und Größe der Abweichung durch Extrahieren der Marksteinposition aus dem Bild berechnet werden.
  • Auf diese Weise kann durch qualitative Messung der Positionsabweichung an dem Bild die Kameraposition zur Beseitigung der Positionsabweichung korrigiert werden.
  • Das einfachste Ausrichtverfahren, welches sowohl einen Positions-Azimuth-Sensor als auch ein Bild verwendet, ist eine Korrektur von Sensorfehlern unter Verwendung eines Punktes eines Marksteins, und das erste Bezugsdokument schlug ein Verfahren des Übersetzens oder Drehens der Kameraposition gemäß der Positionsabweichung des Marksteins an dem Bild vor.
  • 1 zeigt das Grundkonzept einer Positionsabweichungskorrektur unter Verwendung eines Punkts eines Marksteins. Bei der folgenden Beschreibung sei es angenommen, dass die internen Parameter einer Kamera bekannt sind, und es wird ein Bild durch ein ideales Bilderfassungssystem erfasst, welches frei von beliebigen Einflüssen von Verzerrung und dergleichen ist.
  • Es seien C die Ansichtspunktposition der Kamera, QI die Betrachtungskoordinatenposition eines Marksteins an einem Bild, und QC die Marksteinposition in einem realen Raum. Dann ist der Punkt QI auf einer Linie lQ vorhanden, welche die Punkte C und QC verbindet. Andererseits können aus der von dem Positions-Azimuth-Sensor gegebenen Kameraposition eine Marksteinposition PC in dem Kamerakoordinatensystem und ihre Betrachtungskoordinatenposition PI in dem Bild abgeschätzt werden. Bei der folgenden Beschreibung repräsentieren v1 und v2 jeweils dreidimensionale Vektoren von dem Punkt C zu den Punkten QI und PI. Bei diesem Verfahren wird die Positionsabweichung durch Modifizieren relativer Positionsinformationen zwischen der Kamera und dem Objekt bzw. Gegenstand korrigiert, so dass eine korrigierte vorhergesagte Betrachtungskoordinatenposition P'I des Marksteins mit QI übereinstimmt (d.h. auf der Linie lQ ist eine korrigierte vorausgesagte Marksteinposition P'C in dem Kamerakoordinatensystem vorhanden).
  • Nachfolgend wird ein Fall untersucht, bei welchem die Positionsabweichung des Marksteins durch Drehen der Kameraposition korrigiert wird. Diese Korrektur kann durch Modifizieren der Positionsinformationen der Kamera derart realisiert werden, dass sich die Kamera um einen Winkel q dreht, welchen die beiden Vektoren v1 und v2 miteinander bilden. Bei tatsächlichen Berechnungen werden durch Normalisieren der vorangehenden Vektoren v1 und v2 erlangte Vektoren v1n und v2n erlangt, ihr äußeres Produkt v1n × v2n wird als die Drehachse verwendet, ihr inneres Produkt v1n·v2n wird als der Drehwinkel verwendet, und die Kamera wird um den Punkt C gedreht.
  • Nachfolgend wird ein Fall untersucht, bei welchem die Positionsabweichung des Marksteins durch relative Bewegung der Kameraposition korrigiert wird. Diese Korrektur kann durch Bewegung der Objektposition in der virtuellen Welt um v = n(v1 – v2) realisiert werden. Es sei erwähnt, dass n ein Maßstabsfaktor ist, welcher definiert ist durch:
    Figure 00060001
  • Es sei erwähnt, dass |AB| ein die Entfernung bzw. den Abstand zwischen Punkten A und B repräsentiert. In ähnlicher Weise kann eine Korrektur erzielt werden, indem die Positionsinformationen der Kamera derart modifiziert werden, dass die Kamera sich um –v bewegt. Dies gründet sich darauf, dass diese Manipulation äquivalent zu einer relativen Bewegung eines virtuellen Objekts bzw. Gegenstands um v ist.
  • Die zuvor erwähnten beiden Verfahren passen die Positionsabweichung an den Markstein zweidimensional an, können jedoch die Kameraposition nicht auf eine dreidimensional korrekte Position korrigieren. Sind Sensorfehler jedoch klein, können diese Verfahren ausreichende Wirkungen bzw. Effekte erwarten, und die zur Korrektur erforderlichen Berechnungskosten sind sehr gering. Daher sind diese Verfahren bei einer Echtzeitverarbeitung exzellent.
  • Jedoch betrachten die vorangehenden Bezugsdokumente keine gemeinschaftlichen Operationen bzw. Tätigkeiten einer Vielzahl von Bedienpersonen, und sie können nur ein Darstellungssystem gemischter Realität für eine einzige Bedienperson zur Verfügung stellen.
  • Da die in den Bezugsdokumenten beschriebenen Verfahren eine Koordinate des einzigen Marksteins innerhalb des erfassten Bildes erfassen müssen, haben sie somit Beschränkungen dahingehend, dass durch die Kamera immer eine spezifische Markierung als eine Marke zur Ausrichtung erfasst werden muss, wobei sie eine Betrachtung nur innerhalb eines begrenzten Bereichs zulassen.
  • Die vorangehende Beschränkung, welche sich aus einer Verwendung des einzigen Marksteins ableitet, ist für eine Konstruktion eines durch eine Vielzahl von Benutzern oder Bedienpersonen gemeinsam genutzten Raums gemischter Realität fatal.
  • "Fore-Screen Display and Manipulation for Virtual World Interaction" im IBM Technical Disclosure Bulletin, Band 36, 3. November, März 1993, Seiten 45-46 offenbart ein System, welches eine in die reale Welt eingebettete computererzeugte virtuelle Welt erstellt, so dass Objekte der realen Welt gemeinsam mit der virtuellen Welt genutzt werden können. Das System verwendet eine stereoskopische Vorbildschirmanzeigeeinrichtung, eine Benutzerpositions- und Bewegungserfassung, eine Computer-Modellbildung der Benutzerumgebung, um virtuelle Objekte zu erzeugen, welche für den Benutzer in Übereinstimmung mit realen, erreichbaren Objekten vor dem Bildschirm zu liegen scheinen. Das System erfasst die Bewegung der Hand des Benutzers und vereinfacht eine Manipulation der virtuellen Objekte durch die realen Hände des Benutzers. Das System unterstützt vielfache Benutzerinteraktion.
  • Die vorliegende Erfindung stellt eine Vorrichtung zur Darstellung gemischter Realität nach Anspruch 1 zur Verfügung.
  • Die vorliegende Erfindung stellt auch ein Verfahren zur Darstellung gemischter Realität nach Anspruch 4 zur Verfügung.
  • Die vorliegende Erfindung stellt ferner ein Computerprogrammprodukt nach Anspruch 7 zur Verfügung.
  • Optionale Merkmale sind in den anderen Ansprüchen dargelegt.
  • Bei einem Ausführungsbeispiel präsentiert eine Vorrichtung eine gemeinschaftliche bzw. gemeinsame Operation bzw. ein Zusammenwirken einer Vielzahl von Bedienpersonen durch gemischte Realität.
  • Bei einem Ausführungsbeispiel werden Bilddaten von einer Kamera verarbeitet, um die Position von durch die Bedienpersonen betriebenen bzw. bedienten individuellen Betätigungseinrichtungen bzw. Bedienteilen zu erfassen, mit dem Ergebnis, dass die Positionsbeziehung zwischen den Betätigungseinrichtungen der Bedienpersonen systematisch erkannt werden kann, und auf der Grundlage ihrer gemeinsamen Operation kann gemischte Realität ohne irgendeine Positionsabweichung präsentiert werden.
  • Bei einem Ausführungsbeispiel umfasst die Kamera alle Bedienpersonen innerhalb ihres Blickfelds bzw. Ansichtsfelds bzw. deckt sie ab, um die gemeinsame Operation durch alle Bedienpersonen zu verfolgen.
  • Um auf der Grundlage der gemeinsamen Operation gemischte Realität zu präsentieren, genügt eine Erfassung von einigen Operationen der Bedienpersonen. Aus diesem Grund gibt bei einem Ausführungsbeispiel die Betätigungseinrichtung Licht mit einer vorbestimmten Wellenlänge aus, und die Kamera ist für das Licht mit der vorbestimmten Wellenlänge empfindlich.
  • Bei einem Ausführungsbeispiel ist die Betätigungseinrichtung ein durch eine Hand der Bedienperson betriebener Schläger. Der Schläger kann leicht auf eine Umgebung gemischter Realität, wie beispielsweise ein Spiel, angewendet werden.
  • Bei einem Ausführungsbeispiel umfasst die Durchsichtanzeigevorrichtung eine optische Anzeigevorrichtung des lichtdurchlässigen Typs.
  • Bei einem Ausführungsbeispiel wird eine Kopfposition und eine Positur bzw. Körperhaltung jeder Bedienperson erfasst, und die Ansichtspunktposition wird gemäß der erfassten Kopfposition und -positur berechnet.
  • Um die dreidimensionale Positur des Kopfes jeder Bedienperson zu erfassen, wird vorzugsweise ein Magnetsensor verwendet. Daher wird bei einem Ausführungsbeispiel ein Geber (250) zur Erzeugung eines Wechselmagnetfelds, und ein an dem Kopfabschnitt jeder Bedienperson angebrachter Magnetsensor (220L, 220R) verwendet. Mit dieser Anordnung kann die dreidimensionale Positur des Kopfes jeder Bedienperson auf eine kontaktlose Weise erfasst werden.
  • Ein Ausführungsbeispiel umfasst eine Arbeitstabelle mit einer ersten Vielzahl von bei bekannten Positionen angeordneten Markierungen und eine Kamera, welche zum Einfangen bzw. Ermitteln von zumindest einer der ersten Vielzahl von Markierungen innerhalb eines Blickfelds der Kamera eingerichtet bzw. gesetzt ist. Dann kann die Erfassungsvorrichtung und das Erfassungsverfahren bei dem Ausführungsbeispiel eine Position und Positur der Bedienperson präzise korrigieren oder erfassen, auch wenn sich die Bedienperson innerhalb einer Umgebung großen Bereichs bzw. eines großen Umkreises bewegt, da es sichergestellt ist, dass zumindest eine Markierung in dem Bild durch die Kamera eingefangen wird.
  • Bei einem Ausführungsbeispiel sind die Markierungen derart angeordnet, dass eine Entfernung bzw. ein Abstand zwischen einer Markierung und einer anderen Markierung der Vielzahl von Markierungen in einer die Stirn der Bedienperson kreuzenden Richtung mit zunehmend weiterer Entfernung der Markierungen von der Bedienperson als größer gesetzt wird. Dies verhindert eine Verschlechterung der Präzision bei Identifikation einer Markierung.
  • Bei einem Ausführungsbeispiel sind die Markierungen derart angeordnet, dass eine Gestaltungsverteilungsdichte der Vielzahl von Markierungen in der Umgebung derart gesetzt wird, dass eine Dichteverteilung von sich weiter von der Bedienperson entfernt befindenden Markierungen geringer als eine Dichteverteilung von sich näher an der Bedienperson befindenden Markierungen gesetzt wird. Auch dies verhindert eine Verschlechterung einer Präzision bei Identifizierung einer Markierung.
  • Bei einem Ausführungsbeispiel führen eine Vielzahl von Bedienpersonen eine gemeinsame Operation durch, und Markierungen für eine Bedienperson haben dieselbe Repräsentationsweise. Beispielsweise haben die Markierungen für eine Bedienperson dieselbe Farbe. Dies vereinfacht es, Markierungen von denjenigen für jede andere Bedienperson zu unterscheiden.
  • Bei einem Ausführungsbeispiel verwendet die Erfassungseinrichtung eine Markierung, welche zuerst innerhalb eines durch die Kamera erlangten Bildes gefunden wird. Es ist nicht notwendig, weiter eine Markierung zu verfolgen. Es ist ausreichend, dass eine beliebige Markierung gefunden wird. Eine Verwendung einer ersten gefundenen Markierung vereinfacht es, eine Markierung zu suchen oder zu verfolgen.
  • Bei einem Ausführungsbeispiel durchsucht die Erfassungseinrichtung ein Bild einer gegenwärtigen Szene nach einer in einem Bild einer vorhergehenden Szene gefundenen Markierung. Dies stellt eine Kontinuität bei dem Aufspüren bzw. Verfolgen sicher.
  • Eine Erfassung von aufgespürten Markierungen kann in verschiedensten Koordinatensystemen vorgenommen werden. Bei einem Ausführungsbeispiel berechnet die Erfassungseinrichtung eine Koordinate der aufgespürten Markierung in einem Bildkoordinatensystem. Bei einem anderen Ausführungsbeispiel berechnet die Erfassungseinrichtung eine Koordinate der aufgespürten Markierung in einem Kamerakoordinatensystem.
  • Bei einem Ausführungsbeispiel wird die erste Vielzahl von Markierungen auf einem innerhalb der Umgebung angeordneten ebenen Tisch dargestellt. Dies ist für einen Fall geeignet, bei welchem die gemeinsame Operation an dem Tisch vorgenommen wird.
  • Die erste Vielzahl von Markierungen kann auf eine dreidimensionale Weise angeordnet sein. Dieser Aspekt ist für einen Fall geeignet, bei welchem Markierungen auf eine dreidimensionale Weise angeordnet sein müssen.
  • Bei einem Ausführungsbeispiel umfasst die Erfassungseinrichtung eine Identifikationseinrichtung zur Identifizierung einer Markierung, welche unter der ersten Vielzahl von Markierungen aufzuspüren ist.
  • Bei einem Ausführungsbeispiel, bei welchem die Erfassungseinrichtung eine zweite Vielzahl von Markierungen innerhalb eines Bildeinfangs bzw. einer Bildermittlung durch die Kamera erfasst, umfasst die Erfassungseinrichtung eine Einrichtung zur Auswahl einer unter der zweiten Vielzahl von Markierungen aufzuspürenden Markierung.
  • Bei einem Ausführungsbeispiel identifiziert eine Identifikationseinrichtung eine durch eine Auswahleinrichtung ausgewählte Markierung in Hinblick auf ein Bildkoordinatensystem.
  • Bei einem Ausführungsbeispiel identifiziert die Identifikationseinrichtung eine durch eine Auswahleinrichtung ausgewählte Markierung in Hinblick auf ein Weltkoordinatensystem.
  • Die Kamera kann vielzählige Kameraeinheiten umfassen. Dies ermöglicht es, eine Koordinate einer aufgespürten Markierung in einem Kamerakoordinatensystem zu erfassen. Folglich wird ein Fehler bei dem Positions-/Positursensor auf eine dreidimensionale Weise korrigiert. Wird ferner die aufgespürte Markierung in dem Weltkoordinatensystem identifiziert, können die vielzähligen Kameras mit den dreidimensional angeordneten Markierungen zurechtkommen. Darüber hinaus wird die Genauigkeit bei einer Identifikation einer gestreckten Markierung im Vergleich zu derjenigen bei dem Bildkoordinatensystem verbessert.
  • 1 ist eine Ansicht zur Erläuterung des Prinzips einer Kamerapositionskorrektur, welche bei dem Stand der Technik und einem Ausführungsbeispiel der vorliegenden Erfindung zum Einsatz kommt;
  • 2 ist eine Seitenansicht der Anordnung einer bei dem ersten Ausführungsbeispiel der vorliegenden Erfindung verwendeten Spielvorrichtung;
  • 3 ist eine Ansicht zur Erläuterung einer Szene, welche innerhalb des Blickfelds des linken Spieles bei der in 2 gezeigten Spielvorrichtung gesehen werden kann;
  • 4 ist eine Ansicht zur Erläuterung der Anordnung bzw. des Aufbaus einer bei der in 2 gezeigten Spielvorrichtung verwendeten HMD;
  • 5 ist eine Ansicht zur Erläuterung des Layouts bzw. der Gestaltung von Markierungen, welche auf einen Tisch der in 2 gezeigten Spielvorrichtung gesetzt sind;
  • 6 ist eine Ansicht zur Erläuterung eines Übergangs von Markierungen, welche in einem Bild umfasst sind, das durch eine an dem Kopf des Spieles angebrachte Kamera eingefangen wird, zusammen mit der Bewegung des Spieles auf dem in 5 gezeigten Tisch;
  • 7 ist ein Blockschaltbild zur Erläuterung der Anordnung bzw. des Ausbaus einer dreidimensionalen Bilderzeugungsvorrichtung für die Spielvorrichtung des ersten Ausführungsbeispiels;
  • 8 ist ein Flussdiagramm zur Erläuterung der Verarbeitungssequenz durch eine Schlägerpositionsmesseinheit des ersten Ausführungsbeispiels;
  • 9 ist ein Flussdiagramm zur Erläuterung einer Unterroutine (örtliche Suche) der Verarbeitungssequenz durch die Schlägerpositionsmesseinheit des ersten Ausführungsbeispiels;
  • 10 ist ein Flussdiagramm zur Erläuterung einer Unterroutine (globale Suche) der Verarbeitungssequenz durch die Schlägerpositionsmesseinheit des ersten Ausführungsbeispiels;
  • 11 ist eine Ansicht zur Erläuterung einer Segmentierung der zu verarbeitenden Regionen, welche bei der Verarbeitung des in 8 gezeigten Flussdiagramms verwendet werden;
  • 12 ist eine Ansicht des Verfahrens des Setzens der zu verarbeitenden Regionen, welche bei der Verarbeitung des in 8 gezeigten Flussdiagramms Verwendung finden;
  • 13 ist eine Ansicht zur Erläuterung eines virtuellen Spielfelds bei dem Spiel des ersten Ausführungsbeispiels;
  • 14 ist ein Flussdiagramm zur Erläuterung der Steuersequenz eines Spielmanagements bzw. einer Spielverwaltung bei einer Spielstatusmanagementeinheit bzw. Spielstatusverwaltungseinheit des ersten Ausführungsbeispiels;
  • 15 ist eine Ansicht zur Erläuterung eines Verfahrens des Erfassens eines Schlägers;
  • 16 ist ein Flussdiagramm zur Erläuterung der Gesamtverarbeitungssequenz einer Korrekturverarbeitungseinheit bei dem ersten Ausführungsbeispiel;
  • 17 ist ein Flussdiagramm zur ausführlichen Erläuterung einiger Schritte (Markierungsaufspürung) bei dem in 16 gezeigten Flussdiagramm;
  • 18 ist ein Flussdiagramm zur ausführlichen Erläuterung einiger Schritte (Markierungspositionsvoraussage) bei dem in 16 gezeigten Flussdiagramm;
  • 19 ist eine Ansicht zur Erläuterung des Prinzips einer Erfassung einer bei einer Korrektur verwendeten Bezugsmarkierung;
  • 20 ist ein Flussdiagramm zur Erläuterung des Prinzips einer Erfassung einer Bezugsmarkierung;
  • 21 ist eine Ansicht der Anordnung einer bei dem zweiten Ausführungsbeispiel verwendeten HMD;
  • 22 ist ein die Anordnung bzw. den Aufbau eines Hauptteils eines Bildverarbeitungssystems des zweiten Ausführungsbeispiels zeigenden Blockdiagramms;
  • 23 ist ein Flussdiagramm, welches einige Steuerschritte des Bildverarbeitungssystems des zweiten Ausführungsbeispiels zeigt;
  • 24 ist eine Ansicht zur Erläuterung eines Übergangs einer bei einer Modifikation des Ausführungsbeispiels verwendeten Bezugsmarkierung;
  • 25 ist eine Ansicht zur Erläuterung des Prinzips einer bei einer Modifikation des Ausführungsbeispiels verwendeten Markierungssuche; und
  • 26 erläutert das Prinzip des bei dem ersten Ausführungsbeispiel eingesetzten Korrekturprozesses.
  • <Erstes Ausführungsbeispiel>
  • Nachfolgend wird ein System gemäß einem Ausführungsbeispiel beschrieben, bei welchem ein Verfahren zur Darstellung gemischter Realität und eine HMD auf eine Lufthockeyspielvorrichtung angewendet werden.
  • Ein Lufthockeyspiel ist ein zumindest zwei Spieler erforderndes Kampfspiel, und die Spieler tauschen Schläge auf einen Puck aus, welcher durch komprimierte Luft aus dem unteren Teil in der Luft schwebt, und sie können Punkte erzielen, wenn ein Spieler den Puck in das Tor des anderen Spielers schießt. Der Spieler mit den meisten erzielten Punkten kann das Spiel gewinnen. Bei dem Lufthockeyspiel, bei welchem eine MR dieses Ausführungsbeispiels eingesetzt wird, wird einem Spieler ein virtueller Puck präsentiert, indem er als ein virtuelles dreidimensionales Bild auf einem Tisch in einer realen Umgebung überlagert angezeigt wird, und der Spieler tauscht virtuell Schläge auf bzw. Schüsse mit dem virtuellen Puck unter Verwendung realer Schläger aus.
  • Die Spielvorrichtung weist die folgenden Merkmale auf:
    • – Bilderfassung mit einer Kamera eines realen Raums, welcher von einer Vielzahl von Spielern gemeinsam genutzt wird, Erfassen und Spezifizieren von durch die Bedienpersonen manipulierten bzw. gehandhabten Betätigungseinrichtungen (bei dem Ausführungsbeispiel: Schläger), und Darstellung eines durch die Spieler gemeinsam genutzten Raums gemischter Realität.
    • – Um sich innerhalb des weiten realen Raums bewegende Ansichtspunkte der Spieler präzise zu erfassen, ist an dem Kopf jedes Spielers eine Kamera sowie ein Magnetsensor angebracht, welche zumindest eine Markierung von an einem für das Spiel verwendeten Tisch zur Verfügung gestellten Markierungen erfassen, und eine durch den Sensor erfasste Position und Positur (d.h. den Ansichtspunkt) eines Spielerkopfes auf der Grundlage einer Differenz zwischen der Bildkoordinate und der tatsächlichen Position der zumindest einen Markierung korrigiert.
  • <Anordnung bzw. Aufbau der Spielvorrichtung>
  • 2 ist eine Seitenansicht des Spielvorrichtungsabschnitts des Systems dieses Ausführungsbeispiels. Bei einem MR-Lufthockeyspiel sind zwei Spieler 2000 und 3000 einander zugewandt, während sie mit ihren Händen Schläger (260L, 260R) halten. Die zwei Spieler 2000 und 3000 tragen (nachfolgend als HMDs abgekürzte) kopfmontierte Anzeigeeinrichtungen 210L und 210R an ihren Köpfen. Der Schläger dieses Ausführungsbeispiels hat an seinem entfernten Ende eine Infrarotstrahlerzeugungseinrichtung. Wie es später beschrieben wird, wird bei diesem Ausführungsbeispiel die Schlägerposition durch eine Bildverarbeitung erfasst. Hat jeder Schläger ein Merkmal in Bezug auf seine Form oder Farbe, kann die Schlägerposition auch durch Mustererkennung unter Verwendung eines derartigen Merkmals erfasst werden.
  • Die HMD 210 dieses Ausführungsbeispiels ist ein Durchsichttyp, wie in 4 gezeigt. Die beiden Spieler 2000 und 3000 können die Fläche eines Tisches 1000 betrachten bzw. beobachten, auch wenn sie die HMDs 210L und 210R tragen. Die HMD 210 empfängt ein dreidimensionales virtuelles Bild von einem (später zu beschreibenden) Bildverarbeitungssystem. Daher beobachten die Spieler 2000 und 3000 ein dreidimensionales Bild, welches auf dem Anzeigebildschirm ihrer HMDs 210 zur Überlagerung auf ein Bild in dem realen Raum angezeigt wird, welches über (nicht in 2 gezeigte) optische Systeme der HMDs 210 beobachtet bzw. betrachtet wird.
  • 3 zeigt ein von dem linken Spieler 2000 über seine oder ihre HMD 210L gesehenes Bild. Die zwei Spieler 2000 und 3000 tauschen Schüsse eines virtuellen Pucks 1500 aus. Der Puck 1500 wird durch einen durch die Hand des Spielers 2000 (3000) gehaltenen tatsächlichen Schläger 260L (260R) geschlagen bzw. getroffen. Der Spieler 2000 hält den Schläger 260L mit der Hand. Der Spieler 2000 kann unmittelbar vor dem Gegenspieler 3000 ein Tor 1200R sehen. Das (später zu beschreibende und nicht in 3 gezeigte) Bildverarbeitungssystem erzeugt ein dreidimensionales CG, so dass der Spieler 2000 das Tor 1200R in der Nähe des Gegenspielers sehen kann, und zeigt es auf der HMD 210L an.
  • Der Gegenspieler 3000 kann über die HMD 210R auch ein Tor 1200L in der Nähe des Spielers 2000 sehen.
  • Durch das (später zu beschreibende) Bildverarbeitungssystem wird auch der Puck 1500 erzeugt und an den HMDs der beiden Spieler angezeigt.
  • <HMD mit Magnetsensor>
  • 4 zeigt die Anordnung bzw. den Aufbau der HMD 210. Diese HMD 210 wird durch Anbringen eines Magnetsensors 220 an dem Hauptkörper eines HMD in beispielsweise der japanischen Patentoffenlegungsschrift Nr. 7-333551 über eine Säule 221 erlangt. In 4 bezeichnet das Bezugszeichen 211 ein LCD-Anzeigefeld. Von dem LCD-Anzeigefeld kommendes Licht tritt in ein optisches Bauteil 212 ein, und wird durch eine Totalreflexionsfläche 214 reflektiert. Dann wird das Licht durch eine Totalreflexionsfläche eines konvexen Spiegels 213 reflektiert, durch die Totalreflexionsfläche 214 hindurchgelassen, und erreicht dann die Augen des Betrachters.
  • Der Magnetsensor 220 verwendete einen Magnetsensor Fastrak, welcher von der Polhemus Corp. erhältlich ist. Da der Magnetsensor leicht durch magnetische Störungen beeinflusst wird, ist er von dem Anzeigefeld 211 und einer Kamera 240 als Störungsquellen mittels eines aus Plastik angefertigten Pols 221 getrennt.
  • Es sei erwähnt, dass die durch Anbringen des Magnetsensors und/oder der Kamera an dem in 4 gezeigten HMD erlangte Anordnung nicht auf eine HMD des optischen Durchsichttyps beschränkt ist. Außerdem kann sogar bei einer HMD des Videodurchsichttyps der Magnetsensor und/oder die Kamera an dieser HMD für den Zweck einer akkuraten Erfassung der Kopfposition und Positur angebracht werden.
  • In 2 ist jede HMD 210 durch ein (nicht dargestelltes) Band an dem Kopf des Spielers fixiert. An dem Kopf des Spielers sind jeweils ein Magnetsensor 220 (4) und eine CCD-Kamera 240 (240L, 240R; 2) befestigt. Das Blickfeld der Kamera ist in die Vorwärtsrichtung des Spielers gesetzt. Wird eine derartige, den Magnetsensor 220 und die Kamera 240 aufweisende HMD bei einem Lufthockeyspiel verwendet, erfasst die Kamera 240, da jeder Spieler die obere Fläche des Tisches 1000 betrachtet bzw. beobachtet, ein Bild der Fläche des Tisches 1000. Der Magnetsensor 220 (220L, 220R) erfasst Änderungen eines durch eine Wechselmagnetfelderzeugungsquelle 250 erzeugten Wechselmagnetfelds.
  • Wie es beschrieben werden wird, werden durch die Kamera 240 erfasste Bilder zur Korrektur einer durch den Magnetsensor 220 erfassten Position und Positur eines Kopfes verwendet werden.
  • Blickt der Spieler schräg nach unten, um die Fläche des Tisches 1000 zu betrachten bzw. zu beobachten, kann er oder sie die Fläche des Tisches 1000, den zuvor erwähnten virtuellen Puck 1500, die echten Schläger 260 (260L, 260R), und das virtuelle Tor 1200 (1200L, 1200R) innerhalb des Blickfelds über die HMD 210 sehen. Bewegt der Spieler den Kopf innerhalb einer horizontalen zweidimensionalen Ebene horizontal, oder macht er eine geneigte, gescherte oder rollende Bewegung, werden derartige Änderungen durch den Magnetsensor 220 erfasst, und sie werden auch als Änderungen in einem durch die CCD-Kamera 240 erfassten Bild gemäß von Änderungen in der Positur des Kopfes beobachtet bzw. betrachtet. Genauer wird das die Kopfposition angebende Signal von dem Magnetsensor 220 korrigiert werden, indem Bilder von der Kamera einer Bildverarbeitung unterzogen werden, wie es später beschrieben wird.
  • <Eine Vielzahl von Markierungen>
  • Ein von jedem Spieler gehaltener Schläger 260 weist an seinem entfernten Ende eine Infrarotstrahlerzeugungseinrichtung auf, und durch eine die Infrarotstrahlen erfassende CCD-Kamera 230 wird jede Schlägerposition in einer zweidimensionalen Ebene an dem Tisch 1000 erfasst. Genauer ist die Kamera 230 derart zur Verfügung gestellt, dass sie Schlägerpositionen der Spieler erfassen kann, und die erfassten Positionen der Spieler werden für dieses Ausführungsbeispiel zum Beschleunigen oder Fortsetzen des Spiels verwendet.
  • Andererseits gibt die CCD-Kamera 240 ein ein Markierungsbild genanntes Bild aus.
  • 5 zeigt ein Beispiel des Layouts von Markierungen an dem Tisch 1000. In 5 finden fünf durch runde Marken angegebene Marksteine, d.h. Markierungen (1600 bis 1604), als Hilfe zur Erfassung der Kopfposition des Spielers 2000 Verwendung, und fünf durch quadratische Marken angegebene Marksteine, d.h. Markierungen (1650 bis 1654) werden zur Unterstützung einer Erfassung der Kopfposition des Spielers 3000 verwendet. Sind eine Vielzahl von Markierungen angeordnet, wie in 5 gezeigt, wird die durch den Spieler gesehene Markierung durch die Kopfposition des Spielers, insbesondere die Positur, bestimmt. Mit anderen Worten, wird die durch die an jedem Spieler angebrachte CCD-Kamera 240 erfasste Markierung zur Erfassung der Position in dem Bild spezifiziert, kann das Ausgangssignal aus dem Magnetsensor zur Erfassung der Kopfpositur des Spielers korrigiert werden.
  • Es sei erwähnt, dass die runden und quadratischen Marken in 5 für die Zwecke einer Veranschaulichung verwendet werden, und diese Marken haben keine Merkmale in Bezug auf ihre Form, sondern können irgendwelche anderen beliebigen Formen annehmen.
  • Die den beiden Spielern (2000, 3000) zugewiesenen Markierungsgruppen (1600 bis 1604, 1650 bis 1654) haben verschiedene Farben. Bei diesem Ausführungsbeispiel sind die Markierungen für den linken Spieler (#1-Spieler) rot, und diejenigen für den rechten Spieler (#2-Spieler) sind grün. Derartige Farben ermöglichen eine einfache Identifikation der Markierungen bei der Bildverarbeitung.
  • Es kann vorgeschlagen werden, Markierungen mit ihrer Form und/oder Textur, jedoch nicht mit ihrer Farbe zu identifizieren.
  • Das Merkmal dieses Ausführungsbeispiels liegt in der Verwendung einer Vielzahl von Markierungen. Da eine Vielzahl von Markierungen Verwendung findet, fällt zumindest eine Markierung immer innerhalb das Blickfeld der CCD-Kamera 240, solange wie die Spieler das Spiel an dem Tisch 1000 innerhalb des Betriebsbereichs bzw. Operationsbereichs des Lufthockeyspiels spielen.
  • 6 veranschaulicht den Bewegungszustand der Bildverarbeitungsbereiche zur Erfassung der Markierungen, wenn der Spieler den Kopf verschiedenartig bewegt. Wie in 6 gezeigt, umfasst ein Bild zumindest eine Markierung. Mit anderen Worten sollte die Anzahl von Markierungen, das Intervall zwischen benachbarten Markierungen, und dergleichen, entsprechend zu der Größe des Tisches 1000, dem Gebiets- bzw. Feldwinkel der Kamera 240, und der Größe des Bewegungsbereichs jedes Spielers auf der Grundlage der Gegebenheiten des Spiels gesetzt werden. Bei dem Beispiel von 5 muss das Intervall zwischen benachbarten Markierungen erhöht werden, da mit zunehmender Entfernung der Markierungen von dem Spieler ein breiterer Bereich innerhalb des Blickfelds fällt. Diese Anordnung setzt den Abstand zwischen sich nah beieinander befindenden Markierungen in dem Bild gleich demjenigen zwischen weiter entfernten Markierungen, und hält die Anzahl von innerhalb eines Bildes eines weiter entfernten Bereiches enthaltenen Markierungen auf einem geringen Wert. Mit derartigen Einstellungen wird eine Verschlechterung bei einer Genauigkeit der Markierungserfassung vermieden. Somit haben sowohl die näher liegenden als auch die weiter entfernt liegenden Markierungen im Wesentlichen gleiche Markierungsdichten, welche in dem Bild eingefangen werden, und es kann verhindert werden, dass unerwünschterweise zu viele Markierungen in einem Rahmen erfasst werden.
  • Wie es später beschrieben werden wird, weist die als Ausführungsbeispiel dargestellte Spielvorrichtung nicht zu viele Markierungen auf, es ist zumindest eine Markierung ausreichend, welche in Bildern durch die Kamera erfasst wird. Die Vorrichtung muss während des Spielfortschritts nicht fortgesetzt dieselbe Markierung weiter verfolgen.
  • <MR-Bilderzeugungssystem>
  • 7 zeigt ein dreidimensionales Bilderzeugungs-/Darstellungssystem bei der in 2 gezeigten Spielvorrichtung. Das Spielerzeugungs-/Darstellungssystem gibt dreidimensionale virtuelle Bilder (der Puck 1500 und die Tore 1200 in 3) auf die Anzeigevorrichtungen der HMD 210L des linken Spielers 2000 und die HMD 210 des rechten Spielers 3000 aus. Durch Bilderzeugungseinheiten 5050L und 5050 werden rechte und linke Parallaxenbilder für dreidimensionale virtuelle Bilder erzeugt. Bei diesem Ausführungsbeispiel verwendete die Bilderzeugungseinheit 5050 ein Computersystem "Onyx2", welches von Silicon Graphics, Inc., U.S.A. erhältlich ist.
  • Jede Bilderzeugungseinheit 5050 empfängt durch eine Spielstatusverwaltungseinheit bzw. Spielstatusmanagementeinheit 5030 erzeugte Puckpositionsinformationen und Informationen, welche mit der korrigierten Ansichtspunktposition und Kopfrichtung in Zusammenhang stehen, welche durch zwei Korrekturverarbeitungseinheiten 5040L und 5040 erzeugt werden. Die Spielstatusmanagementeinheit 5030 und die Korrekturverarbeitungseinheiten 5040L und 5040 verwendeten die Computersysteme "Onyx2".
  • Die über dem Zentrum des Tisches 1000 fixierte CCD-Kamera 230 kann die gesamte Fläche des Tisches 1000 innerhalb ihres Blickfelds einfangen. Durch die Kamera 230 akquirierte Schlägerinformationen werden in eine Schlägerpositionsmesseinheit 5010 eingegeben. Die Messeinheit 5010 verwendete in ähnlicher Weise ein Computersystem "02", welches von Silicon Graphics, Inc. erhältlich ist. Die Messeinheit 5010 erfasst die Schlägerpositionen der beiden Spieler, d.h. ihre Handpositionen. Die mit den Handpositionen in Zusammenhang stehenden Informationen werden in die Spielstatusmanagementeinheit 5030 eingegeben, welche den Spielzustand verwaltet bzw. managt. Genauer werden der Spielzustand und der Fortschritt des Spiels im Wesentlichen durch die Schlägerpositionen bestimmt.
  • Eine Positions-/Positurerfassungseinrichtung 5000 mit einem von Silicon Graphics, Inc. erhältlichen Computersystem "02" erfasst die Ansichtspunktpositionen und Kopfposituren der beiden Spieler (welches die Position und Positur des Sensors 2020 selbst sind) durch Empfang der Ausgaben der beiden Magnetsensoren 220L und 220R, erfasst Ansichtspunkteposition (X, Y, Z) und – positur (p, r, ϕ) bei der an jedem Spieler montierten Kamera 240, und gibt sie dann an die Korrekturverarbeitungseinheiten 5040L und 5040R aus.
  • Andererseits akquirieren die an den Köpfen der Spieler fixierten CCD-Kameras 240L und 240R Markierungsbilder, welche jeweils durch Markierungspositions-Erfassungseinheiten 5060L und 5060R verarbeitet werden, um so Positionen von aufgespürten Markierungen zu erfassen, welche innerhalb die jeweiligen Blickfelder der individuellen Kameras 240 fallen. Die mit der Markierungsposition in Zusammenhang stehenden Informationen werden in die Korrekturverarbeitungseinheit 5040 (5040L, 5040R) eingegeben.
  • Es sei erwähnt, dass Markierungspositions-Erfassungseinheiten 5060 (5060L, 5060R), welche in jeweiligen durch die Kameras erfassten Bildern jeweilige Markierungen aufspüren, die Computersysteme "O2" aufwiesen.
  • <Schlägerpositionsmessung>
  • 8 bis 10 sind Flussdiagramme der Steuersequenz zur Messung der Schlägerposition. Ein Verfolgen der Schlägerpositionen der Spieler mit der einzelnen Kamera 230 ermöglicht ein zur Verfügung stellen eines durch die Spieler gemeinsam genutzten Raumes gemischter Realität. Unter Bezugnahme auf 8 bis 10 wird die Messung von Schlägerpositionen gemäß dem Ausführungsbeispiel beschrieben.
  • Bei dem Lufthockeyspiel bewegt jeder Spieler niemals seinen oder ihren eigenen Schläger in die Region des anderen Spielers. Aus diesem Grund muss die Verarbeitung zur Suche nach dem Schläger 260L (260R) des linken Spielers 2000 (rechten Spielers 3000) nur für Bilddaten IL (Bilddaten IR) des linken Felds (rechten Felds) vorgenommen werden, wie in 11 gezeigt. Es ist einfach, das durch die fixierte CCD-Kamera 230 akquirierte Bild in zwei Regionen aufzubrechen, wie in 11 gezeigt.
  • Daher wird bei dem in 8 gezeigten Flussdiagramm die Verarbeitung zur Suche nach dem Schläger 260L des Spielers #1 (Spieler 2000) bei Schritt S100 vorgenommen, und diejenige zur Suche nach dem Schläger 260R des Spielers #2 (Spieler 3000) wird bei Schritt S200 vorgenommen.
  • Die Suche nach dem Schläger des rechten Spielers (Schritt S200) wird nachstehend aus Gründen der Vereinfachung als Beispiel dargestellt.
  • In Schritt S210 werden Mehrfachwertbilddaten der durch die TV-Kamera 230 erfassten Fläche des Tisches 1000 akquiriert. Bei Schritt S212 setzen sich die Bilddaten IR der rechten Hälfte von diesen Mehrwertbilddaten mit einer Unterroutine "in lokaler Region suchen" fort. 9 zeigt die "in lokaler Region suchen"-Verarbeitung im Detail. Wird bei Schritt S212 die Schläger-Koordinatenposition (x, y) in dem Bildkoordinatensystem gefunden, setzt sich der Fluss von Schritt S214 zu Schritt S220 fort, und die Schlägerkoordinatenposition (x, y) in dem Bildkoordinatensystem wird in eine Koordinatenposition (x', y') in dem Koordinatensystem (vgl. 13) des Tisches 1000 transferiert, unter Verwendung von:
    Figure 00270001
    wobei die Matrix MT eine bekannte 3 × 3-Transformationsmatrix ist, welche eine Kalibrierung zwischen dem Bild- und Tischkoordinatensystem erzielt. Die bei Schritt S220 erlangte Koordinatenposition (x', y') (in 3 ist die Position (x', y') als die "Handposition" angegeben) wird an die Spielstatusmanagementeinheit 5030 gesendet.
  • Kann der Schläger nicht in der lokalen Region gefunden werden, wird bei Schritt S216 eine Unterroutine "in globaler Region suchen" ausgeführt. Wird der Schläger bei der Unterroutine "in globaler Region suchen" gefunden, wird die erlangte Koordinatenposition bei Schritt S220 in diejenige in dem Tischkoordinatensystem transferiert. Es sei erwähnt, dass die aus der lokalen oder globalen Region erlangte Koordinatenposition bei einer Suche nach dem Schläger in der lokalen Region für den nächsten Rahmen bzw. Vollbild Verwendung findet.
  • 9 zeigt die Verarbeitung zur Suche nach dem Schläger in der lokalen Region (d.h. Schritt S212 im Detail). Diese Suchverarbeitung wird aus Gründen der Vereinfachung für das rechte Feld vorgenommen, jedoch gilt dasselbe für die Schlägersuchverarbeitung für das linke Feld.
  • Bei Schritt S222 wird eine rechteckige Region mit einer Größe ((2A + 1) × (2B + 1)-Bildelementen) extrahiert, welche durch die nachfolgenden Gleichungen definiert ist:
    Figure 00280001
    wobei I'x und I'y Koordinantenwerte der bei dem vorangehenden Vollbild erfassten Schlägerposition sind, und A und B die Größe der Suchregion bestimmende Konstanten sind, wie in 12 gezeigt.
  • Bei Schritt S230 wird ein Bildelement, dessen Merkmalsbewertungswert IS (x, y) eine gegebene Bedingung erfüllt, von allen Bildelementen innerhalb der bei Schritt S222 definierten rechteckigen Region extrahiert. Für den Zweck des Findens des Schlägers wird vorzugsweise eine Ähnlichkeit bzw. Gleichheit eines Bildelementwerts (Infrarotstrahlintensitätswert) als der Merkmalsbetrag verwendet. Bei diesem Ausführungsbeispiel wird, da der Schläger einen Infrarotstrahlgenerator bzw. eine Infrarotstrahlerzeugungseinrichtung aufweist, ein Objekt bzw. Gegenstand mit einem Merkmal einer entsprechenden Infrarotstrahlintensität versuchsweise als ein Schläger bestimmt.
  • Genauer wird bei Schritt S232 eine Suche nach einem Bildelement vorgenommen, dessen Ähnlichkeit IS gleich oder größer als ein vorbestimmter Schwellwert bzw. Grenzwert ist, d.h. welcher dem Schläger nahe kommt. Wird ein derartiges Bildelement gefunden, speichert ein Zähler N den akkumulierten Wert der Auftrittsfrequenz. Außerdem werden die x- und y-Koordinatenwerte eines derartigen Bildelements kumulativ in Registern SUMx und SUMy gespeichert. Das heißt, es gilt: N = N + 1 SUMx = SUMx + x (4) SUMy = SUMy + y
  • Bei Beendigung von Schritt S230 sind die Anzahl N von allen Bildelementen, die dem von dem Schläger in dem in 12 gezeigten Region kommenden Infrarotstrahlmuster ähnlich sind, und die Summenwerte SUMx und SUMy der Koordinatenwerte erlangt. Gilt N = 0, wird bei Schritt S236 ein Ergebnis "nicht gefunden" ausgegeben. Gilt N > 0, wird es bestimmt, dass ein Objekt gefunden ist, welches wahrscheinlich ein Schläger ist, und bei Schritt S238 wird die Schlägerposition berechnet durch:
    Figure 00290001
  • Bei Schritt S220 (8) wird die berechnete Schlägerposition (Ix, Iy) in diejenige des Tisch-Koordinatensystems transferiert, und der transferierte Wert wird an die Managementeinheit 5030 als ein die "Handposition" repräsentierendes Signal weitergegeben.
  • 10 zeigt die Sequenz der Suche einer globalen Regionssuche bei Schritt S216 im Detail.
  • Bei Schritt S240 in 10 wird der Maximalwert der Merkmalsbewertungswerte IS unter Bildelementen, welche erfüllen: {(x, y) | x > 0, x < Breite, x = nC, y > 0, y < Höhe, y = mD (wobei n und m ganze Zahlen sind)} (6)in dem Bild IR des rechten Feldes in einem Register Max gespeichert. Es sei erwähnt, dass C und D Konstanten sind, welche die Grobheit der Suche bestimmen, und Breite und Höhe definiert sind, wie in 15 gezeigt. Das heißt, es wird bei Schritt S242 geprüft, ob der Merkmalsbetrag IS den in dem Grenzwertregister Max gespeicherten Grenzwert überschreitet. Wird ein derartiges Bildelement gefunden, wird dieser Merkmalsbetrag bei Schritt S244 als ein neuer Grenzwert gesetzt durch: Max = IS (x, y) Ix = x (7) Iy = y
  • Bei Schritt S246 wird der Koordinatenwert (Ix, Iy) des Bildelements, welches bei der globalen Suche als am wahrscheinlichsten als ein Schläger gefunden ist, an Schritt S220 weitergegeben.
  • Auf diese Weise wird der Schläger aus dem Bild gefunden, und sein in den Koordinatenwert des Tischkoordinatensystems transferierter Koordinatenwert wird an die Spielstatusmanagementeinheit 5030 transferiert.
  • <Spielstatusverwaltung bzw. Spielstatusmanagement>
  • 13 zeigt das Spielfeld des Lufthockeyspiels dieses Ausführungsbeispiels. Dieses Feld ist in der zweidimensionalen Ebene an dem Tisch 1000 definiert und weist x- und y-Achsen auf. Außerdem hat das Feld zwei, das heißt eine rechte und linke virtuelle Torlinie 1200R und 1200L, und in der Aufwärts- und Abwärtsrichtung von 13 angeordnete virtuelle Wände 1300a und 1300b. Die Koordinatenwerte der virtuellen Torlinien 1200R und 1200L und virtuellen Wände 1300a und 1300b sind bekannt und bewegen sich niemals. Auf diesem Feld bewegt sich das virtuelle Bild des Pucks 1500 in Entsprechung zu den Bewegungen der Schläger 260R und 260L.
  • Der Puck 1500 hat Koordinateninformationen PP und Geschwindigkeitsinformationen vP bei der gegenwärtigen Position, der linke Schläger 260L hat Koordinateninformationen PSL und vSL bei der gegenwärtigen Position, und der rechte Schläger 260R hat Koordinateninformationen PSR und vSA bei der gegenwärtigen Position.
  • 14 ist ein Flussdiagramm zur Erläuterung der Verarbeitungssequenz bei der Spielstatusmanagementeinheit 5030.
  • Bei Schritt S10 werden die Anfangsposition PP0 und Anfangsgeschwindigkeit vP0 des Pucks 1050 gesetzt.
  • Es sei erwähnt, dass der Puck sich mit einer gleichen Geschwindigkeit vP bewegt. Außerdem unterliegt der Puck einer perfekten elastischen Kollision, wenn er gegen eine Wand oder die Schläger kollidiert, d.h. seine Geschwindigkeit/Richtung wird umgekehrt.
  • Die Spielstatusmanagementeinheit 5030 erlangt aus den durch die Schlägerpositionsmesseinheit 5010 gemessenen Schlägerpositionsinformationen PS Geschwindigkeitsinformationen vS.
  • Schritt S12 wird mit Dt Zeitintervallen ausgeführt, bis einer der beiden Spieler das Spiel gewinnt (bei Schritt S50 wird es bestimmt, dass ein Spieler zuerst drei Punkte des Spiels gewonnen hat).
  • Bei Schritt S12 wird die Puckposition aktualisiert als: PP = PP0 + VP0·Dt (8)
  • Nachdem die Anfangsposition und Anfangsgeschwindigkeit gesetzt sind, ist die Puckposition im Allgemeinen gegeben als: P = PP + vP·Dt (9)
  • Bei Schritt S14 wird es geprüft, ob die aktualisierte Puckposition PP sich innerhalb des Felds von Spieler #1 (linker Spieler) befindet. Nachfolgend wird ein Fall beschrieben, bei welchem sich der Puck 1500 auf der Seite des linken Spielers befindet.
  • Bei Schritt S16 wird es geprüft, ob die gegenwärtige Puckposition mit dem Schläger 1100L interferiert. Wird es bestimmt, dass sich der Puck 1050 bei einer Position befindet, bei welcher der Puck mit dem Schläger 1100L interferiert, wird das Vorzeichen der x-Geschwindigkeitskomponente der Geschwindigkeit vPx des Pucks 1500, da dies bedeutet, dass der linke Spieler 2000 den Schläger 260L zum Schlagen des Pucks bewegt hat, bei Schritt S18 invertiert, so dass die Bewegung des Pucks 1500 umgekehrt wird, und dann setzt sich der Fluss mit Schritt S20 fort.
  • Es sei erwähnt, dass anstelle eines einfachen Invertierens des Vorzeichens der x-Geschwindigkeitskomponente vPx der Geschwindigkeit der Puck gesteuert werden kann, dass er sich in der entgegengesetzten Richtung bewegt, indem die Manipulationsgeschwindigkeit vSLx des Schlägers zu der x-Richtungsgeschwindigkeit vPx addiert wird, indem berechnet wird: vPx = –vPx + vSLx (10)
  • Andererseits wird, wenn die derzeitige bzw. gegenwärtige Puckposition nicht mit dem Schläger 1000L des linken Spielers interferiert (NEIN bei Schritt S16), der Fluss direkt mit Schritt S20 fortgesetzt.
  • Bei Schritt S20 wird es geprüft, ob die Puckposition Pi+1 mit der virtuellen Wand 1300a oder 1300b interferiert. Lautet die Antwort bei Schritt S20 JA, wird bei Schritt S22 die y-Komponente der Puckgeschwindigkeit invertiert.
  • Dann wird es bei Schritt 24 geprüft, ob sich die gegenwärtige Puckposition innerhalb der Torlinie des linken Spielers befindet. Lautet die Antwort bei Schritt S24 JA, werden die Punkte bzw. der Spielstand des gegnerischen Spielers, d.h. des rechten (#2) Spielers bei Schritt S26 heraufgesetzt. Bei Schritt S50 wird es geprüft, ob einer der beiden Spieler zuerst 3 Punkte erzielt hat. Lautet die Antwort bei Schritt S50 JA, endet das Spiel.
  • Wird es bei Schritt S14 bestimmt, dass sich die Puckposition PP auf der Seite des rechten Spielers (Seite von #2-Spieler) befindet, wird Schritt S30 und die nachfolgenden Schritte ausgeführt. Die Operationen bei den Schritten S30 bis S40 sind im Wesentlichen dieselben, wie denjenigen bei den Schritten S16 bis S26.
  • Auf diese Weise wird der Spielfortschrittszustand verwaltet bzw. gemanagt. Der Spielfortschrittszustand wird durch die Puck- und Schlägerpositionen bestimmt, welche in die Bilderzeugungseinheit 5050 (5050L, 5050R) eingegeben werden, wie zuvor beschrieben.
  • <Korrektur von Kopfposition>
  • 16 zeigt die gesamte Steuersequenz der Verarbeitung bei der Korrekturverarbeitungseinheit 5040 (5040L, 5040R). Die Korrekturverarbeitungseinheit 5040 korrigiert Ansichtspunktpositionsdaten und Kopfpositurdaten, welche durch die Messeinheit 5000 auf der Grundlage der Ausgabe des Magnetsensors 220, welche Ausgabe normalerweise Fehler umfasst, auf der Grundlage der Markierungsposition in dem von der CCD-Kamera 240 erlangten Bild berechnet werden. Das heißt, bei dieser Korrektur wird der Korrekturwert der Position der Kamera 240 (welche mit der Kopfposition nah verwandt ist) von der Markierungsposition in dem durch die Kamera 240 eingefangenen Bild berechnet, und die Ansichtstransfermatrix des Ansichtspunkts wird unter Verwendung des Korrekturwerts korrigiert. Die korrigierte Ansichtstransfermatrix repräsentiert die korrigierte Ansichtspunktposition und Kopfpositur. Mit anderen Worten, die korrigierte Matrix wird ein virtuelles Bild bei dem korrigierten Ansichtspunkt zur Verfügung stellen.
  • 26 veranschaulicht das Prinzip einer Korrektur von Ansichtsposition und Positur der Spieler gemäß dem ersten Ausführungsbeispiel, wobei der Korrekturvorgang äquivalent zu einem Erlangen einer korrigierten Ansichtstransfermatrix ist.
  • Unter Bezugnahme auf 26 hat die Kamera 240 des Spielers gerade eine Markierung 1603 in einem aufgenommenen Bild 300 erfasst. Die Position der Markierung 1603 wird durch (x0, y0) in dem Bildkoordinatensystem in Bezug auf das Bild 300 repräsentiert. Die Position der Markierung 1603 in dem Weltkoordinatensystem wird durch (X0, Y0, Z0) repräsentiert, welches bekannt ist. Da (x0, y0) ein Bildkoordinatenwert ist, während (X0, Y0, Z0) ein Weltkoordinatenwert ist, können sie nicht verglichen werden. Das erste Ausführungsbeispiel berechnet eine Ansichtstransfermatrix der Kamera 240 auf der Grundlage der Ausgabe des Magnetsensors 220, und transferiert dann den Weltkoordinatenwert (X0, Y0, Z0) in einen Bildkoordinatenwert (x'0, y'0). Auf der Grundlage der Tatsache, dass eine Differenz zwischen Koordinatenwerten (x0, y0) und (x'0, y'0) einen Fehler bei den Ausgaben des Sensors 220 impliziert, wird später eine Korrekturmatrix ΔMC zur Korrektur des Unterschieds bzw. der Differenz beschrieben.
  • Wie aus 26 ersichtlich, muss die Vorrichtung gemäß dem ersten Ausführungsbeispiel die Markierung 1603 unter den anderen Markierungen innerhalb des Bildes 300 identifizieren oder unterscheiden. Die Identifizierung oder Unterscheidung wird auf eine derartige Weise vorgenommen, dass (bekannte) dreidimensionale Weltkoordinatenwerte aller Markierungen mittels der Ansichtstransfermatrix MC in Bildkoordinatenwerte konvertiert werden, und dass die Markierung als eine Markierung des Bildkoordinatenwerts identifiziert oder unterschieden wird, welche (x0, y0) am Nächsten liegt. Der mit der Identifikation in Zusammenhang stehende Vorgang wird unter Bezugnahme auf 19 und 20 beschrieben.
  • Nachfolgend wird der durch die Korrekturverarbeitungseinheit 5040 vorgenommene Vorgang unter Bezugnahme auf 16 beschrieben.
  • Bei Schritt S400 wird eine Ansichttransfermatrix (4 × 4) der Kamera 240 auf der Grundlage der Ausgabe von dem Magnetsensor 220 berechnet. Bei Schritt S410 wird die Koordinatenposition, bei welcher jede Markierung in dem Bildkoordinatensystem zu beobachten ist, auf der Grundlage der bei Schritt S400 erlangten Ansichttransfermatrix, einer (bekannten) idealen Projektionsmatrix der Kamera 240 und der (bekannten) dreidimensionalen Position jeder Markierung vorhergesagt.
  • Andererseits verfolgt bzw. spürt die Markierungspositions-Erfassungseinheit 5060 (5060L, 5060R) die Markierung in dem Bild auf, welches von der an dem Kopf des Spielers angebrachten Kamera 240 (240L, 240R) erlangt ist. Die Markierungspositions-Erfassungseinheit 5060 gibt die erfasste Markierungsposition an die Korrekturverarbeitungseinheit 5040 weiter (bei Schritt S420). Die Korrekturverarbeitungseinheit 5040 (5040L, 5040R) bestimmt die gegenwärtig betrachtete bzw. beobachtete Markierung, d.h. eine sich in Korrektur befindende Bezugsmarkierung, auf der Grundlage der bei Schritt S420 weitergeleiteten Markierungspositionsinformationen. Bei Schritt S430 berechnet die Korrekturverarbeitungseinheit 5040 eine Korrekturmatrix ΔMC, welche die von der Kamera 240 und dem Magnetsensor 220 erfasste Position/Positur korrigiert, auf der Grundlage einer Differenz zwischen dem Vorhersagekoordinatenwert der bei Schritt S410 berechneten Markierung und dem beobachteten Koordinatenwert der Markierung (Markierung 1603 bei dem Beispiel von 26), welche durch die Erfassungseinheit 5060 erfasst ist. Der durch die Erfassungseinheit 5060 gemessene Koordinatenwert der Markierung würde mit dem Koordinatenwert der Markierung auf der Grundlage der durch den Sensor 240 erfassten Kopfposition übereinstimmen, solange wie Ausgaben des Sensors korrekt sind. Daher repräsentiert die bei Schritt S430 berechnete Differenz einen Fehler des Sensors 240. Dies ermöglicht eine Korrektur der Position/Positur der Kamera, wie zuvor beschrieben. Die Positionen und Posituren der Kamera und des Ansichtspunkts weisen eine bekannte Beziehung auf, welche durch einen dreidimensionalen Koordinatentransfer repräsentiert wird. Somit wird bei Schritt S440 die bei Schritt S432 berechnete Ansichtstransfermatrix des Ansichtspunkts auf der Grundlage des ΔMC zur Korrektur der Position/Positur der Kamera korrigiert. Die Einheit 5040 gibt dann die korrigierte Transfermatrix an die Bilderzeugungseinheit 5050 (5050L, 5050R) weiter.
  • 17 zeigt die Verarbeitungssequenz zur Erfassung von Markierungspositionen, welche bei der Markierungspositions-Erfassungseinheit 5060 durchgeführt wird.
  • Bei Schritt S500 wird ein durch die Kamera 240 eingefangenes Farbbild empfangen.
  • Danach werden bei den Schritten S502 und S506 zur Erfassung der durch das Bildkoordinatensystem ausgedrückten Markierungsposition (x, y) jeweils eine "Suche in lokaler Region" und "Suche in globaler Region" ausgeführt. Da die "Suche in lokaler Region" bei Schritt S502 und "Suche in globaler Region" bei Schritt S506 im Wesentlichen dieselben sind wie die "Suche in lokaler Region" (9) und "Suche in globaler Region" (10) bei einer Schlägersuche, werden die Beschreibungen der zuvor erwähnten Suchsequenzen zitiert, und es wird eine detaillierte Beschreibung davon ausgelassen. Jedoch verwendet der Merkmalsbetrag IS für eine Markierungssuche bei der zitierten Steuersequenz (Schritt S232) für den Spieler #1 (links) den Bildelementwert des interessierenden Bildelements:
    Figure 00380001
  • Da für den Spieler #1 rote Markierungen (1600 bis 1604) Verwendung finden, drückt dieser Merkmalsbetrag das rötliche Maß aus. Außerdem verwendet der Merkmalsbetrag, da für den Spieler #2 (rechts) grüne Markierungen (1650 bis 1654) Verwendung finden:
    Figure 00380002
  • Darüber hinaus werden diese beiden Beträge als der Merkmalsbetrag IS bei einer globalen Suche verwendet.
  • Der bei Schritt S502 oder S506 erlangte Markierungskoordinatenwert wird bei Schritt S510 unter Verwendung einer Matrix M (mit einer Größe von beispielsweise 3 × 3) in denjenigen eines von einer beliebigen Verzerrung freien idealen Bildkoordinatensystems zur Korrektur einer Verzerrung transferiert. Die zu dieser Zeit verwendete Transfergleichung lautet:
    Figure 00390001
  • Nachfolgend wird die Verarbeitung bei Schritt S410 in 16 unter Bezugnahme auf 18 ausführlich beschrieben.
  • Wie zuvor beschrieben, wird bei Schritt S400 eine Transfermatrix MC (4 × 4 Ansichtstransfermatrix) aus einem Weltkoordinatensystem in das Kamerakoordinatensystem erlangt. Andererseits ist auch eine Transfermatrix PC (4 × 4) von dem Kamerakoordinatensystem in das Bildkoordinatensystem als ein bekannter Wert gegeben. Außerdem ist die dreidimensionale Koordinatenposition (X, Y, Z) der interessierenden Markierung als ein bekannter Wert gegeben.
  • Insbesondere repräsentiert ein Winkel p, wenn ein Winkel r die Rotation (Drehung) in der Z-Achsenrichtung bei der Position der Kamera 240 repräsentiert, die Drehung (Abstand) in der X-Achsenrichtung bei der Position der Kamera 240, und ein Winkel ϕ repräsentiert die Drehung (Scherung bzw. Gieren) in der Z-Achsrichtung bei der Position der Kamera 240, (X0, Y0, Z0) repräsentiert eine Position der Kamera 240, dann ist die Ansichtstransfermatrix MC der Kamera 240, welche eine Matrix zur Durchführung eines Transfers von dem Weltkoordinatensystem in das Kamerakoordinatensystem ist, gegeben durch:
    Figure 00400001
  • Es seien d die Brennweite der Kamera 240, w die Breite der Abbildungsfläche der Kamera, und h die Höhe der Abbildungsfläche. Dann ist eine Matrix PC zur Umwandlung von Kamerakoordinatenwerten in das Bildkoordinatensystem gegeben durch:
    Figure 00400002
  • Als Konsequenz davon wird bei Schritt S520 von 18 (welche dem Schritt S410 von 16 entspricht) die Koordinatenposition (X, Y, Z) der interessierenden Markierung in diejenige (xh, yh, zh) in der Bildebene transferiert, unter Verwendung von:
    Figure 00400003
  • Bei Schritt S522 wird der vorhergesagte Koordinatenwert (x, y) der Markierung bei dem Bildkoordinatensystem erlangt durch:
    Figure 00410001
  • Somit sind durch Schritt S410 vorausgesagte Bildkoordinatenwerte (xi, yi) der Markierungen i gegeben.
  • Nachfolgend wird die "Markierungsbestimmung" bei Schritt S420 beschrieben. 19 zeigt den Fall, bei welchem die Kamera 240 eines Spielers ein Bild 600 auf dem Tisch 1000 eingefangen hat.
  • Es seien beispielsweise M1 bis M7 die an dem Tisch 1000 angeordneten Markierungen, wie sie durch dreieckige Markierungen angegeben sind. Die dreidimensionale Position Mi jeder Markierung ist bekannt. Das Bild 600 umfasst die Markierungen M2, M3, M6 und M7. Andererseits ist die vorausgesagte Beobachtungsposition bzw. Betrachtungsposition jeder Markierung Mi die bei Schritt S520 berechnete Markierung, und sie wird durch Pi ausgedrückt. Ferner repräsentiert Q die Markierungsposition, welche von der Markierungspositions-Erfassungseinheit 5060 erfasst und durch sie weitergeleitet ist.
  • Die "Markierungsbestimmung" bei Schritt S420 bestimmt Pi (d.h. Mi), welchem die von der Markierungspositions-Erfassungseinheit 5060 erfasste Markierungsposition Q entspricht. Bei 19 sei es angenommen, dass ein Sektor ei die Länge, d.h. einen Abstand eines Vektors erfasst, welcher sich von der erfassten Markierungsposition Q zu der vorausgesagten Position Pi jeder Markierung erstreckt.
  • 20 zeigt die Inhalte von Schritt S420 im Detail. Das heißt, die Verarbeitung bei 20 extrahiert eine Markierung, welche einen Minimalwert von den Abständen ei von in dem Bild 600 umfassten Markierungen i (i = 0 bis n) ergibt, und gibt den Identifizierer i dieser Markierung aus. Das heißt, i:Min{ei} (18)
  • Bei dem in 19 gezeigten Beispiel wird, da der Abstand e2 von P2 am kürzesten ist, die Markierung M2 als Daten zur Korrektur der Ausgabe des Magnetsensors verwendet.
  • Wie zuvor beschrieben, muss das Feld im Unterschied zu dem Stand der Technik nicht eingeengt werden, da die Kamera 240 unabhängig von der Bewegung des Spielers mindestens eine Markierung innerhalb des aktiven Bereichs (Felds) des Spielers einfangen kann.
  • Die Verarbeitungsoperationen bei Schritt S430, welche dieselben sind, wie diejenigen, welche unter Bezugnahme auf 1 zuvor beschrieben wurden, berechnet die Transfermatrix ΔMC zur Korrektur der Position und Positur der Kamera auf der Grundlage eines Fehlerabstands emin und ihre Richtung, welche durch die Gleichung 18 erlangt sind.
  • Bei dem parallel mit den Schritten ausgeführten Schritt S432 wird die Ansichtstransfermatrix bei der Ansichtsposition von Spielern auf der Grundlage der Ausgaben des Sensors 220 berechnet. Dann wird, wenn MVC eine (bekannte) Transfermatrix von dem Kamerakoordinatensystem in das Ansichtskoordinatensystem bezeichnet, eine Ansichtstransfermatrix M'VC bei dem korrigierten Ansichtspunkt unter Verwendung der vorangehenden Matrix MVC und der folgenden Gleichung berechnet: ΔMV = MVC·ΔMV·M –1VCVC (19) MV = ΔMV·MV
  • Hierbei repräsentiert MV eine Ansichtstransfermatrix eines Ansichtspunkts, welcher durch die Ausgabe des Sensors erlangt ist und noch nicht korrigiert wurde.
  • Der Fehlerabstand wird in Hinblick auf das Bildkoordinatensystem bei dem ersten Ausführungsbeispiel berechnet, wie in 16 veranschaulicht. Wie jedoch aus 26 ersichtlich und es aus dem später beschriebenen zweiten Ausführungsbeispiel ersichtlich werden wird, kann der Abstand in Bezug auf das Weltkoordinatensystem berechnet werden, wodurch die korrigierte Ansichtstransfermatrix bei einem Ansichtspunkt zur Verfügung gestellt wird.
  • <Verbesserung von Erfassungsgenauigkeit bzw. Erfassungspräzision einer Kopfposition>
  • ... Zweites Ausführungsbeispiel
  • Bei dem vorangehenden ersten Ausführungsbeispiel ist an der HMD 210L (210R) eine Kamera 240L (240R) zur Überwachung einer Vorderansicht angeordnet. Ein durch die Kamera 240 eingefangenes Markierungsbild auf dem Tisch 1000 wird durch die Verarbeitungseinheit 5060 verarbeitet, um die Markierung in dem Bild zu spezifizieren (Schritt S420), wobei die Kopfpositur des Spielers, d.h. die Positur der an dem Kopf angebrachten Kamera, mit anderen Worten eine Ansichtstransfermatrix durch die Kamera mit der Positur, bestimmt wird. Jedoch verursacht das erste Ausführungsbeispiel, welches lediglich Fehler in Hinblick auf das Bildkoordinatensystem verwendet, einen dreidimensionalen Versatz bei der Beziehung zwischen der Kamera und der Markierung.
  • Zusätzlich kann es Fälle für einige Anwendungen einer Darstellung von gemischter Realität geben, bei welcher Markierungen auf eine dreidimensionale Weise positioniert sein sollten. Das in 16 veranschaulichte Identifizierverfahren gemäß dem ersten Ausführungsbeispiel verschlechtert die Zuverlässigkeit.
  • Das zweite Ausführungsbeispiel wird vorgeschlagen, um den zuvor erwähnten dreidimensionalen Versatz mittels einer Ausstattung jedes Spielers mit zwei Kameras zu beseitigen, und Markierungen im Hinblick auf das Weltkoordinatensystem zu erfassen. Das zweite Ausführungsbeispiel wird außerdem vorgeschlagen, um die Beschränkungsbedingung zu entspannen, dass Markierungen auf einer flachen Ebene zu positionieren sind.
  • Insbesondere setzt das zweite Ausführungsbeispiel, wie in 21 gezeigt, zwei an der HMD 210L (210R) des Spielers 2000 (3000) befestigte Kameras 240LR und 240LL (240RR, 240RL) ein, und die Posituren der Kameras 240LR und 240LL (240RR, 240RL) werden aus von diesen Kameras 240LR und 240LL (240RR, 240RL) erlangten stereoskopischen Bildern erfasst.
  • Das zweite Ausführungsbeispiel verwendet zwei an jedem Spieler montierte Kameras, um so mit dreidimensional angeordneten Markierungen zurechtzukommen. Nachfolgend wird jedoch das zweite Ausführungsbeispiel, welches auf eine MR-Darstellung für das Hockeyspiel angewendet wird, unter Verwendung von zweidimensional angeordneten Markierungen beschrieben.
  • 22 zeigt teilweise ein Bildverarbeitungssystem gemäß dem zweiten Ausführungsbeispiel. Das heißt, 22 zeigt die modifizierten Blöcke des Bildverarbeitungssystems des ersten Ausführungsbeispiels (7). Genauer sind beim Vergleich von 7 und 22, auch wenn sich das Bildverarbeitungssystem des zweiten Ausführungsbeispiels von dem ersten Ausführungsbeispiel unterscheidet, da es zusätzlich zu den beiden für jeden Spieler zur Verfügung gestellten Kameras eine Markierungspositions-Erfassungseinheit 5060L' (5050R') und eine Korrekturverarbeitungseinheit 5040L' (5040R') umfasst, die Markierungspositions-Erfassungseinheit 5060L' (5060R') und die Korrekturverarbeitungseinheit 5040L' (5040R') des zweiten Ausführungsbeispiels von der Markierungspositions-Erfassungseinheit 5060L (5060R) und der Korrekturverarbeitungseinheit 5040L (5040R) des ersten Ausführungsbeispiels nur in Bezug auf eine Softwareverarbeitung verschieden.
  • 23 zeigt die Steuersequenz, insbesondere für den linken Spieler 2000, von derjenigen des zweiten Ausführungsbeispiels. Genauer werden nachfolgend Kollaborationen bzw. eine Zusammenarbeit zwischen der Markierungspositions-Erfassungseinheit 5060L', der Positions-/Positurerfassungseinheit 5000, und der Korrekturverarbeitungseinheit 5040L' entsprechend der Steuersequenz in 16 des ersten Ausführungsbeispiels erläutert.
  • In 23 berechnet die Positions-/Positurerfassungseinheit 5000, welche dieselbe wie bei dem ersten Ausführungsbeispiel ist, bei Schritt S398 die Ansichtstransfermatrix eines Ansichtspunkts auf der Grundlage der Ausgabe von dem Magnetsensor 220L. Bei Schritt S400' wird eine inverse Matrix der Ansichtstransfermatrix der Kamera 240LR auf der Grundlage der Ausgabe des Magnetsensors 220L berechnet. Diese Transfermatrix wird an die Korrekturverarbeitungseinheit 5040' gesendet.
  • Bilder von den beiden Kameras 240LL und 240LR werden an die Markierungspositions-Erfassungseinheit 5060L' gesendet. Das heißt, bei Schritt S402 extrahiert die Erfassungseinheit 5060L' aus einem durch die rechte Kamera 240LR eingefangenen Bild R ein Markierungsbild mR. ImR repräsentiert die Koordinatenposition der extrahierten Markierung (d.h. die Betrachtungskoordinatenposition). Bei Schritt S404 extrahiert die Erfassungseinheit 5060L' aus einem durch die rechte Kammer 240LL eingefangenen Bild ein Markierungsbild mL. ImL repräsentiert die Koordinatenposition der extrahierten Markierung. Da die Markierungsbilder mR und mL von einer identischen Markierung mX stammen, wird bei Schritt S406 auf der Grundlage des Prinzips einer trigonometrischen Messung aus dem Paar von betrachteten Markierungskoordinatenpositionen (ImR, ImL) eine aus dem Koordinatensystem der Kamera 240LR extrahierte dreidimensionale Position Cm der betrachteten Markierung berechnet.
  • Bei Schritt S404 wird eine entsprechende Punktsuche des Markierungsbilds mL unter Verwendung einer allgemeinen stereoskopischen Ansichtstechnik vorgenommen. Alternativ kann zur Erzielung einer Hochgeschwindigkeitsverarbeitung der Suchbereich unter Verwendung einer bekannten Epipolarverknüpfung beschränkt werden.
  • Die Schritte S410', S420', S422 und S430' in 23 sind die Verarbeitungsoperationen bei der Korrekturverarbeitungseinheit 5040L'.
  • Bei Schritt S410' wird die dreidimensionale Position Cm der betrachteten Markierung in dem Kamerakoordinatensystem unter Verwendung der bei Schritt S400' berechneten Ansichtstransfermatrix in eine dreidimensionale Position Wm in dem Weltkoordinatensystem transferiert. Bei Schritt S420' werden (bekannte) dreidimensionale Positionen Wmi aller Markierungen mi in dem Koordinatensystem aus einem vorbestimmten Speicher ausgelesen, und es wird Wmi bestimmt, welches den euklidischen Abstand |Wmi – Wm| zwischen jeder Markierung mi und der betrachteten Markierung mX minimiert. Mit anderen Worten wird eine sich der betrachteten Markierung mX am Nächsten liegende bekannte Markierung identifiziert.
  • Auch wenn Wmi und Wm ursprünglich dieselbe Position haben, ist es wahrscheinlich, dass aufgrund eines Fehlers des Sensors 240 ein Fehlervektor D (entsprechend e bei dem ersten Ausführungsbeispiel) vorhanden ist. Daher wird bei Schritt S420' eine Markierung spezifiziert, welche einen dem dreidimensionalen Koordinatenwert (in dem Weltkoordinatensystem) der aufgespürten (beobachteten) Markierung am nächsten liegenden Koordinatenwert Wmi aufweist. Dann wird bei Schritt S430' ein einen Abstand zwischen der aufgespürten Markierung und der bestimmten Markierung repräsentierender Korrekturvektor D berechnet aus: D = Wmi – Wm (20),und dann wird ΔMC erlangt, welches die Position der Kamera um den Vektorbetrag bewegt. Bei Schritt S440' wird eine Ansichtstransfermatrix eines Ansichtspunkts unter Verwendung eines dem ersten Ausführungsbeispiel ähnlichen Verfahren berechnet.
  • Auf diese Weise kann, da das zweite Ausführungsbeispiel unter Verwendung der HMD mit zwei Kameras eine Positionserfassung der betrachteten Markierung auf eine dreidimensionale Weise verbessern kann, die Position und Positur eines Ansichtspunkts präzise bzw. genau erfasst, so dass virtuelle und reale Bilder für MR reibungslos verbunden werden können.
  • <Erste Modifikation>
  • Die vorliegende Erfindung ist nicht auf das zuvor genannte erste und zweite Ausführungsbeispiel beschränkt.
  • Bei dem ersten Ausführungsbeispiel verwendet die Verarbeitung zur Erfassung einer Markierung aus dem Bild die zuerst erfasste Markierung als die zu verfolgende bzw. aufzuführende Markierung, wie in 17 gezeigt. Aus diesem Grund kann, wie in beispielsweise 24 gezeigt, wenn ein eine Markierung M1 umfassendes Bild 800 in einem bestimmten Rahmen bzw. Vollbild erlangt wird, falls die Markierung in einer Bildregion 810 des folgenden Vollbilds umfasst ist, auch wenn es sich bei einem Randabschnitt der Region 810 befindet, die Markierung M1 als eine Bezugsmarkierung zur Korrektur bestimmt werden. Wird jedoch beispielsweise ein Bild 820 in dem folgenden Vollbild erlangt, muss die Bezugsmarkierung zur Korrektur, wenn die Markierung M1 außerhalb der Region dieses Bildes liegt, und statt dessen eine Markierung M2 eingeschlossen wird, zu der Markierung M2 geändert werden. Derartige Änderungen bei einer Markierung sind auch erforderlich, wenn ein Aufspüren fehlschlägt, und eine Positionsabweichungskorrektur verwendet die neu aufgespürte Markierung.
  • Als ein Problem, welches sich beim Umschalten der bei einer Korrektur verwendeten Markierung stellt, kann sich ein virtuelles Objekt aufgrund von abrupten Änderungen eines Korrekturwerts beim Wechseln bzw. Schalten der Markierung unnatürlich bewegen.
  • Um dieses Problem zu vermeiden, wird bei einer nachfolgend vorzuschlagenden Modifikation der Korrekturwert des vorangehenden Vollbilds beim Setzen des nächsten Korrekturwerts derart reflektiert, dass eine zeitweise Übereinstimmung zwischen diesen Korrekturwerten bewahrt wird.
  • Genauer seien vt der Korrekturwert (ein eine Bewegung in dem Weltkoordinatensystem repräsentierender dreidimensionaler Vektor) in einem bestimmten Vollbild, und v't-1 der Korrekturwert bei dem vorangehenden Vollbild. Dann wird v't, welches durch die nachstehende Gleichung erlangt wird, als ein neuer Korrekturwert verwendet: v't = α·v't-1 + (1 – α)·vt (21) wobei α eine Konstante (0 ≤ α < 1) ist, welche das Maß eines Einflusses der vorangehenden Informationen definiert. Die vorangehende Gleichung impliziert, dass α das Maß eines Beitrags des Korrekturwerts v't-1 in dem vorangehenden Vollbild repräsentiert, und der bei dem derzeitigen Vollbild erlangte Korrekturwert vt wird bei dem Maß eines Beitrags von (1 – α) verwendet.
  • Mit dieser Steuerung können abrupte Änderungen bei einem Korrekturwert entspannt werden, und es kann verhindert werden, dass ein dreidimensionales virtuelles Bild plötzlich geändert (unnatürlich bewegt) wird. Durch Setzen eines neuen Korrekturwerts a auf einen richtigen Wert kann es verhindert werden, dass ein Objekt sich beim Wechsel bzw. Umschalten der Markierung unnatürlich bewegt.
  • <Zweite Modifikation>
  • Bei dem vorangehenden Ausführungsbeispiel verwendet die Verarbeitung zur Erfassung einer Markierung aus dem Bild, wenn bei einer lokalen Suche keine Markierung gefunden werden kann, unabhängig von der Markierungsposition in dem vorangehenden Vollbild einen Punkt mit der höchsten Ähnlichkeit in dem gesamten Vollbild als die aufzuspürende Markierung. Bei einer nachfolgend vorzuschlagenden Modifikation wird eine Markierungssuche auf der Grundlage der in dem vorangehenden Vollbild gefundenen Markierungsposition vorgenommen. Auch wenn sich das Bildvollbild bei Bewegung des Spielers bewegt hat, ist die Markierung wahrscheinlich bei einer Position vorhanden, welche von der Position bei dem vorangehenden Vollbild nicht stark versetzt ist.
  • 25 ist eine Ansicht zur Erläuterung des Prinzips einer Suche nach einer bei dem vorangehenden Vollbild gefundenen Markierung aus dem gegenwärtigen Vollbild. Die Markierungssuche wird entlang einer derartigen Suchroute vorgenommen, und wenn ein Punkt mit einer Ähnlichkeit gleich oder höher als ein gegebener Grenzwert gefunden ist, wird dieser Punkt als die Markierung verwendet.
  • <Dritte Modifikation>
  • Das vorangehende Ausführungsbeispiel verwendet eine optische HMD. Jedoch ist die vorliegende Erfindung nicht auf eine optische HMD beschränkt, sondern sie kann auf eine Videodurchsicht-HMD angewendet werden.
  • <Vierte Modifikation>
  • Das vorangehende Ausführungsbeispiel bezieht sich auf ein Lufthockeyspiel. Jedoch ist die vorliegende Erfindung nicht auf das Lufthockeyspiel beschränkt. Da die Operationen (beispielsweise Schlägeroperationen) einer Vielzahl von Bedienpersonen unter Verwendung einer einzigen Kameraeinrichtung erfasst und eingefangen werden, können die Operationen der Vielzahl von Bedienpersonen in einem einzelnen virtuellen Raum reproduziert werden. Daher können Ausführungsbeispiele auf beliebige andere Kollaborationsoperationen auf der Grundlage von zumindest zwei Bedienpersonen (beispielsweise eine MR-Darstellung von Gestaltungsarbeiten einer Vielzahl von Personen, ein eine Vielzahl von Spielern erforderndes Kampfspiel) geeignet angewendet werden.
  • <Andere Modifikationen>
  • Es kann eine Modifikation vorgeschlagen werden, bei welcher mehr als drei Kameras bei dem zweiten Ausführungsbeispiel Verwendung finden.
  • Es ist für die Kamera 240 der Ausführungsbeispiele ausreichend, zumindest eine Markierung in durch die Kamera erfassten Bildern einzufangen. Zu viele Markierungen würden in einer Anzahl von in Bildern durch die Kamera eingefangenen Markierungen resultieren, welche eine fehlerhafte Identifikation von Markierungen bei dem vorangehenden Vorgang zur Identifikation einer aufgespürten Markierung verursachen würde, welche in Zusammenhang mit Schritt S430 von 16 und Schritt S430' von 23 beschrieben ist. Daher kann die Anzahl der Markierungen reduziert werden, so dass nur eine Markierung in den Bildern eingefangen werden kann, wenn eine Bewegung der Spieler beschränkt werden kann.
  • Darüber hinaus gibt die zuvor dargelegte Positions-/Positurerfassungsvorrichtung die Ansichtstransfermatrix bei einem Spieleransichtspunkt aus. Jedoch kann eine derartige Vorrichtung als eine Modifikation einen korrigierten Ansichtspunkt der Spieler in einem Format von (X, Y, Z, r, p, ϕ) ausgeben, wobei r einen Drehwinkel, p einen Neigungswinkel und φ einen Gierwinkel bezeichnen.
  • Wie zuvor beschrieben, kann bei den Ausführungsbeispielen der vorliegenden Erfindung, da die Operationen einer Vielzahl von Bedienpersonen durch eine einzelne Kamera oder Sensor eingefangen bzw. ermittelt werden, die zur Präsentierung bzw. Darstellung von MR erforderliche Positionsbeziehung der individuellen Bedienpersonen systematisch erkannt werden.
  • Außerdem wird zumindest eine Kamera in diesem Bild eingefangen, da eine Vielzahl von Markierungen durch die Kamera erfasst wird. Daher kann die Kopfposition der Bedienperson aufgespürt bzw. verfolgt werden, auch wenn sich die Bedienperson über einen breiten Arbeitsbereich oder Bewegungsbereich bewegt, wodurch eine MR-Darstellung über den breiten Bereich ermöglicht wird.
  • Es können viele stark verschiedene Ausführungsbeispiele der vorliegenden Erfindung vorgenommen werden, und die Erfindung ist nicht auf die vorangehenden spezifischen Ausführungsbeispiele beschränkt.

Claims (7)

  1. Vorrichtung zur Darstellung gemischter Realität zur Erzeugung virtueller Bilddaten für einen Betrieb, welcher durch gemeinsames Nutzen eines virtuellen Gegenstands (1500) zwischen einer Vielzahl von Bedienpersonen (2000, 3000) in einer Umgebung gemischter Realität abläuft, zur Anzeige an jeweils an der Vielzahl von Bedienpersonen angebrachten durchsichtigen Anzeigegeräten (210L, 210R), mit einer Erfassungseinrichtung (5010) zur Erfassung von Positionen von jeweiligen Bedienteilen (260L, 260R) der Vielzahl von Bedienpersonen in einem gemeinsamen Koordinatensystem aus einem einzigen erfassten Bild durch Durchführen einer Bildverarbeitung des erfassten Bilds, einer Empfangseinrichtung (5000) zum Empfang von Ansichtspunktpositionen von Sensoren (220L, 220R), wobei jeder davon an den individuellen Bedienpersonen montiert ist, einer Korrektureinrichtung (5040L, 5040R, 5040L', 5040R', 5060L, 5060R, 5060L', 5060R') zur Korrektur von Ansichtsübertragungskoeffizienten, welche zur Übertragung eines Weltkoordinatensystems in ein Kamerakoordinatensystem Verwendung finden und erlangt sind, indem die empfangenen Ansichtspunktpositionen der individuellen Bedienpersonen durch Verwendung von Bildern verwendet werden, welche durch jeweils an dem Kopf der individuellen Bedienperson montierte Kameras (240L, 204R, 240LR, 240LL, 240RR, 240RL) erfasst sind, einer Ablaufmanagementeinrichtung (5030) zum Managen eines Ablaufs des Betriebs, indem die erfassten Positionen von jeweiligen Bedienteilen (260L, 260R) der individuellen Bedienpersonen verwendet werden, und einer Erzeugungseinrichtung (5050L, 5050R) zur Erzeugung von den gemeinsam genutzten virtuellen Gegenstand (1500) repräsentierenden virtuellen Bilddaten, welche von der Ablaufmanagementeinrichtung gemanagt wird, indem die korrigierten Ansichtsübertragungskoeffizienten Verwendung finden.
  2. Vorrichtung zur Darstellung gemischter Realität nach Anspruch 1, wobei jeder Sensor (220L, 220R) eine Position und eine Orientierung des Kopfs einer individuellen Bedienperson erfasst und die Ansichtspunktposition von der erfassten Position und der erfassten Orientierung berechnet.
  3. Vorrichtung zur Darstellung gemischter Realität nach Anspruch 1 oder Anspruch 2, wobei die Erfassungseinrichtung (5010) dahingehend ausgestaltet ist, um die Position eines Bedienteils (260L, 260R) durch Durchführung einer Bildverarbeitung für einen lokalen Bereich des erfassten Bildes zu erfassen, welcher für jede der Bedienpersonen (2000, 3000) bestimmt ist, die das Bedienteil (260L, 260R) bedient, dessen Position einer Erfassung unterzogen ist, und wenn die Position des Bedienteils nicht in dem lokalen Bereich erfasst wird, die Erfassungseinrichtung (5010) dahingehend ausgestaltet ist, um die Position des Bedienteils (260L, 260R) durch Durchführung einer Bildverarbeitung für einen globalen Bereich des erfassten Bildes zu erfassen, das heißt den gesamten Bereich des erfassten Bildes.
  4. Verfahren zur Darstellung gemischter Realität des Erzeugens virtueller Bilddaten für einen Betrieb, welcher durch gemeinsames Nutzen eines virtuellen Gegenstands (1500) zwischen einer Vielzahl von Bedienpersonen (2000, 3000) in einer Umgebung gemischter Realität abläuft, zur Anzeige an jeweils an der Vielzahl von Bedienpersonen angebrachten durchsichtigen Anzeigegeräten (210L, 210R), mit einem Erfassungsschritt des Erfassens von Positionen von jeweiligen Bedienteilen (260L, 260R) der Vielzahl von Bedienpersonen in einem gemeinsamen Koordinatensystem aus einem einzigen erfassten Bild durch Durchführen einer Bildverarbeitung des erfassten Bilds, einem Empfangsschritt des Empfangens von Ansichtspunktpositionen von Sensoren (220L, 220R), wobei jeder davon an den individuellen Bedienpersonen montiert ist, einem Korrekturschritt des Korrigierens von Ansichtsübertragungskoeffizienten, welche zur Übertragung eines Weltkoordinatensystems in ein Kamerakoordinatensystem Verwendung finden und erlangt sind, indem die empfangenen Ansichtspunktpositionen der individuellen Bedienpersonen durch Verwendung von Bildern verwendet werden, welche durch jeweils an dem Kopf einer individuellen Bedienperson montierte Kameras (240L, 204R, 240LR, 240LL, 240RR, 240RL) erfasst sind, einem Ablaufmanagementschritt des Managens eines Ablaufs des Betriebs, indem die erfassten Positionen von jeweiligen Bedienteilen (260L, 260R) der individuellen Bedienpersonen verwendet werden, und einem Erzeugungsschritt des Erzeugens von den gemeinsam genutzten virtuellen Gegenstand (1500) repräsentierenden virtuellen Bilddaten, welche bei dem Ablaufmanagementschritt gemanagt werden, indem die korrigierten Ansichtsübertragungskoeffizienten Verwendung finden.
  5. Verfahren zur Darstellung gemischter Realität nach Anspruch 4, wobei jeder der Sensoren eine Position und eine Orientierung des Kopfs einer individuellen Bedienperson erfasst und die Ansichtspunktposition von der erfassten Position und der erfassten Orientierung berechnet.
  6. Verfahren zur Darstellung gemischter Realität nach Anspruch 4 oder Anspruch 5, wobei der Erfassungsschritt die Position eines Bedienteils durch Durchführen einer Bildverarbeitung für einen lokalen Bereich des erfassten Bildes erfasst, welcher für jede der Bedienpersonen bestimmt wird, die das Bedienteil bedient, dessen Position einer Erfassung unterzogen ist, und wenn die Position des Bedienteils nicht in dem lokalen Bereich erfasst wird, der Erfassungsschritt die Position des Bedienteils durch Durchführen einer Bildverarbeitung für einen globalen Bereich des erfassten Bildes erfasst, das heißt den gesamten Bereich des erfassten Bildes.
  7. Computerprogrammprodukt, welches Anweisungen zur Programmierung eines programmierbaren Verarbeitungsgeräts aufweist, damit es betreibbar wird, um ein Verfahren nach zumindest einem der Ansprüche 4 bis 6 durchzuführen.
DE69835321T 1997-09-01 1998-03-24 Vorrichtung und Verfahren zur Darstellung gemischter virtueller Realität, gemeinsam von mehreren Bedienungspersonen genutzt Expired - Lifetime DE69835321T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP23637597 1997-09-01
JP23637697 1997-09-01
JP23637597 1997-09-01
JP23637697A JP3486536B2 (ja) 1997-09-01 1997-09-01 複合現実感提示装置および方法
JP06582498A JP3450704B2 (ja) 1997-09-01 1998-03-16 位置姿勢検出装置及び情報処理方法
JP6582498 1998-03-16

Publications (2)

Publication Number Publication Date
DE69835321D1 DE69835321D1 (de) 2006-09-07
DE69835321T2 true DE69835321T2 (de) 2006-12-14

Family

ID=27298929

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69835321T Expired - Lifetime DE69835321T2 (de) 1997-09-01 1998-03-24 Vorrichtung und Verfahren zur Darstellung gemischter virtueller Realität, gemeinsam von mehreren Bedienungspersonen genutzt

Country Status (4)

Country Link
US (1) US6522312B2 (de)
EP (1) EP0899690B1 (de)
AT (1) ATE334453T1 (de)
DE (1) DE69835321T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468868B2 (en) 2017-12-20 2022-10-11 Sony Corporation Information processing apparatus and information processing method to perform transition display control

Families Citing this family (248)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50003377D1 (de) * 1999-03-02 2003-09-25 Siemens Ag Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
JP3368226B2 (ja) * 1999-03-26 2003-01-20 キヤノン株式会社 情報処理方法及び情報処理装置
EP1060772B1 (de) * 1999-06-11 2012-02-01 Canon Kabushiki Kaisha Vorrichtung und Verfahren zur Darstellung eines von mehreren Benutzern geteilten Raumes, wo Wirklichkeit zum Teil einbezogen wird, entsprechende Spielvorrichtung und entsprechendes Schnittstellenverfahren
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
DE19942586A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Anordnung zur Vorbereitung eines Crash-Versuches mit einem Kraftfahrzeug
JP3632563B2 (ja) * 1999-10-19 2005-03-23 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
US6635907B1 (en) 1999-11-17 2003-10-21 Hrl Laboratories, Llc Type II interband heterostructure backward diodes
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US6507802B1 (en) * 2000-02-16 2003-01-14 Hrl Laboratories, Llc Mobile user collaborator discovery method and apparatus
US6552698B1 (en) * 2000-05-02 2003-04-22 Agilent Technologies, Inc. Immersive display system
AU2002221662A1 (en) 2000-10-07 2002-04-29 Physoptics Opto-Electronic Gmbh Information system and method for providing information using a holographic element
US8113657B2 (en) * 2000-10-07 2012-02-14 Metaio Gmbh Device and method for determining the orientation of an eye
JP4027031B2 (ja) * 2000-11-16 2007-12-26 株式会社コナミデジタルエンタテインメント 対戦式3dビデオゲーム装置
JP3833099B2 (ja) * 2000-11-17 2006-10-11 キヤノン株式会社 ゲーム機の制御装置及び制御方法及びコンピュータ読み取り可能な制御プログラム
US6690354B2 (en) * 2000-11-19 2004-02-10 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
JP3437555B2 (ja) * 2001-03-06 2003-08-18 キヤノン株式会社 特定点検出方法及び装置
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
SE523098C2 (sv) * 2001-06-19 2004-03-30 Jan G Faeger Anordning och förfarande för att i en reell omgivning skapa en virtuell företeelse
CA2451196A1 (en) * 2001-06-19 2003-01-03 Jan G. Faeger A device and a method for creating an environment for a creature
US20040135744A1 (en) * 2001-08-10 2004-07-15 Oliver Bimber Virtual showcases
US20030062675A1 (en) * 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
DE10297343T5 (de) * 2001-10-22 2005-01-27 University Of Southern California, Los Angeles Erweiterungsfähige Verfolgung durch Linien-Autokalibrierung
FR2833719B1 (fr) * 2001-12-13 2004-02-20 Valeo Vision Procede de correction d'image pour un projecteur d'images tete haute, et dispositif mettant en oeuvre le procede
US7052392B2 (en) * 2001-12-31 2006-05-30 Igt Method and apparatus for providing an advantage to a player in a bonus game
JP3796449B2 (ja) * 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US6811482B2 (en) * 2002-03-05 2004-11-02 Howard Letovsky Video game of chance apparatus
US7650576B2 (en) * 2002-03-07 2010-01-19 Business Objects Americas Method and system for creating graphical and interactive representations of input and output data
EP1349114A3 (de) * 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensorkalibrierungsgerät, Sensorkalibrierungsverfahren, Programm, Speichermedium, Informationsverarbeitungsverfahren und Informationsverarbeitungsgerät
US7169047B2 (en) * 2002-03-28 2007-01-30 Igt Providing an indication of a hidden bonus on a casino gaming apparatus
SE0200983L (sv) * 2002-03-28 2003-09-29 Linus Ab Förfarande och anordning för samordnad presentation av en direktbild och en elektrooptisk bild
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US6782238B2 (en) * 2002-08-06 2004-08-24 Hewlett-Packard Development Company, L.P. Method for presenting media on an electronic device
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
US7789756B2 (en) 2002-09-13 2010-09-07 Igt Wagering gaming device having simulated control of movement of game functional elements
EP1567234A4 (de) * 2002-11-05 2006-01-04 Disney Entpr Inc Videogesteuerte interaktive umgebung
AU2003301043A1 (en) * 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
JP2004213355A (ja) * 2002-12-27 2004-07-29 Canon Inc 情報処理方法
US11033821B2 (en) * 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
US20050059446A1 (en) * 2003-09-15 2005-03-17 Kaminkow Joseph E. Gaming device having a segment elimination game
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP2005107247A (ja) * 2003-09-30 2005-04-21 Canon Inc 位置姿勢推定方法および装置
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP3991020B2 (ja) 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
US7285047B2 (en) * 2003-10-17 2007-10-23 Hewlett-Packard Development Company, L.P. Method and system for real-time rendering within a gaming environment
US8585479B2 (en) 2003-10-20 2013-11-19 Tipping Point Group, Llc System to decode video signal from electronic gaming device and to determine play information
CN102034197A (zh) * 2003-10-24 2011-04-27 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7731360B2 (en) * 2003-11-07 2010-06-08 Neuro Kinetics Portable video oculography system
JP3851907B2 (ja) * 2004-02-18 2006-11-29 株式会社ソニー・コンピュータエンタテインメント 画像表示システム及びビデオゲームシステム
JP3904562B2 (ja) * 2004-02-18 2007-04-11 株式会社ソニー・コンピュータエンタテインメント 画像表示システム、記録媒体及びプログラム
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
WO2005116939A1 (en) * 2004-05-27 2005-12-08 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and image sensing apparatus
US7474318B2 (en) 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method
JP2005339377A (ja) * 2004-05-28 2005-12-08 Canon Inc 画像処理方法、画像処理装置
US20050289590A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
US20050288078A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Game
WO2006023907A2 (en) 2004-08-20 2006-03-02 Igt Gaming device and method having a first interactive game which determines a function of a second wagering game
EP1791612A2 (de) * 2004-08-31 2007-06-06 Information in Place, Inc. Objektorientiertes werkzeug, system und verfahren zur entwicklung von gemischten realitäten und videospielen
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
US8842186B2 (en) 2004-10-25 2014-09-23 I-Interactive Llc Control system and method employing identification of a displayed image
US8760522B2 (en) 2005-10-21 2014-06-24 I-Interactive Llc Multi-directional remote control system and method
US8456534B2 (en) 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
KR100659888B1 (ko) * 2005-01-07 2006-12-20 엘지전자 주식회사 이동 단말기의 3차원 영상 처리방법
JP4689684B2 (ja) 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
WO2006098836A2 (en) 2005-03-14 2006-09-21 Cyberscan Technology, Inc. Implementing a secondary game across a plurality of gaming machines
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4677281B2 (ja) * 2005-05-11 2011-04-27 キヤノン株式会社 画像処理方法、画像処理装置
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7895578B2 (en) * 2005-06-13 2011-02-22 Business Objects Software Ltd. Apparatus and method for using connector components to provide connectivity to interactive graphics representative of input and output data
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP4574473B2 (ja) 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
IL169934A (en) 2005-07-27 2013-02-28 Rafael Advanced Defense Sys Real-time geographic information system and method
US9552686B2 (en) * 2005-09-02 2017-01-24 Igt Video and mechanical spinning bonus wheel
US7505784B2 (en) 2005-09-26 2009-03-17 Barbera Melvin A Safety features for portable electronic device
US7920165B2 (en) * 2005-09-26 2011-04-05 Adderton Dennis M Video training system
US8270933B2 (en) 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US20090153468A1 (en) * 2005-10-31 2009-06-18 National University Of Singapore Virtual Interface System
EP1954362A4 (de) 2005-11-22 2011-08-24 Igt Reno Nev Reguliertes spielen und aufführen von spielen mit mehreren akten
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
JP4839827B2 (ja) * 2005-12-26 2011-12-21 コニカミノルタセンシング株式会社 3次元測定装置
US8002619B2 (en) * 2006-01-05 2011-08-23 Wms Gaming Inc. Augmented reality wagering game system
AU2006335282B2 (en) * 2006-01-11 2013-08-29 Igt Chip-based gaming
US7980945B2 (en) * 2006-01-13 2011-07-19 Igt Hierarchical five-wheel gaming methods and gaming machines implementing the same
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
US8348276B2 (en) * 2006-03-01 2013-01-08 Brennan Broadcast Group Pty Ltd Detecting contacts during sporting activities etc
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
CN101401124A (zh) * 2006-03-20 2009-04-01 奥林巴斯株式会社 图像信息处理装置、判定方法以及计算机程序
US9958934B1 (en) 2006-05-01 2018-05-01 Jeffrey D. Mullen Home and portable augmented reality and virtual reality video game consoles
US8766983B2 (en) * 2006-05-07 2014-07-01 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
IL175835A0 (en) 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8013838B2 (en) 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
US7722461B2 (en) * 2006-07-12 2010-05-25 Igt Method and system for time gaming with skill wagering opportunities
US9514596B2 (en) * 2006-07-12 2016-12-06 Igt Method and system for time gaming with skill wagering opportunities
US20080070665A1 (en) * 2006-09-19 2008-03-20 Cyberscan Technology, Inc. Regulated gaming - compartmented freelance code
US20080132331A1 (en) * 2006-09-19 2008-06-05 Cyberscan Technology, Inc. Regulated gaming - virtual display
US7963839B2 (en) * 2006-09-19 2011-06-21 Mudalla Technology, Inc. Regulated gaming exchange
US7931531B2 (en) * 2006-11-08 2011-04-26 Igt Gaming system and method providing an interactive game with automatic wagers
US7950993B2 (en) 2006-11-08 2011-05-31 Igt Gaming system and method providing an interactive game with automatic wagers
JP2010512693A (ja) * 2006-12-07 2010-04-22 アダックス,インク. データの付加、記録および通信のためのシステムと方法
US20080182647A1 (en) * 2007-01-26 2008-07-31 Cyberview Technology, Inc. 3D rendering of 2D legacy game assets
US20080211771A1 (en) * 2007-03-02 2008-09-04 Naturalpoint, Inc. Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment
US20080218331A1 (en) 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
US8888589B2 (en) * 2007-03-20 2014-11-18 Igt 3D wagering for 3D video reel slot machines
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20080266080A1 (en) * 2007-04-30 2008-10-30 Wing Fai Leung Wireless communication system
FR2916069B1 (fr) * 2007-05-11 2009-07-31 Commissariat Energie Atomique Procede de traitement pour la capture de mouvement d'une structure articulee
US8237656B2 (en) * 2007-07-06 2012-08-07 Microsoft Corporation Multi-axis motion-based remote control
US8221290B2 (en) 2007-08-17 2012-07-17 Adidas International Marketing B.V. Sports electronic training system with electronic gaming features, and applications thereof
US8360904B2 (en) 2007-08-17 2013-01-29 Adidas International Marketing Bv Sports electronic training system with sport ball, and applications thereof
US8702430B2 (en) * 2007-08-17 2014-04-22 Adidas International Marketing B.V. Sports electronic training system, and applications thereof
US8753193B2 (en) * 2007-08-30 2014-06-17 Igt Return-driven casino game outcome generator
JP5430572B2 (ja) 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US9703369B1 (en) 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
JP4989417B2 (ja) 2007-10-26 2012-08-01 キヤノン株式会社 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
US8113936B2 (en) 2007-11-01 2012-02-14 Igt Time-based casino gaming using cumulative paytables
US8159682B2 (en) * 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US8669938B2 (en) * 2007-11-20 2014-03-11 Naturalpoint, Inc. Approach for offset motion-based control of a computer
US8574051B2 (en) * 2008-01-18 2013-11-05 Igt Time based casino wagering with optional reinvestment
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US20090280901A1 (en) * 2008-05-09 2009-11-12 Dell Products, Lp Game controller device and methods thereof
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
JP5403974B2 (ja) * 2008-09-09 2014-01-29 キヤノン株式会社 三次元cadシステム
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
KR100974900B1 (ko) 2008-11-04 2010-08-09 한국전자통신연구원 동적 임계값을 이용한 마커 인식 장치 및 방법
US8162742B2 (en) 2008-11-13 2012-04-24 Igt Adjusting payback data based on skill
WO2010082933A1 (en) * 2009-01-16 2010-07-22 World Golf Tour, Inc. Position estimation refinement
JP5806799B2 (ja) 2009-01-26 2015-11-10 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システムおよび情報処理方法
KR101653432B1 (ko) * 2009-01-29 2016-09-01 임머숀 코퍼레이션 그래픽 사용자 인터페이스와의 물리적 상호작용을 해석하는 시스템 및 방법
US8362973B2 (en) * 2009-05-19 2013-01-29 Honeywell International Inc. Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems
US8292720B2 (en) * 2009-05-29 2012-10-23 Igt Gaming system, gaming device and method providing competitive wagering games
US8223196B2 (en) * 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
US20110034227A1 (en) * 2009-08-05 2011-02-10 Wei-Hsuan Wu Reaction-training game machine
JP5525250B2 (ja) * 2009-12-08 2014-06-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームの表示方法及びゲームシステム
KR101313797B1 (ko) 2009-12-18 2013-10-01 한국전자통신연구원 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
EP2348383B1 (de) * 2009-12-31 2017-07-12 Sony Computer Entertainment Europe Limited System und Verfahren zur virtuellen Interaktion
US20120206335A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event, sensor, and user action based direct control of external devices with feedback
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
EP2539759A1 (de) 2010-02-28 2013-01-02 Osterhout Group, Inc. Lokaler werbeinhalt auf einem interaktiven kopfmontierten okular
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
CN102884490B (zh) * 2010-03-05 2016-05-04 索尼电脑娱乐美国公司 在共享的稳定虚拟空间上维持多视图
US9076256B2 (en) * 2010-03-17 2015-07-07 Sony Corporation Information processing device, information processing method, and program
JP5418386B2 (ja) * 2010-04-19 2014-02-19 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8398475B2 (en) 2010-04-27 2013-03-19 Igt Gaming system, gaming device and method providing a first game and a plurality second wagering games each associated with a separate activatable component of the first game
KR101710198B1 (ko) * 2010-06-14 2017-02-27 주식회사 비즈모델라인 홀로그램 객체 표시 방법
JP5149939B2 (ja) * 2010-06-15 2013-02-20 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US9159165B2 (en) 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
AT510808B1 (de) * 2010-11-24 2013-04-15 Kienzl Thomas Dipl Ing Verfahren zur darstellung eines gegenstandes auf einer anzeigeeinheit
US20130201014A1 (en) * 2010-12-09 2013-08-08 Alexander Luchinskiy Method and Device for Indicating of the Turn-Intention of a Vehicle
US20120157204A1 (en) * 2010-12-20 2012-06-21 Lai Games Australia Pty Ltd. User-controlled projector-based games
CN106943742A (zh) * 2011-02-11 2017-07-14 漳州市爵晟电子科技有限公司 一种动作放大系统
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9245307B2 (en) 2011-06-01 2016-01-26 Empire Technology Development Llc Structured light projection for motion detection in augmented reality
CN102294119A (zh) * 2011-08-02 2011-12-28 广州市迪拓信息科技有限公司 一种触控设备感应控制方法及系统
JP2013050883A (ja) 2011-08-31 2013-03-14 Nintendo Co Ltd 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP5791433B2 (ja) * 2011-08-31 2015-10-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US8366532B1 (en) 2011-09-21 2013-02-05 Igt Gaming system, gaming device, and method providing an obstacle board slot game
US8366533B1 (en) 2011-09-21 2013-02-05 Igt Gaming system, gaming device, and method providing an obstacle board slot game
US10030931B1 (en) * 2011-12-14 2018-07-24 Lockheed Martin Corporation Head mounted display-based training tool
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9269217B2 (en) 2012-03-14 2016-02-23 Bally Gaming, Inc. Infrared displays for human interfaces viewable by camera
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
CN103426003B (zh) * 2012-05-22 2016-09-28 腾讯科技(深圳)有限公司 增强现实交互的实现方法和系统
EP2679290A1 (de) * 2012-06-28 2014-01-01 Alcatel-Lucent Verfahren zur Unterstützung einer gemeinsamen Aktivität von Fernkommunikationsvorrichtungen
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP5891125B2 (ja) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9214067B2 (en) 2012-09-06 2015-12-15 Igt Gaming system and method for providing a streaming symbols game
US9039512B2 (en) 2012-09-27 2015-05-26 Igt Gaming system and method for providing a game which populates symbols along a path
JP6112815B2 (ja) * 2012-09-27 2017-04-12 京セラ株式会社 表示装置、制御システムおよび制御プログラム
US9028318B2 (en) 2012-09-27 2015-05-12 Igt Gaming system and method for providing a game which populates symbols along a path
US8992301B2 (en) 2012-09-27 2015-03-31 Igt Gaming system and method for providing a game which populates symbols along a path
CN104937641A (zh) * 2013-02-01 2015-09-23 索尼公司 信息处理装置、客户端装置、信息处理方法以及程序
US8784191B1 (en) 2013-03-07 2014-07-22 Igt Gaming system and method for providing a symbol elimination game
US8851979B2 (en) 2013-03-07 2014-10-07 Igt Gaming system and method for providing a symbol elimination game
US9380295B2 (en) * 2013-04-21 2016-06-28 Zspace, Inc. Non-linear navigation of a three dimensional stereoscopic display
CN105190705B (zh) * 2013-04-24 2019-05-10 川崎重工业株式会社 工件加工作业支持系统及工件加工方法
CA2913218C (en) * 2013-05-24 2022-09-27 Awe Company Limited Systems and methods for a shared mixed reality experience
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10955665B2 (en) * 2013-06-18 2021-03-23 Microsoft Technology Licensing, Llc Concurrent optimal viewing of virtual objects
US20150018072A1 (en) 2013-07-09 2015-01-15 Igt Gaming system and method for resuming a skill-based game after an interruption event
KR20150010432A (ko) * 2013-07-19 2015-01-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US10217284B2 (en) * 2013-09-30 2019-02-26 Qualcomm Incorporated Augmented virtuality
JP2015088096A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
US9626737B2 (en) * 2013-11-15 2017-04-18 Canon Information And Imaging Solutions, Inc. Devices, systems, and methods for examining the interactions of objects in an enhanced scene
CN104657568B (zh) * 2013-11-21 2017-10-03 深圳先进技术研究院 基于智能眼镜的多人移动游戏系统及方法
EP3116616B1 (de) * 2014-03-14 2019-01-30 Sony Interactive Entertainment Inc. Spielevorrichtung mit volumetrischer erfassung
EP2933707B1 (de) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Darstellungseinstellung für kopfmontierte Anzeige
KR20160024168A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 전자 장치
US10948728B2 (en) * 2014-12-15 2021-03-16 Shimadzu Corporation Dynamic image processing device for head mounted display, dynamic image processing method for head mounted display and head mounted display system
JP6474278B2 (ja) * 2015-02-27 2019-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
US10404938B1 (en) 2015-12-22 2019-09-03 Steelcase Inc. Virtual world method and system for affecting mind state
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
US10181218B1 (en) 2016-02-17 2019-01-15 Steelcase Inc. Virtual affordance sales tool
CN105575194B (zh) * 2016-02-23 2018-04-10 吴亚锋 学习机
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US10186106B2 (en) 2016-09-21 2019-01-22 Igt Gaming system and method for determining awards based on interacting symbols
US10182210B1 (en) * 2016-12-15 2019-01-15 Steelcase Inc. Systems and methods for implementing augmented reality and/or virtual reality
AT519722B1 (de) 2017-02-27 2021-09-15 Revolutionary Tech Systems Ag Verfahren zur Detektion zumindest eines Jetonobjekts
US10685456B2 (en) 2017-10-12 2020-06-16 Microsoft Technology Licensing, Llc Peer to peer remote localization for devices
US10026209B1 (en) 2017-12-21 2018-07-17 Capital One Services, Llc Ground plane detection for placement of augmented reality objects
US10002442B1 (en) * 2017-12-21 2018-06-19 Capital One Services, Llc Placement of augmented reality objects using a guide marker
US11262838B2 (en) 2018-01-30 2022-03-01 Sony Corporation Information processing device and information processing method
CN108765270B (zh) * 2018-05-30 2020-01-14 贝壳找房(北京)科技有限公司 一种虚拟三维空间标签绑定方法及装置
JP6611145B1 (ja) * 2018-10-05 2019-11-27 neten株式会社 三人称視点vrシステム及びその使用方法
CN109544694A (zh) * 2018-11-16 2019-03-29 重庆邮电大学 一种基于深度学习的增强现实系统虚实混合建模方法
US11095855B2 (en) * 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
CN111651048B (zh) * 2020-06-08 2024-01-05 浙江商汤科技开发有限公司 多虚拟对象排列展示方法、装置、电子设备及存储介质
CN115735178A (zh) * 2020-06-30 2023-03-03 美国斯耐普公司 具有对话气泡和翻译的增强现实眼戴器
US11273375B1 (en) * 2020-08-28 2022-03-15 Justin Hanyan Wong Methods and systems for rendering virtual three-dimensional field of play for AR-enhanced gameplay experience
GB2603465B (en) * 2021-01-27 2023-01-25 4Gd Ltd System for behaviour monitoring
CN113703582A (zh) * 2021-09-06 2021-11-26 联想(北京)有限公司 图像显示方法和装置
WO2023173162A1 (en) * 2022-03-14 2023-09-21 Bairamian, Daniel An augmented reality point of view synchronisation system
NO20220397A1 (en) * 2022-03-31 2023-10-02 The Social Gaming Group Ip B V Camera-based system for game recognition

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4398799A (en) * 1980-03-04 1983-08-16 Pilkington P.E. Limited Head-up displays
JP3310325B2 (ja) 1992-04-28 2002-08-05 オリンパス光学工業株式会社 ヘッドマウントディスプレイ装置及びそれを用いたシステム
JP2550832B2 (ja) 1992-07-21 1996-11-06 株式会社セガ・エンタープライゼス 仮想現実感生成装置
US5323174A (en) * 1992-12-02 1994-06-21 Matthew H. Klapman Device for determining an orientation of at least a portion of a living body
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5368309A (en) * 1993-05-14 1994-11-29 The Walt Disney Company Method and apparatus for a virtual video game
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
KR970006419B1 (ko) * 1994-02-25 1997-04-28 엘지전자 주식회사 2-플레이어 무선 리모콘 게임 장치
US5903395A (en) * 1994-08-31 1999-05-11 I-O Display Systems Llc Personal visual display system
JP3364856B2 (ja) 1994-11-09 2003-01-08 鹿島建設株式会社 遠隔施工の作業支援画像システム
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468868B2 (en) 2017-12-20 2022-10-11 Sony Corporation Information processing apparatus and information processing method to perform transition display control

Also Published As

Publication number Publication date
EP0899690B1 (de) 2006-07-26
US20020084974A1 (en) 2002-07-04
DE69835321D1 (de) 2006-09-07
EP0899690A2 (de) 1999-03-03
ATE334453T1 (de) 2006-08-15
EP0899690A3 (de) 2000-04-05
US6522312B2 (en) 2003-02-18

Similar Documents

Publication Publication Date Title
DE69835321T2 (de) Vorrichtung und Verfahren zur Darstellung gemischter virtueller Realität, gemeinsam von mehreren Bedienungspersonen genutzt
JP3728160B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
EP3330922B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
EP1864153B1 (de) Objektverfolgungs- und situationsanalysesystem
US6278479B1 (en) Dual reality system
DE112004000128B4 (de) Verfahren und Vorrichtung für die automatische lokale Wegplanung bei der virtuellen Kolonoskopie
US20070098250A1 (en) Man-machine interface based on 3-D positions of the human body
CN105320271A (zh) 利用直接几何建模的头戴式显示器校准
JPH11136706A (ja) 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
DE112004000902T5 (de) Kalibrierung von tatsächlichen und virtuellen Ansichten
JPH09231373A (ja) 三次元位置計測装置
JP2003308514A (ja) 情報処理方法及び情報処理装置
JP4205004B2 (ja) キャリブレーション方法
DE102004061841B4 (de) Markerloses Tracking System für Augmented Reality Anwendungen
Kumar et al. Phantom-based comparison of the accuracy of point clouds extracted from stereo cameras and laser range scanner
WO2016012556A1 (de) Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
Hu et al. Camera self-calibration from ellipse correspondences
DE102005012295B4 (de) Verfahren zur endoskopischen Navigation und zur Eichung von Endoskopsystemen sowie System
Almasi An investigation on deep learning applications for 3D reconstruction of human movements
DE102017208526A1 (de) Marker basierter Kamera-Tracker
EP0824827B1 (de) Verfahren zur erstellung einer objektmaske für videoüberwachungsanlagen
WO2009068336A2 (de) Bildverarbeitungsmodul zur schätzung einer objektposition eines überwachungsobjekts, verfahren zur bestimmung einer objektposition eines überwachungsobjekts sowie computerprogramm
JPH06174463A (ja) 実時間3次元運動測定装置およびその方法
Baricová Analysing the quality of interframe interpolation with optical flow
De Buck et al. Evaluation of a visual matching registration technique for intraoperative surgery support

Legal Events

Date Code Title Description
8364 No opposition during term of opposition