DE69530395T2 - Interaktives projektiertes videobildanzeigesystem - Google Patents
Interaktives projektiertes videobildanzeigesystem Download PDFInfo
- Publication number
- DE69530395T2 DE69530395T2 DE69530395T DE69530395T DE69530395T2 DE 69530395 T2 DE69530395 T2 DE 69530395T2 DE 69530395 T DE69530395 T DE 69530395T DE 69530395 T DE69530395 T DE 69530395T DE 69530395 T2 DE69530395 T2 DE 69530395T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- computer
- presented
- pattern
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
Description
- Die vorliegende Erfindung betrifft ein Verfahren zum Ermöglichen einer Interaktion mit einem präsentierten Videobild, das die folgenden Schritte aufweist:
Verwenden eines Computers, um das Videobild zu erzeugen, wobei das Videobild wenigstens einen vorbestimmten Bereich mit wenigstens einer diesem Bereich zugeordneten, gesteuerten Charakteristik aufweist,
Präsentieren des Videobilds auf einer Betrachtungsoberflä- che,
Beeinflussen des präsentierten Bildes,
visuelles Aufzeichnen des präsentierten Bildes, Einfangen eines Bildes aus der visuellen Aufzeichnung des präsentierten Bildes, das ein Resultat der Beeinflussung beinhaltet,
Vergleichen des eingefangenen Bildes mit dem vom Computer erzeugten Videobild, um das Resultat der Beeinflussung zu erfassen,
Erzeugen eines Steuersignals zum Betätigen des Computers in Reaktion auf das erfasste Resultat. - Des weiteren betrifft die vorliegende Erfindung ein interaktives Anzeigesystem für präsentierte Videobilder, das Mittel zum Erzeugen eines Videobilds, wobei das Videobild zumindest einen vorbestimmten Bereich mit wenigstens einer diesem Bereich zugeordneten, gesteuerten Charakteristik aufweist,
Mittel zum Präsentieren des Videobildes,
Mittel zum visuellen Aufzeichnen des präsentierten Bildes,
Mittel zum Einfangen eines Bildes aus der visuellen Aufzeichnung des präsentierten Bildes,
Bildunterscheidungsmittel zum Vergleichen des eingefangenen Bildes mit dem erzeugten Videobild und zum Erfassen des Resultats eines Einflusses, der auf das präsentierte Bild ausgeübt wird, und
Mittel aufweist, die auf die Bildunterscheidungsmittel ansprechen, um eine Computeroperation zu triggern, wenn das Resultat des Einflusses erfasst ist. - Solch ein Verfahren und System zum Ermöglichen einer Interaktion mit einem präsentierten Videobild ist aus der
US 5 138 304 bekannt. - Die vorliegende Erfindung betrifft allgemein Anzeigesysteme für projizierte Videobilder. Insbesondere betrifft die Erfindung ein computerbasiertes Videoprojektionssystem und ein Verfahren zum Ermöglichen einer direkten Interaktion mit einem projizierten Videobild, ohne dass eine aktive Computereingabevorrichtung nötig ist.
- Anzeigesysteme für projizierte Videobilder der Art, die einen Computer zum Erzeugen eines Videobildes und eine Projektionsvorrichtung zum Projizieren der computererzeugten Video bilder auf einen Vergrößerungsschirm verwenden, sind weit verbreitet, um einer Gruppe von Leuten in einer Umgebung eines Konferenzraums kleiner bis mittlerer Größe Präsentationen vorzustellen. Bei solchen Anzeigesystemen für projizierte Videos möchte man, dass ein Benutzer, der in der Nähe des Projektionsschirms (der beabstandet zum Computer angeordnet ist) steht, Informationen interaktiv in den Computer eingeben kann, um neue Bilder während der Präsentation zu modifizieren oder zu erzeugen.
- Der herkömmliche Weg, eine Interaktion mit einem Computer zu ermöglichen, erfordert das Verwenden eines "aktiven" Elements oder einer Computereingabevorrichtung, um eine Steuerung der Cursorbewegung zu ermöglichen. Beispiele allgemeiner Computereingabevorrichtungen umfassen absolute Positionierer, wie z. B. Lichtstifte und Digital sierungstablette, und auch relative Positionierer, wie z. B. Joysticks, Mäuse und Trackball-Geräte. Solche aktiven Eingabevorrichtungen schränken normalerweise eine effektive Verwendung in Anzeigesystemen für projizierte Videobilder zu sehr ein. z. B. erfordern absolute Positionierer, wie z. B. herkommliche Lichtstifte, dass der Benutzer direkt mit der Videoschirmanzeige des mit dem Computer verbundenen Monitors interagiert. Dies stört die Spontanität der Präsentation, da der Benutzer wiederholt zwischen dem Computermonitor und dem Projektionsschirm vor und zurück laufen muss, wenn der Benutzer das computererzeugte Videobild ändern möchte. Im Falle relativer Positionierer, wie z. B. Trackball-Geräten oder Mäusen, muss der Benutzer im Manipulieren des Trackballs oder der Maus im Raum geschickt sein. Dies kann unangenehm sein und erfordert gewöhnlich den Gebrauch beider Hände (d. h. eine Hand, um den Trackball oder das Mousepad im Raum zu halten, und die andere Hand, um den Trackball oder die Maus zu manipulieren, um den Cursor zu bewegen). Eine solche zweihändige Operation stört ebenfalls den natürlichen Präsentationsfluss.
- Anzeigesysteme für projizierte Videobilder, die einen Handlichtstift verwenden, um es einem Benutzer zu ermöglichen, Licht hoher Intensität direkt auf einen Projektionsschirm zu strahlen, der ein computererzeugtes Bild überträgt, um einem Computer Hilfsinformationen zu liefern, sind aus dem Stand der Technik bekannt. In solchen Systemen gemäß dem Stand der Technik wird eine optische Abfühl- bzw. Abtasteinrichtung verwendet, um das Licht hoher Intensität zu erfassen, das auf das projizierte Bild auf dem Schirm gerichtet ist. Signalverarbeitungsvorrichtungen werden zum Unterscheiden der Änderungen des reflektierten Lichts auf den projizierten Bildern von den computererzeugten Bildern verwendet, um Informationen interaktiv in den Computer einzugeben. Beispielhafte Systeme werden in
US 5 138 304 (oben erwähnt), das an Barry Bronson erteilt ist, und US 5 181 015 offenbart, das an Roger L. Marshall et al. erteilt ist. - Ein Nachteil bei den oben beschriebenen bekannten Systemen ist jedoch, dass die optische Abfühleinrichtung und verbundene Signalverarbeitungsvorrichtungen typischerweise ein Design für den speziellen Zweck aufweisen und deshalb teuer sind. Auch das Erfordernis einer aktiven Eingabevorrichtung, d. h. des Lichtstifts, ist ebenfalls nachteilig, da der Lichtstift während einer Präsentation auf einfache Weise deplaziert, fallengelassen oder beschädigt werden kann oder die Batterien sich leeren können.
- Des weiteren offenbart das Dokument EP A 0 535 988 eine Dateneingabevorrichtung, wobei das Bild einer Oberfläche einer Operationseingabeeinheit (z. B. eine physische Mitteilungstafel in einem medizinische Behandlungssystem) von einer Fernsehkamera aufgenommen wird und, wenn eine Änderung in der Helligkeit eines vorbestimmten Markierungsbereichs des von der Kamera aufgenommenen Bildes auftritt, eine Beurteilungseinheit für eine Operationsposition beurteilt, dass ein Operationselement bei der Position der Helligkeitsänderung durch die Bedienungsperson bedient wurde (z. B. um eine Krankenschwester zu rufen). Es wird zitiert, dass es möglich ist, die Konstruktion eines Operationseingabesystems zum Bilden von Operationseingabeinformationen zu vereinfachen, da keine Signal- bzw. Stromleitung benötigt wird, um die Operationseingabeeinheit (Mitteilungstafel) mit der Eingabevorrichtung zu verbinden.
- Das Dokument GB A 2 173 079 offenbart eine Steuervorrichtung für eine Cursoranzeige, wobei Ausrichtungs- bzw. Justiermittel die Richtung einer Sichtlinie bestimmen, die sich vom Kopf eines Beobachters zu einem Anzeigeservice erstreckt. Des weiteren umfasst die Vorrichtung Projektionsmittel zum Projizieren eines Bildes eines Rasters in die Sichtlinie, um damit bewegt zu werden, und Steuermittel, die betrieben werden können, um die Anzeige eines beweglichen Cursors auf der Anzeigeoberfläche zu bewirken, wenn die Sichtlinie die Anzeigeoberfläche schneidet. Ein solches System kann in einem Cockpit eines Flugzeugs verwendet werden.
- Schließlich offenbart
EP 0 055 366 A ein System zum Fernanzeigen und Abtasten von Informationen unter Verwendung eine r Schattenparallaxe. Ein Informationsbild wird durch eine Licht punktabtastvorrichtung auf einen Arbeitsbereich abgebildet. Die Vorrichtung umfasst sowohl ein Anzeigesystem als auch eine Vielzahl von nicht-überlappenden Sensoren, die Bilder empfangen, die in einer Perspektive gleich sind, sich aber in einer Schattenanordnung (shadow placement) unterscheiden. Ein Computersystem, das einen Prozessor und einen Speicher umfasst, steuert, was verschoben wird, und interpretiert die Informationen, die von den Sensoren empfangen werden. - Es wäre angesichts des oben Erläuterten wünschenswert, einen natürlicheren und unauffälligeren Weg zu schaffen, es einem Benutzer zu ermöglichen, mit einem Computer eines Anzeigesystems für projizierte Videobilder zu interagieren, um das projizierte Bild zu modifizieren. Es wäre auch wünschenswert, ein Anzeigesystem für projizierte Videobilder zu schaffen, das keine aktive Eingabevorrichtung, wie z. B. einen Lichtstift, eine Maus, einen Trackball, etc., erfordert, um Änderungen in einen Computer einzugeben. Insbesondere wäre es wünschenswert, ein interaktives Anzeigesystem vorzusehen, das ein besonderes Merkmal eines Musters optisch erkennen würde, das durch die Kombination des projizierten Videobildes und eines vom Benutze r über das projizierte Bild geführten Objekts geschaffen ist, um eine gewünschte Computeroperation zu triggern. Schließlich wäre es auch wünschenswert, ein solches interaktives Anzeigesystem für projizierte Videos zu schaffen, das das Erfordernis nach einer speziellen Verwendung und teurer optischer Abfühlkomponenten und verbundener Signalverarbeitungsvorrichtungen erübrigt.
- Diese Aufgaben werden durch das Verfahren eines Ermöglichens einer Interaktion mit einem präsentierten Videobild der eingangs erwähnten Art gelöst, wobei der Schritt des Beeinflussens des präsentierten Bilds durch Einführen eines speziellen Musters oder einer Musteränderung über das präsentierte Bild auf der Betrachtungsoberfläche für eine vorbestimmte minimale Zeitspanne durchgeführt wird, wobei das eingefangene Bild das spezielle Muster oder die Musterveränderung enthält, wobei der Vergleichsschritt erfolgt, um das Vorhandensein des speziellen Musters oder der Musterveränderung in dem vorbestimmten Bereich in Relation zu der wenigstens einen gesteuerten Charakteristik zu erfassen, und das Steuersignal in Reaktion auf das Vorhandensein des speziellen Musters oder der Musterveränderung erzeugt wird.
- Des weiteren werden die oben genannten Aufgaben durch ein interaktives Anzeigesystem für präsentierte Videobilder gelöst, wie es eingangs erwähnt ist, wobei die Bildunterscheidungsmittel dazu ausgelegt sind, ein spezielles Muster oder eine Musterveränderung zu unterscheiden, das bzw. die über das präsentierte Bild eingeführt ist, und das Vorhandensein des speziellen Musters oder der Musterveränderung, das bzw. die in dem vorbestimmten Bereich. über das präsentierte Bild eingeführt ist, und dessen Relation zu der wenigstens einen gesteuerten Charakteristik zu erfassen, und wobei die Mittel die Computeroperation triggern, wenn das eingeführte spezielle Muster oder die Musterveränderung erfasst wird.
- Im Allgemeinen sieht die vorliegende Erfindung ein interaktives Anzeigesystem für projizierte Videobilder vor, das einen Computer zum Erzeugen von Videobildern, eine Projektionsvorrichtung, die an den Videoausgangsport des Computers zum Projizieren von computergenerierten Videobildern auf einen Projektionsschirm angeschlossen ist, und eine optische Aufzeichnungsvorrichtung aufweist, wie z. B. eine herkömmliche Videokamera, die auf die Projektionsoberfläche gerichtet ist, um das projizierte Bild visuell aufzuzeichnen. Der Computer umfasst eine Bildfangschaltungsplatte oder ähnliche Bildeinfangmittel, die an die Videokamera zum Einfangen individueller Rahmen oder Serien von Rahmen aus der Videoaufzeichnung des projizierten Bilds gekoppelt ist bzw. sind. Die eingefangenen Bilder werden dann mit den computergenerierten Bildern verglichen, um das Vorhandensein eines Objekts mit einem bestimmten Merkmal oder einem erkannten Muster/Merkmal zu erfassen, das durch die Kombination des eingeführten Objekts und des Videobildes geschaffen ist. Das erfasste Objekt zeigt dem Computer einen Befehl an, wie z. B. das Videobild zu modifizieren.
- Das Objekt wird während einer Präsentation durch einen Benutzer über das projizierte Bild eingeführt. Das Objekt kann irgendein geeignetes Zeigeelement mit einem wiedererkennbaren Merkmal, wie z. B. eine Hand oder Finger des Benutzers, die in einer besonderen Orientierung oder einem besonderen Winkel gehalten wird bzw. werden, ein Zeiger, ein Stift etc., umfassen. Die Mittel zum Erfassen des Zeigeelements und zum Aktivieren des Computers, um bestimmte Aufgaben durchzuführen, wird vorzugsweise von einem Softwareprogramm verkörpert, das in Übereinstimmung mit bekannten Bilderverarbeitungsalgorithmen und techniken geschrieben ist.
- In einem ersten Betriebsmodus könnte der Benutzer ein "Anklicken" einer Taste simulieren, die im projizierten Bild enthalten ist. Die Taste enthält einen Befehl, um dem Computer zu signalisieren, eine gewisse Aufgabe auszuführen, wie z. B. zum nächsten Bild fortzuschreiten, ein Bild in einem Speicher zu speichern, etc. In diesem Modus ist der Ort der Taste vorbestimmt und dem Computer bekannt. Der Benutzer platziert das Zeigeelement über der Taste auf dem Projektionsbild. Während dieser Zeit zeichnet die Videokamera diese Aktivität auf.
- In Übereinstimmung mit dem Merkmalserkennungsvorgang wird die Bildfangschaltung einen einzelnen Rahmen einfangen, der die Taste und den Zeiger beinhaltet. Dann wird ein Durchsuchen eines Blockbereichs auf dem eingefangenen Bild durchgeführt, der dem Tastenort entspricht. Bei einer Erfassung des Zeigeelements wird ein Aktivierungssignal erzeugt, und der Computer wird den Befehl ausführen, der der ausgewählten Taste entspricht.
- Bei einer einfachen Anwendung des ersten Betriebsmodus, wobei die Anwendung nicht zur Erfindung gehört, wird eine Grauwertvergleichstechnik verwendet, um die Menge des Schattens zu prüfen, die in der projizierten Taste vorhanden ist, indem mit anderen Teilen der Projektionsoberfläche verglichen wird, wo die Lichtintensität bekannt ist, oder indem mit dem Niveau des Schattens (level of shadowing) verglichen wird, das ursprünglich beim gleichen Tastenbereich gemessen wurde. In diesem Fall könnte der Benutzer die projizierte Taste durch einfaches Halten seiner oder ihrer Hand oder eines anderen Objekts "anklicken", um die projizierte Taste für eine bestimmte Zeitdauer zu blockieren bzw. abzudecken.
- Der Berührungserfassungsvorgang, der in dem oben stehenden Absatz beschrieben ist, ist algorithmisch sehr einfach, aber durch eine Anzahl von Ereignissen einem "falschen" Triggern unterworfen, die während der interaktiven Sitzung auftreten können. Beispiele dieser Ereignisse umfassen: (1) eine zufällige oder unbeabsichtigte Verdunklung durch einen Benutzer, wie es z. B. passieren könnte, wenn der Benutzer vor den projizierten Tasten läuft; und (2) plötzlichen Änderungen in der lokalen Ausleuchtung des projizierten Bereichs durch externe Quellen (z. B. Türen werden geöffnet, die Raumbeleuchtung wird an- oder ausgeschaltet). Um das System gegen solche Ereignisse zu desensibilisieren, wird eine. Technik verwendet, die eine räumliche Lokalisierung und eine zeitliche Konsistenz erfordert. Der Computer untersucht nicht nur das Zielgebiet der Tasten, sondern untersucht auch andere benachbarte Gebiete bzw. Bereiche, die das Zielgebiet umgeben. Falls irgendwelche dieser umgebenden Gebiete oder "unsichtbaren Tasten" auch verdunkelt werden, dann wird die Berührungserfassung gesperrt. Die Technik kann modifiziert werden, um es einigen der unsichtbaren Tasten zu erlauben, verdunkelt zu werden, aber nicht anderen, so dass es dem Benutzer ermöglicht wird, seinen oder ihren Arm dort hindurchzustrecken, um die gewünschte Taste im Zielgebiet zu berühren bzw. zu drücken. Wir bezeichnen dieses Konzept als "differenzielles" Berühren. Außerdem wird ein Erfordernis für die Verdunkelungskonfiguration, die für eine bestimmte Zeitdauer aufrecht zu erhalten ist, auch verwendet, um ein Triggern während des Durchgang eines Benutzers durch das Sichtfeld zu verhindern.
- Bei einer fortschrittlicheren Anwendung des ersten Betriebsmodus gemäß der Erfindung könnte der Computer in Übereinstimmung mit mehreren fortgeschrittenen Bildverarbeitungstechniken programmiert sein, wie z. B. einer Merkmalsextraktion oder einer Musterkorrelation, um nach speziellen Mustern oder Mus teränderungen zu suchen, die im eingefangenen Bild vorhanden sind, wenn es mit dem Projektionsbild verglichen wird. Solche speziellen Muster könnten z. B. ein durch einen Stift gebildetes Kreuz umfassen, das über die projizierte Linie gelegt wird, die in einer projizierten Taste enthalten ist. Der Computer könnte auch programmiert sein, um andere spezielle Merkmale, wie z. B. Profile, eine Größe, eine Farbe, etc., oder spezielle Bewegungen des eingeführten Objekts zu suchen, wie z. B. eine Handbewegung, die einem Setzen einer Prüfmarkierung entspricht.
- In einem zweiten Betriebsmodus könnte der Benutzer Markierungspunkte auf dem projizierten Videobild simulieren. In diesem Modus sind dem Computer die gewünschten Markierungsorte schon bekannt. Der Benutzer markiert den Ort durch Zeigen unter Verwendung eines Zeigeelementes oder eines Zeigers (mit einem Muster oder einer Stellung, die vom Computer erkannt werden kann). Bei einer bevorzugten Ausführungsform der Erfindung markiert der Benutzer die Punkte durch Berühren des Projektionsschirms. Das Berühren des Projektionsschirms mit einem Zeigeelement oder einem Zeiger (mit einem Muster oder einem Merkmal, das vom Computer erkannt werden kann) kann wieder. unter Verwendung von bekannten Grauwertvergleichstechniken verifiziert werden, um zu erfassen, wann der Zeiger seinen eigenen Schatten trifft. Alternativ könnte eine zweite Videokamera, die unter einem seitlichen Winkel relativ zum Projektionsschirm orientiert ist, verwendet werden, um zu verifizieren, dass der Zeiger tatsächlich die Oberfläche des Projektionsschirms berührt.
- Bei einer fortschrittlicheren Anwendung des zweiten Betriebsmodus wird das Zeigeelement in Kombination mit dem proji zierten Video verwendet, um ein vorbestimmtes Merkmal zu erzeugen, um Punkte auf dem Bild zu markieren. Beispielsweise könnte das projizierte Videobild eine Serie von gleich beabstandeten vertikalen Linien umfassen, die das gesamte Bild abdecken. Der Benutzer markiert einen Punkt, indem ein erkennbares Kreuzmuster durch Halten des Zeigerelements über eine der vertikalen Linien erzeugt wird. Fortschrittlichere Merkmale können durch Kombinieren von mehreren komplizierten bzw. anspruchsvollen Mustern im Videobild erzeugt werden.
- Bei einer weiteren Anwendung des zweiten Betriebsmodus könnte der Benutzer den Zeiger als Steuermittel für einen Videocursor benutzen, wie z. B. eine Mauszeigervorrichtung oder ein Lichtstift., um handgeschriebenen Text oder gezeichnete Linien, Kurven oder andere graphische Objekte direkt auf das projizierte Bild einzugeben.
- Als weitere Anwendung des zweiten Betriebsmodus ist es möglich, eine vollständige Simulation einer Maus zu implementieren, die mit irgendeiner Standardanwendung arbeitet, die eine reguläre Maus als Eingabevorrichtung verwendet.
- Andere und weitere Aufgaben der vorliegenden Erfindung werden aus der folgenden Beschreibung und den Ansprüchen klar werden und werden in den beigefügten Zeichnungen veranschaulicht, die im Wege einer Veranschaulichung bevorzugte Ausführungsformen der vorliegenden Erfindung und deren Prinzipien zeigen und die nun als die besten Ausführungen angesehen werden, die zum Anwenden dieser Prinzipien gedacht sind.
-
1 ist eine schematische Ansicht eines interaktiven Anzeigesystems für projizierte Videobilder gemäß einer Ausführungsform der vorliegenden Erfindung. -
2 ist eine schematische Ansicht eines Systems, das ähnlich der1 ist, gemäß einer zweiten Ausführungsform der vorliegenden Erfindung. -
3A ist ein Flussdiagramm, das den Vorgang eines Anklickens einer Taste zum Initialisieren einer Modifikation des projizierten Videobilds beschreibt und zeigt. -
3B ist eine vergrößerte schematische Ansicht einer projizierten Taste, die in einem projizierten Videobild beinhaltet ist und die ein Objekt mit einem besonderen Merkmal zeigt (in diesem Fall eine Hand eines Benutzers), das über die projizierte Taste eingeführt wird. -
3C ist eine schematische Ansicht einer projizierten Tante, die ähnlich zu3B ist, außer dass in diesem Fall die projizierte Taste eine projizierte vertikale Linie umfasst und das Objekt, das ein besonderes Merkmal aufweist, ein Zeiger ist. -
4 ist eine schematische Ansicht eines projizierten Videobilds eines Menüfensters, das den allgemeinen Zeige- und Positioniermodus einer Operation der vorliegenden Erfindung veranschaulicht. -
5A-6 veranschaulicht einen Videomaus-Gesichtspunkt der Erfindung. -
5A zeigt schematisch ein projiziertes Videobild mit einem ersten aktivierten Pop-up-Menüfenster, das eine Liste von benutzerwählbaren Befehls-Items bzw. -punkte für ein Durchführen herkömmlicher Mausoperationen beinhaltet. -
5B zeigt schematisch ein projiziertes Videobild mit einem zweiten aktivierten Pop-up-Menüfenster, das ein einzelnes benutzerwählbares Befehls-Item zum Beenden einer Mausoperation beinhaltet. -
6A-6B ist eine zweiteilige Serie, die ein Flussdiagramm veranschaulicht, das den Vorgang des Simulierens einer Videomaus-Operation auf einem projizierten Videobild beschreibt und zeigt. - Die folgende detaillierte Beschreibung veranschaulicht die Erfindung im Wege eines Beispiels und nicht im Wege einer Einschränkung der Prinzipien der Erfindung. Diese Beschreibung wird es, einem Fachmann klar ermöglichen, die Erfindung nachzuvollziehen und zu benutzen, und beschreibt mehrere Ausführungsformen, Anpassungen, Variationen, Alternativen und Verwendungen der Erfindung, inklusive dem, was wir zur Zeit für die beste Ausführungsform der Erfindüng halten.
-
1 zeigt eine verallgemeinerte schematische Ansicht eines Videobild-Anzeigesystems10 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. - Das System umfasst einen Computer
12 zum Erzeugen und Anzeigen eines Videos auf einem Monitor16 (optional). Wie es üblich ist, ist der Monitor16 an den Videoausgangsport12a des Computers12 gekoppelt. An den Videoausgangsport ist auch eine Vorrichtung18 zum Vorsehen einer vergrößerten Präsentation (Projektion) des Videobilds, das vom Computer12 erzeugt wird, gekoppelt. Bei einer bevorzugten Ausführungsform umfasst die Vorrichtung18 ein herkömmliches Flüssigkristallanzeige-Panel20 (LCD-Panel) und einen Overhead-Projektor22 . Das LCD-Panel20 empfängt ein Videobildsignal, das vom Computer12 eingegeben wird, und erzeugt Lichtbilder, die dann vom Overhead-Projektor22 als projiziertes Bild24 auf eine Betrachtungsoberfläche, wie z. B. einen Projektionsschirm26 , projiziert werden. Der Projektionsschirm26 könnte irgend ein flacher Schirm sein und vorzugsweise eine helle Oberfläche aufweisen, wie z. B. die allgegenwärtige weiße Wand, die in den meisten Konferenzbüroräumen zu finden ist. Bei dem gezeigten Beispiel sind zwei projizierte Tasten ("buttons")32 und34 im projizierten Bild24 enthalten. - Während die Vorrichtung
18 als ein separates LCD-Panel und einen Overhead-Projektor22 umfassend beschrieben ist, ist es klar, dass einzelne Maschinen, die zum Empfangen und Projizieren von Videobilddaten fähig sind, erhältlich sein werden und vorteilhafterweise beider vorliegenden Erfindung verwendet werden könnten. - Das System
10 umfasst des weiteren eine optische Abfühlbzw. Abstasteinrichtung, wie z. B. eine Videokamera28a zum visuellen Aufzeichnen des projizierten Bilds24 . Die Videokamera28a ist an den Videoausgangsport12b des Computers12 gekoppelt. Der Videoausgangsport12b des Computers umfasst eine herkömmliche Bildfangschaltungsplatte oder äquivalente Mittel zum Einfangen von Bildern, um wahlweise individuelle Rahmen oder Gruppen von Rahmen des projizierten Bilds, wie es von der Videokamera28a aufgezeichnet ist, einzufangen. Eine oder mehrere zusätzliche Videokameras, die allgemein bei28b ,...,28n angegeben sind, könnten umfasst sein, um eine verbesserte Merkmalserfassungsfähigkeit des Systems10 zu schaffen. Dies wird nachfolgend detaillierter unter Bezugnahme auf den zweiten Betriebsmodus erläutert. - Der Computer
12 ist programmiert, die eingefangenen Bilder mit dem originalen Videobild zu Vergleichen. Bei Erfassung gewisser erkannter Objekte, die ein besonderes Merkmal aufweisen, die im eingefangenen Bild vorhanden sind, oder bei Erfassung eines wiedererkennbaren Musters, das aus der Kombination eines eingeführten Objekts und eines existierenden Merkmals,. das im projizierten Bild enthalten ist, gebildet wurde, wird ein Signal erzeugt, um den Computer zu aktivieren, um einen bestimmten Befehl durchzuführen, wie z. B. das Videobild zu modifizieren, ein eingefangenes Bild im Speicher zu speichern, etc. -
2 zeigt eine alternative Ausführungsform des Systems10 der vorliegenden Erfindung. Die Systemkomponenten, die der ersten Ausführungsform der1 und der zweiten Ausführungsform der2 gemein sind, werden mit den gleichen Bezugsziffern angegeben. Die zweite Ausführungsform der2 unterscheidet sich von der ersten Ausführungsform der1 darin, dass ein Videobild24 nicht projiziert sondern anstatt dessen als vergrößert angezeigtes Bild24a auf einer Großbild-Videoanzeige26a präsentiert wird. Die Großbild-Videoanzeige26a ist direkt an den Videoausgangsport12a des Computers12 gekoppelt. Bei diesem Beispiel sind zwei angezeigte Tasten32a und34a im angezeigten Bild24a enthalten. - Wie oben erläutert, umfasst die bevorzugte optische Abtasteinrichtung mindestens eine Videokamera
28a , die ein kontinuierliches visuelles Aufzeichnen des projizierten oder angezeigten Videobilds ermöglicht. Jedoch ist klar, dass andere optische Abtasteinrichtungen, wie z. B. ein ladungsgekoppelter Bildsensor (CCD-Bildsensor) oder eine Kamera anstatt der Videokamera mit gleich guten Resultaten verwendet werden könnten. Wie der Fachmann sofort einsehen wird, könnte eine geeignete Signalverarbeitungsvorrichtung oder -software mit einem CCD-Bildsensor oder einer Kamera gekoppelt werden, um die aufgezeichneten Bilder in eine Form umzuwandeln, die für den Computer für einen Bildvergleich mit den originalen, bekannten videoerzeugten Bildern brauchbar ist. - Das Verfahren und die Vorrichtung zum Ermöglichen einer direkten Interaktion mit einem computererzeugten projizierten Bild und zum Simulieren einer Videoversion einer Computereingabevorrichtung wird nun mit Bezug auf zwei beispielhafte Betriebsmodi des Systems
10 erklärt werden. - MODUS EINS: AUSWÄHLEN (ANKLICKEN) EINER TASTE
- Bezug nehmend auf
1 ,2 und3A -3C wird ein erster Betriebsmodus zum Auswählen oder "Anklicken" einer Taste beschrieben werden, die im projizierten oder angezeigten Bild enthalten ist. Das projizierte Bild (1 ) oder das angezeigte Bild (2 ) enthält "Befehle" für den Benutzer. Diese „Befehle" sind mit den projizierten oder angezeigten Tasten verknüpft, die in dem projizierten oder angezeigten Bild jeweils enthalten sind. Der Benutzer könnte einen Maus-Klick oder Platzieren eines Objekts, wie z. B. eines Zeigers, über der gewünschten projizierten oder angezeigten Taste simulieren. - Unter Bezugnahme auf das verallgemeinerte Flussdiagramm der
3A wird der Vorgang zum Anklicken einer einzelnen Taste beschrieben werden. Während einer Präsentation gibt der Benutzer Informationen in das projizierte oder angezeigte Bild ein, indem er entweder Informationen schreibt oder Veränderungen durch Auswählen einer gewünschten. Taste bewirkt. Während der gesamten Zeit zeichnet die Videokamera28a kontinuierlich diese Änderungen auf. Die Bildfangschaltung fängt einen einzelnen Rahmen der Videoaufzeichnung ein (Schritt40 ). Als nächstes liest der Computer (beim Schritt42 ) einen Blockbereich des von der Bildfangschaltung eingefangenen Rahmens, der dem Ort einer ersten Taste entspricht. Dieser Blockbereich befindet sich an einem Ort, der dem Computer bekannt ist. Als nächstes wird der Blockbereich auf das Vorhandensein eines Objekts mit einem bestimmten Merkmal oder einem wiedererkennbaren Muster geprüft (Schritt44 ). Falls (beim Schritt46 ) das Objekt oder das erkannte Muster im Block gefunden wird, führt der Computer eine bestimmte Steuerfunktion aus, die mit der ausgewählten Taste verknüpft ist (Schritt50 ). Falls es keine Übereinstimmung gibt oder falls das Objekt oder das Muster nicht existiert, dann wird keine Computeroperation getriggert. Der oben erwähnte Vorgang wird für jeden eingefangenen Rahmen wiederholt. - Für den Fall, dass zwei oder mehrere Tasten im projizierten oder angezeigten Bild enthalten sind, werden die Vorgangsschritte
42 -46 so lange wiederholt, bis alle Blöcke, die allen Tastenorten im projizierten oder angezeigten Bild entsprechen, auf wiedererkennbare Muster geprüft sind, bevor zum nächsten eingefangenen Rahmen fortgeschritten wird. - Der Merkmals- oder Wiedererkennungsalgorithmus könnte irgendeinen von vielen bekannten Algorithmen verwenden, inklusive, aber nicht beschränkt auf, binäre Verfahren, Grauwertverfahren etc. Dem Fachmann ist klar, dass das gewählte besondere Verfahren zum Großteil vom Mustertyp oder dem zu erkennenden Merkmal abhängt.
- Die Bildunterscheidung wird vorzugsweise in einer Software in der Form eines Musterkorrelation- oder Merkmalsextraktions-Algorithmus implementiert. Techniken zum Erfassen von Merkmalen in digitalen Bildern sind im Stand der Technik wohlbekannt. Beispielhafte Referenzen, die solche Techniken offenbaren, sind: Digital Picture Processing, Azriel Rosenfeld und Avinash Kak, Vol. II, zweite Auflage, Academic Press, 1982; Digital Imaqe Processing, Rafael C. Gonzales, Richards E. Woods, Addison-Wesley Publishing Co., 1992; und Computer Vision, Dana H. Ballard, Christopher M. Brown, Prentice-Hall, 1982.
- Die
3B-3C zeigen Beispiele von Objekten mit einem bestimmten Merkmal, die über einer projizierten Taste32 eingeführt sind. In der3B repräsentiert die Taste32 den Befehl "weiter". Bei einer Operation führt der Benutzer30 seine oder ihre Hand31 (oder andere erkannte Zeigeelemente) über die Taste32 , um ein Anklicken der Taste32 zu simulieren, um ein neues Videobild14 zu erzeugen. - In der
3C enthält die projizierte Taste34 eine projizierte vertikale Linie36 . Der Benutzer führt einen Zeiger, wie z. B. ein Lineal38 , über die Taste, um ein Kreuz zu bilden. Das Kreuz repräsentiert ein spezielles Muster, das vom Computer erkannt werden kann, um einen gewünschten Befehl auszuführen. Bei dem gegebenen Beispiel signalisiert der Befehl "Einfangen" dem Computer, das eingefangene Bild in einer Datei im Speicher des Computers zu speichern. - Vorzugsweise werden nur solche Teile des eingefangenen Bildes in einem Speicher gespeichert, die neue oder aktualisierte Informationen enthalten. Mit anderen Worten, in Übereinstimmung mit einem vorteilhaften Aspekt der Erfindung ist es nun möglich, gerade die Differenz zwischen dem eingefangenen Bild und dem projizierten Bild zu speichern. Dies wird getan, um Speicherraum einzusparen, da Grafikdateien typischerweise speicherintensiv sind. Das eingefangene Bild könnte zu einer späteren Zeit erneut aufgerufen werden, um als projiziertes Bild erneut zu erscheinen. Alternativ könnten mehrere eingefangene Bilder, die in einem Speicher gespeichert wurden, gleichzeitig wieder aufgerufen werden, wobei jedes mit dem anderen überlagert wird, um einen. Mehrfachschichteffekt zu schaffen. Ein solches Mehrfachschicht-Merkmal ist besonders vorteilhaft, wenn es in Kombination mit einem Projektionsschirm in der Form einer weißen Tafel verwendet wird, wodurch ein oder mehrere Benutzer auf der Tafel mit löschbaren Tintenstiften verschiedener Farben zeichnen könnten. Auf diese Weise können mehrere Versionen des projizierten Bilds, das verschiedene Änderungen in löschbarer Tinte enthält, eingefangen, in einem Speicher gespeichert und dann erneut für ein nachfolgendes mehrfaches einanderschichten übereinander aufgerufen werden, um eine sofort verständliche visuelle Chronologie der Änderungen während der projizierten Videopräsentation vorzusehen.
- MODUS ZWEI: ALLGEMEINES ZEIGEN UND POSITIONIEREN
-
4 veranschaulicht den allgemeinen Zeige- und Positioniermodus einer Operation der Erfindung. Bei diesem Beispiel umfasst das projizierte Bild eine Menüleiste50 , die Menüpunkte52a ,52b ,...,52n enthält, und ein allgemeines Positions- und Zeigefeld54 . Bei diesem Modus sucht der Computer das gesamte eingefangene Bild ab, um das Vorhandensein eines Objekts irgendwo auf dem Bild zu erfassen. - Falls das Objekt über einem der Menüpunkte
52a ,52b ,...,52n erfasst wird, wird der Computer die Aufgabe, die mit dem ausgewählten Menüpunkt verknüpft ist, in Übereinstimmung mit dem ersten Betriebsmodus, der oben beschrieben ist, ausführen. Falls das Objekt im allgemeinen Positions- und Zeigefeld erfasst wird, wird der Computer einen Punkt erzeugen oder einen Cursor an dem Ort positionieren, der dem entspricht, wo der Benutzer das Objekt platziert hat. Bei dem gezeigten Beispiel sucht der Computer nach einem Objekt in Form von zwei Fingern60 , die sich in die Zeigeposition erstrecken. In diesem Fall wurden zwei Markierungen56 und58 an Orten auf dem projizierten Bild erzeugt, wo die zwei Finger60 des Benutzers platziert wurden. - Der Vorgang des Markierens eines Punktes bei der allgemeinen Positionierung kann durch Programmieren des Computers, nach einem speziellen Merkmal oder Merkmalen zu suchen, die durch die Kombination des Zeigerelementes und des projizierten Bilds erzeugt sind, implementiert werden. Wie z. B. in
4 zu sehen ist, könnte das projizierte Bild mit gleich beabstandeten vertikalen Linien53a -53n versehen sein. Der Benutzer kann dann schnell einen Punkt bei59 durch Platzieren seiner oder ihrer Finger57 über der vertikalen Linie53c markieren, um eine Kreuzform zu bilden. Die Kreuzform kann vom Computer unter Aufwendung lediglich eines minimalen Verarbeitungsaufwands zum Erfassen dieses einfachen Musters wiedererkannt werden. Der Computer kann programmiert sein, ein fortschrittlicheres Merkmal oder Merkmale zu suchen und zu erkennen, indem ein komplizierteres Muster im Videobild eingeschlossen wird. - Bei einer weiteren Anwendung des zweiten Betriebsmodus könnte der beschriebene Merkmalserkennungsvorgang in einem Front-End-Anwendungsprogramm implementiert sein, um eine Maus zum Zugreifen auf Informationen anderer zur Zeit laufender Programme und zum Herumbewegen innerhalb der verschiedenen Anwendungen auf dem Schirm zu simulieren. Eine solche Anwendung ist bei jedem Computer mit einem Betriebssystem möglich, das eine Schnittstelle für eine Maus oder einen stiftähnlichen Typ unterstützt. Ein Beispiel eines solchen Betriebssystem ist WINDOWSTM (WINDOWSTM ist eine Marke der Microsoft Corp.). Dies kann bspw. durch Umfassen eines Maustreibers, der als Software geschrieben ist, innerhalb des Front-End-Anwendungsprogramms getan werden, was eine Reihe von Pop-up-Menüfenstern ermöglichen wird, die benutzerwählbare Befehlspunkte enthalten, die Basismausoperationen entsprechen. Die Auswahl eines gewünschten Befehlspunkts zum Ausführen einer bestimmten Mausoperation kann durch Platzieren eines "erkannten" Objekts (z. B. eines Zeigers, der Hand oder Finger eines Benutzers, die auf eine besondere Weise gehalten werden, etc.) über den gewünschten Befehlspunkt erreicht werden, der in dem Pop-up-Menüfenster im projizierten Bild in Übereinstimmung mit dem Merkmalserkennungsvorgang angezeigt ist, wie oben erläutert. Der Maustreiber der vorliegenden Erfindung simuliert vorzugsweise die folgenden vier Basisoperationen einer Maus, die die meisten herkömmlichen Maustreiber gemeinsam haben:
-
- (1) "Maus Runter" entspricht der Senkung einer Maustaste;
- (2) "Maus Hoch" entspricht dem Loslassen einer Maustaste;
- (3) "Doppel Klick" entspricht dem zweimaligen Senken und Loslassen einer Maustaste; und
- (4) "Maus Bewegung" entspricht der Bewegung der Maus an einen neuen Ort.
- Gemäß herkömmlicher Cursorsteuertechniken wird der Maustreiber eine Nachricht an das Betriebssystem schicken, die angibt, dass ein besonderes Ereignis aufgetreten ist, wenn ein Befehlspunkt, der der Mausoperation entspricht, die mit diesem Ereignis verbunden ist, aus dem verbundenen Pop-up-Menüfenster ausgewählt wurde. Zusätzlich werden auch die (x, y)-Koordinaten der. Maus zu der Zeit, wo das Ereignis stattfand, an das Betriebssystem gesendet werden. Ein einzelnes Anklicken der Maus wird als eine Kombination von "Maus Runter" und "Maus Hoch"-Operat onen ohne ein Bewegen der Maus durchgeführt. Auf diese Weise könnte der Benutzer die gewünschte Mausoperation einfach auswählen, um einen einzelnen Mausklick, einen doppelten Mausklick, ein Ziehen der Maus etc., zu simulieren, um die gewünschte Funktion des aktuellen Betriebsprogramms, wie z. B. ein Anklicken, ein Zeichnen einer Linie, ein Zeichnen einer Kurve, Fassen und Fallenlassen etc, durchzuführen.
-
5A-5B veranschaulichen im Wege eines Beispiels ein projiziertes Bild26 , das eine Bildschirmanzeige darstellt, die mit einem WINDOWSTM-Paintbrush-Programm verknüpft ist. In dem gezeigten Beispiel zeigt das projizierte Bild26 das Haupt-Paintbrush-Fenster und zeigt die Punkte (Items) im Haupt-Paintbrush-Fenster inklusive der oberen Menüleiste62 (mit Befehlspunkten wie z. B. "Datei, Bearbeiten, etc."), das Werkzeugfeld (toolbox)64 und das Linienstärkenfeld66 . - Der Vorgang des Videomaustreibers der Erfindung wird in Verbindung mit den
6a-6b beschrieben werden, die in Form eines Flussdiagramms die Schritte des Maustreibers zeigen, wie sie in Relation zu einem aktuell laufenden WINDOWSTM-Anwendungsprogramm stehen. Es ist klar, dass der Vorgang der Erfindung nicht lediglich auf Anwendungen vom Typ WINDOWSTM beschränkt ist, sondern auch in jeder Anwendung implementiert sein könnte, die eine Maus, einen Stift oder eine ähnliche Computereingabevorrichtung unterstützt. - Der Videomaustreiber startet (Schritt
100 ), wenn ein durch den Computer12 erzeugtes Videobild durch eine Vorrichtung18 auf eine Projektionsoberfläche oder einen Schirm26 (vgl. z. B.1 ) projiziert wird. Der Computer bestimmt dann (in einem Schritt102 ), ob der Benutzer auf das projizierte Bild gezeigt hat. - Dies wird unter Verwendung des Merkmal-Mustererfassungsprozesses getan, wie bereits erläutert.
- Wenn der Treiber erfasst, dass der Benutzer auf den Schirm gezeigt hat, sendet er WINDOWSTM (in einem Schritt
104 ) die Nachricht Maus Bewegung, zusammen mit den Koordinaten des neuen Punkts. WINDOWST M reagiert durch Bewegen des Cursors61 der Anwendung. Die exakte Gestalt des Cursors hängt von der spezifischen Anwendung ab. - Der Treiber prüft dann (in einem Schritt
106 ), ob der Benutzer fortfährt, auf das projizierte oder angezeigte Videobild zu zeigen. Falls die Antwort negativ ist, kehrt das Programm an seinen Anfangspunkt (Schritt100 ) zurück. Falls die Antwort positiv ist, d. h. der Benutzer immer noch auf das projizierte oder angezeigte Videobild zeigt, prüft der Treiber (in einem Schritt108 ), ob der Benutzer den Zeiger bewegt hat. Falls der Benutzer an einen anderen Platz zeigt, kehrt das Programm zum Schritt104 zurück, um den Ort des Cursors zu aktualisieren. Falls der Benutzer fortfährt, auf den gleichen Ort für eine bestimmte Zeitdauer, z. B. 2 s (Schritt110 ), zu zeigen, dann wird das erste Pop-up-Menüfenster68 neben die Cursorposition61 projiziert oder angezeigt (Schritt112 ). - Das erste Pop-up-Menü
68 enthält die vier Befehlspunktes NOP70 (was für "Keine Operation" steht), KLICK72 , RUNTER74 und DOPPEL-KLICK76 . Neben jedem Befehlspunkt70 ,72 ,74 und76 befindet sich eine Auswahltaste71 ,73 ,75 und77 . Wie zuvor könnten die Tasten durch den erkannten Merkmal/-Muster-Erfassungsprozess ausgewählt werden, wie mit Bezug auf die3B-3C und4 beschrieben. - Der Computer prüft dann (in einem Schritt
114 ) auf eine Auswahl eines Befehlspunktes), der im ersten Pop-up-Fenster68 enthalten ist, wobei es dem Benutzer erlaubt wird, eine solche Auswahl innerhalb einer vorbestimmten Zeitdauer (z. B. 2 s) zu treffen (Schritt116 ). Falls keine Auswahl während der vorbestimmten Zeitdauer getroffen wird, verschwindet das erste Popup-Menü68 und das Programm kehrt an seinen Startpunkt zurück. Falls eine Auswahl getroffen wird, wird der ausgewählte Befehlspunkt durchgeführt. - Der Treiber unterscheidet zwischen zwei Typen des Auswählens (Schritt
120 ). Die erste Auswahl ist der Befehl RUNTER, was ein spezielles Verarbeiten erfordert, wie in6B gezeigt. Die zweite Auswahl gilt für die Befehle NOP, KLICK und DOPPEL-KLICK. Für letztere Auswahl (Schritt122 ) verschwindet das erste Pop-up-Menü68 , der Treiber führt den Befehlspunkt durch Senden einer geeigneten Nachricht an das Betriebssystem aus und das Programm kehrt nach einer kurzen Verzögerung (2s ) an seinen Startpunkt (Schritt100 ) zurück. Die kurze Verzögerung ist notwendig, um dem Benutzer genügend Zeit zu geben, den Zeiger an einen neuen gewünschten Ort zu bewegen. - Der Vorgang, durch den der Treiber den Befehl im Menü ausführt, hängt vom spezifischen Befehl ab. Um bspw. einen einfachen Mausklick zu simulieren, wird der Benutzer eine Taste
73 auswählen, die dem KLICK-Befehlspunkt72 entspricht. In diesem Fall sendet der Maustreiber dem Betriebssystem die Nachrichten „Maus Runter" gefolgt von "Maus Hoch", was WINDOWSTM als einen Mausklick erkennt. Zusätzlich sendet der Maustreiber die (x,y)-Koordinaten des Punkts, um den Cursorort zu aktualisieren. Der Klick triggert ein Ereignis, das von der besonderen Anwendung, die zur Zeit läuft, z. B. Zeichnen einer Kurve, abhängen wird. - Um einen doppelten Mausklick zu simulieren, wird der Benutzer eine Taste
77 auswählen, die dem Doppel Klick- Befehlspunkt76 entspricht. Diese Handlung signalisiert dem Maustreiber, WINDOWST die vier Nachrichten "Maus Runter", "Maus Hoch", "Maus Runter" und "Maus Hoch" innerhalb eines vorbestimmten Zeitrahmens zu senden. - Der Benutzer hat auch die Möglichkeit des Auswählens einer Taste
71 , die dem NOP-(Keine Operation)-Befehlspunkt70 entspricht. Dadurch wird das erste Pop-up-Menüfenster68 dazu veranlasst werden, zu verschwinden, ohne sich auf den Cursorort auszuwirken und den Treiber dazu veranlassen, zum Startpunkt (Schritt100 ) zurückzugehen. - Bezug nehmend auf
6b antwortet der Treiber, wenn ein Benutzer die Taste75 wählt, die dem RUNTER-Befehl74 entspricht, indem eine Maus Runter-Nachricht an das Betriebssystem (Schritt126 ) mit der zusätzlichen Information der Koordinaten des Punktes gesendet wird. Zusätzlich verschwindet das erste Pop-up-Menüfenster68 und dem Benutzer wird eine kurze Verzögerung (z. B. 2 s) gewährt, um den Zeiger vom Ort der Taste75 zum Ort des Cursors61 zurückzubewegen. - Wenn die Maus Runter-Befehlsnachricht einmal empfangen wurde, nehmen die Computer die Verfolgung der Bewegung der Finger
60 des Benutzers wieder auf. Während dieser Zeit werden eine Reihe von aktualisierten Maus Bewegung-Nachrichten an das Betriebssystem zusammen mit den aktualisierten (x, y)-Koordinaten gesendet (Schritt128 ). Dieser Vorgang dauert so lange an, wie der Benutzer die Zeigeposition ändert (Schritte125 –130 ). - In dem Moment, wo der Benützer das Bewegen des Zeigers stoppt, hat er oder sie zwei Möglichkeiten (Schritt
132 ). Eine Möglichkeit ist, das Zeigen zu stoppen, d. h. durch Zurückziehen seiner oder ihrer Finger vom projizierten oder angezeigten Bild. Dies wird den Treiber dazu veranlassen, WINDOWSTM einen Maus Hoch-Befehl zu schicken, und dann, nach einer kurzen Verzögerung, wird das Programm zum Anfang zurückkehren (Schritt140 ). - Sollte der Benutzer noch immer auf den gleichen Ort zeigen, wird alternativ ein zweiten Pop-up-Menüfenster
78 (vgl. z. B.5b ) angezeigt. Das zweite Pop-up-Menüfenster78 enthält vorzugsweise lediglich den einzelnen Befehlspunkt AUF80 , zusammen mit einer entsprechenden Auswahltaste81 . Sollte der Benutzer den AUF-Befehlspunkt80 wählen, d. h. der Benutzer platziert seine oder ihre Finger60 über der entsprechenden Auswahltaste81 , dann sendet der Maustreiber die Maus Hoch-Nachricht an WINDOWST M und die Anwendung (in diesem Fall WINDOWSTM-Paintbrush-Programm) antwortet entsprechend (Schritt140 ). Der Vorgang kehrt dann nach einer vorbestimmten Verzögerung zum Start zurück. Falls (bei einem Schritt136 ) eine Auswahl durch den Benutzer innerhalb einer vorbestimmten Zeitdauer, z. B. 2 s (Schritt138 ), nicht getroffen wird, dann verschwindet das zweite Pop-up-Menü78 und der Benutzer könnte fortfahren, seine oder ihre Finger60 entlang des projizierten oder angezeigten Bildes26 zu bewegen, wie zuvor. Dies wird in neuen Maus Bewegung-Nachrichten resultieren, die an WINDOWSTM gesendet werden, bis der Benutzer die Fingerbewegung beendet, wonach die Schritte132 bis138 wiederholt werden. - SELBSTTEST
- Das System könnte Mittel zum Durchführen eines Selbsttestes aufweisen, um die Kalibrierung des Systems zu verifizieren. Beispielsweise könnte das System in einem Speicher zwei Bilder gespeichert haben, die identisch sind, außer dass das zweite der zwei Bilder ein Objekt mit einem besonderen Merkmal, wie z. B. einem Zeiger, enthält, das sich über einer Taste befindet; die im Bild enthalten ist. Diese besondere Taste ist im ersten Bild, nicht besetzt. Beim Starten oder zu irgendeinem anderen Zeitpunkt projiziert das System das zweite Bild, das den Zeiger enthält, der sich über der besonderen Taste befindet, und vergleicht dieses Bild mit dem ersten Bild. Der Selbsttest-Modus wird erfolgreich sein, falls der Computer die besondere Taste identifiziert.
- KALIBRIERUNG
- Ein Kalibrierungsalgorithmus könnte auch vorgesehen sein, um die jeweiligen X,Y-Achsensysteme des projizierten Bilds und des von der Kamera
28a eingefangenen Bilds zu kalibrieren, um einen Fokus, Farbausgleich, Verzerrungen und andere Parameter des projizierten Videobilds zu erhalten. Dies könnte erreicht werden, indem vorbestimmte Bilder projiziert werden, wie z. B. Eckmarkierungen27 (vgl.1 ), deren Orte bekannt sind, Skalenmaße und Farben oder Lichtintensitäten, und indem die vorbestimmten Eckmarkierungen27 mit den entsprechenden Eckmarkierungen im eingefangenen Bild verglichen werden. - Gemäß einer bevorzugten Ausführungsform der Erfindung dient der Kalibrierungsalgorithmus zwei Zwecken: (1) der Kalib rierungsaigorithmus "regelt" bzw. konditioniert die eingefangenen Bilder durch Entfernen von unerwünschten Lichtreflexionen, Streumarkierungen, Brüchen oder ähnlichen Unregelmäßigkeiten auf der Betrachtungsoberfläche, die einen nachteiligen Effekt auf die eingefangene Bildqualität haben (d. h. Bildverzerrung, Bildauflösung, Bildkontrast); und (2) der Kalibrierungsalgorithmus wird verwendet, um eine Ausrichtungsfunktion zum Sicheratellen der Ausrichtung von aufeinanderfolgenden eingefangenen Bildern mit den projizierten Bildern zu bestimmen.
- Der Regelungsteil des Kalibrierungsalgorithmus wird durch ein erstes Unterdrücken oder ein "Leeren" ("Blanking") des Videobildes, das vom Computer erzeugt ist, ausgeführt, so dass ein Leerbild ausgeleuchtet wird und auf die Betrachtungsoberfläche projiziert wird. Dies schafft einen ersten Referenzpunkt oder ein Referenzbild, was es dem System ermöglicht, Informationen über besondere Unregelmäßigkeiten auf der Betrachtungsoberfläche zu gewinnen, die nachteilig auf eine Bildqualität wirken, wie z. B. Schattierungen und/oder helle Reflexionen auf der Betrachtungsoberfläche aufgrund einer unebenen Oberflächenbeschaffenheit und Umgebungslicht, permanenten Flecken, Streumarkierungen oder Brüchen auf der Betrachtungsoberfläche etc.
- Das System fängt dann das leere bzw. unterdrückte projizierte Bild als erstes Referenzbild ein. Als nächstes werden eine Vielzahl von Referenzmarkierungen, z. B. Kreuze oder ähnliche Vermerke (indicia) auf die Betrachtungsoberfläche projiziert und von der Bildfangschaltung als ein oder mehrere zusätzliche Referenzbilder eingefangen. Die X- und Y-Koordinaten für die projizierten Referenzmarkierungen sind vom Computer vorspezifiziert. Es ist festzustellen, dass die Referenzmarkierungen nicht bei zufälligen Punkten auf der Betrachtungsoberfläche innerhalb der Grenzen des projizierten Bildes und nicht notwendigerweise gerade bei den vier Eckbereichen projiziert werden können, wie es typischerweise gemäß den Kalibrierungstechniken des Standes der Technik gemacht wird. Die eingefangenen Referenzbilder, die die Referenzmarkierungen enthalten, werden dann mit den Referenzmarkierungen verglichen, die vom Computer erzeugt sind. Unter Verwendung dieser Informationen bestimmt der Computer dann eine Ausrichtungsfunktion, die die relative Verschiebung in X- und Y-Koordinatenwerten zwischen den Referenzmarkierungen repräsentiert, die in den eingefangenen zusätzlichen Referenzbildern und den Referenzmarkierungen in den computererzeugten Videobildern enthalten sind. Somit kann die einmal bestimmte Ausrichtungsfunktion verwendet werden, um eine Ausrichtung der eingefangenen Bilder mit den projizierten Bildern zu gewährleisten.
- Der oben genannte Kalibrierungsalgorithmus könnte jederzeit automatisch implementiert werden, wenn die individuellen Vorrichtungskomponenten des Systems erschüttert oder während einer Verwendung leicht bewegt wurden oder wenn Änderungen bei den Bedingungen des Umgebungslichts auftreten oder wenn Änderungen bei irgendeinem anderen Parameter auftreten, der eine Wirkung auf die Bildqualität hat. Zusätzlich könnte der Kalibrierungsalgorithmus vorteilhafterweise in der Situation implementiert werden, bei der ein Benutzer Anmerkungen zum projizierten Bild durch Bewirken physischer Änderungen auf der Betrachtungsoberfläche gemacht hat. Z. B. in der Situation, bei der die Betrachtungsoberfläche eine herkömmliche weiße Tafel ist, könnte der Benutzer wünschen, Bearbeitungen oder Korrekturen am projizierten Bild durch direktes Zeichnen auf die weiße Tafel vorzunehmen. Der Benützer könnte den Einfangbefehl initiieren und die Anmerkungen speichern, die zu einem bestimmten projizierten Bild gemacht wurden. Da der Computer schon eine Aufzeichnung des projizierten Bilds aufweist, das in einem Speicher gespeichert ist, müssen lediglich die Anmerkungen in einem Speicher gespeichert werden. Dies verhindert eine Bilddegradation, die durch das erneute Einfangen einer Bildinformation verursacht wird, die dem Benutzer schon bekannt ist. Vorteilhafterweise erlaubt dies auch das "Mehrfach-Schichten" (Multi-Layering) der gespeicherten Anmerkungen (die Anmerkungen könnten eingefangen und als separate Daten gespeichert werden), die dann wahlweise entweder individuell, in Gruppen oder alle zusammen auf das projizierte Bild projiziert werden können. Die Ausrichtungsfunktion, die von dem oben beschriebenen Kalibrierungsalgorithmus errichtet ist, kann implementiert werden, um eine geeignete Ausrichtung der gespeicherten Anmerkungen mit irgendeinem besonderen Videobild zu gewährleisten, das vom Computer erzeugt ist.
Claims (12)
- Verfahren zum Ermöglichen einer Interaktion mit einem präsentierten Videobild (
24 ;24a ), mit den Schritten: Verwenden eines Computers (12 ), um das Videobild (24 ;24a ) zu erzeugen, wobei das Videobild (24 ;24a ) wenigstens einen vorbestimmten Bereich (32 ,34 ;32a ,34a ;71 ,73 ,75 ,77 ;81 ) mit wenigstens einer diesem Bereich zugeordneten, gesteuerten Charakteristik aufweist; Präsentieren des Videobilds (24 ;24a ) auf einer Betrachtungsoberfläche (26 ;26a ); Beeinflussen des präsentierten Bild (24 ;24a ); visuelles Aufzeichnen des präsentierten Bildes (24 ;24a ); Einfangen (40 ) eines Bildes aus der visuellen Aufzeichnung des präsentierten Bildes (24 ;24a ), das ein Resultat der Beeinflussung beinhaltet; Vergleichen (42 ,44 ,46 ) des eingefangenen Bildes mit dem vom Computer erzeugten Videobild, um das Resultat der Beeinflussung zu erfassen; und Erzeugen (48 ) eines Steuersignals zum Betätigen des Computers (12 ) in Antwort auf das erfaßte Resultat; dadurch gekennzeichnet, dass der Schritt des Beeinflussens des präsentierten Bildes erfolgt, indem ein spezielles Muster oder eine Musterveränderung (31 ;38 ,57 ,60 ) über das präsentierte Bild (24 ;24a ) auf der Betrachtungsoberfläche (26 ;26a ) eingeführt wird, und zwar für eine vorbestimmte minimale Zeitspanne; das eingefangene Bild das spezielle Muster oder die Musterveränderung (31 ;38 ;57 ;60 ) enthält; der Vergleichsschritt (42 ,44 ,46 ) erfolgt, um das Vorhandensein des speziellen Musters oder der Musterveränderung (31 ;38 ;57 ;60 ) in dem vorbestimmten Bereich in Relation zu der wenigstens einen gesteuerten Charakteristik zu erfassen; und das Steuersignal erzeugt wird in Antwort auf das Vorhandensein des speziellen Musters oder der Musterveränderung (31 ;38 ;57 ;60 ). - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die wenigstens eine gesteuerte Charakteristik eine Taste (
32 ,34 ;32a ,34a ;71 ,73 ,71 ,77 ;81 ) aufweist und der Bildvergleichsschritt (42 ,44 ,46 ) ferner aufweist: Lesen wenigstens eines Blockabschnittes des eingefangenen Bildes entsprechend dem Ort der Taste (32 ,34 ;32a ,34a ;71 ,73 ,75 ,77 ;81 ); Prüfen (44 ) des wenigstens einen Blockabschnittes auf das Vorhandensein des speziellen Musters oder der Musterveränderung (31 ;38 ;57 ;60 ); und Verifizieren (46 ), dass sich andere Blockabschnitte, die benachbart zu dem wenigstens einen Blockabschnitt angeordnet sind, nicht wesentlich von ihren entsprechenden Blockabschnitten unterscheiden, die in dem präsentierten Bild (24 ;24a ) enthalten sind. - Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass der Schritt (
48 ) des Erzeugens eines Steuersignals ferner die Schritte aufweist: Triggern einer Computeroperation in Antwort auf den Ort des speziellen Musters oder der Musterveränderung (31 ;38 ;57 ;60 ), das bzw. die über das präsentierte Bild (24 ;24a ) eingeführt ist; und wobei ein Schritt des Modifizierens des Videobildes (24 ;24a ) das Erzeugen eines Cursors (61 ) entsprechend dem Ort des speziellen Musters oder der Musterveränderung (31 ;38 ;57 ;60 ) aufweist, das bzw. die über das präsentierte Bild (24 ;24a ) eingeführt ist. - Verfahren nach Anspruch 3, gekennzeichnet durch einen Schritt, ein Anwendungsprogramm auf dem Computer laufen zu lassen, wobei das Anwendungsprogramm auf einen Treiber für eine Computereingabevorrichtung anspricht und wobei das Verfahren ferner die Schritte aufweist: selektives Erzeugen von Pop-up-Menüfenstern (
68 ;78 ) benachbart zu dem Cursor (61 ) auf dem präsentierten Bild (24 ;24a ) in Antwort darauf, dass das spezielle Muster oder die Musterveränderung (31 ;3 8 ;57 ;60 ) über das präsentierte Bild (24 ;24a ) von dem Benutzer positioniert wird, wobei die Menüfenster vom Benutzer auswählbare Tasten (71 ,73 ,75 ,77 ;81 ) aufweisen, die Treiberoptionen darstellen, die einer Computereingabevorrichtung zugeordnet sind, zum Triggern des Betriebs-systems des Computers (12 ), eine gewünschte Eingangssteuermitteilung des Computers an das Anwendungsprogramm zu senden, um eine gewünschte Computeroperation durchzuführen; und Auswählen von einer der Tasten (71 ,73 ,75 ,77 ;81 ), indem das spezielle Muster oder die Musterveränderung (31 ;38 ;57 ;60 ) für eine vorbestimmte minimale Zeitspanne darüber angeordnet wird. - Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Schritt (
42 ,44 ,46 ) des Vergleichens des eingefangenen Bildes mit dem vom Computer erzeugten Bild das Erfassen eines erkennbaren Musters (38 ,36 ;57 ,53 ) aufweist, das durch die Kombination des eingeführten speziellen Musters oder der Musterveränderung (38 ;57 ) und des präsentierten Bildes (24 ;24a ) erzeugt wird. - Verfahren nach einem der Ansprüche 1 bis 5, gekennzeichnet durch einen Schritt, eingefangene Bilder auf computererzeugte Bilder zu kalibrieren, wobei der Schritt des Kalibrierens die Schritte aufweist: temporäres Unterdrücken des von dem Computer (
12 ) erzeugten Videobildes (24 ;24a ); Projizieren eines ausgeleuchteten Leerbildes auf die Betrachtungsoberfläche (26 ;26a ); Einfangen des beleuchteten Leerbildes als ein erstes Referenzbild, wobei das erste Referenzbild Information über Lichtreflexionen, Streumarkierungen und derartige Irregularitäten auf der Betrachtungsoberfläche (26 ;26a ) enthält; und Vergleichen des ersten Referenzbildes mit darauffolgend eingefangenen Bildern, um die unerwünschten Lichtreflexionen, Streumarkierungen und derartige Irregularitäten von den darauffolgend eingefangenen Bildern zu entfernen. - Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Schritt des Kalibrierens ferner die Schritte aufweist: Präsentieren einer Vielzahl von Referenzmarkierungen (
27 ), die von dem Computer (12 ) erzeugt werden, auf der Betrachtungsoberfläche (26 ;26a ), wobei die Referenzmarkierungen (27 ) Xund Y-Koordinaten aufweisen, die durch den Computer (12 ) spezifiziert sind; Einfangen der präsentierten Referenzmarkierungen (27 ) als zumindest ein zusätzliches Referenzbild; Vergleichen des wenigstens einen eingefangenen zusätzlichen Referenzbildes mit den Referenzmarkierungen (27 ), die von dem Computer (12 ) erzeugt sind; Bestimmen einer Ausrichtungsfunktion, die den Koordinatenversatz in X- und Y-Richtung zwischen dem präsentierten Bild und dem eingefangenen Bild darstellt; und Verwenden der bestimmten Ausrichtungsfunktion, um eingefangene Bilder mit Videobildern zu vergleichen und hieran auszurichten, die von dem Computer (12 ) erzeugt werden. - Verfahren nach Anspruch 7, gekennzeichnet durch den Schritt des Selbsttestens zur Verifikation einer Kalibrierung von präsentierten Bildern mit eingefangenen Bildern, wobei der Schritt des Selbsttestens die Schritte aufweist: Speichern eines ersten Bildes und eines zweiten Bildes, wobei das erste und das zweite gespeicherte Bild jeweils einen gemeinsamen vorbestimmten Ort aufweisen, der diesen zugeordnet ist, wobei das zweite gespeicherte Bild ferner ein Referenzspezialmuster oder eine Referenzmusterveränderung (
31 ;38 ;57 ;60 ) aufweist, die über ihrem jeweiligen vorbestimmten Ort angeordnet wird; Projizieren des zweiten gespeicherten Bildes; Einfangen des zweiten gespeicherten Bildes; und Vergleichen des eingefangenen zweiten gespeicherten Bildes mit dem ersten gespeicherten Bild, um zu verifizieren, dass das Referenzspezialmuster oder die Referenzmusterveränderung (31 ;38 ;57 ;60 ), das bzw. die sich in dem eingefangenen zweiten gespeicherten Bild befindet, irt Ausrichtung ist mit dem vorbestimmten Ort für das Referenzspezialmuster oder die Referenzmusterveränderung in dem ersten gespeicherten Bild. - Verfahren nach einem der Ansprüche
1 bis8 , dadurch gekennzeichnet, dass ein Benutzer (30 ) wünscht, ein präsentiertes Bild (24 ;24a ) auf der Betrachtungsoberfläche (26 ;26a ) mit Anmerkungen zu versehen, wobei dies die Schritte beinhaltet: Speichern eines ersten computererzeugten Bildes; Präsentieren des ersten computererzeugten Bildes auf der Betrachtungsoberfläche (26 ;26a ); Unterdrücken der Präsentation des ersten computererzeugten Bilden derart, dass lediglich Benutzer-hervorgerufene Anmerkungen auf der Betrachtungsoberfläche (26 ;26a ) verbleiben; Einfangen der vom Benutzer hervorgerufenen Anmerkungen auf der Betrachtungsoberfläche (26 ;26a ); und Speichern der eingefangenen, vom Benutzer hervorgerufenen Anmerkungen zur darauffolgenden Anzeige der gespeicherten eingefangenen, vom Benutzer hervorgerufenen Anmerkungen in Ausrichtung mit dem ersten computererzeugten Bild. - Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass der Schritt des Erzeugens eines Steuersignals ferner den Schritt aufweist, wenigstens einen Abschnitt des eingefangenen Bildes in einen Speicher in dem Computer (
12 ) zu sichern. - Interaktives Anzeigesystem (
10 ) für präsentierte Videobilder mit Mitteln (12 ) zum Erzeugen eines Videobildes (24 ;24a ), wobei das Videobild (24 ;24a ) wenigstens einen vorbestimmten Bereich (32 ,34 ;32a ,34a ;71 ,73 ,75 ,77 ;81 ) aufweist, der wenigstens eine, diesem Bereich zugeordnete gesteuerte Charakteristik aufweist; Mitteln (18 ;26a ) zum Präsentieren des Videobildes (24 ;24a ) auf einer Betrachtungsoberfläche; Mitteln (28 ) zum visuellen Aufzeichnen des präsentierten Bildes (24 ;24a ); Mitteln (12 ) zum Einfangen eines Bildes aus der visuellen Aufzeichnung des präsentierten Bildes (24 ;24a ); Bildunterscheidungsmittel (12) zum Vergleichen des eingefangenen Bildes mit dem erzeugten Videobild und zum Erfassen des Resultates eines Einflusses, der auf das präsentierte Bild (24 ;24a ) ausgeübt wird; und Mitteln (12 ), die auf die Bildunterscheidungsmittel (12 ) ansprechen, zum Triggern einer Computeroperation, wenn das Resultat der Beeinflussung erfasst wird; dadurch gekennzeichnet, dass die Bildunterscheidungsmittel (12) dazu ausgelegt sind, ein spezielles Muster oder eine Musterveränderung (31 ;38 ;57 ;60 ) zu unterscheiden, das bzw. die über das präsentierte Bild (24 ;24a ) eingeführt ist, und das Vorhandensein des speziellen Musters oder der Musterveränderung,(31 ;38 ;57 ;60 ), das bzw. die in dem vorbestimmten Bereich über das präsentierte Bild (24 ;24a ) eingeführt ist, und dessen Relation zu der wenigstens einen gesteuerten Charakteristik zu erfassen; und die Mittel (12) die Computeroperation triggern, wenn das eingeführte spezielle Muster oder die Musterveränderung (31 ;38 ;57 ;60 ) erfasst wird. - System nach Anspruch 11, gekennzeichnet durch: Mittel (
12 ) zum automatischen kalibrierenden Deformieren des eingefangenen Bildes in Bezug auf das präsentierte Bild (24 ;24a ).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US259887 | 1994-06-15 | ||
US08/259,887 US5528263A (en) | 1994-06-15 | 1994-06-15 | Interactive projected video image display system |
PCT/US1995/007487 WO1995034881A1 (en) | 1994-06-15 | 1995-06-13 | Interactive projected video image display system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69530395D1 DE69530395D1 (de) | 2003-05-22 |
DE69530395T2 true DE69530395T2 (de) | 2004-02-19 |
Family
ID=22986852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69530395T Expired - Fee Related DE69530395T2 (de) | 1994-06-15 | 1995-06-13 | Interaktives projektiertes videobildanzeigesystem |
Country Status (6)
Country | Link |
---|---|
US (1) | US5528263A (de) |
EP (1) | EP0771460B1 (de) |
JP (1) | JPH09512656A (de) |
AU (1) | AU2944095A (de) |
DE (1) | DE69530395T2 (de) |
WO (1) | WO1995034881A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105702107A (zh) * | 2016-04-25 | 2016-06-22 | 苏州恒体体育发展有限公司 | Vr全息健身、舞蹈课程教学系统 |
Families Citing this family (303)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6141000A (en) * | 1991-10-21 | 2000-10-31 | Smart Technologies Inc. | Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing |
US6281878B1 (en) | 1994-11-01 | 2001-08-28 | Stephen V. R. Montellese | Apparatus and method for inputing data |
JP3153720B2 (ja) * | 1994-12-20 | 2001-04-09 | 富士通株式会社 | ビデオプレゼンテーションシステム |
CA2158384C (en) * | 1994-12-27 | 1999-09-28 | Alexander Gibson Fraser | Multimedia program editing system and method |
JPH08242417A (ja) * | 1995-03-01 | 1996-09-17 | Olympus Optical Co Ltd | 情報再生システム及び情報記録媒体 |
US5727141A (en) * | 1995-05-05 | 1998-03-10 | Apple Computer, Inc. | Method and apparatus for identifying user-selectable regions within multiple display frames |
US5684968A (en) * | 1995-06-16 | 1997-11-04 | International Business Machines Corporation | Method and apparatus for processing multiple images concurrently |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
WO1997046995A1 (en) * | 1996-06-07 | 1997-12-11 | Haworth, Inc. | Table with internal projection system |
US5933134A (en) * | 1996-06-25 | 1999-08-03 | International Business Machines Corporation | Touch screen virtual pointing device which goes into a translucent hibernation state when not in use |
US5831614A (en) * | 1996-07-01 | 1998-11-03 | Sun Microsystems, Inc. | X-Y viewport scroll using location of display with respect to a point |
CA2182238A1 (en) * | 1996-07-29 | 1998-01-30 | Mitel Knowledge Corporation | Input device simulating touch screen |
US5992758A (en) * | 1996-09-23 | 1999-11-30 | Agro-Mack Enterprises Ltd. | Proximity detector for ground-based implements |
US5973672A (en) * | 1996-10-15 | 1999-10-26 | Raytheon Company | Multiple participant interactive interface |
US5933135A (en) * | 1996-10-24 | 1999-08-03 | Xerox Corporation | Pen input device for high resolution displays |
US6070247A (en) * | 1996-12-03 | 2000-05-30 | Smart Technologies Inc. | Method and apparatus for controlling power to a multi-media conferencing system using any one of a system power switch and a computer |
US5990865A (en) | 1997-01-06 | 1999-11-23 | Gard; Matthew Davis | Computer interface device |
KR100288976B1 (ko) * | 1997-01-08 | 2001-05-02 | 윤종용 | 텔레비전수상기의화면명령구성및인식방법 |
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
DE19714109A1 (de) * | 1997-04-05 | 1998-10-08 | Moser Hans | Filmvorführungssystem (Videokabine) |
US5957559A (en) * | 1997-04-29 | 1999-09-28 | Virtek Vision Corporation | Laser scanned menu |
US6392665B1 (en) * | 1997-05-29 | 2002-05-21 | Sun Microsystems, Inc. | Capture mechanism for computer generated motion video images |
US5864334A (en) * | 1997-06-27 | 1999-01-26 | Compaq Computer Corporation | Computer keyboard with switchable typing/cursor control modes |
KR19990011180A (ko) * | 1997-07-22 | 1999-02-18 | 구자홍 | 화상인식을 이용한 메뉴 선택 방법 |
WO1999007153A1 (en) * | 1997-07-31 | 1999-02-11 | Reality Fusion, Inc. | Systems and methods for software control through analysis and interpretation of video information |
DE19734511A1 (de) * | 1997-08-08 | 1999-02-11 | Siemens Ag | Kommunikationseinrichtung |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
DE19843902A1 (de) * | 1997-09-26 | 1999-04-01 | Denso Corp | Bildinformations-Anzeigesystem und Hologramm-Anzeigevorrichtung |
US6388654B1 (en) * | 1997-10-03 | 2002-05-14 | Tegrity, Inc. | Method and apparatus for processing, displaying and communicating images |
GB2330669B (en) * | 1997-10-24 | 2002-09-11 | Sony Uk Ltd | Data processing |
DE19806024A1 (de) * | 1998-02-13 | 1999-08-19 | Siemens Nixdorf Inf Syst | Verfahren zur Überwachung eines Gerätebedienungsvorganges und mit diesem überwachte Selbstbedienungseinrichtung |
JPH11239237A (ja) * | 1998-02-24 | 1999-08-31 | Canon Inc | 画像表示装置 |
US6043805A (en) * | 1998-03-24 | 2000-03-28 | Hsieh; Kuan-Hong | Controlling method for inputting messages to a computer |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
US6684211B1 (en) * | 1998-04-01 | 2004-01-27 | Planetweb, Inc. | Multimedia communication and presentation |
KR20010022282A (ko) * | 1998-05-27 | 2001-03-15 | 요트.게.아. 롤페즈 | 정보 프레젠테이션 시스템 |
US6088018A (en) * | 1998-06-11 | 2000-07-11 | Intel Corporation | Method of using video reflection in providing input data to a computer system |
DE19830968A1 (de) * | 1998-07-10 | 2000-01-13 | Siemens Ag | Gerät |
GB9816463D0 (en) * | 1998-07-30 | 1998-09-23 | Soda Creative Technologies Lim | Computer communication device |
US6266048B1 (en) * | 1998-08-27 | 2001-07-24 | Hewlett-Packard Company | Method and apparatus for a virtual display/keyboard for a PDA |
DE19845030A1 (de) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6690357B1 (en) * | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
JP2000214992A (ja) | 1999-01-21 | 2000-08-04 | Mitsubishi Electric Corp | 方向指示装置および方向推定方法、並びにその方法にかかるプログラムを記録したコンピュ―タ読み取り可能な記録媒体 |
US7212197B1 (en) * | 1999-02-01 | 2007-05-01 | California Institute Of Technology | Three dimensional surface drawing controlled by hand motion |
EP1161720B1 (de) * | 1999-03-17 | 2002-09-18 | Siemens Aktiengesellschaft | Verfahren und anordnung zur interaktion mit einem benutzer |
AU3894900A (en) * | 1999-03-17 | 2000-10-16 | Tegrity, Inc. | Method and apparatus for visual pointing and computer control |
JP4176230B2 (ja) * | 1999-03-19 | 2008-11-05 | 株式会社ルネサステクノロジ | 座標位置制御システム、座標位置制御方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6292171B1 (en) * | 1999-03-31 | 2001-09-18 | Seiko Epson Corporation | Method and apparatus for calibrating a computer-generated projected image |
DE19918633A1 (de) * | 1999-04-23 | 2000-11-02 | Siemens Ag | Verfahren und Anordnung zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6295051B1 (en) * | 1999-06-02 | 2001-09-25 | International Business Machines Corporation | Intelligent boundless computer mouse system |
WO2000075860A1 (en) * | 1999-06-08 | 2000-12-14 | Soffix, S.R.L. | Electronic writing/display apparatus and respective method of operation |
US6346933B1 (en) | 1999-09-21 | 2002-02-12 | Seiko Epson Corporation | Interactive display presentation system |
DE19948896C1 (de) * | 1999-10-11 | 2001-01-18 | Siemens Ag | Anordnung zum Detektieren eines Objekts in einem von Licht angestrahlten Bereich |
JP4044255B2 (ja) * | 1999-10-14 | 2008-02-06 | 富士通株式会社 | 情報処理装置、及び画面表示方法 |
DE19951322A1 (de) * | 1999-10-25 | 2001-04-26 | Siemens Ag | Anordnung zur Interaktion |
DE19951320A1 (de) * | 1999-10-25 | 2001-04-26 | Siemens Ag | Anordnung zur Detektion eines Objekts auf bzw. vor einer Oberfläche |
JP4052498B2 (ja) | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
US6710770B2 (en) | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
US20030174125A1 (en) * | 1999-11-04 | 2003-09-18 | Ilhami Torunoglu | Multiple input modes in overlapping physical space |
US6457792B1 (en) * | 1999-11-29 | 2002-10-01 | Xerox Corporation | Method for effecting actions over vertical surfaces |
US6368002B1 (en) * | 1999-11-29 | 2002-04-09 | Xerox Corporation | Parking mechanism for storing and exchanging end effectors used in a system for performing actions over vertical surfaces |
JP4332964B2 (ja) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
JP2001184161A (ja) | 1999-12-27 | 2001-07-06 | Ricoh Co Ltd | 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体 |
WO2001052230A1 (en) * | 2000-01-10 | 2001-07-19 | Ic Tech, Inc. | Method and system for interacting with a display |
AU2001229572A1 (en) * | 2000-01-18 | 2001-07-31 | The Trustees Of The University Of Pennsylvania | Vision-based human computer interface system |
GB2361146A (en) * | 2000-02-04 | 2001-10-10 | Roke Manor Research | User interface for a mobile telecommunications system |
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
DE10007891C2 (de) * | 2000-02-21 | 2002-11-21 | Siemens Ag | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung |
JP3640156B2 (ja) | 2000-02-22 | 2005-04-20 | セイコーエプソン株式会社 | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
JP3826659B2 (ja) * | 2000-03-27 | 2006-09-27 | セイコーエプソン株式会社 | 投写表示システムおよび投写型表示装置 |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US6753927B2 (en) * | 2000-05-16 | 2004-06-22 | Texas Instruments Incorporated | Television interface for handheld calculator for enhanced television display |
GB0012275D0 (en) * | 2000-05-22 | 2000-07-12 | Secr Defence Brit | Three dimensional human computer interface |
AU6262501A (en) * | 2000-05-29 | 2001-12-11 | Vkb Inc. | Virtual data entry device and method for input of alphanumeric and other data |
ES2396587T3 (es) * | 2000-07-05 | 2013-02-22 | Smart Technologies Ulc | Método y aparato táctil en base a cámara |
US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
EP1336172B1 (de) | 2000-09-07 | 2007-06-27 | Canesta, Inc. | Quasi-dreidimensionales verfahren und vorrichtung zur erkennung und lokalisierung der interaktion von benutzer und objekt und virtuelle transfereinrichtung |
NO20004514A (no) * | 2000-09-11 | 2002-01-14 | Njoelstad Tormod | Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid |
JP2002118738A (ja) * | 2000-10-10 | 2002-04-19 | Canon Inc | 画像表示装置及び方法、該画像表示装置を用いた情報処理装置、並びに記憶媒体 |
US6774889B1 (en) * | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
WO2002043390A2 (en) * | 2000-11-06 | 2002-05-30 | Jianbo Shi | Paper-based remote sketching system |
US6704000B2 (en) * | 2000-11-15 | 2004-03-09 | Blue Iris Technologies | Method for remote computer operation via a wireless optical device |
GB2370395A (en) * | 2000-12-19 | 2002-06-26 | Ubinetics Ltd | Display apparatus |
US6901407B2 (en) | 2001-01-12 | 2005-05-31 | Rick D. Curns | System and method for updating project management scheduling charts |
US6731330B2 (en) * | 2001-01-30 | 2004-05-04 | Hewlett-Packard Development Company, L.P. | Method for robust determination of visible points of a controllable display within a camera view |
US20020136455A1 (en) * | 2001-01-31 | 2002-09-26 | I-Jong Lin | System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view |
US6542087B2 (en) | 2001-01-31 | 2003-04-01 | Hewlett-Packard Company | System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device |
US6895520B1 (en) | 2001-03-02 | 2005-05-17 | Advanced Micro Devices, Inc. | Performance and power optimization via block oriented performance measurement and control |
US6642918B2 (en) | 2001-04-23 | 2003-11-04 | Canon Kabushiki Kaisha | Control of digital projection system |
US8300042B2 (en) * | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
EP1689172B1 (de) * | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Interaktives Video-Anzeigesystem |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US20040201698A1 (en) * | 2001-06-08 | 2004-10-14 | Keenan Vaughn E. | Camera-based system for capturing images of a target area |
WO2003005177A1 (en) * | 2001-07-03 | 2003-01-16 | Koninklijke Philips Electronics N.V. | Interactive display and method of displaying a message |
US7830362B2 (en) | 2001-07-05 | 2010-11-09 | Michael Cain Finley | Laser and digital camera computer pointer device system |
JP4250884B2 (ja) * | 2001-09-05 | 2009-04-08 | パナソニック株式会社 | 電子黒板システム |
US7356763B2 (en) * | 2001-09-13 | 2008-04-08 | Hewlett-Packard Development Company, L.P. | Real-time slide presentation multimedia data object and system and method of recording and browsing a multimedia data object |
US20040205477A1 (en) * | 2001-09-13 | 2004-10-14 | I-Jong Lin | System for recording a presentation |
US6999792B2 (en) * | 2001-09-20 | 2006-02-14 | Peter Warren | Input-output device with universal phone port |
JP2003108305A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
US20030067537A1 (en) * | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
US20030067538A1 (en) * | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
EP1302891A1 (de) * | 2001-10-12 | 2003-04-16 | Siemens Aktiengesellschaft | Vorrichtung zum Erfassen und Darstellen von Bewegungen |
DE10163648A1 (de) * | 2001-12-21 | 2003-07-03 | Klaus-Dieter Frank | Interaktives Projektions- und Eingabesystem |
WO2003056505A1 (en) * | 2001-12-21 | 2003-07-10 | British Telecommunications Public Limited Company | Device and method for calculating a location on a display |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US6982697B2 (en) * | 2002-02-07 | 2006-01-03 | Microsoft Corporation | System and process for selecting objects in a ubiquitous computing environment |
US20050117073A1 (en) * | 2002-03-22 | 2005-06-02 | Payne Roger A. | Interactive video system |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US20040070616A1 (en) * | 2002-06-02 | 2004-04-15 | Hildebrandt Peter W. | Electronic whiteboard |
US20030226968A1 (en) * | 2002-06-10 | 2003-12-11 | Steve Montellese | Apparatus and method for inputting data |
JP4326753B2 (ja) * | 2002-06-14 | 2009-09-09 | 株式会社リコー | 映像情報インデキシング支援システム、プログラム及び記憶媒体 |
US7134080B2 (en) * | 2002-08-23 | 2006-11-07 | International Business Machines Corporation | Method and system for a user-following interface |
US7671843B2 (en) * | 2002-11-12 | 2010-03-02 | Steve Montellese | Virtual holographic input method and device |
US6954197B2 (en) | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
AU2003301043A1 (en) | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
JP2004199299A (ja) * | 2002-12-18 | 2004-07-15 | Casio Comput Co Ltd | 手書き情報記録方法、投影記録装置 |
DE10260305A1 (de) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI Einrichtung mit einem optischem Touch Screen |
US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
TWI241400B (en) * | 2003-03-27 | 2005-10-11 | Primax Electronics Ltd | A testing method used on a display |
US20040196400A1 (en) * | 2003-04-07 | 2004-10-07 | Stavely Donald J. | Digital camera user interface using hand gestures |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US20050088407A1 (en) | 2003-10-24 | 2005-04-28 | Matthew Bell | Method and system for managing an interactive video display system |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7420540B2 (en) * | 2003-12-01 | 2008-09-02 | Olbrich Craig A | Determining positioning and/or relative movement of graphical-user interface element based on display images |
US7355593B2 (en) | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
JP2005236421A (ja) * | 2004-02-17 | 2005-09-02 | Aruze Corp | 画像表示システム |
US20050227217A1 (en) * | 2004-03-31 | 2005-10-13 | Wilson Andrew D | Template matching on interactive surface |
US20060020486A1 (en) * | 2004-04-02 | 2006-01-26 | Kurzweil Raymond C | Machine and method to assist user in selecting clothing |
US7379563B2 (en) * | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
US7394459B2 (en) | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US7460110B2 (en) | 2004-04-29 | 2008-12-02 | Smart Technologies Ulc | Dual mode touch system |
US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
US20050264545A1 (en) * | 2004-05-27 | 2005-12-01 | Walker Ray A | Method and system for determining the location of a movable icon on a display surface |
US7787706B2 (en) * | 2004-06-14 | 2010-08-31 | Microsoft Corporation | Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7724242B2 (en) * | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US7719523B2 (en) * | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US20070046643A1 (en) * | 2004-08-06 | 2007-03-01 | Hillis W Daniel | State-Based Approach to Gesture Identification |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
TR201819463T4 (tr) * | 2004-08-12 | 2019-01-21 | Koninklijke Philips Nv | Bir Sunum Ekranını Kontrol Etmek İçin Yöntem Ve Sistem |
EP1821183A4 (de) * | 2004-10-05 | 2011-01-26 | Nikon Corp | Elektronische einrichtung |
US8842186B2 (en) * | 2004-10-25 | 2014-09-23 | I-Interactive Llc | Control system and method employing identification of a displayed image |
DE102004053738A1 (de) * | 2004-11-06 | 2006-05-11 | Man Roland Druckmaschinen Ag | Druckmaschinenleitstand |
US8508710B2 (en) * | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
US7555164B2 (en) * | 2004-12-23 | 2009-06-30 | Hewlett-Packard Development Company, L.P. | Robust estimation of pixel values |
WO2006074289A2 (en) * | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Detecting and tracking objects in images |
JP4689684B2 (ja) | 2005-01-21 | 2011-05-25 | ジェスチャー テック,インコーポレイテッド | 動作に基づくトラッキング |
JP4612853B2 (ja) * | 2005-03-29 | 2011-01-12 | キヤノン株式会社 | 指示位置認識装置及びそれを有する情報入力装置 |
US8386909B2 (en) * | 2005-04-07 | 2013-02-26 | Hewlett-Packard Development Company, L.P. | Capturing and presenting interactions with image-based media |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US7499027B2 (en) * | 2005-04-29 | 2009-03-03 | Microsoft Corporation | Using a light pointer for input on an interactive display surface |
US8487910B2 (en) * | 2005-05-02 | 2013-07-16 | Smart Technologies Ulc | Large scale touch system and methods for interacting with same |
JP2008542856A (ja) * | 2005-05-04 | 2008-11-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 制御グラフィックを投影するシステム及び方法 |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
JP4589828B2 (ja) * | 2005-06-28 | 2010-12-01 | 日本ソフト開発株式会社 | 遠隔制御方法及びその遠隔制御装置 |
US7525538B2 (en) * | 2005-06-28 | 2009-04-28 | Microsoft Corporation | Using same optics to image, illuminate, and project |
WO2007003682A1 (en) | 2005-06-30 | 2007-01-11 | Nokia Corporation | Camera control means to allow operating of a destined location of the information surface of a presentation and information system |
US20070018966A1 (en) * | 2005-07-25 | 2007-01-25 | Blythe Michael M | Predicted object location |
US20070024580A1 (en) * | 2005-07-29 | 2007-02-01 | Microsoft Corporation | Interactive display device, such as in context-aware environments |
US7911444B2 (en) | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
JP5272293B2 (ja) * | 2005-09-14 | 2013-08-28 | ソニー株式会社 | リモートコマンダおよび電子機器の操作入力方法 |
US20070074040A1 (en) * | 2005-09-29 | 2007-03-29 | Nokia Corporation | Online authorization using biometric and digital signature schemes |
US7843449B2 (en) * | 2006-09-20 | 2010-11-30 | Apple Inc. | Three-dimensional display system |
FR2894353A1 (fr) * | 2005-12-02 | 2007-06-08 | France Telecom | Procede d'exttraction d'un objet sur un fond projete |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
AT503008B1 (de) * | 2005-12-16 | 2008-09-15 | Dobler & Stampfl Audite Oeg | Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system |
US8060840B2 (en) | 2005-12-29 | 2011-11-15 | Microsoft Corporation | Orientation free user interface |
US20070165007A1 (en) * | 2006-01-13 | 2007-07-19 | Gerald Morrison | Interactive input system |
US20070177806A1 (en) * | 2006-02-01 | 2007-08-02 | Nokia Corporation | System, device, method and computer program product for using a mobile camera for controlling a computer |
JP5201999B2 (ja) * | 2006-02-03 | 2013-06-05 | パナソニック株式会社 | 入力装置、及びその方法 |
US7515143B2 (en) * | 2006-02-28 | 2009-04-07 | Microsoft Corporation | Uniform illumination of interactive display panel |
US7880719B2 (en) * | 2006-03-23 | 2011-02-01 | International Business Machines Corporation | Recognition and capture of whiteboard markups in relation to a projected image |
US7768527B2 (en) * | 2006-05-31 | 2010-08-03 | Beihang University | Hardware-in-the-loop simulation system and method for computer vision |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8395658B2 (en) * | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
JP4650381B2 (ja) * | 2006-09-08 | 2011-03-16 | 日本ビクター株式会社 | 電子機器 |
US8356254B2 (en) * | 2006-10-25 | 2013-01-15 | International Business Machines Corporation | System and method for interacting with a display |
US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
JP2010515170A (ja) * | 2006-12-29 | 2010-05-06 | ジェスチャー テック,インコーポレイテッド | 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作 |
US8212857B2 (en) * | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
EP2135155B1 (de) | 2007-04-11 | 2013-09-18 | Next Holdings, Inc. | Touchscreen-system mit gleit- und klick-eingabeverfahren |
US8022997B2 (en) * | 2007-04-19 | 2011-09-20 | Fuji Xerox Co., Ltd. | Information processing device and computer readable recording medium |
ES2323399B2 (es) * | 2007-06-19 | 2010-02-26 | Gat Microencapsulation Ag | Suspensiones en aceites de sulfonilureas y combinaciones agroquimicas. |
US20090019188A1 (en) * | 2007-07-11 | 2009-01-15 | Igt | Processing input for computing systems based on the state of execution |
US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
KR20100075460A (ko) * | 2007-08-30 | 2010-07-02 | 넥스트 홀딩스 인코포레이티드 | 저 프로파일 터치 패널 시스템 |
CN101802760B (zh) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | 具有改进照明的光学触摸屏 |
JP4829855B2 (ja) * | 2007-09-04 | 2011-12-07 | キヤノン株式会社 | 画像投影装置及びその制御方法 |
EP2188737A4 (de) | 2007-09-14 | 2011-05-18 | Intellectual Ventures Holding 67 Llc | Verarbeitung von benutzerinteraktionen auf gestenbasis |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
JP4793377B2 (ja) * | 2007-11-16 | 2011-10-12 | カシオ計算機株式会社 | 投影記録装置並びにスクリーン上情報記録方法及びプログラム |
US20090132926A1 (en) * | 2007-11-21 | 2009-05-21 | Samsung Electronics Co., Ltd. | Interactive presentation system and authorization method for voice command controlling interactive presentation process |
EP2229617B1 (de) * | 2007-12-05 | 2011-05-11 | Almeva AG | Interaktionsanordnung zur interaktion zwischen einem bildschirm und einem zeigerobjekt |
US20090160768A1 (en) * | 2007-12-21 | 2009-06-25 | Nvidia Corporation | Enhanced Presentation Capabilities Using a Pointer Implement |
US20090172714A1 (en) * | 2007-12-28 | 2009-07-02 | Harel Gruia | Method and apparatus for collecting metadata during session recording |
US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
AT506618B1 (de) * | 2008-01-25 | 2013-02-15 | Stumpfl Reinhold | Interaktive multimedia-präsentationsvorrichtung |
US20100039500A1 (en) * | 2008-02-15 | 2010-02-18 | Matthew Bell | Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US20090278816A1 (en) * | 2008-05-06 | 2009-11-12 | Next Holdings Limited | Systems and Methods For Resolving Multitouch Scenarios Using Software Filters |
US8902193B2 (en) | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
JP5258399B2 (ja) * | 2008-06-06 | 2013-08-07 | キヤノン株式会社 | 画像投影装置及びその制御方法 |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
US8427424B2 (en) * | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
KR101537596B1 (ko) * | 2008-10-15 | 2015-07-20 | 엘지전자 주식회사 | 이동 단말기 및 이것의 터치 인식 방법 |
US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
US20100134409A1 (en) * | 2008-11-30 | 2010-06-03 | Lenovo (Singapore) Pte. Ltd. | Three-dimensional user interface |
US20100225588A1 (en) * | 2009-01-21 | 2010-09-09 | Next Holdings Limited | Methods And Systems For Optical Detection Of Gestures |
US20100218100A1 (en) * | 2009-02-25 | 2010-08-26 | HNTB Holdings, Ltd. | Presentation system |
US8538367B2 (en) * | 2009-06-29 | 2013-09-17 | Qualcomm Incorporated | Buffer circuit with integrated loss canceling |
US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
US8276077B2 (en) * | 2009-07-10 | 2012-09-25 | The Mcgraw-Hill Companies, Inc. | Method and apparatus for automatic annotation of recorded presentations |
JP5292210B2 (ja) * | 2009-07-16 | 2013-09-18 | 株式会社エルモ社 | 資料提示装置 |
JP5521855B2 (ja) * | 2009-09-10 | 2014-06-18 | 株式会社リコー | 投影画像領域検出装置 |
US20110119638A1 (en) * | 2009-11-17 | 2011-05-19 | Babak Forutanpour | User interface methods and systems for providing gesturing on projected images |
US8549418B2 (en) * | 2009-12-23 | 2013-10-01 | Intel Corporation | Projected display to enhance computer device use |
US20120293555A1 (en) * | 2010-01-15 | 2012-11-22 | Akihiro Okano | Information-processing device, method thereof and display device |
CN102129151A (zh) * | 2010-01-20 | 2011-07-20 | 鸿富锦精密工业(深圳)有限公司 | 前投影控制系统及方法 |
US20110193969A1 (en) * | 2010-02-09 | 2011-08-11 | Qisda Corporation | Object-detecting system and method by use of non-coincident fields of light |
TW201128516A (en) * | 2010-02-12 | 2011-08-16 | Utw Technologies Corp | An instinctive operating method and an electronic device using the same |
JP5693022B2 (ja) * | 2010-03-04 | 2015-04-01 | キヤノン株式会社 | 表示制御装置および表示制御システム、並びにそれらの制御方法、プログラム、記憶媒体 |
EP2545494A1 (de) * | 2010-03-12 | 2013-01-16 | Shafa Wala | Positionserfassungs-eingabevorrichtung sowie system und verfahren dafür |
KR20110121125A (ko) * | 2010-04-30 | 2011-11-07 | 삼성전자주식회사 | 인터랙티브 디스플레이 장치 및 이의 동작 방법 |
CN102253573A (zh) * | 2010-05-18 | 2011-11-23 | 鸿富锦精密工业(深圳)有限公司 | 前投影装置及其前投影控制方法 |
US20120011465A1 (en) * | 2010-07-06 | 2012-01-12 | Marcelo Amaral Rezende | Digital whiteboard system |
US9660953B2 (en) * | 2010-07-08 | 2017-05-23 | Johnathon Smith | System for providing continuous viewable indicia for reminders and for inducing viewer actions |
US9195967B2 (en) * | 2010-07-08 | 2015-11-24 | Johnathon Smith | System using projector to display reminder messages generated remotely |
US8848054B2 (en) | 2010-07-29 | 2014-09-30 | Crestron Electronics Inc. | Presentation capture with automatically configurable output |
JP2012053532A (ja) * | 2010-08-31 | 2012-03-15 | Casio Comput Co Ltd | 情報処理装置及び方法、並びにプログラム |
US9466148B2 (en) * | 2010-09-03 | 2016-10-11 | Disney Enterprises, Inc. | Systems and methods to dynamically adjust an image on a display monitor represented in a video feed |
EP2614650A1 (de) | 2010-09-10 | 2013-07-17 | Lemoptix SA | Vorrichtung zur projektion eines bildes |
TWI423184B (zh) * | 2010-09-21 | 2014-01-11 | Chiefway Optronics Co Ltd | The device and the method of implementing interactive advertising |
US20120146904A1 (en) * | 2010-12-13 | 2012-06-14 | Electronics And Telecommunications Research Institute | Apparatus and method for controlling projection image |
US20120223960A1 (en) * | 2011-03-01 | 2012-09-06 | Avermedia Information, Inc. | Image control method and image control system |
JP2012181721A (ja) * | 2011-03-02 | 2012-09-20 | Seiko Epson Corp | 位置入力装置、プロジェクター、プロジェクターの制御方法、及び、表示システム |
CN102156379A (zh) * | 2011-03-22 | 2011-08-17 | 上海学舟信息技术有限公司 | 新课标交互式录播系统 |
US9030425B2 (en) * | 2011-04-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Detection of interaction with virtual object from finger color change |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US9294723B2 (en) | 2011-04-29 | 2016-03-22 | Creston Electronics, Inc. | Meeting management system including automated equipment setup |
US10692020B2 (en) | 2011-04-29 | 2020-06-23 | Crestron Electronics, Inc. | Real-time automatic meeting room reservation based on the number of actual participants |
US10044871B2 (en) | 2011-04-29 | 2018-08-07 | Crestron Electronics, Inc. | Conference system including automated equipment setup |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9030487B2 (en) * | 2011-08-01 | 2015-05-12 | Lg Electronics Inc. | Electronic device for displaying three-dimensional image and method of using the same |
CN102956123B (zh) * | 2011-08-25 | 2015-06-03 | 亿度慧达教育科技(北京)有限公司 | 一种教学感应装置 |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US20130179811A1 (en) * | 2012-01-05 | 2013-07-11 | Visteon Global Technologies, Inc. | Projection dynamic icon knobs |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US20150169134A1 (en) * | 2012-05-20 | 2015-06-18 | Extreme Reality Ltd. | Methods circuits apparatuses systems and associated computer executable code for providing projection based human machine interfaces |
WO2014034527A1 (ja) * | 2012-08-27 | 2014-03-06 | シチズンホールディングス株式会社 | 情報入力装置 |
CN102929409B (zh) * | 2012-10-12 | 2016-01-13 | 明基电通有限公司 | 遥控装置、显示系统与显示方法 |
JP6111682B2 (ja) * | 2013-01-21 | 2017-04-12 | セイコーエプソン株式会社 | 表示装置、および、表示装置の制御方法 |
TWI454971B (zh) * | 2012-12-11 | 2014-10-01 | Pixart Imaging Inc | 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置 |
CN103869959B (zh) * | 2012-12-18 | 2017-06-09 | 原相科技股份有限公司 | 电子装置控制方法以及电子装置 |
JP2014206634A (ja) * | 2013-04-12 | 2014-10-30 | 船井電機株式会社 | 電子機器 |
US10891003B2 (en) | 2013-05-09 | 2021-01-12 | Omni Consumer Products, Llc | System, method, and apparatus for an interactive container |
US9360888B2 (en) * | 2013-05-09 | 2016-06-07 | Stephen Howard | System and method for motion detection and interpretation |
US20150370441A1 (en) * | 2014-06-23 | 2015-12-24 | Infosys Limited | Methods, systems and computer-readable media for converting a surface to a touch surface |
US20150138085A1 (en) * | 2013-07-31 | 2015-05-21 | Bradley Lloyd Wilk | Electronic apparatus for simulating or interfacing a backward compatible human input device by means or control of a gesture recognition system |
JP2015094768A (ja) * | 2013-11-08 | 2015-05-18 | セイコーエプソン株式会社 | 表示装置、表示システムおよび制御方法 |
US9011246B1 (en) * | 2013-11-18 | 2015-04-21 | Scott Kier | Systems and methods for immersive backgrounds |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6079695B2 (ja) * | 2014-05-09 | 2017-02-15 | コニカミノルタ株式会社 | 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム |
US9740338B2 (en) | 2014-05-22 | 2017-08-22 | Ubi interactive inc. | System and methods for providing a three-dimensional touch screen |
US20160027131A1 (en) * | 2014-07-28 | 2016-01-28 | Cognizant Technology Solutions India Pvt. Ltd | System and method for projecting an interactive image and processing user interaction |
JP6282758B2 (ja) * | 2014-11-13 | 2018-02-21 | マクセル株式会社 | 投射型映像表示装置および映像表示方法 |
CN104345888A (zh) * | 2014-11-28 | 2015-02-11 | 重庆欧派信息科技有限责任公司 | 一种体感互动知识问答系统 |
TWI554822B (zh) * | 2015-03-06 | 2016-10-21 | 許建清 | 同步指示位置之簡報系統及其方法 |
US20180292907A1 (en) * | 2015-05-28 | 2018-10-11 | Itay Katz | Gesture control system and method for smart home |
US10217283B2 (en) * | 2015-12-17 | 2019-02-26 | Google Llc | Navigation through multidimensional images spaces |
US11086751B2 (en) | 2016-03-16 | 2021-08-10 | Asg Technologies Group, Inc. | Intelligent metadata management and data lineage tracing |
US11847040B2 (en) | 2016-03-16 | 2023-12-19 | Asg Technologies Group, Inc. | Systems and methods for detecting data alteration from source to target |
US10417515B2 (en) | 2017-01-09 | 2019-09-17 | Microsoft Technology Licensing, Llc | Capturing annotations on an electronic display |
US10592010B1 (en) | 2017-06-28 | 2020-03-17 | Apple Inc. | Electronic device system with input tracking and visual output |
JP7009880B2 (ja) * | 2017-09-26 | 2022-01-26 | カシオ計算機株式会社 | 画像補正装置、画像補正方法及びプログラム |
US11057500B2 (en) | 2017-11-20 | 2021-07-06 | Asg Technologies Group, Inc. | Publication of applications using server-side virtual screen change capture |
US11611633B2 (en) | 2017-12-29 | 2023-03-21 | Asg Technologies Group, Inc. | Systems and methods for platform-independent application publishing to a front-end interface |
US10877740B2 (en) | 2017-12-29 | 2020-12-29 | Asg Technologies Group, Inc. | Dynamically deploying a component in an application |
US10812611B2 (en) | 2017-12-29 | 2020-10-20 | Asg Technologies Group, Inc. | Platform-independent application publishing to a personalized front-end interface by encapsulating published content into a container |
DE102019002884A1 (de) | 2018-04-27 | 2019-10-31 | Marquardt Gmbh | Bedienvorrichtung |
US11762634B2 (en) | 2019-06-28 | 2023-09-19 | Asg Technologies Group, Inc. | Systems and methods for seamlessly integrating multiple products by using a common visual modeler |
US11693982B2 (en) | 2019-10-18 | 2023-07-04 | Asg Technologies Group, Inc. | Systems for secure enterprise-wide fine-grained role-based access control of organizational assets |
US11269660B2 (en) | 2019-10-18 | 2022-03-08 | Asg Technologies Group, Inc. | Methods and systems for integrated development environment editor support with a single code base |
US11886397B2 (en) | 2019-10-18 | 2024-01-30 | Asg Technologies Group, Inc. | Multi-faceted trust system |
US11941137B2 (en) | 2019-10-18 | 2024-03-26 | Asg Technologies Group, Inc. | Use of multi-faceted trust scores for decision making, action triggering, and data analysis and interpretation |
US11055067B2 (en) | 2019-10-18 | 2021-07-06 | Asg Technologies Group, Inc. | Unified digital automation platform |
WO2022081476A1 (en) | 2020-10-13 | 2022-04-21 | ASG Technologies Group, Inc. dba ASG Technologies | Geolocation-based policy rules |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0055366B1 (de) * | 1980-12-30 | 1987-03-18 | International Business Machines Corporation | Vorrichtung zum Fernanzeigen und -lesen von Information mit Hilfe der Schattenparallaxe |
US4430526A (en) * | 1982-01-25 | 1984-02-07 | Bell Telephone Laboratories, Incorporated | Interactive graphics transmission system employing an adaptive stylus for reduced bandwidth |
GB2173079B (en) * | 1985-03-29 | 1988-05-18 | Ferranti Plc | Cursor display control apparatus |
US5181015A (en) * | 1989-11-07 | 1993-01-19 | Proxima Corporation | Method and apparatus for calibrating an optical computer input system |
US5138304A (en) * | 1990-08-02 | 1992-08-11 | Hewlett-Packard Company | Projected image light pen |
US5239373A (en) * | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
JPH05303467A (ja) * | 1991-10-04 | 1993-11-16 | Shigumatsukusu Kk | 操作入力装置 |
US5436639A (en) * | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
-
1994
- 1994-06-15 US US08/259,887 patent/US5528263A/en not_active Expired - Fee Related
-
1995
- 1995-06-13 AU AU29440/95A patent/AU2944095A/en not_active Abandoned
- 1995-06-13 JP JP8502407A patent/JPH09512656A/ja active Pending
- 1995-06-13 DE DE69530395T patent/DE69530395T2/de not_active Expired - Fee Related
- 1995-06-13 EP EP95925249A patent/EP0771460B1/de not_active Expired - Lifetime
- 1995-06-13 WO PCT/US1995/007487 patent/WO1995034881A1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105702107A (zh) * | 2016-04-25 | 2016-06-22 | 苏州恒体体育发展有限公司 | Vr全息健身、舞蹈课程教学系统 |
Also Published As
Publication number | Publication date |
---|---|
DE69530395D1 (de) | 2003-05-22 |
EP0771460A1 (de) | 1997-05-07 |
US5528263A (en) | 1996-06-18 |
JPH09512656A (ja) | 1997-12-16 |
EP0771460B1 (de) | 2003-04-16 |
EP0771460A4 (de) | 1998-07-22 |
WO1995034881A1 (en) | 1995-12-21 |
AU2944095A (en) | 1996-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69530395T2 (de) | Interaktives projektiertes videobildanzeigesystem | |
DE60028894T2 (de) | Präsentationssystem mit einer interaktiven Darstellung | |
DE69629658T2 (de) | Lichtstifteingabesysteme | |
DE60023900T2 (de) | Darstellungssysem für rechner und optisches spurfolgeverfahren eines drahtlosen zeigers | |
DE102004007636B4 (de) | Elektronisches Gerät mit einem lichtemittierenden/-erfassenden Anzeigebildschirm | |
DE60205662T2 (de) | Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige | |
DE3153375C2 (de) | ||
DE19810452B4 (de) | Optischer Digitalisierer | |
DE60314563T2 (de) | Überlagerung mit elektronischer Tinte | |
DE60025926T2 (de) | Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm | |
DE102009023875A1 (de) | Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche | |
DE60133386T2 (de) | Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren | |
DE602004011676T2 (de) | Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung | |
DE102009032637A1 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE102009025236A1 (de) | Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm | |
DE10202693A1 (de) | Objektbasierte Anzeigeeinrichtung zur Abtastbereichsauswahl | |
DE3906215A1 (de) | Automatische klassifikation von pflaenzlingen | |
DE20221921U1 (de) | Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten | |
DE69533074T2 (de) | Verfahren zum Interpretieren handgeschriebener schematischer Benutzerschittstellenbefehle | |
DE112019001607T5 (de) | Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm | |
DE69724374T2 (de) | Informationsverarbeitungsgerät | |
DE60222380T2 (de) | System und verfahren zum extrahieren eines interessierenden punktes bei einem objekt, das sich vor einer computersteuerbaren anzeige befindet und von einem bildgebenden gerät aufgenommen wird | |
DE69834971T2 (de) | Zeichenerkennungsvorrichtung | |
DE112017005980T5 (de) | Anzeigesteuervorrichtung, anzeigesteuerverfahren und computerprogramm | |
DE112020003967T5 (de) | Datenverarbeitungseinrichtung, datenverarbeitungsverfahren und programm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8332 | No legal effect for de | ||
8370 | Indication related to discontinuation of the patent is to be deleted | ||
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: WITTE, WELLER & PARTNER, 70178 STUTTGART |
|
8339 | Ceased/non-payment of the annual fee |