DE3724833C2 - - Google Patents

Info

Publication number
DE3724833C2
DE3724833C2 DE3724833A DE3724833A DE3724833C2 DE 3724833 C2 DE3724833 C2 DE 3724833C2 DE 3724833 A DE3724833 A DE 3724833A DE 3724833 A DE3724833 A DE 3724833A DE 3724833 C2 DE3724833 C2 DE 3724833C2
Authority
DE
Germany
Prior art keywords
operator
information
detector
mental condition
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3724833A
Other languages
English (en)
Other versions
DE3724833A1 (de
Inventor
Hirokazu Epsom Survey Gb Negishi
Masao Sagamihara Kanagawa Jp Hosaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE3724833A1 publication Critical patent/DE3724833A1/de
Application granted granted Critical
Publication of DE3724833C2 publication Critical patent/DE3724833C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/905Feedback to patient of biological signal other than brain electric signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics

Description

Die Erfindung bezieht sich auf ein Gerät zur Informationsverarbeitung gemäß dem Oberbegriff des Patentanspruchs 1.
Ein Gerät zur Informationsverarbeitung dieser Art ist in "Elektronik", 1983, S. 69-72, beschrieben. Die Verarbeitungseinrichtung dieses bekannten Gerätes setzt von einer Bedienungsperson eingegebene Befehle um und gibt entsprechend einer Anforderung der Bedienungsperson Informationen zur Bedienung an diese aus. Der Bedienungsperson steht zur Dateneingabe eine Funktionstastatur zur Verfügung, die spezielle Tasten mit zwei hubabhängigen Schaltkontakten besitzt. Dieses bekannte Informationsverarbeitungsgerät ist für die Mensch-Maschine- Kommunikation gedacht. Die Bedienungsperson muß hierbei der Maschine die gewünschten Informationen durch eigene Betätigung abverlangen. Dies kann in manchen Anwendungsfällen ungünstig sein.
Die GB 21 43 975 A zeigt ein Gerät zur Informationsverarbeitung, bei dem mittels einer Detektoreinrichtung in Form eines fotoelektrischen Sensors die Anwesenheit einer Bedienungsperson festgestellt wird. Besondere Maßnahmen zum Erkennen der Fähigkeit einer Bedienungsperson sind in dieser Entgegenhaltung nicht angegeben.
Die GB-Z Medical and Biological Engineering, Vol. 12, No 5, 1974, S. 693-697, zeigt ein Informationsverarbeitungsgerät, das speziell Behinderten, wie z. B. Querschnittsgelähmten, die Interaktion mit einer Maschine ermöglichen soll. Zur Eingabe sind für die Bedienungsperson geeignete Wandlerelemente zum Eingeben dualer Daten vorgesehen. Das Gerät selbst besitzt nicht die Möglichkeit, Fähigkeiten einer Bedienungsperson festzustellen.
Der Erfindung liegt die Aufgabe zugrunde, ein Gerät zur Informationsverarbeitung gemäß dem Oberbegriff des Patentanspruchs 1 derart weiterzubilden, daß eine möglichst gute Anpassung des Geräts an eine jeweilige Bedienungsperson erreicht wird.
Diese Aufgabe wird mit den im kennzeichnenden Teil des Patentanspruchs 1 angegebenen Merkmalen gelöst.
Aufgrund dieser Maßnahmen kann sich das Gerät in effektiver Weise von sich aus dem jeweiligen, gerade vorliegenden Leistungsvermögen des Benutzers anpassen und im Bedarfsfall zu dessen Entspannung beitragen.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Die Erfindung wird nachstehend anhand von Ausführungsbeispie­ len unter Bezugnahme auf die Zeichnung näher erläutert.
Fig. 1 ist eine Ansicht, die einen Zustand zeigt, bei dem eine Bedienungsperson ein Informationsverarbeitungs­ gerät gemäß einem Ausführungsbeispiel benutzt.
Fig. 2 veranschaulicht einen Zustand, bei dem die Bedie­ nungsperson eine besondere Brille für das Büroauto­ matisierungsgerät trägt.
Fig. 3 zeigt einen mittels der Brille erfaßten Pupillen­ bewegungsbereich.
Fig. 4 zeigt ein Beispiel für die bei dem Ausführungsbei­ spiel abgegebenen Informationen.
Fig. 5 ist eine Ansicht, die die Architektur einer Steuer­ einrichtung zeigt, welche die Informationsverarbei­ tungseinrichtung bei dem Ausführungsbeispiel bildet.
Fig. 6 veranschaulicht den Zusammenhang zwischen Ausgaben und einem Betriebssystem.
Fig. 7 zeigt die grundlegende Gestaltung des Informations­ verarbeitungsgeräts gemäß dem Ausführungsbeispiel.
Fig. 8 ist eine Tabelle, die Betriebszustände bei dem Aus­ führungsbeispiel zeigt, welche sich mit dem Ablauf der Zeit ändern.
Die charakteristischen Merkmale des Geräts können bei einem einzelnen Gerät oder bei einem System aus mehreren Geräten erreicht werden.
Gegenwärtig wird als einfaches Verfahren für die Mensch- Maschine-Beziehung eine Spracheingabevorrichtung vorgeschla­ gen. Auch durch diese Vorrichtung wird der Benutzer bzw. die Bedienungsperson nur von einer umständlichen Tasteneingabe befreit, jedoch bildet eine solche Vorrichtung keine endgültige Lösung für die Mensch-Maschine-Beziehung. Es ist insbesondere bei den gerade bestehenden Techniken schwierig, eine Sprach­ erkennung bei einer Vielzahl von Benutzern zu realisieren.
Ein charakteristisches Merkmal des beschriebenen Geräts be­ steht darin, daß von einer Maschine die psychologische Nei­ gung einer Bedienungsperson als Benutzer erfaßt und von der Maschine her eine Nachrichtenverbindung zum Menschen hin angefordert wird.
Zu diesem Zweck wird ein Verfahren vorgeschlagen, bei dem ein Zugriff auf die Maschine oder ein Ruhezustand einer Bedienungs­ person erfaßt wird, um von der Maschine her sprachlich zu antworten oder zu ermitteln, ob die Bedienungsperson die Maschine zu benützen wünscht oder nicht; die Maschine wartet eine Einschaltung ab (Netzeinschaltung oder Anfangsvorberei­ tung), wobei mittels einer Spracherkennungsfunktion eine Sprachverbindung mit einer Bedienungsperson hergestellt wird. Dieses Verfahren ist jedoch nicht besser als die Mensch-Maschine-Schnittstelle bzw. -Beziehung und vereinfacht lediglich eine Schnittstelle bzw. Kommunikation mit der Maschine. Die Person-Maschine-Beziehung kann nicht herbeigeführt werden, falls nicht die Maschine die geistige Kondition der Bedienungsperson abfragt.
Bei diesem Ausführungsbeispiel wird das Informationsverarbei­ tungsgerät als Arbeitsplatzcomputer oder als Textverarbei­ tungsgerät benutzt. Die vorliegende Ausführung ist jedoch nicht darauf beschränkt; vielmehr kann eine äquivalen­ te Beziehung zwischen einer Maschine zur numerischen Steue­ rung, einer Großanlage oder dergleichen und einer Bedienungs­ person hergestellt werden.
Eine Bedienungsperson betätigt normalerweise eine Tastatur unter Beobachtung eines Sichtgeräts, woraufhin die Maschine verschiedene Verarbeitungsvorgänge entsprechend den ein­ gegebenen Daten, entsprechend in einem Speicher gespeicherten Daten oder einem Befehl über die Tastatur ausführt. Es stellt sich jedoch die Frage, wie die Maschine die geistige Kondition der Bedienungsperson erfassen kann.
Nach einem ersten Verfahren werden im voraus in die Maschine zusammen mit einer eigenen Kennziffer Daten eingegeben, die Daten über die Persönlichkeit, den Charakter und dergleichen einer Bedienungsperson wiedergeben. Nach einem zweiten Ver­ fahren wird die geistige Kondition der Bedienungsperson aus der Pupillenbewegung der Bedienungsperson, der Körpertempera­ tur, der Raumtemperatur, dem Puls, dem Blutdruck und mittels eines Sensors der Maschine erfaßten Eingabefehlern ermittelt. Nach diesem Verfahren werden nur gewöhnliche Vorgänge erfaßt.
Mit diesem Verfahren kann die Maschine jedoch die Persönlich­ keit und die geistige Kondition der Bedienungsperson erfassen und durch eine Nachricht auf einem Bildschirm oder eine gesprochene Nachricht in der Weise reagieren, als ob es sich um einen guten Freund handeln würde. Es ist anzumerken, daß die vorstehend beschriebenen Daten auch durch das Überwachen einer Suchzeit der Bedienungsperson ermittelt werden können.
Die Fig. 1 zeigt ein Beispiel für die Erfassung von Bioinfor­ mationen. Die Fig. 1 zeigt einen Zustand, bei dem eine Bedie­ nungsperson 1 ein Büroautomatisierungsgerät (wie beispiels­ weise ein Textverarbeitungsgerät) bedient.
Bei diesem Zustand wird die geistige Kondition der Bedie­ nungsperson 1 auf die vorstehend beschriebene Weise erfaßt. Zunächst wird eine Brille 4 für das Büroautomatisierungsgerät beschrieben.
Die Brille 4 hat einen Sensor für den fernen Infrarotbe­ reich, der das ständige Aufnehmen der Pupillenbewegung der Bedienungsperson 1 ermöglicht. In der Praxis wird an einem Rand der Brille 4 ein Leuchtelement zum Erzeugen eines schwa­ chen Strahls im fernen Infrarotbereich angebracht, das den Strahl auf die Pupille richtet. Da die Pupille der Bedie­ nungsperson schwarz bzw. dunkel ist, wird von der Pupille kein bzw. abgeschwächtes reflektiertes Licht erhalten. Wenn der Strahl außerhalb der Pupille einfällt, wird das dadurch reflektierte Licht mittels eines Lichtempfangsele­ ments aufgenommen. Die Richtwirkung des Leuchtelements kann derart eingestellt werden, daß kein reflektiertes Licht auf­ genommen wird, wenn sich die Pupille innerhalb eines Bereichs bewegt, in dem die Bedienungsperson den Bildschirm eines Sichtgeräts 2 beobachtet. Aus der Fig. 3 ist ersichtlich, daß ein Bereich der Pupillenbewegung bei dem Betrachten einer Tastatur 3 und ein Bereich der Pupillenbewegung bei dem Betrachten des Sichtgeräts erkannt werden können. Wenn sich die Pupille aus diesen Bereichen oder häufig aus diesen Bereichen herausbewegt, wird daraus erkannt, daß die Bedie­ nungsperson 1 beträchtlich ermüdet ist oder sich nicht auf den Bedienungsvorgang konzentrieren kann, so daß daher an einem Bereich des Bildschirms eine Nachricht "kurze Pause?" angezeigt oder ein Bild dargestellt wird, das die Bedienungs­ person gerne sehen möchte. In der Fig. 4 ist ein solcher Zustand dargestellt. Nach Fig. 4 wird an einem Bereich des Bildschirms eine Landschaft dargestellt, die die Bedienungs­ person gerne sehen möchte, während zugleich eine der Bedie­ nungsperson angenehme Hintergrundmusik wiedergegeben werden kann. Daher muß vor dem Einschalten des Geräts in das Gerät eine eigene Kennziffer eingegeben werden, da verschiedene Personen verschiedene Bilder oder verschiedene Hintergrund­ musik bevorzugen. Auf diese Weise kann das Gerät mit hoher Genauigkeit auf der Grundlage der der eingegebenen Kennziffer entsprechenden Daten die geistige Kondition der Bedienungs­ person ermitteln.
Hinsichtlich der Einrichtung für das Erfassen der geistigen Kondition der Bedienungsperson besteht keine Einschränkung auf die vorstehend beschriebene Brille für das Büroautomati­ sierungsgerät. Beispielsweise kann gemäß der vorangehenden Beschreibung die geistige Kondition der Bedienungsperson aus den Umgebungsbedingungen bei der Benutzung des Geräts durch die Bedienungsperson und aus der Körpertemperatur, dem Puls, dem Blutdruck und Eingabefehlern der Bedienungsperson ermit­ telt werden. Zu diesem Zweck werden zum Erfassen einer Ände­ rung der geistigen Kondition ein Temperaturfühler, ein Puls­ fühler, ein Blutdruckfühler und/oder ein Sensor für das Er­ fassen der Druckkraft bei dem Herunterdrücken in einigen Tasten der Tastatur 3 angebracht (wie z. B. in einer Wagen­ rücklauftaste und einer Leertaste, die häufig benutzt werden). Mit der Tastatur 3 mit der vorstehend genannten Funktion kann ermittelt werden, daß die Druckkraft bei der Betätigung der Tastatur 3 höher als eine normale Druckkraft wird, oder die Anzahl von Fehlerkorrekturen bei dem Drücken falscher Tasten gezählt werden. Entsprechend der Häufigkeit kann das Gerät mit der Bedienungsperson in Verbindung treten, wodurch eine Mensch-Maschine-Wechselwirkung entsteht.
Von dem Gerät werden die Informationen über die geistige Kondition der Bedienungsperson wie über Änderungen der Pupil­ lenbewegung, die Häufigkeit von Eingabefehlern, den Puls, die Körpertemperatur, den Blutdruck und dergleichen erfaßt, wo­ raus das Gerät das Ausmaß der Ermüdung ermittelt, so daß eine von dem erfaßten Zustand abhängige Nachrichtenverbindung herbeigeführt werden kann.
Die Fig. 5 zeigt die Architektur einer Steuereinheit, die eine Büroautomatisierungs-Einrichtung als Informationsverar­ beitungsgerät bildet. Mit der Halbleiter-Herstellungstechnik gemäß der neueren Entwicklung kann die Steuereinheit auf einem einzelnen Halbleiterplättchen ausgebildet werden. Ein Merkmal der Steuereinheit nach Fig. 5 besteht darin, daß zusätzlich zu einer Zentraleinheit CPU auf einem einzigen Halbleiterplättchen eine Vielzahl von Kanälen von Koprozesso­ ren COP für die Steuerung tatsächlicher Aufgaben vorgesehen ist. Daher muß die Zentraleinheit CPU lediglich das Betriebs­ system für das Verwalten der Koprozessoren COP steuern. Bei diesem Ausführungsbeispiel bedeutet der Umstand, daß die Maschine die Funktion zum Erfassen und Lernen der geistigen Kondition der Bedienungsperson hat, eine Annäherung an eine künstliche Intelligenz. Daher wird vorzugsweise eine Vielzahl von Prozessoren angeordnet, die eine schnelle parallele Ver­ arbeitung ermöglichen.
Eine Schicht 2 nach Fig. 5 enthält ein Mikroprogramm, das den Betrieb der Zentraleinheit CPU mit hoher Geschwindigkeit ermöglicht. Dieses Programm ist derart ausgelegt, daß auf das Zusammenwirken mit einer Bedienungsperson hin mit hoher Ge­ schwindigkeit ein kompliziertes Programm für das Verstehen bzw. Beurteilen einer Bedienungsperson ausgeführt wird.
Eine Schicht 3 enthält eine Gruppe von Koprozessoren COP. Koprozessoren für Kanäle 0 bis 16 können unabhängig voneinan­ der parallel betrieben werden. Diese Prozessoren stehen nicht direkt in Zusammenhang mit der erfindungsgemäßen Gestaltung des Geräts, so daß sich eine ausführliche Beschreibung der­ selben erübrigt.
Eine Schicht 4 enthält eine Zeitgeber/Zähler-Anordnung, die von der Zentraleinheit CPU und den Koprozessoren COP abgeru­ fen werden kann. Es ist anzumerken, daß jeder Koprozessor COP 14 Kanäle von Zeitgebern/Zählern enthält. Für den Datenaus­ tausch zwischen der Zentraleinheit CPU und dem Koprozessor COP und zwischen den Koprozessoren COP wird ein Doppelkanal- Schreib/Lesespeicher DPRAM benutzt. Von den Koprozessoren COP und der Zentraleinheit CPU kann ein Arbeitsspeicher RAM abge­ rufen werden. Eine Schicht 5 enthält Sammelleitungen, die als Schnittstellen zu einer externen Schaltung (außerhalb der Steuereinheit) eingesetzt werden. Eine Sammelleitung SBUS wird für eine Erweiterung mit einem externen Speicher und externen Eingabe/Ausgabeeinheiten benutzt.
Eine Sammelleitung IBUS wird insbesondere für einen Emula­ tions- und Testadapter (ICE) benutzt. Bei der Fehlerbeseiti­ gung im System kann über diese Sammelleitung der Inhalt eines (nicht gezeigten) Registrier-Arbeitsspeichers herausgeleitet und überprüft werden.
Eine Sammelleitung OBUS ist eine Eingabe/Ausgabeleitung, die für die Erweiterung mit einem Eingabe/Ausgabe-Element benutzt werden kann.
In einer seriellen Schnittstelle LAN zur Ein- und Ausgabe wird durch ein Programm ein vorbestimmtes Protokoll gebildet, wobei die Koprozessoren COP zu einer seriellen Datenverbin­ dung mit der Schnittstelle ausgebildet sind.
Die Fig. 6 zeigt Aufgaben, die mit dem Informationsverarbei­ tungsgerät gemäß dem Ausführungsbeispiel auszuführen sind, und Schichten des Betriebssystems. Gemäß der vorstehenden Beschreibung ist bei diesem Ausführungsbeispiel um die Zen­ traleinheit CPU herum eine Vielzahl parallel betreibbarer Koprozessoren COP angeordnet, von denen einige zur Steuerung der Person-Maschine-Beziehung bzw. -Schnittstelle herangezo­ gen werden können. Dieses Betriebssystem enthält ein Be­ triebssystem zur normalen Maschinensteuerung und ein Be­ triebssystem für die Person-Maschine-Beziehung. Das Betriebs­ system für die Person-Maschine-Beziehung kann als ein Be­ triebssystem mit künstlicher Intelligenz für das allmähliche Lernen der Angewohnheit oder Personalität einer Bedienungs­ person durch das Zusammenwirken mit der Bedienungsperson und für das bessere Verstehen angesehen werden. Die Koprozessoren COP sind um das Betriebssystem für die Person-Maschine-Bezie­ hung bzw. -Schnittstelle (PMI OS) herum angeordnet und führen parallel entsprechende Aufgaben 0 bis 15 aus.
Die Zuordnung der Aufgaben 0 bis 15 für die Person-Maschine- Beziehung kann in Abhängigkeit von der Programmarchitektur festgelegt werden. Entsprechend einer Arbeitsbelastung kann die Anzahl der Koprozessoren COP gesteigert oder vermindert werden.
Zum Ausführen der vorstehend beschriebenen Verarbeitung ist ein besonderes Betriebssystem erforderlich. Für das Ausführen des einer künstlichen Intelligenz ähnlichen Betriebssystems für die Person-Maschine-Beziehung mit Lernfunktion sind Pro­ zessoren zur Parallelverarbeitung mit hoher Geschwindigkeit erforderlich. Die Architektur bei diesem Ausführungsbeispiel ist für diese Betriebssysteme und Prozessoren geeignet.
Die Fig. 7 zeigt eine Anordnung bei der Verwendung dieses Systems in einem Büroautomatisierungsgerät. Für die Person- Maschine-Beziehung sind ein Bioinformations-Sensor 6, ein Sichtgerät 2 für die Sichtanzeige zur Person-Maschine-Kommuni­ kation an einem Teilbereich des Bildschirms und ein Lautspre­ cher 7 für akustische Meldungen vorgesehen. Das ganze Gerät wird mittels einer Steuereinheit 5 gesteuert, die einen Grunddatenspeicher 5 a zum Speichern von Grunddaten für eine jede Bedienungsperson enthält (nämlich von Daten, die die Personalitäten und Vorlieben der jeweiligen Bedienungsperso­ nen wiedergeben).
Mit dieser Anordnung kann auf einfache Weise eine preisgün­ stige Person-Maschine-Beziehung bzw. -Schnittstelle auf einem Niveau erzielt werden, das höher als dasjenige bei der her­ kömmlichen Mensch-Maschine-Beziehung bzw. -Schnittstelle ist.
Die Fig. 8 zeigt Nachrichten und Ankündigungen der Person- Maschine-Schnittstelle bei diesem Ausführungsbeispiel im zeitlichen Ablauf. Wenn das Gerät eingeschaltet wird, wird zuerst "Guten Morgen" angezeigt oder ausgesprochen. Da das Gerät nicht immer am Morgen eingeschaltet wird, können dem Einschaltzeitpunkt entsprechende Begrüßungsdaten ausgegeben werden. Falls es erforderlich ist, wird ein Kennwort oder eine Kennziffer eingegeben. Wenn die Kennziffer eingegeben ist, kann daraus das Gerät die Bedienungsperson identifizie­ ren. Wenn daher für die Ausgabe einer Nachricht danach die geistige Kondition erfaßt wird, werden die für die Bedie­ nungsperson am besten geeigneten Daten ausgegeben. Beispiels­ weise wird gemäß Fig. 8 (um 10 Uhr vormittags und um 3 Uhr nachmittags) die Nachricht "Teepause?" angezeigt. Falls die Bedienungsperson Kaffee vorzieht, kann die Nachricht auf "Kaffeepause?" abgeändert werden. Da eine Bildausgabe zu diesem Zeitpunkt sich in Abhängigkeit von den Unterschieden zwischen den Personen ändert, ist ein auf dem Sichtgerät dargestelltes Bild nicht immer das gleiche. Beispielsweise kann in Abhängigkeit von der Vorliebe der Bedienungsperson ein Berg, das Meer, ein populärer Sänger, ein Idol, Buddha oder dergleichen abgebildet werden. Ferner können auch zu­ sätzlich klassische Musik, Volkslieder, Vogelgesang, Meeres­ rauschen und dergleichen wiedergegeben werden. Daher können Bild und Ton abgegeben werden, die die Bedienungsperson er­ freuen bzw. der Bedienungsperson Entspannung bringen. Auf diese Weise dient die Eingabe der Kennziffer zum Wählen der in dem Gerät vorgespeicherten persönlichen Grunddaten, wobei der Inhalt der abgegebenen Nachrichten nach Bedarf verändert werden kann. Falls keine Kennziffern benutzt werden, können natürlich allgemein gültige Daten ausgegeben werden.
Bei dem Gerät gemäß diesem Ausführungsbeispiel können die Maschine und der Mensch sich verständigen bzw. einander ver­ stehen, so daß die Bedienungsperson keine geistigen Schädi­ gungen wie Neurosen erleidet, wobei die Zusammenwirkung mit der Maschine reibungslos abgewickelt werden kann.
Da die Maschine die Bioinformationen erfaßt und Informationen für die Bedienungsperson abruft, wird dadurch ein gutes Ver­ hältnis zwischen der Bedienungsperson und der Maschine gewährleistet, wobei die Maschine die einer zum jeweiligen Zeitpunkt bestehenden Kondition entsprechende Bekanntgabe macht, um Fehler auszuschalten.
Falls in dem Gerät im voraus persönliche Grunddaten für die Bedienungspersonen gespeichert werden, können noch besser angemessene Nachrichten abgegeben werden.

Claims (13)

1. Gerät zur Informationsverarbeitung mit einer Verarbeitungseinrichtung zum Ausführen verschiedener Informationsverarbeitungsvorgänge in Abhängigkeit von Befehlen einer Bedienungsperson und einer Ausgabeeinrichtung für die Abgabe von Information an die Bedienungsperson, dadurch gekennzeichnet, daß eine Detektoreinrichtung vorgesehen ist (4; 6); mit der die geistige Kondition der Bedienungsperson erfaßbar ist, während diese ihre aktuelle Arbeit verrichtet, und daß mittels der Ausgabeeinrichtung (2; 7) entsprechend der erfaßten Kondition an die Bedienungsperson Informationen abgebbar sind, die zur Entspannung der Bedienungsperson dienen.
2. Gerät nach Anspruch 1, dadurch gekennzeichnet, daß die Detektoreinrichtung (6) Informationen über die Persönlichkeit der Bedienungsperson erfaßt.
3. Gerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Detektoreinrichtung (4; 6) die geistige Kondition aus Informationen über das Ausmaß der Konzentration der Bedienungsperson auf einen Arbeitsvorgang ermittelt.
4. Gerät nach Anspruch 3, dadurch gekennzeichnet, daß durch die Detektoreinrichtung (4) das Ausmaß der Konzentration aus der Pupillenbewegung der Bedienungsperson ermittelt wird.
5. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus der Pulsfrequenz der Bedienungsperson ermittelt wird.
6. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus der Körpertemperatur der Bedienungsperson ermittelt wird.
7. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus dem Blutdruck der Bedienungsperson ermittelt wird.
8. Gerät nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, daß durch die Detektoreinrichtung das Ausmaß der Konzentration aus der Häufigkeit von Eingabefehlern der Bedienungsperson, insbesondere bei der Tastatureingabe, ermittelt wird.
9. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Detektoreinrichtung (6) die geistige Kondition aus der Arbeitszeitdauer der Bedienungsperson erfaßt.
10. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Detektoreinrichtung (6) die geistige Kondition aus dem Tastenbetätigungsdruck durch die Bedienungsperson erfaßt.
11. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Ausgabeeinrichtung (2, 7) eine Tonausgabevorrichtung für die Abgabe einer gesprochenen Nachricht, einer Melodie oder dergleichen aufweist.
12. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Ausgabeeinrichtung (2, 7) Bildinformationen, wie eine Schriftzeichennachricht, ein Bild oder dergleichen abgibt.
13. Gerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Speichereinrichtung (5 a) zum Speichern von Grundinformationen über mehrere Bedienungspersonen und eine Wähleinrichtung, insbesondere eine Tastatur (3), zum Wählen der Grundinformationen über eine bestimmte Bedienungsperson vorgesehen sind.
DE19873724833 1986-07-28 1987-07-27 Informationsverarbeitungsgeraet Granted DE3724833A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61175718A JPS6332624A (ja) 1986-07-28 1986-07-28 情報処理装置

Publications (2)

Publication Number Publication Date
DE3724833A1 DE3724833A1 (de) 1988-02-18
DE3724833C2 true DE3724833C2 (de) 1990-10-25

Family

ID=16001023

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873724833 Granted DE3724833A1 (de) 1986-07-28 1987-07-27 Informationsverarbeitungsgeraet

Country Status (3)

Country Link
US (1) US4894777A (de)
JP (1) JPS6332624A (de)
DE (1) DE3724833A1 (de)

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5167228A (en) * 1987-06-26 1992-12-01 Brigham And Women's Hospital Assessment and modification of endogenous circadian phase and amplitude
DE3808260C1 (en) * 1988-03-12 1989-03-16 Fred 6991 Igersheim De Henneberg Screen device
JPH021897A (ja) * 1988-06-13 1990-01-08 Hitachi Ltd 三次元映像表示装置、コピユータグラフイツクスシステム及びオーデイオビジユアルシステム
JP2845926B2 (ja) * 1989-03-20 1999-01-13 株式会社日立製作所 マンマシンシステム
US5170362A (en) * 1991-01-15 1992-12-08 Atlantic Richfield Company Redundant system for interactively evaluating the capabilities of multiple test subjects to perform a task utilizing a computerized test system
DE4114926C1 (en) * 1991-05-07 1992-09-17 Michael 6500 Mainz De Flanz Data processing installation with optical input unit - includes optical transmitter worn by user, esp. handicapped or spastic person, generating light beam
GB9117015D0 (en) * 1991-08-07 1991-09-18 Software Solutions Ltd Operation of computer systems
US7941326B2 (en) * 2001-03-14 2011-05-10 Health Hero Network, Inc. Interactive patient communication development system for reporting on patient healthcare management
US6330426B2 (en) 1994-05-23 2001-12-11 Stephen J. Brown System and method for remote education using a memory card
US8095340B2 (en) 1992-11-17 2012-01-10 Health Hero Network, Inc. Home power management system
US20040019259A1 (en) * 1992-11-17 2004-01-29 Brown Stephen J. Remote monitoring and data management platform
US8027809B2 (en) 1992-11-17 2011-09-27 Health Hero Network, Inc. Home power management system
US5951300A (en) * 1997-03-10 1999-09-14 Health Hero Network Online system and method for providing composite entertainment and health information
US5832448A (en) * 1996-10-16 1998-11-03 Health Hero Network Multiple patient monitoring system for proactive health management
US5307263A (en) 1992-11-17 1994-04-26 Raya Systems, Inc. Modular microprocessor-based health monitoring system
US7613590B2 (en) * 1992-11-17 2009-11-03 Health Hero Network, Inc. Modular microprocessor-based power tool system
US6968375B1 (en) 1997-03-28 2005-11-22 Health Hero Network, Inc. Networked system for interactive communication and remote monitoring of individuals
US20070299321A1 (en) * 1992-11-17 2007-12-27 Brown Stephen J Method and apparatus for remote health monitoring and providing health related information
US7624028B1 (en) * 1992-11-17 2009-11-24 Health Hero Network, Inc. Remote health monitoring and maintenance system
US8078431B2 (en) 1992-11-17 2011-12-13 Health Hero Network, Inc. Home power management system
US20010011224A1 (en) 1995-06-07 2001-08-02 Stephen James Brown Modular microprocessor-based health monitoring system
US9215979B2 (en) * 1992-11-17 2015-12-22 Robert Bosch Healthcare Systems, Inc. Multi-user remote health monitoring system
US5940801A (en) * 1994-04-26 1999-08-17 Health Hero Network, Inc. Modular microprocessor-based diagnostic measurement apparatus and method for psychological conditions
US8078407B1 (en) 1997-03-28 2011-12-13 Health Hero Network, Inc. System and method for identifying disease-influencing genes
US5956501A (en) * 1997-01-10 1999-09-21 Health Hero Network, Inc. Disease simulation system and method
WO2001037174A1 (en) * 1992-11-17 2001-05-25 Health Hero Network, Inc. Method and system for improving adherence with a diet program or other medical regimen
IL106338A0 (en) * 1993-07-14 1993-11-15 Sarid Medical Instrumentation Method and apparatus for detection of neuronal ionic disturbances
US5696981A (en) * 1993-09-30 1997-12-09 Shovers; Aaron H. Personality analyzer
US5539861A (en) * 1993-12-22 1996-07-23 At&T Corp. Speech recognition using bio-signals
US5559926A (en) * 1993-12-22 1996-09-24 Lucent Technologies Inc. Speech recognition training using bio-signals
US5539860A (en) * 1993-12-22 1996-07-23 At&T Corp. Speech recognition using bio-signals
AU2365695A (en) * 1994-04-26 1995-11-16 Raya Systems, Inc. Modular microprocessor-based diagnostic measurement system for psychological conditions
FI943283A (fi) * 1994-07-11 1996-01-12 Polar Electro Oy Tiedonsyöttölaite
US5617855A (en) * 1994-09-01 1997-04-08 Waletzky; Jeremy P. Medical testing device and associated method
GB2298501A (en) * 1994-09-05 1996-09-04 Queen Mary & Westfield College Movement detection
JP3530591B2 (ja) * 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
US5686938A (en) * 1995-06-29 1997-11-11 Batkhan; Leonid Z. Adaptive cursor control system
US5715160A (en) * 1995-08-21 1998-02-03 Plotke; Robert Jay Motion control evaluation employing a Fourier transform
US7305348B1 (en) 1996-02-20 2007-12-04 Health Hero Network, Inc. Aggregating and pooling health related information in a communication system with feedback
US6688888B1 (en) 1996-03-19 2004-02-10 Chi Fai Ho Computer-aided learning system and method
NL1002853C2 (nl) * 1996-04-12 1997-10-15 Eyelight Research Nv Methode voor het herkennen van een door een persoon waargenomen pagina of object, voor het vastleggen van de tijdsduur en de plaatsen van de pagina of het object die hij opmerkt of bekijkt, alsmede middelen voor toepassing bij de methode.
NL1002854C2 (nl) * 1996-04-12 1997-10-15 Eyelight Research Nv Methode en meetsysteem voor het meten en interpreteren van reacties van respondenten op gepresenteerde stimuli, zoals advertenties of dergelijke.
US6093153A (en) * 1996-08-02 2000-07-25 Levin; David N. Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception
US5860936A (en) * 1996-08-02 1999-01-19 Levin; David N. Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception
US5944530A (en) * 1996-08-13 1999-08-31 Ho; Chi Fai Learning method and system that consider a student's concentration level
USRE39539E1 (en) 1996-08-19 2007-04-03 Torch William C System and method for monitoring eye movement
US5827071A (en) * 1996-08-26 1998-10-27 Sorensen; Steven Michael Method, computer program product, and system for teaching or reinforcing information without requiring user initiation of a learning sequence
US7636667B2 (en) 1996-12-23 2009-12-22 Health Hero Networks, Inc. Network media access control system for encouraging patient compliance with a treatment plan
US6032119A (en) 1997-01-16 2000-02-29 Health Hero Network, Inc. Personalized display of health information
US6113538A (en) * 1997-04-02 2000-09-05 Bowles-Langley Technology, Inc. Alertness tester
US6228038B1 (en) * 1997-04-14 2001-05-08 Eyelight Research N.V. Measuring and processing data in reaction to stimuli
AUPP283298A0 (en) * 1998-04-06 1998-04-30 Park, Thomas Michael Stress monitoring system
US9792659B2 (en) 1999-04-13 2017-10-17 Iplearn, Llc Computer-aided methods and apparatus to access materials in a network environment
US8521546B2 (en) * 1998-09-25 2013-08-27 Health Hero Network Dynamic modeling and scoring risk assessment
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
TWM244584U (en) * 2000-01-17 2004-09-21 Semiconductor Energy Lab Display system and electrical appliance
DE10210799B4 (de) * 2002-03-12 2006-04-27 Siemens Ag Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders
JP3632687B2 (ja) * 2002-09-12 2005-03-23 富士ゼロックス株式会社 ユーザビリティ評価装置
US20050060194A1 (en) * 2003-04-04 2005-03-17 Brown Stephen J. Method and system for monitoring health of an individual
US7260480B1 (en) 2003-04-07 2007-08-21 Health Hero Network, Inc. Method and system for integrating feedback loops in medical knowledge development and healthcare management
US7399276B1 (en) 2003-05-08 2008-07-15 Health Hero Network, Inc. Remote health monitoring system
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP2005084590A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
US7734338B2 (en) * 2003-12-19 2010-06-08 Ultrasis Uk Limited Treatment of epilepsy
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
CA2967756C (en) * 2004-04-01 2018-08-28 Google Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
IL165586A0 (en) * 2004-12-06 2006-01-15 Daphna Palti Wasserman Multivariate dynamic biometrics system
GB2427952B (en) * 2005-07-02 2010-09-01 Raymond Butcher Apparatus for preventing visual impairment
JP2010511218A (ja) * 2006-11-28 2010-04-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ストレス軽減方法及びシステム
US20090024049A1 (en) 2007-03-29 2009-01-22 Neurofocus, Inc. Cross-modality synthesis of central nervous system, autonomic nervous system, and effector data
US20080243005A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
WO2008122928A1 (en) * 2007-04-04 2008-10-16 Koninklijke Philips Electronics N.V. Determining stress level based on the performance of the person in a game or puzzle
WO2008137579A1 (en) * 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-informatics repository system
WO2008137581A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
WO2008144569A1 (en) * 2007-05-16 2008-11-27 Neurofocus, Inc. Habituation analysis using central nervous system, autonomic nervous system and effector system measurements
WO2008141340A1 (en) * 2007-05-16 2008-11-20 Neurofocus, Inc. Audience response measurement and tracking system
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US8494905B2 (en) * 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
US20090030287A1 (en) * 2007-06-06 2009-01-29 Neurofocus Inc. Incented response assessment at a point of transaction
JP5542051B2 (ja) 2007-07-30 2014-07-09 ニューロフォーカス・インコーポレーテッド 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置
US20090036755A1 (en) * 2007-07-30 2009-02-05 Neurofocus, Inc. Entity and relationship assessment and extraction using neuro-response measurements
US8979754B2 (en) * 2007-08-09 2015-03-17 FITS—Functional Interactive Timing System Ltd. Interactive system and method for neuromotor functioning assessment and training
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8392254B2 (en) 2007-08-28 2013-03-05 The Nielsen Company (Us), Llc Consumer experience assessment system
US8635105B2 (en) * 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US8392255B2 (en) * 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US20090083129A1 (en) * 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US8494610B2 (en) * 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
KR101024140B1 (ko) * 2008-11-13 2011-03-22 박덕용 온라인 학습을 위한 콘텐츠 제공 시스템
US8464288B2 (en) 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8270814B2 (en) * 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US20100249538A1 (en) * 2009-03-24 2010-09-30 Neurofocus, Inc. Presentation measure using neurographics
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US20100249636A1 (en) * 2009-03-27 2010-09-30 Neurofocus, Inc. Personalized stimulus placement in video games
TWI397865B (zh) * 2009-08-12 2013-06-01 Utechzone Co Ltd Security personnel to monitor the degree of focus monitoring system
US20110046502A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Distributed neuro-response data collection and analysis
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) * 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US8756657B2 (en) * 2009-09-29 2014-06-17 Ebay Inc. Mobile or user device authentication and tracking
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US8209224B2 (en) * 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US8335715B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
US8335716B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US10186163B1 (en) 2009-11-25 2019-01-22 Peter D. Letterese System and method for reducing stress and/or pain
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US20110237971A1 (en) * 2010-03-25 2011-09-29 Neurofocus, Inc. Discrete choice modeling using neuro-response data
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
JP2014130467A (ja) * 2012-12-28 2014-07-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
DK178652B1 (en) * 2015-02-07 2016-10-17 Pauseable Aps A method and system for eliciting the relaxation response and cultivating attention
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
US11061233B2 (en) 2015-06-30 2021-07-13 3M Innovative Properties Company Polarizing beam splitter and illuminator including same
US20230044247A1 (en) * 2021-08-06 2023-02-09 Rockwell Collins, Inc. Cockpit display ambient lighting information for improving gaze estimation
WO2023195115A1 (ja) * 2022-04-07 2023-10-12 日本電気株式会社 会話装置、会話方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4312358A (en) * 1979-07-23 1982-01-26 Texas Instruments Incorporated Instrument for measuring and computing heart beat, body temperature and other physiological and exercise-related parameters
JPS57211635A (en) * 1981-06-23 1982-12-25 Fujitsu Ltd Keyboard input device
US4683891A (en) * 1982-04-26 1987-08-04 Vincent Cornellier Biomonitoring stress management method and device
US4464121A (en) * 1982-04-28 1984-08-07 Perelli Layne P Device for measuring fatigue effects
JPS60592A (ja) * 1983-06-15 1985-01-05 三菱電機株式会社 いねむり防止装置
GB2143975A (en) * 1983-06-18 1985-02-20 Brown David F Computerised interactive advertising and information display system
JPS6076787A (ja) * 1983-10-04 1985-05-01 日本電信電話株式会社 バイオフイ−ドバツク制御装置
JPS60153542A (ja) * 1984-01-23 1985-08-13 Mitsubishi Electric Corp 音響装置を内蔵した入力・表示装置
JPS6121523A (ja) * 1984-07-09 1986-01-30 Nec Corp 自動入力によるデ−タ検索システム
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning

Also Published As

Publication number Publication date
DE3724833A1 (de) 1988-02-18
JPS6332624A (ja) 1988-02-12
US4894777A (en) 1990-01-16

Similar Documents

Publication Publication Date Title
DE3724833C2 (de)
Snowberry et al. Computer display menus
Howes et al. Display-based competence: towards user models for menu-driven interfaces
Brebner et al. Spatial relationships and SR compatibility
Aaltonen et al. 101 spots, or how do users read menus?
DE60113685T2 (de) Schnittstelle zur maschinensteuerung
DE60121827T2 (de) Vorrichtung und verfahren zur wiedergewinnung von daten
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE69628893T2 (de) Aktivierung eines Tastaturschlosses für Telefongerät
DE102005016561B4 (de) Verfahren und Vorrichtung zur strukturierten Erfassung und Bearbeitung von in einem System auftretenden Problemen
DE60123843T2 (de) System und verfahren zum erfassen von browser-sitzungen und von aktionen des benutzers
DE102008014741A1 (de) System und Verfahren zum Registrieren eines Fingerabdrucks, zum Setzen eines Benutzeranmeldeverfahrens einer Anwendung, und zum Anmelden in der Anwendung
DE102010038342A1 (de) Vorrichtung zum Verwalten der Funktionen von Peripheriegeräten
DE19844252A1 (de) Modulare Vorrichtung zur computergesteuerten Insulin- und Glukoseinfusion
DE102015104962A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
US20060271640A1 (en) Apparatus and methods for remote administration of neuropyschological tests
DE102016112973A1 (de) Mobilgerätgehäuse
EP0238065B1 (de) Mikroprozessorgesteuerte Einrichtung zur nichtinvasiven Feststellung peripherer Abfluss- und Durchflussstörungen
Dell'Acqua et al. Short-term consolidation of individual identities leads to Lag-1 sparing.
EP1345110A2 (de) Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders
EP1442222B1 (de) Vakuumpumpe
DE112019003773T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
Davis User error or computer error? Observations on a statistics package
Schultz Jr et al. Menu structure and ordering of menu selection: independent or interactive effects?
DE102016119844A1 (de) Fingerabdrucksensor mit Rotationsgestenfunktionalität

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Free format text: TIEDTKE, H., DIPL.-ING. BUEHLING, G., DIPL.-CHEM. KINNE, R., DIPL.-ING. GRUPE, P., DIPL.-ING. PELLMANN, H., DIPL.-ING. GRAMS, K., DIPL.-ING., PAT.-ANWAELTE, 8000 MUENCHEN