DE3724833C2 - - Google Patents
Info
- Publication number
- DE3724833C2 DE3724833C2 DE3724833A DE3724833A DE3724833C2 DE 3724833 C2 DE3724833 C2 DE 3724833C2 DE 3724833 A DE3724833 A DE 3724833A DE 3724833 A DE3724833 A DE 3724833A DE 3724833 C2 DE3724833 C2 DE 3724833C2
- Authority
- DE
- Germany
- Prior art keywords
- operator
- information
- detector
- mental condition
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/905—Feedback to patient of biological signal other than brain electric signal
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/92—Computer assisted medical diagnostics
Description
Die Erfindung bezieht sich auf ein Gerät
zur Informationsverarbeitung gemäß dem Oberbegriff des
Patentanspruchs 1.
Ein Gerät zur Informationsverarbeitung dieser Art ist in
"Elektronik", 1983, S. 69-72, beschrieben. Die
Verarbeitungseinrichtung dieses bekannten Gerätes setzt von
einer Bedienungsperson eingegebene Befehle um und gibt
entsprechend einer Anforderung der Bedienungsperson
Informationen zur Bedienung an diese aus. Der Bedienungsperson
steht zur Dateneingabe eine
Funktionstastatur zur Verfügung, die spezielle Tasten mit
zwei hubabhängigen Schaltkontakten besitzt. Dieses bekannte
Informationsverarbeitungsgerät ist für die Mensch-Maschine-
Kommunikation gedacht. Die Bedienungsperson muß hierbei der
Maschine die gewünschten Informationen durch eigene
Betätigung abverlangen. Dies kann in manchen Anwendungsfällen
ungünstig sein.
Die GB 21 43 975 A zeigt ein Gerät zur
Informationsverarbeitung, bei dem mittels einer
Detektoreinrichtung in Form eines fotoelektrischen Sensors
die Anwesenheit einer Bedienungsperson festgestellt wird.
Besondere Maßnahmen zum Erkennen der Fähigkeit einer
Bedienungsperson sind in dieser Entgegenhaltung nicht
angegeben.
Die GB-Z Medical and Biological Engineering, Vol. 12, No 5, 1974, S. 693-697, zeigt
ein Informationsverarbeitungsgerät, das speziell
Behinderten, wie z. B. Querschnittsgelähmten, die
Interaktion mit einer Maschine ermöglichen soll. Zur
Eingabe sind für die Bedienungsperson geeignete
Wandlerelemente zum Eingeben dualer Daten vorgesehen. Das
Gerät selbst besitzt nicht die Möglichkeit, Fähigkeiten
einer Bedienungsperson festzustellen.
Der Erfindung liegt die Aufgabe zugrunde, ein Gerät zur
Informationsverarbeitung gemäß dem Oberbegriff des
Patentanspruchs 1 derart weiterzubilden, daß eine möglichst
gute Anpassung des Geräts an eine jeweilige
Bedienungsperson erreicht wird.
Diese Aufgabe wird mit den im kennzeichnenden Teil des Patentanspruchs
1 angegebenen Merkmalen gelöst.
Aufgrund dieser Maßnahmen kann sich das Gerät in effektiver
Weise von sich aus dem jeweiligen, gerade vorliegenden
Leistungsvermögen des Benutzers anpassen und im
Bedarfsfall zu dessen Entspannung beitragen.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand
der Unteransprüche.
Die Erfindung wird nachstehend anhand von Ausführungsbeispie
len unter Bezugnahme auf die Zeichnung näher erläutert.
Fig. 1 ist eine Ansicht, die einen Zustand zeigt, bei dem
eine Bedienungsperson ein Informationsverarbeitungs
gerät gemäß einem Ausführungsbeispiel benutzt.
Fig. 2 veranschaulicht einen Zustand, bei dem die Bedie
nungsperson eine besondere Brille für das Büroauto
matisierungsgerät trägt.
Fig. 3 zeigt einen mittels der Brille erfaßten Pupillen
bewegungsbereich.
Fig. 4 zeigt ein Beispiel für die bei dem Ausführungsbei
spiel abgegebenen Informationen.
Fig. 5 ist eine Ansicht, die die Architektur einer Steuer
einrichtung zeigt, welche die Informationsverarbei
tungseinrichtung bei dem Ausführungsbeispiel bildet.
Fig. 6 veranschaulicht den Zusammenhang zwischen Ausgaben
und einem Betriebssystem.
Fig. 7 zeigt die grundlegende Gestaltung des Informations
verarbeitungsgeräts gemäß dem Ausführungsbeispiel.
Fig. 8 ist eine Tabelle, die Betriebszustände bei dem Aus
führungsbeispiel zeigt, welche sich mit dem Ablauf
der Zeit ändern.
Die charakteristischen Merkmale des Geräts können bei einem
einzelnen Gerät oder bei einem System aus mehreren Geräten
erreicht werden.
Gegenwärtig wird als einfaches Verfahren für die Mensch-
Maschine-Beziehung eine Spracheingabevorrichtung vorgeschla
gen. Auch durch diese Vorrichtung wird der Benutzer bzw. die
Bedienungsperson nur von einer umständlichen Tasteneingabe
befreit, jedoch bildet eine solche Vorrichtung keine endgültige
Lösung für die Mensch-Maschine-Beziehung. Es ist insbesondere
bei den gerade bestehenden Techniken schwierig, eine Sprach
erkennung bei einer Vielzahl von Benutzern zu realisieren.
Ein charakteristisches Merkmal des beschriebenen Geräts be
steht darin, daß von einer Maschine die psychologische Nei
gung einer Bedienungsperson als Benutzer erfaßt und von der
Maschine her eine Nachrichtenverbindung zum Menschen hin
angefordert wird.
Zu diesem Zweck wird ein Verfahren vorgeschlagen, bei dem ein
Zugriff auf die Maschine oder ein Ruhezustand einer Bedienungs
person erfaßt wird, um von der Maschine her sprachlich zu
antworten oder zu ermitteln, ob die Bedienungsperson die
Maschine zu benützen wünscht oder nicht; die Maschine wartet
eine Einschaltung ab (Netzeinschaltung oder Anfangsvorberei
tung), wobei mittels einer Spracherkennungsfunktion
eine Sprachverbindung mit einer Bedienungsperson
hergestellt wird. Dieses Verfahren ist jedoch nicht besser
als die Mensch-Maschine-Schnittstelle bzw. -Beziehung und
vereinfacht lediglich eine Schnittstelle bzw. Kommunikation
mit der Maschine. Die Person-Maschine-Beziehung kann nicht
herbeigeführt werden, falls nicht die Maschine die geistige
Kondition der Bedienungsperson abfragt.
Bei diesem Ausführungsbeispiel wird das Informationsverarbei
tungsgerät als Arbeitsplatzcomputer oder als Textverarbei
tungsgerät benutzt. Die vorliegende Ausführung ist
jedoch nicht darauf beschränkt; vielmehr kann eine äquivalen
te Beziehung zwischen einer Maschine zur numerischen Steue
rung, einer Großanlage oder dergleichen und einer Bedienungs
person hergestellt werden.
Eine Bedienungsperson betätigt normalerweise eine Tastatur
unter Beobachtung eines Sichtgeräts, woraufhin die Maschine
verschiedene Verarbeitungsvorgänge entsprechend den ein
gegebenen Daten, entsprechend in
einem Speicher gespeicherten Daten oder einem Befehl über die
Tastatur ausführt. Es stellt sich jedoch die Frage, wie die
Maschine die geistige Kondition der Bedienungsperson erfassen
kann.
Nach einem ersten Verfahren werden im voraus in die Maschine
zusammen mit einer eigenen Kennziffer Daten eingegeben, die
Daten über die Persönlichkeit, den Charakter und dergleichen
einer Bedienungsperson wiedergeben. Nach einem zweiten Ver
fahren wird die geistige Kondition der Bedienungsperson aus
der Pupillenbewegung der Bedienungsperson, der Körpertempera
tur, der Raumtemperatur, dem Puls, dem Blutdruck und mittels
eines Sensors der Maschine erfaßten Eingabefehlern ermittelt.
Nach diesem Verfahren werden nur gewöhnliche Vorgänge erfaßt.
Mit diesem Verfahren kann die Maschine jedoch die Persönlich
keit und die geistige Kondition der Bedienungsperson erfassen
und durch eine Nachricht auf einem Bildschirm oder eine
gesprochene Nachricht in der Weise reagieren, als ob es sich
um einen guten Freund handeln würde. Es ist anzumerken, daß
die vorstehend beschriebenen Daten auch durch das Überwachen
einer Suchzeit der Bedienungsperson ermittelt werden können.
Die Fig. 1 zeigt ein Beispiel für die Erfassung von Bioinfor
mationen. Die Fig. 1 zeigt einen Zustand, bei dem eine Bedie
nungsperson 1 ein Büroautomatisierungsgerät (wie beispiels
weise ein Textverarbeitungsgerät) bedient.
Bei diesem Zustand wird die geistige Kondition der Bedie
nungsperson 1 auf die vorstehend beschriebene Weise erfaßt.
Zunächst wird eine Brille 4 für das Büroautomatisierungsgerät
beschrieben.
Die Brille 4 hat einen Sensor für den fernen Infrarotbe
reich, der das ständige Aufnehmen der Pupillenbewegung der
Bedienungsperson 1 ermöglicht. In der Praxis wird an einem
Rand der Brille 4 ein Leuchtelement zum Erzeugen eines schwa
chen Strahls im fernen Infrarotbereich angebracht, das den
Strahl auf die Pupille richtet. Da die Pupille der Bedie
nungsperson schwarz bzw. dunkel ist, wird von der Pupille kein bzw. abgeschwächtes
reflektiertes Licht erhalten.
Wenn der Strahl außerhalb der Pupille einfällt, wird das
dadurch reflektierte Licht mittels eines Lichtempfangsele
ments aufgenommen. Die Richtwirkung des Leuchtelements kann
derart eingestellt werden, daß kein reflektiertes Licht auf
genommen wird, wenn sich die Pupille innerhalb eines Bereichs
bewegt, in dem die Bedienungsperson den Bildschirm eines
Sichtgeräts 2 beobachtet. Aus der Fig. 3 ist ersichtlich, daß
ein Bereich der Pupillenbewegung bei dem Betrachten einer
Tastatur 3 und ein Bereich der Pupillenbewegung bei dem
Betrachten des Sichtgeräts erkannt werden können. Wenn sich
die Pupille aus diesen Bereichen oder häufig aus diesen
Bereichen herausbewegt, wird daraus erkannt, daß die Bedie
nungsperson 1 beträchtlich ermüdet ist oder sich nicht auf
den Bedienungsvorgang konzentrieren kann, so daß daher an
einem Bereich des Bildschirms eine Nachricht "kurze Pause?"
angezeigt oder ein Bild dargestellt wird, das die Bedienungs
person gerne sehen möchte. In der Fig. 4 ist ein solcher
Zustand dargestellt. Nach Fig. 4 wird an einem Bereich des
Bildschirms eine Landschaft dargestellt, die die Bedienungs
person gerne sehen möchte, während zugleich eine der Bedie
nungsperson angenehme Hintergrundmusik wiedergegeben werden
kann. Daher muß vor dem Einschalten des Geräts in das Gerät
eine eigene Kennziffer eingegeben werden, da verschiedene
Personen verschiedene Bilder oder verschiedene Hintergrund
musik bevorzugen. Auf diese Weise kann das Gerät mit hoher
Genauigkeit auf der Grundlage der der eingegebenen Kennziffer
entsprechenden Daten die geistige Kondition der Bedienungs
person ermitteln.
Hinsichtlich der Einrichtung für das Erfassen der geistigen
Kondition der Bedienungsperson besteht keine Einschränkung
auf die vorstehend beschriebene Brille für das Büroautomati
sierungsgerät. Beispielsweise kann gemäß der vorangehenden
Beschreibung die geistige Kondition der Bedienungsperson aus
den Umgebungsbedingungen bei der Benutzung des Geräts durch
die Bedienungsperson und aus der Körpertemperatur, dem Puls,
dem Blutdruck und Eingabefehlern der Bedienungsperson ermit
telt werden. Zu diesem Zweck werden zum Erfassen einer Ände
rung der geistigen Kondition ein Temperaturfühler, ein Puls
fühler, ein Blutdruckfühler und/oder ein Sensor für das Er
fassen der Druckkraft bei dem Herunterdrücken in einigen
Tasten der Tastatur 3 angebracht (wie z. B. in einer Wagen
rücklauftaste und einer Leertaste, die häufig benutzt
werden). Mit der Tastatur 3 mit der vorstehend genannten
Funktion kann ermittelt werden, daß die Druckkraft bei der
Betätigung der Tastatur 3 höher als eine normale Druckkraft
wird, oder die Anzahl von Fehlerkorrekturen bei dem Drücken
falscher Tasten gezählt werden. Entsprechend der Häufigkeit
kann das Gerät mit der Bedienungsperson in Verbindung treten,
wodurch eine Mensch-Maschine-Wechselwirkung entsteht.
Von dem Gerät werden die Informationen über die geistige
Kondition der Bedienungsperson wie über Änderungen der Pupil
lenbewegung, die Häufigkeit von Eingabefehlern, den Puls, die
Körpertemperatur, den Blutdruck und dergleichen erfaßt, wo
raus das Gerät das Ausmaß der Ermüdung ermittelt, so daß eine
von dem erfaßten Zustand abhängige Nachrichtenverbindung
herbeigeführt werden kann.
Die Fig. 5 zeigt die Architektur einer Steuereinheit, die
eine Büroautomatisierungs-Einrichtung als Informationsverar
beitungsgerät bildet. Mit der Halbleiter-Herstellungstechnik
gemäß der neueren Entwicklung kann die Steuereinheit auf
einem einzelnen Halbleiterplättchen ausgebildet werden. Ein
Merkmal der Steuereinheit nach Fig. 5 besteht darin, daß
zusätzlich zu einer Zentraleinheit CPU auf einem einzigen
Halbleiterplättchen eine Vielzahl von Kanälen von Koprozesso
ren COP für die Steuerung tatsächlicher Aufgaben vorgesehen
ist. Daher muß die Zentraleinheit CPU lediglich das Betriebs
system für das Verwalten der Koprozessoren COP steuern. Bei
diesem Ausführungsbeispiel bedeutet der Umstand, daß die
Maschine die Funktion zum Erfassen und Lernen der geistigen
Kondition der Bedienungsperson hat, eine Annäherung an eine
künstliche Intelligenz. Daher wird vorzugsweise eine Vielzahl
von Prozessoren angeordnet, die eine schnelle parallele Ver
arbeitung ermöglichen.
Eine Schicht 2 nach Fig. 5 enthält ein Mikroprogramm, das den
Betrieb der Zentraleinheit CPU mit hoher Geschwindigkeit
ermöglicht. Dieses Programm ist derart ausgelegt, daß auf das
Zusammenwirken mit einer Bedienungsperson hin mit hoher Ge
schwindigkeit ein kompliziertes Programm für das Verstehen
bzw. Beurteilen einer Bedienungsperson ausgeführt wird.
Eine Schicht 3 enthält eine Gruppe von Koprozessoren COP.
Koprozessoren für Kanäle 0 bis 16 können unabhängig voneinan
der parallel betrieben werden. Diese Prozessoren stehen nicht
direkt in Zusammenhang mit der erfindungsgemäßen Gestaltung
des Geräts, so daß sich eine ausführliche Beschreibung der
selben erübrigt.
Eine Schicht 4 enthält eine Zeitgeber/Zähler-Anordnung, die
von der Zentraleinheit CPU und den Koprozessoren COP abgeru
fen werden kann. Es ist anzumerken, daß jeder Koprozessor COP
14 Kanäle von Zeitgebern/Zählern enthält. Für den Datenaus
tausch zwischen der Zentraleinheit CPU und dem Koprozessor
COP und zwischen den Koprozessoren COP wird ein Doppelkanal-
Schreib/Lesespeicher DPRAM benutzt. Von den Koprozessoren COP
und der Zentraleinheit CPU kann ein Arbeitsspeicher RAM abge
rufen werden. Eine Schicht 5 enthält Sammelleitungen, die als
Schnittstellen zu einer externen Schaltung (außerhalb der
Steuereinheit) eingesetzt werden. Eine Sammelleitung SBUS
wird für eine Erweiterung mit einem externen Speicher und
externen Eingabe/Ausgabeeinheiten benutzt.
Eine Sammelleitung IBUS wird insbesondere für einen Emula
tions- und Testadapter (ICE) benutzt. Bei der Fehlerbeseiti
gung im System kann über diese Sammelleitung der Inhalt eines
(nicht gezeigten) Registrier-Arbeitsspeichers herausgeleitet
und überprüft werden.
Eine Sammelleitung OBUS ist eine Eingabe/Ausgabeleitung, die
für die Erweiterung mit einem Eingabe/Ausgabe-Element benutzt
werden kann.
In einer seriellen Schnittstelle LAN zur Ein- und Ausgabe
wird durch ein Programm ein vorbestimmtes Protokoll gebildet,
wobei die Koprozessoren COP zu einer seriellen Datenverbin
dung mit der Schnittstelle ausgebildet sind.
Die Fig. 6 zeigt Aufgaben, die mit dem Informationsverarbei
tungsgerät gemäß dem Ausführungsbeispiel auszuführen sind,
und Schichten des Betriebssystems. Gemäß der vorstehenden
Beschreibung ist bei diesem Ausführungsbeispiel um die Zen
traleinheit CPU herum eine Vielzahl parallel betreibbarer
Koprozessoren COP angeordnet, von denen einige zur Steuerung
der Person-Maschine-Beziehung bzw. -Schnittstelle herangezo
gen werden können. Dieses Betriebssystem enthält ein Be
triebssystem zur normalen Maschinensteuerung und ein Be
triebssystem für die Person-Maschine-Beziehung. Das Betriebs
system für die Person-Maschine-Beziehung kann als ein Be
triebssystem mit künstlicher Intelligenz für das allmähliche
Lernen der Angewohnheit oder Personalität einer Bedienungs
person durch das Zusammenwirken mit der Bedienungsperson und
für das bessere Verstehen angesehen werden. Die Koprozessoren
COP sind um das Betriebssystem für die Person-Maschine-Bezie
hung bzw. -Schnittstelle (PMI OS) herum angeordnet und führen
parallel entsprechende Aufgaben 0 bis 15 aus.
Die Zuordnung der Aufgaben 0 bis 15 für die Person-Maschine-
Beziehung kann in Abhängigkeit von der Programmarchitektur
festgelegt werden. Entsprechend einer Arbeitsbelastung kann
die Anzahl der Koprozessoren COP gesteigert oder vermindert
werden.
Zum Ausführen der vorstehend beschriebenen Verarbeitung ist
ein besonderes Betriebssystem erforderlich. Für das Ausführen
des einer künstlichen Intelligenz ähnlichen Betriebssystems
für die Person-Maschine-Beziehung mit Lernfunktion sind Pro
zessoren zur Parallelverarbeitung mit hoher Geschwindigkeit
erforderlich. Die Architektur bei diesem Ausführungsbeispiel
ist für diese Betriebssysteme und Prozessoren geeignet.
Die Fig. 7 zeigt eine Anordnung bei der Verwendung dieses
Systems in einem Büroautomatisierungsgerät. Für die Person-
Maschine-Beziehung sind ein Bioinformations-Sensor 6, ein
Sichtgerät 2 für die Sichtanzeige zur Person-Maschine-Kommuni
kation an einem Teilbereich des Bildschirms und ein Lautspre
cher 7 für akustische Meldungen vorgesehen. Das ganze Gerät
wird mittels einer Steuereinheit 5 gesteuert, die einen
Grunddatenspeicher 5 a zum Speichern von Grunddaten für eine
jede Bedienungsperson enthält (nämlich von Daten, die die
Personalitäten und Vorlieben der jeweiligen Bedienungsperso
nen wiedergeben).
Mit dieser Anordnung kann auf einfache Weise eine preisgün
stige Person-Maschine-Beziehung bzw. -Schnittstelle auf einem
Niveau erzielt werden, das höher als dasjenige bei der her
kömmlichen Mensch-Maschine-Beziehung bzw. -Schnittstelle ist.
Die Fig. 8 zeigt Nachrichten und Ankündigungen der Person-
Maschine-Schnittstelle bei diesem Ausführungsbeispiel im
zeitlichen Ablauf. Wenn das Gerät eingeschaltet wird, wird
zuerst "Guten Morgen" angezeigt oder ausgesprochen. Da das
Gerät nicht immer am Morgen eingeschaltet wird, können dem
Einschaltzeitpunkt entsprechende Begrüßungsdaten ausgegeben
werden. Falls es erforderlich ist, wird ein Kennwort oder
eine Kennziffer eingegeben. Wenn die Kennziffer eingegeben
ist, kann daraus das Gerät die Bedienungsperson identifizie
ren. Wenn daher für die Ausgabe einer Nachricht danach die
geistige Kondition erfaßt wird, werden die für die Bedie
nungsperson am besten geeigneten Daten ausgegeben. Beispiels
weise wird gemäß Fig. 8 (um 10 Uhr vormittags und um 3 Uhr
nachmittags) die Nachricht "Teepause?" angezeigt. Falls die
Bedienungsperson Kaffee vorzieht, kann die Nachricht auf
"Kaffeepause?" abgeändert werden. Da eine Bildausgabe zu
diesem Zeitpunkt sich in Abhängigkeit von den Unterschieden
zwischen den Personen ändert, ist ein auf dem Sichtgerät
dargestelltes Bild nicht immer das gleiche. Beispielsweise
kann in Abhängigkeit von der Vorliebe der Bedienungsperson
ein Berg, das Meer, ein populärer Sänger, ein Idol, Buddha
oder dergleichen abgebildet werden. Ferner können auch zu
sätzlich klassische Musik, Volkslieder, Vogelgesang, Meeres
rauschen und dergleichen wiedergegeben werden. Daher können
Bild und Ton abgegeben werden, die die Bedienungsperson er
freuen bzw. der Bedienungsperson Entspannung bringen. Auf
diese Weise dient die Eingabe der Kennziffer zum Wählen der
in dem Gerät vorgespeicherten persönlichen Grunddaten, wobei
der Inhalt der abgegebenen Nachrichten nach Bedarf verändert
werden kann. Falls keine Kennziffern benutzt werden, können
natürlich allgemein gültige Daten ausgegeben werden.
Bei dem Gerät gemäß diesem Ausführungsbeispiel können die
Maschine und der Mensch sich verständigen bzw. einander ver
stehen, so daß die Bedienungsperson keine geistigen Schädi
gungen wie Neurosen erleidet, wobei die Zusammenwirkung mit
der Maschine reibungslos abgewickelt werden kann.
Da die Maschine die Bioinformationen erfaßt und Informationen
für die Bedienungsperson abruft, wird dadurch ein gutes Ver
hältnis zwischen der Bedienungsperson und der Maschine
gewährleistet, wobei die Maschine die einer zum jeweiligen
Zeitpunkt bestehenden Kondition entsprechende Bekanntgabe
macht, um Fehler auszuschalten.
Falls in dem Gerät im voraus persönliche Grunddaten für die
Bedienungspersonen gespeichert werden, können noch besser
angemessene Nachrichten abgegeben werden.
Claims (13)
1. Gerät zur Informationsverarbeitung mit einer Verarbeitungseinrichtung
zum Ausführen verschiedener Informationsverarbeitungsvorgänge
in Abhängigkeit von Befehlen einer
Bedienungsperson und einer Ausgabeeinrichtung für die
Abgabe von Information an die Bedienungsperson, dadurch
gekennzeichnet, daß eine Detektoreinrichtung vorgesehen
ist (4; 6); mit der die geistige Kondition der Bedienungsperson
erfaßbar ist, während diese ihre aktuelle Arbeit
verrichtet, und daß mittels der Ausgabeeinrichtung (2; 7)
entsprechend der erfaßten Kondition an die Bedienungsperson
Informationen abgebbar sind, die zur Entspannung
der Bedienungsperson dienen.
2. Gerät nach Anspruch 1, dadurch gekennzeichnet, daß
die Detektoreinrichtung (6) Informationen über die Persönlichkeit
der Bedienungsperson erfaßt.
3. Gerät nach Anspruch 1 oder 2, dadurch gekennzeichnet,
daß die Detektoreinrichtung (4; 6) die geistige Kondition
aus Informationen über das Ausmaß der Konzentration der
Bedienungsperson auf einen Arbeitsvorgang ermittelt.
4. Gerät nach Anspruch 3, dadurch gekennzeichnet, daß
durch die Detektoreinrichtung (4) das Ausmaß der Konzentration aus der Pupillenbewegung
der Bedienungsperson ermittelt wird.
5. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus der Pulsfrequenz der Bedienungsperson ermittelt wird.
6. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus der Körpertemperatur
der Bedienungsperson ermittelt wird.
7. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß durch die Detektoreinrichtung (6) die geistige Kondition aus dem
Blutdruck der Bedienungsperson ermittelt wird.
8. Gerät nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet,
daß durch die Detektoreinrichtung das Ausmaß der Konzentration aus der Häufigkeit
von Eingabefehlern der Bedienungsperson, insbesondere bei der Tastatureingabe, ermittelt
wird.
9. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß die Detektoreinrichtung (6)
die geistige Kondition aus der Arbeitszeitdauer der Bedienungsperson
erfaßt.
10. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß die Detektoreinrichtung (6)
die geistige Kondition aus dem Tastenbetätigungsdruck
durch die Bedienungsperson erfaßt.
11. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß die Ausgabeeinrichtung (2, 7)
eine Tonausgabevorrichtung für die Abgabe einer gesprochenen
Nachricht, einer Melodie oder dergleichen aufweist.
12. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß die Ausgabeeinrichtung (2, 7)
Bildinformationen, wie eine Schriftzeichennachricht, ein
Bild oder dergleichen abgibt.
13. Gerät nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, daß eine Speichereinrichtung (5 a)
zum Speichern von Grundinformationen über mehrere Bedienungspersonen
und eine Wähleinrichtung, insbesondere eine Tastatur (3), zum
Wählen der Grundinformationen über eine bestimmte Bedienungsperson
vorgesehen sind.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61175718A JPS6332624A (ja) | 1986-07-28 | 1986-07-28 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3724833A1 DE3724833A1 (de) | 1988-02-18 |
DE3724833C2 true DE3724833C2 (de) | 1990-10-25 |
Family
ID=16001023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19873724833 Granted DE3724833A1 (de) | 1986-07-28 | 1987-07-27 | Informationsverarbeitungsgeraet |
Country Status (3)
Country | Link |
---|---|
US (1) | US4894777A (de) |
JP (1) | JPS6332624A (de) |
DE (1) | DE3724833A1 (de) |
Families Citing this family (126)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5167228A (en) * | 1987-06-26 | 1992-12-01 | Brigham And Women's Hospital | Assessment and modification of endogenous circadian phase and amplitude |
DE3808260C1 (en) * | 1988-03-12 | 1989-03-16 | Fred 6991 Igersheim De Henneberg | Screen device |
JPH021897A (ja) * | 1988-06-13 | 1990-01-08 | Hitachi Ltd | 三次元映像表示装置、コピユータグラフイツクスシステム及びオーデイオビジユアルシステム |
JP2845926B2 (ja) * | 1989-03-20 | 1999-01-13 | 株式会社日立製作所 | マンマシンシステム |
US5170362A (en) * | 1991-01-15 | 1992-12-08 | Atlantic Richfield Company | Redundant system for interactively evaluating the capabilities of multiple test subjects to perform a task utilizing a computerized test system |
DE4114926C1 (en) * | 1991-05-07 | 1992-09-17 | Michael 6500 Mainz De Flanz | Data processing installation with optical input unit - includes optical transmitter worn by user, esp. handicapped or spastic person, generating light beam |
GB9117015D0 (en) * | 1991-08-07 | 1991-09-18 | Software Solutions Ltd | Operation of computer systems |
US7941326B2 (en) * | 2001-03-14 | 2011-05-10 | Health Hero Network, Inc. | Interactive patient communication development system for reporting on patient healthcare management |
US6330426B2 (en) | 1994-05-23 | 2001-12-11 | Stephen J. Brown | System and method for remote education using a memory card |
US8095340B2 (en) | 1992-11-17 | 2012-01-10 | Health Hero Network, Inc. | Home power management system |
US20040019259A1 (en) * | 1992-11-17 | 2004-01-29 | Brown Stephen J. | Remote monitoring and data management platform |
US8027809B2 (en) | 1992-11-17 | 2011-09-27 | Health Hero Network, Inc. | Home power management system |
US5951300A (en) * | 1997-03-10 | 1999-09-14 | Health Hero Network | Online system and method for providing composite entertainment and health information |
US5832448A (en) * | 1996-10-16 | 1998-11-03 | Health Hero Network | Multiple patient monitoring system for proactive health management |
US5307263A (en) | 1992-11-17 | 1994-04-26 | Raya Systems, Inc. | Modular microprocessor-based health monitoring system |
US7613590B2 (en) * | 1992-11-17 | 2009-11-03 | Health Hero Network, Inc. | Modular microprocessor-based power tool system |
US6968375B1 (en) | 1997-03-28 | 2005-11-22 | Health Hero Network, Inc. | Networked system for interactive communication and remote monitoring of individuals |
US20070299321A1 (en) * | 1992-11-17 | 2007-12-27 | Brown Stephen J | Method and apparatus for remote health monitoring and providing health related information |
US7624028B1 (en) * | 1992-11-17 | 2009-11-24 | Health Hero Network, Inc. | Remote health monitoring and maintenance system |
US8078431B2 (en) | 1992-11-17 | 2011-12-13 | Health Hero Network, Inc. | Home power management system |
US20010011224A1 (en) | 1995-06-07 | 2001-08-02 | Stephen James Brown | Modular microprocessor-based health monitoring system |
US9215979B2 (en) * | 1992-11-17 | 2015-12-22 | Robert Bosch Healthcare Systems, Inc. | Multi-user remote health monitoring system |
US5940801A (en) * | 1994-04-26 | 1999-08-17 | Health Hero Network, Inc. | Modular microprocessor-based diagnostic measurement apparatus and method for psychological conditions |
US8078407B1 (en) | 1997-03-28 | 2011-12-13 | Health Hero Network, Inc. | System and method for identifying disease-influencing genes |
US5956501A (en) * | 1997-01-10 | 1999-09-21 | Health Hero Network, Inc. | Disease simulation system and method |
WO2001037174A1 (en) * | 1992-11-17 | 2001-05-25 | Health Hero Network, Inc. | Method and system for improving adherence with a diet program or other medical regimen |
IL106338A0 (en) * | 1993-07-14 | 1993-11-15 | Sarid Medical Instrumentation | Method and apparatus for detection of neuronal ionic disturbances |
US5696981A (en) * | 1993-09-30 | 1997-12-09 | Shovers; Aaron H. | Personality analyzer |
US5539861A (en) * | 1993-12-22 | 1996-07-23 | At&T Corp. | Speech recognition using bio-signals |
US5559926A (en) * | 1993-12-22 | 1996-09-24 | Lucent Technologies Inc. | Speech recognition training using bio-signals |
US5539860A (en) * | 1993-12-22 | 1996-07-23 | At&T Corp. | Speech recognition using bio-signals |
AU2365695A (en) * | 1994-04-26 | 1995-11-16 | Raya Systems, Inc. | Modular microprocessor-based diagnostic measurement system for psychological conditions |
FI943283A (fi) * | 1994-07-11 | 1996-01-12 | Polar Electro Oy | Tiedonsyöttölaite |
US5617855A (en) * | 1994-09-01 | 1997-04-08 | Waletzky; Jeremy P. | Medical testing device and associated method |
GB2298501A (en) * | 1994-09-05 | 1996-09-04 | Queen Mary & Westfield College | Movement detection |
JP3530591B2 (ja) * | 1994-09-14 | 2004-05-24 | キヤノン株式会社 | 音声認識装置及びこれを用いた情報処理装置とそれらの方法 |
US5686938A (en) * | 1995-06-29 | 1997-11-11 | Batkhan; Leonid Z. | Adaptive cursor control system |
US5715160A (en) * | 1995-08-21 | 1998-02-03 | Plotke; Robert Jay | Motion control evaluation employing a Fourier transform |
US7305348B1 (en) | 1996-02-20 | 2007-12-04 | Health Hero Network, Inc. | Aggregating and pooling health related information in a communication system with feedback |
US6688888B1 (en) | 1996-03-19 | 2004-02-10 | Chi Fai Ho | Computer-aided learning system and method |
NL1002853C2 (nl) * | 1996-04-12 | 1997-10-15 | Eyelight Research Nv | Methode voor het herkennen van een door een persoon waargenomen pagina of object, voor het vastleggen van de tijdsduur en de plaatsen van de pagina of het object die hij opmerkt of bekijkt, alsmede middelen voor toepassing bij de methode. |
NL1002854C2 (nl) * | 1996-04-12 | 1997-10-15 | Eyelight Research Nv | Methode en meetsysteem voor het meten en interpreteren van reacties van respondenten op gepresenteerde stimuli, zoals advertenties of dergelijke. |
US6093153A (en) * | 1996-08-02 | 2000-07-25 | Levin; David N. | Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception |
US5860936A (en) * | 1996-08-02 | 1999-01-19 | Levin; David N. | Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception |
US5944530A (en) * | 1996-08-13 | 1999-08-31 | Ho; Chi Fai | Learning method and system that consider a student's concentration level |
USRE39539E1 (en) | 1996-08-19 | 2007-04-03 | Torch William C | System and method for monitoring eye movement |
US5827071A (en) * | 1996-08-26 | 1998-10-27 | Sorensen; Steven Michael | Method, computer program product, and system for teaching or reinforcing information without requiring user initiation of a learning sequence |
US7636667B2 (en) | 1996-12-23 | 2009-12-22 | Health Hero Networks, Inc. | Network media access control system for encouraging patient compliance with a treatment plan |
US6032119A (en) | 1997-01-16 | 2000-02-29 | Health Hero Network, Inc. | Personalized display of health information |
US6113538A (en) * | 1997-04-02 | 2000-09-05 | Bowles-Langley Technology, Inc. | Alertness tester |
US6228038B1 (en) * | 1997-04-14 | 2001-05-08 | Eyelight Research N.V. | Measuring and processing data in reaction to stimuli |
AUPP283298A0 (en) * | 1998-04-06 | 1998-04-30 | Park, Thomas Michael | Stress monitoring system |
US9792659B2 (en) | 1999-04-13 | 2017-10-17 | Iplearn, Llc | Computer-aided methods and apparatus to access materials in a network environment |
US8521546B2 (en) * | 1998-09-25 | 2013-08-27 | Health Hero Network | Dynamic modeling and scoring risk assessment |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
TWM244584U (en) * | 2000-01-17 | 2004-09-21 | Semiconductor Energy Lab | Display system and electrical appliance |
DE10210799B4 (de) * | 2002-03-12 | 2006-04-27 | Siemens Ag | Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders |
JP3632687B2 (ja) * | 2002-09-12 | 2005-03-23 | 富士ゼロックス株式会社 | ユーザビリティ評価装置 |
US20050060194A1 (en) * | 2003-04-04 | 2005-03-17 | Brown Stephen J. | Method and system for monitoring health of an individual |
US7260480B1 (en) | 2003-04-07 | 2007-08-21 | Health Hero Network, Inc. | Method and system for integrating feedback loops in medical knowledge development and healthcare management |
US7399276B1 (en) | 2003-05-08 | 2008-07-15 | Health Hero Network, Inc. | Remote health monitoring system |
JP4048492B2 (ja) * | 2003-07-03 | 2008-02-20 | ソニー株式会社 | 音声対話装置及び方法並びにロボット装置 |
JP2005084590A (ja) * | 2003-09-11 | 2005-03-31 | Nissan Motor Co Ltd | 音声認識装置 |
US7734338B2 (en) * | 2003-12-19 | 2010-06-08 | Ultrasis Uk Limited | Treatment of epilepsy |
US10039445B1 (en) | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
CA2967756C (en) * | 2004-04-01 | 2018-08-28 | Google Inc. | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US20110077548A1 (en) * | 2004-04-01 | 2011-03-31 | Torch William C | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
IL165586A0 (en) * | 2004-12-06 | 2006-01-15 | Daphna Palti Wasserman | Multivariate dynamic biometrics system |
GB2427952B (en) * | 2005-07-02 | 2010-09-01 | Raymond Butcher | Apparatus for preventing visual impairment |
JP2010511218A (ja) * | 2006-11-28 | 2010-04-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ストレス軽減方法及びシステム |
US20090024049A1 (en) | 2007-03-29 | 2009-01-22 | Neurofocus, Inc. | Cross-modality synthesis of central nervous system, autonomic nervous system, and effector data |
US20080243005A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Computational user-health testing |
WO2008122928A1 (en) * | 2007-04-04 | 2008-10-16 | Koninklijke Philips Electronics N.V. | Determining stress level based on the performance of the person in a game or puzzle |
WO2008137579A1 (en) * | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-informatics repository system |
WO2008137581A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
WO2008144569A1 (en) * | 2007-05-16 | 2008-11-27 | Neurofocus, Inc. | Habituation analysis using central nervous system, autonomic nervous system and effector system measurements |
WO2008141340A1 (en) * | 2007-05-16 | 2008-11-20 | Neurofocus, Inc. | Audience response measurement and tracking system |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
US8494905B2 (en) * | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
US20090030287A1 (en) * | 2007-06-06 | 2009-01-29 | Neurofocus Inc. | Incented response assessment at a point of transaction |
JP5542051B2 (ja) | 2007-07-30 | 2014-07-09 | ニューロフォーカス・インコーポレーテッド | 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置 |
US20090036755A1 (en) * | 2007-07-30 | 2009-02-05 | Neurofocus, Inc. | Entity and relationship assessment and extraction using neuro-response measurements |
US8979754B2 (en) * | 2007-08-09 | 2015-03-17 | FITS—Functional Interactive Timing System Ltd. | Interactive system and method for neuromotor functioning assessment and training |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8392254B2 (en) | 2007-08-28 | 2013-03-05 | The Nielsen Company (Us), Llc | Consumer experience assessment system |
US8635105B2 (en) * | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
US8392255B2 (en) * | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US20090083129A1 (en) * | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US8494610B2 (en) * | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
KR101024140B1 (ko) * | 2008-11-13 | 2011-03-22 | 박덕용 | 온라인 학습을 위한 콘텐츠 제공 시스템 |
US8464288B2 (en) | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US9357240B2 (en) | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8270814B2 (en) * | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US20100249538A1 (en) * | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Presentation measure using neurographics |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US20100249636A1 (en) * | 2009-03-27 | 2010-09-30 | Neurofocus, Inc. | Personalized stimulus placement in video games |
TWI397865B (zh) * | 2009-08-12 | 2013-06-01 | Utechzone Co Ltd | Security personnel to monitor the degree of focus monitoring system |
US20110046502A1 (en) * | 2009-08-20 | 2011-02-24 | Neurofocus, Inc. | Distributed neuro-response data collection and analysis |
US8655437B2 (en) | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) * | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US8756657B2 (en) * | 2009-09-29 | 2014-06-17 | Ebay Inc. | Mobile or user device authentication and tracking |
US20110106750A1 (en) | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US8209224B2 (en) * | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US8335715B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
US8335716B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
US10186163B1 (en) | 2009-11-25 | 2019-01-22 | Peter D. Letterese | System and method for reducing stress and/or pain |
US8890946B2 (en) * | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US20110237971A1 (en) * | 2010-03-25 | 2011-09-29 | Neurofocus, Inc. | Discrete choice modeling using neuro-response data |
WO2011133548A2 (en) | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
JP2014130467A (ja) * | 2012-12-28 | 2014-07-10 | Sony Corp | 情報処理装置、情報処理方法及びコンピュータプログラム |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
DK178652B1 (en) * | 2015-02-07 | 2016-10-17 | Pauseable Aps | A method and system for eliciting the relaxation response and cultivating attention |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
US11061233B2 (en) | 2015-06-30 | 2021-07-13 | 3M Innovative Properties Company | Polarizing beam splitter and illuminator including same |
US20230044247A1 (en) * | 2021-08-06 | 2023-02-09 | Rockwell Collins, Inc. | Cockpit display ambient lighting information for improving gaze estimation |
WO2023195115A1 (ja) * | 2022-04-07 | 2023-10-12 | 日本電気株式会社 | 会話装置、会話方法、及び非一時的なコンピュータ可読媒体 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4312358A (en) * | 1979-07-23 | 1982-01-26 | Texas Instruments Incorporated | Instrument for measuring and computing heart beat, body temperature and other physiological and exercise-related parameters |
JPS57211635A (en) * | 1981-06-23 | 1982-12-25 | Fujitsu Ltd | Keyboard input device |
US4683891A (en) * | 1982-04-26 | 1987-08-04 | Vincent Cornellier | Biomonitoring stress management method and device |
US4464121A (en) * | 1982-04-28 | 1984-08-07 | Perelli Layne P | Device for measuring fatigue effects |
JPS60592A (ja) * | 1983-06-15 | 1985-01-05 | 三菱電機株式会社 | いねむり防止装置 |
GB2143975A (en) * | 1983-06-18 | 1985-02-20 | Brown David F | Computerised interactive advertising and information display system |
JPS6076787A (ja) * | 1983-10-04 | 1985-05-01 | 日本電信電話株式会社 | バイオフイ−ドバツク制御装置 |
JPS60153542A (ja) * | 1984-01-23 | 1985-08-13 | Mitsubishi Electric Corp | 音響装置を内蔵した入力・表示装置 |
JPS6121523A (ja) * | 1984-07-09 | 1986-01-30 | Nec Corp | 自動入力によるデ−タ検索システム |
US4751642A (en) * | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
-
1986
- 1986-07-28 JP JP61175718A patent/JPS6332624A/ja active Pending
-
1987
- 1987-07-27 DE DE19873724833 patent/DE3724833A1/de active Granted
- 1987-07-28 US US07/078,647 patent/US4894777A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE3724833A1 (de) | 1988-02-18 |
JPS6332624A (ja) | 1988-02-12 |
US4894777A (en) | 1990-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3724833C2 (de) | ||
Snowberry et al. | Computer display menus | |
Howes et al. | Display-based competence: towards user models for menu-driven interfaces | |
Brebner et al. | Spatial relationships and SR compatibility | |
Aaltonen et al. | 101 spots, or how do users read menus? | |
DE60113685T2 (de) | Schnittstelle zur maschinensteuerung | |
DE60121827T2 (de) | Vorrichtung und verfahren zur wiedergewinnung von daten | |
DE102013111978B4 (de) | Identifikation und Verwendung von Gesten in der Nähe eines Sensors | |
DE69628893T2 (de) | Aktivierung eines Tastaturschlosses für Telefongerät | |
DE102005016561B4 (de) | Verfahren und Vorrichtung zur strukturierten Erfassung und Bearbeitung von in einem System auftretenden Problemen | |
DE60123843T2 (de) | System und verfahren zum erfassen von browser-sitzungen und von aktionen des benutzers | |
DE102008014741A1 (de) | System und Verfahren zum Registrieren eines Fingerabdrucks, zum Setzen eines Benutzeranmeldeverfahrens einer Anwendung, und zum Anmelden in der Anwendung | |
DE102010038342A1 (de) | Vorrichtung zum Verwalten der Funktionen von Peripheriegeräten | |
DE19844252A1 (de) | Modulare Vorrichtung zur computergesteuerten Insulin- und Glukoseinfusion | |
DE102015104962A1 (de) | Verfahren zur Informationsverarbeitung und elektronisches Gerät | |
US20060271640A1 (en) | Apparatus and methods for remote administration of neuropyschological tests | |
DE102016112973A1 (de) | Mobilgerätgehäuse | |
EP0238065B1 (de) | Mikroprozessorgesteuerte Einrichtung zur nichtinvasiven Feststellung peripherer Abfluss- und Durchflussstörungen | |
Dell'Acqua et al. | Short-term consolidation of individual identities leads to Lag-1 sparing. | |
EP1345110A2 (de) | Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders | |
EP1442222B1 (de) | Vakuumpumpe | |
DE112019003773T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm | |
Davis | User error or computer error? Observations on a statistics package | |
Schultz Jr et al. | Menu structure and ordering of menu selection: independent or interactive effects? | |
DE102016119844A1 (de) | Fingerabdrucksensor mit Rotationsgestenfunktionalität |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Free format text: TIEDTKE, H., DIPL.-ING. BUEHLING, G., DIPL.-CHEM. KINNE, R., DIPL.-ING. GRUPE, P., DIPL.-ING. PELLMANN, H., DIPL.-ING. GRAMS, K., DIPL.-ING., PAT.-ANWAELTE, 8000 MUENCHEN |