DE102014224599A1 - Method for operating an input device, input device - Google Patents
Method for operating an input device, input device Download PDFInfo
- Publication number
- DE102014224599A1 DE102014224599A1 DE102014224599.0A DE102014224599A DE102014224599A1 DE 102014224599 A1 DE102014224599 A1 DE 102014224599A1 DE 102014224599 A DE102014224599 A DE 102014224599A DE 102014224599 A1 DE102014224599 A1 DE 102014224599A1
- Authority
- DE
- Germany
- Prior art keywords
- change
- detected
- sensor
- hand
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000008859 change Effects 0.000 claims abstract description 70
- 238000006073 displacement reaction Methods 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 description 9
- 230000003068 static effect Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 235000008375 Decussocarpus nagi Nutrition 0.000 description 1
- 244000309456 Decussocarpus nagi Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- B60K35/10—
-
- B60K35/29—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- B60K2360/11—
-
- B60K2360/146—
-
- B60K2360/1464—
-
- B60K2360/199—
-
- B60K2360/21—
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung (1), insbesondere eines Kraftfahrzeugs, die einen Sensor (3) zum Erfassen der Position und/oder Positionsänderung von zumindest einem Finger (F) einer Hand (8) eines Benutzers aufweist, wobei in Abhängigkeit von der Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. Es ist vorgesehen, dass zur Bedienung eines virtuellen Reglers (6), der in zumindest zwei Richtungen verlagerbar ist, für jede Richtung ein Bedienbereich (9, 10) vorgegeben wird, und dass in Abhängigkeit von der Positionsänderung des mindestens einen Fingers (F) in dem jeweiligen Bedienbereich der Regler (6) in die jeweilige Richtung verlagert wird.The invention relates to a method for operating an input device (1), in particular a motor vehicle, having a sensor (3) for detecting the position and / or position change of at least one finger (F) of a user's hand (8), depending on is recognized by the position and / or position change to an input and this is executed. It is provided that for operating a virtual controller (6), which is displaceable in at least two directions, an operating area (9, 10) is given for each direction, and that in dependence on the change in position of the at least one finger (F) in the respective operating range of the controller (6) is shifted in the respective direction.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen Sensor zum Erfassen der Position oder Positionsänderung von zumindest einem Finger einer Hand eines Benutzers aufweist, wobei in Abhängigkeit von der Position und/oder der Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. The invention relates to a method for operating an input device, in particular a motor vehicle, having a sensor for detecting the position or position change of at least one finger of a user's hand, wherein detected as a function of the position and / or position change to an input and this is performed.
Ferner betrifft die Erfindung eine entsprechende Eingabevorrichtung, insbesondere für ein Kraftfahrzeug, mit einem Sensor zum Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger einer Hand eines Benutzers, wobei die Eingabevorrichtung dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers eine Eingabe zu erkennen und auszuführen. Furthermore, the invention relates to a corresponding input device, in particular for a motor vehicle, having a sensor for detecting a position and / or position change of at least one finger of a user's hand, wherein the input device is adapted to the position and / or position change of recognize and execute at least one finger an input.
Stand der TechnikState of the art
Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard.
Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese durchgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit zumindest einem Finger seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers eine Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display. While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, being detected in response to the detected position and / or position change to an input and this is performed. The user thus indicates with a movement of his hand or with at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input by means of the movement of the finger and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, an input "increase volume" may be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.
Offenbarung der ErfindungDisclosure of the invention
Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 sowie die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 haben den Vorteil, dass auch kostengünstige Sensoren zur Erfassung von Bedieneingaben verwendet werden können. Insbesondere ermöglichen diese die Verwendung von Monokularkamerasensoren, die selbst keine Tiefeninformationen liefern. Allein durch die Nachverfolgung des einen oder mehrerer Fingers im Raum wird in Abhängigkeit von der erfassten Positionsänderung eine Bedienung auf einfache Art und Weise möglich. Erfindungsgemäß ist hierzu vorgesehen, dass zur Bedienung eines virtuellen Reglers, der in zumindest zwei Richtungen verlagerbar ist, für jede Richtung ein Bedienbereich vorgegeben und in Abhängigkeit von der erfassten Positionsänderung des mindestens einen Fingers in dem jeweiligen Bedienbereich der Regler in die jeweilige Richtung (virtuell) verlagert wird. Bei dem jeweiligen Bedienbereich handelt es sich um einen räumlich begrenzten Abschnitt des Gesamterfassungsbereichs bzw. Detektierbereichs des Sensors, der durch einen virtuellen Bedienbereich repräsentiert wird, der durch die auch den Regler darstellende Anzeigevorrichtung gezeigt wird. Von dem Gesamterfassungsbereich des Sensors stellen die Bedienbereiche Teilbereiche dar, denen eine besondere Funktion, wie zuvor beschrieben, zu geordnet ist. Ist der Sensor als berührungsempfindlicher Sensor ausgebildet, so handelt es sich bei dem jeweiligen Bedienbereich insbesondere um einen in alle Richtungen begrenzten Erfassungsabschnitt auf der berührungsempfindlichen Oberfläche des Sensors, der durch den virtuellen Bedienbereich repräsentiert wird. Handelt es sich bei dem Sensor um einen berührungsfrei arbeitenden Sensor, so kann es sich bei dem Bedienbereich um einen begrenzten Erfassungsabschnitt in einer Ebene, um einen begrenzten Raum innerhalb des gesamten Erfassungsraums des Sensors oder um ein Winkelsegment des gesamten Erfassungsraums des Sensors handeln. Vorzugsweise sind die Bedienbereiche voneinander getrennt vorgesehen, so dass sie sich nicht überschneiden. Insbesondere ist vorgesehen, dass die Bedienbereiche beabstandet zueinander vorgesehen werden, um Fehlbedienungen zu vermeiden. Nur dann, wenn der oder die Finger in dem jeweiligen Erfassungsabschnitt beziehungsweise Bedienbereich bewegt werden, wird der virtuelle Regler wie zuvor beschrieben verlagert beziehungsweise betätigt. Insbesondere wird vorliegend unter dem oder den Fingern die jeweilige Fingerspitze eines Fingers verstanden. The inventive method with the features of
Es ist also vorgesehen, dass zur Bedienung beziehungsweise Einstellung einer insbesondere analogen Größe, wie beispielsweise die Lautstärke eines Radios, wenigstens ein verlagerbarer Regler, insbesondere ein Schieberegler oder ein Drehregler, virtuell dargestellt wird, der von dem Benutzer zu bedienen ist. Da das Greifen eines virtuellen Reglers in dem beschriebenen Aufbau jedoch nicht ohne Weiteres möglich ist, werden dem Benutzer für jede Richtung, in die der Regler verschiebbar beziehungsweise verlagerbar ist, die Bedienbereiche vorgegeben, innerhalb derer eine Positionsänderung des mindestens einen Fingers zu einer entsprechenden Verlagerung des Reglers in eine bestimmte Richtung führt. Um den Reglerwert zu verändern, muss der Benutzer seine Hand in Richtung des jeweiligen Bedienbereiches bewegen, wobei der jeweilige Bedienbereich vorzugsweise durch die Anzeigevorrichtung virtuell dargestellt ist. Vorzugsweise wird auch die Hand des Benutzers in der Anzeigevorrichtung virtuell wiedergegeben, um das Erreichen des Bedienbereichs für den Benutzer zu erleichtern. Dabei kann das Erreichen des Bedienbereichs beispielsweise durch farbige Hervorhebung des jeweiligen virtuell dargestellten Bedienbereichs angezeigt werden. Bewegt der Benutzer nun den mindestens einen Finger in dem ersten Bedienbereich, so wird in Abhängigkeit der erfassten Positionsänderung des Fingers der Regler in die den Bedienbereich betreffende Richtung verlagert. Vorzugsweise wird dazu bei einem virtuellen Schieberegler an den Enden des Schiebereglers jeweils ein (virtueller) Bedienbereich vorgesehen. Bewegt der Benutzer seine Hand mit einem Finger in den linken Bedienbereich und damit die virtuelle Hand mit einem virtuellen Finger in den virtuellen Bedienbereich, und führt dort eine Fingerbewegung durch, so wird in Abhängigkeit der erfassten Positionsänderung in dem Bedienbereich der Regler in eine erste Richtung verschoben. Entsprechendes gilt, wenn der Benutzer seinen Finger in dem zweiten Bedienbereich bewegt, mit dem Unterschied, dass dann der Regler in eine zweite Richtung verlagert wird Hierdurch wird es dem Benutzer also auf einfache Art und Weise ermöglicht, den Regler zu verlagern, wobei keine aufwändige Stereo-Kameras oder dergleichen notwendig sind.It is therefore intended that for the operation or adjustment of a particular analog size, such as the volume of a radio, at least one movable controller, in particular a slider or a dial, is displayed virtually, which is operated by the user. However, since the gripping of a virtual controller in the structure described is not readily possible, the user is given the operating ranges for each direction in which the controller is displaceable or displaceable, within which a change in position of the at least one finger to a corresponding displacement of the Regulator leads in a certain direction. In order to change the controller value, the user must move his hand in the direction of the respective operating area, wherein the respective operating area is preferably represented virtually by the display device. Preferably, the user's hand is also virtually rendered in the display device to facilitate reaching the user's operating area. In this case, the reaching of the operating area can be indicated, for example, by colored highlighting of the respective virtually displayed operating area. If the user now moves the at least one finger in the first operating area, the controller is shifted in the direction relating to the operating area as a function of the detected change in position of the finger. For this purpose, in each case a (virtual) operating area is provided at the ends of the slider in the case of a virtual slider. If the user moves his / her hand to the left operating area with one finger and thus the virtual hand with a virtual finger into the virtual operating area, and performs a finger movement there, the controller is moved in a first direction, depending on the detected position change in the operating area , The same applies if the user moves his finger in the second operating area, with the difference that then the controller is moved in a second direction. Thus, it is the user in a simple way allows the controller to relocate, with no complex stereo Cameras or the like are necessary.
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Positionsänderung bestimmt wird. Es ist also vorgesehen, dass die Größe der erfassten Positionsänderung die Weite der Verlagerung des Reglers vorgibt. Unter der Weite der Verlagerung ist insoweit der Verlagerungsweg des Reglers zu verstehen. Gemäß einer ersten Ausführungsform ist bevorzugt vorgesehen, dass in Abhängigkeit von dem erfassten Weg der Positionsänderung die Weite der Verlagerung des Reglers eingestellt wird. Dabei kann eine direkte Übertragung des Wegs auf die Weite erfolgen, so dass die Weite der Verlagerung des virtuellen Reglers dem Weg der Positionsänderung entspricht. Es kann aber auch eine Übersetzung vorgesehen sein, so dass die Weite proportional, insbesondere mit einer Übersetzung oder Untersetzung, eingestellt wird. Alternativ ist gemäß einer zweiten Ausführungsform bevorzugt vorgesehen, dass der Regler unabhängig von dem Weg der erfassten Positionsänderung nur um einen bestimmten Betrag beziehungsweise eine bestimmte Weite verlagert wird. In diesem Fall ändert sich die Gesamtweite der Verlagerung durch die Anzahl der erfassten Positionsänderung in dem entsprechenden Bedienbereich. Dadurch kann der Benutzer durch einfache Fingerbewegungen den Regler mehr oder weniger stark auf bequeme Art und Weise verlagern. According to an advantageous development of the invention it is provided that the width of the displacement is determined as a function of the change in position. It is therefore intended that the size of the detected position change dictates the width of the displacement of the controller. In this respect, the extent of the displacement is understood as the displacement path of the regulator. According to a first embodiment, it is preferably provided that the width of the displacement of the controller is set as a function of the detected path of the position change. In this case, a direct transmission of the path to the width can take place, so that the width of the displacement of the virtual controller corresponds to the path of the position change. But it can also be provided a translation, so that the width is adjusted proportionally, in particular with a translation or reduction. Alternatively, it is preferably provided according to a second embodiment that the controller is displaced by a certain amount or a certain width, regardless of the path of the detected position change. In this case, the total extent of the displacement changes by the number of detected position change in the corresponding operating area. This allows the user to move the controller more or less easily by simple finger movements in a comfortable manner.
Weiterhin ist bevorzugt vorgesehen, dass als Positionsänderung jede Bewegung des mindestens einen Fingers in dem Bedienbereich erkannt wird. Unabhängig davon, in welche Richtung der Benutzer sein Finger in dem Bedienbereich bewegt, wird die Positionsänderung in eine Verlagerung des virtuellen Reglers und damit zu einer Veränderung des durch den Regler eingestellten Wertes umgewandelt. Insbesondere ist vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Geschwindigkeit der erfassten Positionsänderung erfolgt.Furthermore, it is preferably provided that any movement of the at least one finger in the operating area is detected as a change in position. Regardless of the direction in which the user moves his finger in the operating area, the position change is converted into a displacement of the virtual controller and thus to a change in the value set by the controller. In particular, it is provided that the width of the displacement takes place as a function of the speed of the detected position change.
Gemäß einer alternativen Ausführungsform der Erfindung ist vorgesehen, das als Positionsänderungen nur Bewegungen des mindestens einen Fingers in einer vorgegebenen Eingaberichtung erkannt werden. Hier ist also vorgesehen, dass eine Eingaberichtung definiert wird, die eine Verlagerung des virtuellen Reglers ermöglicht. Nur wenn der Benutzer seinen mindestens einen Finger in der Eingaberichtung innerhalb des jeweiligen Bedienbereichs bewegt, wird dies als eine Positionsänderung für die Eingabevorrichtung erkannt und wie zuvor beschrieben umgesetzt. Dadurch wird erreicht, dass der Benutzer eine vorbestimmte Bewegung in die vorgegebene Eingaberichtung durchführen muss, um den Regler zu bedienen. Dies kann zum einen die Bedienung erleichtern und insbesondere Fehlbedienungen erschweren. According to an alternative embodiment of the invention, it is provided that only movements of the at least one finger in a predetermined input direction are detected as changes in position. Here it is thus provided that an input direction is defined, which allows a displacement of the virtual controller. Only when the user moves his at least one finger in the input direction within the respective operating area is this recognized as a position change for the input device and implemented as previously described. This ensures that the User must perform a predetermined movement in the given input direction to operate the controller. This can on the one hand facilitate the operation and in particular make it difficult to operate incorrectly.
Weiter ist bevorzugt vorgesehen, dass als Eingaberichtung eine Richtung parallel zur Haupterfassungsachse des Sensors vorgegeben wird. Dabei kann die Positionsänderung durch eine Veränderung der erfassten Größe des jeweiligen Fingers erkannt werden. Unter der Haupterfassungsachse des Sensors wird vorliegend die Mittelachse, senkrecht zur Oberfläche eines berührungsempfindlichen Sensorfelds beziehungsweise die Mittelachse des in der Regel kegelförmigen Sensorerfassungsbereichs bzw. -raums eines berührungsfrei arbeitenden Sensors verstanden.Furthermore, it is preferably provided that a direction parallel to the main detection axis of the sensor is specified as input direction. In this case, the change in position can be detected by a change in the detected size of the respective finger. In the present case, the main detection axis of the sensor is understood to be the center axis, perpendicular to the surface of a touch-sensitive sensor field or the center axis of the generally conical sensor detection area or space of a non-contact sensor.
Besonders bevorzugt ist vorgesehen, dass die Eingaberichtung als eine Richtung in einer Ebene, die zumindest im Wesentlichen senkrecht zur Haupterfassungsachse liegt, vorgegeben wird. Dadurch lassen sich Bewegungen des mindestens einen Fingers besonders deutlich und schnell durch den Sensor erfassen. Particularly preferably, it is provided that the input direction is specified as a direction in a plane which is at least substantially perpendicular to the main detection axis. As a result, movements of the at least one finger can be detected particularly clearly and quickly by the sensor.
Ferner ist bevorzugt vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Größe des die erfasste Positionsänderung ausführenden Objekts bestimmt wird. Als das die Positionsänderung ausführende Objekt werden insofern die wenigstens eine Fingerspitze, insbesondere mehrere Fingerspitzen oder beispielsweise die gesamte Hand des Benutzers, sei es zur Faust geballt oder offen, verstanden. In Abhängigkeit von der Größe dieses Objekts, also beispielsweise in Abhängigkeit davon, mit wie vielen Fingern der Benutzer die Positionsänderung beziehungsweise Eingabegeste durchführt, wird die Weite der Verlagerung des Reglers eingestellt. Insbesondere ist vorgesehen, dass mit zunehmender Größe des Objekts die Weite der Verlagerung vergrößert wird.Furthermore, it is preferably provided that the width of the displacement is determined as a function of the size of the object performing the detected position change. As the object performing the change in position, the at least one fingertip, in particular several fingertips or, for example, the entire hand of the user, be it clenched or open, are understood. Depending on the size of this object, that is, for example, depending on how many fingers the user performs the position change or input gesture, the width of the displacement of the controller is set. In particular, it is provided that with increasing size of the object, the width of the displacement is increased.
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass, wenn mehrere Finger in dem jeweiligen Eingabebereich erfasst werden, die Bewegung aller erfassten Finger als Positionsänderung erfasst werden. Insbesondere ist vorgesehen, dass die Positionsänderungen der einzelnen Finger miteinander addiert werden, um eine Gesamtänderung zu ergeben, die für die Verlagerung des Reglers ausschlaggebend ist. Insbesondere ist dabei vorgesehen, dass der Weg der jeweiligen Positionsänderung der einzelnen Finger addiert wird, um einen Gesamtweg zu ergeben, der wie zuvor beschrieben die Weite der Verlagerung bestimmt. Alternativ oder zusätzlich ist insbesondere vorgesehen, dass unabhängig von dem Weg der jeweiligen Positionsänderung durch die Anzahl der erfassten Finger, die die Positionsänderung durchführen, die Weite der Verlagerung des Reglers beeinflusst wird. In Bezug auf die oben beschriebene Ausführungsform ist jeweils vorgesehen, dass die Anzahl der Positionsänderungen, die durch die gleichzeitig erfolgenden Positionsänderungen mehrerer Finger bestimmt wird, für die Bestimmung der Weite der Verlagerung verwendet wird. Der Benutzer kann somit auf einfache Art und Weise durch Hinzufügen weiterer Finger den Grad der Verlagerung des Reglers beeinflussen. Umso mehr Finger er in den Eingabebereich bewegt und dort entsprechende Positionsänderungen durchführt, umso stärker wird der Regler in die gewünschte Richtung verlagert. According to an advantageous development of the invention, it is provided that when several fingers are detected in the respective input area, the movement of all detected fingers are detected as a change in position. In particular, it is provided that the position changes of the individual fingers are added together to give an overall change, which is crucial for the displacement of the regulator. In particular, it is provided that the path of the respective change in position of the individual fingers is added to give a total path, which determines the width of the displacement as described above. Alternatively or additionally, it is provided, in particular, that the width of the displacement of the controller is influenced independently of the path of the respective position change by the number of detected fingers which perform the position change. With regard to the embodiment described above, it is provided in each case that the number of position changes, which is determined by the simultaneous position changes of several fingers, is used for the determination of the width of the displacement. The user can thus easily influence the degree of displacement of the controller by adding further fingers. The more fingers he moves into the input area and there makes corresponding position changes, the more the controller is shifted in the desired direction.
Weiterhin ist bevorzugt vorgesehen, dass, wenn das Schütteln einer Hand im jeweiligen Eingabebereich als Positionsänderung erfasst wird, der Regler maximal in die entsprechende Richtung verlagert wird. Unter einem Schütteln ist in diesem Zusammenhang eine, insbesondere schnelle, einmalige oder mehrmalige Hin- und Herbewegung der Hand oder mehrerer Finger der Hand in dem Bedienbereich beziehungsweise Erfassungsabschnitt zu verstehen. Wird eine derartig wechselnde Positionsänderung erfasst, so wird auf ein Schütteln erkannt und der Regler automatisch auf den Maximalwert in der durch den Bedienbereich vorgegebenen Richtung verlagert beziehungsweise gestellt. Dadurch kann der Benutzer beispielsweise durch eine Schüttelbewegung ein Autoradio schnell stumm schalten oder beispielsweise die Einstellung einer Klimaanlage auf ihren Maximalwert stellen. Furthermore, it is preferably provided that when the shaking of a hand in the respective input area is detected as a change in position, the controller is displaced maximally in the corresponding direction. In this context, shaking is to be understood as meaning, in particular, fast, one-time or multiple reciprocating movements of the hand or several fingers of the hand in the operating region or detection section. If such a changing position change is detected, shaking is detected and the controller is automatically shifted or set to the maximum value in the direction predetermined by the operating area. As a result, the user can mute a car radio quickly, for example, by shaking or, for example, set the setting of an air conditioner to its maximum value.
Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 zeichnet sich dadurch aus, dass sie bei bestimmungsgemäßem Gebrauch das erfindungsgemäße Verfahren durchführt. The input device according to the invention with the features of
Gemäß einer vorteilhaften Weiterbildung der erfindungsgemäßen Eingabevorrichtung ist vorgesehen, dass der Sensor zum berührungsfreien Erfassen der Position und/oder Positionsänderung ausgebildet ist. Dadurch lassen sich Gesten beziehungsweise Eingaben eines Benutzers auch im Raum erfassen. According to an advantageous embodiment of the input device according to the invention it is provided that the sensor is designed for contact-free detection of the position and / or position change. As a result, gestures or inputs of a user can also be detected in the room.
Besonders bevorzugt ist vorgesehen, dass die Eingabevorrichtung als Sensor eine Monokularkamera beziehungsweise Monokularkameraeinrichtung zur Erfassung der Position und Positionsänderung von wenigstens einem, vorzugsweise mehreren Fingern des Benutzers aufweist. Zweckmäßigerweise ist vorgesehen, dass durch die eine Monokularkamera beide Eingabebereiche erfasst werden. Alternativ kann auch vorgesehen sein, dass für jeden Eingabebereich eine eigene Kamera, insbesondere Monokularkamera beziehungsweise Monokularkameraeinrichtung vorgesehen ist. Particularly preferably, it is provided that the input device has as a sensor a monocular camera or monocular camera device for detecting the position and position change of at least one, preferably a plurality of fingers of the user. Appropriately, it is provided that both input areas are detected by the one monocular camera. Alternatively it can also be provided that a separate camera, in particular monocular camera or monocular camera device is provided for each input area.
Alternativ ist bevorzugt vorgesehen, dass der Sensor als berührungsempfindlicher Sensor zum Erfassen der Position und/oder Positionsänderung ausgebildet ist. Insbesondere ist vorgesehen, dass der berührungsempfindliche Sensor als Touchpad ausgebildet ist. Hierdurch lässt sich die Eingabevorrichtung auf besonders kostengünstige Art und Weise realisieren. Alternatively, it is preferably provided that the sensor is designed as a touch-sensitive sensor for detecting the position and / or position change. In particular, it is provided that the touch-sensitive sensor is designed as a touchpad. As a result, the input device can be realized in a particularly cost-effective manner.
Im Vorliegenden soll die Erfindung anhand eines Ausführungsbeispiels näher erläutert werden. Dazu zeigenIn the present, the invention will be explained in more detail with reference to an embodiment. Show this
Die Eingabevorrichtung
Weiterhin weist die Eingabevorrichtung
Die Anzeigevorrichtung
Die durch den Sensor
The through the
Im Folgenden soll die Erfassung und Auswertung der Positionsänderung der Hand
Alternativ oder zusätzlich zu der Hintergrundmodellierung ist vorgesehen, dass eine Vordergrundmodellierung nach Dadgostar und Sarrafzadeh (
Auf Basis der der durch die Vordergrund- und/oder Hintergrundmodellierung gewonnenen Daten wird eine Handkontur der Hand
Sowohl die gesamte Hand als auch deren Fingerspitzen können mit bekannten Trackingverfahren, wie sie beispielsweise von Do, Asfour und Dillmann (
In Abhängigkeit von der Anzahl der erkannten Fingerspitzen sowie deren Positionsänderungen, also in Abhängigkeit des die Positionsänderung durchführenden Objekts, wird die Weite der Verlagerung des Reglers
Wird außerdem ein Schütteln der ganzen Hand
Die Erfassung der Positionsänderung oder Positionsänderungen kann dabei in Abhängigkeit von der Bewegungsrichtung der Hand
Alternativ zu dem oben beschriebenen Ausführungsbeispiel ist es auch denkbar, dass der Sensor
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
- Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 [0026] Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 [0026]
- Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 [0027] Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "Adaptive real-time skin detector based on Hue thresholding: A comparison of two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 [0027]
- Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 [0028] Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 [0028]
- Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 [0028] Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 [0028]
- Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 [0028] Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models," Proceedings of Digital Image Computing on Techniques and Applications, 2005. [0028]
- Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 [0028] Lee, J. and Kunii, TL: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 [0028]
- Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 [0029] Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 [0029]
- Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 [0029] Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 [0029]
- Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 [0029] Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 [0029]
- Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 [0029] Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 [0029]
- Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 [0029] Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recognition System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 [0029]
- Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 [0029] Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gestural Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998. [0029]
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224599.0A DE102014224599A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224599.0A DE102014224599A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014224599A1 true DE102014224599A1 (en) | 2016-06-02 |
Family
ID=55967768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014224599.0A Pending DE102014224599A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014224599A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016100190B3 (en) | 2016-01-05 | 2017-03-30 | Elmos Semiconductor Aktiengesellschaft | Method for intuitive volume control by means of gestures |
DE102016100189B3 (en) | 2016-01-05 | 2017-03-30 | Elmos Semiconductor Aktiengesellschaft | Method for intuitive volume control by means of gestures |
CN109478091A (en) * | 2016-07-12 | 2019-03-15 | 富士胶片株式会社 | The control device and its working method and working procedure of image display system and head-mounted display |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US20020140633A1 (en) * | 2000-02-03 | 2002-10-03 | Canesta, Inc. | Method and system to present immersion virtual simulations using three-dimensional measurement |
DE102009046376A1 (en) * | 2009-11-04 | 2011-05-05 | Robert Bosch Gmbh | Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel |
DE102010010806A1 (en) * | 2010-03-09 | 2011-09-15 | Continental Automotive Gmbh | Operating device for inputting control commands into an electronic device |
US20120206339A1 (en) * | 2009-07-07 | 2012-08-16 | Elliptic Laboratories As | Control using movements |
US20140306936A1 (en) * | 2013-04-10 | 2014-10-16 | Elliptic Laboratories As | Touchless interaction devices |
-
2014
- 2014-12-02 DE DE102014224599.0A patent/DE102014224599A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US20020140633A1 (en) * | 2000-02-03 | 2002-10-03 | Canesta, Inc. | Method and system to present immersion virtual simulations using three-dimensional measurement |
US20120206339A1 (en) * | 2009-07-07 | 2012-08-16 | Elliptic Laboratories As | Control using movements |
DE102009046376A1 (en) * | 2009-11-04 | 2011-05-05 | Robert Bosch Gmbh | Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel |
DE102010010806A1 (en) * | 2010-03-09 | 2011-09-15 | Continental Automotive Gmbh | Operating device for inputting control commands into an electronic device |
US20140306936A1 (en) * | 2013-04-10 | 2014-10-16 | Elliptic Laboratories As | Touchless interaction devices |
Non-Patent Citations (12)
Title |
---|
Cutler, R. und Turk, M.: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 |
Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 |
Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 |
Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 |
Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recogntion System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 |
Lee, J. und Kunii, T. L.: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 |
Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of the Digital Image Computing on Techniques and Applications, 2005 |
Lockton, R. und Fitzgibbon, A. W.: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 |
Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 |
Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 |
Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following." CVGIP, 1985, 32-46 |
Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Substration", ICPR, 2004 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016100190B3 (en) | 2016-01-05 | 2017-03-30 | Elmos Semiconductor Aktiengesellschaft | Method for intuitive volume control by means of gestures |
DE102016100189B3 (en) | 2016-01-05 | 2017-03-30 | Elmos Semiconductor Aktiengesellschaft | Method for intuitive volume control by means of gestures |
CN109478091A (en) * | 2016-07-12 | 2019-03-15 | 富士胶片株式会社 | The control device and its working method and working procedure of image display system and head-mounted display |
EP3486750A4 (en) * | 2016-07-12 | 2019-07-10 | FUJIFILM Corporation | Image display system, control device for head-mounted display, and operating method and operating program for operating same |
US10664043B2 (en) | 2016-07-12 | 2020-05-26 | Fujifilm Corporation | Image display system, and control apparatus for head-mounted display and operation method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112014003563B4 (en) | Device and method for gesture determination, gesture control device, program and recording medium | |
EP1998996B1 (en) | Interactive operating device and method for operating the interactive operating device | |
DE102008016215A1 (en) | Information device operating unit | |
DE102017218120A1 (en) | A method of providing haptic feedback to an operator of a touch-sensitive display | |
DE102015110495A1 (en) | INFORMATION PROCESSING DEVICE WHICH DETECTS A PARTICULAR OBJECT IN A RECORDED IMAGE AND METHOD FOR CONTROLLING IT | |
DE102016210288A1 (en) | Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device | |
DE102010048745A1 (en) | Method of operating user interface in motor vehicle, involves representing predetermined object-specific target areas, graphically on display unit, upon detection of beginning of shift operation of first two selected objects | |
DE102015115526A1 (en) | Method for target detection of target objects, in particular for the target detection of operating elements in a vehicle | |
WO2016120251A1 (en) | Method for operating an input device, input device | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102013000066A1 (en) | Zooming and moving an image content of a display device | |
EP3234736B1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
WO2015162058A1 (en) | Gesture interaction with a driver information system of a vehicle | |
DE202015100273U1 (en) | input device | |
WO2017054894A1 (en) | Interactive operating system and method for carrying out an operational action in an interactive operating system | |
DE102019206606A1 (en) | Method for contactless interaction with a module, computer program product, module and motor vehicle | |
DE102016001998A1 (en) | A motor vehicle operating device and method for operating an operating device to effect an interaction between a virtual display plane and a hand | |
DE102013000081B4 (en) | Operator interface for contactless selection of a device function | |
DE102014224632A1 (en) | Method for operating an input device, input device | |
EP3025214B1 (en) | Method for operating an input device, and input device | |
DE102017210317A1 (en) | Method and device for detecting a user input by means of a gesture | |
DE102015201722A1 (en) | Method for operating an input device, input device | |
WO2015110331A1 (en) | Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method | |
DE102015211521A1 (en) | Method for operating an input device, input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |