DE102014224599A1 - Method for operating an input device, input device - Google Patents

Method for operating an input device, input device Download PDF

Info

Publication number
DE102014224599A1
DE102014224599A1 DE102014224599.0A DE102014224599A DE102014224599A1 DE 102014224599 A1 DE102014224599 A1 DE 102014224599A1 DE 102014224599 A DE102014224599 A DE 102014224599A DE 102014224599 A1 DE102014224599 A1 DE 102014224599A1
Authority
DE
Germany
Prior art keywords
change
detected
sensor
hand
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014224599.0A
Other languages
German (de)
Inventor
Stefan Andreas Kniep
Markus Langenberg
Daniel Zaum
Jens Heimsoth
Gerrit De Boer
Philippe Dreuw
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014224599.0A priority Critical patent/DE102014224599A1/en
Publication of DE102014224599A1 publication Critical patent/DE102014224599A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • B60K35/10
    • B60K35/29
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/11
    • B60K2360/146
    • B60K2360/1464
    • B60K2360/199
    • B60K2360/21

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung (1), insbesondere eines Kraftfahrzeugs, die einen Sensor (3) zum Erfassen der Position und/oder Positionsänderung von zumindest einem Finger (F) einer Hand (8) eines Benutzers aufweist, wobei in Abhängigkeit von der Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. Es ist vorgesehen, dass zur Bedienung eines virtuellen Reglers (6), der in zumindest zwei Richtungen verlagerbar ist, für jede Richtung ein Bedienbereich (9, 10) vorgegeben wird, und dass in Abhängigkeit von der Positionsänderung des mindestens einen Fingers (F) in dem jeweiligen Bedienbereich der Regler (6) in die jeweilige Richtung verlagert wird.The invention relates to a method for operating an input device (1), in particular a motor vehicle, having a sensor (3) for detecting the position and / or position change of at least one finger (F) of a user's hand (8), depending on is recognized by the position and / or position change to an input and this is executed. It is provided that for operating a virtual controller (6), which is displaceable in at least two directions, an operating area (9, 10) is given for each direction, and that in dependence on the change in position of the at least one finger (F) in the respective operating range of the controller (6) is shifted in the respective direction.

Description

Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen Sensor zum Erfassen der Position oder Positionsänderung von zumindest einem Finger einer Hand eines Benutzers aufweist, wobei in Abhängigkeit von der Position und/oder der Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. The invention relates to a method for operating an input device, in particular a motor vehicle, having a sensor for detecting the position or position change of at least one finger of a user's hand, wherein detected as a function of the position and / or position change to an input and this is performed.

Ferner betrifft die Erfindung eine entsprechende Eingabevorrichtung, insbesondere für ein Kraftfahrzeug, mit einem Sensor zum Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger einer Hand eines Benutzers, wobei die Eingabevorrichtung dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers eine Eingabe zu erkennen und auszuführen. Furthermore, the invention relates to a corresponding input device, in particular for a motor vehicle, having a sensor for detecting a position and / or position change of at least one finger of a user's hand, wherein the input device is adapted to the position and / or position change of recognize and execute at least one finger an input.

Stand der TechnikState of the art

Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard.

Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese durchgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit zumindest einem Finger seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers eine Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display. While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, being detected in response to the detected position and / or position change to an input and this is performed. The user thus indicates with a movement of his hand or with at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input by means of the movement of the finger and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, an input "increase volume" may be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.

Offenbarung der ErfindungDisclosure of the invention

Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 sowie die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 haben den Vorteil, dass auch kostengünstige Sensoren zur Erfassung von Bedieneingaben verwendet werden können. Insbesondere ermöglichen diese die Verwendung von Monokularkamerasensoren, die selbst keine Tiefeninformationen liefern. Allein durch die Nachverfolgung des einen oder mehrerer Fingers im Raum wird in Abhängigkeit von der erfassten Positionsänderung eine Bedienung auf einfache Art und Weise möglich. Erfindungsgemäß ist hierzu vorgesehen, dass zur Bedienung eines virtuellen Reglers, der in zumindest zwei Richtungen verlagerbar ist, für jede Richtung ein Bedienbereich vorgegeben und in Abhängigkeit von der erfassten Positionsänderung des mindestens einen Fingers in dem jeweiligen Bedienbereich der Regler in die jeweilige Richtung (virtuell) verlagert wird. Bei dem jeweiligen Bedienbereich handelt es sich um einen räumlich begrenzten Abschnitt des Gesamterfassungsbereichs bzw. Detektierbereichs des Sensors, der durch einen virtuellen Bedienbereich repräsentiert wird, der durch die auch den Regler darstellende Anzeigevorrichtung gezeigt wird. Von dem Gesamterfassungsbereich des Sensors stellen die Bedienbereiche Teilbereiche dar, denen eine besondere Funktion, wie zuvor beschrieben, zu geordnet ist. Ist der Sensor als berührungsempfindlicher Sensor ausgebildet, so handelt es sich bei dem jeweiligen Bedienbereich insbesondere um einen in alle Richtungen begrenzten Erfassungsabschnitt auf der berührungsempfindlichen Oberfläche des Sensors, der durch den virtuellen Bedienbereich repräsentiert wird. Handelt es sich bei dem Sensor um einen berührungsfrei arbeitenden Sensor, so kann es sich bei dem Bedienbereich um einen begrenzten Erfassungsabschnitt in einer Ebene, um einen begrenzten Raum innerhalb des gesamten Erfassungsraums des Sensors oder um ein Winkelsegment des gesamten Erfassungsraums des Sensors handeln. Vorzugsweise sind die Bedienbereiche voneinander getrennt vorgesehen, so dass sie sich nicht überschneiden. Insbesondere ist vorgesehen, dass die Bedienbereiche beabstandet zueinander vorgesehen werden, um Fehlbedienungen zu vermeiden. Nur dann, wenn der oder die Finger in dem jeweiligen Erfassungsabschnitt beziehungsweise Bedienbereich bewegt werden, wird der virtuelle Regler wie zuvor beschrieben verlagert beziehungsweise betätigt. Insbesondere wird vorliegend unter dem oder den Fingern die jeweilige Fingerspitze eines Fingers verstanden. The inventive method with the features of claim 1 and the input device according to the invention with the features of claim 10 have the advantage that cost-effective sensors can be used to detect operator inputs. In particular, these allow the use of monocular camera sensors which themselves do not provide depth information. Just by tracking the one or more fingers in the room, an operation in a simple manner is possible depending on the detected position change. According to the invention, for this purpose, for operating a virtual controller which is displaceable in at least two directions, an operating range is specified for each direction and (depending on the detected change in position of the at least one finger in the respective operating range of the controller in the respective direction. is relocated. The respective operating area is a spatially limited section of the total detection area of the sensor, which is represented by a virtual operating area, which is shown by the display device also representing the controller. Of the total detection range of the sensor, the operating areas are subregions to which a particular function, as described above, is too ordered. If the sensor is designed as a touch-sensitive sensor, then the respective operating area is, in particular, a detection section delimited in all directions on the touch-sensitive surface of the sensor, which passes through the sensor virtual operating area is represented. If the sensor is a non-contact sensor, the operating area may be a limited detection section in a plane, a limited space within the entire detection space of the sensor, or an angular segment of the entire detection space of the sensor. Preferably, the operating areas are provided separately from each other, so that they do not overlap. In particular, it is provided that the operating areas are provided spaced from each other to avoid incorrect operation. Only when the finger or fingers are moved in the respective detection section or operating area, the virtual controller is displaced or actuated as described above. In particular, in the present case the finger tip of a finger is understood by the finger or fingers.

Es ist also vorgesehen, dass zur Bedienung beziehungsweise Einstellung einer insbesondere analogen Größe, wie beispielsweise die Lautstärke eines Radios, wenigstens ein verlagerbarer Regler, insbesondere ein Schieberegler oder ein Drehregler, virtuell dargestellt wird, der von dem Benutzer zu bedienen ist. Da das Greifen eines virtuellen Reglers in dem beschriebenen Aufbau jedoch nicht ohne Weiteres möglich ist, werden dem Benutzer für jede Richtung, in die der Regler verschiebbar beziehungsweise verlagerbar ist, die Bedienbereiche vorgegeben, innerhalb derer eine Positionsänderung des mindestens einen Fingers zu einer entsprechenden Verlagerung des Reglers in eine bestimmte Richtung führt. Um den Reglerwert zu verändern, muss der Benutzer seine Hand in Richtung des jeweiligen Bedienbereiches bewegen, wobei der jeweilige Bedienbereich vorzugsweise durch die Anzeigevorrichtung virtuell dargestellt ist. Vorzugsweise wird auch die Hand des Benutzers in der Anzeigevorrichtung virtuell wiedergegeben, um das Erreichen des Bedienbereichs für den Benutzer zu erleichtern. Dabei kann das Erreichen des Bedienbereichs beispielsweise durch farbige Hervorhebung des jeweiligen virtuell dargestellten Bedienbereichs angezeigt werden. Bewegt der Benutzer nun den mindestens einen Finger in dem ersten Bedienbereich, so wird in Abhängigkeit der erfassten Positionsänderung des Fingers der Regler in die den Bedienbereich betreffende Richtung verlagert. Vorzugsweise wird dazu bei einem virtuellen Schieberegler an den Enden des Schiebereglers jeweils ein (virtueller) Bedienbereich vorgesehen. Bewegt der Benutzer seine Hand mit einem Finger in den linken Bedienbereich und damit die virtuelle Hand mit einem virtuellen Finger in den virtuellen Bedienbereich, und führt dort eine Fingerbewegung durch, so wird in Abhängigkeit der erfassten Positionsänderung in dem Bedienbereich der Regler in eine erste Richtung verschoben. Entsprechendes gilt, wenn der Benutzer seinen Finger in dem zweiten Bedienbereich bewegt, mit dem Unterschied, dass dann der Regler in eine zweite Richtung verlagert wird Hierdurch wird es dem Benutzer also auf einfache Art und Weise ermöglicht, den Regler zu verlagern, wobei keine aufwändige Stereo-Kameras oder dergleichen notwendig sind.It is therefore intended that for the operation or adjustment of a particular analog size, such as the volume of a radio, at least one movable controller, in particular a slider or a dial, is displayed virtually, which is operated by the user. However, since the gripping of a virtual controller in the structure described is not readily possible, the user is given the operating ranges for each direction in which the controller is displaceable or displaceable, within which a change in position of the at least one finger to a corresponding displacement of the Regulator leads in a certain direction. In order to change the controller value, the user must move his hand in the direction of the respective operating area, wherein the respective operating area is preferably represented virtually by the display device. Preferably, the user's hand is also virtually rendered in the display device to facilitate reaching the user's operating area. In this case, the reaching of the operating area can be indicated, for example, by colored highlighting of the respective virtually displayed operating area. If the user now moves the at least one finger in the first operating area, the controller is shifted in the direction relating to the operating area as a function of the detected change in position of the finger. For this purpose, in each case a (virtual) operating area is provided at the ends of the slider in the case of a virtual slider. If the user moves his / her hand to the left operating area with one finger and thus the virtual hand with a virtual finger into the virtual operating area, and performs a finger movement there, the controller is moved in a first direction, depending on the detected position change in the operating area , The same applies if the user moves his finger in the second operating area, with the difference that then the controller is moved in a second direction. Thus, it is the user in a simple way allows the controller to relocate, with no complex stereo Cameras or the like are necessary.

Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Positionsänderung bestimmt wird. Es ist also vorgesehen, dass die Größe der erfassten Positionsänderung die Weite der Verlagerung des Reglers vorgibt. Unter der Weite der Verlagerung ist insoweit der Verlagerungsweg des Reglers zu verstehen. Gemäß einer ersten Ausführungsform ist bevorzugt vorgesehen, dass in Abhängigkeit von dem erfassten Weg der Positionsänderung die Weite der Verlagerung des Reglers eingestellt wird. Dabei kann eine direkte Übertragung des Wegs auf die Weite erfolgen, so dass die Weite der Verlagerung des virtuellen Reglers dem Weg der Positionsänderung entspricht. Es kann aber auch eine Übersetzung vorgesehen sein, so dass die Weite proportional, insbesondere mit einer Übersetzung oder Untersetzung, eingestellt wird. Alternativ ist gemäß einer zweiten Ausführungsform bevorzugt vorgesehen, dass der Regler unabhängig von dem Weg der erfassten Positionsänderung nur um einen bestimmten Betrag beziehungsweise eine bestimmte Weite verlagert wird. In diesem Fall ändert sich die Gesamtweite der Verlagerung durch die Anzahl der erfassten Positionsänderung in dem entsprechenden Bedienbereich. Dadurch kann der Benutzer durch einfache Fingerbewegungen den Regler mehr oder weniger stark auf bequeme Art und Weise verlagern. According to an advantageous development of the invention it is provided that the width of the displacement is determined as a function of the change in position. It is therefore intended that the size of the detected position change dictates the width of the displacement of the controller. In this respect, the extent of the displacement is understood as the displacement path of the regulator. According to a first embodiment, it is preferably provided that the width of the displacement of the controller is set as a function of the detected path of the position change. In this case, a direct transmission of the path to the width can take place, so that the width of the displacement of the virtual controller corresponds to the path of the position change. But it can also be provided a translation, so that the width is adjusted proportionally, in particular with a translation or reduction. Alternatively, it is preferably provided according to a second embodiment that the controller is displaced by a certain amount or a certain width, regardless of the path of the detected position change. In this case, the total extent of the displacement changes by the number of detected position change in the corresponding operating area. This allows the user to move the controller more or less easily by simple finger movements in a comfortable manner.

Weiterhin ist bevorzugt vorgesehen, dass als Positionsänderung jede Bewegung des mindestens einen Fingers in dem Bedienbereich erkannt wird. Unabhängig davon, in welche Richtung der Benutzer sein Finger in dem Bedienbereich bewegt, wird die Positionsänderung in eine Verlagerung des virtuellen Reglers und damit zu einer Veränderung des durch den Regler eingestellten Wertes umgewandelt. Insbesondere ist vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Geschwindigkeit der erfassten Positionsänderung erfolgt.Furthermore, it is preferably provided that any movement of the at least one finger in the operating area is detected as a change in position. Regardless of the direction in which the user moves his finger in the operating area, the position change is converted into a displacement of the virtual controller and thus to a change in the value set by the controller. In particular, it is provided that the width of the displacement takes place as a function of the speed of the detected position change.

Gemäß einer alternativen Ausführungsform der Erfindung ist vorgesehen, das als Positionsänderungen nur Bewegungen des mindestens einen Fingers in einer vorgegebenen Eingaberichtung erkannt werden. Hier ist also vorgesehen, dass eine Eingaberichtung definiert wird, die eine Verlagerung des virtuellen Reglers ermöglicht. Nur wenn der Benutzer seinen mindestens einen Finger in der Eingaberichtung innerhalb des jeweiligen Bedienbereichs bewegt, wird dies als eine Positionsänderung für die Eingabevorrichtung erkannt und wie zuvor beschrieben umgesetzt. Dadurch wird erreicht, dass der Benutzer eine vorbestimmte Bewegung in die vorgegebene Eingaberichtung durchführen muss, um den Regler zu bedienen. Dies kann zum einen die Bedienung erleichtern und insbesondere Fehlbedienungen erschweren. According to an alternative embodiment of the invention, it is provided that only movements of the at least one finger in a predetermined input direction are detected as changes in position. Here it is thus provided that an input direction is defined, which allows a displacement of the virtual controller. Only when the user moves his at least one finger in the input direction within the respective operating area is this recognized as a position change for the input device and implemented as previously described. This ensures that the User must perform a predetermined movement in the given input direction to operate the controller. This can on the one hand facilitate the operation and in particular make it difficult to operate incorrectly.

Weiter ist bevorzugt vorgesehen, dass als Eingaberichtung eine Richtung parallel zur Haupterfassungsachse des Sensors vorgegeben wird. Dabei kann die Positionsänderung durch eine Veränderung der erfassten Größe des jeweiligen Fingers erkannt werden. Unter der Haupterfassungsachse des Sensors wird vorliegend die Mittelachse, senkrecht zur Oberfläche eines berührungsempfindlichen Sensorfelds beziehungsweise die Mittelachse des in der Regel kegelförmigen Sensorerfassungsbereichs bzw. -raums eines berührungsfrei arbeitenden Sensors verstanden.Furthermore, it is preferably provided that a direction parallel to the main detection axis of the sensor is specified as input direction. In this case, the change in position can be detected by a change in the detected size of the respective finger. In the present case, the main detection axis of the sensor is understood to be the center axis, perpendicular to the surface of a touch-sensitive sensor field or the center axis of the generally conical sensor detection area or space of a non-contact sensor.

Besonders bevorzugt ist vorgesehen, dass die Eingaberichtung als eine Richtung in einer Ebene, die zumindest im Wesentlichen senkrecht zur Haupterfassungsachse liegt, vorgegeben wird. Dadurch lassen sich Bewegungen des mindestens einen Fingers besonders deutlich und schnell durch den Sensor erfassen. Particularly preferably, it is provided that the input direction is specified as a direction in a plane which is at least substantially perpendicular to the main detection axis. As a result, movements of the at least one finger can be detected particularly clearly and quickly by the sensor.

Ferner ist bevorzugt vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Größe des die erfasste Positionsänderung ausführenden Objekts bestimmt wird. Als das die Positionsänderung ausführende Objekt werden insofern die wenigstens eine Fingerspitze, insbesondere mehrere Fingerspitzen oder beispielsweise die gesamte Hand des Benutzers, sei es zur Faust geballt oder offen, verstanden. In Abhängigkeit von der Größe dieses Objekts, also beispielsweise in Abhängigkeit davon, mit wie vielen Fingern der Benutzer die Positionsänderung beziehungsweise Eingabegeste durchführt, wird die Weite der Verlagerung des Reglers eingestellt. Insbesondere ist vorgesehen, dass mit zunehmender Größe des Objekts die Weite der Verlagerung vergrößert wird.Furthermore, it is preferably provided that the width of the displacement is determined as a function of the size of the object performing the detected position change. As the object performing the change in position, the at least one fingertip, in particular several fingertips or, for example, the entire hand of the user, be it clenched or open, are understood. Depending on the size of this object, that is, for example, depending on how many fingers the user performs the position change or input gesture, the width of the displacement of the controller is set. In particular, it is provided that with increasing size of the object, the width of the displacement is increased.

Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass, wenn mehrere Finger in dem jeweiligen Eingabebereich erfasst werden, die Bewegung aller erfassten Finger als Positionsänderung erfasst werden. Insbesondere ist vorgesehen, dass die Positionsänderungen der einzelnen Finger miteinander addiert werden, um eine Gesamtänderung zu ergeben, die für die Verlagerung des Reglers ausschlaggebend ist. Insbesondere ist dabei vorgesehen, dass der Weg der jeweiligen Positionsänderung der einzelnen Finger addiert wird, um einen Gesamtweg zu ergeben, der wie zuvor beschrieben die Weite der Verlagerung bestimmt. Alternativ oder zusätzlich ist insbesondere vorgesehen, dass unabhängig von dem Weg der jeweiligen Positionsänderung durch die Anzahl der erfassten Finger, die die Positionsänderung durchführen, die Weite der Verlagerung des Reglers beeinflusst wird. In Bezug auf die oben beschriebene Ausführungsform ist jeweils vorgesehen, dass die Anzahl der Positionsänderungen, die durch die gleichzeitig erfolgenden Positionsänderungen mehrerer Finger bestimmt wird, für die Bestimmung der Weite der Verlagerung verwendet wird. Der Benutzer kann somit auf einfache Art und Weise durch Hinzufügen weiterer Finger den Grad der Verlagerung des Reglers beeinflussen. Umso mehr Finger er in den Eingabebereich bewegt und dort entsprechende Positionsänderungen durchführt, umso stärker wird der Regler in die gewünschte Richtung verlagert. According to an advantageous development of the invention, it is provided that when several fingers are detected in the respective input area, the movement of all detected fingers are detected as a change in position. In particular, it is provided that the position changes of the individual fingers are added together to give an overall change, which is crucial for the displacement of the regulator. In particular, it is provided that the path of the respective change in position of the individual fingers is added to give a total path, which determines the width of the displacement as described above. Alternatively or additionally, it is provided, in particular, that the width of the displacement of the controller is influenced independently of the path of the respective position change by the number of detected fingers which perform the position change. With regard to the embodiment described above, it is provided in each case that the number of position changes, which is determined by the simultaneous position changes of several fingers, is used for the determination of the width of the displacement. The user can thus easily influence the degree of displacement of the controller by adding further fingers. The more fingers he moves into the input area and there makes corresponding position changes, the more the controller is shifted in the desired direction.

Weiterhin ist bevorzugt vorgesehen, dass, wenn das Schütteln einer Hand im jeweiligen Eingabebereich als Positionsänderung erfasst wird, der Regler maximal in die entsprechende Richtung verlagert wird. Unter einem Schütteln ist in diesem Zusammenhang eine, insbesondere schnelle, einmalige oder mehrmalige Hin- und Herbewegung der Hand oder mehrerer Finger der Hand in dem Bedienbereich beziehungsweise Erfassungsabschnitt zu verstehen. Wird eine derartig wechselnde Positionsänderung erfasst, so wird auf ein Schütteln erkannt und der Regler automatisch auf den Maximalwert in der durch den Bedienbereich vorgegebenen Richtung verlagert beziehungsweise gestellt. Dadurch kann der Benutzer beispielsweise durch eine Schüttelbewegung ein Autoradio schnell stumm schalten oder beispielsweise die Einstellung einer Klimaanlage auf ihren Maximalwert stellen. Furthermore, it is preferably provided that when the shaking of a hand in the respective input area is detected as a change in position, the controller is displaced maximally in the corresponding direction. In this context, shaking is to be understood as meaning, in particular, fast, one-time or multiple reciprocating movements of the hand or several fingers of the hand in the operating region or detection section. If such a changing position change is detected, shaking is detected and the controller is automatically shifted or set to the maximum value in the direction predetermined by the operating area. As a result, the user can mute a car radio quickly, for example, by shaking or, for example, set the setting of an air conditioner to its maximum value.

Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 zeichnet sich dadurch aus, dass sie bei bestimmungsgemäßem Gebrauch das erfindungsgemäße Verfahren durchführt. The input device according to the invention with the features of claim 10 is characterized in that it performs the inventive method when used as intended.

Gemäß einer vorteilhaften Weiterbildung der erfindungsgemäßen Eingabevorrichtung ist vorgesehen, dass der Sensor zum berührungsfreien Erfassen der Position und/oder Positionsänderung ausgebildet ist. Dadurch lassen sich Gesten beziehungsweise Eingaben eines Benutzers auch im Raum erfassen. According to an advantageous embodiment of the input device according to the invention it is provided that the sensor is designed for contact-free detection of the position and / or position change. As a result, gestures or inputs of a user can also be detected in the room.

Besonders bevorzugt ist vorgesehen, dass die Eingabevorrichtung als Sensor eine Monokularkamera beziehungsweise Monokularkameraeinrichtung zur Erfassung der Position und Positionsänderung von wenigstens einem, vorzugsweise mehreren Fingern des Benutzers aufweist. Zweckmäßigerweise ist vorgesehen, dass durch die eine Monokularkamera beide Eingabebereiche erfasst werden. Alternativ kann auch vorgesehen sein, dass für jeden Eingabebereich eine eigene Kamera, insbesondere Monokularkamera beziehungsweise Monokularkameraeinrichtung vorgesehen ist. Particularly preferably, it is provided that the input device has as a sensor a monocular camera or monocular camera device for detecting the position and position change of at least one, preferably a plurality of fingers of the user. Appropriately, it is provided that both input areas are detected by the one monocular camera. Alternatively it can also be provided that a separate camera, in particular monocular camera or monocular camera device is provided for each input area.

Alternativ ist bevorzugt vorgesehen, dass der Sensor als berührungsempfindlicher Sensor zum Erfassen der Position und/oder Positionsänderung ausgebildet ist. Insbesondere ist vorgesehen, dass der berührungsempfindliche Sensor als Touchpad ausgebildet ist. Hierdurch lässt sich die Eingabevorrichtung auf besonders kostengünstige Art und Weise realisieren. Alternatively, it is preferably provided that the sensor is designed as a touch-sensitive sensor for detecting the position and / or position change. In particular, it is provided that the touch-sensitive sensor is designed as a touchpad. As a result, the input device can be realized in a particularly cost-effective manner.

Im Vorliegenden soll die Erfindung anhand eines Ausführungsbeispiels näher erläutert werden. Dazu zeigenIn the present, the invention will be explained in more detail with reference to an embodiment. Show this

1 eine Eingabevorrichtung eines Kraftfahrzeugs in einer vereinfachten Darstellung und 1 an input device of a motor vehicle in a simplified representation and

2 ein Verfahren zum Betreiben der Eingabevorrichtung in einer schematischen Darstellung. 2 a method for operating the input device in a schematic representation.

1 zeigt eine Eingabevorrichtung 1 eines Kraftfahrzeugs, die zur Eingabe von Steuerbefehlen, beispielsweise für ein Entertainmentsystem des Kraftfahrzeugs, für eine Klimaanlage oder für Fahrerassistenzsysteme ausgebildet ist. 1 shows an input device 1 a motor vehicle, which is designed for the input of control commands, for example for an entertainment system of the motor vehicle, for an air conditioner or for driver assistance systems.

Die Eingabevorrichtung 1 weist eine Anzeigeeinrichtung 2 auf, die als Bildschirm oder alternativ auch als Head-Up-Display (nicht dargestellt) ausgebildet ist. The input device 1 has a display device 2 on, which is designed as a screen or alternatively as a head-up display (not shown).

Weiterhin weist die Eingabevorrichtung 1 einen Sensor 3 auf, der vorliegend als Monokularkamera 4 ausgebildet ist. Die Anzeigeeinrichtung 2 ist zweckmäßigerweise im oberen Bereich eines Armaturenbretts oder einer Bedienkonsole des Kraftfahrzeugs angeordnet. Der Sensor 3 ist an einer Fahrzeugdecke angeordnet und nach unten hinweisend ausgerichtet, sodass er den Bereich einer Armauflage 5, hier angedeutet dargestellt, erfasst. Furthermore, the input device 1 a sensor 3 on, present as a monocular camera 4 is trained. The display device 2 is suitably arranged in the upper region of a dashboard or a control panel of the motor vehicle. The sensor 3 is arranged on a vehicle ceiling and oriented downwards so that it is the area of an armrest 5 , shown here indicated, captured.

Die Anzeigevorrichtung 2 zeigt auf ihrem Bildschirm wenigstens einen betätigbaren virtuellen Regler 6, wie er in der 2 dargestellt ist, auf. 2 zeigt eine Draufsicht auf die Anzeigeeinrichtung 2. Der Regler 6 ist entlang einer Linie 7 von einer Minimalstellung Min bis zu einer Maximalstellung Max entlang der Linie 7 virtuell verschiebbar. Durch Verschieben des Reglers wird eine analoge Größe, wie beispielsweise eine Lautstärke eines Lautsprechersystems oder ein Zoom einer Kartendarstellung auf einem Display eines Navigationssystems, festgestellt. Die Eingabevorrichtung 1 kann durch einen Benutzer betätigt werden, indem dieser seine Hand in den (Gesamt-)Erfassungsbereich des Reglers 6 bewegt und dort virtuell den Regler 6 betätigt, wie im Folgenden näher beschrieben wird:
Die durch den Sensor 3 in seinem Erfassungsbereich erfasste Hand 8 wird durch die Anzeigevorrichtung als virtuelle Hand 8‘ vereinfacht in Relation zu dem virtuellen Regler 6 dargestellt, insbesondere nur durch Konturlinien, die die Hand und insbesondere Finger der Hand repräsentieren, sodass sich der Benutzer leicht orientieren kann. Es werden zwei virtuelle Bedienbereiche 9 und 10 vorgegeben, die auf zwei Seiten beziehungsweise links und rechts neben dem Regler 6 angeordnet sind. Der erste Bedienbereich 9 dient dazu, den Regler 6 in Richtung seiner Minimalstellung Min zu bewegen, während der zweite Bedienbereich 10 dazu dient, den Regler 6 in Richtung seiner Maximalstellung Max zu bewegen. Der Sensor 3 erfasst die Position und Positionsänderung der Hand 8 des Benutzers und zeigt diese durch die virtuelle Hand 8‘ auf dem Display beziehungsweise der Anzeigevorrichtung 2 an. Bewegt der Benutzer durch seine Hand 8 die virtuelle Hand 8‘, insbesondere mindestens einen Finger F der Hand 8, in einen der Bedienbereiche 9 oder 10, so kann er dort durch Durchführen von Positionsänderungen den Regler 6 zwischen der Minimalstellung Min und der Maximalstellung Max entlang der Linie 7 verschieben. Die Weite der Verlagerung des Reglers 6 wird dabei aus dem Grad der Bewegung beziehungsweise aus dem Weg der Positionsänderung der Hand 8 beziehungsweise des Fingers F bestimmt. Insbesondere ist vorgesehen, dass die Weite der Verlagerung in Abhängigkeit von der Geschwindigkeit der erfassten Positionsänderung bestimmt wird.
The display device 2 shows on its screen at least one actuatable virtual controller 6 as he is in the 2 is shown on. 2 shows a plan view of the display device 2 , The regulator 6 is along a line 7 from a minimum position Min to a maximum position Max along the line 7 virtually movable. Moving the controller detects an analog quantity, such as a volume of a speaker system or a zoom of a map display on a display of a navigation system. The input device 1 can be operated by a user by placing his hand in the (total) detection range of the controller 6 moves and there virtually the controller 6 operated, as described in more detail below:
The through the sensor 3 hand grasped in its coverage area 8th becomes by the display device as a virtual hand 8th' simplified in relation to the virtual controller 6 represented, in particular only by contour lines, which represent the hand and in particular fingers of the hand, so that the user can easily orient. There are two virtual operating areas 9 and 10 given on two sides or left and right next to the controller 6 are arranged. The first operating area 9 serves to control the controller 6 to move towards its minimum position Min, while the second operating area 10 this serves the regulator 6 to move in the direction of its maximum position Max. The sensor 3 detects the position and position change of the hand 8th of the user and shows them through the virtual hand 8th' on the display or the display device 2 at. Moves the user through his hand 8th the virtual hand 8th' , in particular at least one finger F of the hand 8th , in one of the operating areas 9 or 10 , so he can there by making position changes the controller 6 between the minimum position Min and the maximum position Max along the line 7 move. The width of the shift of the regulator 6 becomes from the degree of the movement or from the way of the position change of the hand 8th or the finger F determined. In particular, it is provided that the width of the displacement is determined as a function of the speed of the detected position change.

Im Folgenden soll die Erfassung und Auswertung der Positionsänderung der Hand 8 beziehungsweise der Finger F der Hand 8 erläutert werden: Zunächst erfolgt eine Hintergrundmodellierung nach Zivkovic, Zoran ( Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 ) des durch den Sensor 4 erfassten Bildes. Dadurch werden der Hintergrund und der Vordergrund voneinander getrennt. Als Hintergrund wird dabei das statische beziehungsweise sich nicht verändernde von dem Sensor 3 erfasste Bild in dem Kraftfahrzeug verstanden. Das statische Bild dient als Referenzbild, dass zu jedem Zeitpunkt einer Bildfolge von einem aktuell erfassten Bild abgezogen wird, so dass nur Bildelemente beziehungsweise Pixel im resultierenden Differenzbild markiert sind, die sich vom vorher definierten/ erfassten statischen Hintergrundbild unterscheiden. Der Vordergrund ist die im Erfassungsbereich des Sensors 3 bewegte Hand 8 eines Benutzers, wie sie in 1 beispielhaft dargestellt ist. The following is the capture and evaluation of the change in position of the hand 8th or the finger F of the hand 8th First, a background modeling according to Zivkovic, Zoran ( Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 ) of the sensor 4 captured image. This will separate the background and the foreground. The background is the static or non-changing of the sensor 3 captured image in the motor vehicle understood. The static image serves as a reference image that is subtracted from a currently acquired image at any time of an image sequence, so that only pixels or pixels are marked in the resulting difference image, which differ from the previously defined / detected static background image. The foreground is the one in the detection range of the sensor 3 moving hand 8th of a user, as in 1 is shown by way of example.

Alternativ oder zusätzlich zu der Hintergrundmodellierung ist vorgesehen, dass eine Vordergrundmodellierung nach Dadgostar und Sarrafzadeh ( Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 ) durchgeführt wird, bei welcher relevante Vordergrundregionen für die Handerkennung durch spezielle Hautfarbmodelle erfasst werden, wobei aufgrund des Farbunterschieds zwischen der Hand und dem Hintergrund die Hand erkannt wird. As an alternative or in addition to the background modeling, it is provided that a foreground modeling according to Dadgostar and Sarrafzadeh (US Pat. Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A Comparison of Two Motion Tracking Methods" Pattern Recognition Letters, 2006, 1342-1352 ), in which relevant foreground regions for hand recognition are detected by special skin color models, wherein due to the color difference between the hand and the background the hand is recognized.

Auf Basis der der durch die Vordergrund- und/oder Hintergrundmodellierung gewonnenen Daten wird eine Handkontur der Hand 8 ermittelt und insbesondere auch der Handkonturschwerpunkt berechnet. Vorteilhafterweise wird dazu eine Handkontursegmentierung nach Suzuki und Abe ( Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 ) durchgeführt. Anschließend werden Fingerspitzen der Hand 8 und damit einzelne Finger erkannt. Dies erfolgt vorzugsweise in Abhängigkeit von den erfassten Krümmungen der Handkontur, wie beispielsweise bei Malik ( Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 ) beschrieben wurde. Alternativ kann auch eine Handmodellierung, wie sie von Liu und Lovell ( Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 ) beschrieben wurde durchgeführt werden, um sowohl die Hand als auch ihre Finger- und Fingerspitzen zu detektieren ( Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 ). Auf Basis der so bestimmten Fingerspitzen werden erneut geschlossene Konturen, berechnet, wobei deren Schwerpunktzentren die Position der finalen Fingerspitze repräsentieren. Falls mehrere falsche Fingerspitzen durch eine Übersegmentierung detektiert wurden, werden diese anhand von geometrischen Heuristiken und des Abstands zum Handkonturschwerpunkt verworfen. Hierdurch lassen sich auf einfache Art und Weise einzelne Fingerspitzen der Hand 8 in dem jeweiligen Eingabebereich 9 oder 10 ermitteln.On the basis of the data obtained by the foreground and / or background modeling, a hand contour of the hand becomes 8th determined and in particular also calculated the hand contour center of gravity. Advantageously, a hand contour segmentation according to Suzuki and Abe ( Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 ) carried out. Subsequently, fingertips become the hand 8th and thus recognize individual fingers. This is preferably done as a function of the detected curvatures of the hand contour, as for example in Malik ( Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 ) has been described. Alternatively, a hand modeling, as described by Liu and Lovell ( Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of Digital Image Computing on Techniques and Applications, 2005 ) to detect both the hand and its fingertips and fingertips ( Lee, J. and Kunii, TL: Model-Based Analysis of Hand Posture, IEEE Computer Graphics and Applications, 1995, 77-86 ). Based on the fingertips thus determined, again closed contours are calculated, with their centers of gravity representing the position of the final fingertip. If several false fingertips were detected by over-segmentation, they are discarded based on geometric heuristics and the distance to the hand contour center of gravity. As a result, individual fingertips of the hand can be easily achieved 8th in the respective input area 9 or 10 determine.

Sowohl die gesamte Hand als auch deren Fingerspitzen können mit bekannten Trackingverfahren, wie sie beispielsweise von Do, Asfour und Dillmann ( Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 ) beschrieben wurden, verfolgt werden. Die Erkennung statischer Zeigegesten kann durch standartisierte Klassifikationsverfahren und unabhängig zu jedem Bild einer Sequenz erfolgen, wie von Lockton und Fitzgibbon ( Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 ) oder Nagi ( Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 ) beschrieben. Probabilistische Sequenzmodellierungsverfahren erlauben sowohl die Erkennung einfacher statischer ( Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 ) als auch komplexer dynamischer Handgesten ( Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 ), die nicht notwendigerweise eine bereits segmentierte Handkontur als Eingabe erwarten, sondern mittels erscheinungsbasierter Merkmale auf dem gesamten Bild arbeiten. Ähnliche Verfahren, die auch angewendet können, basieren auf einer Analyse des optischen Flusses ( Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 ).Both the entire hand and the fingertips can be detected by known tracking methods, such as by Do, Asfour and Dillmann ( Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 ). The detection of static pointers can be done by standardized classification methods and independently to each image of a sequence, as described by Lockton and Fitzgibbon ( Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 ) or Nagi ( Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 ). Probabilistic sequence modeling techniques allow both the detection of simple static ( Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 ) as well as complex dynamic hand gestures ( Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. Speech Recognition Techniques for a Sign Language Recognition System, Interspeech, Antwerp, Belgium, 2007, 2513-2516 ), which do not necessarily expect an already segmented hand contour as an input, but work on the entire image using appearance-based features. Similar methods that can be used are based on an analysis of the optical flow ( Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 ).

In Abhängigkeit von der Anzahl der erkannten Fingerspitzen sowie deren Positionsänderungen, also in Abhängigkeit des die Positionsänderung durchführenden Objekts, wird die Weite der Verlagerung des Reglers 6 beziehungsweise eine Veränderung der zugehörigen analogen Größe bewirkt. Kleinere Bewegungen eines einzelnen Fingers führen so zu sehr feinen Änderungen beziehungsweise kleinen Verlagerungen des Reglers 6 beziehungsweise der Reglereinstellung, während größere Bewegungen eines einzelnen Fingers zu einer größeren Änderung beziehungsweise Verlagerung des Reglers 6 führen. Bei Hinzunahme weiterer Finger beziehungsweise Fingerspitzen steigt die Änderungsgeschwindigkeit in Abhängigkeit der Anzahl der hinzugefügten Finger. Insbesondere ist vorgesehen, dass die Positionsänderungen, insbesondere die Wege der einzelnen bewegten Finger beziehungsweise Fingerspitzen, miteinander addiert werden, um eine Gesamtpositionsänderung zu bilden, die der Verlagerung des Reglers 6 zugrunde gelegt wird. Alternativ ist bevorzugt vorgesehen, dass die Verlagerung des Reglers in Abhängigkeit von der Geschwindigkeit, mit welcher die Positionsänderung oder Positionsänderungen erfolgen, eingestellt wird. Wird die Bewegung von mehreren Fingerspitzen erfasst, so wird vorzugsweise die Geschwindigkeit der einzelnen Fingerspitzen ermittelt und die mittlere Geschwindigkeit aller erkannten Fingerspitzen zum Bestimmen der Weite der Verlagerung des Reglers 6 berücksichtigt, wobei vorzugsweise mit zunehmender Geschwindigkeit der Positionsänderung/Positionsänderungen die Weite der Verlagerung erhöht wird. Depending on the number of detected fingertips and their position changes, that is, depending on the object performing the position change, the width of the displacement of the controller 6 or causes a change in the associated analog size. Smaller movements of a single finger lead to very subtle changes or small displacements of the regulator 6 or the regulator setting, while larger movements of a single finger to a greater change or displacement of the regulator 6 to lead. If additional fingers or fingertips are added, the rate of change increases depending on the number of added fingers. In particular, it is provided that the position changes, in particular the paths of the individual moving fingers or fingertips, are added together in order to form an overall position change, that of the displacement of the controller 6 is taken as a basis. Alternatively, it is preferably provided that the displacement of the controller is set in dependence on the speed with which the position change or position changes take place. If the movement is detected by several fingertips, it is preferable to determine the speed of the individual fingertips and the mean velocity of all detected fingertips to determine the width of the displacement of the regulator 6 considered, preferably with increasing speed of the position change / position changes, the width of the displacement is increased.

Wird außerdem ein Schütteln der ganzen Hand 8, eines Fingers F oder mehrerer Fingerspitzen in dem jeweiligen Eingabebereich 9 oder 10 erfasst, so wird eine maximale Verlagerung des Reglers 6 in seine Maximalstellung oder seine Minimalstellung durchgeführt. Die durch den Regler 6 einzustellende Größe lässt sich somit präzise anpassen und steuern. Will also shake the whole hand 8th , a finger F or several fingertips in the respective input area 9 or 10 detected, so is a maximum displacement of the controller 6 carried out in its maximum position or its minimum position. The through the regulator 6 The size to be adjusted can thus be precisely adjusted and controlled.

Die Erfassung der Positionsänderung oder Positionsänderungen kann dabei in Abhängigkeit von der Bewegungsrichtung der Hand 8 oder der Finger F der Hand 8 in Bezug auf den Sensor 3 erfolgen. So kann beispielsweise vorgesehen sein, dass nur die Bewegung der Hand 8 oder deren Finger F in einer vorbestimmten Eingaberichtung 11 als Positionsänderung zur Bedienung des Reglers 6 erkannt wird. Durch den Sensor 3 wird wie zuvor beschrieben die Positionsänderung erfasst und eine Bewegungsrichtung der Hand 8 beziehungsweise der Fingerspitzen F erkannt. Die erkannte Bewegungsrichtung wird mit einer vorbestimmten Eingaberichtung verglichen. Nur dann, wenn die erfasste Bewegungsrichtung mit der Eingabevorrichtung übereinstimmt, wird die Geste als Eingabe erkannt und ausgeführt. Als vorbestimmte Eingaberichtung wird beispielsweise eine Richtung parallel zur Linie 7 vorgegeben, so dass der Benutzer seine Hand 8 derart bewegen muss, dass die Hand oder seine Fingerspitzen F sich derart bewegen, dass die virtuelle 8‘ sich parallel zu der Linie 7 auf der Anzeigevorrichtung 3 bewegt. Wird in diesem Ausführungsbeispiel eine Bewegungsrichtung erfasst, die senkrecht zur Linie 7 ausgerichtet ist, so erfolgt keine Eingabe. Dadurch kann die Gefahr von Fehlbedienungen weiter verringert werden. The detection of the change in position or changes in position may depend on the direction of movement of the hand 8th or the finger F of the hand 8th in terms of the sensor 3 respectively. For example, it may be provided that only the movement of the hand 8th or their fingers F in a predetermined input direction 11 as position change to operate the controller 6 is recognized. Through the sensor 3 As described above, the position change is detected and a direction of movement of the hand 8th or fingertips F recognized. The detected movement direction is compared with a predetermined input direction. Only when the detected direction of movement coincides with the input device, the gesture is recognized as input and executed. As a predetermined input direction, for example, a direction becomes parallel to the line 7 given, allowing the user his hand 8th must move so that the hand or his fingertips F move in such a way that the virtual 8th' parallel to the line 7 on the display device 3 emotional. In this embodiment, a direction of movement is detected which is perpendicular to the line 7 is aligned, so there is no input. As a result, the risk of incorrect operation can be further reduced.

Alternativ zu dem oben beschriebenen Ausführungsbeispiel ist es auch denkbar, dass der Sensor 3 als berührungsempfindlicher Sensor im Bereich der Armauflage 5 ausgebildet ist. Insofern kann beispielsweise vorgesehen sein, ein Touchpad als berührungsempfindlichen Sensor 3 auf der Armauflage oder im Bereich der Auflage 5 vorzusehen, der eine Position und/oder Positionsänderung zumindest eines seine berührungsempfindliche Oberfläche berührenden Fingers des Benutzer erfasst. In 1 ist die optionale Ausbildung des Sensors 3 gestrichelt angedeutet.As an alternative to the embodiment described above, it is also conceivable that the sensor 3 as a touch-sensitive sensor in the area of the armrest 5 is trained. In this respect, for example, be provided, a touchpad as a touch-sensitive sensor 3 on the armrest or in the area of the support 5 provide that detects a position and / or position change of at least one of his touch-sensitive surface touching the user's finger. In 1 is the optional training of the sensor 3 indicated by dashed lines.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 [0026] Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 [0026]
  • Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 [0027] Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "Adaptive real-time skin detector based on Hue thresholding: A comparison of two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 [0027]
  • Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 [0028] Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 [0028]
  • Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 [0028] Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 [0028]
  • Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 [0028] Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models," Proceedings of Digital Image Computing on Techniques and Applications, 2005. [0028]
  • Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 [0028] Lee, J. and Kunii, TL: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 [0028]
  • Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 [0029] Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 [0029]
  • Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 [0029] Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 [0029]
  • Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 [0029] Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 [0029]
  • Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 [0029] Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 [0029]
  • Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 [0029] Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recognition System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 [0029]
  • Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 [0029] Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gestural Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998. [0029]

Claims (13)

Verfahren zum Betreiben einer Eingabevorrichtung (1), insbesondere eines Kraftfahrzeugs, die einen Sensor (3) zum Erfassen der Position und/oder Positionsänderung von zumindest einem Finger (F) einer Hand (8) eines Benutzers aufweist, wobei in Abhängigkeit von der Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird, dadurch gekennzeichnet, dass zur Bedienung eines virtuellen Reglers (6), der in zumindest zwei Richtungen verlagerbar ist, für jede Richtung ein Bedienbereich (9, 10) vorgegeben wird, und dass in Abhängigkeit von der Positionsänderung des mindestens einen Fingers (F) in dem jeweiligen Bedienbereich der Regler (6) in die jeweilige Richtung verlagert wird. Method for operating an input device ( 1 ), in particular a motor vehicle, having a sensor ( 3 ) for detecting the position and / or position change of at least one finger (F) of a hand ( 8th ) of a user, wherein an input is detected and executed as a function of the position and / or position change, characterized in that for operating a virtual controller ( 6 ), which is displaceable in at least two directions, an operating area for each direction ( 9 . 10 ) is predetermined, and that in dependence on the change in position of the at least one finger (F) in the respective operating area of the controller ( 6 ) is shifted in the respective direction. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Weite der Verlagerung in Abhängigkeit von der Positionsänderung bestimmt wird. A method according to claim 1, characterized in that the width of the displacement is determined in dependence on the change in position. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Positionsänderung jede Bewegung des mindestens einen Fingers (F) in dem Bedienbereich erkannt wird. Method according to one of the preceding claims, characterized in that each movement of the at least one finger (F) is detected in the operating area as a change in position. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Positionsänderung nur Bewegungen des mindestens einen Fingers (F) in einer vorgegebenen Eingaberichtung (11) erkannt werden. Method according to one of the preceding claims, characterized in that as a change in position only movements of the at least one finger (F) in a predetermined input direction ( 11 ) be recognized. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Eingaberichtung (11) eine Richtung parallel zu einer Haupterfassungsachse des Sensors (3) vorgegeben wird. Method according to one of the preceding claims, characterized in that as an input direction ( 11 ) a direction parallel to a main detection axis of the sensor ( 3 ) is given. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Eingaberichtung (11) eine Richtung in einer Ebene, die zumindest im Wesentlichen senkrecht zur Haupterfassungsachse des Sensors (3) liegt, vorgegeben wird. Method according to one of the preceding claims, characterized in that as an input direction ( 11 ) a direction in a plane which is at least substantially perpendicular to the main detection axis of the sensor ( 3 ), is given. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Weite der Verlagerung in Abhängigkeit von der Größe des die erfasste Positionsänderung ausführenden Objekts bestimmt wird.Method according to one of the preceding claims, characterized in that the width of the displacement is determined as a function of the size of the object carrying out the detected change in position. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass, wenn mehrere Finger (F) in dem jeweiligen Eingabebereich (9, 10) erfasst werden, die Bewegungen aller erfassten Finger (F) als Positionsänderung erfasst werden. Method according to one of the preceding claims, characterized in that, if a plurality of fingers (F) in the respective input area ( 9 . 10 ) are detected, the movements of all detected fingers (F) are detected as a change in position. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass, wenn ein Schütteln einer Hand (8) in dem jeweiligen Eingabebereich als Positionsänderung erfasst wird, der Regler (6) maximal in die dem Eingabebereich (9, 10) zugeordnete Richtung verlagert wird. Method according to one of the preceding claims, characterized in that when shaking a hand ( 8th ) is detected as position change in the respective input area, the controller ( 6 ) maximum in the input area ( 9 . 10 ) assigned direction is shifted. Eingabevorrichtung, insbesondere für ein Kraftfahrzeug, mit einem Sensor (3) zum Erfassen der Position und/oder Positionsänderung von mindestens einem Finger (F) einer Hand (8) eines Benutzers, wobei in Abhängigkeit von der erfassten Position der Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird, dadurch gekennzeichnet, dass die Eingabevorrichtung (1) bei bestimmungsgemäßem Gebrauch das Verfahren nach einem oder mehreren der Ansprüche 1 bis 9 durchführt. Input device, in particular for a motor vehicle, with a sensor ( 3 ) for detecting the position and / or position change of at least one finger (F) of a hand ( 8th ) of a user, wherein, as a function of the detected position of the position change, an input is detected and executed, characterized in that the input device ( 1 ) performs the method according to one or more of claims 1 to 9 when used as intended. Eingabevorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass der Sensor (3) zum berührungsfreien Erfassen der Position und/oder Positionsänderung ausgebildet ist.Input device according to claim 10, characterized in that the sensor ( 3 ) is designed for contact-free detection of the position and / or position change. Eingabevorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass der Sensor (3) als Monokularkamera ausgebildet ist. Input device according to claim 11, characterized in that the sensor ( 3 ) is designed as a monocular camera. Eingabevorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass der Sensor (3) als berührungsempfindlicher Sensor zum Erfassen der Position und/oder Positionsänderung ausgebildet ist. Input device according to claim 10, characterized in that the sensor ( 3 ) is designed as a touch-sensitive sensor for detecting the position and / or position change.
DE102014224599.0A 2014-12-02 2014-12-02 Method for operating an input device, input device Pending DE102014224599A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014224599.0A DE102014224599A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014224599.0A DE102014224599A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device

Publications (1)

Publication Number Publication Date
DE102014224599A1 true DE102014224599A1 (en) 2016-06-02

Family

ID=55967768

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014224599.0A Pending DE102014224599A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device

Country Status (1)

Country Link
DE (1) DE102014224599A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016100190B3 (en) 2016-01-05 2017-03-30 Elmos Semiconductor Aktiengesellschaft Method for intuitive volume control by means of gestures
DE102016100189B3 (en) 2016-01-05 2017-03-30 Elmos Semiconductor Aktiengesellschaft Method for intuitive volume control by means of gestures
CN109478091A (en) * 2016-07-12 2019-03-15 富士胶片株式会社 The control device and its working method and working procedure of image display system and head-mounted display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US20020140633A1 (en) * 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
DE102009046376A1 (en) * 2009-11-04 2011-05-05 Robert Bosch Gmbh Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel
DE102010010806A1 (en) * 2010-03-09 2011-09-15 Continental Automotive Gmbh Operating device for inputting control commands into an electronic device
US20120206339A1 (en) * 2009-07-07 2012-08-16 Elliptic Laboratories As Control using movements
US20140306936A1 (en) * 2013-04-10 2014-10-16 Elliptic Laboratories As Touchless interaction devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US20020140633A1 (en) * 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
US20120206339A1 (en) * 2009-07-07 2012-08-16 Elliptic Laboratories As Control using movements
DE102009046376A1 (en) * 2009-11-04 2011-05-05 Robert Bosch Gmbh Driver assistance system for automobile, has input device including manually operated control element that is arranged at steering wheel and/or in area of instrument panel, where area lies in direct vicinity of wheel
DE102010010806A1 (en) * 2010-03-09 2011-09-15 Continental Automotive Gmbh Operating device for inputting control commands into an electronic device
US20140306936A1 (en) * 2013-04-10 2014-10-16 Elliptic Laboratories As Touchless interaction devices

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
Cutler, R. und Turk, M.: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998
Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352
Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011
Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128
Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recogntion System", Interspeech, Antwerp, Belgium, 2007, 2513-2516
Lee, J. und Kunii, T. L.: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86
Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of the Digital Image Computing on Techniques and Applications, 2005
Lockton, R. und Fitzgibbon, A. W.: "Real-time gesture recognition using deterministic boosting", BMVC, 2002
Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003
Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347
Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following." CVGIP, 1985, 32-46
Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Substration", ICPR, 2004

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016100190B3 (en) 2016-01-05 2017-03-30 Elmos Semiconductor Aktiengesellschaft Method for intuitive volume control by means of gestures
DE102016100189B3 (en) 2016-01-05 2017-03-30 Elmos Semiconductor Aktiengesellschaft Method for intuitive volume control by means of gestures
CN109478091A (en) * 2016-07-12 2019-03-15 富士胶片株式会社 The control device and its working method and working procedure of image display system and head-mounted display
EP3486750A4 (en) * 2016-07-12 2019-07-10 FUJIFILM Corporation Image display system, control device for head-mounted display, and operating method and operating program for operating same
US10664043B2 (en) 2016-07-12 2020-05-26 Fujifilm Corporation Image display system, and control apparatus for head-mounted display and operation method therefor

Similar Documents

Publication Publication Date Title
DE112014003563B4 (en) Device and method for gesture determination, gesture control device, program and recording medium
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
DE102008016215A1 (en) Information device operating unit
DE102017218120A1 (en) A method of providing haptic feedback to an operator of a touch-sensitive display
DE102015110495A1 (en) INFORMATION PROCESSING DEVICE WHICH DETECTS A PARTICULAR OBJECT IN A RECORDED IMAGE AND METHOD FOR CONTROLLING IT
DE102016210288A1 (en) Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device
DE102010048745A1 (en) Method of operating user interface in motor vehicle, involves representing predetermined object-specific target areas, graphically on display unit, upon detection of beginning of shift operation of first two selected objects
DE102015115526A1 (en) Method for target detection of target objects, in particular for the target detection of operating elements in a vehicle
WO2016120251A1 (en) Method for operating an input device, input device
DE102014226553A1 (en) Method for operating an input device, input device, motor vehicle
DE102013000066A1 (en) Zooming and moving an image content of a display device
EP3234736B1 (en) Method for operating an input device, input device, motor vehicle
DE102014224599A1 (en) Method for operating an input device, input device
WO2015162058A1 (en) Gesture interaction with a driver information system of a vehicle
DE202015100273U1 (en) input device
WO2017054894A1 (en) Interactive operating system and method for carrying out an operational action in an interactive operating system
DE102019206606A1 (en) Method for contactless interaction with a module, computer program product, module and motor vehicle
DE102016001998A1 (en) A motor vehicle operating device and method for operating an operating device to effect an interaction between a virtual display plane and a hand
DE102013000081B4 (en) Operator interface for contactless selection of a device function
DE102014224632A1 (en) Method for operating an input device, input device
EP3025214B1 (en) Method for operating an input device, and input device
DE102017210317A1 (en) Method and device for detecting a user input by means of a gesture
DE102015201722A1 (en) Method for operating an input device, input device
WO2015110331A1 (en) Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method
DE102015211521A1 (en) Method for operating an input device, input device

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed