DE202004021283U1 - Berührungsfeld für eine tragbare Vorrichtung - Google Patents

Berührungsfeld für eine tragbare Vorrichtung Download PDF

Info

Publication number
DE202004021283U1
DE202004021283U1 DE202004021283U DE202004021283U DE202004021283U1 DE 202004021283 U1 DE202004021283 U1 DE 202004021283U1 DE 202004021283 U DE202004021283 U DE 202004021283U DE 202004021283 U DE202004021283 U DE 202004021283U DE 202004021283 U1 DE202004021283 U1 DE 202004021283U1
Authority
DE
Germany
Prior art keywords
touchpad
touch pad
native
pad assembly
assembly according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202004021283U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of DE202004021283U1 publication Critical patent/DE202004021283U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

Berührungsfeld-Aufbau, aufweisend:
ein Berührungsfeld, welches einen oder mehrere Sensoren hat, welche die Ebene des Berührungsfelds auf native Sensorkoordinaten abbilden; und
einen Controller, welcher die Oberfläche des Berührungsfelds in festgelegte logische Vorrichtungseinheiten unterteilt, die nativen Werte der nativen Sensorkoordinaten von den Sensoren erhält, die nativen Werte der nativen Sensorkoordinaten in einen neuen Wert wandelt, der mit den logischen Vorrichtungseinheiten assoziiert ist, und den neuen Wert der logischen Vorrichtungseinheiten an eine Hostvorrichtung berichtet, wobei die logischen Vorrichtungseinheiten Bereiche des Berührungsfelds repräsentieren, die durch einen Benutzer betätigt werden können.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf ein Medienabspielgerät, das ein Berührungsfeld aufweist. Genauer bezieht sich die vorliegende Erfindung auf verbesserte Berührungsfelder.
  • 2. Beschreibung der verwandten Technik
  • Es gibt heutzutage viele Arten von Eingabevorrichtungen, um Operationen in einem Gerät der Unterhaltungselektronik auszuführen. Die Operationen entsprechen im Allgemeinen dem Bewegen eines Cursors und dem Treffen von Auswahlen auf einem Anzeigebildschirm. Beispielsweise können die Eingabevorrichtungen Tasten, Schalter, Tastaturen, Mäuse, Trackballs, Berührungsfelder (Touchpads), Joy Sticks, Touch Screens und ähnliches umfassen. Jede dieser Vorrichtungen hat Vorteile und Nachteile, die in Betracht gezogen werden, wenn das Gerät der Unterhaltungselektronik entworfen wird. In tragbaren Rechenvorrichtungen werden die Eingabevorrichtungen typischerweise ausgewählt aus Tasten und Schaltern. Tasten und Schalter sind allgemein mechanischer Natur und liefern begrenzte Kontrolle mit Bezug auf Bewegung eines Cursors (oder eines anderen Auswählers) und dem Ausführen von Auswahlen. Sie sind z.B. im Allgemeinen dediziert, den Cursor in eine bestimmte Richtung zu bewegen. (z.B. Pfeiltasten) oder spezifische Auswahlen zu treffen (z.B. Eingabe, Löschen, Zahl usw.). In dem Falle von persönlichen digitalen Assistenten (PDA) tendieren die Eingabevorrichtungen dazu, berührungsempfindliche Anzeigebildschirme (Touch Screen) zu verwenden. Wenn ein Touch Screen verwendet wird, macht ein Benutzer eine Auswahl auf dem Anzeigebildschirm, indem er direkt auf Objekte auf dem Schirm unter Verwendung eines Stiftes oder Fingers zeigt.
  • In tragbaren Rechenvorrichtungen, wie Laptopcomputern, sind die Eingabevorrichtungen gewöhnlich Berührungsfelder. Bei einem Berührungsfeld entspricht die Bewegung eines Eingabezeigers (d.h. Cursor) den relativen Bewegungen des Fingers (oder Stiftes) des Benutzers, während der Finger entlang der Oberfläche des Berührungsfelds bewegt wird. Berührungsfelder können auch eine Auswahl auf dem Anzeigebildschirm machen, wenn ein einfaches oder mehrfaches Antippen auf der Oberfläche des Berührungsfelds erkannt wird. In einigen Fällen kann auf einen beliebigen Abschnitt des Berührungsfelds getippt werden und in anderen Fällen kann auf einen dedizierten Abschnitt des Berührungsfelds getippt werden. In stationären Vorrichtungen wie Desktopcomputern sind die Eingabevorrichtungen typischerweise ausgewählt aus Mäusen und Trackballs. Bei einer Maus entspricht die Bewegung des Eingabezeigers den relativen Bewegungen der Maus, wenn der Benutzer die Maus entlang einer Oberfläche bewegt. Bei einem Trackball entspricht die Bewegung des Eingabezeigers den relativen Bewegungen einer Kugel, wenn der Benutzer die Kugel innerhalb eines Gehäuses dreht. Sowohl Mäuse als auch Trackballs enthalten im Allgemeinen eine oder mehrere Tasten, um eine Auswahl auf dem Anzeigebildschirm zu treffen.
  • Zusätzlich dazu, dass sie Eingabezeigerbewegungen und Auswahl mit Bezug auf eine grafische Benutzeroberfläche (GUI) erlauben, die auf einem Anzeigebildschirm angezeigt wird, können die Eingabevorrichtungen es einem Benutzer auch erlauben, über einen Anzeigebildschirm in der horizontalen oder der vertikalen Richtung zu scrollen. Zum Beispiel können Mäuse ein Scrollrad enthalten, das es einem Benutzer erlaubt, einfach das Scrollrad nach vorne oder nach hinten zu rollen, um eine Scrollaktion auszuführen. Zusätzlich können Berührungsfelder dedi zierte aktive Bereiche bereitstellen, die Scrollen implementieren, wenn der Benutzer oder die Benutzerin seinen oder ihren Finger linear über den aktiven Bereich in den Richtungen x und y bewegt. Beide Vorrichtungen können auch Scrollen über horizontale und vertikale Scrollbalken als Teil der grafischen Benutzeroberfläche implementieren. Unter Verwendung dieser Technik wird Scrollen implementiert, indem der Eingabezeiger über den gewünschten Scrollbalken positioniert wird, der gewünschte Scrollbalken ausgewählt wird und der Scrollbalken bewegt wird, indem die Maus oder der Finger in die y-Richtung (vorwärts und rückwärts) zum vertikalen Scrollen oder in der x-Richtung (links und rechts) zum horizontalen Scrollen bewegt wird.
  • Mit Bezug auf Berührungsfelder, Mäuse und Trackbälle wird ein kartesisches Koordinatensystem verwendet, um die Position des Fingers, der Maus bzw. der Kugel zu überwachen bzw. zu beobachten, wenn sie bewegt werden. Das kartesisches Koordinatensystem ist im Allgemeinen als ein zweidimensionales Koordinatensystem (x, y) definiert, in dem die Koordinaten eines Punktes (z.B. Position eines Fingers, einer Maus oder einer Kugel), dessen Entfernung von zwei sich kreuzenden, oftmals rechtwinkeligen geraden Linien ist, wobei die Entfernung von jeder von diesen entlang einer geraden Linie gemessen wird, die parallel zueinander sind. Zum Beispiel können die x-, y-Positionen der Maus, der Kugel und des Fingers überwacht werden. Die x-, y-Positionen werden dann verwendet, um den Eingabezeiger auf dem Anzeigebildschirm entsprechend zu lokalisieren und zu bewegen.
  • Weiter ausführend enthalten Berührungsfelds im Allgemeinen einen oder mehrere Sensoren, um die Nähe des Fingers dazu zu erkennen. Die Sensoren sind im Allgemeinen über das Berührungsfeld verstreut, wobei jeder Sensor eine x-, y-Position darstellt. In den meisten Fällen sind die Sensoren in einem Gitter von Spalten und Reihen angeordnet. Es werden so, wenn ein Finger über das Gitter von Sensoren innerhalb des Berührungsfelds bewegt wird, unterschiedliche x-, y-Positionssignale erzeugt, die die x-,y-Bewegung einer Zeigervorrichtung auf dem Anzeigebildschirm kontrollieren. Der Kürze halber wird die verbleibende Diskussion über die Diskussion kapazitiver Sensortechniken gehalten. Es sollte jedoch bemerkt werden, dass die anderen Technologien ähnliche Eigenschaften haben.
  • Kapazitive sensorische Berührungsfelds enthalten im Allgemeinen mehrere Materialschichten. Das Berührungsfeld kann z.B. ein Schutzschild enthalten, eine oder mehrere Elektrodenschichten und eine Leiterkarte. Das Schutzschild bedeckt typischerweise die Elektrodenschicht(en) und die Elektrodenschicht(en) ist/sind im Allgemeinen auf einer Vorderseite der Leiterkarte angeordnet. Wie im Allgemeinen wohl bekannt ist, ist der Schutzschild der Teil des Berührungsfelds, der durch den Benutzer berührt wird, um Cursorbewegungen auf einem Anzeigebildschirm zu implementieren. Die Elektrodenschicht(en) andererseits werden verwendet, um die x-, y-Position des Fingers des Benutzers zu interpretieren, wenn der Finger des Benutzers auf dem Schutzschild ruht oder sich bewegt. Die Elektrodenschicht(en) besteht typischerweise aus einer Mehrzahl von Elektroden, die in Spalten und Reihen angeordnet sind, um eine Gitteranordnung zu bilden. Die Spalten und Reihen basieren im Allgemeinen auf dem kartesischen Koordinatensystem und daher entsprechen die Reihen und Spalten den x- und y-Richtungen.
  • Das Berührungsfeld kann auch Sensorelektronik enthalten, um Signale zu erkennen, die mit den Elektroden assoziiert sind. Zum Beispiel kann die Sensorelektronik angepasst sein, die Veränderung in Kapazität bei jeder der Elektroden zu erkennen, wenn der Finger über das Gitter passiert. Die Sensorelektroniken sind im Allgemeinen auf der Rückseite der Leiterkarte angeordnet. Beispielhaft kann die Sensorelektronik eine anwendungsspezifische integrierte Schaltung (ASIC) enthalten, die konfiguriert ist, die Menge an Kapazität in jeder der Elektroden zu messen und die Fingerpositionsbewegung zu berechnen basierend auf der Kapazität in jeder der Elektroden. Der ASIC kann auch konfiguriert sein, diese Information an die Rechenvorrichtung zu berichten.
  • Mit Bezug auf 1 wird ein. Berührungsfeld 2 in größerem Detail beschrieben werden. Das Berührungsfeld 2 ist allgemein ein kleiner rechteckiger Bereich, der ein Schutzschild 4 und eine Mehrzahl von Elektroden 6, die unter der Schutzschildschicht 4 angeordnet sind, enthält. Der einfacheren Beschreibung halber ist ein Teil der Schutzschildschicht 4 entfernt worden, um die Elektroden 6 zu zeigen. Jede der Elektroden 6 stellt eine unterschiedliche x-, y-Position dar. In einer Konfiguration, wenn ein Finger 8 sich dem Elektrodengitter 6 nähert, bildet sich eine kleine Kapazität zwischen dem Finger 8 und den Elektroden 6 in der Nähe des Fingers 8. Die Leiterkarte/Sensorelektronik misst Kapazität und erzeugt ein X-, Y-Eingangssignal 10 entsprechend den aktiven Elektroden 6. Das x-, y-Eingangssignal 10 wird an eine Hostvorrichtung 12 gesendet, die einen Anzeigebildschirm 14 hat. Das x-, y-Eingangssignal 10 wird verwendet, um die Bewegung eines Cursors 16 auf dem Anzeigebildschirm 14 zu kontrollieren. Wie gezeigt, bewegt sich der Eingabezeiger in einer ähnlichen x-, y-Richtung wie die erkannte x-, y-Fingerbewegung.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung bezieht sich in einer Ausführungsform auf einen Berührungsfeld-Aufbau. Der Berührungsfeld-Aufbau enthält ein Berührungsfeld, das einen oder mehrere Sensoren hat, die die Berührungsfeld-Ebene auf native Sensorkoordinaten abbilden. Das Berührungsfeld enthält auch eine Kontrolleinheit, welche die Oberfläche des Berührungsfelds in logische Vorrichtungseinheiten unterteilt, die Bereiche des Berührungsfelds darstellen, welche durch einen Benutzer betätigt werden können, die nativen Werte der nativen Sensorkoordinaten von den Sensoren empfängt, die nativen. Werte der nativen Sensorkoordinaten in einen neuen Wert wandelt, der mit den logischen Vorrichtungseinheiten assoziiert ist, und den neuen Wert der logischen Vorrichtungseinheiten an eine Hostvorrichtung berichtet.
  • Ein Verfahren für ein Berührungsfeld weist Abbilden des Berührungsfelds auf native Sensorkoordinaten auf. Das Verfahren weist auch Erzeugen nativer Werte der nativen Sensorkoordinaten auf, wenn Ereignisse auf dem Berührungsfeld auftreten. Das Verfahren weist ferner Filtern der nativen Werte der nativen Sensorkoordinaten basierend auf der An von Ereignissen auf, die auf dem Berührungsfeld auftreten. Das Verfahren weist zusätzlich Erzeugen eines Kontrollsignals basierend auf den nativen Werten der nativen Sensorkoordinaten auf, wenn ein erwünschtes Ereignis auf dem Berührungsfeld auftritt.
  • Ein Signalverarbeitungsverfahren weist Empfangen einer aktuellen Benutzerposition auf. Das Verfahren weist auch Bestimmen der Differenz der Benutzerposition durch Vergleich der aktuellen Benutzerposition mit einer letzten Benutzerposition auf. Das Verfahren weist ferner allein Ausgeben der aktuellen Benutzerposition auf, wenn die Differenz in Benutzerposition größer als ein Schwellenwert ist. Das Verfahren weist zusätzlich Wandeln der ausgegebenen gewärtigen Benutzerposition in eine logische Vorrichtungseinheit auf. Zudem weist das Verfahren Erzeugen einer Nachricht für eine Hostvorrichtung auf. Die Nachricht enthält die logischere Benutzerposition. Die logischere Benutzerposition wird durch die Hostvorrichtung verwendet, um ein Kontrollobjekt auf eine spezifische Weise zu bewegen.
  • Die Erfindung bezieht sich in einer anderen Ausführungsform auf eine Nachricht von einem Berührungsfeld-Aufbau an eine Hostvorrichtung in einem Computersystem, die bidirektionale Kommunikationen zwischen dem Berührungsfeld-Aufbau und der Hostvorrichtung erleichtert. Die Nachricht enthält ein Ereignisfeld, welches identifiziert, ob die Nachricht ein Berührungsfeld-Ereignis oder ein Tastenereignis ist. Die Nachricht enthält auch ein Ereignisidentifikationsfeld, welches zumindest einen Ereignisparameter identifiziert, wobei jeder Ereignisparameter einen Ereigniswert hat, wobei der Ereigniswert für einen Berührungsfeld-Ereignisparameter eine absolute Position anzeigt, wobei der Ereigniswert für einen Tastenereignisparameter einen Tastenzustand anzeigt.
  • Die Erfindung bezieht sich in einer anderen Ausführungsform auf einen Berührungsfeld-Aufbau, der in der Lage ist, eine Benutzeraktion in Bewegung auf einem Anzeigebildschirm zu transformieren, wobei das Berührungsfeld-System ein Berührungsfeld enthält, das eine Mehrzahl unabhängiger und räumlich getrennter Tastzonen hat, die jede eine unterschiedliche Bewegungsrichtung auf dem Anzeigebildschirm repräsentiert, um Joystick-Implementationen, mehrdimensionale Menüauswahl oder Fotobildschwenken zu ermöglichen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung ist in den Figuren der beigefügten Zeichnungen, in denen gleiche Bezugszeichen sich auf ähnliche Elemente beziehen, beispielhaft und nicht beschränkend gezeigt, und in welchen:
  • 1 ein vereinfachtes Diagramm eines Berührungsfelds und einer Anzeige ist.
  • 2 ein Diagramm eines Rechnersystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • 3 ein Flussdiagramm der Signalverarbeitung in Übereinstimmung mit einer Ausführungsform der Erfindung ist.
  • 4 ein Flussdiagramm einer Berührungsfeld-Verarbeitung in Übereinstimmung mit einer Ausführungsform der Erfindung ist.
  • 5 ein Flussdiagramm einer Berührungsfeld-Verarbeitung in Übereinstimmung mit einer Ausführungsform der Erfindung ist.
  • 6 ein Diagramm eines Kommunikationsprotokolls in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • 7 ein Diagramm eines Nachrichtenformats in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • 8 eine perspektivische Ansicht eines Medienabspielgeräts in Übereinstimmung mit einer Ausführung der Erfindung ist.
  • 9 eine Frontansicht eines Medienabspielsgeräts in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • 10 eine Frontansicht eines Medienabspielgeräts in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • 11A11D sind Draufsichten eines Medienabspielgeräts in Verwendung in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • 12 ist eine teilweise ausgebrochene perspektivische Ansicht eines kreisförmigen kapazitiven Berührungsfelds in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • 13 ist eine Draufsicht einer Sensoranordnung eines Berührungsfelds in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • 14 ist eine Draufsicht einer Sensoranordnung eines Berührungsfelds in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • 15 ist eine Draufsicht einer Sensoranordnung eines Berührungsfelds in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung wird nun im Detail mit Bezug auf einige wenige bevorzugte Ausführungsformen davon, wie in den beigefügten Zeichnungen gezeigt, beschrieben werden. In der folgenden Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der vorliegenden Erfindung zu geben. Es wird einem Fachmann jedoch ersichtlich sein, dass die vorliegende Erfindung verwirklicht werden kann, ohne einige oder alle diese spezifischen Details. In anderen Fällen wurden wohlbekannte Prozessschritte nicht im Detail beschrieben, um nicht unnötig die vorliegende Erfindung zu verdunkeln.
  • 2 ist ein Diagramm eines Rechnersystems 20 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Rechnersystem 20 enthält zumindest eine Benutzerschnittstelle 22 und eine Hostvorrichtung 24. Die Benutzerschnittstelle 22 ist so eingerichtet, dass sie Kontrollinformationen zum Ausführen von Aktionen in der Hostvorrichtung 24 bereitstellt. Beispielsweise können die Aktionen das Treffen von Auswahlen, Öffnen einer Datei oder eines Dokuments, Ausführen von Befehlen, Starten eines Programms, Betrachten eines Menüs und/oder ähnliches enthalten. Die Aktionen können auch Bewegen eines Objektes, wie eines Zeigers oder Cursors auf einem Anzeigebildschirm der Hostvorrichtung 24 enthalten. Obwohl nicht in 2 gezeigt, kann die Benutzerschnittstelle 22 in der Hostvorrichtung 24 (innerhalb desselben Gehäuses) integriert sein oder sie kann eine separate Komponente sein (anderes Gehäuse).
  • Die Benutzerschnittstelle 22 enthält einen oder mehrere Berührungstasten 34, ein Berührungsfeld 36 und eine Kontrolleinheit 38. Die Berührungstasten 34 erzeugen Tastendaten, wenn ein Benutzer seinen Finger über den Berührungstasten 34 anordnet. Das Berührungsfeld andererseits erzeugt Positionsdaten, wenn ein Benutzer seinen Finger (oder Objekt) über dem Berührungsfeld 36 platziert. Die Kontrolleinheit 38 ist eingerichtet, die Tastendaten von Berührungstasten 34 und die Positionsdaten von dem Berührungsfeld 36 zu erlangen. Die Kontrolleinheit ist auch konfiguriert, Kontrolldaten, die mit den Tastendaten und/oder Positionsdaten assoziiert sind, an die Hostvorrichtung 24 auszugeben. In einer Ausführungsform gibt die Kontrolleinheit 38 allein Kontrolldaten aus, die mit den Berührungstasten assoziiert sind, wenn der Tastenzustand sich geändert hat. In einer anderen Ausführungsform gibt die Kontrolleinheit 38 allein Kontrolldaten aus, die mit dem Berührungsfeld assoziiert sind, wenn die Positionsdaten sich geändert haben. Die Kontrolldaten, welche die Rohdaten (Taste, Position) oder eine Form davon enthalten können, können verwendet werden, um eine Kontrollfunktion in der Hostvorrichtung 24 zu implementieren. Zum Beispiel können die Kontrolldaten verwendet werden, um ein Objekt auf der Anzeige 30 der Hostvorrichtung 24 zu bewegen oder um eine Auswahl zu treffen oder einen Befehl in der Hostvorrichtung 24 zu erteilen.
  • Die Berührungstasten 34 und das Berührungsfeld 36 enthalten im Allgemeinen einen oder mehrere Sensoren, die in der Lage sind, die Tasten- und Positionsdaten zu erzeugen. Die Sensoren der Berührungstasten 34 und des Berührungsfelds 36 können unterschiedliche Elemente sein oder sie können als Teil einer Sensoranordnung zusammengruppiert sein, d.h., unterteilt in Sensoren für die Berührungstasten 34 und Sensoren für das Berührungsfeld 36. Die Sensoren der Berührungstasten 34 sind konfiguriert, Signale zu. erzeugen, die mit einem Tastenzustand assoziiert sind (aktiviert, nicht aktiviert). Der Tastenzustand kann z.B. Tastenaktivierung anzeigen, wenn ein Objekt über der Berührungstaste angeordnet ist und Tastendeaktivierung zu anderen Zeiten (oder umgekehrt). Die Sensoren des Berührungsfelds 36 sind konfiguriert, Signale zu erzeugen, die mit absoluter Position eines Objekts auf oder in der Nähe des Berührungsfelds 36 assoziiert sind. In den meisten Fällen bilden die Sensoren des Berührungsfelds 36 die Ebene des Berührungsfelds in native oder physikalische Sensorkoordinaten 40 ab. Die nativen Sensorkoordinaten 40 können auf kartesischen Koordinaten oder Polarkoordinaten (wie gezeigt) basiert sein. Wenn sie kartesisch sind, entsprechen die nativen Sensorkoordinaten 40 typischerweise x- und y-Koordinaten. Wenn sie polar sind (wie gezeigt), dann entsprechen die nativen Sensorkoordinaten typischerweise radialen und Winkelkoordinaten (r, θ). Die Sensoren können z.B. basieren auf Widerstandsmessung, Oberflächenakustikwellenmessung, Druckmessung (z.B. Dehnungsmessstreifen), optischer Messung, kapazitiver Messung und ähnlichem.
  • In einer Ausführungsform enthält die Benutzerschnittstelle 22 einen Sensoraufbau basierend auf kapazitiver Messung. Die Benutzerschnittstelle 22 ist daher angeordnet, Veränderungen in der Kapazität zu erkennen, wenn ein Finger sich auf den Berührungstasten 34 und dem Berührungsfeld 36 bewegt, antippt oder ruht. Der kapazitive Berührungsaufbau ist gebildet aus verschiedenen Schichten, welche zumindest eine Menge von Labeln, eine Menge von Elektroden (Sensoren) und eine Leiterkarte (PCB, printed circuit board) enthalten. Die Elektroden sind auf der Leiterkarte angeordnet und die Labels sind über den Elektroden angeordnet. Die Labels dienen dazu, die Elektroden zu schützen und eine Oberfläche bereitzustellen, um einen Finger darauf zu empfangen. Die Labelschicht stellt auch eine isolierende Oberfläche zwischen dem Finger und den Elektroden bereit. Wie verstanden werden sollte, kann die Kontrolleinheit 38 den Tastenzustand bei jedem der Berührungstasten 34 und die Position des Fingers auf dem Berührungsfeld 36 bestimmen, indem sie Veränderungen an Kapazität erkennt. In den meisten Fällen ist die Kontrolleinheit 38 auf der Rückseite der Leiterkarte angeordnet. Die Kontrolleinheit 38 kann z.B. einer anwendungsspezifischen integrierten Schaltung (ASIC) entsprechen und kann unter der Kontrolle von Firmware arbeiten, die auf dem ASIC gespeichert ist.
  • Mit Bezug auf die Kontrolleinheit 38 ist die Kontrolleinheit 38 konfiguriert, die Sensoren der Berührungstasten 34 und des Berührungsfelds 36 zu überwachen und zu bestimmen, welche Information der Hostvorrichtung 24 zu berichten ist. Diese Entscheidung kann Filter- und/oder Wandlungsverarbeitung einschließen. Die Filterungsverarbeitung kann implementiert sein, um einen geschäftigen Datenstrom zu reduzieren, so dass die Hostvorrichtung 24 nicht mit redundanten oder nicht wesentlichen Daten überladen wird. Zum Beispiel kann ein geschäftiger Datenstrom erzeugt werden, wenn mehrere Signale bei nativen Sensorkoordinaten 40 erzeugt werden, die in enger Nachbarschaft zueinander sind. Wie verstanden werden sollte, tendiert die Verarbeitung eines geschäftigen Datenstroms dazu, eine Menge an Energie zu benötigen, und daher kann dies eine desaströse Wirkung auf tragbare Vorrichtung, wie Medienabspielvorrichtungen haben, die eine Batterie mit begrenzter Leistungsfähigkeit verwenden. Allgemein gesprochen, wirft die Filterverarbeitung redundante Signale hinaus, so dass sie die Hostvorrichtung 24 nicht erreichen. In einer Implementation ist die Kontrolleinheit 38 so konfiguriert, ein Kontrollsignal nur auszugeben, wenn ein signifikanter Wechsel in Sensorsignalen erkannt wird. Ein signifikanter Wechsel entspricht solchen Veränderungen, die signifikant sind, z.B., wenn der Benutzer/die Benutzerin entscheidet, seinen/ihren Finger zu einer neuen Position zu bewegen, anstatt dass der Finger des Benutzers einfach auf einem Punkt verbleibt und sich dort auf Grund der Fingerbalance nur ganz leicht bewegt (Kippen nach vorne und hinten). Die Filterverarbeitung kann durch Firmware als Teil der anwendungsspezifischen integrierten Schaltung implementiert sein.
  • Der Wandlungsprozess ist andererseits implementiert, um die Rohdaten in andere Formfaktoren anzupassen, bevor sie an die Hostvorrichtung 24 gesendet oder berichtet werden. Das heißt, die Kontrolleinheit 38 kann die Rohdaten in andere Datentypen wandeln. Die anderen Datentypen können ähnliche oder andere Einheiten haben wie die Rohdaten. In dem Falle des Berührungsfelds 36 kann die Kontrolleinheit 38 die Positionsdaten in andere Positionsdatentypen wandeln. Die Kontrolleinheit 38 kann z.B. absolute Positionsdaten in relative Positionsdaten wandeln. Wie verstanden werden sollte, bezieht sich. die absolute Position auf die Position des Fingers auf dem Berührungsfeld, absolut gemessen mit Bezug auf ein Koordinatensystem, während relative Position sich auf eine Veränderung der Position des Fingers relativ zur vorherigen Fingerposition bezieht. Die Kontrolleinheit 38 kann auch mehrere Absolutkoordinaten in eine einzige absolute Koordinate, Polarkoordinaten in kartesische Koordinaten und/oder kartesische Koordinaten in Polarkoordinaten wandeln. Die Kontrolleinheit 38 kann auch die Positionsdaten in Tastendaten wandeln. Zum Beispiel kann die Kontrolleinheit Tastenkontrollsignale erzeugen, wenn ein Objekt auf einem vorherbestimmten Abschnitt des Berührungsfelds antippt, oder andere Kontrollsignale, wenn ein Objekt auf eine vorherbestimmte Weise über das Berührungsfeld bewegt wird (z.B. beim Gestikulieren).
  • Die Wandlung kann auch das Platzieren des Kontrollsignals in ein Format umfassen, das die Hostvorrichtung 24 verstehen kann. Zum Beispiel kann die Kontrolleinheit 38 einem vorherbestimmten Kommunikationsprotokoll folgen. Wie allgemein wohl bekannt ist, sind Kommunikationsprotokolle eine Menge von Regeln und Prozeduren zum Austausch von Daten zwischen zwei Vorrichtungen, wie der Benutzerschnittstelle 22 und der Hostvorrichtung 24. Kommunikationsprotokolle übertragen typischerweise Information in Datenblöcken oder Paketen, welche die übertragenen Daten enthalten, die Daten, die zur Leitung des Pakets zu dessen Ziel benötigt sind und die Daten, die Fehler korrigieren, welche entlang des Weges auftreten. Die Kontrolleinheit kann eine Menge von Kommunikationsprotokollen zum Kommunizieren mit der Hostvorrichtung unterstützen, einschließlich, aber nicht begrenzt auf, PS/2, seriell, ADB und ähnliches. In einer besonderen Implementierung wird ein serielles Protokoll verwendet.
  • Die Wandlungsverarbeitung kann Gruppieren von zumindest einem Teil der nativen Koordinaten 40 zusammen einschließen, um eine oder mehrere virtuelle Betätigungszonen 42 zu bilden. Zum Beispiel kann die Kontrolleinheit 38 die Oberfläche des Berührungsfelds 36 in virtuelle Betätigungszonen 42A42D unterteilen und die nativen Werte der nativen Sensorkoordinaten 40 in einen neuen Wert wandeln, der mit den virtuellen Betätigungszonen 42A42D assoziiert ist. Der neue Wert kann ähnliche oder andere Einheiten als der native Wert haben. Der neue Wert ist typischerweise gespeichert bei der Kontrolleinheit 38 und nachfolgend an die Hostvorrichtung 24 weitergereicht. Allgemein gesprochen gibt die Kontrolleinheit 38 ein Kontrollsignal aus, das mit einer bestimmten virtuellen Betätigungszone 42 assoziiert ist, wenn die meisten der Signale von nativen Sensorkoordinaten 40 sind, die sich innerhalb der bestimmten virtuellen Betätigungszone 42 befinden.
  • Die virtuellen Betätigungszonen stellen im Allgemeinen einen logischeren Bereich von Werten dar als die nativen Sensorkoordinaten 40 selbst, d.h. die virtuellen Betätigungszonen 42 repräsentieren Bereiche des Berührungsfelds 36, die durch einen Benutzer besser betätigt werden können (Größenordnungen größer). Das Verhältnis von nativen Sensorkoordinaten 40 zu virtuellen Betätigungszonen 42 kann zwischen 1024:1 bis ungefähr 1:1 sein und insbesondere etwa 8:1. Das Berührungsfeld kann z.B. 128 virtuelle Betätigungsbereiche enthalten, basierend auf 1024 nativen Sensorkoordinaten.
  • Die virtuellen Betätigungszonen 42 können weit variiert sein. Zum Beispiel können sie absolute Positionen auf dem Berührungsfeld 36 repräsentieren, die um Größenordnungen größer sind als die nativen Sensorkoordinaten 40. Zum Beispiel kann ein Berührungsfeld 36 in größere Stücke unterbrochen sein, die anderenfalls erzielt werden können, indem die nativen Sensorkoordinaten 40 verwendet werden. In einer Implementation verteilen sich die virtuellen Betätigungszonen 42 auf dem Berührungsfeld 36 innerhalb eines Bereichs von 0 bis 95 Winkelpositionen. Die Winkelposition ist null bei der Position bei zwölf Uhr und schreitet im Uhrzeigersinn bis 95 fort, wenn sie wiederum zur Zwölf-Uhr-Stellung kommt.
  • Die virtuellen Betätigungszonen 42 können auch Bereiche auf dem Berührungsfeld repräsentieren, die durch einen Benutzer betätigt werden können, um spezifi sche Kontrollfunktionen, wie Tasten- oder Bewegungsfunktionen, zu implementieren. Mit Bezug auf Tastenfunktionen können die virtuellen Betätigungszonen 42 Tastenzonen entsprechen, die sich wie Berührungstasten verhalten. Mit Bezug auf Bewegungsfunktionen kann jede der virtuellen Betätigungszonen 42 unterschiedlichen Bewegungsrichtungen entsprechen, so dass sie sich wie Pfeiltasten verhalten. Zum Beispiel kann die virtuelle Betätigungszone 42A eine Bewegung nach oben repräsentieren, die virtuelle Betätigungszone 42B kann eine Bewegung nach unten repräsentieren, die virtuelle Betätigungszone 42C kann eine Bewegung nach links repräsentieren und die virtuelle Betätigungszone 42D kann eine Bewegung nach rechts repräsentieren. Wie verstanden werden sollte, kann dieser Typ einer Berührungsfeld-Konfiguration Spielhebel-Implementationen ermöglichen, zweidimensionale Menüauswahl, Fotobildschwenken und ähnliches.
  • Obwohl nicht gezeigt, kann die Kontrolleinheit 38 auch ein Speicherelement enthalten. Das Speicherelement kann ein Berührungsfeld-Programm speichern, um verschiedene Aspekte der Benutzerschnittstelle 22 zu kontrollieren. Zum Beispiel kann das Berührungsfeld-Programm virtuelle Betätigungszonenprofile enthalten, die beschreiben, wie die virtuellen Betätigungszonen relativ zu den nativen Sensorkoordinaten um das Berührungsfeld verteilt sind und welche An von Wert auszugeben ist, basierend auf den nativen Werten der gewählten nativen Sensorkoordinaten und der virtuellen Betätigungszone entsprechend den gewählten nativen Sensorkoordinaten.
  • In einer besonderen Berührungsfeld-Operation empfängt die Kontrolleinheit 38 Positionsdaten von dem Berührungsfeld 36. Die Kontrolleinheit 38 leitet dann die Daten durch eine Filterverarbeitung hindurch. Die Filterverarbeitung enthält im Allgemeinen Bestimmen, ob die Daten auf Rauschereignissen oder tatsächlichen Ereignissen basieren. Rauschereignisse werden assoziiert mit nicht signifikanten Ereignissen, wie z.B. wenn ein Finger eines Benutzers einfach auf einem Punkt verbleibt und sich auf Grund der Fingerbalance nur leicht bewegt. Tatsächliche Ereignisse sind assoziiert mit signifikanten Ereignissen, wie wenn ein Benutzer entscheidet, seinen/ihren Finger zu einer neuen Position auf dem Berührungsfeld zu bewegen. Die Rauschereignisse werden ausgefiltert und die tatsächlichen Ereignisse werden durch die Kontrolleinheit 38 geleitet.
  • Mit tatsächlichen Ereignissen bestimmt die Kontrolleinheit 38, ob die Positionsdaten angepasst werden sollen. Falls nicht, werden die Positionsdaten der Hostvorrichtung 24 berichtet. Falls ja, werden die Positionsdaten in andere Formfaktoren gewandelt, einschließlich, aber nicht begrenzt auf andere Positionsdaten oder Tastendaten. Zum Beispiel werden die nativen Werte der Sensorkoordinaten in einen neuen Wert gewandelt, assoziiert mit einer ausgewählten virtuellen Betätigungszone. Nach der Wandlung berichtet die Kontrolleinheit 38 die gewandelten Daten an die Hostvorrichtung 24. Beispielsweise kann die Kontrolleinheit 38 den neuen Wert einem Hauptsystemprozessor berichten, der das Hauptanwendungsprogramm ausführt, das auf der Hostvorrichtung 24 läuft.
  • Mit Bezug auf die Hostvorrichtung 24 enthält die Hostvorrichtung 24 im Allgemeinen eine Kontrollschaltung 26. Die Kontrollschaltung 26 ist konfiguriert, Befehle auszuführen und Operationen auszuführen, die mit der Hostvorrichtung 24 assoziiert sind. Zum Beispiel kann die Kontrollschaltung 26 den Empfang und die Manipulation von Eingabe- und Ausgabedaten zwischen den Komponenten des Rechensystems 20 kontrollieren. Die Hostvorrichtung 24 kann auch einen Halteschalter 28 enthalten, um Kommunikation zwischen der Hostvorrichtung 24 und der Benutzerschnittstelle 22 zu aktivieren und zu deaktivieren. Die Hostvorrichtung kann zusätzlich eine Anzeige 30 enthalten, die konfiguriert ist, visuelle Information, wie Text und Grafik, auf einem Anzeigebildschirm 32 über Anzeigebefehle von der Kontrollschaltung 26 zu erzeugen. Als ein Beispiel kann die visuelle Information in der Form einer grafischen Benutzeroberfläche (graphical user Interface, GUI) sein. Obwohl nicht gezeigt, kann die Hostvorrichtung zusätzlich einen oder mehrere Lautsprecher enthalten oder Buchsen, welche an Kopfhörer/Lautsprecher verbinden.
  • Die Kontrollschaltung kann weit variiert sein. Die Kontrollschaltung kann einen oder mehrere Prozessoren 27 enthalten, welche zusammen mit einem Betriebssystem arbeiten, um Computercode auszuführen und Daten zu erzeugen und zu verwenden. Der Prozessor 27 kann ein Prozessor von einem Typ sein oder kann mit mehreren Komponenten implementiert sein. Der Computercode und Daten können innerhalb eines Datenspeichers residieren, der operativ mit dem Prozessor verbunden ist. Der Datenspeicher stellt im Allgemeinen einen Platz bereit, um Daten zu halten, die durch das Computersystem 20 verwendet werden. Als ein Beispiel kann der Datenspeicher nur Lesespeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), Festplatten und/oder ähnliches enthalten. Obwohl nicht gezeigt, kann die Kontrollschaltung auch eine Eingabe-/Ausgabe-Kontrolleinheit enthalten, die operativ mit dem Prozessor verbunden ist. Die Eingabe-/Ausgabe-Kontrolleinheit arbeitet im Allgemeinen, indem sie Daten zwischen der Hostvorrichtung 24 und den Eingabe-/Ausgabevorrichtungen austauscht, welche mit der Hostvorrichtung 24 zu kommunizieren wünschen (z.B. Berührungsfeld-Aufbau 22). Die Kontrollschaltung enthält auch typischerweise eine Anzeigekontrolleinheit, die operativ mit dem Prozessor verbunden ist. Die Anzeigekontrolleinheit ist konfiguriert, Anzeigebefehle zu verarbeiten, um Text und Grafik auf dem Anzeigebildschirm 32 der Hostvorrichtung 24 zu erzeugen. Der Eingabe-/Ausgabe-Kontrolleinheit und die Anzeigekontrolleinheit können mit dem Prozessor integriert sein oder sie können separate Komponenten sein.
  • Es sei bemerkt, dass die Kontrollschaltung 26 konfiguriert sein kann, um einige derselben Funktionen wie die Kontrolleinheit 38 auszuführen. Zum Beispiel kann die Kontrollschaltung 26 Wandlungsverarbeitungen auf den von der Kontrolleinheit 38 empfangenen Daten ausführen. Die Wandlung kann auf Rohdaten oder auf bereits gewandelten Daten ausgeführt werden.
  • 3 ist ein Flussdiagramm einer Signalverarbeitung 50 in Übereinstimmung mit einer Ausführungsform der Erfindung. Die Signalverarbeitung 50 kann beispielsweise durch das in 2 gezeigte Rechensystem ausgeführt werden. Die Signalverarbeitung 50 beginnt im Allgemeinen bei Block 52, wo eine Benutzereingabe bei der Benutzerschnittstelle 22 erzeugt wird. Die Benutzereingabe basiert typischerweise auf Signalen, die durch den Sensoraufbau der Berührungstasten und das Berührungsfeld erzeugt werden. Die Benutzereingabe kann Rohdaten enthalten. Die Benutzereingabe kann auch gefilterte und gewandelte Daten enthalten.
  • Folgend Block 52 schreitet die Verarbeitung zu Block 54 fort, wo die Benutzereingabe zu der Kontrollschaltung der Hostvorrichtung berichtet wird. Die Benutzereingabe kann sowohl Tasten als auch Positionsdaten enthalten oder kann nur Tastendaten oder Positionsdaten enthalten. Die Benutzereingabe wird typischerweise berichtet, wenn eine Veränderung gemacht wird und genauer, wenn eine gewünschte Veränderung bei der Benutzerschnittstelle gemacht wird (gefiltert). Zum Beispiel können Tastendaten berichtet werden, wenn der Tastenzustand sich geändert hat und Positionsdaten können berichtet werden, wenn die Position eines Fingers sich geändert hat.
  • Folgend Block 54 schreitet die Verarbeitung zu Block 56 fort, wo in der Hostvorrichtung basierend auf der Benutzereingabe eine Aktion ausgeführt wird. Die Aktionen sind typischerweise durch die Kontrollschaltung der Hostvorrichtung kontrolliert. Die Aktionen können umfassen das Treffen von Auswahlen, Öffnen einer Datei oder eines Dokuments, Ausführen von Befehlen, Starten eines Programms, Betrachten eines Menüs und/oder ähnliches. Die Aktionen können auch enthalten das Bewegen eines Objekt, wie einem Pointer oder einem Cursor auf einem Anzeigebildschirm der Hostvorrichtung 24.
  • 4 ist ein Flussdiagramm einer Berührungsfeld-Verarbeitung 60 in Übereinstimmung mit einer Ausführungsform der Erfindung. Die Berührungsfeld-Verarbeitung 60 beginnt im Allgemeinen bei Block 62, wo zumindest ein Kontrollobjekt auf einer grafischen Benutzeroberfläche angezeigt wird. Das Kontrollobjekt kann ein Cursor, ein Schiebebalken, ein Bild oder ähnliches sein. Bei spielsweise kann die grafische Benutzeroberfläche auf der Anzeige 30 der Hostvorrichtung 24 angezeigt werden. Die grafische Benutzeroberfläche ist typischerweise unter der Kontrolle des Prozessors der Hostvorrichtung 24.
  • Folgend Block 62 schreitet die Verarbeitung zu Block 64 fort, wo eine im Winkel oder radial in Bezug genommene Eingabe empfangen wird. Beispielsweise kann die im Winkel oder radial in Bezug genommene Eingabe durch die Benutzerschnittstelle 22 erzeugt und durch den Prozessor der Hostvorrichtung 24 empfangen werden. Die im Winkel oder radial in Bezug genommene Eingabe kann Rohdaten sein, gebildet durch den Sensoraufbau oder gewandelte Daten, gebildet bei der Kontrolleinheit. Weiter können die rohen oder gewandelten Daten gefiltert sein, um einen geschäftigen Datenstrom zu reduzieren.
  • Nachfolgend dem Block 64 schreitet die Berührungsfeld-Verarbeitung zu Block 66 fort, wo das Kontrollobjekt, basierend auf der im Winkel oder radial in Bezug genommene Eingabe, modifiziert wird. Zum Beispiel kann die Richtung, in der sich ein Kontrollobjekt, wie ein Fußballspieler in einem Fußballspiel, bewegt, von einer ersten Richtung zu einer zweiten Richtung geändert werden oder ein hervorhebender Balken kann durch mehrere Bilder in einer Fotobibliothek bewegt werden. Die Modifikation ist typischerweise durch den Prozessor der Hostvorrichtung implementiert.
  • 5 ist ein Flussdiagramm einer Berührungsfeld-Verarbeitung 70 in Übereinstimmung mit einer Ausführungsform der Erfindung. Zum Beispiel kann die Berührungsfeld-Verarbeitung durch die in 2 gezeigte Kontrolleinheit ausgeführt werden. Weiterhin kann sie assoziiert sein mit den in 3 und 4 gezeigten Blöcken 52/54 und 62. Die Berührungsfeld-Verarbeitung 70 beginnt im Allgemeinen beim Block 72, wo eine aktuelle Benutzerposition empfangen wird. Die aktuelle Benutzerposition entspricht der aktuellen Position des Fingers des Benutzers auf dem Berührungsfeld. Zum Beispiel kann die Kontrolleinheit die Veränderungen in Sensorniveaus bei jeder der nativen Sensorkoordinaten erkennen und danach die gegenwärtige Position des Fingers des Benutzers auf dem Berührungsfeld bestimmen, basierend auf der Veränderung in den Sensorniveaus bei jeder der nativen Sensorkoordinaten.
  • Nachfolgend dem Block 72 schreitet der Verarbeitungsfluss zum Block 74 fort, wo eine Bestimmung gemacht wird, ob die aktuelle Benutzerposition innerhalb eines Schwellenwerts von der letzten Benutzerposition ist, das heißt, die Benutzerposition, welche der aktuellen Benutzerposition vorangeht. In einigen Fällen wird die aktuelle Benutzerposition mit der letzten Benutzerposition verglichen, um die Differenz in Benutzerposition zu bestimmen, das heißt, wie viel Bewegung zwischen der aktuellen und der vorherigen Auslesung aufgetreten ist. Wenn die aktuelle Benutzerposition innerhalb des Schwellenwerts ist, dann würde eine unerwünschte Veränderung gemacht und der Prozessfluss schreitet zurück zum Block 72. Wenn die aktuelle Position außerhalb des Schwellenwerts ist, dann würde eine gewünschte Veränderung gemacht und der Prozessfluss schreitet zum Block 76 fort. Beispielsweise:
    Ungewünschte Veränderung:
    | aktuelle Benutzerposition – letzte Benutzerposition | < Schwellenwert Erwünschte Veränderung:
    | aktuelle Benutzerposition – letzte Benutzerposition | ≥ Schwellenwert
  • In einer Ausführungsform kann der Schwellenwert definiert sein als die Anzahl von Sensorniveaus, die sich ändern müssen, um eine Veränderung der Position des Benutzerfingers dem Hauptsystemprozessor der Hostvorrichtung zu berichten. In einer besonderen Implementierung ist der Schwellenwert gleich ungefähr 3. Der Schwellenwert kann bestimmt werden durch die folgende Gleichung:
    Schwellenwert (T) = C*(native Sensorkoordinatenauflösung/logische Vorrichtungseinheitsauflösung), wo die native Sensorkoordinatenauflösung die maximale Anzahl von unterschiedlichen Positionen definiert, welche die Sensoren entdecken können für ein bestimmtes ebenes Koordinatensystem, die logische Vorrichtungseinheitsauflösung definiert die Anzahl von Werten, welche dem Hauptsystemprozessor der Hostvorrichtung berichtet werden für das bestimmte ebene Koordinatensystem und der Koeffizient C definiert den breiten Grenzbereich zwischen den Clustern von nativen Sensorkoordinaten, welche eine logische Vorrichtungseinheit definieren.
  • Der Koeffizient C ist im Allgemeinen bestimmt durch die Empfindlichkeit, die benötigt wird, um ein Benutzerereignis dem Hauptsystemprozessor der Hostvorrichtung zu initiieren. Er passt den Schwellenwert den physikalischen Beschränkungen der Sensortechnologie und dem erwarteten Rauschen der Benutzerfingerereignisse an. Größere Werte tendieren dazu, mehr Ereignisse zu filtern und die Empfindlichkeit zu reduzieren. Der Entwerfer des Systems kann den exakten Wert von C auswählen, indem er mehrere Werte testet, um eine optimale Balance zwischen Empfindlichkeit und Stabilität der Benutzerfingerposition zu treffen. Der Koeffizient C ist typischerweise ein Wert zwischen 0 und 0,5 und insbesondere um 0,25. Wie verstanden werden sollte, ist der Schwellenwert (T) in etwa 2, wenn die native Sensorkoordinatenauflösung etwa 1024, die logische Vorrichtungseinheitsauflösung etwa 128 und der Koeffizient etwa 0,25 ist.
  • In Block 76 wird ein neuer Wert, assoziiert mit einer bestimmten logischen Vorrichtungseinheit, erzeugt, basierend auf den geänderten nativen Sensorkoordinaten, die mit der besonderen logischen Vorrichtungseinheit assoziiert sind. In den meisten Fällen wird die rohe Anzahl von Teilen in der Form von nativen Sensorkoordinaten in eine logischere Anzahl von Teilen in der Form von logischen Vorrichtungseinheiten (z.B. virtuelle Betätigungszonen) gruppiert.
  • Folgend Block 76 schreitet der Fluss der Verarbeitung zu Block 78 fort, wo die letzte Benutzerposition aktualisiert wird. Das heißt, die letzte aktuelle Position wird auf die aktuelle Benutzerposition geändert. Die aktuelle Benutzerposition fungiert nun als die letzte Benutzerposition für die nachfolgende Verarbeitung.
  • Nachfolgend dem Block 78 schreitet der Fluss der Verarbeitung zu Block 80 fort, wo eine Nachricht ausgesandt wird. In den meisten Fällen wird die Nachricht gesendet, wenn die Differenz zwischen der aktuellen und der letzten Benutzerposition größer als der Schwellenwert ist. Die Nachricht enthält im Allgemeinen den neuen Wert, assoziiert mit der gewählten logischen Vorrichtungseinheit. Als Beispiel kann das Berührungsfeld eine Nachricht an den Hauptsystemprozessor der Hostvorrichtung senden. Wenn sie durch den Hauptsystemprozessor empfangen wird, kann die Nachricht dazu verwendet werden, eine Anpassung in der Hostvorrichtung zu machen, das heißt, ein Kontrollobjekt dazu zu bringen, sich auf eine bestimmte Weise zu bewegen.
  • 6 ist ein Diagramm des Kommunikationsprotokolls 82 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Zum Beispiel kann das Kommunikationsprotokoll verwendet werden durch die Benutzerschnittstelle und Hostvorrichtung von 2. In dieser speziellen Ausführungsform hat die Benutzerschnittstelle 22 eine dedizierte Eingangsleitung AKTIV, die durch die Kontrollschaltung 26 kontrolliert wird. Der Zustand des AKTIV Leitungssignals kann auch NIEDRIG (LOW) oder HOCH (HIGH) gesetzt werden. Der Halteschalter 28 kann verwendet werden, um den Zustand des AKTIV Leitungssignals (z.B. wenn der Halteschalter in einer ersten Position oder einer zweiten Position ist) zu verändern. Wie in 6 gezeigt, wenn das AKTIV Signal auf HOCH gesetzt ist, sendet die Benutzerschnittstelle 22 eine Synchronisationsnachricht an die Kontrollschaltung 26, welche den Zustand von Tasten und Berührungsfeld beschreibt (z.B. Tastenzustand und Berührungsfeld-Position). In einer Ausführungsform werden neue Synchronisationsnachrichten nur gesendet, wenn sich der Tastenzustand und/oder der Berührungsfeld-Zustand ändert. Zum Beispiel, wenn die Berührungsfeld-Position sich innerhalb einer gewünschten Grenze geändert hat. Wenn das AKTIV Signal auf NIEDRIG gesetzt wird, sendet die Benutzerschnitt stelle 22 keine Synchronisationsnachricht an die Kontrollschaltung 26. Wenn das AKTIV Signal von NIEDRIG nach HOCH gewechselt wird, sendet die Benutzerschnittstelle 22 einen Tastenzustand und eine Berührungsfeld-Positionsnachricht. Dies kann beim Einschalten verwendet werden, um den Zustand zu initialisieren. Wenn das AKTIV-Signal von HOCH nach NIEDRIG gewechselt wird, sendet die Benutzerschnittstelle 22 keine Synchronisationsnachricht an die Kontrollschaltung 26. In einer Ausführungsform ist die Benutzerschnittstelle 22 konfiguriert, eine Nachricht mit zwei Datenbytes zu senden, wenn sowohl der Tasten als auch die Berührungsfeld-Position sich ändert, seit die letzte Nachricht gesendet wurde und eine Nachricht mit einem Datenbyte, wenn nur ein Tastenzustand oder die Berührungsfeld-Position sich ändert.
  • 7 ist ein Diagramm eines Nachrichtenformats 86 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Zum Beispiel kann das Nachrichtenformat 86 der in 6 beschriebenen Synchronisationsnachricht entsprechen. Das Nachrichtenformat 86 kann eine Nachricht mit zwei Datenbytes oder eine Nachricht mit einem Datenbyte bilden. Jedes Datenbyte ist als eine Nachricht mit 8 Bit konfiguriert. Das obere höchstwertige Bit (Most Signifikant Bit, MSB) der Nachricht ist der Ereignistyp (1 Bit) und die niedrigeren niederwertigen Bits (Least Significant Bits, LSB) sind der Ereigniswert (7 Bits).
  • Der Ereigniswert ist ereignistypspezifisch. In 7 sind die Ereignistypbits als EO markiert und der Ereigniswert ist als D0-D6 markiert. Wie in dem Diagramm angezeigt, kann der Ereignistyp eine Berührungsfeld-Positionsänderung E1 oder eine Tastenzustandsänderung EO sein, wenn der Tasten berührt wird oder E1, wenn der Tasten nicht berührt wird. Die Ereigniswerte können verschiedenen Tastenereignissen entsprechen, wie Suchvorlauf (D4), Suchrücklauf (D3), Abspielen und Pausieren (D2), Bereitstellen eines Menüs (D1) und Treffen von Auswahlen (D0). Die Ereigniswerte können auch Berührungsfeld-Ereignissen entsprechen wie Berührungsfeld-Position (D5). In einem Berührungsfeld zum Beispiel, das die logischen Koordinaten in Polarkoordinaten von 0–127 definiert, kann der Ereig niswert einer absoluten Berührungsfeld-Position im Bereich von 0–127 Winkelpositionen entsprechen, wo Null zwölf Uhr ist, 32 drei Uhr, 64 sechs Uhr und 96 neun Uhr, usw. in Uhrzeigerrichtung. Die Ereigniswerte können auch einer Reserve (D6) entsprechen. Die Reserve ist ein nicht genutztes Bit, das verwendet werden kann, um die API zu erweitern.
  • 8 ist ein perspektivisches Diagramm eines Medienabspielgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Zum Beispiel kann das Medienabspielgerät 100 im Allgemeinen der Hostvorrichtung entsprechen, die in 2 gezeigt ist. Der Begriff "Medienabspielgerät" bezieht sich im Allgemeinen auf Rechenvorrichtungen, die dazu bestimmt sind, Medien, wie Audio, Video oder andere Bilder zu verarbeiten, wie z.B. Musikabspielgeräte, Spielgeräte, Videoabspielgeräte, Videorecorder, Kameras und ähnlichem. In einigen Fällen enthalten die Medienabspielgeräte eine einzige Funktionalität (z.B. ein Medienabspielgerät, das dem Abspielen von Musik gewidmet ist) und in anderen Fällen enthalten die Medienabspielgeräte multiple Funktionalität (z.B. ein Medienabspielgerät, das Musik spielt, Video anzeigt, Bilder speichert und ähnliches). In jedem Fall sind diese Vorrichtungen im Allgemeinen tragbar, um es einem Benutzer zu erlauben, Musik zu hören, Spiele oder Video zu spielen, Video aufzuzeichnen oder Bilder aufzunehmen, wohin auch immer der Benutzer reist.
  • In einer Ausführungsform ist das Medienabspielgerät 100 eine tragbare Vorrichtung, die zur Platzierung in einer Tasche des Benutzers abgemessen ist. Da sie taschengroß ist, braucht der Benutzer die Vorrichtung nicht direkt zu tragen und daher kann die Vorrichtung beinahe überall dorthin mitgenommen werden, wohin der Benutzer reist (z.B. ist der Benutzer nicht beschränkt durch Tragen einer großen, voluminösen und oftmals schweren Vorrichtung, wie ein Laptop oder Notebook-Computer). In dem Falle eines Musikabspielgeräts z.B. kann ein Benutzer die Vorrichtung verwenden, während er im Sportstudio trainiert. In dem Falle einer Kamera kann ein Benutzer die Vorrichtung verwenden, während er bergsteigt. In dem Falle eines Spielgeräts kann der Benutzer die Vorrichtung verwen den, während er in einem Auto reist. Weiterhin kann die Vorrichtung durch die Hände des Benutzers bedient werden, es wird keine Referenzoberfläche wie ein Schreibtisch benötigt (dies ist in größerem Detail in 6 gezeigt). In der gezeigten Ausführungsform ist das Medienabspielgerät 100 ein handgetragenes MP3-Musikabspielgerät, das es einem Benutzer erlaubt, eine große Sammlung von Musik zu speichern (z.B. in einigen Fällen bis zu 4.000 Liedern in CD-Qualität). Das MP3-Musikabspielgerät kann beispielsweise dem iPod MP3-Player entsprechen, hergestellt durch Apple Computer aus Cupertino, CA. Obwohl hauptsächlich zum Speichern und Abspielen von Musik verwendet, kann der hierin gezeigte MP3-Musikplayer auch zusätzliche Funktionalität enthalten, wie das Speichern eines Kalenders und Telefonlisten, Speichern und Abspielen von Spielen, Speichern von Fotos und ähnlichem. Tatsächlich kann er in einigen Fällen als eine hochgradig transportierbare Speichervorrichtung fungieren.
  • Wie in 8 gezeigt enthält das Medienabspielgerät 100 ein Gehäuse 102, das intern verschiedene elektrische Komponenten (einschließlich integrierter Schaltungschips und anderer Schaltungen) umschließt, um Rechenoperationen für das Medienabspielgerät 100 bereitzustellen. Zusätzlich kann das Gehäuse auch die Form des Medienabspielgeräts definieren. Das heißt, die Kontur des Gehäuses 102 kann die äußere physische Erscheinung des Medienabspielgeräts 100 verkörpern. Die integrierten Schaltungschips und andere Schaltungen, die innerhalb des Gehäuses enthalten sind, können einen Mikroprozessor (z.B. CPU), Speicher (z.B. ROM, RAM), eine Stromquelle (z.B. Batterie), eine Leiterkarte, eine Festplatte, anderen Speicher (z.B. flash) und/oder verschiedene Unterstützungsschaltungen für Eingabe/Ausgabe (I/O) enthalten. Die elektrischen Komponenten können auch Komponenten zum Eingeben oder Ausgeben von Musik oder Lauten umfassen, wie ein Mikrofon, Verstärker und ein digitaler Signalprozessor (DSP). Die elektrischen Komponenten können auch Komponenten umfassen zum Aufnehmen von Bildern, wie Bildsensoren (z.B. ladungsgekoppelte Vorrichtung, charge coupled device (CCD) oder Komplementäroxidhalbleiter (complimentary oxide semiconductor (CMOS)) oder Optiken (z.B. Linsen, Verteiler, Filter).
  • In der gezeigten Ausführungsform enthält das Medienabspielgerät 100 eine Festplatte, was dem Medienabspielgerät 100 massive Speicherkapazität verleiht. Zum Beispiel kann eine 20GB-Festplatte bis zu 4000 Lieder oder etwa 266 Stunden Musik speichern. Im Gegensatz dazu speichern flash-basierte Medienabspielgeräte im Durchschnitt bis zu 128 MB oder etwa zwei Stunden Musik. Die Festplattenkapazität kann stark variieren (z.B. 5, 10, 20 MB usw.). Zusätzlich zu der Festplatte enthält das hierin gezeigte Medienabspielgerät 100 auch eine Batterie, wie eine aufladbare Lithiumpolymerbatterie. Diese Batterietypen sind in der Lage, dem Medienabspielgerät 100 etwa 10 Stunden kontinuierlicher Abspielzeit zu geben.
  • Das Medienabspielgerät 100 enthält auch einen Anzeigebildschirm 104 und damit in Bezug stehende Schaltung. Der Anzeigebildschirm 104 wird verwendet, um eine grafische Bedienerschnittstelle sowie andere Information dem Benutzer darzustellen (z.B. Text, Objekte, Grafiken). Der Anzeigebildschirm 104 kann z.B. eine Flüssigkristallanzeige (LCD) sein. In einer besonderen Ausführungsform entspricht der Anzeigebildschirm 104 einer Anzeige mit hoher Auflösung von 160-x-128-Pixeln, mit einer weißen LED-Hintergrundbeleuchtung, um klare Sichtbarkeit sowohl bei Tageslicht als auch unter Bedingungen geringen Lichts zu geben. Wie gezeigt ist der Anzeigebildschirm 104 einem Benutzer des Medienabspielgeräts 100 durch eine Öffnung 105 in dem Gehäuse 102 sichtbar.
  • Das Medienabspielgerät 100 enthält auch ein Berührungsfeld 110. Das Berührungsfeld ist eine intuitive Schnittstelle, das eine einfache Bedienung mit einer Hand bereitstellt, das heißt, einen Bediener mit einem oder mehr Fingern mit dem Medienabspielgerät 100 interagieren lässt. Das Berührungsfeld 110 ist konfiguriert, eine oder mehr Kontrollfunktionen bereitzustellen zum Kontrollieren verschiedener Anwendungen, die mit dem Medienabspielgerät 100 assoziiert sind. Zum Beispiel kann die Kontrollfunktion, die durch Berührung initiiert wird, verwendet werden, um ein Objekt auf dem Anzeigebildschirm 104 zu bewegen oder Auswahlen zu treffen oder Befehle zu geben, die mit dem Betrieb des Medienabspielgeräts 100 assoziiert sind. Um die durch Berührung initiierte Kontrollfunktion zu implementieren, kann das Berührungsfeld 110 angeordnet sein, Eingabe von einem Finger zu empfangen, der sich über die Oberfläche des Berührungsfelds 110 bewegt, von einem Finger, der eine bestimmte Position auf dem Berührungsfeld hält und/oder durch einen Finger, der auf eine bestimmte Position des Berührungsfelds tippt.
  • Das Berührungsfeld 110 besteht im Allgemeinen aus einer berührbaren äußeren Oberfläche 111 zum Empfangen eines Fingers zur Manipulation auf dem Berührungsfeld 110. Unter der berührbaren äußeren Oberfläche 111 ist ein Sensoraufbau 112. Der Sensoraufbau 112 enthält einen oder mehrere Sensoren, die konfiguriert sind, zu aktivieren, wenn der Finger auf ihnen sitzt, auf sie tippt oder über sie hinweg passiert. Der Sensoraufbau 112 kann auf einem kartesischen Koordinatensystem, einem Polarkoordinatensystem, oder einem anderen Koordinatensystem basieren. Im einfachsten Fall wird ein elektrisches Signal jedes Mal produziert, wenn der Finger über einer messenden Koordinate des Sensoraufbaus 112 positioniert ist. Die Anzahl von Signalen in einem gegebenen Zeitrahmen kann Ort, Richtung, Geschwindigkeit und Beschleunigung des Fingers auf dem Berührungsfeld anzeigen, das heißt, umso mehr Signale, umso mehr hat der Benutzer seinen oder ihren Finger bewegt. In den meisten Fällen werden die Signale durch einen Kontrollaufbau überwacht, welcher die Anzahl, Kombination und Frequenz der Signale in Positions-, Richtungs-, Geschwindigkeits- und Beschleunigungsinformation wandelt und diese Information dem Hauptsystemprozessor des Medienabspielgeräts berichtet. Diese Information kann dann durch das Medienabspielgerät 100 verwendet werden, um die gewünschte Kontrollfunktion auf dem Anzeigebildschirm 104 auszuführen.
  • In einer Ausführungsform ist die Oberfläche des Berührungsfelds 110 in mehrere unabhängige und räumlich getrennte Betätigungszonen 113A-D unterteilt, angeordnet um die Peripherie des Berührungsfelds 110. Die Betätigungszonen stellen im Allgemeinen einen logischeren Bereich von Benutzereingaben dar als die Sensoren selbst. Allgemein gesagt gibt das Berührungsfeld 110 ein Kontrollsignal aus, das mit einer bestimmten Betätigungszone 113 assoziiert ist, wenn die meisten der Signale von Messkoordinaten stammen, die innerhalb der bestimmten Betätigungszone 113 liegen. Das heißt, wenn sich ein Objekt einer Zone 113 nähert, wird ein Positionssignal bei einer oder mehreren Messkoordinaten erzeugt. Die Positionssignale, die durch die eine oder die mehreren Messkoordinaten erzeugt wurde, können verwendet werden, um das Medienabspielgerät 100 darüber zu informieren, dass das Objekt bei einer bestimmten Zone 113 auf dem Berührungsfeld 110 ist.
  • Die Betätigungszonen können Tastenzonen oder Positionszonen sein. Wenn sie Tastenzonen sind, wird ein Tastenkontrollsignal erzeugt, wenn ein Objekt über der Tastenzone platziert wird. Das Tastenkontrollsignal kann verwendet werden, um Auswahlen zu treffen, eine Datei zu öffnen, Befehle auszuführen, ein Programm zu starten, ein Menü anzuzeigen in dem Medienabspielgerät. Wenn es Positionszonen sind, wird ein Positionskontrollsignal erzeugt, wenn ein Objekt über der Positionszone platziert wird. Die Positionssignale können verwendet werden, um die Bewegung eines Objekts auf dem Anzeigebildschirm des Medienabspielgeräts zu kontrollieren. Die Verteilung von Betätigungszonen kann durch Berührungsfeld-Übersetzungssoftware oder Firmware kontrolliert werden, welche physikalische oder native Koordinaten in virtuelle Repräsentation in der Form von Betätigungszonen übersetzt. Die Berührungsfeld-Übersetzungssoftware kann durch den Kontrollaufbau des Berührungsfelds oder den Hauptsystemprozessor des Medienabspielgeräts ausgeführt werden. In den meisten Fällen wandelt der Kontrollaufbau die aufgenommenen Signale in Signale um, welche die Zonen darstellen, bevor er die aufgenommenen Signale dem Hauptsystemprozessor des Abspielgeräts sendet.
  • Die Positionskontrollsignale können mit einem kartesischen Koordinatensystem (x und y) oder einem Polarkoordinatensystem (r, θ) assoziiert sein. Weiterhin können die Positionssignale in einem absoluten oder einem relativen Modus bereitgestellt sein. Im absoluten Modus werden die absoluten Koordinaten, von dort wo das Berührungsfeld berührt wird, verwendet. Zum Beispiel x, y im Falle eines kartesischen Koordinatensystems oder (r, θ) im Falle des Polarkoordinatensystems. Im relativen Modus wird die Änderung der Position des Fingers relativ zur vorherigen Fingerposition verwendet. Das Berührungsfeld kann konfiguriert sein, um in einem kartesischen absoluten Modus, einem kartesischen relativen Modus, einem polaren absoluten Modus oder einem polaren relativen Modus zu arbeiten. Der Modus kann durch das Berührungsfeld selbst oder durch andere Komponenten des Medienabspielsystems kontrolliert werden.
  • In jedem Fall kann ein Benutzer auswählen, in welchem Modus er/sie in dem Medienabspielsystem arbeiten will, oder die Anwendungen, die auf dem Medienabspielsystem laufen, können automatisch den Modus des Medienabspielsystems setzen. Zum Beispiel kann eine Spieleanwendung das Medienabspielsystem informieren, in einem absoluten Modus zu arbeiten, so dass das Berührungsfeld als ein Joystick bedient werden kann oder eine Listenanwendung kann das Medienabspielsystem informieren, in einem relativen Modus zu arbeiten, so dass das Berührungsfeld als ein Scrollbalken bedient werden kann.
  • In einer Ausführungsform stellt jede der Zonen 113 einen unterschiedlichen polaren Winkel dar, der die Winkelposition der Zone 113 in der Ebene des Berührungsfelds 110 spezifiziert. Zum Beispiel können die Zonen 113 in Schritten von 90° vollständig um das Berührungsfeld 110 herum angeordnet sein oder etwas kleiner, wie z.B. 2°-Schritte vollständig um das Berührungsfeld 110 herum. In einer Ausführungsform kann das Berührungsfeld 110 1024 physikalische Positionen in der Form von Sensorkoordinaten in einen logischeren Bereich von 0 bis 127 in der Form von Positionszonen wandeln. Wie verstanden werden sollte, ist die interne Genauigkeit des Berührungsfelds (1024 Positionen) viel größer als die Genauigkeit (128 Positionen), die benötigt wird, um Bewegungen auf dem Anzeigebildschirm zu machen.
  • Die Position des Berührungsfelds 110 relativ zum Gehäuse 102 kann breit variiert sein. Zum Beispiel kann das Berührungsfeld 110 auf einer beliebigen äußeren Oberfläche (z.B. oben, Seite, vorne oder hinten) des Gehäuses 101 angeordnet sein, die einem Benutzer während der Manipulation des Medienabspielgeräts 100 zugänglich ist. In den meisten Fällen wird die berührungsempfindliche Oberfläche 111 des Berührungsfelds 110 dem Benutzer vollständig ausgesetzt. In der gezeigten Ausführungsform ist das Berührungsfeld 110 in einem unteren, vorderen Bereich des Gehäuses 102 angeordnet. Weiter kann das Berührungsfeld 110 zurückgesetzt hinter, eben mit oder über die Oberfläche des Gehäuses 102 erhoben sein. In der gezeigten Oberfläche ist die berührungsempfindliche Oberfläche 111 des Berührungsfelds 110 im Wesentlichen bündig mit der externen Oberfläche des Gehäuses 102.
  • Die Form des Berührungsfelds 110 kann auch breit variiert sein. Zum Beispiel kann das Berührungsfeld 110 kreisförmig, rechtwinkelig, dreieckig und ähnliches sein. Im Allgemeinen definiert der äußere Umriss des geformten Berührungsfelds die Arbeitsgrenze des Berührungsfelds. In der gezeigten Ausführungsform ist das Berührungsfeld 110 kreisförmig. Diese besondere Form arbeitet gut mit Polarkoordinaten. Insbesondere ist das Berührungsfeld ringförmig, d.h. wie ein Ring geformt oder einen Ring bildend. Wenn er ringförmig ist, definieren der innere und der äußere Umriss des geformten Berührungsfelds die Arbeitsgrenze des Berührungsfelds.
  • Zusätzlich zum Obigen kann das Medienabspielgerät 100 auch eine oder mehrere Tasten 114 umfassen. Die Tasten 114 sind konfiguriert, eine oder mehrere dedizierte Kontrollfunktionen bereitzustellen, um Auswahlen zu treffen oder Befehle zu erteilen, die assoziiert sind mit dem Betrieb des Medienabspielgeräts 100. Im Falle eines MP3-Musikabspielgeräts zum Beispiel können die Tastenfunktionen assoziiert sein mit dem Öffnen eines Menüs, Abspielen eines Liedes, schneller Vorlauf eines Liedes, Suchen durch ein Menü und ähnliches. Die Tasten 114 kön nen mechanische Klicktasten sein und/oder sie können Berührungstasten sein. In der gezeigten Ausführungsform sind die Tasten Berührungstasten, die Eingabe von einem Finger empfangen, der über den Berührungstasten positioniert ist. Wie bei dem Berührungsfeld 110 bestehen die Berührungstasten 114 im Allgemeinen aus einer berührbaren äußeren Oberfläche zum Empfangen eines Fingers und einem Sensoraufbau, angeordnet unter der berührbaren äußeren Oberfläche. Zum Beispiel können die Berührungstasten und das Berührungsfeld im Allgemeinen den Berührungstasten und dem Berührungsfeld entsprechen, wie sie in 2 gezeigt sind.
  • Die Position der Berührungstasten 114 relativ zum Berührungsfeld 110 kann breit variiert sein. Zum Beispiel können sie nebeneinander gelegen oder voneinander beabstandet sein. In der gezeigten Ausführungsform sind die Tasten 114 über dem Berührungsfeld 110 in einer linearen Weise angeordnet sowie auch in der Mitte des ringförmigen Berührungsfelds 110. Zum Beispiel kann die Mehrzahl von Tasten 114 aus einem Menü-Tasten, Start/Stop-Tasten, Vorwärtssuchlauf-Tasten, einem Rückwärtssuchlauf-Tasten und ähnlichem bestehen.
  • Weiter kann das Medienabspielgerät 100 auch einen Halteschalter 15 beinhalten. Der Halteschalter 115 ist konfiguriert, das Berührungsfeld und/oder die Tasten zu aktivieren oder deaktivieren. Dies wird allgemein gemacht, um unerwünschte Befehle durch das Berührungsfeld und/oder die Tasten zu vermeiden, wie z.B., wenn das Medienabspielgerät innerhalb einer Tasche eines Benutzer verstaut ist. Wenn deaktiviert, werden keine Signale von dem Tasten und/oder dem Berührungsfeld gesendet oder werden durch den Medienabspieler ignoriert. Wenn aktiviert, werden Signale von dem Tasten und/oder dem Berührungsfeld gesendet und daher empfangen und verarbeitet durch das Medienabspielgerät.
  • Weiter kann das Medienabspielgerät 100 auch einen oder mehrere Kopfhöreranschlüsse 116 und einen oder mehrere Datenports 118 aufweisen. Der Kopfhöreranschluss 116 ist in der Lage, einen Kopfhörerstecker zu empfangen, der mit ei nem Kopfhörer assoziiert ist, der zum Hören von Lauten konfiguriert ist, die durch die Medienabspielvorrichtung 100 ausgegeben werden. Der Datenport 118 andererseits ist in der Lage, einen Datenstecker/Kabelaufbau zu empfangen, konstruiert zum Übertragen und Empfangen von Daten zu und von einer Hostvorrichtung, wie einem Allzweckcomputer (z.B. Desktopcomputer, tragbarer Computer). Zum Beispiel kann der Datenport 118 verwendet werden, um Audio, Video und andere Bilder zu und von der Medienvorrichtung 100 hochzuladen oder herunterzuladen. Zum Beispiel kann der Datenport verwendet werden, um Lieder und Abspiellisten, Audiobücher, E-Bücher, Fotos und ähnliches in den Speichermechanismus des Medienabspielers herunterzuladen.
  • Der Datenport 118 kann breit variiert sein. Zum Beispiel kann der Datenport ein PS/2-Port, ein serieller Port, ein paralleler Port, ein USB-Port, ein Firewire Port und/oder ähnliches sein. In einigen Fällen kann der Datenport 118 eine Funk (RF)-Verbindung oder eine optische Infrarot (IR)-Verbindung sein, um die Notwendigkeit für ein Kabel zu eliminieren. Obwohl in 2 nicht gezeigt, kann das Medienabspielgerät 100 auch einen Stromport aufweisen, der einen Stromstecker/Kabelaufbau empfängt, konfiguriert zum Liefern von Strom an das Medienabspielgerät 100. In einigen Fällen kann der Datenport 118 sowohl als Daten- als auch als Stromport dienen. In der gezeigten Ausführungsform ist der Datenport 118 ein Firewire-Port, der sowohl Daten als auch Stromfähigkeiten hat.
  • Obwohl nur ein Datenport beschrieben ist, sollte bemerkt sein, dass dies keine Beschränkung ist und dass mehrere Datenports in das Medienabspielgerät eingebaut werden können. Auf ähnliche Weise kann der Datenport mehrere Datenfunktionalitäten enthalten, das heißt, die Funktionalität von mehreren Datenports in einen einzigen Datenport integrieren. Weiterhin sollte bemerkt sein, dass die Position des Halteschalters, Kopfhöreranschluss und Datenport auf dem Gehäuse weit variiert sein kann. Das heißt, sie sind nicht auf die in 2 gezeigten Positionen beschränkt. Sie können beinahe beliebig auf dem Gehäuse positioniert sein (z.B. vorne, hinten, Seiten, oben, unten). Der Datenport kann z.B. auf der unteren Ober fläche des Gehäuses positioniert sein, anstatt wie gezeigt auf der oberen Oberfläche.
  • Mit Bezug auf 9 wird das Berührungsfeld 110 in größerem Detail beschrieben werden. In dieser besonderen Ausführungsform arbeitet das Berührungsfeld in einem absoluten Modus. Das heißt, das Berührungsfeld berichtet die absoluten Koordinaten darüber, wo es berührt wird. Wie gezeigt, weist das Berührungsfeld 110 eine oder mehrere Zonen 124 auf. Die Zonen 124 stellen Bereiche auf dem Berührungsfeld 110 dar, die durch einen Benutzer betätigt werden können, um eine oder mehrere Aktionen oder Bewegungen auf dem Anzeigebildschirm 104 zu implementieren.
  • Die Verteilung der Zonen 124 kann weit variiert sein. Zum Beispiel können die Zonen 124 beinahe beliebig auf dem Berührungsfeld 110 positioniert sein. Die Position der Zonen 124 kann vom Koordinatensystem des Berührungsfelds 110 abhängen. Wenn z.B. Polarkoordinaten verwendet werden, können die Zonen 124 eine oder mehr radiale und/oder Winkelpositionen haben. In der gezeigten Ausführungsform sind die Zonen 124 in multiplen Winkelpositionen des Polarkoordinatensystems positioniert. Weiter können die Zonen 124 aus beinahe jeglicher Form gebildet sein, ob einfach (z.B. Quadrate, Kreise, Ovale, Dreiecke, Rechtecke, Polygone oder ähnliches) oder komplex (z.B. zufällige Formen). Die Form mehrerer Tastzonen 124 können gleiche Formen haben oder sie können unterschiedliche Formen haben. Zusätzlich kann die Größe der Zonen 124 gemäß den spezifischen Anforderungen jeder Vorrichtung variieren. In einigen Fällen entspricht die Größe der Zonen 124 einer Größe, die es ihnen erlaubt, einfach durch einen. Benutzer manipuliert zu werden (z.B. die Größe einer Fingerspitze oder größer). In anderen Fällen ist die Größe der Zonen 124 gering, um die Auflösung des Berührungsfelds 110 zu steigern. Zudem kann irgendeine Anzahl von Zonen 124 verwendet werden. In der gezeigten Ausführungsform sind vier Zonen 124A-D gezeigt. Es sei bemerkt, dass dies jedoch keine Beschränkung ist und dass die Anzahl gemäß den spezifischen Anforderungen jedes Berührungsfelds variiert.
  • 5 zum Beispiel zeigt das Medienabspielgerät 100 mit 16 Tastenzonen 124A-P.
  • Die Anzahl von Zonen 124 hängt im Allgemeinen von der Anzahl von Sensorkoordinaten ab, die innerhalb des Berührungsfelds 110 befindlich sind, und der gewünschten Auflösung des Berührungsfeld: 110. Die Sensoren sind konfiguriert, um Benutzeraktionen auf den Zonen 124 zu fühlen und um Signale entsprechend den Benutzeraktionen an das elektronische System zu senden. Zum Beispiel können die Sensoren Kapazitätssensoren sein, welche Kapazität fühlen, wenn ein Finger in großer Nähe ist. Die Anordnung; der Sensoren variiert typischerweise gemäß den spezifischen Anforderungen jeder Vorrichtung. In einer besonderen Ausführungsform weist das Berührungsfeld 110 1024 Sensorkoordinaten auf, die zusammenwirken, um 128 Zonen zu bilden.
  • Mit Bezug auf 9 und 10 werden die Zonen 124, wenn betätigt, verwendet, um Bewegungen auf dem Schirm 126 zu erzeugen. Das Kontrollsignal für die Bewegungen auf dem Schirm kann initiiert werden durch die Berührungsfeld-Elektronik oder durch den Hauptsystemprozessor des Medienabspielgeräts. Indem auf die Zone getippt wird oder diese berührt wird, kann ein Objekt auf der Anzeige bewegt werden. Zum Beispiel kann jede Zone 124 konfiguriert sein, eine bestimmte Bewegung auf dem Anzeigebildschirm 104 zu repräsentieren. In den gezeigten Ausführungsformen repräsentiert jede der Zonen 124 eine bestimmte Bewegungsrichtung. Die Richtungen können breit variiert sein, aber in der gezeigten Ausführungsform entsprechen die Richtungen im Allgemeinen Winkelrichtungen (z.B. ähnlich den Pfeiltasten auf der Tastatur).
  • Unter Bezug auf 9 z.B. ist das Berührungsfeld 110 in mehrere unabhängige und räumlich getrennte Zonen 124A-D unterteilt, welche jede einer bestimmten Bewegungsrichtung 126A-D (wie durch Pfeile gezeigt) entspricht. Wenn die Zone 124A betätigt wird, werden Bewegungen auf dem Schirm 126A (nach rechts) implementiert. Wenn die Zone 124B betätigt wird, werden Bewegungen auf dem Schirm 126B (nach oben) implementiert. Wenn die Zone 124C betätigt wird, werden Bewegungen auf dem Schirm 126C (nach links) implementiert. Wenn Zone 124D betätigt wird, werden Bewegungen auf dem Schirm 126D (nach unten) implementiert. Wie verstanden werden sollte, sind. diese Ausführungsformen wohl geeignet für Joystick-Implementationen, zweidimensionale Menüauswahl, Fotobildschwenken und ähnliches.
  • 11A11D zeigen das Medienabspielgerät 100 von 8, verwendet durch einen Benutzer 130 in Übereinstimmung mit einer Ausführungsform der Erfindung. In dieser Ausführungsform wird das Medienabspielgerät 100 adressiert zur einhändigen Bedienung, in welcher das Medienabspielgerät 100 in der Hand 136 des Benutzers gehalten wird, während die Tasten und das Berührungsfeld 110 durch den Daumen 138 derselben Hand 136 manipuliert werden. Zum Beispiel wird die Handfläche 140 und die Finger rechts außen 141 (oder Finger links außen, falls Linkshänder) der Hand 136 verwendet, um die Seiten des Medienabspielgeräts 100 zu greifen, während der Daumen 138 verwendet wird, um das Berührungsfeld 110 zu betätigen. Wie gezeigt, ist die gesamte obere Oberfläche des Berührungsfelds 110 dem Daumen des Benutzers 138 zugänglich. Mit Bezug auf 11A sind Bewegungen auf dem Schirm 126A nach rechts implementiert, wenn der Daumen 138 auf der Tastenzone 124A platziert wird (oder diese antippt). Mit Bezug auf 11B sind Bewegungen auf dem Schirm 126B nach oben implementiert, wenn der Daumen 138 auf der Tastenzone 124B platziert wird. Mit Bezug auf 11C, Bewegungen auf dem Schirm 126C nach links sind implementiert, wenn der Daumen 138 auf der Tastenzone 124C platziert wird. Mit Bezug auf 11D werden Bewegungen auf dem Schirm 126D nach unten implementiert, wenn der Daumen 138 auf der Tastenzone 124D platziert wird.
  • Es sei bemerkt, dass die in den 11A-D gezeigte Konfiguration keine Beschränkung ist und dass das Medienabspielgerät in einer Vielzahl von Weisen gehalten werden kann. In einer alternativen Ausführungsform z.B. kann die Me dienvorrichtung komfortabel durch eine Hand gehalten werden, während sie komfortabel durch die andere Hand adressiert wird. Diese Konfiguration erlaubt es im Allgemeinen dem Benutzer, das Berührungsfeld mit einem oder mehreren Fingern einfach zu betätigen. Zum Beispiel wird der Daumen und die Finger rechts außen (oder Finger links außen falls Linkshänder) der ersten Hand verwendet, um die Seiten des Medienabspielgeräts zu greifen, während ein Finger der anderen Hand verwendet wird, um das Berührungsfeld zu betätigen. Die gesamte obere Oberfläche des Berührungsfelds ist dem Finger des Benutzers zugänglich.
  • 12 ist eine teilweise ausgebrochene perspektivische Ansicht eines ringförmigen kapazitiven Berührungsfelds 150 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das ringförmige kapazitive Berührungsfeld 150 ist angeordnet, Veränderung der Kapazität zu erkennen, wenn der Benutzer ein Objekt wie einen Finger auf dem Berührungsfeld 150 bewegt, antippt, ruhen lässt. Das ringförmige Berührungsfeld 150 ist aus verschiedenen Schichten gebildet, einschließlich zumindest einer Labelschicht 152, einer Elektrodenschicht 154 und einer Leiterkarte 156. Die Labelschicht 152 ist über der Elektrodenschicht 154 angeordnet und die Elektrodenschicht 154 ist über der Leiterkarte 156 angeordnet. Zumindest das Label 152 und die Elektrodenschicht 154 sind ringförmig, so dass sie durch konzentrische Kreise definiert sind, das heißt, sie haben einen inneren Umriss und einen äußeren Umriss. Die Leiterkarte 156 ist im Allgemeinen ein ringförmiges Teil, das einen äußeren Umriss hat, der mit dem äußeren Umriss der Labelschicht 152 und der Elektrodenschicht 154 übereinstimmt. Es sei jedoch bemerkt, dass in einigen Fällen die Leiterkarte 156 ringförmig sein kann oder die Labelschicht 152 und die Elektrodenschicht 154 kreisförmig sein kann.
  • Die Labelschicht 152 dient dazu, die unteren Schichten zu schützen und eine Oberfläche bereitzustellen, die es einem Finger erlaubt, darauf zu gleiten. Die Oberfläche ist im Allgemeinen glatt, so dass der Finger dort nicht haftet, wenn er bewegt wird. Die Labelschicht 152 stellt auch eine Isolationsschicht zwischen dem Finger und der Elektrodenschicht 154 bereit. Die Elektrodenschicht 154 weist eine Mehrzahl von räumlich getrennten Elektroden 158 auf, die Positionen haben basierend auf dem Polarkoordinatensystem.
  • Zum Beispiel sind Elektroden 158 winkelförmig und/oder radial auf der Leiterkarte 156 angeordnet, so dass jede der Elektroden 158 eine unterschiedliche Winkel- und/oder radiale Position darauf definiert. Jegliche geeignete Anzahl von Elektroden 158 kann verwendet werden. In den meisten Fällen wäre es wünschenswert, die Anzahl von Elektroden 158 zu erhöhen, um eine höhere Auflösung bereitzustellen, das heißt, mehr Information kann verwendet werden für Sachen wie Beschleunigung. In der gezeigten Ausführungsform ist die Elektrodenschicht 154 unterteilt in eine Mehrzahl von winkelförmig geteilten Elektroden 158. Die winkelförmig geteilten Elektroden 158 können zusammengruppiert sein, um eine oder mehrere unterschiedliche Tastzonen 159 zu bilden. In einer Ausführungsform enthält die Elektrodenschicht 154 etwa 1024 winkelförmig geteilte Elektroden, die zusammenarbeiten, um 128 winkelig geteilte Tastzonen 159 zu bilden.
  • Wenn zusammen konfiguriert, stellt das Berührungsfeld 150 eine berührungssensitive Oberfläche bereit, die gemäß den Prinzipien der Kapazität arbeitet. Wie verstanden werden sollte, wann immer zwei elektrisch leitende Teile einander nahekommend, ohne sich tatsächlich zu berühren, interagieren ihre elektrischen Felder, um Kapazität zu bilden. In dieser Konfiguration ist das erste elektrisch leitende Teil eine oder mehrere der Elektroden 158 und das zweite elektrisch leitende Teil ist der Finger des Benutzers. Dementsprechend, wenn der Finger sich dem Berührungsfeld 150 nähert, bildet sich eine kleine Kapazität zwischen dem Finger und den Elektroden 158 in enger Nachbarschaft des Fingers. Die Kapazität in jeder der Elektroden 158 wird gemessen durch die Kontrollschaltung 160, die sich auf der Rückseite der Leiterkarte 156 befindet. Indem Veränderungen in der Kapazität bei jeder der Elektroden 158 erkannt wird, kann die Kontrollschaltung 160 die Winkel- und/oder radiale Position, Richtung, Geschwindigkeit und Beschleunigung des Fingers bestimmen, wenn dieser über das Berührungsfeld 150 bewegt wird. Die Kontrollschaltung 160 kann auch diese Information in einer Form berichten, die verwendet kann durch eine Rechenvorrichtung wie ein Medienabspielgerät. Zum Beispiel kann die Kontrollschaltung einen ASIC (anwendungsspezifische integrierte Schaltung) aufweisen.
  • Unter Bezug auf 13 wird ein radiales Berührungsfeld 178 (anstelle des ringförmigen Berührungsfelds, das in 12 gezeigt ist) beschrieben werden in Übereinstimmung mit einer Ausführungsform. Das Berührungsfeld 178 kann in mehrere unabhängige und räumlich getrennte Tastzonen 180 unterteilt sein, die radial von der Mitte 182 des Berührungsfelds 178 zum Umriss 184 des Berührungsfelds 178 angeordnet sind. Jegliche Anzahl von radialen Zonen kann verwendet werden. In einer Ausführungsform repräsentiert jede der radialen Zonen 180 eine radiale Position in der Ebene des Berührungsfelds 178. Zum Beispiel können die Zonen 180 in Abständen von 5 mm beabstandet sein. Wie oben hat jede der Tastzonen 180 eine oder mehrere Elektroden 186 darin angeordnet, um das Vorhandensein eines Objekts, wie eines Fingers, zu erkennen. In der gezeigten Ausführungsform ist eine Mehrzahl radialer Elektroden 186 kombiniert, um jede der Tastzonen 180 zu bilden.
  • Mit Bezug auf 14 wird ein kombiniert winkelig/radiales Berührungsfeld 188 beschrieben werden in Übereinstimmung mit einer Ausführungsform. Das Berührungsfeld 188 kann in mehrere unabhängige und räumlich getrennte Tastzonen 190 unterteilt sein, die sowohl winkelig als auch radial um den Umriss des Berührungsfelds 188 und von der Mitte des Berührungsfelds 188 zu dem Umriss des Berührungsfelds 188 positioniert sind. Jegliche Anzahl von Kombinationszonen kann verwendet werden. In einer Ausführungsform repräsentiert jede der Kombinationstastzonen 190 sowohl eine Winkel- als auch eine Radialposition in der Ebene des Berührungsfelds 188. Zum Beispiel können die Zonen positioniert sein bei Abständen von sowohl 2° als auch 5 mm. Wie oben hat jede der Kombinationszonen 190 eine oder mehrere Elektroden 192, die darin angeordnet sind, um das Vorhandensein eines Objekts wie eines Fingers zu erkennen. In der gezeigten Ausführungsform sind eine Mehrzahl von Winkel-/Radialelektroden 192 kombiniert, um jede der Tastzonen 190 zu bilden.
  • Weiter kann, um eine höhere Auflösung bereitzustellen, eine komplexere Anordnung von Winkel-/Radialelektroden verwendet werden. Wie z.B. in 15 gezeigt, kann das Berührungsfeld 200 Winkel- und Radialelektroden 202 aufweisen, die so unterteilt sind, dass aufeinanderfolgende Zonen nicht exakt übereinstimmen. In dieser Ausführungsform hat das Berührungsfeld 200 eine ringförmige Form und die Elektroden 202 folgen einem Spiralpfad um das Berührungsfeld 202 von der Mitte zu dem äußeren Umriss des Berührungsfelds 200. Die Elektroden 202 können zusammengruppiert sein, um eine oder mehrere unterschiedliche Tastenzonen 204 zu bilden.
  • Es sei bemerkt, dass, obwohl die hierin gezeigten Berührungsfelds alle kreisförmig gezeigt sind, sie andere Formen annehmen können, wie kurvenlineare Formen (z.B. oval, ringförmig oder ähnliches), geradlinige Formen (z.B. Sechseck, Fünfeck, Achteck, Viereck, Quadrat und ähnliches) oder eine Kombination kurvenlinear und geradlinig (z.B. Dom).
  • Die verschiedenen Aspekte der Erfindungen, die hierin beschrieben sind, können allein oder in verschiedenen Kombinationen verwendet werden. Die Erfindung ist vorzugsweise implementiert durch eine Kombination von Hardware und Software, kann aber auch in Hardware oder Software implementiert sein. Die Erfindung kann auch als computerlesbarer Code auf einem computerlesbaren Medium verwirklicht sein. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, die Daten speichern kann, die danach durch ein Computersystem gelesen werden kann. Beispiele des computerlesbaren Mediums beinhalten nur Lesespeicher, Speicher mit wahlfreiem Zugriff, CD-ROMs, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über ein Netzwerk verbreitet werden, das mit Computersystemen ge koppelt ist, so dass der computerlesbare Code auf verteilte Art gespeichert und ausgeführt wird.
  • Wie oben erwähnt, kann der Berührungsfeld-Aufbau mit der Hostvorrichtung über eine serielle Schnittstelle kommunizieren. Ein Beispiel einer seriellen Schnittstelle wird nun beschrieben werden. Die serielle Schnittstelle besteht aus zumindest vier Signalen einschließlich einem Takt, ATN, DATA-IN und DATA-OUT. Der Takt und DATA-OUT werden durch den Berührungsfeld-Aufbau getrieben. ATN und DATA-IN werden durch die Hostvorrichtung getrieben. In den meisten Fällen werden Pakettransfers durch den Berührungsfeld-Aufbau initiiert, getaktet durch den Berührungsfeld-Aufbau und gemacht bei einer Zeit, die für den Berührungsfeld-Aufbau bequem ist. Die Hostvorrichtung verlässt sich auf den Berührungsfeld-Aufbau, Transfers zu initiieren. Der Berührungsfeld-Aufbau überträgt ein Paket, wenn er eine Änderung im Tastenzustand oder Berührungsfeld-Position entdeckt oder wenn er ein ATN-Signal von dem Host entdeckt. Wenn der Host Daten an den Berührungsfeld-Aufbau zu senden wünscht, behauptet er das ATN-Signal und hält es behauptet, bis nachdem das Paket, das er zu senden wünscht, übertragen wurde. Der Berührungsfeld-Aufbau überwacht das ATN-Signal und initiiert einen Transfer, wenn er es behauptet sieht.
  • Es gibt typischerweise mehrere definierte Pakettypen, die der Berührungsfeld-Aufbau senden kann. In diesem Beispiel gibt es zumindest zwei Arten von Paketen: Ohne Aufforderung gesandte Pakete und Pakete, die in Antwort auf ein ATN-Signal gesendet werden. Der Berührungsfeld-Aufbau sendet nicht aufgeforderte Pakete, solange er nicht durch den Host spezifisch aufgefordert wird, einen anderen Typ zu senden. In dem Falle von nicht aufgeforderten Paketen, werden die nicht aufgeforderten Pakete periodisch gesendet wann immer er eine Änderung im Tastenzustand oder Berührungsfeld-Position erkennt. In dem Fall von aufgeforderten Paketen, sendet der Berührungsfeld-Aufbau typischerweise allein eines für jede Anforderung durch den Host und kehrt dann zu nicht aufgeforderten Paketen zurück. Nicht aufgeforderte Pakete haben im Allgemeinen eine Verzögerung zwi schen ihnen, während Antwortpakete zu jeder Zeit in Antwort auf das ADN-Signal gesendet werden können.
  • Während die Erfindung beschrieben wurde in Begriffen von mehreren bevorzugten Ausführungsformen, gibt es Veränderungen, Permutationen und Äquivalente, die innerhalb des Bereichs dieser Erfindung fallen. Zum Beispiel, obwohl die Erfindung beschrieben wurde, in Begriffen eines MP3-Musikabspielgeräts, sollte verstanden werden, dass bestimmte Merkmale der Erfindung auch auf andere Typen von Medienabspielgeräten, wie Videorecorder, Kameras und ähnliches angewandt werden können. Weiter ist das hierin beschriebene MP3-Musikabspielgerät nicht auf das MP3-Musikformat beschränkt. Andere Audioformate, wie MP3 VBR (variable Bitrate), AIFF und WAV-Formate können verwendet werden. Zudem sind bestimmte Aspekte der Erfindung nicht auf in der Hand gehaltene Vorrichtungen beschränkt. Zum Beispiel kann das Berührungsfeld auch in anderen Rechnervorrichtungen, wie einem tragbaren Computer, persönlichen digitalen Assistenten (PDA), Mobiltelefonen und ähnlichen verwendet werden. Das Berührungsfeld kann auch als eine alleinstehende Eingabevorrichtung verwendet werden, die mit einem Desktopcomputer oder tragbaren Computer verbunden ist.
  • Es sei auch bemerkt, dass es viele alternative Wege gibt, die Verfahren und Vorrichtungen der vorliegenden Erfindung zu implementieren. Obwohl z.B. das Berührungsfeld beschrieben wurde mit Bezug auf eine Betätigung durch einen Finger, sollte es verstanden sein, dass andere Objekte verwendet werden können in einigen Fällen, um dies zu betätigen. Zum Beispiel kann ein Stift oder ein anderes Objekt verwendet werden in einigen Konfigurationen des Berührungsfelds. Es ist daher gedacht, dass die folgenden beigefügten Ansprüche so interpretiert werden, dass sie alle solche Änderungen, Permutationen und Äquivalente umfassen, die innerhalb des wahren Geistes und Bereichs der vorliegenden Erfindung fallen.

Claims (21)

  1. Berührungsfeld-Aufbau, aufweisend: ein Berührungsfeld, welches einen oder mehrere Sensoren hat, welche die Ebene des Berührungsfelds auf native Sensorkoordinaten abbilden; und einen Controller, welcher die Oberfläche des Berührungsfelds in festgelegte logische Vorrichtungseinheiten unterteilt, die nativen Werte der nativen Sensorkoordinaten von den Sensoren erhält, die nativen Werte der nativen Sensorkoordinaten in einen neuen Wert wandelt, der mit den logischen Vorrichtungseinheiten assoziiert ist, und den neuen Wert der logischen Vorrichtungseinheiten an eine Hostvorrichtung berichtet, wobei die logischen Vorrichtungseinheiten Bereiche des Berührungsfelds repräsentieren, die durch einen Benutzer betätigt werden können.
  2. Berührungsfeld-Aufbau nach Anspruch 1, worin der Controller die nativen Werte der nativen Sensorkoordinaten durch eine Filterverarbeitung hindurchleitet, bevor die nativen Werte als neuer Wert eingestellt werden.
  3. Berührungsfeld-Aufbau nach Anspruch 2, worin die Filterverarbeitung Bestimmen, ob die nativen Werte auf Rauschereignissen oder tatsächlichen Ereignissen beruhen, aufweist.
  4. Berührungsfeld-Aufbau nach Anspruch 3, worin der Controller die Rauschereignisse herausfiltert und die tatsächlichen Ereignisse hindurch passieren lässt.
  5. Berührungsfeld-Aufbau nach Anspruch 1, worin der Controller ferner bestimmt, ob eine signifikante Veränderung zwischen den aktuellen und letz ten nativen Werten gemacht wurde, und den neuen Wert nur berichtet, wenn eine signifikante Änderung zwischen den aktuellen und letzten empfangenen nativen Werten gemacht wurde.
  6. Berührungsfeld-Aufbau nach Anspruch 1, worin die nativen Sensorkoordinaten kartesische Koordinaten sind.
  7. Berührungsfeld-Aufbau nach Anspruch 1 worin die nativen Sensorkoordinaten Polarkoordinaten sind.
  8. Berührungsfeld-Aufbau nach Anspruch 1, worin die logischen Vorrichtungseinheiten kartesische Koordinaten sind.
  9. Berührungsfeld-Aufbau nach Anspruch 1, worin die logischen Vorrichtungseinheiten Polarkoordinaten sind.
  10. Berührungsfeld-Aufbau nach Anspruch 1, worin der neue Wert der logischen Vorrichtungseinheiten in einem absoluten Modus berichtet wird.
  11. Berührungsfeld-Aufbau nach Anspruch 1, worin der neue Wert der logischen Vorrichtungseinheiten in einem relativen Modus berichtet wird.
  12. Berührungsfeld-Aufbau nach Anspruch 1, worin der neue Wert der logischen Vorrichtungseinheiten in einem kartesischen absoluten Modus, einem kartesischen relativen Modus, einem polaren absoluten Modus, oder einem polaren relativen Modus, berichtet wird.
  13. Berührungsfeld-Aufbau nach Anspruch 1, worin der neue Wert der logischen Vorrichtungseinheiten eine bestimmte Kontrollfunktion in der Hostvorrichtung implementiert.
  14. Berührungsfeld-Aufbau nach Anspruch 1, worin die logischen Vorrichtungseinheiten winkelige polare Einheiten sind, verteilt um die Oberfläche des Berührungsfelds nach Art und Weise einer Uhr.
  15. Berührungsfeld-Aufbau nach Anspruch 1, worin das Verhältnis nativer Sensorkoordinaten zu logischen Vorrichtungseinheiten zwischen etwa 1024: 1 bis etwa 8: 1 ist.
  16. Berührungsfeld-Aufbau nach Anspruch 1, ferner aufweisend einen oder mehrere Berührungstasten, die einen oder mehrere Sensoren haben, und worin der Controller einen nativen Wert von den Sensoren empfängt, einen Tastenzustand aus dem nativen Wert bestimmt und den Tastenzustand an eine Hostvorrichtung berichtet, wobei der Tastenzustand durch die Hostvorrichtung verwendet wird, um eine Tastenfunktion in der Hostvorrichtung zu implementieren.
  17. Berührungsfeld-Aufbau nach Anspruch 16, worin der Controller den Tastenzustand nur an die Hostvorrichtung berichtet, wenn bestimmt wurde, dass eine Änderung des Tastenzustands vorliegt.
  18. Berührungsfeld-Aufbau nach Anspruch 1, worin jede der logischen Vorrichtungseinheiten eine unterschiedliche Bewegungsrichtung auf einem Anzeigeschirm der Hostvorrichtung repräsentiert, um Joystick-Implementierungen, mehrdimensionale Menuauswahl oder Photobildschwenken zu ermöglichen.
  19. Berührungsfeld-Aufbau nach Anspruch 1, worin die Hostvorrichtung ein Medienabspielgerät zum Speichern und Abspielen von Medien wie Audio, Video oder Bildern ist, wobei das Medienabspielgerät ein Gehäuse aufweist, das den Berührungsfeld-Aufbau trägt, eine Anzeige zum Anzeigen von Text und Grafik für einen Benutzer des Medienabspielgeräts und eine CPU, die eingerichtet ist, den neuen Wert der logischen Vorrichtungseinheiten vom Controller zu erhalten und Anweisungen basierend auf dem neuen Wert der logischen Vorrichtungseinheiten an andere Komponenten des Medienabspielgeräts zu geben, wobei die Anweisungen verwendet werden um zumindest ein Objekt auf der Anzeige zu bewegen.
  20. Nachricht, in einem Computersystem, welches bidirektionale Kommunikation zwischen einem Berührungsfeld-Aufbau und einer Hostvorrichtung erleichtert, von dem Berührungsfeld-Aufbau zu der Hostvorrichtung, wobei die Nachricht aufweist: ein Ereignisfeld, welches identifiziert, ob die Nachricht ein Berührungsfeld-Ereignis oder ein Tasten-Ereignis ist; ein Ereignis-Identifikatorfeld, welches zumindest einen Parameter identifiziert, wobei jeder Ereignisparameter einen Ereigniswert hat, wobei der Ereigniswert für einen Berührungsfeld-Ereignisparameter eine absolute Position anzeigt, wobei der Ereigniswert für einen Tasten-Ereignisparameter einen Tastenzustand anzeigt.
  21. Berührungsfeld-Aufbau, eingerichtet, eine Benutzeraktion in eine Bewegung auf einem Anzeigebildschirm umzusetzen, wobei das Berührungsfeld-System ein Berührungsfeld aufweist, das sich in eine Mehrzahl festgelegter, unabhängiger und räumlich unterschiedlicher Tastenzonen unterteilt, welche jede eine unterschiedliche Bewegungsrichtung auf dem Anzeigebildschirm darstellt, um Joystick-Implementationen, mehrdimensionale Menuauswahl oder Photobildschwenken zu ermöglichen.
DE202004021283U 2003-11-25 2004-08-19 Berührungsfeld für eine tragbare Vorrichtung Expired - Lifetime DE202004021283U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US722948 1985-04-15
US10/722,948 US7495659B2 (en) 2003-11-25 2003-11-25 Touch pad for handheld device
PCT/US2004/027102 WO2005057328A2 (en) 2003-11-25 2004-08-19 Touch pad for handheld device

Publications (1)

Publication Number Publication Date
DE202004021283U1 true DE202004021283U1 (de) 2007-05-24

Family

ID=34592119

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202004021283U Expired - Lifetime DE202004021283U1 (de) 2003-11-25 2004-08-19 Berührungsfeld für eine tragbare Vorrichtung

Country Status (7)

Country Link
US (4) US7495659B2 (de)
EP (2) EP1687684A4 (de)
CN (2) CN101201715B (de)
DE (1) DE202004021283U1 (de)
HK (1) HK1123860A1 (de)
TW (1) TWI262427B (de)
WO (1) WO2005057328A2 (de)

Families Citing this family (380)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
KR100595920B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7483967B2 (en) * 1999-09-01 2009-01-27 Ximeta Technology, Inc. Scalable server architecture based on asymmetric 3-way TCP
US7792923B2 (en) 2000-10-13 2010-09-07 Zhe Khi Pak Disk system adapted to be directly attached to network
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
AU2002319929A1 (en) 2001-07-16 2003-03-03 Han Gyoo Kim Scheme for dynamically connecting i/o devices through network
US20050149682A1 (en) * 2001-10-09 2005-07-07 Han-Gyoo Kim Virtual multiple removable media jukebox
US7345671B2 (en) * 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US20070085841A1 (en) * 2001-10-22 2007-04-19 Apple Computer, Inc. Method and apparatus for accelerated scrolling
JP2003241682A (ja) * 2002-01-03 2003-08-29 Samsung Electronics Co Ltd ディスプレイ装置,ディスプレイ装置の回転位置検出装置,及びコンピュータ
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
CA2496463A1 (en) * 2002-08-23 2004-03-04 Pfizer Products Inc. Apparatus for dispensing articles
US7358963B2 (en) * 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
US20070152977A1 (en) * 2005-12-30 2007-07-05 Apple Computer, Inc. Illuminated touchpad
US7499040B2 (en) 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
US20060181517A1 (en) * 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
US7457880B1 (en) * 2003-09-26 2008-11-25 Ximeta Technology, Inc. System using a single host to receive and redirect all file access commands for shared data storage device from other hosts on a network
US7495659B2 (en) * 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
US8059099B2 (en) 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
US7664836B2 (en) * 2004-02-17 2010-02-16 Zhe Khi Pak Device and method for booting an operation system for a computer from a passive directly attached network device
US20050193017A1 (en) * 2004-02-19 2005-09-01 Han-Gyoo Kim Portable multimedia player/recorder that accesses data contents from and writes to networked device
US20060069884A1 (en) * 2004-02-27 2006-03-30 Han-Gyoo Kim Universal network to device bridge chip that enables network directly attached device
US7310089B2 (en) * 2004-05-18 2007-12-18 Interlink Electronics, Inc. Annular potentiometric touch sensor
US7554531B2 (en) * 2004-05-18 2009-06-30 Interlink Electronics, Inc. Annular potentiometric touch sensor
US7724532B2 (en) * 2004-07-02 2010-05-25 Apple Inc. Handheld computing device
US7515431B1 (en) * 2004-07-02 2009-04-07 Apple Inc. Handheld computing device
US7746900B2 (en) 2004-07-22 2010-06-29 Zhe Khi Pak Low-level communication layers and device employing same
US20080129707A1 (en) * 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays
JP4439351B2 (ja) * 2004-07-28 2010-03-24 アルパイン株式会社 振動付与機能付きタッチパネル入力装置および操作入力に対する振動付与方法
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
CN100555200C (zh) 2004-08-16 2009-10-28 苹果公司 触敏器件和提高触敏器件的空间分辨率的方法
US7860943B2 (en) * 2004-08-23 2010-12-28 Zhe Khi Pak Enhanced network direct attached storage controller
JP3734820B1 (ja) * 2004-09-03 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
JP4583893B2 (ja) * 2004-11-19 2010-11-17 任天堂株式会社 ゲームプログラムおよびゲーム装置
TWI273497B (en) * 2004-12-14 2007-02-11 Elan Microelectronics Corp Dual-axis unequal-interval interlacing-type sensing-scan capacitance-type touch panel
US7849257B1 (en) 2005-01-06 2010-12-07 Zhe Khi Pak Method and apparatus for storing and retrieving data
KR20070110054A (ko) 2005-02-02 2007-11-15 오디오브락스 인더스트리아 에 코메르씨오 데 프로두토스 엘레트로니코스 에스.에이. 악기 기능을 갖는 이동 통신 장치
KR20190061099A (ko) * 2005-03-04 2019-06-04 애플 인크. 다기능 휴대용 장치
US20060227117A1 (en) 2005-04-07 2006-10-12 Microsoft Corporation Circular touch sensor
US9727082B2 (en) * 2005-04-26 2017-08-08 Apple Inc. Back-side interface for hand-held devices
CN100455171C (zh) * 2005-06-21 2009-01-21 华硕电脑股份有限公司 行动电子装置
CH697974B1 (de) * 2005-07-01 2009-04-15 Saeco Ipr Ltd Bedienungsvorrichtung für Heissgetränkeautomaten.
KR20070010589A (ko) * 2005-07-19 2007-01-24 엘지전자 주식회사 턴테이블이 구비되는 이동통신 단말기 및 그 동작방법
US7294089B2 (en) * 2005-08-15 2007-11-13 Ford Global Technologies, Llc Multiple-speed automatic transmission
EP1758013B1 (de) * 2005-08-24 2018-07-04 LG Electronics Inc. Mobiles Kommunikationsendgerät mit einer Taktileingabeeinheit und Steuerverfahren dafür
BRPI0603633A (pt) * 2005-08-30 2007-05-15 Lg Electronics Inc conjunto de teclas de toque para um terminal móvel
KR100652755B1 (ko) * 2005-08-30 2006-12-01 엘지전자 주식회사 백라이팅이 가능한 터치 및 푸시 입력 방식의 휴대폰
JP4590328B2 (ja) * 2005-08-30 2010-12-01 任天堂株式会社 入力データ処理プログラムおよび情報処理装置
US7825907B2 (en) * 2005-08-30 2010-11-02 Lg Electronics Inc. Touch key assembly for a mobile terminal
US7671837B2 (en) * 2005-09-06 2010-03-02 Apple Inc. Scrolling input arrangements using capacitive sensors on a flexible membrane
JP2009523267A (ja) * 2005-09-15 2009-06-18 アップル インコーポレイテッド トラックパッドデバイスの未加工データを処理するシステム及び方法
JP4819467B2 (ja) * 2005-10-04 2011-11-24 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置
JP2007102664A (ja) * 2005-10-07 2007-04-19 Smk Corp 回転入力装置の使用方法
US7880729B2 (en) 2005-10-11 2011-02-01 Apple Inc. Center button isolation ring
US7808480B2 (en) * 2005-10-28 2010-10-05 Sap Ag Method and system for secure input
US20070097089A1 (en) * 2005-10-31 2007-05-03 Battles Amy E Imaging device control using touch pad
TWM289905U (en) * 2005-11-10 2006-04-21 Elan Microelectronics Corp Touch-control shaft having pushbutton function
US7868874B2 (en) 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
US20070109275A1 (en) * 2005-11-16 2007-05-17 Chen-Ting Chuang Method for controlling a touch screen user interface and device thereof
US20070137462A1 (en) * 2005-12-16 2007-06-21 Motorola, Inc. Wireless communications device with audio-visual effect generator
US7701440B2 (en) * 2005-12-19 2010-04-20 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Pointing device adapted for small handheld devices having two display modes
CN1988374B (zh) * 2005-12-20 2010-10-06 太瀚科技股份有限公司 控制音量的感应控制系统与方法
US20070152983A1 (en) * 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US8077147B2 (en) * 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
KR101287497B1 (ko) * 2006-01-06 2013-07-18 삼성전자주식회사 홈-네트워크 시스템의 제어 명령 전달 장치 및 그 방법
US20070159468A1 (en) * 2006-01-10 2007-07-12 Saxby Don T Touchpad control of character actions in a virtual environment using gestures
US20070171188A1 (en) * 2006-01-25 2007-07-26 Nigel Waites Sensor for handheld device control illumination
JP4926494B2 (ja) * 2006-02-20 2012-05-09 キヤノン株式会社 画像処理装置及び制御方法
US20070268250A1 (en) * 2006-02-27 2007-11-22 Nubron Inc. Remote input device for computers
GB0604742D0 (en) * 2006-03-09 2006-04-19 Pretorian Technologies Ltd User input device for electronic equipment
EP2005797B1 (de) * 2006-03-13 2012-08-15 Koninklijke Philips Electronics N.V. Steuervorrichtung zum steuern der farbe von von einer lichtquelle abgestrahltem licht
KR100746874B1 (ko) * 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
US20070220443A1 (en) * 2006-03-17 2007-09-20 Cranfill David B User interface for scrolling
US20070222765A1 (en) * 2006-03-22 2007-09-27 Nokia Corporation Slider input lid on touchscreen
US7787618B2 (en) 2006-03-29 2010-08-31 Nokia Corporation Portable electronic device
JP2009532770A (ja) * 2006-03-30 2009-09-10 サーク・コーポレーション タッチパッド面上における指示物体の開始点によって決定される円形スクローリング・タッチパッド機能性
US7511702B2 (en) * 2006-03-30 2009-03-31 Apple Inc. Force and location sensitive display
US7538760B2 (en) * 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US8866750B2 (en) * 2006-04-10 2014-10-21 Microsoft Corporation Universal user interface device
US7978181B2 (en) 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US8004497B2 (en) 2006-05-18 2011-08-23 Cypress Semiconductor Corporation Two-pin buttons
KR102125605B1 (ko) 2006-06-09 2020-06-22 애플 인크. 터치 스크린 액정 디스플레이
US8259078B2 (en) 2006-06-09 2012-09-04 Apple Inc. Touch screen liquid crystal display
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
KR100839696B1 (ko) * 2006-06-20 2008-06-19 엘지전자 주식회사 입력 장치
US9360967B2 (en) 2006-07-06 2016-06-07 Apple Inc. Mutual capacitance touch sensing device
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US8743060B2 (en) 2006-07-06 2014-06-03 Apple Inc. Mutual capacitance touch sensing device
US20080006454A1 (en) * 2006-07-10 2008-01-10 Apple Computer, Inc. Mutual capacitance touch sensing device
US7889176B2 (en) * 2006-07-18 2011-02-15 Avago Technologies General Ip (Singapore) Pte. Ltd. Capacitive sensing in displacement type pointing devices
KR100781706B1 (ko) * 2006-08-16 2007-12-03 삼성전자주식회사 휴대 단말기의 리스트 스크롤 장치 및 방법
WO2008023540A1 (fr) * 2006-08-25 2008-02-28 Kyocera Corporation Dispositif électronique portable, procédé de détection du fonctionnement d'un dispositif électronique portable et procédé pour commander un dispositif électronique portable
WO2008023541A1 (fr) * 2006-08-25 2008-02-28 Kyocera Corporation Dispositif électronique portable et procédé de détermination d'opération en entrée
US20080055263A1 (en) * 2006-09-06 2008-03-06 Lemay Stephen O Incoming Telephone Call Management for a Portable Multifunction Device
US8014760B2 (en) 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
US7729791B2 (en) * 2006-09-11 2010-06-01 Apple Inc. Portable media playback device including user interface event passthrough to non-media-playback processing
US7946918B2 (en) 2006-09-11 2011-05-24 Apple Inc. Allowing media and gaming environments to effectively interact and/or affect each other
US7795553B2 (en) 2006-09-11 2010-09-14 Apple Inc. Hybrid button
US8036766B2 (en) * 2006-09-11 2011-10-11 Apple Inc. Intelligent audio mixing among media playback and at least one other non-playback application
US8736557B2 (en) * 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
US7581186B2 (en) * 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US8421602B2 (en) * 2006-09-13 2013-04-16 Savant Systems, Llc Remote control unit for a programmable multimedia controller
KR101319871B1 (ko) * 2006-09-29 2013-10-18 엘지전자 주식회사 좌표 인식 장치 및 이 좌표 인식 장치에서 키이 코드를발생하는 방법
KR101259116B1 (ko) * 2006-09-29 2013-04-26 엘지전자 주식회사 콘트롤러 및 콘트롤러에서 키이 코드를 발생하는 방법
KR101241907B1 (ko) * 2006-09-29 2013-03-11 엘지전자 주식회사 리모트 콘트롤러 및 리모트 콘트롤러에서 키이 코드를 발생하는 방법
US20080088597A1 (en) * 2006-10-11 2008-04-17 Apple Inc. Sensor configurations in a user input device
US20080088600A1 (en) * 2006-10-11 2008-04-17 Apple Inc. Method and apparatus for implementing multiple push buttons in a user input device
US8274479B2 (en) * 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
US8090087B2 (en) * 2006-10-26 2012-01-03 Apple Inc. Method, system, and graphical user interface for making conference calls
US8482530B2 (en) 2006-11-13 2013-07-09 Apple Inc. Method of capacitively sensing finger position
US8547114B2 (en) 2006-11-14 2013-10-01 Cypress Semiconductor Corporation Capacitance to code converter with sigma-delta modulator
US20080143681A1 (en) * 2006-12-18 2008-06-19 Xiaoping Jiang Circular slider with center button
US8493330B2 (en) 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
US7639234B2 (en) * 2007-01-04 2009-12-29 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Capacitive sensing and absolute position mapping in displacement type pointing devices
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US7975242B2 (en) * 2007-01-07 2011-07-05 Apple Inc. Portable multifunction device, method, and graphical user interface for conference calling
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US20080165135A1 (en) * 2007-01-10 2008-07-10 Jao-Ching Lin Functional expansion system for a touch pad
US8058937B2 (en) 2007-01-30 2011-11-15 Cypress Semiconductor Corporation Setting a discharge rate and a charge rate of a relaxation oscillator circuit
US20080180399A1 (en) * 2007-01-31 2008-07-31 Tung Wan Cheng Flexible Multi-touch Screen
US20080196945A1 (en) * 2007-02-21 2008-08-21 Jason Konstas Preventing unintentional activation of a sensor element of a sensing device
FR2913272B1 (fr) * 2007-03-02 2010-06-25 Dav Capteur a surface tactile
US7999789B2 (en) * 2007-03-14 2011-08-16 Computime, Ltd. Electrical device with a selected orientation for operation
TW200839587A (en) * 2007-03-16 2008-10-01 Inventec Appliances Corp Touch sensing device and method for electrical apparatus
TW200841531A (en) * 2007-04-02 2008-10-16 Asustek Comp Inc Slot device
TWI339806B (en) * 2007-04-04 2011-04-01 Htc Corp Electronic device capable of executing commands therein and method for executing commands in the same
JP4333768B2 (ja) * 2007-04-06 2009-09-16 ソニー株式会社 表示装置
JP2008276548A (ja) * 2007-04-27 2008-11-13 Toshiba Corp 静電パッド装置および情報処理装置
US20080270900A1 (en) * 2007-04-27 2008-10-30 Wezowski Martin M R Device, method and computer program product for switching a device between application modes
PL1988445T3 (pl) * 2007-05-04 2016-08-31 Whirlpool Co Interfejs użytkownika i piekarnik wyposażony w taki interfejs użytkownika
US20080273017A1 (en) * 2007-05-04 2008-11-06 Woolley Richard D Touchpad using a combination of touchdown and radial movements to provide control signals
US7911771B2 (en) * 2007-05-23 2011-03-22 Apple Inc. Electronic device with a metal-ceramic composite component
US8185839B2 (en) * 2007-06-09 2012-05-22 Apple Inc. Browsing or searching user interfaces and other aspects
US8201096B2 (en) * 2007-06-09 2012-06-12 Apple Inc. Browsing or searching user interfaces and other aspects
US9772667B2 (en) * 2007-06-13 2017-09-26 Apple Inc. Integrated multi-touch surface having varying sensor granularity
US9052817B2 (en) * 2007-06-13 2015-06-09 Apple Inc. Mode sensitive processing of touch data
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8350815B2 (en) 2007-06-20 2013-01-08 Sony Mobile Communications Portable communication device including touch input with scrolling function
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US9500686B1 (en) 2007-06-29 2016-11-22 Cypress Semiconductor Corporation Capacitance measurement system and methods
US8169238B1 (en) 2007-07-03 2012-05-01 Cypress Semiconductor Corporation Capacitance to frequency converter
US8570053B1 (en) 2007-07-03 2013-10-29 Cypress Semiconductor Corporation Capacitive field sensor with sigma-delta modulator
US9654104B2 (en) * 2007-07-17 2017-05-16 Apple Inc. Resistive force sensor with capacitive discrimination
TW200907768A (en) * 2007-08-09 2009-02-16 Asustek Comp Inc Portable apparatus and rapid cursor positioning method
US8683378B2 (en) 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US7910843B2 (en) 2007-09-04 2011-03-22 Apple Inc. Compact input device
US20090058801A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Fluid motion user interface control
US20090073130A1 (en) * 2007-09-17 2009-03-19 Apple Inc. Device having cover with integrally formed sensor
US20090096749A1 (en) * 2007-10-10 2009-04-16 Sun Microsystems, Inc. Portable device input technique
US20090113297A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Requesting a second content based on a user's reaction to a first content
US9582805B2 (en) * 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
US20090112693A1 (en) * 2007-10-24 2009-04-30 Jung Edward K Y Providing personalized advertising
US9513699B2 (en) * 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US8001108B2 (en) * 2007-10-24 2011-08-16 The Invention Science Fund I, Llc Returning a new content based on a person's reaction to at least two instances of previously displayed content
US20090112696A1 (en) * 2007-10-24 2009-04-30 Jung Edward K Y Method of space-available advertising in a mobile device
US20090112694A1 (en) * 2007-10-24 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Targeted-advertising based on a sensed physiological response by a person to a general advertisement
US8234262B2 (en) * 2007-10-24 2012-07-31 The Invention Science Fund I, Llc Method of selecting a second content based on a user's reaction to a first content of at least two instances of displayed content
US8126867B2 (en) * 2007-10-24 2012-02-28 The Invention Science Fund I, Llc Returning a second content based on a user's reaction to a first content
US20090112849A1 (en) * 2007-10-24 2009-04-30 Searete Llc Selecting a second content based on a user's reaction to a first content of at least two instances of displayed content
US8112407B2 (en) * 2007-10-24 2012-02-07 The Invention Science Fund I, Llc Selecting a second content based on a user's reaction to a first content
US20090112697A1 (en) * 2007-10-30 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Providing personalized advertising
TWI406551B (zh) * 2007-11-06 2013-08-21 Lg Electronics Inc 行動式終端機
US8416198B2 (en) 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
US20090146970A1 (en) * 2007-12-10 2009-06-11 Research In Motion Limited Electronic device and touch screen having discrete touch-sensitive areas
US8446371B2 (en) * 2007-12-19 2013-05-21 Research In Motion Limited Method and apparatus for launching activities
TWI368161B (en) * 2007-12-21 2012-07-11 Htc Corp Electronic apparatus and input interface thereof
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US8243038B2 (en) 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US8922502B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9760172B2 (en) 2008-01-04 2017-09-12 Tactus Technology, Inc. Dynamic tactile interface
US9013417B2 (en) 2008-01-04 2015-04-21 Tactus Technology, Inc. User interface system
US8154527B2 (en) 2008-01-04 2012-04-10 Tactus Technology User interface system
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US8547339B2 (en) 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US9367132B2 (en) 2008-01-04 2016-06-14 Tactus Technology, Inc. User interface system
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US9128525B2 (en) 2008-01-04 2015-09-08 Tactus Technology, Inc. Dynamic tactile interface
US8179375B2 (en) 2008-01-04 2012-05-15 Tactus Technology User interface system and method
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US8587541B2 (en) 2010-04-19 2013-11-19 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9372565B2 (en) 2008-01-04 2016-06-21 Tactus Technology, Inc. Dynamic tactile interface
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8125461B2 (en) 2008-01-11 2012-02-28 Apple Inc. Dynamic input graphic display
WO2009093179A1 (en) * 2008-01-24 2009-07-30 Koninklijke Philips Electronics N.V. Color selection input device and method
US8525798B2 (en) 2008-01-28 2013-09-03 Cypress Semiconductor Corporation Touch sensing
US8820133B2 (en) 2008-02-01 2014-09-02 Apple Inc. Co-extruded materials and methods
US8319505B1 (en) 2008-10-24 2012-11-27 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US8358142B2 (en) 2008-02-27 2013-01-22 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US9104273B1 (en) 2008-02-29 2015-08-11 Cypress Semiconductor Corporation Multi-touch sensing method
CN101533296A (zh) * 2008-03-12 2009-09-16 深圳富泰宏精密工业有限公司 手持行动电子装置触摸控制系统及方法
US9454256B2 (en) 2008-03-14 2016-09-27 Apple Inc. Sensor configurations of an input device that are switchable based on mode
US9448721B2 (en) * 2008-03-19 2016-09-20 Blackberry Limited Electronic device including touch-sensitive input device and method of determining selection
WO2009117685A2 (en) * 2008-03-20 2009-09-24 Spy Rock, Llc Dynamic visual feature coordination in an electronic hand held device
CN101551726A (zh) * 2008-04-03 2009-10-07 深圳富泰宏精密工业有限公司 电子装置触摸控制系统及方法
US9189102B2 (en) * 2008-05-16 2015-11-17 8631654 Canada Inc. Data filtering method and electronic device using the same
TW200949616A (en) * 2008-05-16 2009-12-01 High Tech Comp Corp Data filtering method and electronic device and readable recording medium using the same
TWI396967B (zh) * 2008-05-16 2013-05-21 Htc Corp 信號過濾方法及應用其之電子裝置與可讀取記錄媒體
TWI358029B (en) 2008-05-16 2012-02-11 Htc Corp Method for filtering out signals from touch device
KR100957836B1 (ko) * 2008-06-02 2010-05-14 주식회사 애트랩 터치패널 장치 및 이의 접촉위치 검출방법
US8217908B2 (en) 2008-06-19 2012-07-10 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US9513705B2 (en) 2008-06-19 2016-12-06 Tactile Displays, Llc Interactive display with tactile feedback
US8665228B2 (en) 2008-06-19 2014-03-04 Tactile Displays, Llc Energy efficient interactive display with energy regenerative keyboard
US8115745B2 (en) 2008-06-19 2012-02-14 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US20090327974A1 (en) * 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control
JP4636141B2 (ja) * 2008-08-28 2011-02-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
BRPI0918295B1 (pt) * 2008-09-04 2021-04-13 Savant Systems, Inc Sistemas de multimídia capaz de ser controlado remotamente, e, método para controlar remotamente um sistema de multímidia
US8341557B2 (en) * 2008-09-05 2012-12-25 Apple Inc. Portable touch screen device, method, and graphical user interface for providing workout support
US8810542B2 (en) * 2008-09-10 2014-08-19 Apple Inc. Correction of parasitic capacitance effect in touch sensor panels
IT1393377B1 (it) 2008-09-12 2012-04-20 Sicam Srl Macchina equilibratrice per l'equilibratura di ruote di veicoli
US8259082B2 (en) * 2008-09-12 2012-09-04 At&T Intellectual Property I, L.P. Multimodal portable communication interface for accessing video content
IT1393376B1 (it) 2008-09-12 2012-04-20 Sicam Srl Macchina equilibratrice per l'equilibratura di ruote di veicoli
US8816967B2 (en) 2008-09-25 2014-08-26 Apple Inc. Capacitive sensor having electrodes arranged on the substrate and the flex circuit
US8321174B1 (en) 2008-09-26 2012-11-27 Cypress Semiconductor Corporation System and method to measure capacitance of capacitive sensor array
US10289199B2 (en) * 2008-09-29 2019-05-14 Apple Inc. Haptic feedback system
US8368654B2 (en) * 2008-09-30 2013-02-05 Apple Inc. Integrated touch sensor and solar assembly
KR101323015B1 (ko) * 2008-10-20 2013-10-29 엘지디스플레이 주식회사 터치 감지장치와 그 출력 보정방법
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
KR101016221B1 (ko) * 2008-11-14 2011-02-25 한국표준과학연구원 힘 센서를 구비한 입력모듈에 터치 입력을 처리하기 위한 알고리즘 구현방법
US9128543B2 (en) * 2008-12-11 2015-09-08 Pixart Imaging Inc. Touch pad device and method for determining a position of an input object on the device using capacitive coupling
US9075457B2 (en) * 2008-12-12 2015-07-07 Maxim Integrated Products, Inc. System and method for interfacing applications processor to touchscreen display for reduced data transfer
US8395590B2 (en) 2008-12-17 2013-03-12 Apple Inc. Integrated contact switch and touch sensor elements
US9600070B2 (en) 2008-12-22 2017-03-21 Apple Inc. User interface having changeable topography
WO2010078321A1 (en) 2008-12-29 2010-07-08 Otter Products, Llc Protective cushion cover for an electronic device
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
WO2010078597A1 (en) * 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
WO2010078596A1 (en) * 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
US8487975B2 (en) 2009-01-27 2013-07-16 Lifesize Communications, Inc. Conferencing system utilizing a mobile communication device as an interface
US20100220063A1 (en) * 2009-02-27 2010-09-02 Panasonic Corporation System and methods for calibratable translation of position
JP5392900B2 (ja) * 2009-03-03 2014-01-22 現代自動車株式会社 車載機器の操作装置
US8570280B2 (en) * 2009-03-25 2013-10-29 Lenovo (Singapore) Pte. Ltd. Filtering of inadvertent contact with touch pad input device
TWI469015B (zh) * 2009-03-27 2015-01-11 Hon Hai Prec Ind Co Ltd 具有滑動控制的觸摸電子裝置及其滑動控制方法
US8154529B2 (en) 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
US9354751B2 (en) 2009-05-15 2016-05-31 Apple Inc. Input device with optimized capacitive sensing
TWI419017B (zh) * 2009-05-25 2013-12-11 Micro Nits Co Ltd 一種具有片狀光層之指標輸入系統
US8549432B2 (en) * 2009-05-29 2013-10-01 Apple Inc. Radial menus
US8464182B2 (en) * 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
JP2012532384A (ja) * 2009-07-03 2012-12-13 タクタス テクノロジー ユーザインターフェイス拡張システム
US8872771B2 (en) 2009-07-07 2014-10-28 Apple Inc. Touch sensing device having conductive nodes
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US8965458B2 (en) 2009-08-21 2015-02-24 Otter Products, Llc Protective cushion cover for an electronic device
US9176962B2 (en) 2009-09-07 2015-11-03 Apple Inc. Digital media asset browsing with audio cues
JP5218353B2 (ja) * 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
KR101624218B1 (ko) * 2009-09-14 2016-05-25 삼성전자주식회사 디지털 촬영 장치 및 그 제어 방법
US20110078626A1 (en) * 2009-09-28 2011-03-31 William Bachman Contextual Presentation of Digital Media Asset Collections
US9158409B2 (en) * 2009-09-29 2015-10-13 Beijing Lenovo Software Ltd Object determining method, object display method, object switching method and electronic device
TW201120689A (en) * 2009-12-10 2011-06-16 Chih-Ming Tsao Processing method of input device to perform multi-directional control.
CN102782617B (zh) 2009-12-21 2015-10-07 泰克图斯科技公司 用户接口系统
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8456297B2 (en) * 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US8866791B2 (en) * 2010-01-06 2014-10-21 Apple Inc. Portable electronic device having mode dependent user input controls
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US20110163977A1 (en) * 2010-01-06 2011-07-07 Ulrich Barnhoefer Mode Dependent Configuration of Portable Electronic Device
US8619035B2 (en) 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
US9025317B2 (en) 2010-03-17 2015-05-05 Otter Products, Llc Multi-material protective case for sliding/articulating/rotating handheld electronic devices
US10719131B2 (en) 2010-04-05 2020-07-21 Tactile Displays, Llc Interactive display with tactile feedback
TWI514127B (zh) * 2010-04-16 2015-12-21 Via Tech Inc 具電子書模式之電腦系統及其存取電子書資料之方法
US8591334B2 (en) * 2010-06-03 2013-11-26 Ol2, Inc. Graphical user interface, system and method for implementing a game controller on a touch-screen device
CN103098483A (zh) * 2010-07-26 2013-05-08 安纳科梅得泰克 用于视听显示器的控制装置
US8824140B2 (en) 2010-09-17 2014-09-02 Apple Inc. Glass enclosure
US8342325B2 (en) 2010-10-12 2013-01-01 Treefrog Developments, Inc Housing for receiving and encasing an object
US9549598B2 (en) 2010-10-12 2017-01-24 Treefrog Developments, Inc. Housing for encasing an electronic device
KR20140043697A (ko) 2010-10-20 2014-04-10 택투스 테크놀로지, 아이엔씨. 사용자 인터페이스 시스템 및 방법
WO2012054780A1 (en) 2010-10-20 2012-04-26 Tactus Technology User interface system
CN102169397A (zh) * 2010-11-19 2011-08-31 苏州瀚瑞微电子有限公司 一种电容触摸屏的布线方法
JP5691464B2 (ja) * 2010-12-09 2015-04-01 ソニー株式会社 情報処理装置
US8804056B2 (en) 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
EP2474886A1 (de) * 2011-01-05 2012-07-11 Research In Motion Limited Elektronische Vorrichtung und Steuerungsverfahren dafür
TWI573048B (zh) * 2011-01-26 2017-03-01 奇景光電股份有限公司 感應裝置與感應模組
US9615476B2 (en) 2011-06-13 2017-04-04 Treefrog Developments, Inc. Housing for encasing a mobile device
USD736777S1 (en) 2012-06-13 2015-08-18 Treefrog Developments, Inc. Case for an electronic device
WO2012174175A2 (en) 2011-06-13 2012-12-20 Tree Frog Developments, Inc. Housing for encasing a tablet computer
US8605872B2 (en) 2011-06-28 2013-12-10 Lifesize Communications, Inc. Muting a videoconference using touch-based gestures
US9204094B2 (en) 2011-06-28 2015-12-01 Lifesize Communications, Inc. Adjusting volume of a videoconference using touch-based gestures
US8605873B2 (en) 2011-06-28 2013-12-10 Lifesize Communications, Inc. Accessing settings of a videoconference using touch-based gestures
US8194036B1 (en) 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
US8319746B1 (en) * 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal
US8782525B2 (en) 2011-07-28 2014-07-15 National Insturments Corporation Displaying physical signal routing in a diagram of a system
US8713482B2 (en) 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
US9047007B2 (en) 2011-07-28 2015-06-02 National Instruments Corporation Semantic zoom within a diagram of a system
US20130143657A1 (en) * 2011-11-14 2013-06-06 Amazon Technologies, Inc. Input Mapping Regions
RU2583754C2 (ru) * 2011-12-15 2016-05-10 Тойота Дзидося Кабусики Кайся Устройство управления
WO2013106474A1 (en) 2012-01-10 2013-07-18 The Joy Factory, Inc. Protective casing providing impact absorption and water resistance for portable electronic devices
US10216286B2 (en) * 2012-03-06 2019-02-26 Todd E. Chornenky On-screen diagonal keyboard
CN103425362A (zh) * 2012-05-23 2013-12-04 南京华睿川电子科技有限公司 一种圆形的投射电容式触摸屏
US9469469B2 (en) 2012-06-01 2016-10-18 Treefrog Developments, Inc. Housing for encasing an object having a thin profile
CN103455254B (zh) * 2012-06-05 2018-05-22 腾讯科技(深圳)有限公司 界面焦点移动控制方法及控制装置
US9241551B2 (en) 2012-06-13 2016-01-26 Otter Products, Llc Protective case with compartment
US9098739B2 (en) * 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US20140055368A1 (en) * 2012-08-22 2014-02-27 Ming-Hsein Yu Method and Apparatus by Using Touch Screen to Implement Functions of Touch Screen and Keypad
CN103677376B (zh) * 2012-09-21 2017-12-26 联想(北京)有限公司 信息处理的方法及电子设备
CN104662497A (zh) 2012-09-24 2015-05-27 泰克图斯科技公司 动态触觉界面和方法
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
GB2506676B (en) * 2012-10-08 2015-03-25 Touchnetix Ltd Touch sensors and touch sensing methods
US10130286B2 (en) 2012-10-12 2018-11-20 Medicustek Inc. Pressure-sensing device with biplanar sensor array
US9030839B2 (en) * 2012-10-18 2015-05-12 Apple Inc. Track pad acoustic features related to a portable computer
DE102013201458A1 (de) * 2013-01-30 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung mindestens eines Signals
WO2014132893A1 (ja) * 2013-02-27 2014-09-04 アルプス電気株式会社 操作検知装置
KR102092062B1 (ko) * 2013-04-30 2020-03-23 인텔렉추얼디스커버리 주식회사 디스플레이어 입력장치 및 입력방법
CN104156147A (zh) * 2013-05-15 2014-11-19 中兴通讯股份有限公司 终端界面显示模式的自适应调节方法及终端
EP2996513B1 (de) 2013-05-18 2018-03-28 Otter Products, LLC Wasserdichte schutzhülle für eine elektronische vorrichtung
US10067567B2 (en) 2013-05-30 2018-09-04 Joyson Safety Systems Acquistion LLC Multi-dimensional trackpad
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
EP2824426B1 (de) 2013-07-09 2018-05-09 Leica Geosystems AG Kapazitiver Drehlagengeber
US9300078B2 (en) 2013-08-23 2016-03-29 Otter Products, Llc Waterproof housing for mobile electronic device and waterproof adapter for accessory device
JP2016536670A (ja) 2013-10-08 2016-11-24 ティーケー ホールディングス インク.Tk Holdings Inc. 自己校正触感ハプティック複数タッチ、多機能スイッチパネル
US9304575B2 (en) 2013-11-26 2016-04-05 Apple Inc. Reducing touch sensor panel power consumption
CN103716672B (zh) * 2013-12-19 2016-06-08 京东方科技集团股份有限公司 一种遥控器、显示装置以及遥控显示系统
CN104793774A (zh) * 2014-01-20 2015-07-22 联发科技(新加坡)私人有限公司 电子装置控制方法
US20150363026A1 (en) * 2014-06-16 2015-12-17 Touchplus Information Corp. Control device, operation mode altering method thereof, control method thereof and battery power warning method thereof
US9280228B1 (en) * 2014-08-13 2016-03-08 Anacom Medtek Patient-actuated control device for controlling an audio-visual display and ancillary functions in a hospital room
US10048754B2 (en) * 2014-08-27 2018-08-14 Grayhill, Inc. Localized haptic response
US10466826B2 (en) 2014-10-08 2019-11-05 Joyson Safety Systems Acquisition Llc Systems and methods for illuminating a track pad system
USD787553S1 (en) * 2014-11-20 2017-05-23 General Electric Company Display screen or portion thereof with icon
US9910531B2 (en) * 2015-01-12 2018-03-06 Synaptics Incorporated Circular outline single layer pattern
CN106293425A (zh) * 2015-05-14 2017-01-04 冠捷投资有限公司 具有触控式屏幕调节选单的显示设备
US9577697B2 (en) 2015-05-27 2017-02-21 Otter Products, Llc Protective case with stylus access feature
US20160356602A1 (en) 2015-06-03 2016-12-08 Reginald K. Puana E-Car Trip Planner
CN105068693B (zh) * 2015-08-28 2018-01-02 京东方科技集团股份有限公司 触控电极结构、触控面板以及显示装置
CN105242814B (zh) * 2015-09-14 2018-11-06 友达光电(苏州)有限公司 电容式触控结构及其触控显示装置
CN105094495B (zh) * 2015-09-15 2018-05-18 京东方科技集团股份有限公司 触控电极结构、触摸屏以及显示装置
US10496271B2 (en) * 2016-01-29 2019-12-03 Bose Corporation Bi-directional control for touch interfaces
US9960521B2 (en) 2016-02-24 2018-05-01 Otter Products, Llc Connector for fluidly sealing an aperture of a protective case
CN106020678A (zh) * 2016-04-29 2016-10-12 青岛海信移动通信技术股份有限公司 一种在移动设备进行触控操作的方法和装置
US11228754B2 (en) 2016-05-06 2022-01-18 Qualcomm Incorporated Hybrid graphics and pixel domain architecture for 360 degree video
US9922679B2 (en) 2016-06-01 2018-03-20 James Tallantyre Slow motion video playback method for computing devices with touch interfaces
CN106055163A (zh) * 2016-06-30 2016-10-26 北京集创北方科技股份有限公司 触摸显示控制方法、触摸显示控制装置和触摸显示模组
US10159320B2 (en) 2016-09-07 2018-12-25 Otter Products, Llc Protective enclosure for encasing an electronic device
CN106775216B (zh) * 2016-11-30 2020-07-17 努比亚技术有限公司 一种终端和输入框自适应方法
CN107528958B (zh) * 2017-08-04 2019-03-12 Oppo广东移动通信有限公司 移动终端控制方法、装置、可读存储介质和移动终端
CN107661630A (zh) * 2017-08-28 2018-02-06 网易(杭州)网络有限公司 一种射击游戏的控制方法及装置、存储介质、处理器、终端
CN107741819B (zh) * 2017-09-01 2018-11-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107648848B (zh) * 2017-09-01 2018-11-16 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US10847330B2 (en) 2017-10-06 2020-11-24 Grayhill, Inc. No/low-wear bearing arrangement for a knob system
CN109656392A (zh) * 2017-10-10 2019-04-19 芋头科技(杭州)有限公司 一种多点多向触控操作系统及方法
CN107890664A (zh) * 2017-10-23 2018-04-10 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US10795494B2 (en) 2018-01-03 2020-10-06 Grayhill, Inc. Touch encoder, touch panel, and input method editor with integrated development environment and methods thereof
US10827809B2 (en) 2018-04-05 2020-11-10 Otter Products, Llc Protective case for electronic device
US11036390B2 (en) * 2018-05-25 2021-06-15 Mpi Corporation Display method of display apparatus
JP6676807B2 (ja) * 2018-06-29 2020-04-08 キヤノン株式会社 電子機器
US10897568B2 (en) 2018-06-29 2021-01-19 Canon Kabushiki Kaisha Electronic device
DE102018120575A1 (de) * 2018-07-12 2020-01-16 Preh Gmbh Eingabevorrichtung mit beweglicher Handhabe auf kapazitiver Detektionsfläche und kapazitiven Koppeleinrichtungen
CN109395382A (zh) * 2018-09-12 2019-03-01 苏州蜗牛数字科技股份有限公司 一种针对摇杆的线性优化方法
US10775853B2 (en) 2018-10-16 2020-09-15 Texas Instruments Incorporated Secondary back surface touch sensor for handheld devices
CN112558802A (zh) * 2019-09-26 2021-03-26 深圳市万普拉斯科技有限公司 用于模式切换的装置、方法及电子设备
CN115176216A (zh) 2019-12-30 2022-10-11 乔伊森安全系统收购有限责任公司 用于智能波形中断的系统和方法
US11625131B2 (en) * 2021-03-12 2023-04-11 Apple Inc. Continous touch input over multiple independent surfaces
CN113687729B (zh) * 2021-08-11 2023-11-28 合肥联宝信息技术有限公司 一种遥控设备
CN113437960A (zh) * 2021-08-13 2021-09-24 四川中微芯成科技有限公司 一种电容式触摸按键实现环形触摸的方法

Family Cites Families (551)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1061578A (en) 1912-03-25 1913-05-13 Heinrich Wischhusen Push-button switch.
US2063276A (en) 1932-05-25 1936-12-08 Servel Inc Absorption type refrigerating system
GB765556A (en) 1953-04-21 1957-01-09 Castelco Great Britain Ltd Improvements in rotary electric switches
US2903229A (en) 1956-02-24 1959-09-08 Robert F Lange Device for supporting a frying pan in tilted position
US3005055A (en) 1957-10-08 1961-10-17 Bell Telephone Labor Inc Tilting dial circuit selector
US2945111A (en) 1958-10-24 1960-07-12 Thomas C Mccormick Push button electrical switch
US3996441A (en) 1973-07-09 1976-12-07 Shigeo Ohashi Switch with rocker actuator having detachable cover
US3965399A (en) 1974-03-22 1976-06-22 Walker Jr Frank A Pushbutton capacitive transducer
JPS5168726A (de) 1974-12-12 1976-06-14 Hosiden Electronics Co
US4115670A (en) 1976-03-15 1978-09-19 Geno Corporation Electrical switch assembly
US4071691A (en) 1976-08-24 1978-01-31 Peptek, Inc. Human-machine interface apparatus
US4103252A (en) 1976-11-26 1978-07-25 Xerox Corporation Capacitive touch-activated transducer system including a plurality of oscillators
US4121204A (en) 1976-12-14 1978-10-17 General Electric Company Bar graph type touch switch and display device
US4110749A (en) 1977-05-06 1978-08-29 Tektronix, Inc. Touch display to digital encoding system
US4242676A (en) 1977-12-29 1980-12-30 Centre Electronique Horloger Sa Interactive device for data input into an instrument of small dimensions
US4158216A (en) 1978-02-21 1979-06-12 General Electric Company Capacitive touch control
US4177421A (en) 1978-02-27 1979-12-04 Xerox Corporation Capacitive transducer
US4338502A (en) 1978-04-27 1982-07-06 Sharp Kabushiki Kaisha Metallic housing for an electronic apparatus with a flat keyboard
US4264903A (en) 1978-06-12 1981-04-28 General Electric Company Capacitive touch control and display
USD264969S (en) 1978-11-08 1982-06-15 Pye (Electronic Products) Limited Cabinet for electronic equipment
US4246452A (en) 1979-01-05 1981-01-20 Mattel, Inc. Switch apparatus
US4293734A (en) 1979-02-23 1981-10-06 Peptek, Incorporated Touch panel system and method
US4266144A (en) 1979-05-14 1981-05-05 Emhart Industries, Inc. Detection means for multiple capacitive sensing devices
CA1152603A (en) 1979-09-28 1983-08-23 Bfg Glassgroup Capacitive systems for touch control switching
JPS56114028A (en) 1980-02-12 1981-09-08 Kureha Chem Ind Co Ltd Capacity-type coordinate input device
DE3119495A1 (de) 1980-05-27 1982-02-25 Playmont AG, St. Gallen "annaeherungs-schalter"
US4394649A (en) 1980-07-28 1983-07-19 I/O Corporation Communication terminal providing user communication of high comprehension
JPS57152725U (de) 1981-03-20 1982-09-25
US4583161A (en) 1981-04-16 1986-04-15 Ncr Corporation Data processing system wherein all subsystems check for message errors
US4739191A (en) 1981-04-27 1988-04-19 Signetics Corporation Depletion-mode FET for the regulation of the on-chip generated substrate bias voltage
JPS5837784A (ja) 1981-08-28 1983-03-05 Toshiba Corp 座標入力装置
US4604786A (en) 1982-11-05 1986-08-12 The Grigoleit Company Method of making a composite article including a body having a decorative metal plate attached thereto
US4570149A (en) 1983-03-15 1986-02-11 Koala Technologies Corporation Simplified touch tablet data device
US5125077A (en) 1983-11-02 1992-06-23 Microsoft Corporation Method of formatting data from a mouse
US4866602A (en) 1983-11-02 1989-09-12 Microsoft Corporation Power supply for a computer peripheral device which positions a cursor on a computer display
US5838304A (en) 1983-11-02 1998-11-17 Microsoft Corporation Packet-based mouse data protocol
GB8409877D0 (en) 1984-04-17 1984-05-31 Binstead Ronald Peter Capacitance effect keyboard
US4587378A (en) 1984-07-30 1986-05-06 Koala Technologies Corporation Two-layer touch tablet
CA1306539C (en) 1984-10-08 1992-08-18 Takahide Ohtani Signal reproduction apparatus including touched state pattern recognitionspeed control
US4752655A (en) 1984-11-16 1988-06-21 Nippon Telegraph & Telephone Corporation Coordinate input device
US4822957B1 (en) 1984-12-24 1996-11-19 Elographics Inc Electrographic touch sensor having reduced bow of equipotential field lines therein
US4644100A (en) 1985-03-22 1987-02-17 Zenith Electronics Corporation Surface acoustic wave touch panel system
US4734034A (en) 1985-03-29 1988-03-29 Sentek, Incorporated Contact sensor for measuring dental occlusion
US4856993A (en) 1985-03-29 1989-08-15 Tekscan, Inc. Pressure and contact sensor system for measuring dental occlusion
JPS6226532A (ja) 1985-07-19 1987-02-04 リチヤ−ド エル.ジエンキンス アイソメトリツク制御装置
US4736191A (en) 1985-08-02 1988-04-05 Karl E. Matzke Touch activated control method and apparatus
US4739299A (en) 1986-01-17 1988-04-19 Interlink Electronics, Inc. Digitizer pad
US4810992A (en) 1986-01-17 1989-03-07 Interlink Electronics, Inc. Digitizer pad
US5179648A (en) 1986-03-24 1993-01-12 Hauck Lane T Computer auxiliary viewing system
DE3615742A1 (de) 1986-05-09 1987-11-12 Schoeller & Co Elektrotech Folientastschalter
US4771139A (en) 1986-06-27 1988-09-13 Desmet Gregory L Keyboard with metal cover and improved switches
US5416498A (en) 1986-10-21 1995-05-16 Ergonomics, Inc. Prehensile positioning computer keyboard
US4764717A (en) 1986-10-27 1988-08-16 Utah Scientific Advanced Development Center, Inc. Touch-sensitive potentiometer for operator control panel
US5194852A (en) * 1986-12-01 1993-03-16 More Edward S Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information
US4755765A (en) 1987-01-16 1988-07-05 Teradyne, Inc. Differential input selector
US4917516A (en) 1987-02-18 1990-04-17 Retter Dale J Combination computer keyboard and mouse data entry system
US5856645A (en) 1987-03-02 1999-01-05 Norton; Peter Crash sensing switch
GB2204131B (en) 1987-04-28 1991-04-17 Ibm Graphics input tablet
US5053757A (en) * 1987-06-04 1991-10-01 Tektronix, Inc. Touch panel with adaptive noise reduction
JPS63314633A (ja) 1987-06-17 1988-12-22 Gunze Ltd タッチパネルにおける接触位置の検出方法
US4990900A (en) 1987-10-01 1991-02-05 Alps Electric Co., Ltd. Touch panel
US4860768A (en) 1987-11-09 1989-08-29 The Hon Group Transducer support base with a depending annular isolation ring
US5450075A (en) 1987-11-11 1995-09-12 Ams Industries Plc Rotary control
US4831359A (en) 1988-01-13 1989-05-16 Micro Research, Inc. Four quadrant touch pad
US4914624A (en) 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
US4951036A (en) 1988-08-04 1990-08-21 The Grass Valley Group, Inc. Touchpad jogger
US4849852A (en) 1988-09-30 1989-07-18 Alps Electric (U.S.A.), Inc. Variable capacitance push-button switch
US4976435A (en) 1988-10-17 1990-12-11 Will Shatford Video game control adapter
CA2002912A1 (en) 1988-11-14 1990-05-14 William A. Clough Portable computer with touch screen and computer system employing same
JPH0322259A (ja) 1989-03-22 1991-01-30 Seiko Epson Corp 小型データ表示・再生装置
GB8914235D0 (en) 1989-06-21 1989-08-09 Tait David A G Finger operable control devices
JP2934672B2 (ja) 1989-07-03 1999-08-16 直之 大纒 静電容量型検出装置
US5305017A (en) 1989-08-16 1994-04-19 Gerpheide George E Methods and apparatus for data input
US5036321A (en) 1989-08-31 1991-07-30 Otis Elevator Company Capacitive sensing, solid state touch button system
GB8921473D0 (en) 1989-09-22 1989-11-08 Psion Plc Input device
GB9004532D0 (en) 1990-02-28 1990-04-25 Lucas Ind Plc Switch assembly
US5008497A (en) 1990-03-22 1991-04-16 Asher David J Touch controller
JP3301079B2 (ja) 1990-06-18 2002-07-15 ソニー株式会社 情報入力装置、情報入力方法、情報処理装置及び情報処理方法
US5192082A (en) 1990-08-24 1993-03-09 Nintendo Company Limited TV game machine
US5086870A (en) 1990-10-31 1992-02-11 Division Driving Systems, Inc. Joystick-operated driving system
JP3192418B2 (ja) 1990-11-30 2001-07-30 株式会社リコー 静電潜像現像用キャリア及び現像剤
US5159159A (en) 1990-12-07 1992-10-27 Asher David J Touch sensor and controller
EP0490001B1 (de) 1990-12-14 1996-07-10 International Business Machines Corporation Koordinatenprozessor für ein Rechnersystem mit einer Zeigeranordnung
US5204600A (en) 1991-02-06 1993-04-20 Hewlett-Packard Company Mechanical detent simulating system
US5479192A (en) 1991-02-15 1995-12-26 Carroll, Jr.; George L. Multifunction space bar for video screen graphics cursor control
US5841423A (en) 1991-02-15 1998-11-24 Carroll, Jr.; George L. Multifunction space bar for video screen graphics cursor control
US5272469A (en) * 1991-07-01 1993-12-21 Ncr Corporation Process for mapping high resolution data into a lower resolution depiction
US5237311A (en) 1991-08-01 1993-08-17 Picker International, Inc. Hingedly supported integrated trackball and selection device
JPH0620570A (ja) 1991-12-26 1994-01-28 Nippon Kaiheiki Kogyo Kk 表示装置付き押釦スイッチ
US5186646A (en) 1992-01-16 1993-02-16 Pederson William A Connector device for computers
FR2686440B1 (fr) 1992-01-17 1994-04-01 Sextant Avionique Dispositif de gestion multimode d'un curseur sur l'ecran d'un dispositif d'affichage.
US5231326A (en) 1992-01-30 1993-07-27 Essex Electronics, Inc. Piezoelectric electronic switch
JPH05233141A (ja) 1992-02-25 1993-09-10 Mitsubishi Electric Corp ポインティングデバイス
JPH05258641A (ja) 1992-03-16 1993-10-08 Matsushita Electric Ind Co Ltd パネルスイッチ
US5367199A (en) 1992-05-01 1994-11-22 Triax Technologies Sliding contact control switch pad
US5543588A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Touch pad driven handheld computing device
DE69324067T2 (de) 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
US5543591A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5889236A (en) * 1992-06-08 1999-03-30 Synaptics Incorporated Pressure sensitive scrollbar feature
US5861875A (en) 1992-07-13 1999-01-19 Cirque Corporation Methods and apparatus for data input
US5508717A (en) 1992-07-28 1996-04-16 Sony Corporation Computer pointing device with dynamic sensitivity
AR247303A1 (es) 1992-08-21 1994-11-30 Gilligan Federico Gustavo Y Fa Nuevo teclado de computacion
JP3227218B2 (ja) 1992-09-11 2001-11-12 キヤノン株式会社 情報処理装置
JPH0696639A (ja) 1992-09-14 1994-04-08 Smk Corp ジョグ機能を備えたメンブレンスイッチ
US6084574A (en) 1992-10-05 2000-07-04 Logitech, Inc. Compact cursor pointing device utilizing photodetector array
US5907152A (en) 1992-10-05 1999-05-25 Logitech, Inc. Pointing device utilizing a photodetector array
US5703356A (en) 1992-10-05 1997-12-30 Logitech, Inc. Pointing device utilizing a photodetector array
USD349280S (en) 1992-10-06 1994-08-02 Microsoft Corporation Computer mouse
US5414445A (en) 1992-10-07 1995-05-09 Microsoft Corporation Ergonomic pointing device
US5632679A (en) 1992-10-26 1997-05-27 Tremmel; Michael Touch sensitive computer interface controller
US5561445A (en) 1992-11-09 1996-10-01 Matsushita Electric Industrial Co., Ltd. Three-dimensional movement specifying apparatus and method and observational position and orientation changing apparatus
US5339213A (en) 1992-11-16 1994-08-16 Cirque Corporation Portable computer touch pad attachment
US5521617A (en) 1993-04-15 1996-05-28 Sony Corporation Three-dimensional image special effect apparatus
JP2986047B2 (ja) 1993-04-29 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション ディジタル入力用表示装置並びに入力処理装置および方法
US5424756A (en) 1993-05-14 1995-06-13 Ho; Yung-Lung Track pad cursor positioning device and method
US5408621A (en) 1993-06-10 1995-04-18 Ben-Arie; Jezekiel Combinatorial data entry system having multi-position switches, each switch having tiltable control knob
US5959610A (en) 1993-06-21 1999-09-28 Euphonix Computer-mirrored panel input device
NO932270D0 (no) 1993-06-21 1993-06-21 Steinar Pedersen Styreredskap for pc-markoer
US5581670A (en) 1993-07-21 1996-12-03 Xerox Corporation User interface having movable sheet with click-through tools
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
CA2124624C (en) 1993-07-21 1999-07-13 Eric A. Bier User interface having click-through tools that can be composed with other tools
US5555004A (en) 1993-08-30 1996-09-10 Hosiden Corporation Input control device
WO1995008167A1 (en) 1993-09-13 1995-03-23 Asher David J Joystick with membrane sensor
US5956019A (en) 1993-09-28 1999-09-21 The Boeing Company Touch-pad cursor control device
US5596697A (en) 1993-09-30 1997-01-21 Apple Computer, Inc. Method for routing items within a computer system
US5564112A (en) 1993-10-14 1996-10-08 Xerox Corporation System and method for generating place holders to temporarily suspend execution of a selected command
US5661632A (en) 1994-01-04 1997-08-26 Dell Usa, L.P. Hand held computer with dual display screen orientation capability controlled by toggle switches having first and second non-momentary positions
US5473344A (en) 1994-01-06 1995-12-05 Microsoft Corporation 3-D cursor positioning device
CA2140164A1 (en) 1994-01-27 1995-07-28 Kenneth R. Robertson System and method for computer cursor control
US5613137A (en) * 1994-03-18 1997-03-18 International Business Machines Corporation Computer system with touchpad support in operating system
EP0674288A1 (de) 1994-03-24 1995-09-27 AT&T Corp. Mehrdimensionale Maus
FI118984B (fi) 1994-04-20 2008-05-30 Sony Corp Viestintäpäätelaite ja sen ohjausmenetelmä
AU2586595A (en) 1994-05-12 1995-12-05 Apple Computer, Inc. Method and apparatus for noise filtering for an input device
USD362431S (en) 1994-05-18 1995-09-19 Microsoft Corporation Computer input device
US5473343A (en) 1994-06-23 1995-12-05 Microsoft Corporation Method and apparatus for locating a cursor on a computer screen
US5559943A (en) 1994-06-27 1996-09-24 Microsoft Corporation Method and apparatus customizing a dual actuation setting of a computer input device switch
US5565887A (en) 1994-06-29 1996-10-15 Microsoft Corporation Method and apparatus for moving a cursor on a computer screen
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5627531A (en) 1994-09-30 1997-05-06 Ohmeda Inc. Multi-function menu selection device
US5494157A (en) 1994-11-14 1996-02-27 Samsonite Corporation Computer bag with side accessible padded compartments
US5495566A (en) 1994-11-22 1996-02-27 Microsoft Corporation Scrolling contents of a window
US5589893A (en) 1994-12-01 1996-12-31 Zenith Electronics Corporation On-screen remote control of a television receiver
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
US5585823A (en) 1994-12-30 1996-12-17 Apple Computer, Inc. Multi-state one-button computer pointing device
US5828364A (en) 1995-01-03 1998-10-27 Microsoft Corporation One-piece case top and integrated switch for a computer pointing device
JP3442893B2 (ja) 1995-01-27 2003-09-02 富士通株式会社 入力装置
US5611060A (en) 1995-02-22 1997-03-11 Microsoft Corporation Auto-scrolling during a drag and drop operation
US6323845B1 (en) 1995-03-06 2001-11-27 Ncr Corporation Single finger controlled computer input apparatus and method
US5959611A (en) 1995-03-06 1999-09-28 Carnegie Mellon University Portable computer system with ergonomic input device
US5611040A (en) 1995-04-05 1997-03-11 Microsoft Corporation Method and system for activating double click applications with a single click
GB9507817D0 (en) 1995-04-18 1995-05-31 Philips Electronics Uk Ltd Touch sensing devices and methods of making such
US5825353A (en) 1995-04-18 1998-10-20 Will; Craig Alexander Control of miniature personal digital assistant using menu and thumbwheel
US6122526A (en) 1997-04-24 2000-09-19 Eastman Kodak Company Cellular telephone and electronic camera system with programmable transmission capability
JPH08307954A (ja) * 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
JPH0934644A (ja) 1995-07-21 1997-02-07 Oki Electric Ind Co Ltd ポインティングデバイス
JP3743458B2 (ja) * 1995-07-29 2006-02-08 ソニー株式会社 入力パッド装置
US5790769A (en) 1995-08-04 1998-08-04 Silicon Graphics Incorporated System for editing time-based temporal digital media including a pointing device toggling between temporal and translation-rotation modes
US5751274A (en) 1995-09-14 1998-05-12 Davis; Michael Foot-operable cursor control device
US6025832A (en) * 1995-09-29 2000-02-15 Kabushiki Kaisha Toshiba Signal generating apparatus, signal inputting apparatus and force-electricity transducing apparatus
US5764066A (en) 1995-10-11 1998-06-09 Sandia Corporation Object locating system
US5884323A (en) 1995-10-13 1999-03-16 3Com Corporation Extendible method and apparatus for synchronizing files on two different computer systems
US5856822A (en) * 1995-10-27 1999-01-05 02 Micro, Inc. Touch-pad digital computer pointing-device
US6473069B1 (en) 1995-11-13 2002-10-29 Cirque Corporation Apparatus and method for tactile feedback from input device
US6100874A (en) * 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
US5964661A (en) 1995-11-24 1999-10-12 Dodge; Samuel D. Apparatus and method for timing video games
US5730165A (en) * 1995-12-26 1998-03-24 Philipp; Harald Time domain capacitive field detector
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
USD385542S (en) 1996-01-05 1997-10-28 Microsoft Corporation Pointing device
USD382550S (en) 1996-01-16 1997-08-19 Microsoft Corporation Rear portion of a pointing device
US5754890A (en) 1996-02-01 1998-05-19 Microsoft Corporation System for automatic identification of a computer data entry device interface type using a transistor to sense the voltage generated by the interface and output a matching voltage level
JP3280559B2 (ja) 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
FR2745400B1 (fr) 1996-02-23 1998-05-07 Asulab Sa Dispositif d'entree de donnees dans des moyens electroniques de traitement de ces donnees
US5808602A (en) 1996-03-15 1998-09-15 Compaq Computer Corporation Rotary cursor positioning apparatus
US5721849A (en) 1996-03-29 1998-02-24 International Business Machines Corporation Method, memory and apparatus for postponing transference of focus to a newly opened window
US5815141A (en) 1996-04-12 1998-09-29 Elo Touch Systems, Inc. Resistive touchscreen having multiple selectable regions for pressure discrimination
AU2808697A (en) 1996-04-24 1997-11-12 Logitech, Inc. Touch and pressure sensing method and apparatus
US5859629A (en) * 1996-07-01 1999-01-12 Sun Microsystems, Inc. Linear touch input device
US5748185A (en) 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions
US6009336A (en) 1996-07-10 1999-12-28 Motorola, Inc. Hand-held radiotelephone having a detachable display
US5729219A (en) * 1996-08-02 1998-03-17 Motorola, Inc. Selective call radio with contraposed touchpad
US5943044A (en) 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
DE19639119A1 (de) 1996-09-24 1998-03-26 Philips Patentverwaltung Elektronisches Gerät mit einem bidirektionalen Drehschalter
US5812239A (en) 1996-10-22 1998-09-22 Eger; Jeffrey J. Method of and arrangement for the enhancement of vision and/or hand-eye coordination
US5883619A (en) * 1996-11-12 1999-03-16 Primax Electronics Ltd. Computer mouse for scrolling a view of an image
US6128006A (en) 1998-03-26 2000-10-03 Immersion Corporation Force feedback mouse wheel and other control wheels
US6636197B1 (en) 1996-11-26 2003-10-21 Immersion Corporation Haptic feedback effects for control, knobs and other interface devices
JPH10188720A (ja) * 1996-12-26 1998-07-21 Smk Corp キーボードスイッチ
US5889511A (en) * 1997-01-17 1999-03-30 Tritech Microelectronics International, Ltd. Method and system for noise reduction for digitizing devices
US5907318A (en) 1997-01-17 1999-05-25 Medina; Carlos A. Foot-controlled computer mouse
US6300946B1 (en) 1997-01-29 2001-10-09 Palm, Inc. Method and apparatus for interacting with a portable computer
US6227966B1 (en) 1997-02-19 2001-05-08 Kabushiki Kaisha Bandai Simulation device for fostering a virtual creature
JP2957507B2 (ja) 1997-02-24 1999-10-04 インターナショナル・ビジネス・マシーンズ・コーポレイション 小型情報処理機器
US6222528B1 (en) 1997-03-07 2001-04-24 Cirque Corporation Method and apparatus for data input
US5909211A (en) 1997-03-25 1999-06-01 International Business Machines Corporation Touch pad overlay driven computer system
FI115689B (fi) 1997-05-21 2005-06-15 Nokia Corp Menetelmä ja järjestely matkaviestimen näytöllä esitettävän tiedon vierittämiseksi
US6031518A (en) 1997-05-30 2000-02-29 Microsoft Corporation Ergonomic input device
DE19722636A1 (de) 1997-06-01 1998-12-03 Kilian Fremmer Eingabegerät, "Multimaus"
US5953000A (en) 1997-06-02 1999-09-14 Weirich; John P. Bounded-display-surface system for the input and output of computer data and video graphics
JP4137219B2 (ja) 1997-06-05 2008-08-20 アルプス電気株式会社 データ入力装置
US5910802A (en) 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US6141068A (en) 1997-06-13 2000-10-31 Seiko Epson Corporation Display devices, electronic apparatus using the same, and polarized light separator
USD402281S (en) 1997-06-18 1998-12-08 Microsoft Corporation Positional control device
JPH1115596A (ja) 1997-06-19 1999-01-22 Alps Electric Co Ltd データ入力装置
US6020760A (en) 1997-07-16 2000-02-01 Altera Corporation I/O buffer circuit with pin multiplexing
TW462026B (en) 1997-07-19 2001-11-01 Primax Electronics Ltd Method for applying a 3D mouse in windows software
US6166721A (en) 1997-07-25 2000-12-26 Mitsumi Electric Co., Ltd. Mouse as computer input device having additional mechanism for controlling additional function such as scrolling
KR100294260B1 (ko) * 1997-08-06 2001-07-12 윤종용 터치패널장치및터치패널장치가설치된휴대용컴퓨터
KR19990015738A (ko) 1997-08-08 1999-03-05 윤종용 터치패드 입력 제어기능을 갖는 휴대형 컴퓨터
JP3978818B2 (ja) 1997-08-08 2007-09-19 ソニー株式会社 微小ヘッド素子の製造方法
US5933102A (en) 1997-09-24 1999-08-03 Tanisys Technology, Inc. Capacitive sensitive switch method and system
KR200225264Y1 (ko) 1997-10-01 2001-06-01 김순택 휴대용 표시장치
US6496181B1 (en) 1997-10-03 2002-12-17 Siemens Information And Communication Mobile Llc Scroll select-activate button for wireless terminals
FR2770022B1 (fr) * 1997-10-20 1999-12-03 Itt Mfg Enterprises Inc Commutateur electrique multiple a levier unique d'actionnement
US6181322B1 (en) * 1997-11-07 2001-01-30 Netscape Communications Corp. Pointing device having selection buttons operable from movement of a palm portion of a person's hands
US6211861B1 (en) * 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6243078B1 (en) 1998-06-23 2001-06-05 Immersion Corporation Pointing device with forced feedback button
JP3865169B2 (ja) 1997-11-28 2007-01-10 ソニー株式会社 通信端末装置及び通信端末装置の制御方法
US6256011B1 (en) 1997-12-03 2001-07-03 Immersion Corporation Multi-function control device with force feedback
JP3861273B2 (ja) 1997-12-18 2006-12-20 ソニー株式会社 携帯情報端末装置及び携帯情報端末装置の情報表示制御方法
JPH11184601A (ja) 1997-12-22 1999-07-09 Sony Corp 携帯情報端末装置、画面スクロール方法、記録媒体およびマイクロコンピュータ装置
US5933141A (en) 1998-01-05 1999-08-03 Gateway 2000, Inc. Mutatably transparent displays
JPH11194872A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk 接触操作型入力装置およびその電子部品
JPH11194883A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk タッチ操作型コンピュータ
JPH11194863A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk タッチ入力検知方法及びタッチ入力検知装置
GB2333215B (en) 1998-01-13 2002-05-08 Sony Electronics Inc Systems and methods for enabling manipulation of a plurality of graphic images on a display screen
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
KR100595920B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6225980B1 (en) 1998-02-06 2001-05-01 Carnegie Mellon University Multi-functional, rotary dial input device for portable computers
US6259491B1 (en) 1998-02-06 2001-07-10 Motorola, Inc. Double sided laminated liquid crystal display touchscreen and method of making same for use in a wireless communication device
TW469379B (en) 1998-02-16 2001-12-21 Sony Computer Entertainment Inc Portable electronic device
US6313853B1 (en) * 1998-04-16 2001-11-06 Nortel Networks Limited Multi-service user interface
JPH11311523A (ja) 1998-04-28 1999-11-09 Aisin Aw Co Ltd 車両用ナビゲーション装置
USD412940S (en) 1998-05-14 1999-08-17 Sega Enterprises, Ltd. Video game machine
USD437860S1 (en) * 1998-06-01 2001-02-20 Sony Corporation Selector for audio visual apparatus
TW541193B (en) 1998-06-01 2003-07-11 Sony Computer Entertainment Inc Portable electronic machine and entertaining system
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6262717B1 (en) 1998-07-02 2001-07-17 Cirque Corporation Kiosk touch pad
AU5215099A (en) 1998-07-07 2000-01-24 Goodyear Tire And Rubber Company, The Method of fabricating silicon capacitive sensor
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
TW383883U (en) 1998-08-18 2000-03-01 Ind Tech Res Inst Remote network browser with turning button selection element
JP4019515B2 (ja) 1998-08-21 2007-12-12 松下電器産業株式会社 押圧・回動操作型電子部品およびこれを用いた通信端末機器
US6002093A (en) 1998-08-21 1999-12-14 Dell Usa, L.P. Button with flexible cantilever
US6188393B1 (en) * 1998-10-05 2001-02-13 Sysgration Ltd. Scroll bar input device for mouse
US6198473B1 (en) * 1998-10-06 2001-03-06 Brad A. Armstrong Computer mouse with enhance control button (s)
US6225976B1 (en) 1998-10-30 2001-05-01 Interlink Electronics, Inc. Remote computer input peripheral
US6678891B1 (en) 1998-11-19 2004-01-13 Prasara Technologies, Inc. Navigational user interface for interactive television
GB2345193B (en) 1998-12-22 2002-07-24 Nokia Mobile Phones Ltd Metallic keys
JP2000200147A (ja) 1999-01-06 2000-07-18 Fujitsu Takamisawa Component Ltd 入力装置
US6552719B2 (en) 1999-01-07 2003-04-22 Microsoft Corporation System and method for automatically switching between writing and text input modes
JP2000215549A (ja) 1999-01-22 2000-08-04 Sony Corp 携帯型音声再生装置
EP1153404B1 (de) 1999-01-26 2011-07-20 QRG Limited Kapazitiver messwandler und anordnung
US6104790A (en) 1999-01-29 2000-08-15 International Business Machines Corporation Graphical voice response system and method therefor
US6373265B1 (en) 1999-02-02 2002-04-16 Nitta Corporation Electrostatic capacitive touch sensor
US6377530B1 (en) * 1999-02-12 2002-04-23 Compaq Computer Corporation System and method for playing compressed audio data
JP4172867B2 (ja) 1999-02-22 2008-10-29 富士通コンポーネント株式会社 ホイール付きマウス
SE513866C2 (sv) 1999-03-12 2000-11-20 Spectronic Ab Hand- eller fickburen elektronikapparat samt handstyrd inmatningsenhet
JP2000267797A (ja) 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
JP2000267786A (ja) 1999-03-16 2000-09-29 Ntt Docomo Inc 情報通信機器
JP2000267777A (ja) 1999-03-16 2000-09-29 Internatl Business Mach Corp <Ibm> タッチパネルを用いた数値の入力方法および入力装置
US6338013B1 (en) 1999-03-19 2002-01-08 Bryan John Ruffner Multifunctional mobile appliance
US6147856A (en) 1999-03-31 2000-11-14 International Business Machine Corporation Variable capacitor with wobble motor disc selector
TW431607U (en) 1999-04-02 2001-04-21 Quanta Comp Inc Touch plate structure for notebook computer
USD443616S1 (en) 1999-04-06 2001-06-12 Microsoft Corporation Portion of a computer input device
USD442592S1 (en) 1999-04-06 2001-05-22 Microsoft Corporation Portion of a computer input device
JP3742529B2 (ja) 1999-05-10 2006-02-08 アルプス電気株式会社 座標入力装置
US6977808B2 (en) 1999-05-14 2005-12-20 Apple Computer, Inc. Display housing for computing device
US6357887B1 (en) * 1999-05-14 2002-03-19 Apple Computers, Inc. Housing for a computing device
US6297811B1 (en) 1999-06-02 2001-10-02 Elo Touchsystems, Inc. Projective capacitive touchscreen
JP2000353045A (ja) 1999-06-09 2000-12-19 Canon Inc 携帯型情報処理装置およびフォーカス移動制御方法
US7151528B2 (en) * 1999-06-22 2006-12-19 Cirque Corporation System for disposing a proximity sensitive touchpad behind a mobile phone keypad
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001023473A (ja) 1999-07-07 2001-01-26 Matsushita Electric Ind Co Ltd 移動体通信端末装置およびこれに用いる透明タッチパネルスイッチ
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6677927B1 (en) * 1999-08-23 2004-01-13 Microsoft Corporation X-Y navigation input device
JP2001076582A (ja) 1999-09-01 2001-03-23 Matsushita Electric Ind Co Ltd 電子機器
US6492979B1 (en) 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
US6641154B1 (en) 1999-09-09 2003-11-04 Jeffrey Vey Air bladder suspension for three-wheeled vehicle
US6606244B1 (en) * 1999-09-10 2003-08-12 Saint Song Corp. Pointing device having computer host
US6865718B2 (en) 1999-09-29 2005-03-08 Microsoft Corp. Accelerated scrolling
US6424338B1 (en) 1999-09-30 2002-07-23 Gateway, Inc. Speed zone touchpad
JP4222704B2 (ja) 1999-10-12 2009-02-12 株式会社ノーバス 情報入力装置
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US6844871B1 (en) 1999-11-05 2005-01-18 Microsoft Corporation Method and apparatus for computer input using six degrees of freedom
US7006077B1 (en) 1999-11-30 2006-02-28 Nokia Mobile Phones, Ltd. Electronic device having touch sensitive slide
USD430169S (en) 1999-12-15 2000-08-29 Advanced Communication Design, Inc. Interactive multimedia control panel with speakers
US6978127B1 (en) 1999-12-16 2005-12-20 Koninklijke Philips Electronics N.V. Hand-ear user interface for hand-held device
US6248017B1 (en) 1999-12-23 2001-06-19 Hasbro, Inc Hand-held electronic game with rotatable display
US6179496B1 (en) * 1999-12-28 2001-01-30 Shin Jiuh Corp. Computer keyboard with turnable knob
US20040252867A1 (en) 2000-01-05 2004-12-16 Je-Hsiung Lan Biometric sensor
US6373470B1 (en) * 2000-01-12 2002-04-16 Apple Computer, Inc. Cursor control device having an integral top member
US6844872B1 (en) * 2000-01-12 2005-01-18 Apple Computer, Inc. Computer mouse having side areas to maintain a depressed button position
GB2359177A (en) 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
US6492602B2 (en) 2000-02-10 2002-12-10 Alps Electric Co., Ltd. Two-position pushbutton switch
EP1275079A1 (de) 2000-02-10 2003-01-15 Ergomouse Pty. Ltd. Zeigemittel für einen computer
US20010050673A1 (en) 2000-02-14 2001-12-13 Davenport Anthony G. Ergonomic fingertip computer mouse
DE10011645A1 (de) 2000-03-10 2001-09-13 Ego Elektro Geraetebau Gmbh Berührungsschalter mit einem LC-Display
JP3754268B2 (ja) 2000-04-07 2006-03-08 三洋電機株式会社 キー入力装置及びこれを具えた携帯電話機
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US6639586B2 (en) 2000-04-11 2003-10-28 Cirque Corporation Efficient entry of characters from a large character set into a portable information appliance
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
AU144018S (en) 2000-05-09 2001-05-24 Sony Computer Entertainment Inc Control unit
US6340800B1 (en) * 2000-05-27 2002-01-22 International Business Machines Corporation Multiplexing control device and method for electronic systems
US6640250B1 (en) 2000-05-31 2003-10-28 3Com Corporation Method and apparatus for previewing and selecting a network resource using a rotary knob for user input
US6724817B1 (en) 2000-06-05 2004-04-20 Amphion Semiconductor Limited Adaptive image data compression
JP2001350188A (ja) 2000-06-06 2001-12-21 Olympus Optical Co Ltd カメラ装置
FI108901B (fi) 2000-06-26 2002-04-15 Nokia Corp Kosketustuntumaltaan hyvä sähkömekaaninen tietojen syöttömekanismi
JP3785902B2 (ja) * 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
USD454568S1 (en) * 2000-07-17 2002-03-19 Apple Computer, Inc. Mouse
US7117136B1 (en) 2000-08-18 2006-10-03 Linden Research, Inc. Input and feedback system
JP2002077329A (ja) 2000-08-31 2002-03-15 Nintendo Co Ltd 電子装置
US6497412B1 (en) 2000-09-08 2002-12-24 Peter J. Bramm Method and apparatus for playing a quiz game
US6788288B2 (en) * 2000-09-11 2004-09-07 Matsushita Electric Industrial Co., Ltd. Coordinate input device and portable information apparatus equipped with coordinate input device
JP2002107806A (ja) 2000-09-29 2002-04-10 Fuji Photo Optical Co Ltd 操作ボタン部の構造
US7667123B2 (en) * 2000-10-13 2010-02-23 Phillips Mark E System and method for musical playlist selection in a portable audio device
US6810271B1 (en) 2000-10-31 2004-10-26 Nokia Mobile Phones Ltd. Keypads for electrical devices
DE20019074U1 (de) 2000-11-09 2001-01-18 Siemens Ag Mobile elektronische Vorrichtung mit Anzeige- und Bedienungsorgan
US6897853B2 (en) * 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
USD455793S1 (en) * 2000-12-04 2002-04-16 Legend Technology Co., Ltd. Liquid crystal display monitor for multi-media games
USD452250S1 (en) 2000-12-06 2001-12-18 Perfect Union Co., Ltd. MP3 player
US7054441B2 (en) 2000-12-12 2006-05-30 Research In Motion Limited Mobile device having a protective user interface cover
US20070018970A1 (en) 2000-12-22 2007-01-25 Logitech Europe S.A. Optical slider for input devices
JP2002202855A (ja) 2000-12-28 2002-07-19 Matsushita Electric Ind Co Ltd タッチパネル及びこれを用いた電子機器
US6999804B2 (en) 2001-01-22 2006-02-14 Wildseed, Ltd. Interchangeable covering additions to a mobile communication device for display and key reorientation
JP2002215311A (ja) 2001-01-22 2002-08-02 Sony Corp 携帯端末装置、画面情報の選択方法及びコンピュータ読み取り可能な記録媒体
US20020103796A1 (en) 2001-01-31 2002-08-01 Sonicblue, Inc. Method for parametrically sorting music files
US6686904B1 (en) * 2001-03-30 2004-02-03 Microsoft Corporation Wheel reporting method for a personal computer keyboard interface
US6750803B2 (en) * 2001-02-23 2004-06-15 Interlink Electronics, Inc. Transformer remote control
US6738045B2 (en) 2001-02-26 2004-05-18 Microsoft Corporation Method and system for accelerated data navigation
US6781576B2 (en) 2001-03-14 2004-08-24 Sensation, Inc. Wireless input apparatus and method using a three-dimensional pointing device
USD450713S1 (en) 2001-03-16 2001-11-20 Sony Corporation Audio player
US6873863B2 (en) 2001-03-19 2005-03-29 Nokia Mobile Phones Ltd. Touch sensitive navigation surfaces for mobile telecommunication systems
US6879930B2 (en) * 2001-03-30 2005-04-12 Microsoft Corporation Capacitance touch slider
US6822640B2 (en) 2001-04-10 2004-11-23 Hewlett-Packard Development Company, L.P. Illuminated touch pad
US6608616B2 (en) 2001-04-23 2003-08-19 Silitek Corporation Ergonomic scrolling device
US6587091B2 (en) 2001-04-23 2003-07-01 Michael Lawrence Serpa Stabilized tactile output mechanism for computer interface devices
US7451335B2 (en) * 2001-04-24 2008-11-11 Broadcom Corporation Selectively disabling a portion of ASF operations when ASF device is powered by auxiliary power
US6700564B2 (en) 2001-04-30 2004-03-02 Microsoft Corporation Input device including a wheel assembly for scrolling an image in multiple directions
US7239800B2 (en) 2001-05-02 2007-07-03 David H. Sitrick Portable player for personal video recorders
US7206599B2 (en) 2001-05-09 2007-04-17 Kyocera Wireless Corp. Integral navigation keys for a mobile handset
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US20030043121A1 (en) * 2001-05-22 2003-03-06 Richard Chen Multimedia pointing device
FI20015005A (fi) 2001-05-31 2002-12-01 Nokia Corp Näyttöelimen sisältävä matkaviestin
US7113196B2 (en) 2001-06-15 2006-09-26 Apple Computer, Inc. Computing device with dynamic ornamental appearance
US7452098B2 (en) * 2001-06-15 2008-11-18 Apple Inc. Active enclosure for computing device
US7766517B2 (en) 2001-06-15 2010-08-03 Apple Inc. Active enclosure for computing device
US20020196239A1 (en) 2001-06-26 2002-12-26 Lee Siew Fei Joy-dial for providing input signals to a device
US6791533B2 (en) 2001-06-28 2004-09-14 Behavior Tech Computer Corporation Seamless mouse
JP2003015796A (ja) 2001-07-02 2003-01-17 Sharp Corp キー入力装置
JP2003022057A (ja) 2001-07-09 2003-01-24 Alps Electric Co Ltd 画像信号駆動回路および画像信号駆動回路を備えた表示装置
US20030050092A1 (en) * 2001-08-03 2003-03-13 Yun Jimmy S. Portable digital player--battery
KR100474724B1 (ko) * 2001-08-04 2005-03-08 삼성전자주식회사 터치스크린을 가지는 장치 및 그 장치에 외부디스플레이기기를 연결하여 사용하는 방법
JP4485103B2 (ja) 2001-08-10 2010-06-16 京セラ株式会社 携帯端末装置
US6985137B2 (en) 2001-08-13 2006-01-10 Nokia Mobile Phones Ltd. Method for preventing unintended touch pad input due to accidental touching
US6690365B2 (en) * 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
US6727889B2 (en) * 2001-09-14 2004-04-27 Stephen W. Shaw Computer mouse input device with multi-axis palm control
JP2003099198A (ja) 2001-09-25 2003-04-04 Shinichi Komatsu 4接点入力によるタッチパネル
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
USD469109S1 (en) * 2001-10-22 2003-01-21 Apple Computer, Inc. Media player
US20070085841A1 (en) 2001-10-22 2007-04-19 Apple Computer, Inc. Method and apparatus for accelerated scrolling
US7084856B2 (en) * 2001-10-22 2006-08-01 Apple Computer, Inc. Mouse having a rotary dial
US7312785B2 (en) * 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7046230B2 (en) * 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
US7345671B2 (en) * 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
JP2003150303A (ja) 2001-11-09 2003-05-23 Ota Kazuhiko 2段階選択型文字入力装置
TWI220491B (en) 2001-11-09 2004-08-21 Prolific Technology Inc Input device and input method thereof
US7009599B2 (en) 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
US6825833B2 (en) 2001-11-30 2004-11-30 3M Innovative Properties Company System and method for locating a touch on a capacitive touch screen
KR200265059Y1 (ko) 2001-11-30 2002-02-21 주식회사 성림정공 용기 마개
US20060232557A1 (en) 2001-12-11 2006-10-19 Wolfgang Fallot-Burghardt Combination consisting of a computer keyboard and mouse control device
FI20012610A (fi) 2001-12-31 2003-07-01 Nokia Corp Elektroninen laite ja ohjauselin
JP2003296015A (ja) 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
JP2005301322A (ja) 2002-02-07 2005-10-27 Kathenas Inc 入力装置、携帯電話機及び携帯情報機器
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US6795057B2 (en) 2002-02-28 2004-09-21 Agilent Technologies, Inc. Facile ergonomic computer pointing device
US6658773B2 (en) 2002-03-11 2003-12-09 Dennis Rohne Label with luminescence inside
USD468365S1 (en) * 2002-03-12 2003-01-07 Digisette, Llc Dataplay player
US7233318B1 (en) 2002-03-13 2007-06-19 Apple Inc. Multi-button mouse
JP4175007B2 (ja) 2002-03-22 2008-11-05 松下電器産業株式会社 回転操作型入力装置
JP2003280799A (ja) 2002-03-25 2003-10-02 Sony Corp 情報入力装置とそれを用いた電子機器
EP1351121A3 (de) 2002-03-26 2009-10-21 Polymatech Co., Ltd. Eingabevorrichtung
JP4020246B2 (ja) 2002-03-26 2007-12-12 ポリマテック株式会社 タッチパッド装置
TW564694U (en) 2002-03-28 2003-12-01 Universal Trim Supply Co Ltd Safety surface buckle capable of preventing children from biting
US7466307B2 (en) 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
JP2003323259A (ja) 2002-05-02 2003-11-14 Nec Corp 情報処理装置
DE50308334D1 (de) 2002-05-07 2007-11-22 Schott Ag Beleuchtungseinrichtung für Schaltflächen
USD483809S1 (en) 2002-05-13 2003-12-16 Storm Electronics Company Limited System selector for electronic game console
JP4090939B2 (ja) 2002-05-29 2008-05-28 ニッタ株式会社 静電容量式センサおよびその製造方法
US7780463B2 (en) 2002-06-11 2010-08-24 Henry Milan Selective flash memory drive with quick connector
US7327352B2 (en) 2002-06-14 2008-02-05 3M Innovative Properties Company Linearized conductive surface
DE10228185A1 (de) 2002-06-24 2004-01-22 Völckers, Oliver Einrichtung zur Erfassung einer mechanischen Betätigung eines Eingabeelementes mittels digitaler Technik und Verfahren zur Verarbeitung und Umwandlung des digitalen Eingabesignals in Befehle zur Steuerung eines Verbrauchers
JP4147839B2 (ja) 2002-06-26 2008-09-10 ポリマテック株式会社 スライド式多方向入力キー
JP4086564B2 (ja) 2002-07-04 2008-05-14 キヤノン株式会社 スイッチボタン及び記録装置
US7743000B2 (en) * 2002-07-16 2010-06-22 Hewlett-Packard Development Company, L.P. Printer
TW547716U (en) 2002-07-31 2003-08-11 Jia-Jen Wu Positioning structure for the cursor on a touch panel of portable computer
US7446757B2 (en) * 2002-09-17 2008-11-04 Brother Kogyo Kabushiki Kaisha Foldable display, input device provided with the display and foldable keyboard, and personal computer provided with the input device
US7196931B2 (en) 2002-09-24 2007-03-27 Sandisk Corporation Non-volatile memory and method with reduced source line bias errors
TWM243724U (en) 2002-09-26 2004-09-11 Wistron Corp Button illumination module for data processing device
US6894916B2 (en) 2002-09-27 2005-05-17 International Business Machines Corporation Memory array employing single three-terminal non-volatile storage elements
US20040080682A1 (en) 2002-10-29 2004-04-29 Dalton Dan L. Apparatus and method for an improved electronic display
JP3900063B2 (ja) 2002-10-30 2007-04-04 株式会社デンソー 携帯機のケース
MXPA03009945A (es) 2002-11-05 2007-04-16 Lg Electronics Inc Montaje para montar una pantalla de toque para un monitor con pantalla de cristal liquido.
JP4205408B2 (ja) 2002-11-20 2009-01-07 大日本印刷株式会社 商品情報管理システム及び商品情報管理プログラム
US6784384B2 (en) 2002-12-03 2004-08-31 Samsung Electronics Co., Ltd. Rotation key device for a portable terminal
US7236154B1 (en) 2002-12-24 2007-06-26 Apple Inc. Computer light adjustment
TWI237282B (en) 2003-01-07 2005-08-01 Pentax Corp Push button device having an illuminator
US7730430B2 (en) 2003-01-24 2010-06-01 Microsoft Corporation High density cursor system and method
JP4344639B2 (ja) 2003-04-11 2009-10-14 日本航空電子工業株式会社 押圧操作型スイッチユニット
US7627343B2 (en) 2003-04-25 2009-12-01 Apple Inc. Media player system
US7392411B2 (en) 2003-04-25 2008-06-24 Ati Technologies, Inc. Systems and methods for dynamic voltage scaling of communication bus to provide bandwidth based on whether an application is active
USD497618S1 (en) 2003-04-25 2004-10-26 Apple Computer, Inc. Media device
ATE499793T1 (de) 2003-05-08 2011-03-15 Nokia Corp Mobilfon mit rotierender eingabevorrichtung
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US20040239622A1 (en) 2003-05-30 2004-12-02 Proctor David W. Apparatus, systems and methods relating to improved user interaction with a computing device
JP2004362097A (ja) 2003-06-03 2004-12-24 Fujitsu Ltd スクロール機能付きグライドポイント装置、パーソナルコンピュータ、キーボードおよびプログラム
US20040253989A1 (en) 2003-06-12 2004-12-16 Tupler Amy M. Radio communication device having a navigational wheel
FI116548B (fi) 2003-06-18 2005-12-15 Nokia Corp Digitaalinen monisuuntainen ohjauskytkin
US9160714B2 (en) 2003-06-30 2015-10-13 Telefonaktiebolaget L M Ericsson (Publ) Using tunneling to enhance remote LAN connectivity
US7250907B2 (en) 2003-06-30 2007-07-31 Microsoft Corporation System and methods for determining the location dynamics of a portable computing device
JP2005030901A (ja) 2003-07-11 2005-02-03 Alps Electric Co Ltd 容量センサ
US7265686B2 (en) 2003-07-15 2007-09-04 Tyco Electronics Corporation Touch sensor with non-uniform resistive band
KR100522940B1 (ko) 2003-07-25 2005-10-24 삼성전자주식회사 활성영역을 설정 가능한 터치스크린 시스템 및 그 제어방법
USD489731S1 (en) 2003-08-05 2004-05-11 Tatung Co., Ltd. Portable media player
US20050030048A1 (en) * 2003-08-05 2005-02-10 Bolender Robert J. Capacitive sensing device for use in a keypad assembly
US7499040B2 (en) 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
US20070152977A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Illuminated touchpad
US20060181517A1 (en) 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
GB2418493B (en) 2003-08-21 2006-11-15 Harald Philipp Capacitive position sensor
US6930494B2 (en) 2003-08-29 2005-08-16 Agilent Technologies, Inc. Capacitive probe assembly with flex circuit
JP4214025B2 (ja) 2003-09-04 2009-01-28 株式会社東海理化電機製作所 モニタ表示制御装置
US20050052426A1 (en) 2003-09-08 2005-03-10 Hagermoser E. Scott Vehicle touch input device and methods of making same
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7280346B2 (en) 2003-09-29 2007-10-09 Danger, Inc. Adjustable display for a data processing apparatus
US8068186B2 (en) 2003-10-15 2011-11-29 3M Innovative Properties Company Patterned conductor touch screen having improved optics
US7181251B2 (en) 2003-10-22 2007-02-20 Nokia Corporation Mobile communication terminal with multi orientation user interface
US8059099B2 (en) 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
US7495659B2 (en) 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
US20050113144A1 (en) 2003-11-26 2005-05-26 Tupler Amy M. Pivotal display for a mobile communications device
KR100754687B1 (ko) 2003-12-12 2007-09-03 삼성전자주식회사 휴대단말기의 멀티입력부 및 그의 제어방법
JP4165646B2 (ja) 2003-12-25 2008-10-15 ポリマテック株式会社 キーシート
US7307624B2 (en) 2003-12-30 2007-12-11 3M Innovative Properties Company Touch sensor with linearized response
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
CA106580S (en) 2004-01-05 2005-10-31 Apple Computer Media device
US20050162402A1 (en) 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
WO2005076117A1 (ja) 2004-02-10 2005-08-18 Takuya Ogihara タッチスクリーン式入力装置
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7487441B2 (en) 2004-03-11 2009-02-03 Yahoo!Inc. Method and system of enhanced messaging
US7623119B2 (en) 2004-04-21 2009-11-24 Nokia Corporation Graphical functions by gestures
EP1589407B1 (de) 2004-04-22 2007-10-10 Sony Ericsson Mobile Communications AB Steuerschnittstelle für ein elektronisches Gerät
US7310089B2 (en) 2004-05-18 2007-12-18 Interlink Electronics, Inc. Annular potentiometric touch sensor
US7382139B2 (en) 2004-06-03 2008-06-03 Synaptics Incorporated One layer capacitive sensing apparatus having varying width sensing elements
KR101146750B1 (ko) 2004-06-17 2012-05-17 아드레아 엘엘씨 터치 스크린 상에서 2개-손가락에 의한 입력을 탐지하는 시스템 및 방법과, 터치 스크린 상에서 적어도 2개의 손가락을 통한 3-차원 터치를 센싱하는 시스템 및 방법
CN100555200C (zh) 2004-08-16 2009-10-28 苹果公司 触敏器件和提高触敏器件的空间分辨率的方法
US7737953B2 (en) 2004-08-19 2010-06-15 Synaptics Incorporated Capacitive sensing apparatus having varying depth sensing elements
WO2006021211A2 (en) 2004-08-23 2006-03-02 Bang & Olufsen A/S Operating panel
DE102004043663B4 (de) 2004-09-07 2006-06-08 Infineon Technologies Ag Halbleitersensorbauteil mit Hohlraumgehäuse und Sensorchip und Verfahren zur Herstellung eines Halbleitersensorbauteils mit Hohlraumgehäuse und Sensorchip
US7735012B2 (en) 2004-11-04 2010-06-08 Apple Inc. Audio user interface for computing devices
FR2878646B1 (fr) 2004-11-26 2007-02-09 Itt Mfg Enterprises Inc Commutateur electrique a voies de commutation multiples
JP4319975B2 (ja) 2004-12-21 2009-08-26 アルプス電気株式会社 入力装置
EP1677182B1 (de) 2004-12-28 2014-04-23 Sony Mobile Communications Japan, Inc. Anzeigeverfahren, tragbares Endgerät und Anzeigeprogramm
JP4238222B2 (ja) 2005-01-04 2009-03-18 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクト編集システム、オブジェクト編集方法及びオブジェクト編集プログラム
US7593782B2 (en) 2005-01-07 2009-09-22 Apple Inc. Highly portable media device
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US7466040B2 (en) 2005-04-19 2008-12-16 Frederick Johannes Bruwer Touch sensor controlled switch with intelligent user interface
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US8300841B2 (en) 2005-06-03 2012-10-30 Apple Inc. Techniques for presenting sound effects on a portable media player
KR100538572B1 (ko) 2005-06-14 2005-12-23 (주)멜파스 시각적 입력 피드백을 포함하는 사용자 접촉 기반의 디지털기기 제어 장치 및 방법
US7279647B2 (en) 2005-06-17 2007-10-09 Harald Philipp Control panel
US7288732B2 (en) 2005-07-06 2007-10-30 Alps Electric Co., Ltd. Multidirectional input device
JP4256866B2 (ja) 2005-09-01 2009-04-22 ポリマテック株式会社 キーシート及びキーシートの製造方法
US7503193B2 (en) 2005-09-02 2009-03-17 Bsh Home Appliances Corporation Button apparatus and method of manufacture
US7671837B2 (en) * 2005-09-06 2010-03-02 Apple Inc. Scrolling input arrangements using capacitive sensors on a flexible membrane
US7880729B2 (en) 2005-10-11 2011-02-01 Apple Inc. Center button isolation ring
JP2007123473A (ja) 2005-10-27 2007-05-17 Alps Electric Co Ltd 軟磁性膜及びその製造方法、ならびに前記軟磁性膜を用いた薄膜磁気ヘッド及びその製造方法
US8552988B2 (en) 2005-10-31 2013-10-08 Hewlett-Packard Development Company, L.P. Viewing device having a touch pad
US7839391B2 (en) 2005-11-04 2010-11-23 Electronic Theatre Controls, Inc. Segmented touch screen console with module docking
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
US7788607B2 (en) 2005-12-01 2010-08-31 Navisense Method and system for mapping virtual coordinates
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
JP4463770B2 (ja) 2006-01-25 2010-05-19 Ykk株式会社 物理量検出器の製造方法
KR100767686B1 (ko) 2006-03-30 2007-10-17 엘지전자 주식회사 터치휠을 구비한 단말기 및 이를 위한 명령 입력 방법
DE202007005237U1 (de) 2006-04-25 2007-07-05 Philipp, Harald, Southampton Hybrides kapazitives Berührungsbildschirmelement
US20070247421A1 (en) 2006-04-25 2007-10-25 Timothy James Orsley Capacitive-based rotational positioning input device
US20070252853A1 (en) 2006-04-28 2007-11-01 Samsung Electronics Co., Ltd. Method and apparatus to control screen orientation of user interface of portable device
US7996788B2 (en) 2006-05-18 2011-08-09 International Apparel Group, Llc System and method for navigating a dynamic collection of information
US8059102B2 (en) 2006-06-13 2011-11-15 N-Trig Ltd. Fingertip touch recognition for a digitizer
US20070291016A1 (en) 2006-06-20 2007-12-20 Harald Philipp Capacitive Position Sensor
US8068097B2 (en) 2006-06-27 2011-11-29 Cypress Semiconductor Corporation Apparatus for detecting conductive material of a pad layer of a sensing device
US8022935B2 (en) * 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US9360967B2 (en) * 2006-07-06 2016-06-07 Apple Inc. Mutual capacitance touch sensing device
US8743060B2 (en) 2006-07-06 2014-06-03 Apple Inc. Mutual capacitance touch sensing device
US20080007529A1 (en) 2006-07-07 2008-01-10 Tyco Electronics Corporation Touch sensor
US20080006454A1 (en) * 2006-07-10 2008-01-10 Apple Computer, Inc. Mutual capacitance touch sensing device
US7688080B2 (en) 2006-07-17 2010-03-30 Synaptics Incorporated Variably dimensioned capacitance sensor elements
US7253643B1 (en) 2006-07-19 2007-08-07 Cypress Semiconductor Corporation Uninterrupted radial capacitive sense interface
CN101110299B (zh) 2006-07-21 2012-07-25 深圳富泰宏精密工业有限公司 按键结构及应用该结构的便携式电子装置
US7645955B2 (en) 2006-08-03 2010-01-12 Altek Corporation Metallic linkage-type keying device
US20080036473A1 (en) 2006-08-09 2008-02-14 Jansson Hakan K Dual-slope charging relaxation oscillator for measuring capacitance
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7795553B2 (en) 2006-09-11 2010-09-14 Apple Inc. Hybrid button
US20080069412A1 (en) 2006-09-15 2008-03-20 Champagne Katrina S Contoured biometric sensor
US7965281B2 (en) 2006-10-03 2011-06-21 Synaptics, Inc. Unambiguous capacitance sensing using shared inputs
US8786553B2 (en) 2006-10-06 2014-07-22 Kyocera Corporation Navigation pad and method of using same
US20080088597A1 (en) 2006-10-11 2008-04-17 Apple Inc. Sensor configurations in a user input device
US20080088600A1 (en) 2006-10-11 2008-04-17 Apple Inc. Method and apparatus for implementing multiple push buttons in a user input device
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
US7772507B2 (en) 2006-11-03 2010-08-10 Research In Motion Limited Switch assembly and associated handheld electronic device
US8482530B2 (en) 2006-11-13 2013-07-09 Apple Inc. Method of capacitively sensing finger position
US20080110739A1 (en) 2006-11-13 2008-05-15 Cypress Semiconductor Corporation Touch-sensor device having electronic component situated at least partially within sensor element perimeter
US20080143681A1 (en) 2006-12-18 2008-06-19 Xiaoping Jiang Circular slider with center button
JP5041135B2 (ja) 2006-12-26 2012-10-03 ライオン株式会社 口腔用組成物及び口腔バイオフィルム形成抑制剤
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US9813531B2 (en) 2007-01-22 2017-11-07 Sisvel International S.A. System and method for screen orientation in a rich media environment
GB2446702A (en) 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
US20080196945A1 (en) 2007-02-21 2008-08-21 Jason Konstas Preventing unintentional activation of a sensor element of a sensing device
KR100868353B1 (ko) 2007-03-08 2008-11-12 한국화학연구원 도파민 d4 수용체 길항제인 신규 피페라지닐프로필피라졸유도체, 이의 제조방법 및 이를 포함하는 약학적 조성물
US20090033635A1 (en) 2007-04-12 2009-02-05 Kwong Yuen Wai Instruments, Touch Sensors for Instruments, and Methods or Making the Same
CN101295595B (zh) 2007-04-26 2012-10-10 鸿富锦精密工业(深圳)有限公司 按键
US7742783B2 (en) 2007-05-10 2010-06-22 Virgin Mobile Usa, L.P. Symmetric softkeys on a mobile electronic device
US20090036176A1 (en) 2007-08-01 2009-02-05 Ure Michael J Interface with and communication between mobile electronic devices
US20090058802A1 (en) 2007-08-27 2009-03-05 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Input device
US7910843B2 (en) 2007-09-04 2011-03-22 Apple Inc. Compact input device
US20090058801A1 (en) 2007-09-04 2009-03-05 Apple Inc. Fluid motion user interface control
US20090073130A1 (en) 2007-09-17 2009-03-19 Apple Inc. Device having cover with integrally formed sensor
KR100836628B1 (ko) 2007-09-20 2008-06-10 삼성전기주식회사 회전식 입력장치
US20090109181A1 (en) 2007-10-26 2009-04-30 Research In Motion Limited Touch screen and electronic device
JP5080938B2 (ja) 2007-10-31 2012-11-21 株式会社竹中工務店 制振装置
US8416198B2 (en) 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
US8125461B2 (en) 2008-01-11 2012-02-28 Apple Inc. Dynamic input graphic display
JP5217464B2 (ja) 2008-01-31 2013-06-19 株式会社ニコン 照明装置、プロジェクタ、およびカメラ
US8820133B2 (en) 2008-02-01 2014-09-02 Apple Inc. Co-extruded materials and methods
US9454256B2 (en) 2008-03-14 2016-09-27 Apple Inc. Sensor configurations of an input device that are switchable based on mode
US20100058251A1 (en) 2008-08-27 2010-03-04 Apple Inc. Omnidirectional gesture detection
US20100060568A1 (en) 2008-09-05 2010-03-11 Apple Inc. Curved surface input device with normalized capacitive sensing
JP5274956B2 (ja) 2008-09-19 2013-08-28 株式会社ニューギン 遊技機
US8816967B2 (en) 2008-09-25 2014-08-26 Apple Inc. Capacitive sensor having electrodes arranged on the substrate and the flex circuit
US8395590B2 (en) 2008-12-17 2013-03-12 Apple Inc. Integrated contact switch and touch sensor elements
JP5298955B2 (ja) 2009-03-02 2013-09-25 日本電気株式会社 ノード装置、運用監視装置、処理方法、およびプログラム
US9354751B2 (en) 2009-05-15 2016-05-31 Apple Inc. Input device with optimized capacitive sensing
US8872771B2 (en) 2009-07-07 2014-10-28 Apple Inc. Touch sensing device having conductive nodes
JP5211021B2 (ja) 2009-11-26 2013-06-12 東芝テック株式会社 商品情報入力装置およびその制御プログラム
JP5265656B2 (ja) 2010-12-27 2013-08-14 ヤフー株式会社 クラスタリング装置及びクラスタリング方法
JP5205565B2 (ja) 2011-03-03 2013-06-05 株式会社カラット 油分分離方法及び油切トラップ
JP5101741B2 (ja) 2011-04-08 2012-12-19 シャープ株式会社 半導体装置と、それを用いたインバータ、コンバータおよび電力変換装置

Also Published As

Publication number Publication date
US20190033996A1 (en) 2019-01-31
WO2005057328A2 (en) 2005-06-23
TWI262427B (en) 2006-09-21
EP2284658A2 (de) 2011-02-16
EP1687684A4 (de) 2007-05-09
CN1637776A (zh) 2005-07-13
EP1687684A2 (de) 2006-08-09
US20080012837A1 (en) 2008-01-17
CN100369054C (zh) 2008-02-13
US20140191990A1 (en) 2014-07-10
US8552990B2 (en) 2013-10-08
WO2005057328A3 (en) 2006-09-21
HK1123860A1 (en) 2009-06-26
US7495659B2 (en) 2009-02-24
US20050110768A1 (en) 2005-05-26
EP2284658B1 (de) 2018-11-28
EP2284658A3 (de) 2014-09-24
CN101201715B (zh) 2012-02-15
TW200517928A (en) 2005-06-01
CN101201715A (zh) 2008-06-18

Similar Documents

Publication Publication Date Title
DE202004021283U1 (de) Berührungsfeld für eine tragbare Vorrichtung
DE102008063354B4 (de) Selektive Zurückweisung von Berührungskontakten in einem Kantenbereich einer Berührungsoberfläche
DE212007000026U1 (de) Vorrichtung zum Implementieren mehrerer Drucktasten in einer Benutzereingabevorrichtung
CN103631496B (zh) 利用触摸敏感设备控制、操纵和编辑媒体文件的姿态
DE202004021453U1 (de) Bewegliches Berührungsfeld mit hinzugefügter Funktionalität
CN201181467Y (zh) 手持移动通信装置
DE20221853U1 (de) Vorrichtung zur Benutzung von drehenden Benutzereingaben
DE202005021492U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE102008028223B4 (de) Modusabhängige Verarbeitung von Berührungsdaten
US8514185B2 (en) Mutual capacitance touch sensing device
CN201266371Y (zh) 手持移动通信装置
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
US20120139860A1 (en) Multi-touch skins spanning three dimensions
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE202008007776U1 (de) Berührungsbildschirme mit Widerständen aus transparentem leitenden Material
DE112010002760T5 (de) Benutzerschnittstelle
DE212006000028U1 (de) Multifunktionale Handgehaltene Vorrichtung
DE102012223250A1 (de) Berührungssensor mit mehreren Oberflächen und Betriebsartenauswahl
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE202009007458U1 (de) Optisches Eingabegerät
CN108563383A (zh) 一种图像查看方法及移动终端
CN108932057A (zh) 操作控制方法、装置、存储介质及电子设备
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20070628

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20070524

R081 Change of applicant/patentee

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: APPLE COMPUTER, INC., CUPERTINO, CALIF., US

Effective date: 20071108

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20100907

R152 Utility model maintained after payment of third maintenance fee after eight years
R152 Utility model maintained after payment of third maintenance fee after eight years

Effective date: 20120824

R071 Expiry of right
R071 Expiry of right