DE10012572A1 - Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem - Google Patents
Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein ZielführungssystemInfo
- Publication number
- DE10012572A1 DE10012572A1 DE10012572A DE10012572A DE10012572A1 DE 10012572 A1 DE10012572 A1 DE 10012572A1 DE 10012572 A DE10012572 A DE 10012572A DE 10012572 A DE10012572 A DE 10012572A DE 10012572 A1 DE10012572 A1 DE 10012572A1
- Authority
- DE
- Germany
- Prior art keywords
- speech
- additional information
- database
- destination
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
Bei einer Vorrichtung zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem im Echzeitbetrieb mit Mitteln, durch die eine eingebene Sprachäußerung eines Benutzers mittels einer Spracherkennungseinrichtung erfaßt, mit gespeicherten Sprachäußerungen verglichen sowie gemäß ihrer Erkennungswahrscheinlichkeit klassifiziert wird und durch die die gespeicherte Sprachäußerung mit der größten Erkennungswahrscheinlichkeit als die eingegebene Sprachäußerung erkannt wird, sind die einem Zielort zugeordneten gespeicherten Sprachäußerungen zumindest aus dem Zielortnamen und mindestens einer den Zielortnamen eindeutig identifizierenden, regional einschränkenden Zusatzinformation zusammengesetzt, wobei jeder Zielortname mit einem Hinweissymbol in einer ersten Datenbasis und jede Zusatzinformation in einer zweiten Datenbasis abgelegt ist.
Description
Die Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zur
Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in
ein Zielführungssystem nach dem Oberbegriff des Patentanspruchs 1.
Eine derartige Vorrichtung und ein derartiges Verfahren ist beispielsweise
aus der DE 197 09 518 C1 bekannt. Bei diesem bekannten Verfahren
werden dem Benutzer mehrere durch Sprachkommandos auswählbare
Bedienfunktionen angeboten. Zu jeder auswählbaren Bedienfunktion wird ein
Lexikon aus einer Gesamdatenbank generiert, wodurch eine schnellere und
bedienerfreundlichere sprachgesteuerte Suche nach Zieladressen
ermöglicht werden soll. Die DE 197 09 518 C1 geht dabei von bekannten
Systemen aus, die ein Buchstabieren der Zielorte erfordern. Doch auch bei
einem Zielführungssystem nach der DE 197 09 518 C1 liegt keine
benutzerfreundliche Eingabemöglichkeit vor, da vor einer Zielorteingabe erst
ein Sprachkommando für die Auswahl einer gewünschten Bedienfunktion
erforderlich ist. Der Benutzer muß vor einer Zielorteingabe die Art der
Zielorteingabe auswählen, z. B. ob der Zielort buchstabiert werden soll, ob
der Zielort über eine Grobzieleingabe oder ob er über eine Eingabe des
Zielortnamens gesucht werden soll. Die Eingabe des Zielortnamens
beispielsweise erfordert die Suche in einem Lexikon mit allen Zielortnamen.
In Deutschland würde ein derartiges Lexikon einen Umfang von ca. 60000
Orten umfassen. Diese Fülle an gespeicherten Sprachäußerungen ist mit
den bekannten Spracherkennungssystemen (meist sog. HMM-Systeme),
deren Grenze für eine gute Spracherkennungsrate erfahrungsgemäß bei ca.
1000 Worten liegt, nicht mehr befriedigend zu bewältigen.
Es ist Aufgabe der Erfindung, eine Vorrichtung und ein Verfahren eingangs
genannter Art im Hinblick auf eine leichtere Bedienbarkeit und im Hinblick
auf die oben genannte Grenze der Spracherkennungssysteme zu
verbessern.
Diese Aufgabe wird durch die Merkmale des Patentanspruchs 1 gelöst.
Vorteilhafte Ausgestaltungen der Erfindung sind die Gegenstände der
abhängigen Patentansprüche.
Erfindungsgemäß sind die einem Zielort zugeordneten gespeicherten
Sprachäußerungen zumindest aus dem Zielortnamen und mindestens einer
den Zielortnamen eindeutig identifizierenden, regional einschränkenden
Zusatzinformation zusammengesetzt. Jeder Zielortname ist in einer ersten
Datenbasis und jede in Frage kommende Zusatzinformation (ohne
Zielortname) ist in einer zweiten Datenbasis abgelegt. Jedes Zielortname-
Datum bzw. jeder Eintrag zu einem Zielortnamen in der ersten Datenbasis
umfaßt ein Hinweissymbol. Ein derartiges Hinweissymbol kann
beispielsweise eine programmtechnische Marke zum schnellen Auffinden
des Datums sein. Vorzugsweise kennzeichnet die Marke bzw. das
Hinweissymbol die dem jeweiligen Datum zugeordnete Zusatzinformation
selbst.
Dabei ist die zweite Datenbasis naturgemäß viel kleiner als die erste. Als
regional einschränkende Zusatzinformationen kommen beispielsweise
Bundesländer, Bezirke, regionale Bezeichnungen, Landkreise, Flüsse, Seen
und/oder markante größere Städte in Frage. Vorzugsweise sind die
Zusatzinformationen eindeutig unterscheidbar, d. h. gleichlautende
Zusatzinformationen liegen in der zweiten Datenbasis nicht vor. Diese
Zusatzinformationen sollen sogenannte Identifikatoren sein, durch die auch
das Problem der Mehrdeutigkeit gleichlautender Zielortnamen (z. B. Münster
bei Straubing, Münster in Unterfranken) gelöst wird. Die Identifikatoren
werden vorzugsweise derart gewählt, daß ihre Anzahl die oben genannte
Grenze für gute Spracherkennung nicht überschreitet.
Diese erfindungsgemäße Datenbankstruktur wird vorzugsweise derart
benutzt, daß nach einer eingegebenen Sprachäußerung diese in jedem Fall
erst mit den in der kleineren zweiten Datenbasis abgelegten Identifikatoren
verglichen wird. Nur wenn ein Identifikator in der zweiten Datenbasis erkannt
wird, wird die Spracherkennung des Zielortnamens fortgesetzt. Dabei wird
nicht die gesamte erste Datenbasis im Hinblick auf die eingegebene
Sprachäußerung nach dem Zielortnamen durchsucht, sondern lediglich ein
dem erkannten Identifikator zugeordneter aus der ersten Datenbasis
generierter Teildatenbestand.
In einer dritten Datenbasis können Präpositionen abgelegt sein, die zur
Separierung von Zielortname und Zusatzinformation in einer eingegebenen
Sprachäußerung dienen.
Bestenfalls nimmt der Benutzer als Sprachäußerung eine Phraseneingabe
vor, die aus Zielortname, Präposition und Zusatzinformation besteht.
Erfindungswesentlich ist aber, daß der Eingabedialog zu Beginn sowohl eine
Einzelworteingabe als auch eine Phraseneingabe, z. B. in der Form
Zielortname, Präposition und Identifikator oder in der Form Zielortname und
Identifikator, als Spracheingabe zuläßt. Nach der Eingabe einer
Sprachäußerung wird von der Spracherkennungseinrichtung geprüft, ob
zumindest ein Teil der Sprachäußerung eine Zusatzinformation ist. Die
Spracherkennungseinrichtung führt den Benutzer bei Bedarf, d. h.
insbesondere wenn kein Teil der Sprachäußerung als Zusatzinformation
erkannt wird, im weiteren Verlauf auf die Spracheingabe einer
Zusatzinformation oder auf eine definierte Phraseneingabe hin, durch die für
die Spracherkennungseinrichtung erkennbar wird, daß zumindest ein Teil der
Sprachäußerung eine Zusatzinformation ist.
Der Benutzer ist flexibel in der Darbietung seiner Sprachäußerung und muß
keine manuelle Bedienfunktionsauswahl (wie z. B. "Grobzieleingabe") treffen.
Außerdem kommt ein Lerneffekt zum Tragen: Der Benutzer wird dem
System nach mehrmaliger Anwendung von selbst die optimale
Phraseneingabe in der Form Zielortname, Präposition und Zusatzinformation
darbieten.
Vorzugsweise wird die eingegebene Sprachäußerung von der
Spracherkennungseinrichtung einer von mindestens zwei Eingabekategorien
zugeordnet. Dabei wird eine erste Eingabekategorie als Phraseneingabe
definiert, wenn die Spracherkennungseinrichtung einen Teil der
Sprachäußerung für eine Zusatzinformation hält. Eine zweite
Eingabekategorie wird als Einzelworteingabe definiert, wenn die
Spracherkennungseinrichtung keinen Teil der Sprachäußerung für eine
Zusatzinformation hält.
Wenn ein Teil der Sprachäußerung als Zusatzinformation erkannt wird, wird
zur Spracherkennung des Zielortnamens nicht die gesamte erste Datenbasis
im Hinblick auf die eingegebene Sprachäußerung nach dem Zielortnamen
durchsucht. Vielmehr wird mit Hilfe der Hinweissymbole aus der ersten
Datenbasis ein dem erkannten Identifikator zugeordneter Teildatenbestand
generiert. Der Teildatenbestand kann aufgrund einer dem Identifikator
zugeordneten Umgebungsliste generiert werden. Eine derartige
Umgebungsliste beinhaltet alle Zielortnamen bzw. Hinweissymbole der
Zielortnamen, die für den jeweiligen Identifikator in Frage kommen. Die
Umgebungslisten können innerhalb oder außerhalb der zweiten Datenbasis
hinterlegt sein. Alternativ kann ohne Vorhandensein derartiger
Umgebungslisten die erste Datenbasis auf die den jeweils erkannten
Identifikator kennzeichnenden Hinweissymbole durchsucht werden. Der
Teildatenbestand enthält schließlich zumindest die für die Spracherkennung
erforderlichen Daten der Zielortnamen, die im Hinblick auf den Identifikator in
Frage kommen. Derartige Zielortnamen-Daten umfassen insbesondere auch
Referenzmodelle oder Grundlagen zur Erstellung von Referenzmodellen für
die Spracherkennung nach bereits aus dem Stand der Technik bekannten
Verfahren. Die eingegebene Sprachäußerung muß demnach zum Auffinden
des gewünschten Zielortnamens lediglich mit dem jeweiligen dynamisch
generierten Teildatenbestand verglichen werden.
Wurde kein Zielortname erkannt, kann entweder ein Eingabedialog mit der
nochmaligen Abfrage des Zielortnamens oder der Zusatzinformation folgen
oder eine Liste zur Auswahl eines Zielortnamens angeboten werden (z. B.
durch Vorlesen und sprachgesteuertem Bestätigen, durch Anzeigen am
Bildschirm mit manueller Auswahlmöglichkeit, oder durch Anzeigen am
Bildschirm und sprachgesteuerter Auswahl).
Wenn kein Teil der Sprachäußerung für eine Zusatzinformation gehalten
wird, wird die gesamte Sprachäußerung in der zweiten Datenbasis gesucht.
Ziel dieses Vorgehens ist eine schnelle Suche nach einem Zielortnamen, der
auch eine gleichlautende Zusatzinformation sein kann. Vorzugsweise
werden nur die Zusatzinformationen in der zweiten Datenbasis mit der
eingegebenen Sprachäußerung verglichen, die auch Zielortnamen sein
können.
Im Falle eines Nichterkennens einer Zusatzinformation in der zweiten
Datenbasis wird der Benutzer im Rahmen des weiteren Eingabedialogs zur
Spracheingabe einer Zusatzinformation aufgefordert. Dabei kann entweder
eine Zusatzinformation allein oder eine Phraseneingabe (mit
Zusatzinformation) gefordert werden. Die zuvor eingegebene
Sprachäußerung wird vorzugsweise als Zielortname interpretiert und für die
spätere Spracherkennung des Zielortnamens abgespeichert.
Eine eingegebene Sprachäußerung wird als Phraseneingabe kategorisiert,
wenn ein Teil der Sprachäußerung als Präposition oder als Identifikator, dem
ein Teil der Sprachäußerung voransteht, erkannt wird.
Das Erfindungswesentliche ist, daß unabhängig von der Form der
Spracheingabe niemals eine erste Suche in der ersten Datenbasis, sondern
nur in der zweiten Datenbasis, stattfindet. Die erste Datenbasis dient als
Grundlage für die dynamische Generierung eines Teildatenbestandes in
Abhängigkeit von der in der zweiten Datenbasis erkannten
Zusatzinformation. Zur Spracherkennung eines Zielortnamens selbst wird
niemals die gesamte erste Datenbasis, sondern nur der aus der ersten
Datenbasis entnommene Teildatenbestand verwendet. Gilt keine
Zusatzinformation als erkannt, führt der Eingabedialog des
Spracherkennungssystems den Benutzer zumindest zu einer Eingabe des
Identifikators oder zur Eingabe einer Phrase, die definitionsgemäß einen
Identifikator enthält, hin.
In der Zeichnung ist ein Ausführungsbeispiels der Erfindung dargestellt. Es
zeigt
Fig. 1 eine erfindungsgemäße Vorrichtung in Form einer
entsprechenden Datenbankstruktur
Fig. 2a-2h ein erfindungsgemäßes Verfahren in Form eines möglichen
Eingabedialog-Ablaufplans
In Fig. 1 sind drei Datenbasen 1, 2 und 3 dargestellt. Die erste Datenbasis 1
enthält beispielsweise alle möglichen Zielortnamen Deutschlands in Form
von Zielortnamen-Daten. Ein Zielortnamen-Datum umfaßt beispielsweise
eine identifikatorbezogene Marke und ein Referenzmodell zur
Spracherkennung. Die zweite Datenbasis 2 enthält alle möglichen
Identifikatoren, wobei hinter jedem Identifikator zumindest eine Liste der
zugehörigen Zielortnamen in Form ihrer identifikatorbezogenen Marken
steht. Diese Liste wird im Folgenden "Umgebungsliste" genannt. In der
dritten Datenbasis 3 sind alle im Zusammenhang mit Phraseneingaben
möglichen Präpositionen abgespeichert. Für Deutschland umfaßt die
Datenbasis 1 ca. 60000 Zielortnamen, die Datenbasis 2 ca. 500
Indentifikatoren und die Datenbasis 3 ca. 70 Präpositionen. Dieses Beispiel
wird lediglich genannt, um die Größenordnungsverhältnisse der
Datenbankstruktur bestehend aus den drei Datenbasen 1 bis 3 darzulegen.
Eine optimale erfindungsgemäße Phraseneingabe setzt sich aus einem
Zielortnamen, einer auf den Zielortnamen folgenden Präposition und einem
auf die Präposition folgenden Identifikator zusammen. Es gibt keine
gleichlautenden Identifikatoren. Allerdings können gleichlautende
Identifikatoren und Zielortnamen vorliegen (z. B. "München"). Gleichlautende
Zielortnamen besitzen unterschiedliche Identifikatoren, um die
Mehrdeutigkeit von Zielortnamen auszuschließen.
Mögliche Phraseneingaben zu den Beispielen nach Fig. 1:
"Garching bei München"
"Freising bei München"
"München in Oberbayern" oder
"München an der Isar" oder
"München in Bayern"
"Münster bei Straubing"
"Münster am Lech"
"Münster Kreis Peine"
"Münster in Unterfranken"
"Neuhütten in Unterfranken"
"Karbach in Unterfranken"
"Garching bei München"
"Freising bei München"
"München in Oberbayern" oder
"München an der Isar" oder
"München in Bayern"
"Münster bei Straubing"
"Münster am Lech"
"Münster Kreis Peine"
"Münster in Unterfranken"
"Neuhütten in Unterfranken"
"Karbach in Unterfranken"
Die Datenbasis 3 enthält beispielsweise die möglichen Präpositionen "in",
"bei", "an der", "am", "Kreis". Die Datenbasis 2 enthält beispielsweise als
Identifikatoren (größere) Städte (z. B. "München", "Straubing"), Flüsse (z. B.
"Lech", "Isar"), Bezirke (z. B. "Peine"), regionale Bezeichnungen und
Landkreise (z. B. "Unterfranken", "Oberbayern"). Zu jedem Identifikator
können zusätzliche Merkmalsinformationen, wie z. B. die
Identifikatorkategorie "Stadt", "Fluß", "Bezirk" bzw. "Landkreis" und der
Hinweis auf einen gleichlautenden Zielortnamen in der Datenbasis 1
abgespeichert sein.
Bei den hier genannten Beispielen wird davon ausgegangen, daß die
Sprachäußerung richtig verstanden wird, anderenfalls wären
Nachfragedialoge erforderlich.
Im Falle einer Phraseneingabe (z. B. "Münster in Unterfranken") wird der
Identifikator "Unterfranken" in der Datenbasis 2 gesucht und der Identifikator
mit der größten Erkennungswahrscheinlichkeit ausgewählt. Anschließend
wird aufgrund der "Umgebungsliste" (Hier: "Münster", "Karbach" und
"Neuhütten" bzw. Liste der diesen Zielortnamen zugeordneten
programmtechnischen Marken), die hinter dem Identifikator "Unterfranken"
steht, dynamisch mittels der Marken aus der ersten Datenbasis 1 ein
Teildatenbestand bestehend zumindest aus den für die Spracherkennung
erforderlichen Zielortsnamen-Daten erstellt. Aus diesem regional
eingeschränkten Teildatenbestand wird der eingegebene Zielortname
gesucht. Auch hier gilt der Zielortname ("Münster") mit der größten
Erkennungswahrscheinlichkeit als erkannt. Diese Suchstrategie mit der
erfindungsgemäßen Datenbankstruktur ist schneller und erkennungssicherer
als ein spracherkennungsbezogenes Durchsuchen der gesamten
Datenbasis 1 nach dem Zielortnamen und ein anschließend erforderlicher
Nachfragedialog bei Mehrdeutigkeit wie beim Stand der Technik.
Im Falle einer Einzelworteingabe (z. B. "München") wird die gesamte
Sprachäußerung zunächst als Identifikator interpretiert und in der zweiten
Datenbasis 2 gesucht. Da "München" einerseits einem Identifikator in der
Datenbasis 2 und andererseits mindestens einem gleichlautenden
Zielortnamen in der Datenbasis 1 entspricht und dies auch als Information
dem Identifikator "München" zugeordnet ist, wird eine Liste aller "München"
als Zielortnamen erstellt und beispielsweise nach Größe der Orte mit
Nennung des jeweiligen Identifikators (z. B. in "Oberbayern") zur Auswahl
angeboten. Diese Liste kann ebenfalls, wie die Umgebungsliste, bei den
jeweiligen Identifikatoren in der zweiten Datenbasis 2 abgelegt sein.
Entspricht ein Identifikator tatsächlich einem gleichlautenden gewünschten
Zielort ist diese Suchstrategie die schnellstmögliche. Somit ist zumindest für
diesen Fall die Bedienerfreundlichkeit optimiert. Weder ein Nachfragedialog
noch eine Bedienfunktionauswahl durch ein vorhergehendes
Sprachkommando wie beim Stand der Technik sind erforderlich.
Existiert der gewünschte Zielortname in der Datenbasis 2 als Identifikator
nicht, wird der Eingabedialog derart ausgestaltet, daß der Benutzer zu einer
Phraseneingabe oder zumindest zur Eingabe eines Identifikators hingeführt
wird.
In den Fig. 2a bis 2h ist ein möglicher Gesamt-Eingabedialog mit
Ablaufplan des erfindungsgemäßen Verfahrens dargestellt, zum Teil auch für
den Fall, in dem die Spracherkennungseinrichtung eine Sprachäußerung
möglicherweise falsch versteht.
In Fig. 2a startet der Ablaufplan für eine sprachgesteuerte Zielorteingabe
z. B. durch ein Sprachkommando oder durch einen manuellen Tastendruck.
Die darauf folgende Definition der Variablen ANZ_GESAMTDURCHLÄUFE,
ANZ_NACHFRAGE_ZIELORT und ANZ_NACHFRAGE_IDENTIFIKATOR
dient, wie unten genauer erläutert, zum Begrenzen der Anzahl von
Fehlversuchen.
Der Eingabedialog beginnt beispielsweise mit der Aufforderung "Bitte geben
Sie den Zielort ein". Bestenfalls wird hiernach der Zielort in Form einer
Phrase, bestehend aus den Teilen Zielortname, Präposition und Identifikator,
eingegeben.
Im Folgenden wird der weitere Ablauf zunächst am Beispiel der
eingegebenen Sprachäußerung "München" erläutert. Nach der
Spracheingabe wird entsprechend Fig. 2a vom Spracherkennungssystem
zunächst versucht, einen Zielortnamen, eine Präposition und einen
Identifikator zu separieren, wobei der Identifikator in der zweiten Datenbasis
2 und die Präposition in der dritten Datenbasis 3 gesucht wird. Gilt ein
Identifikator mit voranstehender Sprachäußerung oder eine Präposition als
erkannt, wird die eingegebene Sprachäußerung als Phraseneingabe (vgl.
Verbinder 2) kategorisiert. Wird kein Identifikator, dem ein Teil der
Sprachäußerung voransteht, oder keine Präposition erkannt, wird die
eingegebene Sprachäußerung als Einzelworteingabe kategorisiert. Im Falle
der Spracheingabe "München" liegt also eine Einzelworteingabe vor. Im
nächsten Schritt (vgl. Verbinder 1) wird die eingegebene Sprachäußerung
"München" mit den in der zweiten Datenbasis 2 abgelegten Identifikatoren,
die zugleich auch Zielortname sind, entsprechend Fig. 2b verglichen (vgl.
Verbinder 1). Im Beispiel nach Fig. 1 wird bei der Spracheingabe "München"
ein Identifikator erkannt.
Daraufhin wird der erkannte Identifikator entsprechend Fig. 2d (vgl.
Verbinder 3), hier "München", auf Mehrdeutigkeit überprüft, d. h. ob der
Zielortname "München" mehrmals in Deutschland vorkommt. Diese
Information ist dem erkannten Identifikator mit Verweis auf die
entsprechenden Zielortnamen hinterlegt. Bei eindeutigen Zielortnamen ist
der Zielort bereits richtig erkannt. Im vorliegenden Fall sind zumindest zwei
Zielortnamen "München" vorhanden. Beispielsweise gibt das
Spracherkennungssystem im Folgenden zunächst den größten Zielort in
Form einer Zielortphrase aus: "Möchten Sie nach München in Oberbayern
fahren?" Wird dieser Zielort als der richtige bestätigt, ist die Zielorteingabe
erfolgreich beendet. Wird dagegen der dargebotene Zielort abgelehnt,
werden beispielsweise alle gleichnamigen Zielorte, hier "München", mit
Nennung der geographischen Lage ("München in Oberbayern", "München
bei Hamburg", . . .) auf dem Bordmonitor zur Auswahl des gewünschten
Zielortnamens aus der Liste angeboten.
Ist der gewünschte Zielort in der Liste nicht enthalten, wird gemäß Fig. 2h
(vgl. Verbinder 7) mittels des Zählers ANZ_GESAMTDURCHLÄUFE
überprüft, wie viele Fehlversuche bereits sprachgesteuert vorgenommen
wurden. Bei Erreichen einer vorgegebenen Schwelle, hier
ANZ_GESAMTDURCHLÄUFE = 2, wird eine manuelle Zielorteingabe
vorgeschlagen. Ist diese vorgegebene Schwelle noch nicht erreicht, wird zu
Beginn des Eingabedialoges (vgl. Verbinder 8) zurückgekehrt.
Im Folgenden wird der Ablaufplan am Beispiel der Spracheingabe "Münster"
in Fig. 2a weiter erläutert. Wieder wird die Spracheingabe als
Einzelworteingabe kategorisiert. Hier gilt jedoch entsprechend Fig. 2b kein
Identifikator, der zugleich Zielortname ist, in der Datenbasis 2 als erkannt. In
diesem Fall wird gemäß Fig. 2e (vgl. Verbinder 4) zunächst mittels des
Zählers ANZ_NACHFRAGE_IDENTIFIKATOR die Häufigkeit der
Fehlversuche wieder überprüft. Ist eine vorgegebene Schwelle, hier
ebenfalls ANZ_NACHFRAGE_IDENTIFIKATOR = 2, noch nicht erreicht, wird
ein Nachfragedialog gestartet. Beispielsweise wird der Benutzer
aufgefordert, eine genauere Ortslage zu spezifizieren. Es wird auf eine
Spracheingabe gewartet, die bestenfalls ein Identifikator ist. Am Beispiel des
Zielortnamens "Münster" folgt an diesem Punkt des Ablaufplans z. B. die
Spracheingabe "Unterfranken" oder "in Unterfranken". Im Falle der
Spracheingabe "in Unterfranken" wird Unterfranken als Identifikator erkannt,
da dieser Teil der Sprachäußerung nach der Präposition "in" folgt. Im Falle
der Spracheingabe "Unterfranken" wird die gesamte Sprachäußerung als
Identifikator gewertet.
Gemäß Fig. 2e wird die Sprachäußerung mit allen in der Datenbasis 2
abgelegten Identifikatoren verglichen. Im Falle der vorhergehenden
Spracheingabe "in Unterfranken" wird der Identifikator von der Präposition
separiert, und mit allen in der Datenbasis 2 abgelegten Identifikatoren
verglichen.
Wird kein Identifikator aus der Datenbasis 2 erkannt, wird gemäß Fig. 2e
(über Verbinder 4 zu Fig. 2e), wie bereits beschrieben, der Identifikator
nochmals nachgefragt. Wird ein Identifikator erkannt und ausgewählt (vgl.
Verbinder 2, Fig. 2c), wird dynamisch, d. h. in Echtzeit, ein
spracherkennungsbezogener Teildatenbestand aufgrund der
"Umgebungsliste" des Identifikators aus der ersten Datenbasis 1 generiert.
Im vorliegenden Beispiel werden alle Zielortnamen-Daten, die dem
Identifikator "Unterfranken" zugeordnet sind, ausgewählt: "Neuhütten",
"Karbach" und "Münster". Die Spracheingabe des gewünschten
Zielortnamens, hier "Münster", kann nach der Spracheingabe gemäß Fig. 2a
des Ablaufplans bis dahin in einem flüchtigen Speicher des
Spracherkennungssystem abgespeichert werden.
Im Folgenden wird gemäß Fig. 2g (vgl. Verbinder 6) im generierten
Teildatenbestand überprüft, ob die als Zielortname interpretierte
Spracheingabe einem Zielort aus dem Teildatenbestand entspricht. Wird der
Zielortname erkannt, wird gemäß Fig. 2d (vgl. Verbinder 3), wie bereits
beschrieben, weiter vorgegangen. Gilt jedoch kein Zielortname als erkannt,
z. B. wenn die Spracheingabe "Münster" falsch oder zu undeutlich
ausgesprochen wurde, wird nochmals entweder der Identifikator gemäß Fig.
2e (über Verbinder 4) oder der Zielortname gemäß Fig. 2f (über Verbinder 5)
nachgefragt. Hier wird zunächst die Anzahl der Nachfrageversuche von
Identifikator und Zielortname miteinander verglichen und sich für die weniger
nachgefragte Information entschieden. Maximal werden jedoch nur zwei
Nachfrageversuche sowohl für den Identifikator als auch für den
Zielortnamen pro Gesamtdurchlauf zugelassen. Anschließend wird gemäß
Fig. 2g (vgl. Verbinder 6), wie bereits beschrieben, weiter vorgegangen.
Schließlich wird im Folgenden der Ablaufplan anhand einer optimalen
Phraseneingabe in Fig. 2a erläutert. Beispielsweise wird nach der
Aufforderung zur Eingabe eines Zielortes die Spracheingabe "Münster in
Unterfranken" vorgenommen. Es wird bei diesem Beispiel von einer
ausreichenden Deutlichkeit der Spracheingabe ausgegangen. Hiernach ist
eine Separierung von Zielortname, Präposition und Identifikator möglich. Da
sowohl eine Präposition als auch ein Identifikator vorhanden ist und als
solche erkannt werden, wird die Spracheingabe als Phraseneingabe
kategorisiert. Daraufhin wird gemäß Fig. 2c (über Verbinder 2), wie bereits
beschrieben, vorgegangen.
Claims (9)
1. Vorrichtung zur Spracheingabe eines Zielortes mit Hilfe eines definier
ten Eingabedialogs in ein Zielführungssystem im Echtzeitbetrieb mit
Mitteln, durch die eine eingegebene Sprachäußerung eines Benutzers
mittels einer Spracherkennungseinrichtung erfaßt, mit gespeicherten
Sprachäußerungen verglichen sowie gemäß ihrer Erkennungswahr
scheinlichkeit klassifiziert wird und durch die die gespeicherte
Sprachäußerung mit der größten Erkennungswahrscheinlichkeit als die
eingegebene Sprachäußerung erkannt wird, dadurch gekennzeichnet,
daß die einem Zielort zugeordneten gespeicherten Sprachäußerungen
zumindest aus dem Zielortnamen und mindestens einer den Zielortna
men eindeutig identifizierenden, regional einschränkenden Zusatz
information zusammengesetzt sind, wobei jeder Zielortname mit einem
Hinweissymbol in einer ersten Datenbasis (1) und jede Zusatzinforma
tion in einer zweiten Datenbasis (2) abgelegt ist.
2. Vorrichtung nach Patentanspruch 1, dadurch gekennzeichnet, daß in
einer dritten Datenbasis (3) Präpositionen abgelegt sind, die zur Sepa
rierung von Zielortname und Zusatzinformation in einer eingegebenen
Sprachäußerung dienen.
3. Verfahren mit einer Vorrichtung nach Patentanspruch 1 oder 2, dadurch
gekennzeichnet, daß nach der Eingabe einer Sprachäußerung von der
Spracherkennungseinrichtung geprüft wird, ob zumindest ein Teil der
Sprachäußerung eine Zusatzinformation ist, und den Benutzer bei
Bedarf im weiteren Verlauf auf die Spracheingabe einer Zusatzinforma
tion oder auf eine definierte Phraseneingabe hinführt, durch die für die
Spracherkennungseinrichtung erkennbar wird, daß zumindest ein Teil
der Sprachäußerung eine Zusatzinformation ist.
4. Verfahren nach Patentanspruch 3 oder Verfahren mit einer Vorrichtung
nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, daß nach der
der Eingabe einer Sprachäußerung diese von der Spracherkennungs
einrichtung einer von mindestens zwei Eingabekategorien zugeordnet
wird, wobei eine erste Eingabekategorie als Phraseneingabe, wenn die
Spracherkennungseinrichtung einen Teil der Sprachäußerung für eine
Zusatzinformation hält, und eine zweite Eingabekategorie als Einzel
worteingabe, wenn die Spracherkennungseinrichtung keinen Teil der
Sprachäußerung für eine Zusatzinformation hält, definiert werden.
5. Verfahren nach Patentanspruch 3 oder 4, dadurch gekennzeichnet,
daß wenn ein Teil der Sprachäußerung als Zusatzinformation in der
zweiten Datenbasis (2) erkannt wird, ein dieser Zusatzinformation
zugeordneter Teildatenbestand aus der ersten Datenbasis (1) generiert
wird, in dem der gewünschte Zielortname aufgrund der eingegebenen
Sprachäußerung gesucht wird.
6. Verfahren nach Patentanspruch 4, dadurch gekennzeichnet, daß wenn
kein Teil der Sprachäußerung für eine eingegebene Zusatzinformation
gehalten wird, die gesamte Sprachäußerung in der zweiten Datenbasis
(2) gesucht wird, und daß die gespeicherte Zusatzinformation mit der
größten Erkennungswahrscheinlichkeit aus der zweiten Datenbasis (2)
als eingegebener Zielortname ausgewählt wird.
7. Verfahren nach Patentanspruch 6, dadurch gekennzeichnet, daß im
Falle eines Nichterkennung einer Zusatzinformation in der zweiten
Datenbasis (2) der Benutzer im Rahmen des weiteren Eingabedialogs
zur Spracheingabe einer Zusatzinformation aufgefordert wird.
8. Verfahren nach einem der Patentansprüche 3 bis 7, dadurch gekenn
zeichnet, daß die definierte Phraseneingabe zumindest aus einem Ziel
ortnamen, und einer Zusatzinformation besteht.
9. Verfahren nach einem der Patentansprüche 3 bis 8, dadurch gekenn
zeichnet, daß eine eingegebene Sprachäußerung als Phraseneingabe
kategoriesiert wird, wenn ein Teil der Sprachäußerung als Präposition
oder als Zusatzinformation, der ein Teil der Sprachäußerung voran
steht, erkannt wird.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10012572A DE10012572C2 (de) | 2000-03-15 | 2000-03-15 | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem |
US10/181,292 US7209884B2 (en) | 2000-03-15 | 2001-03-08 | Speech input into a destination guiding system |
EP01921321A EP1264302B1 (de) | 2000-03-15 | 2001-03-08 | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
AT01921321T ATE342566T1 (de) | 2000-03-15 | 2001-03-08 | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
PCT/EP2001/002606 WO2001069592A1 (de) | 2000-03-15 | 2001-03-08 | Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
JP2001567584A JP4928701B2 (ja) | 2000-03-15 | 2001-03-08 | 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための方法 |
ES01921321T ES2270992T3 (es) | 2000-03-15 | 2001-03-08 | Dispositivo y procedimiento de entrada por voz de un lugar de destino con ayuda de un dialogo de entrada definido en un sistema de guiado a destino. |
DE50111198T DE50111198D1 (de) | 2000-03-15 | 2001-03-08 | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10012572A DE10012572C2 (de) | 2000-03-15 | 2000-03-15 | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10012572A1 true DE10012572A1 (de) | 2001-09-27 |
DE10012572C2 DE10012572C2 (de) | 2003-03-27 |
Family
ID=7634786
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10012572A Expired - Fee Related DE10012572C2 (de) | 2000-03-15 | 2000-03-15 | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem |
DE50111198T Expired - Lifetime DE50111198D1 (de) | 2000-03-15 | 2001-03-08 | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50111198T Expired - Lifetime DE50111198D1 (de) | 2000-03-15 | 2001-03-08 | Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem |
Country Status (7)
Country | Link |
---|---|
US (1) | US7209884B2 (de) |
EP (1) | EP1264302B1 (de) |
JP (1) | JP4928701B2 (de) |
AT (1) | ATE342566T1 (de) |
DE (2) | DE10012572C2 (de) |
ES (1) | ES2270992T3 (de) |
WO (1) | WO2001069592A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1376063A2 (de) | 2002-06-20 | 2004-01-02 | Robert Bosch Gmbh | Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis |
US7162424B2 (en) | 2001-04-26 | 2007-01-09 | Siemens Aktiengesellschaft | Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language |
US8190439B2 (en) | 2006-02-10 | 2012-05-29 | Svox Ag | Method for preparing information for a speech dialogue system |
DE10313220B4 (de) * | 2002-05-24 | 2013-09-19 | Robert Bosch Gmbh | Verfahren zur Eingabe von Ortsnamen |
DE10125825B4 (de) * | 2001-05-26 | 2014-09-11 | Robert Bosch Gmbh | Verfahren zur Spracheingabe und Datenträger |
US9193315B2 (en) | 2007-11-02 | 2015-11-24 | Volkswagen Ag | Method and apparatus for operating a device in a vehicle with a voice controller |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7313525B1 (en) * | 2001-09-26 | 2007-12-25 | Sprint Spectrum L.P. | Method and system for bookmarking navigation points in a voice command title platform |
DE10220521B4 (de) * | 2002-05-08 | 2005-11-24 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen |
EP1361740A1 (de) * | 2002-05-08 | 2003-11-12 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs |
EP1363271A1 (de) * | 2002-05-08 | 2003-11-19 | Sap Ag | Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs |
DE10220524B4 (de) * | 2002-05-08 | 2006-08-10 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache |
DE10220522B4 (de) * | 2002-05-08 | 2005-11-17 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse |
DE102005018174A1 (de) * | 2005-04-19 | 2006-11-02 | Daimlerchrysler Ag | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 |
KR100819234B1 (ko) * | 2006-05-25 | 2008-04-02 | 삼성전자주식회사 | 네비게이션 단말의 목적지 설정 방법 및 장치 |
DE102006035780B4 (de) | 2006-08-01 | 2019-04-25 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems |
DE102006051331A1 (de) * | 2006-10-31 | 2008-05-08 | Robert Bosch Gmbh | Verfahren zur Auswahl eines Fahrziels |
US8909528B2 (en) * | 2007-05-09 | 2014-12-09 | Nuance Communications, Inc. | Method and system for prompt construction for selection from a list of acoustically confusable items in spoken dialog systems |
DE102007033472A1 (de) * | 2007-07-18 | 2009-01-29 | Siemens Ag | Verfahren zur Spracherkennung |
DE102007037567A1 (de) * | 2007-08-09 | 2009-02-12 | Volkswagen Ag | Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug |
DE102008028090A1 (de) * | 2008-02-29 | 2009-09-10 | Navigon Ag | Verfahren zum Betrieb eines Navigationssystems |
GB2470357A (en) * | 2009-05-18 | 2010-11-24 | Denso Corp | Disambiguation of location inputs to a navigation system |
DE102010026708A1 (de) * | 2010-07-10 | 2012-01-12 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
DE102011103869A1 (de) * | 2011-06-10 | 2012-12-13 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle |
KR20130123613A (ko) * | 2012-05-03 | 2013-11-13 | 현대엠엔소프트 주식회사 | 음성인식 경로안내장치 및 방법 |
CN103618708A (zh) * | 2013-11-19 | 2014-03-05 | 青岛海尔软件有限公司 | 一种语音验证方法、装置及系统 |
JP2015129672A (ja) * | 2014-01-07 | 2015-07-16 | アルパイン株式会社 | 施設検索装置および方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
DE4029716C2 (de) * | 1989-12-29 | 1998-02-19 | Pioneer Electronic Corp | Sprachgesteuertes Fernbedienungssystem |
DE19709518C1 (de) * | 1997-03-10 | 1998-03-05 | Daimler Benz Aerospace Ag | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6057395A (ja) * | 1983-09-08 | 1985-04-03 | 松下電器産業株式会社 | 音声認識方法 |
US4866778A (en) | 1986-08-11 | 1989-09-12 | Dragon Systems, Inc. | Interactive speech recognition apparatus |
JPH0225897A (ja) * | 1988-07-14 | 1990-01-29 | Ricoh Co Ltd | 音声ダイヤリング装置 |
JPH09114489A (ja) * | 1995-10-16 | 1997-05-02 | Sony Corp | 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車 |
US6567778B1 (en) * | 1995-12-21 | 2003-05-20 | Nuance Communications | Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores |
US6023697A (en) * | 1997-02-24 | 2000-02-08 | Gte Internetworking Incorporated | Systems and methods for providing user assistance in retrieving data from a relational database |
DE19742054A1 (de) * | 1997-09-24 | 1999-04-01 | Philips Patentverwaltung | Eingabesystem wenigstens für Orts- und/oder Straßennamen |
JP3671636B2 (ja) * | 1997-12-09 | 2005-07-13 | 株式会社日立製作所 | 音声認識装置 |
JPH11250078A (ja) * | 1998-02-27 | 1999-09-17 | Fujitsu Ten Ltd | 音声認識機能付案内装置 |
WO1999048088A1 (en) | 1998-03-20 | 1999-09-23 | Inroad, Inc. | Voice controlled web browser |
JP3339460B2 (ja) * | 1999-04-27 | 2002-10-28 | アイシン・エィ・ダブリュ株式会社 | ナビゲーション装置 |
JP3980791B2 (ja) * | 1999-05-03 | 2007-09-26 | パイオニア株式会社 | 音声認識装置を備えたマンマシンシステム |
JP4283984B2 (ja) * | 2000-10-12 | 2009-06-24 | パイオニア株式会社 | 音声認識装置ならびに方法 |
-
2000
- 2000-03-15 DE DE10012572A patent/DE10012572C2/de not_active Expired - Fee Related
-
2001
- 2001-03-08 EP EP01921321A patent/EP1264302B1/de not_active Expired - Lifetime
- 2001-03-08 JP JP2001567584A patent/JP4928701B2/ja not_active Expired - Fee Related
- 2001-03-08 DE DE50111198T patent/DE50111198D1/de not_active Expired - Lifetime
- 2001-03-08 ES ES01921321T patent/ES2270992T3/es not_active Expired - Lifetime
- 2001-03-08 AT AT01921321T patent/ATE342566T1/de not_active IP Right Cessation
- 2001-03-08 US US10/181,292 patent/US7209884B2/en not_active Expired - Lifetime
- 2001-03-08 WO PCT/EP2001/002606 patent/WO2001069592A1/de active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4029716C2 (de) * | 1989-12-29 | 1998-02-19 | Pioneer Electronic Corp | Sprachgesteuertes Fernbedienungssystem |
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
DE19709518C1 (de) * | 1997-03-10 | 1998-03-05 | Daimler Benz Aerospace Ag | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7162424B2 (en) | 2001-04-26 | 2007-01-09 | Siemens Aktiengesellschaft | Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language |
DE10125825B4 (de) * | 2001-05-26 | 2014-09-11 | Robert Bosch Gmbh | Verfahren zur Spracheingabe und Datenträger |
DE10313220B4 (de) * | 2002-05-24 | 2013-09-19 | Robert Bosch Gmbh | Verfahren zur Eingabe von Ortsnamen |
EP1376063A2 (de) | 2002-06-20 | 2004-01-02 | Robert Bosch Gmbh | Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis |
EP1376063A3 (de) * | 2002-06-20 | 2007-01-10 | Robert Bosch Gmbh | Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis |
US8190439B2 (en) | 2006-02-10 | 2012-05-29 | Svox Ag | Method for preparing information for a speech dialogue system |
US9193315B2 (en) | 2007-11-02 | 2015-11-24 | Volkswagen Ag | Method and apparatus for operating a device in a vehicle with a voice controller |
Also Published As
Publication number | Publication date |
---|---|
ES2270992T3 (es) | 2007-04-16 |
US20030014255A1 (en) | 2003-01-16 |
US7209884B2 (en) | 2007-04-24 |
DE50111198D1 (de) | 2006-11-23 |
JP4928701B2 (ja) | 2012-05-09 |
EP1264302A1 (de) | 2002-12-11 |
ATE342566T1 (de) | 2006-11-15 |
JP2003527631A (ja) | 2003-09-16 |
WO2001069592A1 (de) | 2001-09-20 |
DE10012572C2 (de) | 2003-03-27 |
EP1264302B1 (de) | 2006-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10012572C2 (de) | Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem | |
DE60032193T2 (de) | Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache | |
EP1071075B1 (de) | Verfahren und Vorrichtung zur Eingabe von Daten | |
DE60016722T2 (de) | Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars | |
EP1176395B1 (de) | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe | |
DE19709518C1 (de) | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb | |
DE60215272T2 (de) | Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen | |
DE19847419A1 (de) | Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung | |
DE102005018174A1 (de) | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 | |
DE60110990T2 (de) | Hanhabung von gleichlautenden Wörtern in einem Sprachabfragesystem | |
DE102006036338A1 (de) | Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem | |
EP1739655A2 (de) | Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems | |
DE10246029A1 (de) | Spracherkennungssystem, Programm und Navigationssystem | |
DE69920714T2 (de) | Spracherkennung | |
EP1238250B1 (de) | Spracherkennungsverfahren und -einrichtung | |
DE102017211447B4 (de) | Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung | |
DE10129005B4 (de) | Verfahren zur Spracherkennung und Spracherkennungssystem | |
EP1455163B1 (de) | Verfahren zur Eingabe von Zielen in ein Navigationssystem | |
DE60222413T2 (de) | Spracherkennung | |
DE102015014206B4 (de) | Verfahren und Vorrichtung zum Auswählen eines Navigationsziels aus einer von mehreren Sprachregionen mittels Spracheingabe | |
EP1179818B1 (de) | Automatische Erkennung von Unternehmensnamen in sprachlichen Äusserungen | |
DE19937490B4 (de) | Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen | |
DE10013879A1 (de) | Verfahren zur Sprachsteuerung eines elektrischen Geräts | |
DE10051794C2 (de) | Verfahren zur eindeutigen Zuweisung eines Befehls und Verfahren zur Sprachsteuerung | |
DE19959850A1 (de) | Kommunikationssystem und Verfahren zum Bereitstellen eines Internet-Zugangs über ein Telefon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |