DE10012572A1 - Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem - Google Patents

Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem

Info

Publication number
DE10012572A1
DE10012572A1 DE10012572A DE10012572A DE10012572A1 DE 10012572 A1 DE10012572 A1 DE 10012572A1 DE 10012572 A DE10012572 A DE 10012572A DE 10012572 A DE10012572 A DE 10012572A DE 10012572 A1 DE10012572 A1 DE 10012572A1
Authority
DE
Germany
Prior art keywords
speech
additional information
database
destination
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10012572A
Other languages
English (en)
Other versions
DE10012572C2 (de
Inventor
Mihai Steingruebner
Tarek Said
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE10012572A priority Critical patent/DE10012572C2/de
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to PCT/EP2001/002606 priority patent/WO2001069592A1/de
Priority to US10/181,292 priority patent/US7209884B2/en
Priority to EP01921321A priority patent/EP1264302B1/de
Priority to AT01921321T priority patent/ATE342566T1/de
Priority to JP2001567584A priority patent/JP4928701B2/ja
Priority to ES01921321T priority patent/ES2270992T3/es
Priority to DE50111198T priority patent/DE50111198D1/de
Publication of DE10012572A1 publication Critical patent/DE10012572A1/de
Application granted granted Critical
Publication of DE10012572C2 publication Critical patent/DE10012572C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

Bei einer Vorrichtung zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem im Echzeitbetrieb mit Mitteln, durch die eine eingebene Sprachäußerung eines Benutzers mittels einer Spracherkennungseinrichtung erfaßt, mit gespeicherten Sprachäußerungen verglichen sowie gemäß ihrer Erkennungswahrscheinlichkeit klassifiziert wird und durch die die gespeicherte Sprachäußerung mit der größten Erkennungswahrscheinlichkeit als die eingegebene Sprachäußerung erkannt wird, sind die einem Zielort zugeordneten gespeicherten Sprachäußerungen zumindest aus dem Zielortnamen und mindestens einer den Zielortnamen eindeutig identifizierenden, regional einschränkenden Zusatzinformation zusammengesetzt, wobei jeder Zielortname mit einem Hinweissymbol in einer ersten Datenbasis und jede Zusatzinformation in einer zweiten Datenbasis abgelegt ist.

Description

Die Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem nach dem Oberbegriff des Patentanspruchs 1.
Eine derartige Vorrichtung und ein derartiges Verfahren ist beispielsweise aus der DE 197 09 518 C1 bekannt. Bei diesem bekannten Verfahren werden dem Benutzer mehrere durch Sprachkommandos auswählbare Bedienfunktionen angeboten. Zu jeder auswählbaren Bedienfunktion wird ein Lexikon aus einer Gesamdatenbank generiert, wodurch eine schnellere und bedienerfreundlichere sprachgesteuerte Suche nach Zieladressen ermöglicht werden soll. Die DE 197 09 518 C1 geht dabei von bekannten Systemen aus, die ein Buchstabieren der Zielorte erfordern. Doch auch bei einem Zielführungssystem nach der DE 197 09 518 C1 liegt keine benutzerfreundliche Eingabemöglichkeit vor, da vor einer Zielorteingabe erst ein Sprachkommando für die Auswahl einer gewünschten Bedienfunktion erforderlich ist. Der Benutzer muß vor einer Zielorteingabe die Art der Zielorteingabe auswählen, z. B. ob der Zielort buchstabiert werden soll, ob der Zielort über eine Grobzieleingabe oder ob er über eine Eingabe des Zielortnamens gesucht werden soll. Die Eingabe des Zielortnamens beispielsweise erfordert die Suche in einem Lexikon mit allen Zielortnamen. In Deutschland würde ein derartiges Lexikon einen Umfang von ca. 60000 Orten umfassen. Diese Fülle an gespeicherten Sprachäußerungen ist mit den bekannten Spracherkennungssystemen (meist sog. HMM-Systeme), deren Grenze für eine gute Spracherkennungsrate erfahrungsgemäß bei ca. 1000 Worten liegt, nicht mehr befriedigend zu bewältigen.
Es ist Aufgabe der Erfindung, eine Vorrichtung und ein Verfahren eingangs genannter Art im Hinblick auf eine leichtere Bedienbarkeit und im Hinblick auf die oben genannte Grenze der Spracherkennungssysteme zu verbessern.
Diese Aufgabe wird durch die Merkmale des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind die Gegenstände der abhängigen Patentansprüche.
Erfindungsgemäß sind die einem Zielort zugeordneten gespeicherten Sprachäußerungen zumindest aus dem Zielortnamen und mindestens einer den Zielortnamen eindeutig identifizierenden, regional einschränkenden Zusatzinformation zusammengesetzt. Jeder Zielortname ist in einer ersten Datenbasis und jede in Frage kommende Zusatzinformation (ohne Zielortname) ist in einer zweiten Datenbasis abgelegt. Jedes Zielortname- Datum bzw. jeder Eintrag zu einem Zielortnamen in der ersten Datenbasis umfaßt ein Hinweissymbol. Ein derartiges Hinweissymbol kann beispielsweise eine programmtechnische Marke zum schnellen Auffinden des Datums sein. Vorzugsweise kennzeichnet die Marke bzw. das Hinweissymbol die dem jeweiligen Datum zugeordnete Zusatzinformation selbst.
Dabei ist die zweite Datenbasis naturgemäß viel kleiner als die erste. Als regional einschränkende Zusatzinformationen kommen beispielsweise Bundesländer, Bezirke, regionale Bezeichnungen, Landkreise, Flüsse, Seen und/oder markante größere Städte in Frage. Vorzugsweise sind die Zusatzinformationen eindeutig unterscheidbar, d. h. gleichlautende Zusatzinformationen liegen in der zweiten Datenbasis nicht vor. Diese Zusatzinformationen sollen sogenannte Identifikatoren sein, durch die auch das Problem der Mehrdeutigkeit gleichlautender Zielortnamen (z. B. Münster bei Straubing, Münster in Unterfranken) gelöst wird. Die Identifikatoren werden vorzugsweise derart gewählt, daß ihre Anzahl die oben genannte Grenze für gute Spracherkennung nicht überschreitet.
Diese erfindungsgemäße Datenbankstruktur wird vorzugsweise derart benutzt, daß nach einer eingegebenen Sprachäußerung diese in jedem Fall erst mit den in der kleineren zweiten Datenbasis abgelegten Identifikatoren verglichen wird. Nur wenn ein Identifikator in der zweiten Datenbasis erkannt wird, wird die Spracherkennung des Zielortnamens fortgesetzt. Dabei wird nicht die gesamte erste Datenbasis im Hinblick auf die eingegebene Sprachäußerung nach dem Zielortnamen durchsucht, sondern lediglich ein dem erkannten Identifikator zugeordneter aus der ersten Datenbasis generierter Teildatenbestand.
In einer dritten Datenbasis können Präpositionen abgelegt sein, die zur Separierung von Zielortname und Zusatzinformation in einer eingegebenen Sprachäußerung dienen.
Bestenfalls nimmt der Benutzer als Sprachäußerung eine Phraseneingabe vor, die aus Zielortname, Präposition und Zusatzinformation besteht. Erfindungswesentlich ist aber, daß der Eingabedialog zu Beginn sowohl eine Einzelworteingabe als auch eine Phraseneingabe, z. B. in der Form Zielortname, Präposition und Identifikator oder in der Form Zielortname und Identifikator, als Spracheingabe zuläßt. Nach der Eingabe einer Sprachäußerung wird von der Spracherkennungseinrichtung geprüft, ob zumindest ein Teil der Sprachäußerung eine Zusatzinformation ist. Die Spracherkennungseinrichtung führt den Benutzer bei Bedarf, d. h. insbesondere wenn kein Teil der Sprachäußerung als Zusatzinformation erkannt wird, im weiteren Verlauf auf die Spracheingabe einer Zusatzinformation oder auf eine definierte Phraseneingabe hin, durch die für die Spracherkennungseinrichtung erkennbar wird, daß zumindest ein Teil der Sprachäußerung eine Zusatzinformation ist.
Der Benutzer ist flexibel in der Darbietung seiner Sprachäußerung und muß keine manuelle Bedienfunktionsauswahl (wie z. B. "Grobzieleingabe") treffen. Außerdem kommt ein Lerneffekt zum Tragen: Der Benutzer wird dem System nach mehrmaliger Anwendung von selbst die optimale Phraseneingabe in der Form Zielortname, Präposition und Zusatzinformation darbieten.
Vorzugsweise wird die eingegebene Sprachäußerung von der Spracherkennungseinrichtung einer von mindestens zwei Eingabekategorien zugeordnet. Dabei wird eine erste Eingabekategorie als Phraseneingabe definiert, wenn die Spracherkennungseinrichtung einen Teil der Sprachäußerung für eine Zusatzinformation hält. Eine zweite Eingabekategorie wird als Einzelworteingabe definiert, wenn die Spracherkennungseinrichtung keinen Teil der Sprachäußerung für eine Zusatzinformation hält.
Wenn ein Teil der Sprachäußerung als Zusatzinformation erkannt wird, wird zur Spracherkennung des Zielortnamens nicht die gesamte erste Datenbasis im Hinblick auf die eingegebene Sprachäußerung nach dem Zielortnamen durchsucht. Vielmehr wird mit Hilfe der Hinweissymbole aus der ersten Datenbasis ein dem erkannten Identifikator zugeordneter Teildatenbestand generiert. Der Teildatenbestand kann aufgrund einer dem Identifikator zugeordneten Umgebungsliste generiert werden. Eine derartige Umgebungsliste beinhaltet alle Zielortnamen bzw. Hinweissymbole der Zielortnamen, die für den jeweiligen Identifikator in Frage kommen. Die Umgebungslisten können innerhalb oder außerhalb der zweiten Datenbasis hinterlegt sein. Alternativ kann ohne Vorhandensein derartiger Umgebungslisten die erste Datenbasis auf die den jeweils erkannten Identifikator kennzeichnenden Hinweissymbole durchsucht werden. Der Teildatenbestand enthält schließlich zumindest die für die Spracherkennung erforderlichen Daten der Zielortnamen, die im Hinblick auf den Identifikator in Frage kommen. Derartige Zielortnamen-Daten umfassen insbesondere auch Referenzmodelle oder Grundlagen zur Erstellung von Referenzmodellen für die Spracherkennung nach bereits aus dem Stand der Technik bekannten Verfahren. Die eingegebene Sprachäußerung muß demnach zum Auffinden des gewünschten Zielortnamens lediglich mit dem jeweiligen dynamisch generierten Teildatenbestand verglichen werden.
Wurde kein Zielortname erkannt, kann entweder ein Eingabedialog mit der nochmaligen Abfrage des Zielortnamens oder der Zusatzinformation folgen oder eine Liste zur Auswahl eines Zielortnamens angeboten werden (z. B. durch Vorlesen und sprachgesteuertem Bestätigen, durch Anzeigen am Bildschirm mit manueller Auswahlmöglichkeit, oder durch Anzeigen am Bildschirm und sprachgesteuerter Auswahl).
Wenn kein Teil der Sprachäußerung für eine Zusatzinformation gehalten wird, wird die gesamte Sprachäußerung in der zweiten Datenbasis gesucht. Ziel dieses Vorgehens ist eine schnelle Suche nach einem Zielortnamen, der auch eine gleichlautende Zusatzinformation sein kann. Vorzugsweise werden nur die Zusatzinformationen in der zweiten Datenbasis mit der eingegebenen Sprachäußerung verglichen, die auch Zielortnamen sein können.
Im Falle eines Nichterkennens einer Zusatzinformation in der zweiten Datenbasis wird der Benutzer im Rahmen des weiteren Eingabedialogs zur Spracheingabe einer Zusatzinformation aufgefordert. Dabei kann entweder eine Zusatzinformation allein oder eine Phraseneingabe (mit Zusatzinformation) gefordert werden. Die zuvor eingegebene Sprachäußerung wird vorzugsweise als Zielortname interpretiert und für die spätere Spracherkennung des Zielortnamens abgespeichert.
Eine eingegebene Sprachäußerung wird als Phraseneingabe kategorisiert, wenn ein Teil der Sprachäußerung als Präposition oder als Identifikator, dem ein Teil der Sprachäußerung voransteht, erkannt wird.
Das Erfindungswesentliche ist, daß unabhängig von der Form der Spracheingabe niemals eine erste Suche in der ersten Datenbasis, sondern nur in der zweiten Datenbasis, stattfindet. Die erste Datenbasis dient als Grundlage für die dynamische Generierung eines Teildatenbestandes in Abhängigkeit von der in der zweiten Datenbasis erkannten Zusatzinformation. Zur Spracherkennung eines Zielortnamens selbst wird niemals die gesamte erste Datenbasis, sondern nur der aus der ersten Datenbasis entnommene Teildatenbestand verwendet. Gilt keine Zusatzinformation als erkannt, führt der Eingabedialog des Spracherkennungssystems den Benutzer zumindest zu einer Eingabe des Identifikators oder zur Eingabe einer Phrase, die definitionsgemäß einen Identifikator enthält, hin.
In der Zeichnung ist ein Ausführungsbeispiels der Erfindung dargestellt. Es zeigt
Fig. 1 eine erfindungsgemäße Vorrichtung in Form einer entsprechenden Datenbankstruktur
Fig. 2a-2h ein erfindungsgemäßes Verfahren in Form eines möglichen Eingabedialog-Ablaufplans
In Fig. 1 sind drei Datenbasen 1, 2 und 3 dargestellt. Die erste Datenbasis 1 enthält beispielsweise alle möglichen Zielortnamen Deutschlands in Form von Zielortnamen-Daten. Ein Zielortnamen-Datum umfaßt beispielsweise eine identifikatorbezogene Marke und ein Referenzmodell zur Spracherkennung. Die zweite Datenbasis 2 enthält alle möglichen Identifikatoren, wobei hinter jedem Identifikator zumindest eine Liste der zugehörigen Zielortnamen in Form ihrer identifikatorbezogenen Marken steht. Diese Liste wird im Folgenden "Umgebungsliste" genannt. In der dritten Datenbasis 3 sind alle im Zusammenhang mit Phraseneingaben möglichen Präpositionen abgespeichert. Für Deutschland umfaßt die Datenbasis 1 ca. 60000 Zielortnamen, die Datenbasis 2 ca. 500 Indentifikatoren und die Datenbasis 3 ca. 70 Präpositionen. Dieses Beispiel wird lediglich genannt, um die Größenordnungsverhältnisse der Datenbankstruktur bestehend aus den drei Datenbasen 1 bis 3 darzulegen.
Eine optimale erfindungsgemäße Phraseneingabe setzt sich aus einem Zielortnamen, einer auf den Zielortnamen folgenden Präposition und einem auf die Präposition folgenden Identifikator zusammen. Es gibt keine gleichlautenden Identifikatoren. Allerdings können gleichlautende Identifikatoren und Zielortnamen vorliegen (z. B. "München"). Gleichlautende Zielortnamen besitzen unterschiedliche Identifikatoren, um die Mehrdeutigkeit von Zielortnamen auszuschließen.
Mögliche Phraseneingaben zu den Beispielen nach Fig. 1:
"Garching bei München"
"Freising bei München"
"München in Oberbayern" oder
"München an der Isar" oder
"München in Bayern"
"Münster bei Straubing"
"Münster am Lech"
"Münster Kreis Peine"
"Münster in Unterfranken"
"Neuhütten in Unterfranken"
"Karbach in Unterfranken"
Die Datenbasis 3 enthält beispielsweise die möglichen Präpositionen "in", "bei", "an der", "am", "Kreis". Die Datenbasis 2 enthält beispielsweise als Identifikatoren (größere) Städte (z. B. "München", "Straubing"), Flüsse (z. B. "Lech", "Isar"), Bezirke (z. B. "Peine"), regionale Bezeichnungen und Landkreise (z. B. "Unterfranken", "Oberbayern"). Zu jedem Identifikator können zusätzliche Merkmalsinformationen, wie z. B. die Identifikatorkategorie "Stadt", "Fluß", "Bezirk" bzw. "Landkreis" und der Hinweis auf einen gleichlautenden Zielortnamen in der Datenbasis 1 abgespeichert sein.
Bei den hier genannten Beispielen wird davon ausgegangen, daß die Sprachäußerung richtig verstanden wird, anderenfalls wären Nachfragedialoge erforderlich.
Im Falle einer Phraseneingabe (z. B. "Münster in Unterfranken") wird der Identifikator "Unterfranken" in der Datenbasis 2 gesucht und der Identifikator mit der größten Erkennungswahrscheinlichkeit ausgewählt. Anschließend wird aufgrund der "Umgebungsliste" (Hier: "Münster", "Karbach" und "Neuhütten" bzw. Liste der diesen Zielortnamen zugeordneten programmtechnischen Marken), die hinter dem Identifikator "Unterfranken" steht, dynamisch mittels der Marken aus der ersten Datenbasis 1 ein Teildatenbestand bestehend zumindest aus den für die Spracherkennung erforderlichen Zielortsnamen-Daten erstellt. Aus diesem regional eingeschränkten Teildatenbestand wird der eingegebene Zielortname gesucht. Auch hier gilt der Zielortname ("Münster") mit der größten Erkennungswahrscheinlichkeit als erkannt. Diese Suchstrategie mit der erfindungsgemäßen Datenbankstruktur ist schneller und erkennungssicherer als ein spracherkennungsbezogenes Durchsuchen der gesamten Datenbasis 1 nach dem Zielortnamen und ein anschließend erforderlicher Nachfragedialog bei Mehrdeutigkeit wie beim Stand der Technik.
Im Falle einer Einzelworteingabe (z. B. "München") wird die gesamte Sprachäußerung zunächst als Identifikator interpretiert und in der zweiten Datenbasis 2 gesucht. Da "München" einerseits einem Identifikator in der Datenbasis 2 und andererseits mindestens einem gleichlautenden Zielortnamen in der Datenbasis 1 entspricht und dies auch als Information dem Identifikator "München" zugeordnet ist, wird eine Liste aller "München" als Zielortnamen erstellt und beispielsweise nach Größe der Orte mit Nennung des jeweiligen Identifikators (z. B. in "Oberbayern") zur Auswahl angeboten. Diese Liste kann ebenfalls, wie die Umgebungsliste, bei den jeweiligen Identifikatoren in der zweiten Datenbasis 2 abgelegt sein.
Entspricht ein Identifikator tatsächlich einem gleichlautenden gewünschten Zielort ist diese Suchstrategie die schnellstmögliche. Somit ist zumindest für diesen Fall die Bedienerfreundlichkeit optimiert. Weder ein Nachfragedialog noch eine Bedienfunktionauswahl durch ein vorhergehendes Sprachkommando wie beim Stand der Technik sind erforderlich.
Existiert der gewünschte Zielortname in der Datenbasis 2 als Identifikator nicht, wird der Eingabedialog derart ausgestaltet, daß der Benutzer zu einer Phraseneingabe oder zumindest zur Eingabe eines Identifikators hingeführt wird.
In den Fig. 2a bis 2h ist ein möglicher Gesamt-Eingabedialog mit Ablaufplan des erfindungsgemäßen Verfahrens dargestellt, zum Teil auch für den Fall, in dem die Spracherkennungseinrichtung eine Sprachäußerung möglicherweise falsch versteht.
In Fig. 2a startet der Ablaufplan für eine sprachgesteuerte Zielorteingabe z. B. durch ein Sprachkommando oder durch einen manuellen Tastendruck. Die darauf folgende Definition der Variablen ANZ_GESAMTDURCHLÄUFE, ANZ_NACHFRAGE_ZIELORT und ANZ_NACHFRAGE_IDENTIFIKATOR dient, wie unten genauer erläutert, zum Begrenzen der Anzahl von Fehlversuchen.
Der Eingabedialog beginnt beispielsweise mit der Aufforderung "Bitte geben Sie den Zielort ein". Bestenfalls wird hiernach der Zielort in Form einer Phrase, bestehend aus den Teilen Zielortname, Präposition und Identifikator, eingegeben.
Im Folgenden wird der weitere Ablauf zunächst am Beispiel der eingegebenen Sprachäußerung "München" erläutert. Nach der Spracheingabe wird entsprechend Fig. 2a vom Spracherkennungssystem zunächst versucht, einen Zielortnamen, eine Präposition und einen Identifikator zu separieren, wobei der Identifikator in der zweiten Datenbasis 2 und die Präposition in der dritten Datenbasis 3 gesucht wird. Gilt ein Identifikator mit voranstehender Sprachäußerung oder eine Präposition als erkannt, wird die eingegebene Sprachäußerung als Phraseneingabe (vgl. Verbinder 2) kategorisiert. Wird kein Identifikator, dem ein Teil der Sprachäußerung voransteht, oder keine Präposition erkannt, wird die eingegebene Sprachäußerung als Einzelworteingabe kategorisiert. Im Falle der Spracheingabe "München" liegt also eine Einzelworteingabe vor. Im nächsten Schritt (vgl. Verbinder 1) wird die eingegebene Sprachäußerung "München" mit den in der zweiten Datenbasis 2 abgelegten Identifikatoren, die zugleich auch Zielortname sind, entsprechend Fig. 2b verglichen (vgl. Verbinder 1). Im Beispiel nach Fig. 1 wird bei der Spracheingabe "München" ein Identifikator erkannt.
Daraufhin wird der erkannte Identifikator entsprechend Fig. 2d (vgl. Verbinder 3), hier "München", auf Mehrdeutigkeit überprüft, d. h. ob der Zielortname "München" mehrmals in Deutschland vorkommt. Diese Information ist dem erkannten Identifikator mit Verweis auf die entsprechenden Zielortnamen hinterlegt. Bei eindeutigen Zielortnamen ist der Zielort bereits richtig erkannt. Im vorliegenden Fall sind zumindest zwei Zielortnamen "München" vorhanden. Beispielsweise gibt das Spracherkennungssystem im Folgenden zunächst den größten Zielort in Form einer Zielortphrase aus: "Möchten Sie nach München in Oberbayern fahren?" Wird dieser Zielort als der richtige bestätigt, ist die Zielorteingabe erfolgreich beendet. Wird dagegen der dargebotene Zielort abgelehnt, werden beispielsweise alle gleichnamigen Zielorte, hier "München", mit Nennung der geographischen Lage ("München in Oberbayern", "München bei Hamburg", . . .) auf dem Bordmonitor zur Auswahl des gewünschten Zielortnamens aus der Liste angeboten.
Ist der gewünschte Zielort in der Liste nicht enthalten, wird gemäß Fig. 2h (vgl. Verbinder 7) mittels des Zählers ANZ_GESAMTDURCHLÄUFE überprüft, wie viele Fehlversuche bereits sprachgesteuert vorgenommen wurden. Bei Erreichen einer vorgegebenen Schwelle, hier ANZ_GESAMTDURCHLÄUFE = 2, wird eine manuelle Zielorteingabe vorgeschlagen. Ist diese vorgegebene Schwelle noch nicht erreicht, wird zu Beginn des Eingabedialoges (vgl. Verbinder 8) zurückgekehrt.
Im Folgenden wird der Ablaufplan am Beispiel der Spracheingabe "Münster" in Fig. 2a weiter erläutert. Wieder wird die Spracheingabe als Einzelworteingabe kategorisiert. Hier gilt jedoch entsprechend Fig. 2b kein Identifikator, der zugleich Zielortname ist, in der Datenbasis 2 als erkannt. In diesem Fall wird gemäß Fig. 2e (vgl. Verbinder 4) zunächst mittels des Zählers ANZ_NACHFRAGE_IDENTIFIKATOR die Häufigkeit der Fehlversuche wieder überprüft. Ist eine vorgegebene Schwelle, hier ebenfalls ANZ_NACHFRAGE_IDENTIFIKATOR = 2, noch nicht erreicht, wird ein Nachfragedialog gestartet. Beispielsweise wird der Benutzer aufgefordert, eine genauere Ortslage zu spezifizieren. Es wird auf eine Spracheingabe gewartet, die bestenfalls ein Identifikator ist. Am Beispiel des Zielortnamens "Münster" folgt an diesem Punkt des Ablaufplans z. B. die Spracheingabe "Unterfranken" oder "in Unterfranken". Im Falle der Spracheingabe "in Unterfranken" wird Unterfranken als Identifikator erkannt, da dieser Teil der Sprachäußerung nach der Präposition "in" folgt. Im Falle der Spracheingabe "Unterfranken" wird die gesamte Sprachäußerung als Identifikator gewertet.
Gemäß Fig. 2e wird die Sprachäußerung mit allen in der Datenbasis 2 abgelegten Identifikatoren verglichen. Im Falle der vorhergehenden Spracheingabe "in Unterfranken" wird der Identifikator von der Präposition separiert, und mit allen in der Datenbasis 2 abgelegten Identifikatoren verglichen.
Wird kein Identifikator aus der Datenbasis 2 erkannt, wird gemäß Fig. 2e (über Verbinder 4 zu Fig. 2e), wie bereits beschrieben, der Identifikator nochmals nachgefragt. Wird ein Identifikator erkannt und ausgewählt (vgl. Verbinder 2, Fig. 2c), wird dynamisch, d. h. in Echtzeit, ein spracherkennungsbezogener Teildatenbestand aufgrund der "Umgebungsliste" des Identifikators aus der ersten Datenbasis 1 generiert. Im vorliegenden Beispiel werden alle Zielortnamen-Daten, die dem Identifikator "Unterfranken" zugeordnet sind, ausgewählt: "Neuhütten", "Karbach" und "Münster". Die Spracheingabe des gewünschten Zielortnamens, hier "Münster", kann nach der Spracheingabe gemäß Fig. 2a des Ablaufplans bis dahin in einem flüchtigen Speicher des Spracherkennungssystem abgespeichert werden.
Im Folgenden wird gemäß Fig. 2g (vgl. Verbinder 6) im generierten Teildatenbestand überprüft, ob die als Zielortname interpretierte Spracheingabe einem Zielort aus dem Teildatenbestand entspricht. Wird der Zielortname erkannt, wird gemäß Fig. 2d (vgl. Verbinder 3), wie bereits beschrieben, weiter vorgegangen. Gilt jedoch kein Zielortname als erkannt, z. B. wenn die Spracheingabe "Münster" falsch oder zu undeutlich ausgesprochen wurde, wird nochmals entweder der Identifikator gemäß Fig. 2e (über Verbinder 4) oder der Zielortname gemäß Fig. 2f (über Verbinder 5) nachgefragt. Hier wird zunächst die Anzahl der Nachfrageversuche von Identifikator und Zielortname miteinander verglichen und sich für die weniger nachgefragte Information entschieden. Maximal werden jedoch nur zwei Nachfrageversuche sowohl für den Identifikator als auch für den Zielortnamen pro Gesamtdurchlauf zugelassen. Anschließend wird gemäß Fig. 2g (vgl. Verbinder 6), wie bereits beschrieben, weiter vorgegangen.
Schließlich wird im Folgenden der Ablaufplan anhand einer optimalen Phraseneingabe in Fig. 2a erläutert. Beispielsweise wird nach der Aufforderung zur Eingabe eines Zielortes die Spracheingabe "Münster in Unterfranken" vorgenommen. Es wird bei diesem Beispiel von einer ausreichenden Deutlichkeit der Spracheingabe ausgegangen. Hiernach ist eine Separierung von Zielortname, Präposition und Identifikator möglich. Da sowohl eine Präposition als auch ein Identifikator vorhanden ist und als solche erkannt werden, wird die Spracheingabe als Phraseneingabe kategorisiert. Daraufhin wird gemäß Fig. 2c (über Verbinder 2), wie bereits beschrieben, vorgegangen.

Claims (9)

1. Vorrichtung zur Spracheingabe eines Zielortes mit Hilfe eines definier­ ten Eingabedialogs in ein Zielführungssystem im Echtzeitbetrieb mit Mitteln, durch die eine eingegebene Sprachäußerung eines Benutzers mittels einer Spracherkennungseinrichtung erfaßt, mit gespeicherten Sprachäußerungen verglichen sowie gemäß ihrer Erkennungswahr­ scheinlichkeit klassifiziert wird und durch die die gespeicherte Sprachäußerung mit der größten Erkennungswahrscheinlichkeit als die eingegebene Sprachäußerung erkannt wird, dadurch gekennzeichnet, daß die einem Zielort zugeordneten gespeicherten Sprachäußerungen zumindest aus dem Zielortnamen und mindestens einer den Zielortna­ men eindeutig identifizierenden, regional einschränkenden Zusatz­ information zusammengesetzt sind, wobei jeder Zielortname mit einem Hinweissymbol in einer ersten Datenbasis (1) und jede Zusatzinforma­ tion in einer zweiten Datenbasis (2) abgelegt ist.
2. Vorrichtung nach Patentanspruch 1, dadurch gekennzeichnet, daß in einer dritten Datenbasis (3) Präpositionen abgelegt sind, die zur Sepa­ rierung von Zielortname und Zusatzinformation in einer eingegebenen Sprachäußerung dienen.
3. Verfahren mit einer Vorrichtung nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, daß nach der Eingabe einer Sprachäußerung von der Spracherkennungseinrichtung geprüft wird, ob zumindest ein Teil der Sprachäußerung eine Zusatzinformation ist, und den Benutzer bei Bedarf im weiteren Verlauf auf die Spracheingabe einer Zusatzinforma­ tion oder auf eine definierte Phraseneingabe hinführt, durch die für die Spracherkennungseinrichtung erkennbar wird, daß zumindest ein Teil der Sprachäußerung eine Zusatzinformation ist.
4. Verfahren nach Patentanspruch 3 oder Verfahren mit einer Vorrichtung nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, daß nach der der Eingabe einer Sprachäußerung diese von der Spracherkennungs­ einrichtung einer von mindestens zwei Eingabekategorien zugeordnet wird, wobei eine erste Eingabekategorie als Phraseneingabe, wenn die Spracherkennungseinrichtung einen Teil der Sprachäußerung für eine Zusatzinformation hält, und eine zweite Eingabekategorie als Einzel­ worteingabe, wenn die Spracherkennungseinrichtung keinen Teil der Sprachäußerung für eine Zusatzinformation hält, definiert werden.
5. Verfahren nach Patentanspruch 3 oder 4, dadurch gekennzeichnet, daß wenn ein Teil der Sprachäußerung als Zusatzinformation in der zweiten Datenbasis (2) erkannt wird, ein dieser Zusatzinformation zugeordneter Teildatenbestand aus der ersten Datenbasis (1) generiert wird, in dem der gewünschte Zielortname aufgrund der eingegebenen Sprachäußerung gesucht wird.
6. Verfahren nach Patentanspruch 4, dadurch gekennzeichnet, daß wenn kein Teil der Sprachäußerung für eine eingegebene Zusatzinformation gehalten wird, die gesamte Sprachäußerung in der zweiten Datenbasis (2) gesucht wird, und daß die gespeicherte Zusatzinformation mit der größten Erkennungswahrscheinlichkeit aus der zweiten Datenbasis (2) als eingegebener Zielortname ausgewählt wird.
7. Verfahren nach Patentanspruch 6, dadurch gekennzeichnet, daß im Falle eines Nichterkennung einer Zusatzinformation in der zweiten Datenbasis (2) der Benutzer im Rahmen des weiteren Eingabedialogs zur Spracheingabe einer Zusatzinformation aufgefordert wird.
8. Verfahren nach einem der Patentansprüche 3 bis 7, dadurch gekenn­ zeichnet, daß die definierte Phraseneingabe zumindest aus einem Ziel­ ortnamen, und einer Zusatzinformation besteht.
9. Verfahren nach einem der Patentansprüche 3 bis 8, dadurch gekenn­ zeichnet, daß eine eingegebene Sprachäußerung als Phraseneingabe kategoriesiert wird, wenn ein Teil der Sprachäußerung als Präposition oder als Zusatzinformation, der ein Teil der Sprachäußerung voran­ steht, erkannt wird.
DE10012572A 2000-03-15 2000-03-15 Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem Expired - Fee Related DE10012572C2 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
DE10012572A DE10012572C2 (de) 2000-03-15 2000-03-15 Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
US10/181,292 US7209884B2 (en) 2000-03-15 2001-03-08 Speech input into a destination guiding system
EP01921321A EP1264302B1 (de) 2000-03-15 2001-03-08 Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
AT01921321T ATE342566T1 (de) 2000-03-15 2001-03-08 Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
PCT/EP2001/002606 WO2001069592A1 (de) 2000-03-15 2001-03-08 Vorrichtung und verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem
JP2001567584A JP4928701B2 (ja) 2000-03-15 2001-03-08 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための方法
ES01921321T ES2270992T3 (es) 2000-03-15 2001-03-08 Dispositivo y procedimiento de entrada por voz de un lugar de destino con ayuda de un dialogo de entrada definido en un sistema de guiado a destino.
DE50111198T DE50111198D1 (de) 2000-03-15 2001-03-08 Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10012572A DE10012572C2 (de) 2000-03-15 2000-03-15 Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem

Publications (2)

Publication Number Publication Date
DE10012572A1 true DE10012572A1 (de) 2001-09-27
DE10012572C2 DE10012572C2 (de) 2003-03-27

Family

ID=7634786

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10012572A Expired - Fee Related DE10012572C2 (de) 2000-03-15 2000-03-15 Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
DE50111198T Expired - Lifetime DE50111198D1 (de) 2000-03-15 2001-03-08 Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE50111198T Expired - Lifetime DE50111198D1 (de) 2000-03-15 2001-03-08 Verfahren zur spracheingabe eines zielortes mit hilfe eines definierten eingabedialogs in ein zielführungssystem

Country Status (7)

Country Link
US (1) US7209884B2 (de)
EP (1) EP1264302B1 (de)
JP (1) JP4928701B2 (de)
AT (1) ATE342566T1 (de)
DE (2) DE10012572C2 (de)
ES (1) ES2270992T3 (de)
WO (1) WO2001069592A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1376063A2 (de) 2002-06-20 2004-01-02 Robert Bosch Gmbh Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis
US7162424B2 (en) 2001-04-26 2007-01-09 Siemens Aktiengesellschaft Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language
US8190439B2 (en) 2006-02-10 2012-05-29 Svox Ag Method for preparing information for a speech dialogue system
DE10313220B4 (de) * 2002-05-24 2013-09-19 Robert Bosch Gmbh Verfahren zur Eingabe von Ortsnamen
DE10125825B4 (de) * 2001-05-26 2014-09-11 Robert Bosch Gmbh Verfahren zur Spracheingabe und Datenträger
US9193315B2 (en) 2007-11-02 2015-11-24 Volkswagen Ag Method and apparatus for operating a device in a vehicle with a voice controller

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7313525B1 (en) * 2001-09-26 2007-12-25 Sprint Spectrum L.P. Method and system for bookmarking navigation points in a voice command title platform
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
EP1361740A1 (de) * 2002-05-08 2003-11-12 Sap Ag Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
DE102005018174A1 (de) * 2005-04-19 2006-11-02 Daimlerchrysler Ag Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
KR100819234B1 (ko) * 2006-05-25 2008-04-02 삼성전자주식회사 네비게이션 단말의 목적지 설정 방법 및 장치
DE102006035780B4 (de) 2006-08-01 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems
DE102006051331A1 (de) * 2006-10-31 2008-05-08 Robert Bosch Gmbh Verfahren zur Auswahl eines Fahrziels
US8909528B2 (en) * 2007-05-09 2014-12-09 Nuance Communications, Inc. Method and system for prompt construction for selection from a list of acoustically confusable items in spoken dialog systems
DE102007033472A1 (de) * 2007-07-18 2009-01-29 Siemens Ag Verfahren zur Spracherkennung
DE102007037567A1 (de) * 2007-08-09 2009-02-12 Volkswagen Ag Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
DE102008028090A1 (de) * 2008-02-29 2009-09-10 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
GB2470357A (en) * 2009-05-18 2010-11-24 Denso Corp Disambiguation of location inputs to a navigation system
DE102010026708A1 (de) * 2010-07-10 2012-01-12 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem
DE102011103869A1 (de) * 2011-06-10 2012-12-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle
KR20130123613A (ko) * 2012-05-03 2013-11-13 현대엠엔소프트 주식회사 음성인식 경로안내장치 및 방법
CN103618708A (zh) * 2013-11-19 2014-03-05 青岛海尔软件有限公司 一种语音验证方法、装置及系统
JP2015129672A (ja) * 2014-01-07 2015-07-16 アルパイン株式会社 施設検索装置および方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE4029716C2 (de) * 1989-12-29 1998-02-19 Pioneer Electronic Corp Sprachgesteuertes Fernbedienungssystem
DE19709518C1 (de) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6057395A (ja) * 1983-09-08 1985-04-03 松下電器産業株式会社 音声認識方法
US4866778A (en) 1986-08-11 1989-09-12 Dragon Systems, Inc. Interactive speech recognition apparatus
JPH0225897A (ja) * 1988-07-14 1990-01-29 Ricoh Co Ltd 音声ダイヤリング装置
JPH09114489A (ja) * 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
US6567778B1 (en) * 1995-12-21 2003-05-20 Nuance Communications Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores
US6023697A (en) * 1997-02-24 2000-02-08 Gte Internetworking Incorporated Systems and methods for providing user assistance in retrieving data from a relational database
DE19742054A1 (de) * 1997-09-24 1999-04-01 Philips Patentverwaltung Eingabesystem wenigstens für Orts- und/oder Straßennamen
JP3671636B2 (ja) * 1997-12-09 2005-07-13 株式会社日立製作所 音声認識装置
JPH11250078A (ja) * 1998-02-27 1999-09-17 Fujitsu Ten Ltd 音声認識機能付案内装置
WO1999048088A1 (en) 1998-03-20 1999-09-23 Inroad, Inc. Voice controlled web browser
JP3339460B2 (ja) * 1999-04-27 2002-10-28 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
JP3980791B2 (ja) * 1999-05-03 2007-09-26 パイオニア株式会社 音声認識装置を備えたマンマシンシステム
JP4283984B2 (ja) * 2000-10-12 2009-06-24 パイオニア株式会社 音声認識装置ならびに方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4029716C2 (de) * 1989-12-29 1998-02-19 Pioneer Electronic Corp Sprachgesteuertes Fernbedienungssystem
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE19709518C1 (de) * 1997-03-10 1998-03-05 Daimler Benz Aerospace Ag Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162424B2 (en) 2001-04-26 2007-01-09 Siemens Aktiengesellschaft Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language
DE10125825B4 (de) * 2001-05-26 2014-09-11 Robert Bosch Gmbh Verfahren zur Spracheingabe und Datenträger
DE10313220B4 (de) * 2002-05-24 2013-09-19 Robert Bosch Gmbh Verfahren zur Eingabe von Ortsnamen
EP1376063A2 (de) 2002-06-20 2004-01-02 Robert Bosch Gmbh Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis
EP1376063A3 (de) * 2002-06-20 2007-01-10 Robert Bosch Gmbh Verfahren zur Zieleingabe an einem Navigationsgerät und Navigationsdatenbasis
US8190439B2 (en) 2006-02-10 2012-05-29 Svox Ag Method for preparing information for a speech dialogue system
US9193315B2 (en) 2007-11-02 2015-11-24 Volkswagen Ag Method and apparatus for operating a device in a vehicle with a voice controller

Also Published As

Publication number Publication date
ES2270992T3 (es) 2007-04-16
US20030014255A1 (en) 2003-01-16
US7209884B2 (en) 2007-04-24
DE50111198D1 (de) 2006-11-23
JP4928701B2 (ja) 2012-05-09
EP1264302A1 (de) 2002-12-11
ATE342566T1 (de) 2006-11-15
JP2003527631A (ja) 2003-09-16
WO2001069592A1 (de) 2001-09-20
DE10012572C2 (de) 2003-03-27
EP1264302B1 (de) 2006-10-11

Similar Documents

Publication Publication Date Title
DE10012572C2 (de) Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
EP1071075B1 (de) Verfahren und Vorrichtung zur Eingabe von Daten
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
EP1176395B1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE19709518C1 (de) Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
DE19847419A1 (de) Verfahren zur automatischen Erkennung einer buchstabierten sprachlichen Äußerung
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE60110990T2 (de) Hanhabung von gleichlautenden Wörtern in einem Sprachabfragesystem
DE102006036338A1 (de) Verfahren zum Erzeugen einer kontextbasierten Sprachdialogausgabe in einem Sprachdialogsystem
EP1739655A2 (de) Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE10246029A1 (de) Spracherkennungssystem, Programm und Navigationssystem
DE69920714T2 (de) Spracherkennung
EP1238250B1 (de) Spracherkennungsverfahren und -einrichtung
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE10129005B4 (de) Verfahren zur Spracherkennung und Spracherkennungssystem
EP1455163B1 (de) Verfahren zur Eingabe von Zielen in ein Navigationssystem
DE60222413T2 (de) Spracherkennung
DE102015014206B4 (de) Verfahren und Vorrichtung zum Auswählen eines Navigationsziels aus einer von mehreren Sprachregionen mittels Spracheingabe
EP1179818B1 (de) Automatische Erkennung von Unternehmensnamen in sprachlichen Äusserungen
DE19937490B4 (de) Verfahren und Vorrichtung zur Eingabe von Steuerungsbefehlen für Komfortgeräte, insbesondere in Kraftfahrzeugen
DE10013879A1 (de) Verfahren zur Sprachsteuerung eines elektrischen Geräts
DE10051794C2 (de) Verfahren zur eindeutigen Zuweisung eines Befehls und Verfahren zur Sprachsteuerung
DE19959850A1 (de) Kommunikationssystem und Verfahren zum Bereitstellen eines Internet-Zugangs über ein Telefon

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8304 Grant after examination procedure
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee