DE10207895A1 - Verfahren zur Spracherkennung und Spracherkennungssystem - Google Patents

Verfahren zur Spracherkennung und Spracherkennungssystem

Info

Publication number
DE10207895A1
DE10207895A1 DE10207895A DE10207895A DE10207895A1 DE 10207895 A1 DE10207895 A1 DE 10207895A1 DE 10207895 A DE10207895 A DE 10207895A DE 10207895 A DE10207895 A DE 10207895A DE 10207895 A1 DE10207895 A1 DE 10207895A1
Authority
DE
Germany
Prior art keywords
list
speech
subunits
elements
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10207895A
Other languages
English (en)
Other versions
DE10207895B4 (de
Inventor
Marcus Hennecke
Walter Koch
Gerhard Nuesle
Richard Reng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Harman Becker Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman Becker Automotive Systems GmbH filed Critical Harman Becker Automotive Systems GmbH
Priority to DE10207895A priority Critical patent/DE10207895B4/de
Priority to US10/371,982 priority patent/US7392189B2/en
Publication of DE10207895A1 publication Critical patent/DE10207895A1/de
Application granted granted Critical
Publication of DE10207895B4 publication Critical patent/DE10207895B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems

Abstract

Vorgeschlagen wird ein einfaches und kostengünstiges Verfahren und Spracherkennungssystem zur Spracherkennung von Spracheingaben eines Benutzers zur Auswahl eines gewünschten Listenelements aus einer Gesamtliste von Listenelementen. DOLLAR A Hierzu muss der Benutzer als Spracheingabe das Gesamtwort des gewünschten Listenelements benennen. Die Spracheingabe wird in einem ersten Erkennungsvorgang in Sprachuntereinheiten zerlegt und hieraus mindestens eine Sequenz dieser Sprachuntereinheiten gebildet. Für das Gesamtwort wird in einem zweiten Erkennungsvorgang eine auf der Grundlage der mindestens einen Sequenz von Sprachuntereinheiten konfigurierte Spracherkennung durchgeführt. DOLLAR A Verfahren zur Spracherkennung und Spracherkennungssystem für Zielführungssysteme oder Navigationssysteme.

Description

  • In zunehmenden Maße werden Verfahren zur Spracherkennung und Spracherkennungssysteme für unterschiedliche Aufgaben und Anwendungen benötigt, insbesondere um Abläufe oder Vorgänge sprachgesteuert und damit benutzerfreundlich zu gestalten. In der Regel muss der Benutzer hierbei mittels Spracheingabe ein bestimmtes Listenelement aus einer Datenliste als Gesamtliste von Listenelementen benennen; diese Spracheingabe wird einer Spracherkennungseinheit zur Verarbeitung zugeführt, die anhand der verarbeiteten Spracheingabe mindestens ein Listenelement aus der Gesamtliste von Listenelementen auswählt.
  • Probleme treten jedoch insbesondere bei umfangreichen Gesamtlisten mit einer Vielzahl von Listenelementen auf, wie es bsp. in Zielführungssystemen oder Navigationssystemen bei Städtenamen oder Straßennamen als Listenelementen oder in Telefonsystemen bei Personennamen als Listenelementen der Fall ist (typischerweise enthalten derartige Gesamtlisten zehntausende bis hunderttausende Listenelemente): da die Spracherkennungseinheit nur eine begrenzte Anzahl von Spracheingaben des Benutzers verarbeiten kann (typischerweise liegt diese Anzahl in der Größenordnung von wenigen tausend Worten und damit Listenelementen), können bestimmte Anwendungen entweder nicht oder nur mit großem Aufwand (aufwendige Aufbereitung und Verarbeitung der Spracheingabe) durchgeführt werden.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Spracherkennung und ein Spracherkennungssystem anzugeben, mit denen auf einfache Weise und mit geringem Aufwand mit einer hohen Zuverlässigkeit eine Verarbeitung von Spracheingaben auch bei umfangreichen Gesamtlisten mit einer beliebigen Anzahl von Listenelementen ermöglicht wird.
  • Diese Aufgabe wird nach der Erfindung durch die Merkmale im Kennzeichen des Patentanspruchs 1 und des Patentanspruchs 12 gelöst.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Bestandteil der übrigen Patentansprüche.
  • Erfindungsgemäß wird zur Verarbeitung der Spracheingabe eines Benutzers auch bei umfangreichen Gesamtlisten mit einer beliebigen Anzahl von Listenelementen eine Clusterung (Komprimierung durch Zusammenfassen) der Gesamtliste in eine auf einfache Weise zu verarbeitende Einheit mit einem auf beliebige Arten von Daten als Listenelemente anwendbaren Verfahren und Spracherkennungssystem durchgeführt; hierfür sind zwei aufeinanderfolgende Erkennungsvorgänge durch eine für beide Erkennungsvorgänge mit unterschiedlichem Vokabular konfigurierte Spracherkennungseinheit und ein Abgleichvorgang zur Generierung einer Teilliste als gegenüber der Gesamtliste eingeschränktes Vokabular für den zweiten Erkennungsvorgang vorgesehen.
  • Als Spracheingabe muss der Benutzer zur Auswahl des gewünschten Listenelements lediglich die vollständige Bezeichnung dieses Listenelements (das Gesamtwort des gewünschten Listenelements) benennen (sprechen), beispielsweise einen Städtenamen als Listenelement bei der Zieleingabe in einem Navigationssystem oder den Namen einer Person als Listenelement bei der Auswahl aus einer Telefondatenbank oder Adressdatenbank; die Spracheingabe des Benutzers wird in einer Speichereinheit des Spracherkennungssystems gespeichert.
  • Der erste Erkennungsvorgang wird zur Generierung von geeigneten Sprachuntereinheiten als Bestandteile (lautliche Stücke) der Spracheingabe des Benutzers mit einer mit den gewünschten Bestandteilen der Spracheingabe des Benutzers (Sprachuntereinheiten) als Vokabular vorkonfigurierten Spracherkennungseinheit durchgeführt. Hierzu wird die Spracheingabe des Benutzers unabhängig von der vorgegebenen Gesamtliste an Listenelementen durch die Spracherkennungseinheit in die gewünschten Bestandteile (Sprachuntereinheiten) zerlegt und somit aus der Spracheingabe des Benutzers mindestens eine Sequenz an aufeinanderfolgenden Sprachuntereinheiten gebildet; die Sprachuntereinheiten als lautliche Stücke der Spracheingabe des Benutzers können jeweils entweder aus mindestens einem Phonemteil oder aus mindestens einem Phonem oder aus mindestens einem Buchstaben oder aus mindestens einer Silbe bestehen, so dass als Sequenz der aufeinanderfolgenden Sprachuntereinheiten mindestens eine Sequenz von Phonemteilen oder mindestens eine Sequenz von Phonemen oder mindestens eine Sequenz von Buchstaben oder mindestens eine Sequenz von Silben gebildet wird. Hierzu muss entsprechend die Spracherkennungseinheit für den ersten Erkennungsvorgang mit diesen Sprachuntereinheiten als Vokabular vorkonfiguriert werden, insbesondere wird die Spracherkennungseinheit für den ersten Erkennungsvorgang also mit Phonemteilen oder Phonemen oder Buchstaben oder Silben vorkonfiguriert. Vorzugsweise werden bei der Zerlegung der Spracheingabe des Benutzers mehrere alternative Sequenzen von Sprachuntereinheiten gebildet, die aus zueinander ähnlichen oder miteinander verwechselbaren Sprachuntereinheiten zusammengesetzt sind; bsp. werden bei der Zerlegung der Spracheingabe des Benutzers drei bis fünf alternative Sequenzen von Sprachuntereinheiten gebildet.
  • Nach dem ersten Erkennungsvorgang wird aus der mittels der Zerlegung der Spracheingabe des Benutzers gebildeten mindestens einen Sequenz von Sprachuntereinheiten mindestens eine Zeichenfolge als Sequenz aufeinanderfolgenden Zeichen generiert, die für den Abgleichvorgang mit den Listenelementen der Gesamtliste herangezogen wird; bsp. werden die Zeichen dieser Zeichenfolge jeweils als Phoneme oder Buchstaben oder Silben dargestellt, so dass hierdurch als mindestens eine Zeichenfolge eine Sequenz von Phonemen oder eine Sequenz von Buchstaben oder eine Sequenz von Silben generiert wird. Die Zeichen der mindestens einen Zeichenfolge werden auf eine für den Abgleichvorgang mit den Listenelementen der Gesamtliste geeignete Weise dargestellt: je nach Art des Abgleichvorgangs sowie der für die Zeichen der mindestens einen Zeichenfolge und für die Listenelemente der Gesamtliste gewählten Darstellungsweise kann als mindestens eine Zeichenfolge entweder die Sequenz von Sprachuntereinheiten selbst herangezogen werden (d. h. für den Abgleichvorgang mit den Listenelementen der Gesamtliste entspricht die Darstellungsweise der Zeichen der mindestens einen Zeichenfolge der Darstellungsweise der Sprachuntereinheiten), oder aber die Sequenz von Sprachuntereinheiten wird einem Abbildungsvorgang unterzogen und hierdurch die mindestens eine Zeichenfolge als Abbildungstabelle aufgrund einer Transformation der lautlichen Stücke der Sprachuntereinheiten in die Zeichen der Zeichenfolge generiert (bsp. durch die Transformation von Phonemen als Sprachuntereinheiten in Buchstaben als Zeichen der mindestens einen Zeichenfolge). Falls für den Abgleichvorgang die Darstellungsweise der Zeichen der mindestens einen Zeichenfolge und der Listenelemente der Gesamtliste unterschiedlich sein kann (bsp. kann durch automatische Transkription ein direkter Abgleich von durch Phoneme repräsentierten Zeichen der mindestens einen Zeichenfolge mit durch Buchstaben repräsentierten Listenelementen der Gesamtliste oder von durch Buchstaben repräsentierten Zeichen der mindestens einen Zeichenfolge mit durch Phoneme repräsentierten Listenelementen der Gesamtliste erfolgen), kann als mindestens eine Zeichenfolge in der Regel die aufgrund der Zerlegung in Sprachuntereinheiten gewonnene mindestens eine Sequenz von Sprachuntereinheiten selbst ohne vorherigen Abbildungsvorgang verwendet werden. Vorzugsweise wird jedoch für den Abgleichvorgang die gleiche Darstellungsweise für die Zeichen der mindestens einen Zeichenfolge und für die Listenelemente der Gesamtliste gewählt, so dass nur bei bereits übereinstimmender Darstellungsweise für die Listenelemente der Gesamtliste und für die Sprachuntereinheiten für den Abgleichvorgang die Sequenz von Sprachuntereinheiten ohne vorherigen Abbildungsvorgang direkt als Zeichenfolge verwendet werden kann; bei voneinander differierender Darstellungsweise für die Listenelemente der Gesamtliste und für die Sprachuntereinheiten wird die Darstellungsweise der Sprachuntereinheiten an die Darstellungsweise der Listenelemente der Gesamtliste angepasst, insbesondere im Rahmen des Abbildungsvorgangs der mindestens einen Sequenz von Sprachuntereinheiten auf die mindestens eine Zeichenfolge (bsp. wird bei einer Darstellung der Listenelemente der Gesamtliste durch Buchstaben und einer Zerlegung der Spracheingabe des Benutzers in mindestens eine aus Phonemen als Sprachuntereinheiten bestehende Sequenz von Sprachuntereinheiten diese aus Phonemen bestehende mindestens eine Sequenz von Sprachuntereinheiten auf mindestens eine aus Buchstaben bestehende Zeichenfolge abgebildet). Jede der mindestens einen Sequenz von Sprachuntereinheiten wird hierbei auf mindestens eine Zeichenfolge abgebildet; vorzugsweise wird bei mehreren Sequenzen von Sprachuntereinheiten auf diese Weise eine Hypothesenliste aus mehreren Zeichenfolgen mit ähnlichen oder verwechselbaren Zeichen erstellt.
  • Durch den Abgleichvorgang ("matching") der in der geeigneten Darstellungsweise dargestellten mindestens einen Zeichenfolge mit den Listenelementen der Gesamtliste wird durch die Spracherkennungseinheit aus einer die Gesamtzahl der Listenelemente enthaltenden Datenbank eine Teilliste mit einer gegenüber der Gesamtzahl an Listenelementen eingeschränkten Anzahl an Listenelementen generiert. Im Abgleichvorgang werden hierzu die Listenelemente der Gesamtliste mit verschiedenen Bewertungen (Wahrscheinlichkeiten) versehen und die Listenelemente mit den besten Bewertungen (höchsten Wahrscheinlichkeiten) in die Teilliste aufgenommen, d. h. diejenigen Listenelemente, die am besten zu der mindestens einen Zeichenfolge passen. Der Abgleichvorgang stellt somit ein fehlertolerantes Filtern der Gesamtliste (der die Gesamtzahl der Listenelemente enthaltenden Datenbank) dar; die Fehlertoleranz ist erforderlich, da die mindestens eine Zeichenfolge (bsp. aufgrund einer fehlerhaften Zerlegung der Spracheingabe des Benutzers in die Sprachuntereinheiten oder aufgrund einer nicht exakten Abbildung der mindestens einen Sequenz von Sprachuntereinheiten auf die entsprechende Zeichenfolge) nicht immer einer korrekten Spracheingabe oder einer korrekten Spracherkennung entsprechen muss. Die maximale Anzahl an Listenelementen für die Teilliste hängt von der Kapazität des Spracherkennungssystems und den Eigenschaften der Spracherkennungseinheit ab; die unter diesen Randbedingungen insbesondere abhängig von der Datenmenge der Datenbank und damit der Gesamtzahl an Listenelementen der Gesamtliste und der minimalen Anzahl von gesprochenen Zeichen (Buchstaben, Ziffern etc.) festlegbare Anzahl an Listenelementen für die Teilliste kann als Einstellungsparameter für die Spracherkennungseinheit für den Abgleichvorgang fest oder variabel vorgegeben werden. Vorzugsweise wird die Anzahl an Listenelementen für die Teilliste hierbei recht groß vorgegeben, wodurch gewährleistet ist, dass das der Spracheingabe des Benutzers entsprechende "richtige" Listenelement auch als Listenelement in der Teilliste enthalten ist (und damit auch in das anhand der Teilliste generierte neue Vokabular aufgenommen wird); typischerweise umfasst die Teilliste mehrere hundert bis einige tausend Listenelemente, wobei bsp. für die Eingabe von Navigationszielen (Ortsnamen) eine Größenordnung von 500 bis 1000 Listenelementen für die Teilliste angemessen ist.
  • Der zweite Erkennungsvorgang wird auf der Basis der Spracheingabe des Benutzers mit der durch die Teilliste als eingeschränkter Gesamtliste auf ein spezifisches Vokabular konfigurierten Spracherkennungseinheit durchgeführt; d. h. das gespeicherte Gesamtwort aus der Spracheingabe des Benutzers wird der mit dem Vokabular der Teilliste (den Listenelementen der Teilliste) konfigurierten Spracherkennungseinheit zugeführt. Das neue Vokabular kann entweder anhand der extrahierten Einträge der Listenelemente der Teilliste (d. h. auf textlicher Basis, bsp. als ASCII-Text) oder anhand der den Einträgen der Listenelemente der Teilliste entsprechenden phonetischen Verschriftung der Listenelemente der Teilliste (d. h. auf phonetischer Basis) erzeugt und zur Konfiguration der Spracherkennungseinheit in die Spracherkennungseinheit geladen werden; bei einer phonetischen Verschriftung der Listenelemente und damit der Daten der Datenlisten wird hierbei üblicherweise eine bessere Qualität und damit eine höhere Erkennrate erzielt. Insbesondere bei Eigennamen enthaltenden Datenlisten (bsp. bei Datenlisten mit Städtenamen) ist eine Erzeugung des neuen Vokabulars anhand der phonetischen Verschriftung (d. h. auf phonetischer Basis) vorteilhaft, da Eigennamen nicht immer den entsprechenden Regeln der spezifischen Landessprache folgen.
  • Als Erkennungsergebnis des zweiten Erkennungsvorgangs wird mindestens ein Listenelement als "wahrscheinlichstes" Listenelement ausgewählt, das der Spracheingabe des Benutzers und damit dem gewünschten Listenelement mit der größten Wahrscheinlichkeit entspricht; vorzugsweise werden mehrere "wahrscheinliche" Listenelemente ausgewählt, d. h. mehrere der Spracheingabe des Benutzers und damit dem gewünschten Listenelement mit der größten Wahrscheinlichkeit entsprechende Listenelemente, typischerweise werden hierbei durch die Spracherkennungseinheit 5' bis 10 Listenelemente als die "wahrscheinlichsten" Listenelemente generiert. Das Erkennungsergebnis wird dem Benutzer auf geeignete Weise mitgeteilt, insbesondere durch eine geeignete Ausgabeeinheit oder Anzeigeeinheit auf optische und/oder akustische Weise.
  • Vorteilhafterweise ist mit dem vorgestellten Verfahren und Spracherkennungssystem eine generische Unterteilung umfangreicher (beliebig großer) Datenlisten (Gesamtlisten) mit einer Vielzahl von Listenelementen, bsp. Telefonbücher in Telefonauskunftssystemen oder geographische Datenlisten wie Ortsnamen oder Straßennamen in Zielführungssystemen oder Navigationssystemen oder Datenlisten in Systemen zur Abfrage von Datenbanken, in kleinere auf einfache Weise verarbeitbare Einheiten (Teillisten) möglich. Da zwei Erkennungsvorgänge für die Spracheingabe des Benutzers vorgenommen werden (einerseits hinsichtlich einer Zerlegung der Spracheingabe des Gesamtworts in mindestens eine Sequenz von Sprachuntereinheiten, andererseits hinsichtlich des Vergleichs der Spracheingabe des Gesamtworts mit einem eingeschränkten Vokabular an Listenelementen), ist eine hohe Genauigkeit und Zuverlässigkeit für die Spracherkennung gegeben, d. h. insbesondere eine hohe Wahrscheinlichkeit für die Erkennung des der Spracheingabe entsprechenden "richtigen" Listenelements aus der Gesamtliste. Aufgrund der Fehlertoleranz bei den beiden Erkennungsvorgängen (d. h. bei der Zerlegung der Spracheingabe in mindestens eine Sequenz von Sprachuntereinheiten beim ersten Erkennungsvorgang und beim Abgleichvorgang zur Erstellung der Teilliste und damit des Vokabulars für den zweiten Erkennungsvorgang) können Fehler oder Ungenauigkeiten bei der Spracheingabe des Benutzers kompensiert werden. Da vom Benutzer als Spracheingabe nur das Gesamtwort des gewünschten Listenelements (d. h. nur die vollständige Bezeichnung des gewünschten Listenelements) gesprochen werden muss, ist der Aufwand für den Benutzer sehr gering.
  • Im Zusammenhang mit der Zeichnung (Fig. 1 und 2) soll die Erfindung anhand eines Ausführungsbeispiels erläutert werden.
  • Hierbei zeigen:
  • Fig. 1 die Systemkomponenten des Spracherkennungssystems,
  • Fig. 2 ein Ablaufschema des Verfahrens zur Spracherkennung.
  • Das Spracherkennungssystem ist bsp. im Navigationssystem eines Kraftfahrzeugs implementiert, bei dem durch die Spracheingabe eines Benutzers zur Zielführung Navigationsdaten (Ortsnamen, Straßennamen) als gewünschte Listenelemente aus einer umfangreichen Gesamtliste ausgewählt werden können; bsp. umfaßt die Gesamtliste als Navigationsdaten und damit als Listenelemente einige Zehntausend Ortsnamen und einige Hunderttausend Straßennamen.
  • Gemäß der Fig. 1 sind zur Spracherkennung der Spracheingabe des Benutzers als Systemkomponenten des Spracherkennungssystems 1 vorgesehen:
    • - die Eingabeeinheit 2 zur Spracheingabe des Benutzers (bsp. ein Mikrofon),
    • - die mit dem Vokabular 4 konfigurierte Spracherkennungseinheit 3 zur Zerlegung der Spracheingabe des Benutzers in Sprachuntereinheiten (bsp. zur Zerlegung der Spracheingabe in Phoneme als Sprachuntereinheiten),
    • - die Speichereinheit 5 zur Speicherung der Spracheingabe des Benutzers als Gesamtwort,
    • - die Abbildungseinheit 6 (bsp. eine Datenbank 7) zur Abbildung der Sprachuntereinheiten in Zeichen einer Zeichenfolge (bsp. zur Abbildung von Phonemen in Buchstaben einer Buchstabenfolge)
    • - die die Gesamtliste enthaltende Datenbank 7, deren Listenelemente durch bestimmte Zeichen (bsp. durch Buchstaben) repräsentiert werden; aus der Datenbank 7 wird ein eingeschränktes Vokabular 8 (eine Teilliste) mit einer gegenüber der Gesamtliste geringeren Anzahl an Listenelementen generiert,
    • - die mit dem eingeschränkten Vokabular 8 konfigurierte Spracherkennungseinheit 9 zum Vergleich der Listenelemente der Teilliste mit der in der Speichereinheit 5 gespeicherten Spracheingabe des Benutzers; als Spracherkennungseinheit 9 kann hierbei die Spracherkennungseinheit 3 herangezogen werden, wobei jeweils das gewünschte Vokabular 4, 8 zur Konfiguration herangezogen wird,
    • - die Ausgabeeinheit 10 zur bsp. akustischen und/oder optischen Ausgabe der für die Spracheingabe des Benutzers als wahrscheinlichste Listenelemente erkannten Listenelemente der Teilliste an den Benutzer (bsp. akustisch über einen Lautsprecher oder optisch über eine bsp. als Display ausgebildete Anzeigeeinheit).
  • Gemäß der Fig. 2 sind zur Spracherkennung der Spracheingabe des Benutzers, bsp. zur Auswahl des gewünschten Listenelements "Blaustein" aus einer die Ortsnamen von Deutschland als Listenelemente enthaltenden Gesamtliste, folgende Verfahrensschritte S1 bis S9 vorgesehen:
    • - S1: Vom Benutzer muß als Spracheingabe lediglich das gewünschte Listenelement und damit der gesamte Ortsnamen gesprochen werden (Gesamtwort als Spracheingabe, bsp. "Blaustein").
    • - S2: In der Spracherkennungseinheit 3 wird eine akustische Vorverarbeitung der Spracheingabe vorgenommen (Eliminierung von störenden Umgebungsgeräuschen etc.).
    • - S3: Die gesamte Spracheingabe des Benutzers (bsp. "Blaustein") wird in der Speichereinheit 5 gespeichert.
    • - S4: Durch die mit dem Vokabular 4 (bsp. mit Phonemen) konfigurierte Spracherkennungseinheit 3 wird im ersten Erkennungsvorgang die Spracheingabe des Benutzers (bsp. "Blaustein") durch die entsprechend konfigurierte Spracherkennungseinheit 3 in Sprachuntereinheiten zerlegt, bsp. durch die mit Phonemen konfigurierte Spracherkennungseinheit 3 in Phoneme als Sprachuntereinheiten. Aus der Spracheingabe des Benutzers (bsp. "Blaustein") werden hierdurch mehrere Sequenzen von Phonemen als Sequenz der Sprachuntereinheiten generiert, bsp. werden drei Sequenzen von Phonemen generiert, bsp. die drei Sequenzen "La: nStaln", "traUnStaln", "graUStaln".
    • - S5: Die Sequenzen der Sprachuntereinheiten (bsp. die Sequenzen von Phonemen) werden durch die Abbildungseinheit 6 (bsp. kann hierfür die Datenbank 7 herangezogen werden) auf entsprechende Sequenzen von Buchstaben (Buchstabenfolgen) als Zeichenfolgen aufeinanderfolgender Zeichen abgebildet, bsp. einerseits auf die aus jeweils 9 Buchstaben bestehenden beiden Buchstabenfolgen "LAHNSTEIN" und "GRAUSTEIN" und andererseits auf die aus 9 Buchstaben bestehende Buchstabenfolge "TRAUNSTEIN" als Zeichenfolgen. Somit wird eine Hypothesenliste von Zeichenfolgen (Buchstabenfolgen) erstellt, in der auch Zeichenfolgen (Buchstabenfolgen) mit ähnlich klingenden und/oder leicht verwechselbaren Buchstaben enthalten sind.
    • - S6: Anhand der von der Spracherkennungseinheit 3 gelieferten Hypothesenliste von Zeichenfolgen (Buchstabenfolgen) wird als Abgleichvorgang ein Listenabgleich mit den durch Buchstaben repräsentierten Listenelementen (Ortsnamen) der Gesamtliste der Datenbank 7 vorgenommen und hieraus eine Teilliste an Listenelementen (Ortsnamen) generiert, deren Buchstaben mit den in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) übereinstimmen oder diesen ähneln; hierbei werden im Abgleichvorgang auch Listenelemente (Ortsnamen) mit ähnlich klingenden Buchstaben wie die Buchstaben der in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) und/oder mit mit den Buchstaben der in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) leicht verwechselbaren Buchstaben berücksichtigt (bsp. werden als Listenelemente der Teilliste auch die Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein" etc. berücksichtigt, insgesamt bsp. ca. 500 Ortsnamen als Listenelemente der Teilliste).
    • - S7: Mit dieser aus dem Listenabgleich der Gesamtliste mit der Hypothesenliste generierten Teilliste an Listenelementen (Ortsnamen) wird die Spracherkennungseinheit 9 konfiguriert, d. h. für die Spracherkennungseinheit 9 wird ein neues (gegenüber der Gesamtliste wesentlich eingeschränktes) Vokabular 8 für den zweiten Erkennungsvorgang bereitgestellt.
    • - S8: In der mit dem eingeschränkten Vokabular 8 neu konfigurierten Spracherkennungseinheit 9 wird im zweiten Erkennungsvorgang das in der Speichereinheit 5 gespeicherte Gesamtwort der Spracheingabe des Benutzers (bsp. "Blaustein") mit den Listenelementen (Ortsnamen) der Teilliste verglichen (d. h. mit den Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein" etc.) und anhand einer Klassifikation durch die Spracherkennungseinheit 9 mindestens ein dem Gesamtwort (bsp. "Blaustein") mit der größten Wahrscheinlichkeit entsprechendes Listenelement der Teilliste (mindestens ein Ortsname) als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt. Bsp. werden mehrere dem Gesamtwort (bsp. "Blaustein") mit der größten Wahrscheinlichkeit entsprechende Listenelemente der Teilliste als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt, bsp. werden fünf Listenelemente der Teilliste als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt (bsp. die vier Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein").
    • - S9: Das Erkennungsergebnis der Spracherkennungseinheit 9 (bsp. die vier Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein") wird dem Benutzer insbesondere über eine akustische Ausgabeeinheit 10 (bsp. einen Lautsprecher) oder über eine optische Ausgabeeinheit 10 (bsp. ein Display) mitgeteilt.

Claims (13)

1. Verfahren zur Spracherkennung von Spracheingaben eines Benutzers zur Auswahl eines gewünschten Listenelements aus einer Gesamtliste von Listenelementen, dadurch gekennzeichnet,
dass der Benutzer als Spracheingabe das Gesamtwort des gewünschten Listenelements benennen muss,
dass die Spracheingabe in einem ersten Erkennungsvorgang in Sprachuntereinheiten zerlegt und hieraus mindestens eine Sequenz dieser Sprachuntereinheiten gebildet wird,
und dass für das Gesamtwort in einem zweiten Erkennungsvorgang eine auf der Grundlage der mindestens einen Sequenz von Sprachuntereinheiten konfigurierte Spracherkennung durchgeführt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
dass das Gesamtwort als Spracheingabe des gewünschten Listenelements gespeichert wird,
dass auf der Grundlage der im ersten Erkennungsvorgang gebildeten mindestens einen Sequenz von Sprachuntereinheiten aus der Gesamtliste von Listenelementen in einem Abgleichvorgang eine Teilliste von Listenelementen generiert wird,
dass im zweiten Erkennungsvorgang mit einer mit den Listenelementen der Teilliste konfigurierten Spracherkennung die Listenelemente der Teilliste mit dem gespeicherten Gesamtwort des gewünschten Listenelements verglichen werden,
und dass anhand dieses Vergleichs als Erkennungsergebnis mindestens ein Listenelement der Teilliste als wahrscheinlichstes dem gewünschten Listenelement entsprechendes Listenelement ausgewählt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Spracheingabe des Gesamtworts des gewünschten Listenelements im ersten Erkennungsvorgang in Phonemteile oder Phoneme oder Buchstaben oder Silben als Sprachuntereinheiten zerlegt wird, und dass hieraus mindestens eine Sequenz von Phonemteilen oder Phonemen oder Buchstaben oder Silben gebildet wird.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Abgleichvorgang zur Generierung der Teilliste von Listenelementen mit mindestens einer aus der mindestens einen Sequenz von Sprachuntereinheiten gebildeten, aus einer Sequenz von Zeichen bestehenden Zeichenfolge durchgeführt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass für den Abgleichvorgang die Zeichen der mindestens einen Zeichenfolge und die Listenelemente der Gesamtliste gleich dargestellt werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Darstellungsweise der Zeichen der mindestens einen Zeichenfolge entsprechend der Darstellungsweise der Listenelemente der Gesamtliste vorgegeben wird.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass für den Abgleichvorgang die Zeichen der mindestens einen Zeichenfolge und die Listenelemente der Gesamtliste als Buchstaben oder als phonetische Zeichen dargestellt werden.
8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass der Abgleichvorgang durch den Vergleich einer mehrere unterschiedliche Zeichenfolgen umfassenden Hypothesenliste mit der Gesamtliste von Listenelementen vorgenommen wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Zeichenfolgen der Hypothesenliste anhand der aus der Spracheingabe gebildeten mindestens einen Sequenz von Sprachuntereinheiten mit hierzu ähnlichen Sprachuntereinheiten und/oder den hieraus gebildeten Zeichen der mindestens einen Zeichenfolge mit hierzu ähnlichen Zeichen generiert werden.
10. Verfahren nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, daß das mindestens eine ausgewählte Listenelement als wahrscheinlichstes dem gewünschten Listenelement entsprechende Listenelement dem Benutzer akustisch und/oder optisch übermittelt wird.
11. Verfahren nach einem der Ansprüche 1 bis 10 zur Spracherkennung in einem Zielführungssystem oder in einem Navigationssystem oder in einem Telefonauskunftssystem oder in einem System zur Abfrage einer Datenbank.
12. Spracherkennungssystem (1) zur Spracherkennung von Spracheingaben eines Benutzers zur Auswahl eines gewünschten Listenelements aus einer Gesamtliste von Listenelementen, mit:
einer Eingabeeinheit (2) zur Spracheingabe des Gesamtworts des gewünschten Listenelements,
einer mit Sprachuntereinheiten als Vokabular (4) konfigurierten Spracherkennungseinheit (3) zur Zerlegung der Spracheingabe in Sprachuntereinheiten,
einer Speichereinheit (5) zur Speicherung der Spracheingabe Gesamtwort, einer Datenbank (7) mit der Gesamtliste von Listenelementen zur Erstellung einer Teilliste anhand des Abgleichs mit mindestens einer mittels der Sprachuntereinheiten generierten, aus Zeichen mit vorgegebener Darstellungsweise zusammengesetzten Zeichenfolge,
einer mit dem anhand der Listenelemente der Teilliste erstellten Vokabular (8) konfigurierten Spracherkennungseinheit (9) zum Vergleich des gespeicherten Gesamtworts des gewünschten Listenelements mit den Listenelementen der Teilliste,
und einer Ausgabeeinheit (10) zur Ausgabe mindestens eines als wahrscheinlichstes dem gewünschten Listenelement entsprechenden Listenelements.
13. Spracherkennungssystem nach Anspruch 12 mit einer Abbildungseinheit (6) zur Abbildung der Sprachuntereinheiten auf die Zeichen der mindestens einen Zeichenfolge.
DE10207895A 2002-02-23 2002-02-23 Verfahren zur Spracherkennung und Spracherkennungssystem Expired - Fee Related DE10207895B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE10207895A DE10207895B4 (de) 2002-02-23 2002-02-23 Verfahren zur Spracherkennung und Spracherkennungssystem
US10/371,982 US7392189B2 (en) 2002-02-23 2003-02-21 System for speech recognition with multi-part recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10207895A DE10207895B4 (de) 2002-02-23 2002-02-23 Verfahren zur Spracherkennung und Spracherkennungssystem

Publications (2)

Publication Number Publication Date
DE10207895A1 true DE10207895A1 (de) 2003-09-18
DE10207895B4 DE10207895B4 (de) 2005-11-03

Family

ID=27762421

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10207895A Expired - Fee Related DE10207895B4 (de) 2002-02-23 2002-02-23 Verfahren zur Spracherkennung und Spracherkennungssystem

Country Status (2)

Country Link
US (1) US7392189B2 (de)
DE (1) DE10207895B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004072954A1 (de) * 2003-02-13 2004-08-26 Siemens Aktiengesellschaft Dreistufige einzelworterkennung
EP1693828A1 (de) * 2005-02-21 2006-08-23 Harman Becker Automotive Systems GmbH Multilinguale Spracherkennung
DE102005030967B4 (de) * 2005-06-30 2007-08-09 Daimlerchrysler Ag Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
EP1933302A1 (de) * 2006-12-12 2008-06-18 Harman Becker Automotive Systems GmbH Spracherkennungsverfahren
EP1975923A1 (de) * 2007-03-28 2008-10-01 Harman Becker Automotive Systems GmbH Mehrsprachige nicht-muttersprachliche Spracherkennung
WO2009010358A1 (de) * 2007-07-18 2009-01-22 Siemens Aktiengesellschaft Verfahren zur spracherkennung
EP2357647A1 (de) 2010-01-11 2011-08-17 Svox AG Verfahren zur Spracherkennung
DE102010026708A1 (de) * 2010-07-10 2012-01-12 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050043067A1 (en) * 2003-08-21 2005-02-24 Odell Thomas W. Voice recognition in a vehicle radio system
US7899671B2 (en) * 2004-02-05 2011-03-01 Avaya, Inc. Recognition results postprocessor for use in voice recognition systems
US8589156B2 (en) * 2004-07-12 2013-11-19 Hewlett-Packard Development Company, L.P. Allocation of speech recognition tasks and combination of results thereof
US7925506B2 (en) * 2004-10-05 2011-04-12 Inago Corporation Speech recognition accuracy via concept to keyword mapping
US20060149551A1 (en) * 2004-12-22 2006-07-06 Ganong William F Iii Mobile dictation correction user interface
US7852999B2 (en) * 2005-04-27 2010-12-14 Cisco Technology, Inc. Classifying signals at a conference bridge
EP1734509A1 (de) * 2005-06-17 2006-12-20 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Spracherkennung
EP1960997B1 (de) 2005-12-08 2010-02-10 Nuance Communications Austria GmbH Spracherkennungssystem mit riesigem vokabular
US8688451B2 (en) * 2006-05-11 2014-04-01 General Motors Llc Distinguishing out-of-vocabulary speech from in-vocabulary speech
DE102006035780B4 (de) * 2006-08-01 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
EP2048655B1 (de) * 2007-10-08 2014-02-26 Nuance Communications, Inc. Kontextsensitive mehrstufige Spracherkennung
EP2081185B1 (de) * 2008-01-16 2014-11-26 Nuance Communications, Inc. Spracherkennung von langen Listen mithilfe von Fragmenten
DE102008009445A1 (de) 2008-02-15 2009-08-20 Volkswagen Ag Verfahren zur Schrift- und Spracherkennung
US20100036666A1 (en) * 2008-08-08 2010-02-11 Gm Global Technology Operations, Inc. Method and system for providing meta data for a work
EP2259252B1 (de) * 2009-06-02 2012-08-01 Nuance Communications, Inc. Spracherkennungsverfahren zum Auswählen einer Kombination von Listenelementen über eine Spracheingabe
US20110184736A1 (en) * 2010-01-26 2011-07-28 Benjamin Slotznick Automated method of recognizing inputted information items and selecting information items
WO2012073275A1 (ja) * 2010-11-30 2012-06-07 三菱電機株式会社 音声認識装置及びナビゲーション装置
US9025779B2 (en) 2011-08-08 2015-05-05 Cisco Technology, Inc. System and method for using endpoints to provide sound monitoring
KR102394485B1 (ko) 2013-08-26 2022-05-06 삼성전자주식회사 음성 인식을 위한 전자 장치 및 방법
US10199035B2 (en) 2013-11-22 2019-02-05 Nuance Communications, Inc. Multi-channel speech recognition
US9837070B2 (en) * 2013-12-09 2017-12-05 Google Inc. Verification of mappings between phoneme sequences and words
CN108877791B (zh) * 2018-05-23 2021-10-08 百度在线网络技术(北京)有限公司 基于视图的语音交互方法、装置、服务器、终端和介质
US11580959B2 (en) * 2020-09-28 2023-02-14 International Business Machines Corporation Improving speech recognition transcriptions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5304844A (en) * 1989-04-27 1994-04-19 Hitachi, Ltd. Semiconductor device and method of producing the same
CA2372676A1 (en) * 1994-10-25 1996-05-02 British Telecommunications Public Limited Company Voice-operated services
DE19532114A1 (de) * 1995-08-31 1997-03-06 Deutsche Telekom Ag Sprachdialog-System zur automatisierten Ausgabe von Informationen
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens
DE69032282T2 (de) * 1989-12-06 1998-08-20 Fujitsu Ltd System zur Spracherkennung

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4718094A (en) * 1984-11-19 1988-01-05 International Business Machines Corp. Speech recognition system
US4827521A (en) * 1986-03-27 1989-05-02 International Business Machines Corporation Training of markov models used in a speech recognition system
US4866778A (en) 1986-08-11 1989-09-12 Dragon Systems, Inc. Interactive speech recognition apparatus
JP2815579B2 (ja) 1987-03-10 1998-10-27 富士通株式会社 音声認識における単語候補削減装置
JPH01167898A (ja) * 1987-12-04 1989-07-03 Internatl Business Mach Corp <Ibm> 音声認識装置
US5054074A (en) * 1989-03-02 1991-10-01 International Business Machines Corporation Optimized speech recognition system and method
US5202952A (en) 1990-06-22 1993-04-13 Dragon Systems, Inc. Large-vocabulary continuous speech prefiltering and processing system
US5825977A (en) * 1995-09-08 1998-10-20 Morin; Philippe R. Word hypothesizer based on reliably detected phoneme similarity regions
DE19709518C5 (de) 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
US6092044A (en) * 1997-03-28 2000-07-18 Dragon Systems, Inc. Pronunciation generation in speech recognition
US5924070A (en) * 1997-06-06 1999-07-13 International Business Machines Corporation Corporate voice dialing with shared directories
US5937380A (en) 1997-06-27 1999-08-10 M.H. Segan Limited Partenship Keypad-assisted speech recognition for text or command input to concurrently-running computer application
DE19742054A1 (de) 1997-09-24 1999-04-01 Philips Patentverwaltung Eingabesystem wenigstens für Orts- und/oder Straßennamen
JP4267101B2 (ja) * 1997-11-17 2009-05-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声識別装置、発音矯正装置およびこれらの方法
DE19813605A1 (de) 1998-03-27 1999-09-30 Daimlerchrysler Aerospace Ag Erkennungssystem
FI981154A (fi) 1998-05-25 1999-11-26 Nokia Mobile Phones Ltd Menetelmä ja laite puheen tunnistamiseksi
US6377922B2 (en) * 1998-12-29 2002-04-23 At&T Corp. Distributed recognition system having multiple prompt-specific and response-specific speech recognizers
EP1214704B1 (de) 1999-09-03 2004-03-10 Siemens Aktiengesellschaft Verfahren zum erfassen und auswerten von ein wort darstellenden wortsprachsignalen eines benutzers eines spracherkennungssystems
US6304844B1 (en) * 2000-03-30 2001-10-16 Verbaltek, Inc. Spelling speech recognition apparatus and method for communications
EP1162602B1 (de) 2000-06-07 2004-12-15 Sony International (Europe) GmbH Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE10129005B4 (de) 2001-06-15 2005-11-03 Harman Becker Automotive Systems Gmbh Verfahren zur Spracherkennung und Spracherkennungssystem
US6996519B2 (en) * 2001-09-28 2006-02-07 Sri International Method and apparatus for performing relational speech recognition
US6985861B2 (en) * 2001-12-12 2006-01-10 Hewlett-Packard Development Company, L.P. Systems and methods for combining subword recognition and whole word recognition of a spoken input

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5304844A (en) * 1989-04-27 1994-04-19 Hitachi, Ltd. Semiconductor device and method of producing the same
DE69032282T2 (de) * 1989-12-06 1998-08-20 Fujitsu Ltd System zur Spracherkennung
CA2372676A1 (en) * 1994-10-25 1996-05-02 British Telecommunications Public Limited Company Voice-operated services
DE19532114A1 (de) * 1995-08-31 1997-03-06 Deutsche Telekom Ag Sprachdialog-System zur automatisierten Ausgabe von Informationen
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7299179B2 (en) 2003-02-13 2007-11-20 Siemens Aktiengesellschaft Three-stage individual word recognition
WO2004072954A1 (de) * 2003-02-13 2004-08-26 Siemens Aktiengesellschaft Dreistufige einzelworterkennung
EP1693828A1 (de) * 2005-02-21 2006-08-23 Harman Becker Automotive Systems GmbH Multilinguale Spracherkennung
DE102005030967B4 (de) * 2005-06-30 2007-08-09 Daimlerchrysler Ag Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen
US8566091B2 (en) 2006-12-12 2013-10-22 Nuance Communications, Inc. Speech recognition system
EP1933302A1 (de) * 2006-12-12 2008-06-18 Harman Becker Automotive Systems GmbH Spracherkennungsverfahren
EP1975923A1 (de) * 2007-03-28 2008-10-01 Harman Becker Automotive Systems GmbH Mehrsprachige nicht-muttersprachliche Spracherkennung
WO2009010358A1 (de) * 2007-07-18 2009-01-22 Siemens Aktiengesellschaft Verfahren zur spracherkennung
CN101755301B (zh) * 2007-07-18 2012-11-28 斯沃克斯公司 用于语音识别的方法
DE102007033472A1 (de) 2007-07-18 2009-01-29 Siemens Ag Verfahren zur Spracherkennung
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung
EP2357647A1 (de) 2010-01-11 2011-08-17 Svox AG Verfahren zur Spracherkennung
DE102010026708A1 (de) * 2010-07-10 2012-01-12 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem

Also Published As

Publication number Publication date
US7392189B2 (en) 2008-06-24
DE10207895B4 (de) 2005-11-03
US20040034527A1 (en) 2004-02-19

Similar Documents

Publication Publication Date Title
DE10207895B4 (de) Verfahren zur Spracherkennung und Spracherkennungssystem
CN1116770C (zh) 应用语音识别的自动旅店服务者
DE60203705T2 (de) Umschreibung und anzeige eines eingegebenen sprachsignals
DE69922104T2 (de) Spracherkenner mit durch buchstabierte Worteingabe adaptierbarem Wortschatz
DE60215272T2 (de) Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen
WO1998010413A1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
DE10036851A1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
DE102015109379A1 (de) Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet
EP1395979B1 (de) Verfahren zur spracherkennung und spracherkennungssystem
EP2006835B1 (de) Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems
DE102004055230B3 (de) Verfahren zur Spracherkennung aus einem vorgebbaren Vokabular
EP1455163B1 (de) Verfahren zur Eingabe von Zielen in ein Navigationssystem
CN1138184A (zh) 装有消息存储器和话音合成器的交通情报机
DE102014010315B4 (de) Computer-implementiertes Verfahren und Vorrichtung zur Verarbeitung von Spracheingaben
DE112017007852B4 (de) Spracherkennung-Wörterbuchdaten-Konstruktionsvorrichtung, Spracherkennungsvorrichtung, Spracherkennung-Wörterbuchdaten-Konstruktionsverfahren
DE102007016887B3 (de) Verfahren und Vorrichtung zum Betreiben eines Navigationssystems
DE102018213602B3 (de) Verfahren zum Erzeugen einer Sprachansage als Rückmeldung zu einer handschriftlichen Nutzereingabe sowie entsprechende Bedienvorrichtung und Kraftfahrzeug
DE10125825B4 (de) Verfahren zur Spracheingabe und Datenträger
EP1955318A1 (de) Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher
US20030125941A1 (en) Method for creating a data structure, in particular of phonetic transcriptions for a voice-controlled navigation system
DE102013019208A1 (de) Kraftfahrzeug-Sprachbedienung
WO2009033562A2 (de) Verfahren und vorrichtung zur erkennung einer alphanumerischen information
WO2002077974A1 (de) Vorrichtung und verfahren zur spracherkennung
DE102017008079A1 (de) Verfahren zum Übersetzen einer ersten Wortfolge in eine zweite Wortfolge

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee