DE10207895A1 - Verfahren zur Spracherkennung und Spracherkennungssystem - Google Patents
Verfahren zur Spracherkennung und SpracherkennungssystemInfo
- Publication number
- DE10207895A1 DE10207895A1 DE10207895A DE10207895A DE10207895A1 DE 10207895 A1 DE10207895 A1 DE 10207895A1 DE 10207895 A DE10207895 A DE 10207895A DE 10207895 A DE10207895 A DE 10207895A DE 10207895 A1 DE10207895 A1 DE 10207895A1
- Authority
- DE
- Germany
- Prior art keywords
- list
- speech
- subunits
- elements
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Abstract
Vorgeschlagen wird ein einfaches und kostengünstiges Verfahren und Spracherkennungssystem zur Spracherkennung von Spracheingaben eines Benutzers zur Auswahl eines gewünschten Listenelements aus einer Gesamtliste von Listenelementen. DOLLAR A Hierzu muss der Benutzer als Spracheingabe das Gesamtwort des gewünschten Listenelements benennen. Die Spracheingabe wird in einem ersten Erkennungsvorgang in Sprachuntereinheiten zerlegt und hieraus mindestens eine Sequenz dieser Sprachuntereinheiten gebildet. Für das Gesamtwort wird in einem zweiten Erkennungsvorgang eine auf der Grundlage der mindestens einen Sequenz von Sprachuntereinheiten konfigurierte Spracherkennung durchgeführt. DOLLAR A Verfahren zur Spracherkennung und Spracherkennungssystem für Zielführungssysteme oder Navigationssysteme.
Description
- In zunehmenden Maße werden Verfahren zur Spracherkennung und Spracherkennungssysteme für unterschiedliche Aufgaben und Anwendungen benötigt, insbesondere um Abläufe oder Vorgänge sprachgesteuert und damit benutzerfreundlich zu gestalten. In der Regel muss der Benutzer hierbei mittels Spracheingabe ein bestimmtes Listenelement aus einer Datenliste als Gesamtliste von Listenelementen benennen; diese Spracheingabe wird einer Spracherkennungseinheit zur Verarbeitung zugeführt, die anhand der verarbeiteten Spracheingabe mindestens ein Listenelement aus der Gesamtliste von Listenelementen auswählt.
- Probleme treten jedoch insbesondere bei umfangreichen Gesamtlisten mit einer Vielzahl von Listenelementen auf, wie es bsp. in Zielführungssystemen oder Navigationssystemen bei Städtenamen oder Straßennamen als Listenelementen oder in Telefonsystemen bei Personennamen als Listenelementen der Fall ist (typischerweise enthalten derartige Gesamtlisten zehntausende bis hunderttausende Listenelemente): da die Spracherkennungseinheit nur eine begrenzte Anzahl von Spracheingaben des Benutzers verarbeiten kann (typischerweise liegt diese Anzahl in der Größenordnung von wenigen tausend Worten und damit Listenelementen), können bestimmte Anwendungen entweder nicht oder nur mit großem Aufwand (aufwendige Aufbereitung und Verarbeitung der Spracheingabe) durchgeführt werden.
- Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Spracherkennung und ein Spracherkennungssystem anzugeben, mit denen auf einfache Weise und mit geringem Aufwand mit einer hohen Zuverlässigkeit eine Verarbeitung von Spracheingaben auch bei umfangreichen Gesamtlisten mit einer beliebigen Anzahl von Listenelementen ermöglicht wird.
- Diese Aufgabe wird nach der Erfindung durch die Merkmale im Kennzeichen des Patentanspruchs 1 und des Patentanspruchs 12 gelöst.
- Vorteilhafte Ausgestaltungen der Erfindung sind Bestandteil der übrigen Patentansprüche.
- Erfindungsgemäß wird zur Verarbeitung der Spracheingabe eines Benutzers auch bei umfangreichen Gesamtlisten mit einer beliebigen Anzahl von Listenelementen eine Clusterung (Komprimierung durch Zusammenfassen) der Gesamtliste in eine auf einfache Weise zu verarbeitende Einheit mit einem auf beliebige Arten von Daten als Listenelemente anwendbaren Verfahren und Spracherkennungssystem durchgeführt; hierfür sind zwei aufeinanderfolgende Erkennungsvorgänge durch eine für beide Erkennungsvorgänge mit unterschiedlichem Vokabular konfigurierte Spracherkennungseinheit und ein Abgleichvorgang zur Generierung einer Teilliste als gegenüber der Gesamtliste eingeschränktes Vokabular für den zweiten Erkennungsvorgang vorgesehen.
- Als Spracheingabe muss der Benutzer zur Auswahl des gewünschten Listenelements lediglich die vollständige Bezeichnung dieses Listenelements (das Gesamtwort des gewünschten Listenelements) benennen (sprechen), beispielsweise einen Städtenamen als Listenelement bei der Zieleingabe in einem Navigationssystem oder den Namen einer Person als Listenelement bei der Auswahl aus einer Telefondatenbank oder Adressdatenbank; die Spracheingabe des Benutzers wird in einer Speichereinheit des Spracherkennungssystems gespeichert.
- Der erste Erkennungsvorgang wird zur Generierung von geeigneten Sprachuntereinheiten als Bestandteile (lautliche Stücke) der Spracheingabe des Benutzers mit einer mit den gewünschten Bestandteilen der Spracheingabe des Benutzers (Sprachuntereinheiten) als Vokabular vorkonfigurierten Spracherkennungseinheit durchgeführt. Hierzu wird die Spracheingabe des Benutzers unabhängig von der vorgegebenen Gesamtliste an Listenelementen durch die Spracherkennungseinheit in die gewünschten Bestandteile (Sprachuntereinheiten) zerlegt und somit aus der Spracheingabe des Benutzers mindestens eine Sequenz an aufeinanderfolgenden Sprachuntereinheiten gebildet; die Sprachuntereinheiten als lautliche Stücke der Spracheingabe des Benutzers können jeweils entweder aus mindestens einem Phonemteil oder aus mindestens einem Phonem oder aus mindestens einem Buchstaben oder aus mindestens einer Silbe bestehen, so dass als Sequenz der aufeinanderfolgenden Sprachuntereinheiten mindestens eine Sequenz von Phonemteilen oder mindestens eine Sequenz von Phonemen oder mindestens eine Sequenz von Buchstaben oder mindestens eine Sequenz von Silben gebildet wird. Hierzu muss entsprechend die Spracherkennungseinheit für den ersten Erkennungsvorgang mit diesen Sprachuntereinheiten als Vokabular vorkonfiguriert werden, insbesondere wird die Spracherkennungseinheit für den ersten Erkennungsvorgang also mit Phonemteilen oder Phonemen oder Buchstaben oder Silben vorkonfiguriert. Vorzugsweise werden bei der Zerlegung der Spracheingabe des Benutzers mehrere alternative Sequenzen von Sprachuntereinheiten gebildet, die aus zueinander ähnlichen oder miteinander verwechselbaren Sprachuntereinheiten zusammengesetzt sind; bsp. werden bei der Zerlegung der Spracheingabe des Benutzers drei bis fünf alternative Sequenzen von Sprachuntereinheiten gebildet.
- Nach dem ersten Erkennungsvorgang wird aus der mittels der Zerlegung der Spracheingabe des Benutzers gebildeten mindestens einen Sequenz von Sprachuntereinheiten mindestens eine Zeichenfolge als Sequenz aufeinanderfolgenden Zeichen generiert, die für den Abgleichvorgang mit den Listenelementen der Gesamtliste herangezogen wird; bsp. werden die Zeichen dieser Zeichenfolge jeweils als Phoneme oder Buchstaben oder Silben dargestellt, so dass hierdurch als mindestens eine Zeichenfolge eine Sequenz von Phonemen oder eine Sequenz von Buchstaben oder eine Sequenz von Silben generiert wird. Die Zeichen der mindestens einen Zeichenfolge werden auf eine für den Abgleichvorgang mit den Listenelementen der Gesamtliste geeignete Weise dargestellt: je nach Art des Abgleichvorgangs sowie der für die Zeichen der mindestens einen Zeichenfolge und für die Listenelemente der Gesamtliste gewählten Darstellungsweise kann als mindestens eine Zeichenfolge entweder die Sequenz von Sprachuntereinheiten selbst herangezogen werden (d. h. für den Abgleichvorgang mit den Listenelementen der Gesamtliste entspricht die Darstellungsweise der Zeichen der mindestens einen Zeichenfolge der Darstellungsweise der Sprachuntereinheiten), oder aber die Sequenz von Sprachuntereinheiten wird einem Abbildungsvorgang unterzogen und hierdurch die mindestens eine Zeichenfolge als Abbildungstabelle aufgrund einer Transformation der lautlichen Stücke der Sprachuntereinheiten in die Zeichen der Zeichenfolge generiert (bsp. durch die Transformation von Phonemen als Sprachuntereinheiten in Buchstaben als Zeichen der mindestens einen Zeichenfolge). Falls für den Abgleichvorgang die Darstellungsweise der Zeichen der mindestens einen Zeichenfolge und der Listenelemente der Gesamtliste unterschiedlich sein kann (bsp. kann durch automatische Transkription ein direkter Abgleich von durch Phoneme repräsentierten Zeichen der mindestens einen Zeichenfolge mit durch Buchstaben repräsentierten Listenelementen der Gesamtliste oder von durch Buchstaben repräsentierten Zeichen der mindestens einen Zeichenfolge mit durch Phoneme repräsentierten Listenelementen der Gesamtliste erfolgen), kann als mindestens eine Zeichenfolge in der Regel die aufgrund der Zerlegung in Sprachuntereinheiten gewonnene mindestens eine Sequenz von Sprachuntereinheiten selbst ohne vorherigen Abbildungsvorgang verwendet werden. Vorzugsweise wird jedoch für den Abgleichvorgang die gleiche Darstellungsweise für die Zeichen der mindestens einen Zeichenfolge und für die Listenelemente der Gesamtliste gewählt, so dass nur bei bereits übereinstimmender Darstellungsweise für die Listenelemente der Gesamtliste und für die Sprachuntereinheiten für den Abgleichvorgang die Sequenz von Sprachuntereinheiten ohne vorherigen Abbildungsvorgang direkt als Zeichenfolge verwendet werden kann; bei voneinander differierender Darstellungsweise für die Listenelemente der Gesamtliste und für die Sprachuntereinheiten wird die Darstellungsweise der Sprachuntereinheiten an die Darstellungsweise der Listenelemente der Gesamtliste angepasst, insbesondere im Rahmen des Abbildungsvorgangs der mindestens einen Sequenz von Sprachuntereinheiten auf die mindestens eine Zeichenfolge (bsp. wird bei einer Darstellung der Listenelemente der Gesamtliste durch Buchstaben und einer Zerlegung der Spracheingabe des Benutzers in mindestens eine aus Phonemen als Sprachuntereinheiten bestehende Sequenz von Sprachuntereinheiten diese aus Phonemen bestehende mindestens eine Sequenz von Sprachuntereinheiten auf mindestens eine aus Buchstaben bestehende Zeichenfolge abgebildet). Jede der mindestens einen Sequenz von Sprachuntereinheiten wird hierbei auf mindestens eine Zeichenfolge abgebildet; vorzugsweise wird bei mehreren Sequenzen von Sprachuntereinheiten auf diese Weise eine Hypothesenliste aus mehreren Zeichenfolgen mit ähnlichen oder verwechselbaren Zeichen erstellt.
- Durch den Abgleichvorgang ("matching") der in der geeigneten Darstellungsweise dargestellten mindestens einen Zeichenfolge mit den Listenelementen der Gesamtliste wird durch die Spracherkennungseinheit aus einer die Gesamtzahl der Listenelemente enthaltenden Datenbank eine Teilliste mit einer gegenüber der Gesamtzahl an Listenelementen eingeschränkten Anzahl an Listenelementen generiert. Im Abgleichvorgang werden hierzu die Listenelemente der Gesamtliste mit verschiedenen Bewertungen (Wahrscheinlichkeiten) versehen und die Listenelemente mit den besten Bewertungen (höchsten Wahrscheinlichkeiten) in die Teilliste aufgenommen, d. h. diejenigen Listenelemente, die am besten zu der mindestens einen Zeichenfolge passen. Der Abgleichvorgang stellt somit ein fehlertolerantes Filtern der Gesamtliste (der die Gesamtzahl der Listenelemente enthaltenden Datenbank) dar; die Fehlertoleranz ist erforderlich, da die mindestens eine Zeichenfolge (bsp. aufgrund einer fehlerhaften Zerlegung der Spracheingabe des Benutzers in die Sprachuntereinheiten oder aufgrund einer nicht exakten Abbildung der mindestens einen Sequenz von Sprachuntereinheiten auf die entsprechende Zeichenfolge) nicht immer einer korrekten Spracheingabe oder einer korrekten Spracherkennung entsprechen muss. Die maximale Anzahl an Listenelementen für die Teilliste hängt von der Kapazität des Spracherkennungssystems und den Eigenschaften der Spracherkennungseinheit ab; die unter diesen Randbedingungen insbesondere abhängig von der Datenmenge der Datenbank und damit der Gesamtzahl an Listenelementen der Gesamtliste und der minimalen Anzahl von gesprochenen Zeichen (Buchstaben, Ziffern etc.) festlegbare Anzahl an Listenelementen für die Teilliste kann als Einstellungsparameter für die Spracherkennungseinheit für den Abgleichvorgang fest oder variabel vorgegeben werden. Vorzugsweise wird die Anzahl an Listenelementen für die Teilliste hierbei recht groß vorgegeben, wodurch gewährleistet ist, dass das der Spracheingabe des Benutzers entsprechende "richtige" Listenelement auch als Listenelement in der Teilliste enthalten ist (und damit auch in das anhand der Teilliste generierte neue Vokabular aufgenommen wird); typischerweise umfasst die Teilliste mehrere hundert bis einige tausend Listenelemente, wobei bsp. für die Eingabe von Navigationszielen (Ortsnamen) eine Größenordnung von 500 bis 1000 Listenelementen für die Teilliste angemessen ist.
- Der zweite Erkennungsvorgang wird auf der Basis der Spracheingabe des Benutzers mit der durch die Teilliste als eingeschränkter Gesamtliste auf ein spezifisches Vokabular konfigurierten Spracherkennungseinheit durchgeführt; d. h. das gespeicherte Gesamtwort aus der Spracheingabe des Benutzers wird der mit dem Vokabular der Teilliste (den Listenelementen der Teilliste) konfigurierten Spracherkennungseinheit zugeführt. Das neue Vokabular kann entweder anhand der extrahierten Einträge der Listenelemente der Teilliste (d. h. auf textlicher Basis, bsp. als ASCII-Text) oder anhand der den Einträgen der Listenelemente der Teilliste entsprechenden phonetischen Verschriftung der Listenelemente der Teilliste (d. h. auf phonetischer Basis) erzeugt und zur Konfiguration der Spracherkennungseinheit in die Spracherkennungseinheit geladen werden; bei einer phonetischen Verschriftung der Listenelemente und damit der Daten der Datenlisten wird hierbei üblicherweise eine bessere Qualität und damit eine höhere Erkennrate erzielt. Insbesondere bei Eigennamen enthaltenden Datenlisten (bsp. bei Datenlisten mit Städtenamen) ist eine Erzeugung des neuen Vokabulars anhand der phonetischen Verschriftung (d. h. auf phonetischer Basis) vorteilhaft, da Eigennamen nicht immer den entsprechenden Regeln der spezifischen Landessprache folgen.
- Als Erkennungsergebnis des zweiten Erkennungsvorgangs wird mindestens ein Listenelement als "wahrscheinlichstes" Listenelement ausgewählt, das der Spracheingabe des Benutzers und damit dem gewünschten Listenelement mit der größten Wahrscheinlichkeit entspricht; vorzugsweise werden mehrere "wahrscheinliche" Listenelemente ausgewählt, d. h. mehrere der Spracheingabe des Benutzers und damit dem gewünschten Listenelement mit der größten Wahrscheinlichkeit entsprechende Listenelemente, typischerweise werden hierbei durch die Spracherkennungseinheit 5' bis 10 Listenelemente als die "wahrscheinlichsten" Listenelemente generiert. Das Erkennungsergebnis wird dem Benutzer auf geeignete Weise mitgeteilt, insbesondere durch eine geeignete Ausgabeeinheit oder Anzeigeeinheit auf optische und/oder akustische Weise.
- Vorteilhafterweise ist mit dem vorgestellten Verfahren und Spracherkennungssystem eine generische Unterteilung umfangreicher (beliebig großer) Datenlisten (Gesamtlisten) mit einer Vielzahl von Listenelementen, bsp. Telefonbücher in Telefonauskunftssystemen oder geographische Datenlisten wie Ortsnamen oder Straßennamen in Zielführungssystemen oder Navigationssystemen oder Datenlisten in Systemen zur Abfrage von Datenbanken, in kleinere auf einfache Weise verarbeitbare Einheiten (Teillisten) möglich. Da zwei Erkennungsvorgänge für die Spracheingabe des Benutzers vorgenommen werden (einerseits hinsichtlich einer Zerlegung der Spracheingabe des Gesamtworts in mindestens eine Sequenz von Sprachuntereinheiten, andererseits hinsichtlich des Vergleichs der Spracheingabe des Gesamtworts mit einem eingeschränkten Vokabular an Listenelementen), ist eine hohe Genauigkeit und Zuverlässigkeit für die Spracherkennung gegeben, d. h. insbesondere eine hohe Wahrscheinlichkeit für die Erkennung des der Spracheingabe entsprechenden "richtigen" Listenelements aus der Gesamtliste. Aufgrund der Fehlertoleranz bei den beiden Erkennungsvorgängen (d. h. bei der Zerlegung der Spracheingabe in mindestens eine Sequenz von Sprachuntereinheiten beim ersten Erkennungsvorgang und beim Abgleichvorgang zur Erstellung der Teilliste und damit des Vokabulars für den zweiten Erkennungsvorgang) können Fehler oder Ungenauigkeiten bei der Spracheingabe des Benutzers kompensiert werden. Da vom Benutzer als Spracheingabe nur das Gesamtwort des gewünschten Listenelements (d. h. nur die vollständige Bezeichnung des gewünschten Listenelements) gesprochen werden muss, ist der Aufwand für den Benutzer sehr gering.
- Im Zusammenhang mit der Zeichnung (Fig. 1 und 2) soll die Erfindung anhand eines Ausführungsbeispiels erläutert werden.
- Hierbei zeigen:
- Fig. 1 die Systemkomponenten des Spracherkennungssystems,
- Fig. 2 ein Ablaufschema des Verfahrens zur Spracherkennung.
- Das Spracherkennungssystem ist bsp. im Navigationssystem eines Kraftfahrzeugs implementiert, bei dem durch die Spracheingabe eines Benutzers zur Zielführung Navigationsdaten (Ortsnamen, Straßennamen) als gewünschte Listenelemente aus einer umfangreichen Gesamtliste ausgewählt werden können; bsp. umfaßt die Gesamtliste als Navigationsdaten und damit als Listenelemente einige Zehntausend Ortsnamen und einige Hunderttausend Straßennamen.
- Gemäß der Fig. 1 sind zur Spracherkennung der Spracheingabe des Benutzers als Systemkomponenten des Spracherkennungssystems 1 vorgesehen:
- - die Eingabeeinheit 2 zur Spracheingabe des Benutzers (bsp. ein Mikrofon),
- - die mit dem Vokabular 4 konfigurierte Spracherkennungseinheit 3 zur Zerlegung der Spracheingabe des Benutzers in Sprachuntereinheiten (bsp. zur Zerlegung der Spracheingabe in Phoneme als Sprachuntereinheiten),
- - die Speichereinheit 5 zur Speicherung der Spracheingabe des Benutzers als Gesamtwort,
- - die Abbildungseinheit 6 (bsp. eine Datenbank 7) zur Abbildung der Sprachuntereinheiten in Zeichen einer Zeichenfolge (bsp. zur Abbildung von Phonemen in Buchstaben einer Buchstabenfolge)
- - die die Gesamtliste enthaltende Datenbank 7, deren Listenelemente durch bestimmte Zeichen (bsp. durch Buchstaben) repräsentiert werden; aus der Datenbank 7 wird ein eingeschränktes Vokabular 8 (eine Teilliste) mit einer gegenüber der Gesamtliste geringeren Anzahl an Listenelementen generiert,
- - die mit dem eingeschränkten Vokabular 8 konfigurierte Spracherkennungseinheit 9 zum Vergleich der Listenelemente der Teilliste mit der in der Speichereinheit 5 gespeicherten Spracheingabe des Benutzers; als Spracherkennungseinheit 9 kann hierbei die Spracherkennungseinheit 3 herangezogen werden, wobei jeweils das gewünschte Vokabular 4, 8 zur Konfiguration herangezogen wird,
- - die Ausgabeeinheit 10 zur bsp. akustischen und/oder optischen Ausgabe der für die Spracheingabe des Benutzers als wahrscheinlichste Listenelemente erkannten Listenelemente der Teilliste an den Benutzer (bsp. akustisch über einen Lautsprecher oder optisch über eine bsp. als Display ausgebildete Anzeigeeinheit).
- Gemäß der Fig. 2 sind zur Spracherkennung der Spracheingabe des Benutzers, bsp. zur Auswahl des gewünschten Listenelements "Blaustein" aus einer die Ortsnamen von Deutschland als Listenelemente enthaltenden Gesamtliste, folgende Verfahrensschritte S1 bis S9 vorgesehen:
- - S1: Vom Benutzer muß als Spracheingabe lediglich das gewünschte Listenelement und damit der gesamte Ortsnamen gesprochen werden (Gesamtwort als Spracheingabe, bsp. "Blaustein").
- - S2: In der Spracherkennungseinheit 3 wird eine akustische Vorverarbeitung der Spracheingabe vorgenommen (Eliminierung von störenden Umgebungsgeräuschen etc.).
- - S3: Die gesamte Spracheingabe des Benutzers (bsp. "Blaustein") wird in der Speichereinheit 5 gespeichert.
- - S4: Durch die mit dem Vokabular 4 (bsp. mit Phonemen) konfigurierte Spracherkennungseinheit 3 wird im ersten Erkennungsvorgang die Spracheingabe des Benutzers (bsp. "Blaustein") durch die entsprechend konfigurierte Spracherkennungseinheit 3 in Sprachuntereinheiten zerlegt, bsp. durch die mit Phonemen konfigurierte Spracherkennungseinheit 3 in Phoneme als Sprachuntereinheiten. Aus der Spracheingabe des Benutzers (bsp. "Blaustein") werden hierdurch mehrere Sequenzen von Phonemen als Sequenz der Sprachuntereinheiten generiert, bsp. werden drei Sequenzen von Phonemen generiert, bsp. die drei Sequenzen "La: nStaln", "traUnStaln", "graUStaln".
- - S5: Die Sequenzen der Sprachuntereinheiten (bsp. die Sequenzen von Phonemen) werden durch die Abbildungseinheit 6 (bsp. kann hierfür die Datenbank 7 herangezogen werden) auf entsprechende Sequenzen von Buchstaben (Buchstabenfolgen) als Zeichenfolgen aufeinanderfolgender Zeichen abgebildet, bsp. einerseits auf die aus jeweils 9 Buchstaben bestehenden beiden Buchstabenfolgen "LAHNSTEIN" und "GRAUSTEIN" und andererseits auf die aus 9 Buchstaben bestehende Buchstabenfolge "TRAUNSTEIN" als Zeichenfolgen. Somit wird eine Hypothesenliste von Zeichenfolgen (Buchstabenfolgen) erstellt, in der auch Zeichenfolgen (Buchstabenfolgen) mit ähnlich klingenden und/oder leicht verwechselbaren Buchstaben enthalten sind.
- - S6: Anhand der von der Spracherkennungseinheit 3 gelieferten Hypothesenliste von Zeichenfolgen (Buchstabenfolgen) wird als Abgleichvorgang ein Listenabgleich mit den durch Buchstaben repräsentierten Listenelementen (Ortsnamen) der Gesamtliste der Datenbank 7 vorgenommen und hieraus eine Teilliste an Listenelementen (Ortsnamen) generiert, deren Buchstaben mit den in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) übereinstimmen oder diesen ähneln; hierbei werden im Abgleichvorgang auch Listenelemente (Ortsnamen) mit ähnlich klingenden Buchstaben wie die Buchstaben der in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) und/oder mit mit den Buchstaben der in die Hypothesenliste aufgenommenen Zeichenfolgen (Buchstabenfolgen) leicht verwechselbaren Buchstaben berücksichtigt (bsp. werden als Listenelemente der Teilliste auch die Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein" etc. berücksichtigt, insgesamt bsp. ca. 500 Ortsnamen als Listenelemente der Teilliste).
- - S7: Mit dieser aus dem Listenabgleich der Gesamtliste mit der Hypothesenliste generierten Teilliste an Listenelementen (Ortsnamen) wird die Spracherkennungseinheit 9 konfiguriert, d. h. für die Spracherkennungseinheit 9 wird ein neues (gegenüber der Gesamtliste wesentlich eingeschränktes) Vokabular 8 für den zweiten Erkennungsvorgang bereitgestellt.
- - S8: In der mit dem eingeschränkten Vokabular 8 neu konfigurierten Spracherkennungseinheit 9 wird im zweiten Erkennungsvorgang das in der Speichereinheit 5 gespeicherte Gesamtwort der Spracheingabe des Benutzers (bsp. "Blaustein") mit den Listenelementen (Ortsnamen) der Teilliste verglichen (d. h. mit den Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein" etc.) und anhand einer Klassifikation durch die Spracherkennungseinheit 9 mindestens ein dem Gesamtwort (bsp. "Blaustein") mit der größten Wahrscheinlichkeit entsprechendes Listenelement der Teilliste (mindestens ein Ortsname) als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt. Bsp. werden mehrere dem Gesamtwort (bsp. "Blaustein") mit der größten Wahrscheinlichkeit entsprechende Listenelemente der Teilliste als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt, bsp. werden fünf Listenelemente der Teilliste als Erkennungsergebnis des zweiten Erkennungsvorgangs ausgewählt (bsp. die vier Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein").
- - S9: Das Erkennungsergebnis der Spracherkennungseinheit 9 (bsp. die vier Ortsnamen "Blaustein", "Lahnstein", "Traunstein", "Graustein") wird dem Benutzer insbesondere über eine akustische Ausgabeeinheit 10 (bsp. einen Lautsprecher) oder über eine optische Ausgabeeinheit 10 (bsp. ein Display) mitgeteilt.
Claims (13)
1. Verfahren zur Spracherkennung von Spracheingaben eines Benutzers zur
Auswahl eines gewünschten Listenelements aus einer Gesamtliste von
Listenelementen,
dadurch gekennzeichnet,
dass der Benutzer als Spracheingabe das Gesamtwort des gewünschten Listenelements benennen muss,
dass die Spracheingabe in einem ersten Erkennungsvorgang in Sprachuntereinheiten zerlegt und hieraus mindestens eine Sequenz dieser Sprachuntereinheiten gebildet wird,
und dass für das Gesamtwort in einem zweiten Erkennungsvorgang eine auf der Grundlage der mindestens einen Sequenz von Sprachuntereinheiten konfigurierte Spracherkennung durchgeführt wird.
dass der Benutzer als Spracheingabe das Gesamtwort des gewünschten Listenelements benennen muss,
dass die Spracheingabe in einem ersten Erkennungsvorgang in Sprachuntereinheiten zerlegt und hieraus mindestens eine Sequenz dieser Sprachuntereinheiten gebildet wird,
und dass für das Gesamtwort in einem zweiten Erkennungsvorgang eine auf der Grundlage der mindestens einen Sequenz von Sprachuntereinheiten konfigurierte Spracherkennung durchgeführt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
dass das Gesamtwort als Spracheingabe des gewünschten Listenelements gespeichert wird,
dass auf der Grundlage der im ersten Erkennungsvorgang gebildeten mindestens einen Sequenz von Sprachuntereinheiten aus der Gesamtliste von Listenelementen in einem Abgleichvorgang eine Teilliste von Listenelementen generiert wird,
dass im zweiten Erkennungsvorgang mit einer mit den Listenelementen der Teilliste konfigurierten Spracherkennung die Listenelemente der Teilliste mit dem gespeicherten Gesamtwort des gewünschten Listenelements verglichen werden,
und dass anhand dieses Vergleichs als Erkennungsergebnis mindestens ein Listenelement der Teilliste als wahrscheinlichstes dem gewünschten Listenelement entsprechendes Listenelement ausgewählt wird.
dass das Gesamtwort als Spracheingabe des gewünschten Listenelements gespeichert wird,
dass auf der Grundlage der im ersten Erkennungsvorgang gebildeten mindestens einen Sequenz von Sprachuntereinheiten aus der Gesamtliste von Listenelementen in einem Abgleichvorgang eine Teilliste von Listenelementen generiert wird,
dass im zweiten Erkennungsvorgang mit einer mit den Listenelementen der Teilliste konfigurierten Spracherkennung die Listenelemente der Teilliste mit dem gespeicherten Gesamtwort des gewünschten Listenelements verglichen werden,
und dass anhand dieses Vergleichs als Erkennungsergebnis mindestens ein Listenelement der Teilliste als wahrscheinlichstes dem gewünschten Listenelement entsprechendes Listenelement ausgewählt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die
Spracheingabe des Gesamtworts des gewünschten Listenelements im ersten
Erkennungsvorgang in Phonemteile oder Phoneme oder Buchstaben oder Silben als
Sprachuntereinheiten zerlegt wird, und dass hieraus mindestens eine Sequenz
von Phonemteilen oder Phonemen oder Buchstaben oder Silben gebildet wird.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der
Abgleichvorgang zur Generierung der Teilliste von Listenelementen mit mindestens einer
aus der mindestens einen Sequenz von Sprachuntereinheiten gebildeten, aus
einer Sequenz von Zeichen bestehenden Zeichenfolge durchgeführt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass für den
Abgleichvorgang die Zeichen der mindestens einen Zeichenfolge und die Listenelemente der
Gesamtliste gleich dargestellt werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Darstellungsweise
der Zeichen der mindestens einen Zeichenfolge entsprechend der
Darstellungsweise der Listenelemente der Gesamtliste vorgegeben wird.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass für den
Abgleichvorgang die Zeichen der mindestens einen Zeichenfolge und die
Listenelemente der Gesamtliste als Buchstaben oder als phonetische Zeichen
dargestellt werden.
8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass der
Abgleichvorgang durch den Vergleich einer mehrere unterschiedliche
Zeichenfolgen umfassenden Hypothesenliste mit der Gesamtliste von Listenelementen
vorgenommen wird.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Zeichenfolgen der
Hypothesenliste anhand der aus der Spracheingabe gebildeten mindestens
einen Sequenz von Sprachuntereinheiten mit hierzu ähnlichen
Sprachuntereinheiten und/oder den hieraus gebildeten Zeichen der mindestens einen
Zeichenfolge mit hierzu ähnlichen Zeichen generiert werden.
10. Verfahren nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, daß das
mindestens eine ausgewählte Listenelement als wahrscheinlichstes dem
gewünschten Listenelement entsprechende Listenelement dem Benutzer akustisch
und/oder optisch übermittelt wird.
11. Verfahren nach einem der Ansprüche 1 bis 10 zur Spracherkennung in einem
Zielführungssystem oder in einem Navigationssystem oder in einem
Telefonauskunftssystem oder in einem System zur Abfrage einer Datenbank.
12. Spracherkennungssystem (1) zur Spracherkennung von Spracheingaben eines
Benutzers zur Auswahl eines gewünschten Listenelements aus einer Gesamtliste
von Listenelementen, mit:
einer Eingabeeinheit (2) zur Spracheingabe des Gesamtworts des gewünschten Listenelements,
einer mit Sprachuntereinheiten als Vokabular (4) konfigurierten Spracherkennungseinheit (3) zur Zerlegung der Spracheingabe in Sprachuntereinheiten,
einer Speichereinheit (5) zur Speicherung der Spracheingabe Gesamtwort, einer Datenbank (7) mit der Gesamtliste von Listenelementen zur Erstellung einer Teilliste anhand des Abgleichs mit mindestens einer mittels der Sprachuntereinheiten generierten, aus Zeichen mit vorgegebener Darstellungsweise zusammengesetzten Zeichenfolge,
einer mit dem anhand der Listenelemente der Teilliste erstellten Vokabular (8) konfigurierten Spracherkennungseinheit (9) zum Vergleich des gespeicherten Gesamtworts des gewünschten Listenelements mit den Listenelementen der Teilliste,
und einer Ausgabeeinheit (10) zur Ausgabe mindestens eines als wahrscheinlichstes dem gewünschten Listenelement entsprechenden Listenelements.
einer Eingabeeinheit (2) zur Spracheingabe des Gesamtworts des gewünschten Listenelements,
einer mit Sprachuntereinheiten als Vokabular (4) konfigurierten Spracherkennungseinheit (3) zur Zerlegung der Spracheingabe in Sprachuntereinheiten,
einer Speichereinheit (5) zur Speicherung der Spracheingabe Gesamtwort, einer Datenbank (7) mit der Gesamtliste von Listenelementen zur Erstellung einer Teilliste anhand des Abgleichs mit mindestens einer mittels der Sprachuntereinheiten generierten, aus Zeichen mit vorgegebener Darstellungsweise zusammengesetzten Zeichenfolge,
einer mit dem anhand der Listenelemente der Teilliste erstellten Vokabular (8) konfigurierten Spracherkennungseinheit (9) zum Vergleich des gespeicherten Gesamtworts des gewünschten Listenelements mit den Listenelementen der Teilliste,
und einer Ausgabeeinheit (10) zur Ausgabe mindestens eines als wahrscheinlichstes dem gewünschten Listenelement entsprechenden Listenelements.
13. Spracherkennungssystem nach Anspruch 12 mit einer Abbildungseinheit (6) zur
Abbildung der Sprachuntereinheiten auf die Zeichen der mindestens einen
Zeichenfolge.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10207895A DE10207895B4 (de) | 2002-02-23 | 2002-02-23 | Verfahren zur Spracherkennung und Spracherkennungssystem |
US10/371,982 US7392189B2 (en) | 2002-02-23 | 2003-02-21 | System for speech recognition with multi-part recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10207895A DE10207895B4 (de) | 2002-02-23 | 2002-02-23 | Verfahren zur Spracherkennung und Spracherkennungssystem |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10207895A1 true DE10207895A1 (de) | 2003-09-18 |
DE10207895B4 DE10207895B4 (de) | 2005-11-03 |
Family
ID=27762421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10207895A Expired - Fee Related DE10207895B4 (de) | 2002-02-23 | 2002-02-23 | Verfahren zur Spracherkennung und Spracherkennungssystem |
Country Status (2)
Country | Link |
---|---|
US (1) | US7392189B2 (de) |
DE (1) | DE10207895B4 (de) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004072954A1 (de) * | 2003-02-13 | 2004-08-26 | Siemens Aktiengesellschaft | Dreistufige einzelworterkennung |
EP1693828A1 (de) * | 2005-02-21 | 2006-08-23 | Harman Becker Automotive Systems GmbH | Multilinguale Spracherkennung |
DE102005030967B4 (de) * | 2005-06-30 | 2007-08-09 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen |
EP1933302A1 (de) * | 2006-12-12 | 2008-06-18 | Harman Becker Automotive Systems GmbH | Spracherkennungsverfahren |
EP1975923A1 (de) * | 2007-03-28 | 2008-10-01 | Harman Becker Automotive Systems GmbH | Mehrsprachige nicht-muttersprachliche Spracherkennung |
WO2009010358A1 (de) * | 2007-07-18 | 2009-01-22 | Siemens Aktiengesellschaft | Verfahren zur spracherkennung |
EP2357647A1 (de) | 2010-01-11 | 2011-08-17 | Svox AG | Verfahren zur Spracherkennung |
DE102010026708A1 (de) * | 2010-07-10 | 2012-01-12 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
DE112009004313B4 (de) * | 2009-01-28 | 2016-09-22 | Mitsubishi Electric Corp. | Stimmerkennungseinrichtung |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050043067A1 (en) * | 2003-08-21 | 2005-02-24 | Odell Thomas W. | Voice recognition in a vehicle radio system |
US7899671B2 (en) * | 2004-02-05 | 2011-03-01 | Avaya, Inc. | Recognition results postprocessor for use in voice recognition systems |
US8589156B2 (en) * | 2004-07-12 | 2013-11-19 | Hewlett-Packard Development Company, L.P. | Allocation of speech recognition tasks and combination of results thereof |
US7925506B2 (en) * | 2004-10-05 | 2011-04-12 | Inago Corporation | Speech recognition accuracy via concept to keyword mapping |
US20060149551A1 (en) * | 2004-12-22 | 2006-07-06 | Ganong William F Iii | Mobile dictation correction user interface |
US7852999B2 (en) * | 2005-04-27 | 2010-12-14 | Cisco Technology, Inc. | Classifying signals at a conference bridge |
EP1734509A1 (de) * | 2005-06-17 | 2006-12-20 | Harman Becker Automotive Systems GmbH | Verfahren und Vorrichtung zur Spracherkennung |
EP1960997B1 (de) | 2005-12-08 | 2010-02-10 | Nuance Communications Austria GmbH | Spracherkennungssystem mit riesigem vokabular |
US8688451B2 (en) * | 2006-05-11 | 2014-04-01 | General Motors Llc | Distinguishing out-of-vocabulary speech from in-vocabulary speech |
DE102006035780B4 (de) * | 2006-08-01 | 2019-04-25 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems |
US7831431B2 (en) * | 2006-10-31 | 2010-11-09 | Honda Motor Co., Ltd. | Voice recognition updates via remote broadcast signal |
EP2048655B1 (de) * | 2007-10-08 | 2014-02-26 | Nuance Communications, Inc. | Kontextsensitive mehrstufige Spracherkennung |
EP2081185B1 (de) * | 2008-01-16 | 2014-11-26 | Nuance Communications, Inc. | Spracherkennung von langen Listen mithilfe von Fragmenten |
DE102008009445A1 (de) | 2008-02-15 | 2009-08-20 | Volkswagen Ag | Verfahren zur Schrift- und Spracherkennung |
US20100036666A1 (en) * | 2008-08-08 | 2010-02-11 | Gm Global Technology Operations, Inc. | Method and system for providing meta data for a work |
EP2259252B1 (de) * | 2009-06-02 | 2012-08-01 | Nuance Communications, Inc. | Spracherkennungsverfahren zum Auswählen einer Kombination von Listenelementen über eine Spracheingabe |
US20110184736A1 (en) * | 2010-01-26 | 2011-07-28 | Benjamin Slotznick | Automated method of recognizing inputted information items and selecting information items |
WO2012073275A1 (ja) * | 2010-11-30 | 2012-06-07 | 三菱電機株式会社 | 音声認識装置及びナビゲーション装置 |
US9025779B2 (en) | 2011-08-08 | 2015-05-05 | Cisco Technology, Inc. | System and method for using endpoints to provide sound monitoring |
KR102394485B1 (ko) | 2013-08-26 | 2022-05-06 | 삼성전자주식회사 | 음성 인식을 위한 전자 장치 및 방법 |
US10199035B2 (en) | 2013-11-22 | 2019-02-05 | Nuance Communications, Inc. | Multi-channel speech recognition |
US9837070B2 (en) * | 2013-12-09 | 2017-12-05 | Google Inc. | Verification of mappings between phoneme sequences and words |
CN108877791B (zh) * | 2018-05-23 | 2021-10-08 | 百度在线网络技术(北京)有限公司 | 基于视图的语音交互方法、装置、服务器、终端和介质 |
US11580959B2 (en) * | 2020-09-28 | 2023-02-14 | International Business Machines Corporation | Improving speech recognition transcriptions |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5304844A (en) * | 1989-04-27 | 1994-04-19 | Hitachi, Ltd. | Semiconductor device and method of producing the same |
CA2372676A1 (en) * | 1994-10-25 | 1996-05-02 | British Telecommunications Public Limited Company | Voice-operated services |
DE19532114A1 (de) * | 1995-08-31 | 1997-03-06 | Deutsche Telekom Ag | Sprachdialog-System zur automatisierten Ausgabe von Informationen |
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
DE69032282T2 (de) * | 1989-12-06 | 1998-08-20 | Fujitsu Ltd | System zur Spracherkennung |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4718094A (en) * | 1984-11-19 | 1988-01-05 | International Business Machines Corp. | Speech recognition system |
US4827521A (en) * | 1986-03-27 | 1989-05-02 | International Business Machines Corporation | Training of markov models used in a speech recognition system |
US4866778A (en) | 1986-08-11 | 1989-09-12 | Dragon Systems, Inc. | Interactive speech recognition apparatus |
JP2815579B2 (ja) | 1987-03-10 | 1998-10-27 | 富士通株式会社 | 音声認識における単語候補削減装置 |
JPH01167898A (ja) * | 1987-12-04 | 1989-07-03 | Internatl Business Mach Corp <Ibm> | 音声認識装置 |
US5054074A (en) * | 1989-03-02 | 1991-10-01 | International Business Machines Corporation | Optimized speech recognition system and method |
US5202952A (en) | 1990-06-22 | 1993-04-13 | Dragon Systems, Inc. | Large-vocabulary continuous speech prefiltering and processing system |
US5825977A (en) * | 1995-09-08 | 1998-10-20 | Morin; Philippe R. | Word hypothesizer based on reliably detected phoneme similarity regions |
DE19709518C5 (de) | 1997-03-10 | 2006-05-04 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
US6092044A (en) * | 1997-03-28 | 2000-07-18 | Dragon Systems, Inc. | Pronunciation generation in speech recognition |
US5924070A (en) * | 1997-06-06 | 1999-07-13 | International Business Machines Corporation | Corporate voice dialing with shared directories |
US5937380A (en) | 1997-06-27 | 1999-08-10 | M.H. Segan Limited Partenship | Keypad-assisted speech recognition for text or command input to concurrently-running computer application |
DE19742054A1 (de) | 1997-09-24 | 1999-04-01 | Philips Patentverwaltung | Eingabesystem wenigstens für Orts- und/oder Straßennamen |
JP4267101B2 (ja) * | 1997-11-17 | 2009-05-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声識別装置、発音矯正装置およびこれらの方法 |
DE19813605A1 (de) | 1998-03-27 | 1999-09-30 | Daimlerchrysler Aerospace Ag | Erkennungssystem |
FI981154A (fi) | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Menetelmä ja laite puheen tunnistamiseksi |
US6377922B2 (en) * | 1998-12-29 | 2002-04-23 | At&T Corp. | Distributed recognition system having multiple prompt-specific and response-specific speech recognizers |
EP1214704B1 (de) | 1999-09-03 | 2004-03-10 | Siemens Aktiengesellschaft | Verfahren zum erfassen und auswerten von ein wort darstellenden wortsprachsignalen eines benutzers eines spracherkennungssystems |
US6304844B1 (en) * | 2000-03-30 | 2001-10-16 | Verbaltek, Inc. | Spelling speech recognition apparatus and method for communications |
EP1162602B1 (de) | 2000-06-07 | 2004-12-15 | Sony International (Europe) GmbH | Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars |
DE10129005B4 (de) | 2001-06-15 | 2005-11-03 | Harman Becker Automotive Systems Gmbh | Verfahren zur Spracherkennung und Spracherkennungssystem |
US6996519B2 (en) * | 2001-09-28 | 2006-02-07 | Sri International | Method and apparatus for performing relational speech recognition |
US6985861B2 (en) * | 2001-12-12 | 2006-01-10 | Hewlett-Packard Development Company, L.P. | Systems and methods for combining subword recognition and whole word recognition of a spoken input |
-
2002
- 2002-02-23 DE DE10207895A patent/DE10207895B4/de not_active Expired - Fee Related
-
2003
- 2003-02-21 US US10/371,982 patent/US7392189B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5304844A (en) * | 1989-04-27 | 1994-04-19 | Hitachi, Ltd. | Semiconductor device and method of producing the same |
DE69032282T2 (de) * | 1989-12-06 | 1998-08-20 | Fujitsu Ltd | System zur Spracherkennung |
CA2372676A1 (en) * | 1994-10-25 | 1996-05-02 | British Telecommunications Public Limited Company | Voice-operated services |
DE19532114A1 (de) * | 1995-08-31 | 1997-03-06 | Deutsche Telekom Ag | Sprachdialog-System zur automatisierten Ausgabe von Informationen |
DE19533541C1 (de) * | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7299179B2 (en) | 2003-02-13 | 2007-11-20 | Siemens Aktiengesellschaft | Three-stage individual word recognition |
WO2004072954A1 (de) * | 2003-02-13 | 2004-08-26 | Siemens Aktiengesellschaft | Dreistufige einzelworterkennung |
EP1693828A1 (de) * | 2005-02-21 | 2006-08-23 | Harman Becker Automotive Systems GmbH | Multilinguale Spracherkennung |
DE102005030967B4 (de) * | 2005-06-30 | 2007-08-09 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Interaktion mit einem Spracherkennungssystem zur Auswahl von Elementen aus Listen |
US8566091B2 (en) | 2006-12-12 | 2013-10-22 | Nuance Communications, Inc. | Speech recognition system |
EP1933302A1 (de) * | 2006-12-12 | 2008-06-18 | Harman Becker Automotive Systems GmbH | Spracherkennungsverfahren |
EP1975923A1 (de) * | 2007-03-28 | 2008-10-01 | Harman Becker Automotive Systems GmbH | Mehrsprachige nicht-muttersprachliche Spracherkennung |
WO2009010358A1 (de) * | 2007-07-18 | 2009-01-22 | Siemens Aktiengesellschaft | Verfahren zur spracherkennung |
CN101755301B (zh) * | 2007-07-18 | 2012-11-28 | 斯沃克斯公司 | 用于语音识别的方法 |
DE102007033472A1 (de) | 2007-07-18 | 2009-01-29 | Siemens Ag | Verfahren zur Spracherkennung |
DE112009004313B4 (de) * | 2009-01-28 | 2016-09-22 | Mitsubishi Electric Corp. | Stimmerkennungseinrichtung |
EP2357647A1 (de) | 2010-01-11 | 2011-08-17 | Svox AG | Verfahren zur Spracherkennung |
DE102010026708A1 (de) * | 2010-07-10 | 2012-01-12 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems und Sprachdialogsystem |
Also Published As
Publication number | Publication date |
---|---|
US7392189B2 (en) | 2008-06-24 |
DE10207895B4 (de) | 2005-11-03 |
US20040034527A1 (en) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10207895B4 (de) | Verfahren zur Spracherkennung und Spracherkennungssystem | |
CN1116770C (zh) | 应用语音识别的自动旅店服务者 | |
DE60203705T2 (de) | Umschreibung und anzeige eines eingegebenen sprachsignals | |
DE69922104T2 (de) | Spracherkenner mit durch buchstabierte Worteingabe adaptierbarem Wortschatz | |
DE60215272T2 (de) | Verfahren und Vorrichtung zur sprachlichen Dateneingabe bei ungünstigen Bedingungen | |
WO1998010413A1 (de) | Sprachverarbeitungssystem und verfahren zur sprachverarbeitung | |
DE10036851A1 (de) | Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe | |
DE102005018174A1 (de) | Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11 | |
DE102015109379A1 (de) | Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet | |
EP1395979B1 (de) | Verfahren zur spracherkennung und spracherkennungssystem | |
EP2006835B1 (de) | Verfahren zur Ermittlung einer Hypothesenliste aus einem Vokabular eines Spracherkennungssystems | |
DE102004055230B3 (de) | Verfahren zur Spracherkennung aus einem vorgebbaren Vokabular | |
EP1455163B1 (de) | Verfahren zur Eingabe von Zielen in ein Navigationssystem | |
CN1138184A (zh) | 装有消息存储器和话音合成器的交通情报机 | |
DE102014010315B4 (de) | Computer-implementiertes Verfahren und Vorrichtung zur Verarbeitung von Spracheingaben | |
DE112017007852B4 (de) | Spracherkennung-Wörterbuchdaten-Konstruktionsvorrichtung, Spracherkennungsvorrichtung, Spracherkennung-Wörterbuchdaten-Konstruktionsverfahren | |
DE102007016887B3 (de) | Verfahren und Vorrichtung zum Betreiben eines Navigationssystems | |
DE102018213602B3 (de) | Verfahren zum Erzeugen einer Sprachansage als Rückmeldung zu einer handschriftlichen Nutzereingabe sowie entsprechende Bedienvorrichtung und Kraftfahrzeug | |
DE10125825B4 (de) | Verfahren zur Spracheingabe und Datenträger | |
EP1955318A1 (de) | Verfahren und vorrichtung zum auffinden und ausgeben eines datensatzes aus einem speicher | |
US20030125941A1 (en) | Method for creating a data structure, in particular of phonetic transcriptions for a voice-controlled navigation system | |
DE102013019208A1 (de) | Kraftfahrzeug-Sprachbedienung | |
WO2009033562A2 (de) | Verfahren und vorrichtung zur erkennung einer alphanumerischen information | |
WO2002077974A1 (de) | Vorrichtung und verfahren zur spracherkennung | |
DE102017008079A1 (de) | Verfahren zum Übersetzen einer ersten Wortfolge in eine zweite Wortfolge |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |