WO2006067027A1 - Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabhängiger definition der dialoge - Google Patents

Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabhängiger definition der dialoge Download PDF

Info

Publication number
WO2006067027A1
WO2006067027A1 PCT/EP2005/056306 EP2005056306W WO2006067027A1 WO 2006067027 A1 WO2006067027 A1 WO 2006067027A1 EP 2005056306 W EP2005056306 W EP 2005056306W WO 2006067027 A1 WO2006067027 A1 WO 2006067027A1
Authority
WO
WIPO (PCT)
Prior art keywords
service
language
regional
dialogues
voice
Prior art date
Application number
PCT/EP2005/056306
Other languages
English (en)
French (fr)
Inventor
Detlev Freund
Norbert LÖBIG
Original Assignee
Nokia Siemens Networks Gmbh & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Siemens Networks Gmbh & Co. Kg filed Critical Nokia Siemens Networks Gmbh & Co. Kg
Priority to EP05816244A priority Critical patent/EP1832101A1/de
Priority to US11/793,511 priority patent/US20080114589A1/en
Publication of WO2006067027A1 publication Critical patent/WO2006067027A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects

Definitions

  • TDM time-division multiplexing
  • IP networks newer packet-based telecommunications networks
  • these services can be, for example, the provision of automatic selection menus with voice prompts and voice dialogues.
  • voice-controlled services stored on the application servers usually have a high degree of complexity with regard to the sequence of events and, moreover, are usually extremely extensive.
  • the complexity of services naturally increases in multinational scenarios due to the many different languages that need to be offered.
  • the application server requests to provide the service, i. H . for example B. when playing the corresponding audio files, the voice announcements required for the current application from one of these media servers. This request can be made directly or indirectly via an exchange.
  • the media servers themselves can be installed centrally in the network as well as close to the participants.
  • voice prompts and dialogues by the users of a service is usually done by the conventional DTMF ("dual tone multi-frequency") interface, but more modern types of such voice-based services use automatic voice recognition for easier navigation through the voice dialogues
  • the required language is usually determined in addition to the beginning of the service by means of a selection dialog. Any data about the respective participant present in the exchange of the telecommunication network (such as the preferred language or the region in which the subscriber is located) are not taken into account in this selection.
  • a disadvantage of the prior art is that when updating the services for all media server, a load must be performed.
  • D. H an updated version of the corresponding voice dialogues must be installed on all media servers or, if applicable, on the corresponding databases belonging to the media servers.
  • the media server or server must be used.
  • the external databases belonging to the media servers have corresponding charging logic as well as an additional protocol interface describing the charging process (eg FTP - "File Transfer Protocol”) and, in particular, a corresponding operator intervention by personnel not familiar with the definition and updating of services and speech dialogues.
  • the invention has for its object to provide a method that can provide voice-controlled services in a telecommunication system more efficient and easier.
  • An advantage of the invention is the fact that each service is only globally defined once in a reference language. In a multinational network, a regional version of the global service is automatically generated for each region, tailored to the specificities of the region. Thus, by virtue of the method according to the invention, a new service is in principle already available in all regions once it has been globally defined.
  • Another advantage of the invention is the fact that the data relevant for updating a service can also be transmitted via the control interfaces of the signaling protocols.
  • Another advantage of the invention is the use of the information of the exchange in the selection of the language to be used.
  • This information contains hints about the region in which the subscriber is located and can therefore be advantageously included in the selection of the language.
  • these data can originate, for example, from the so-called home location register (HLR).
  • HLR home location register
  • Fig. 1 shows the provision of a service in a telecommunications network according to the prior art
  • Fig. Figure 2 shows an embodiment of the method according to the present invention.
  • Fig. 1 shows a structure for providing a voice-controlled service in a conventional telecommunication network according to the prior art.
  • a subscriber Tn requests a voice-controlled service via a classic TDM or IP network.
  • This request can be made explicitly by the subscriber (for example by dialing a service telephone number) or implicitly by functions of the network (eg an authorization request for actions of the subscriber, a voice dialogue with a busy subscriber, a changed telephone number, etc.).
  • the signaling data are then transmitted to an exchange Vst, which forwards the request to an application server AS.
  • This contains the definitions of voice-controlled services offered in the telecommunications network.
  • the application servers also have their own specific service definition for each region filed.
  • exchange Vst sends the service instructions received from application server AS to a media server MS which sends or requests the required voice messages (or audio files) to subscribers Tn.
  • Dialogues with participants Tn handles.
  • the response of subscriber Tn is transmitted back to application server AS and processed there according to the service definition. If the control by subscriber Tn by means of DTMF interface, these signals are transmitted directly to the application server AS. However, if the controller is to work with speech recognition, an additional conversion of the speech into signals must be carried out. those that can be transmitted via the existing interface.
  • This implementation is preferably already decentralized in Media Server MS due to the better conditions for a high recognition probability.
  • both the service definitions in the application server AS and the data describing the corresponding announcements and dialogs are stored in all media servers MS or. renewed in the associated databases (not shown) by means of a loading process.
  • Fig. 2 an embodiment of the method according to the present invention is shown.
  • two subscribers TnA and TnB require a voice-controlled service from two regions A and B different in national languages.
  • the respective signaling data are forwarded by the exchange VSt to a global service controller DSt (corresponding to the application server of FIG. 1).
  • the global service control DSt now determines the desired language for the required service. This is usually done with the help of a start dialog, which provides the participants TnA and TnB all available languages for selection.
  • the participants can now select the desired language by means of, for example, DTMF control or voice control.
  • An additional aspect of the invention is the possibility of using the information that the exchange VSt has via the subscribers TnA and TnB to determine the desired language. Thus, the language selection can be omitted if necessary or reduced to a confirmation query.
  • exchange VSt has information about where the subscribers TnA and TnB are located (eg via country Code or local area code of subscriber TnA and TnB or the entries in the HLR), this information can already restrict the selection of the language. For example, a language frequently spoken in the region of the current participant will be included at the top of the selection list. Another possibility is to set the appropriate language directly as the default language and, if necessary, simply add a menu item to change the language in the dialog.
  • the global service control DSt passes the corresponding service instructions in the global language to the corresponding regional media server MSA or MSA. MSB.
  • the media servers MSA and MSB contain transformation instructions for converting global statements into their respective regional formats. After translating the instructions into the regional format, the media servers MSA and MSB determine the versions of the speech dialogues adapted to the specifics of their specific region and transmit them to the subscribers TnA and TnB. These voice messages are stored as audio files or text files either on the media servers MSA and MSB itself or on assigned databases (not shown) which the media server MSA and MSB can access on demand.
  • service control DSt in each case gives service instructions in the global language to the corresponding media servers MSA or MSA.
  • MSB which convert the instructions according to the transformation rules in the regional format and the requested voice messages to subscribers TnA or.
  • Send TnB If the responses of the subscribers TnA and TnB are transmitted by voice, they are evaluated locally, preferably directly in the respective media servers MSA and MSB. This results in a neutral parameter form or.
  • a region-specific speech input information eg a sequence of
  • the generation of voice messages is decentralized.
  • the media servers MSA and MSB can use a set of predefined audio and text definitions, which are assembled according to the transformed global rules. Thus, a loading is only necessary if completely new audio files must be added.

Abstract

Die vorliegende Erfindung beschreibt ein Verfahren zum effizienten und einfachen Bereitstellen sprachgeführter Dienste in einem Telekommunikationssystem. Im Stand der Technik wird ein Dienst für jede Sprache einzeln definiert. Dies macht das Bereitstellen eines Dienstes in mehreren Sprachen umständlich. Die Anmeldung löst dieses Problem indem die Definitionen der jeweiligen Dienste jeweils ausschließlich in einer 10 zentralen Dienststeuerung (DSt) global definiert und anschließend in regionalen Media Servern (MSA, MSB) gemäß vorgegebener Transformationsvorschriften in regionale Formate umgewandelt wird. Des Weiteren nutzt das Verfahren gemäß der vorliegenden Erfindung Informationen der Vermittlungsstelle (VSt) bei der Auswahl der erwünschten Sprache.

Description

Beschreibung
Verfahren zum flexiblen dezentralen Bereitstellen von mehrsprachigen Dialogen
Sowohl in herkömmlichen Telekommunikationsnetzen, die das Zeitmultiplexverfahren („time division multiplexing" - TDM) verwenden, als auch in neueren, paketbasierten Telekommunikationsnetzen (etwa IP-Netzen) stehen den Teilnehmern zahlrei- che Leistungsmerkmale zur Verfügung . Bei derartigen Leistungsmerkmalen und den damit in Zusammenhang stehenden Diensten kann es sich unter anderem beispielsweise um das Anbieten von automatischen Auswahlmenüs mit Sprachansagen und Sprachdialogen handeln .
Beim Stand der Technik wird die Steuerung der Dienste meist von einer aus Sicht der Vermittlungsstelle externen Komponente übernommen . Dabei handelt es sich um einen so genannten Applikationsserver, dem alle für die Definition der einzelnen Dienste erforderlichen Informationen verfügbar sind. Es liegt also die gesamte komplexe Intelligenz der angebotenen Dienste auf diesen Applikationsservern, die zugleich alle Parameter des erwünschten Dienstes überwachen und steuern und dabei die Antworten der Teilnehmer auswerten .
Die auf den Applikationsservern hinterlegten Definitionen der sprachgesteuerten Dienste besitzen zumeist eine hohe Komplexität hinsichtlich der Ablauffolge und sind zudem meist extrem umfangreich . Die Komplexität der Dienste nimmt bei mul- tinationalen Szenarien naturgemäß aufgrund der zahlreichen unterschiedlichen Sprachen, die angeboten werden müssen, noch weiter zu .
Aufgrund der großen Anzahl der für die Dienste erforderlichen Dateien sind diese Dateien beim Stand der Technik nicht auf den Applikationsservern selbst hinterlegt sondern auf so genannten Media Servern oder einer den j eweiligen Media Servern zugänglichen Datenbasis . Der Applikationsserver fordert dann beim Bereitstellen des Dienstes , d. h . z . B . beim Ausspielen der entsprechenden Audiodateien, die für die j eweilige Anwendung benötigten Sprachansagen von einem dieser Media Server an . Diese Anforderung kann direkt oder auch mittelbar über eine Vermittlungsstelle erfolgen . Die Media Server selbst können sowohl zentral im Netz als auch teilnehmernah installiert sein .
Die Steuerung der Sprachansagen und Dialoge durch die Nutzer eines Dienstes wird üblicherweise durch die herkömmliche DTMF-Schnittstelle („dual tone multi frequency"-Schnitt- stelle) vorgenommen . Modernere Arten derartiger sprachgeführter Dienste verwenden j edoch zur einfacheren Navigation durch die Sprachdialoge eine automatische Spracherkennung
(ASR - „automatic speech recognition" ) . Damit wird die Unterstützung von sowohl DTMF-geeigneten, einem Auswahlmenü folgenden Dialogen als auch von natürlichen Sprachdialogen ermöglicht . Bei einem solchen natürlichen Sprachdialog werden offene Fragen verwendet und die Spracheingaben frei formuliert . Die j eweiligen Folgefragen bestimmen sich hierbei aus der Kombination von erkannten Schlüsselworten . Der Anwender erhält damit den Eindruck der Kommunikation mit einem menschlichen Gesprächspartner .
Bei einer derartigen Steuerung mit natürlichen Spracheingaben ist allerdings eine zusätzliche Übertragung von weiteren Parametern (beispielsweise von besagten Schlüsselwörtern) notwendig . Da die DTMF-Schnittstelle für eine solche Übertragung nicht vorgesehen ist, wurden für die Bedürfnisse der Spracherkennung und der Sprachsynthese geeignete Steuerungsprotokolle wie etwa MRCP Vl („media resource control protocol ver- sion 1" ) oder MRCP V2 („media resource control protocol ver- sion 2" ) auf der Schnittstelle zwischen der sprachverarbei- tenden Komponente und der die Logik des Dialogs steuernden Komponente eines Media Servers definiert . Mit Hilfe dieser Protokolle ist es beispielsweise auch möglich, die für eine Spracherkennung notwendige aufwendigere Datenübertragung zwischen den Media Servern und den Applikationsservern durchzuführen .
Bei multinationalen Szenarien wird üblicherweise zusätzlich zu Beginn des Dienstes mittels eines Auswahldialogs die erforderliche Sprache bestimmt . Eventuell in der Vermittlungsstelle des Telekommunikationsnetzes vorliegende Daten über den j eweiligen Teilnehmer (wie beispielsweise die bevorzugte Sprache oder die Region, in der sich der Teilnehmer befindet) werden bei dieser Auswahl j edoch nicht berücksichtigt .
Nachteilig am Stand der Technik ist, dass bei einer Aktualisierung der Dienste für alle Media Server ein Ladevorgang durchgeführt werden muss . D . h . es muss auf alle Media Server oder gegebenenfalls auf die entsprechenden, den Media Servern zugehörigen Datenbasen eine aktualisierte Version der entsprechenden Sprachdialoge aufgespielt werden . Für die Durchführung eines solchen Ladevorgangs benötigen die Media Server bzw . die den Media Servern zugehörigen externen Datenbasen eine entsprechende Ladelogik sowie ein zusätzliches , den Ladevorgang beschreibendes Protokoll-Interface (z . B . FTP - „File Transfer Protocol" ) und insbesondere einen entsprechenden Bedieneingriff durch Personal . Das Personal ist im Allgemei- nen j edoch nicht mit der Definition und Aktualisierung von Diensten und Sprachdialogen vertraut .
Ein weiteres Problem beim Stand der Technik ist die oben beschriebene Komplexität der Dienste . So wird bereits die Defi- nition eines einfachen Dienstes sehr unübersichtlich, wenn dieser in mehreren Regionen auf zum Teil unterschiedliche Weise angeboten werden muss . Ferner kann beispielsweise verlangt sein, dass für j ede Region j eweils mehrere unterschiedliche Sprachen angeboten werden sollen . Bisher muss somit j e- der dieser speziellen Fälle als ein einzelner, spezifischer
Dienst im Applikationsserver definiert sein . Für aufwändigere Dienste, die beispielsweise längere Dialogfolgen umfassen oder mehrstufig sind, verschärft sich dieses Problem der Komplexität naturgemäß zusätzlich .
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren an- zugeben, das sprachgeführte Dienste in einem Telekommunikationssystem effizienter und einfacher bereitstellen kann .
Ein Vorteil der Erfindung ist die Tatsache, dass j eder Dienst nur einmal global in einer Referenzsprache definiert wird. Bei einem multinationalen Netz wird für j ede Region automatisch eine auf die Besonderheiten der Region abgestimmte regionale Version des globalen Dienstes erzeugt . Durch das Verfahren gemäß der Erfindung ist ein neuer Dienst demnach prinzipiell bereits in allen Regionen verfügbar, wenn er einmal global definiert wurde .
Werden geeignete Protokolle verwendet, so zeigt sich ein weiterer Vorteil der Erfindung in der Tatsache, dass die bei einer Aktualisierung eines Dienstes relevanten Daten auch über die Steuerschnittstellen der Signalisierungsprotokolle übermittelt werden können .
Ein weiterer Vorteil der Erfindung ist die Nutzung der Informationen der Vermittlungsstelle bei der Auswahl der zu ver- wendenden Sprache . Diese Informationen enthalten Hinweise über die Region, in der der Teilnehmer lokalisiert ist, und können daher bei der Auswahl der Sprache vorteilhaft eingebunden werden . In Mobilfunkszenarien können diese Daten beispielsweise dem so genannten Home Location Register (HLR) entstammen .
Die Erfindung wird nun im Folgenden mit Hilfe der beigefügten Zeichnungen detaillierter erläutert, wobei
Fig . 1 die Bereitstellung eines Dienstes in einem Telekommunikationsnetz gemäß dem Stand der Technik zeigt, und Fig . 2 eine Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung zeigt .
Fig . 1 zeigt einen Aufbau zum Bereitstellen eines sprachge- steuerten Dienstes in einem herkömmlichen Telekommunikationsnetz gemäß dem Stand der Technik . Dabei fordert ein Teilnehmer Tn über ein klassisches TDM- oder IP-Netz einen sprachgesteuerten Dienst an . Diese Anforderung kann explizit durch den Teilnehmer erfolgen (beispielsweise durch Anwahl einer Service-Rufnummer) oder implizit durch Funktionen des Netzes (z . B . eine Berechtigungsabfrage für Aktionen des Teilnehmers , ein Sprachdialog bei besetztem Teilnehmer, eine geänderte Rufnummer, usw . ) .
Die Signalisierungsdaten werden anschließend an eine Vermittlungsstelle Vst übertragen, die die Anforderung an einen Applikationsserver AS weiterleitet . Dieser enthält die Definitionen von in dem Telekommunikationsnetz angebotenen sprachgesteuerten Diensten . Bei multinationalen Netzen, insbesonde- re für den Fall, bei dem die Vermittlungsstelle ihre Dienste für mehrere nationale Netze anbietet, also gleichzeitig mehrere logische Vermittlungsstellen mit unterschiedlichem Systemverhalten umfasst, ist in den Applikationsservern demnach auch für j ede Region eine eigene, spezifische Dienstdefiniti- on abgelegt .
Im nächsten Schritt sendet Vermittlungsstelle Vst die von Applikationsserver AS empfangenen Dienstanweisungen an einen Media Server MS, der die geforderten Sprachnachrichten (oder Audiodateien) an Teilnehmer Tn sendet bzw . Dialoge mit Teilnehmer Tn abwickelt . Die Reaktion von Teilnehmer Tn wird zurück zu Applikationsserver AS übertragen und dort gemäß der Dienstdefinition bearbeitet . Erfolgt die Steuerung durch Teilnehmer Tn mittels DTMF-Schnittstelle, so werden diese Signale direkt zu Applikationsserver AS übertragen . Soll die Steuerung j edoch mit Spracherkennung arbeiten, muss zusätzlich eine Umsetzung der Sprache in Signale vorgenommen wer- den, die über die vorhandene Schnittstelle übermittelt werden können . Diese Umsetzung erfolgt aufgrund der besseren Bedingungen für eine hohe Erkennungswahrscheinlichkeit vorzugsweise bereits dezentral in Media Server MS .
Anschließend werden gegebenenfalls bis zur Beendigung des Dialogs weitere Anweisungen an Media Server MS gesendet bzw . Antworten von Teilnehmer Tn empfangen und ausgewertet . Bei einer Aktualisierung der Dienste oder dem Hinzufügen eines neuen Dienstes werden sowohl die Dienstdefinitionen in Applikationsserver AS als auch die die entsprechenden Ansagen und Dialoge beschreibenden Daten in allen Media Servern MS bzw . in den assoziierten Datenbasen (nicht gezeigt) mittels eines Ladevorgangs erneuert .
In Fig . 2 ist ein Ausführungsbeispiel des Verfahrens gemäß der vorliegenden Erfindung dargestellt . In diesem Beispiel verlangen zwei Teilnehmer TnA und TnB aus zwei hinsichtlich der nationalen Sprachen unterschiedlichen Regionen A und B einen sprachgesteuerten Dienst .
Die j eweiligen Signalisierungsdaten werden von Vermittlungsstelle VSt an eine globale Dienststeuerung DSt (entsprechend dem Applikationsserver aus Fig . 1 ) weitergeleitet . Die globa- Ie Dienststeuerung DSt ermittelt nun die gewünschte Sprache für den geforderten Dienst . Dies erfolgt zumeist mit Hilfe eines Anfangsdialogs , der den Teilnehmern TnA und TnB alle angebotenen Sprachen zur Auswahl stellt . Die Teilnehmer können nun mittels beispielsweise DTMF-Steuerung oder Sprach- Steuerung die erwünschte Sprache auswählen . Ein zusätzlicher Aspekt der Erfindung ist dabei die Möglichkeit der Zuhilfenahme der Informationen, die Vermittlungsstelle VSt über die Teilnehmer TnA und TnB besitzt, zur Ermittlung der gewünschten Sprache . Damit kann die Sprachauswahl gegebenenfalls weg- fallen oder auf eine Bestätigungsabfrage reduziert werden . Da Vermittlungsstelle VSt Informationen darüber besitzt, wo die Teilnehmer TnA und TnB lokalisiert sind (etwa über Country Code oder Local Area Code von Teilnehmer TnA und TnB oder der Einträge im HLR) , können diese Informationen bereits die Auswahl der Sprache einschränken . Eine in der Region des j eweiligen Teilnehmers häufig gesprochene Sprache wird dabei bei- spielsweise zuoberst in die Auswahlliste aufgenommen werden . Eine andere Möglichkeit ist, die entsprechende Sprache direkt als Standardsprache einzustellen und gegebenenfalls zusätzlich einfach einen Menüpunkt zum Ändern der Sprache in den Dialog aufzunehmen .
Wurde die von den Teilnehmern TnA und TnB gewünschte Sprache ausgewählt bzw . bestätigt, gibt die globale Dienststeuerung DSt die entsprechenden Dienstanweisungen in der globalen Sprache weiter an den entsprechenden regionalen Media Server MSA bzw . MSB . Die Media Server MSA und MSB enthalten Transformationsvorschriften zum Umwandeln globaler Anweisungen in ihre j eweiligen regionalen Formate . Nach der Übersetzung der Anweisungen in das regionale Format ermitteln die Media Server MSA und MSB die auf die Besonderheiten ihrer spezifischen Region abgestimmten Versionen der Sprachdialoge und übermitteln diese an die Teilnehmer TnA und TnB . Diese Sprachnachrichten sind als Audiodateien oder Textdateien entweder auf den Media Servern MSA und MSB selbst hinterlegt oder auf zugeordneten Datenbasen (nicht gezeigt) , auf die die Media Ser- ver MSA und MSB bei Bedarf zugreifen können .
Der anschließende Dialog erfolgt zwischen Teilnehmer TnA bzw . TnB, der globalen Dienststeuerung DSt und den entsprechenden Media Servern MSA bzw . MSB weiterhin gemäß dem oben beschrie- benen Verfahren : Dienststeuerung DSt gibt j eweils Dienstanweisungen in der globalen Sprache an die entsprechenden Media Server MSA bzw . MSB aus , die die Anweisungen gemäß der Transformationsvorschriften in das regionale Format überführen und die angeforderten Sprachnachrichten an Teilnehmer TnA bzw . TnB schicken . Werden die Antworten der Teilnehmer TnA und TnB per Sprache übermittelt, so werden diese lokal, vorzugsweise direkt in den j eweiligen Media Servern MSA und MSB ausgewertet . Dabei ergibt sich eine neutrale Parameterform bzw . eine regionspe- zifische Spracheingabeninformation (z . B . eine Folge von
Schlüsselworten mit zugehörigen Erkennungswahrscheinlichkeiten) . Anschließend werden diese Daten gemäß den Transformationsvorschriften in das globale Format umgewandelt und an die globale Dienststeuerung DSt gesendet .
Wird ein Dienst aktualisiert oder neu hinzugefügt, ergibt sich aus der globalen Definition und den regionalen Transformationsvorschriften direkt die regionale Version des Dienstes . Veränderte oder auch neue Services müssen also nur ein- mal global definiert werden . Die regionalen Formate werden durch die festgelegten Transformationen in den regionalen Media Servern MSA bzw . MSB automatisch erzeugt .
Auch die Erzeugung der Sprachnachrichten erfolgt dezentral . Die Media Server MSA und MSB können sich hierfür aus einem Satz von vorgegebenen Audio- und Textdefinitionen bedienen, die gemäß den transformierten globalen Vorschriften zusammengesetzt werden . Somit ist ein Ladevorgang nur noch dann notwendig, wenn gänzlich neue Audiodateien hinzugefügt werden müssen .
Verfahrensgemäß kann dieser eine separate Ladeschnittstelle erfordernde Ladevorgang auch umgangen werden, wenn z . B . unter Ausnutzung der Signalisierungsschnittstellen und der Ei- genschaften des Steuerungsprotokolls ausschließlich die Deltadefinition der Dienste im Rahmen der Dienstsignalisierung zwischen Applikationsserver und Media Server übertragen werden . Dies bringt zusätzliche Vorteile im Hinblick auf Aspekte der Sicherheit (Firewalls ) sowie der Instandhaltung . So ist in diesem Fall kein separater Arbeitsgang für das Bedien- und Wartungspersonal des Netzbetreibers nötig, um die Dienste auf die Bedürfnisse der Kunden anzupassen . Textdateien erlauben im Vergleich zu Sprachaufnahmen mit professionellen Sprechern ein noch schnelleres Aktualisieren von Ansagen . Sie können in das erfindungsgemäße Verfahren einbezogen werden, wenn sie durch automatisches Übersetzen in die regional gewünschten Sprachen überführt werden und eine Nachschaltung einer geeigneten regionalsprachlichen TTS- Funktionseinrichtung („text-to-speech" - „Text zu Sprache" ) möglich ist .

Claims

Patentansprüche
1. Verfahren zum Bereitstellen von sprachgeführten Diensten in einem multinationalen Telekommunikationssystem, dadurch gekennzeichnet, dass j eder Dienst in einer Referenzsprache global definiert wird und automatisch für j ede Region aus dieser globalen Definition eine regionale Definition des Dienstes erzeugt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Dienst Ansagen, Folgen von Ansagen, Toneingaben oder Spracheingaben umfasst .
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das multinationale Telekommunikationssystem eine Vermittlungsstelle (VSt) ist, die Teilnehmeranschlüsse und Ver- bindungsleitungen in einer Mehrzahl von nationalen Telekommunikationsnetzen mit unterschiedlichen Landessprachen bedient .
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Referenzsprache mit einer der zu bedienenden Landessprachen identisch ist .
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die automatische Erzeugung der Definition des regionalen Dienstes dezentral in regionalen Media Servern (MSA, MSB) vorgenommen wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass regional eine Spracherkennung durchgeführt wird und pro Region mindestens eine Einrichtung zur Spracherkennung exis- tiert .
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die den Dienst beschreibenden und definierenden Eigen- schaften u . a . Schlüsselworte, Schlüsselwortfolgen, Grammars , Erkennereinstellungen, Erkennerausgaben sowie Sprachdateien und Text sind.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die den Dienst beschreibenden und definierenden Eigenschaften im Rahmen der Signalisierung übertragen werden .
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Referenzsprache vorliegende, über Sprachsynthese auszugebende Texte automatisch durch geeignete Übersetzungsfunktionen und regional relevante Sprachsynthesefunktionen auf regionale Sprachen konvertiert werden .
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die Ermittlung der gewünschten Sprache Informationen der Datenbasis der Vermittlungsstelle (VSt) oder dieser im Rahmen der Verbindungsbearbeitung verfügbar gemachte Informationen einbezogen werden .
PCT/EP2005/056306 2004-12-21 2005-11-29 Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabhängiger definition der dialoge WO2006067027A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05816244A EP1832101A1 (de) 2004-12-21 2005-11-29 Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabh[ngiger definition der dialoge
US11/793,511 US20080114589A1 (en) 2004-12-21 2005-11-29 Method For The Flexible Decentralized Provision Of Multilingual Dialogues

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004061524A DE102004061524A1 (de) 2004-12-21 2004-12-21 Verfahren zum flexiblen dezentralen Bereitstellen von mehrsprachigen Dialogen
DE102004061524.1 2004-12-21

Publications (1)

Publication Number Publication Date
WO2006067027A1 true WO2006067027A1 (de) 2006-06-29

Family

ID=35618595

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/056306 WO2006067027A1 (de) 2004-12-21 2005-11-29 Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabhängiger definition der dialoge

Country Status (5)

Country Link
US (1) US20080114589A1 (de)
EP (1) EP1832101A1 (de)
CN (1) CN101112076A (de)
DE (1) DE102004061524A1 (de)
WO (1) WO2006067027A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818706B (zh) * 2021-01-19 2024-02-27 传神语联网网络科技股份有限公司 基于逆向结果稳定性的语音翻译实时争端记录系统与方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020184002A1 (en) * 2001-05-30 2002-12-05 International Business Machines Corporation Method and apparatus for tailoring voice prompts of an interactive voice response system
WO2003039122A1 (de) * 2001-10-29 2003-05-08 Siemens Aktiengesellschaft Verfahren und system zum dynamischen generieren von ansageinhalten

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5375164A (en) * 1992-05-26 1994-12-20 At&T Corp. Multiple language capability in an interactive system
US6240170B1 (en) * 1997-06-20 2001-05-29 Siemens Information And Communication Networks, Inc. Method and apparatus for automatic language mode selection
US6205418B1 (en) * 1997-06-25 2001-03-20 Lucent Technologies Inc. System and method for providing multiple language capability in computer-based applications
DE10006240A1 (de) * 2000-02-11 2001-08-16 Bsh Bosch Siemens Hausgeraete Elektrogerät mit Spracheingabeeinheit und Verfahren zur Spracheingabe
GB0004097D0 (en) * 2000-02-22 2000-04-12 Ibm Management of speech technology modules in an interactive voice response system
US6996520B2 (en) * 2002-11-22 2006-02-07 Transclick, Inc. Language translation system and method using specialized dictionaries

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020184002A1 (en) * 2001-05-30 2002-12-05 International Business Machines Corporation Method and apparatus for tailoring voice prompts of an interactive voice response system
WO2003039122A1 (de) * 2001-10-29 2003-05-08 Siemens Aktiengesellschaft Verfahren und system zum dynamischen generieren von ansageinhalten

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CISCO: "TCL IVR API Version 1.0 Programmer's Guide", 3 November 2002 (2002-11-03), pages 1 - 66, XP002365719, Retrieved from the Internet <URL:http://www.cisco.com/univercd/cc/td/doc/product/access/acs_serv/vapp_dev/tclivrpg.pdf> *
MITTENDORFER M ET AL: "Evaluation of Intelligent Component Technologies for VocieXML Applications", X, 20 June 2001 (2001-06-20), XP002283135 *
SARAVANAN SHANMUGHAM CISCO SYSTEMS INC PETER MONACO NUANCE COMMUNICATIONS BRIAN EBERMAN SPEECHWORKS INC: "A Media Resource Control Protocol Developed by Cisco, Nuance, and Speechworks", IETF STANDARD-WORKING-DRAFT, INTERNET ENGINEERING TASK FORCE, IETF, CH, no. 5, 1 January 2004 (2004-01-01), XP015035188, ISSN: 0000-0004 *

Also Published As

Publication number Publication date
US20080114589A1 (en) 2008-05-15
CN101112076A (zh) 2008-01-23
DE102004061524A1 (de) 2006-07-20
EP1832101A1 (de) 2007-09-12

Similar Documents

Publication Publication Date Title
DE10220524B4 (de) Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE69725761T2 (de) System und verfahren zur kodierung und zur aussendung von sprachdaten
DE69837578T2 (de) Verfahren und Gerät für automatische Sprachmodusselektion
DE102016102341A1 (de) System und verfahren zum themenbezogenen trennen bei instant messaging
EP1324314A1 (de) Spracherkennungssystem und Verfahren zum Betrieb eines solchen
DE60201939T2 (de) Vorrichtung zur sprecherunabhängigen Spracherkennung , basierend auf einem Client-Server-System
EP1282296A2 (de) Verfahren und Anordnung zum Aufbau einer Konferenzschaltung
DE10147549A1 (de) Vermittlungsverfahren zwischen Dialogsystemen
DE10208295A1 (de) Verfahren zum Betrieb eines Sprach-Dialogsystems
DE10027659A1 (de) Verfahren zur Erzeugung eines Telefonbuchs in einem Fernsprechendgerät
EP1241600A1 (de) Verfahren und Kommunikationssystem zur Generierung von Antwortmeldungen
DE10220522B4 (de) Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
EP1832101A1 (de) Verfahren zum dezentralen bereitstellen von mehrsprachigen dialogen mittles sprachunabh[ngiger definition der dialoge
DE10118125A1 (de) Automatisches Auskunftssystem
DE19741473C2 (de) Verfahren zur Steuerung von Display-Bedienoberflächen systemgesteuerter Endgeräte eines Kommunikationssystems
DE69833470T2 (de) Verfahren und Gerät zur Aktualisierung von Textdaten für eine elektrische Einrichtung
EP1150479A2 (de) Verfahren zur interaktive Informationsabfrage mittels eines Mobiltelefons
DE10050360B4 (de) Verfahren Aktivierung und/oder Deaktivierung von Diensten in einem Vermittlungssystem
EP1240775B1 (de) Kommunikationssystem und verfahren zum bereitstellen eines internet-zugangs über ein telefon
DE19514849A1 (de) Verfahren zur Fernsteuerung und Vorrichtung dafür
EP1232657A2 (de) Verfahren zum erzeugen eines wählverzeichnisses in einem netzwerkendgerät und kommunikationsnetzwerk für ein solches verfahren
DE60211264T2 (de) Adaptieve Navigation in einer Sprachantwortsystem
WO1998058479A2 (de) Konfigurierung von endgeräten in telekommunikationssystemen
DE10220519B4 (de) Verfahren und System zur Verarbeitung von Sprachinformation
WO1999038309A1 (de) Auskunftsdienst in eine telekommunikationsnetz

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
REEP Request for entry into the european phase

Ref document number: 2005816244

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005816244

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11793511

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580044177.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005816244

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11793511

Country of ref document: US