DE60125664T2 - Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen - Google Patents

Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen Download PDF

Info

Publication number
DE60125664T2
DE60125664T2 DE60125664T DE60125664T DE60125664T2 DE 60125664 T2 DE60125664 T2 DE 60125664T2 DE 60125664 T DE60125664 T DE 60125664T DE 60125664 T DE60125664 T DE 60125664T DE 60125664 T2 DE60125664 T2 DE 60125664T2
Authority
DE
Germany
Prior art keywords
sound source
information
synthesized
sound
source signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60125664T
Other languages
English (en)
Other versions
DE60125664D1 (de
Inventor
Kazunobu Shinagawa-ku Kubota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE60125664D1 publication Critical patent/DE60125664D1/de
Publication of DE60125664T2 publication Critical patent/DE60125664T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur Verarbeitung von Audiosignalen zur Benutzung mit Videospielmaschinen, Personalcomputern und dgl. und bei denen ein Ton- oder Klangbild eines Ton- oder Klanquellensignals virtuell lokalisiert ist.
  • Wenn virtuelle Realität durch Klänge realisiert wird, ist generell ein Verfahren wie es beispielsweise aus US 4 721 848 hervorgeht bekannt, bei dem ein monoaurales Audiosignal durch eine geeignete Signalverarbeitung wie beispielsweise Filterung so verarbeitet wird, dass durch Benutzung von nur zwei Lautsprechern für einen Zuhörer ein Klangbild nicht nur zwischen zwei Lautsprechern, sondern auch an jeder Position eines dreidimensionalen Raums lokalisiert werden kann.
  • Wenn ein monoaurales Audiosignal durch richtige Filterung auf Basis von Übertragungsfunktionen (HRTF: Head Related Transfer Function (kopfbezogene Übertragungsfunktion)) von einer Position, bei der ein Klangbild eines eingegebenen monoauralen Audiosignals bei Ohren eines Zuhörers lokalisiert ist, und Übertragungsfunktionen von einem Paar Lautsprechern, die vor dem Zuhörer oder den Ohren des Zuhörers lokalisiert sins, lokalisiert ist, verarbeitet wird, kann ein Klangbild sogar an jedem Platz anders als die Positionen eines Paars Lautsprecher wie beispielsweise hinter und auf der Seite von einem Zuhörer lokalisiert werden. In der Beschreibung der vorliegenden Erfindung ist diese Technik als eine „virtuelle Klangbildlokalisierung" bezeichnet. Wiedergabeeinrichtungen können Lautsprecher, Kopfhörer oder Ohrhörer sein, die von einem Zuhörer getragen werden. Wenn ein Zuhörer durch Kopfhörer wiedergegebenen Klängen eines Audiosignals, das durch diese Signalverarbeitung nicht verarbeitet worden ist, zuhört, tritt eine sogenannte „Im-Kopf-Lokalisierung (in-head localisation)" des wiedergegebenen Klangbilds auf. Wenn die obige Verarbeitung am Audiosignal bewirkt wird, kann ein wiedergegebenes Klangbild eine „Außer-Kopf-Lokalisierung (out-head localisation)" ähnlich zu der durch die Lautsprecher erhaltenen Klangbildlokalisierung erzeugt werden. Außerdem wird es möglich, ein Klangbild ähnlich zu der von den Lautsprechern bewirkten virtuellen Klangbildlokalisierung an einer beliebigen Position um den Zuhörer herum zu lokalisieren. Obgleich Signalverarbeitungsinhalte in Reaktion auf jeweilige Wiedergabeeinrichtungen etwas unterschiedlich werden, werden resultierende Ausgangssignale ein Paar Audiosignale (Stereoaudiosignale). Wenn dann die obigen Audiosignale, das heißt Stereoaudiosignale durch ein Paar geeignete Umsetzer (Lautsprecher oder Kopfhörer) wiedergegeben werden, kann ein Klangbild an einer beliebigen Position lokalisiert werden. Natürlich sind eingegebene Signale nicht auf die monoauralen Audiosignale beschränkt. Wie später beschrieben werden mehrere Klangwellensignale entsprechend jeweiligen Lokalisierungspositionen gefiltert und können zusammenaddiert werden, so dass ein Klangbild an einer beliebigen Position lokalisiert werden kann.
  • Wenn außerdem Mehrkanallautsprecher um den Zuhörer herum lokalisiert werden und Klangwellensignale diesen Kanälen richtig zugeordnet werden, können gewünschte Klangbilder lokalisiert werden.
  • Andererseits ist ein Verfahren bekannt, bei dem Bilder und Klangbilder durch Benutzung der obigen Technik lokalisiert werden, wenn der Benutzer die Wiedergabeeinrichtung betreibt.
  • Entsprechend einer Durchsatzverbesserung neuester Prozessoren und entsprechend einer Herstellerforderung und -suche nach einer Wiedergabe von komplexerer und realerer virtueller Realität wird die Verarbeitung selbst zunehmend fortschrittlich und komplexer.
  • Da das Klangvirtuelllokalisierungsverfahren, das die obige fundamentale Technologie wird, ein originales monaurales Klangsignal als eine Punktklangquelle annimmt, wird, wenn der Produzent beabsichtigt, eine Klangquelle von großer Größe auszudrücken, die nicht von einer Punktklangwelle wiedergegeben werden kann, um eine Klangquelle nahe bei einem Satz von Klangquellen mit komplexer Anordnung und einem Zuhörer zu lokalisieren, ein Satz von Klangquellen geteilt und im Voraus als mehrere Punktklangquellen T1, T2, T3, T4 gehalten, und mehrere Punktklangquellen werden separat virtuell lokalisiert. Dann wird, wie in 1 der beigefügten Zeichnungen gezeigt, ein Klangsignal durch Bewirken einer Synthetisierungsverarbeitung wie beispielsweise Mischung bei diesen Punktklangquellen erzeugt.
  • Es sei ein Satz von Klangquellen angenommen, die wie in 2 der beigefügten Zeichnungen gezeigt beispielsweise aus vier Punktklangquellen T1, T2, T3, T4 zusammengesetzt sind. Wenn die Position dieses Satzes bewegt oder gedreht wird, werden virtuelle Klangbilder aller Punktklangquellen T1, T2, T3, T4 lokalisiert und werden für einen Zuhörer M an den durch T11, T21, T31, T34 gezeigten Positionen Klangbilder lokalisiert.
  • Wenn Positionsbeziehungen der jeweiligen Klangquellen, die diesen Satz aufweisen, transformiert werden, werden virtuelle Klangbilder aller Punktklangquellen T1, T2, T3, T4 ähnlich lokalisiert, wodurch für den Zuhörer M an durch T12, T22, T32, T42 in 2 gezeigten Positionen Klangbilder lokalisiert werden.
  • Jedoch entsprechend dem obigen Verfahren wird, wenn eine virtuelle Klangbildlokalisierung eines realisierten Klangquellenobjekts (Klangquelle, die Positionsinformation und dgl. aufweist) komplexer wird und die Anzahl der Punktklangquellen zunimmt, die Menge von zu verarbeitenden Signalen sehr groß, so dass eine andere Verarbeitung unterdrückt wird, andernfalls überschreitet die Menge von zu verarbeitenden Signalen einen zulässigen Signalverarbeitungsgrad, so dass das Audiosignalverarbeitungsgerät unfähig wird, ein Audiosignal wiederzugeben.
  • Im Hinblick auf das oben genannte Problem ist es eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zur Verarbeitung eines Audiosignals bereitzustellen, mit denen eine zu verarbeitende Signalmenge reduziert werden kann, während eine virtuelle Realität von Klängen realisiert werden kann.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein Verfahren zur Verarbeitung eines Audiosignals bereitgestellt, das die Schritte aufweist: Synthetisieren mehrerer Klangquellensignale, deren Anzahl M ist, zum Erzeugen von Klangquellensignalen, deren Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer von Positionsinformation, Bewegungsinformation und Lokalisationsinformation der M Klangquellen, Synthetisieren wenigstens einer Information von Positionsinformation, Bewegungsinformation und Lokalisationsinformation, die mit synthetisierten Klangquellensignalen korrespondieren, und Lokalisieren der N synthetisierten Klangquellensignale in einem Klangbild auf Basis der synthetisierten Information.
  • Gemäß der vorliegenden Erfindung kann, da die synthetisierten Klangsignale von den Klangquellensignalen synthetisiert werden und virtuelle Klangbilder der synthetisierten Klangquellensignale der Anzahl kleiner als die der originalen Klangquellensignale lokalisiert werden, die Menge von zu verarbeitenden Signalen reduziert werden.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist eine Vorrichtung zur Verarbeitung eines Audiosignals bereitgestellt, die aufweist: eine Synthetisiertklangquellensignal-Erzeugungseinrichtung zum Synthetisieren mehrerer Klangquellensignale, deren Anzahl M ist, zum Erzeugen von N Klangquellensignalen, wobei die Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer von Positionsinformation, Bewegungsinformation und Lokalisierungsinformation der Klangquellen, eine Synthetisiertinformations-Erzeugungseinrichtung zum Erzeugung synthetisierter Information durch Synthetisieren von Information, die mit den synthetisierten Klangquellensignalen korrespondiert, von der Information und eine Signalverarbeitungseinrichtung zum Lokalisieren der N synthetisierten Klangquellensignale in einem Klangbild auf Basis der synthetisierten Information.
  • Gemäß der vorliegenden Erfindung kann, da virtuelle Klangbilder der synthetisierten Klangquellensignale, deren Anzahl kleiner als die der originalen Klangquellensignale ist, lokalisiert werden, die Menge von zu verarbeitenden Signalen reduziert werden.
  • Gemäß einem noch anderen Aspekt der vorliegenden Erfindung ist ein Aufzeichnungsmedium bereitgestellt, bei dem synthetisierte Klangquellensignale aufgezeichnet sind, wobei mehrere Klangquellensignale, deren Anzahl M ist, in N Signale, deren Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer Information von Positionsinformation, Bewegungsinformation und Lokalisierungsinformation der Klangquelle synthetisiert sind und synthetisierte Information als wenigstens eine Information von Positionsinformation, Bewegungsinformation und Lokalisierungsinformation, die mit den synthetisierten Klangquellensignalen in Assoziation zueinander korrespondieren, synthetisiert ist.
  • Gemäß der vorliegenden Erfindung kann, da die synthetisierten Klangquellensignale, deren Anzahl kleiner als die der originalen Klangquellensignale ist, erzeugt und gespeichert werden, eine Kapazität zum Speichern der synthetisierten Klangquellensignale reduziert werden. Wenn die synthetisierten Klangquellensignale, deren virtuellen Klangbilder im Voraus lokalisiert worden sind, gespeichert werden, kann der Signalverarbeitungsgrad, der erforderlich ist, wenn die Signale wiedergegeben werden, reduziert werden.
  • Ausführungsformen der Erfindung werden nun nur beispielhaft anhand der beigefügten Zeichnungen beschrieben, bei denen:
  • 1 eine schematische Darstellung ist, auf die bei der Erläuterung der Art und Weise, in der virtuelle Klangbilder mehrerer Punktklangquellen entsprechend der verwandten Technik lokalisiert und gemischt werden, Bezug genommen wird;
  • 2 eine schematische Darstellung ist, auf die bei der Erläuterung eines Beispiels eines Audiosignalverarbeitungsverfahrens gemäß der verwandten Technik Bezug genommen wird;
  • 3 ein Blockdiagramm ist, das ein Beispiel einer Videospielmaschine zeigt;
  • 4 eine schematische Darstellung ist, auf die bei der Erläuterung eines Audiosignalverarbeitungsverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung Bezug genommen wird;
  • 5 ein Blockdiagramm ist, auf die bei der Erläuterung der Art und Weise, in der zwei virtuelle Klangbilder lokalisiert und gemischt werden, Bezug genommen wird;
  • 6 eine schematische Darstellung ist, auf die bei der Erläuterung des Audiosignalverarbeitungsverfahrens gemäß der Ausführungsform der vorliegenden Erfindung Bezug genommen wird; und
  • 7A bis 7C jeweils schematische Darstellungen sind, auf die bei der Erläuterung eines Audiosignalverarbeitungsverfahrens gemäß einer anderen Ausführungsform der vorliegenden Erfindung Bezug genommen wird.
  • Eine Vorrichtung und ein Verfahren zur Verarbeitung eines Audiosignals gemäß Ausführungsformen der vorliegenden Erfindung wird unten anhand der beigefügten Zeichnungen beschrieben.
  • Zuerst wird anhand der 3 eine Videospielmaschine beschrieben, bei der die vorliegende Erfindung angewendet ist.
  • Wie in 3 gezeigt weist die Videospielmaschine eine CPU (central processing unit (zentrale Verarbeitungseinheit)) 1 auf, die einen Mikrocomputer zur Steuerung des Ganzen von Operationen dieser Videospielmaschine aufweist. Während ein Benutzer eine externe Steuerungseinrichtung (Kontroller) 2 wie beispielsweise einen Joystick betätigt, wird ein auf Betätigungen des Kontrollers 2 reagierendes externes Steuerungssignal S1 in die CPU 1 eingegeben.
  • Die CPU 1 ist ausgebildet zum Auslesen von Information zur Bestimmung von Positionen oder Bewegungen eines Klangquellenobjekts, das aus einem Speicher 3 einen Klang erzeugt. Auf diese Weise vom Speicher 3 ausgelesene Information kann als Information zur Bestimmung der Position eines Klangquellenobjekts (Punktklangquelle) benutzt werden. Der Speicher 3 weist eine geeignete Einrichtung wie beispielsweise einen ROM (read only memory (Nurlesespeicher)), einen RAM (random-access memory (Direktzugriffsspeicher)), eine CD-ROM (compact disc read only memory (Kompaktdisk-Nurlesespeicher)) und einen DVD-ROM (digital versatile disc read only memory (Digital-Mehrseitigplatte-Nurlesespeicher)) auf, in welche dieses Klangquellenobjekt und andere notwendige Information wie beispielsweise ein Softwarespiel geschrieben sind. Der Speicher 3 kann an der Videospielmaschine angebracht (oder in diese geladen) sein.
  • Bei der Beschreibung der vorliegenden Erfindung weist das Klangquellenobjekt wenigstens eine Information von einem Klangquellensignal, einer Klangquellen-Positions/Bewegungs-Information und einer Lokalisationspositionsinformation als sein Attribut auf. Obgleich das Klangquellenobjekt als mehrere Klangquellen definiert sein kann, ist zum klareren Verständnis der vorliegenden Erfindung ein Klangquellenobjekt als eine einzelne Klangquelle definiert, und mehrere Klangquellen sind als „ein Satz von Klangquellen" definiert.
  • Die obige Klangquellenpositionsinformation bezeichnet Klangquellenpositionskoordinaten in dem als Softwarespiel angenommenen Koordinatenraum, eine relative Klangquellenposition relativ zu einer Position eines Zuhörers, eine relative Klangquellenposition relativ zu einem wiedergegebenen Bild und dgl. Außerdem können die Koordinaten entweder ein orthogonales Koordinatensystem oder ein Polarkoordinatensystem (Azimut und Abstand) sein. Dann bezieht sich Bewegungsinformation auf die Koordinatenrichtung, in welcher eine Lokalisationsposition einer wiedergegebenen Klangquelle von den laufenden Koordinaten bewegt wird, und bezieht sich auch auf eine Geschwindigkeit, mit der die Lokalisationsposition einer wiedergegebenen Klangquelle bewegt wird. Deshalb kann die Bewegungsinformation als eine Vektorgröße (Azimut und Geschwindigkeit) ausgedrückt werden. Lokalisationsinformation ist Information einer Lokalisationsposition einer wiedergegebenen Klangquelle und kann relative Koordinaten sein, die erhalten werden, wenn sie von einem Spiel-Spieler (Zuhörer) gesehen wird. Die Lokalisationsinformation kann VL (vorne links), Z (Zentrum), VR (vorne rechts), HL (hinten links) und HR (hinten rechts) sein und kann ähnlich wie die obige „Positionsinformation" definiert sein.
  • Selbst wenn die Bedienungsperson die Videospielmaschine nicht betätigt, kann Positionsinformation und Bewegungsinformation des Klangquellenobjekts mit Zeitinformation und Ereignisinformation (Triggersignal zur Aktivierung der Videospielmaschine) assoziiert sein, die in diesem Speicher 3 aufgezeichnet sind, und kann eine Bewegung einer vorher bestimmten Klangquelle ausdrücken. In manchen Fällen kann zur Darstellung von Fluktuationen Information, die sich zufällig bewegt, im Speicher 3 aufgezeichnet sein. Die obigen Fluktuationen werden zum Addieren von Stufeneffekten (stage effects) wie beispielsweise Explosion und Kollision oder zum Addieren feiner Stufeneffekte (delicate stage effects) benutzt. Um zufällige Bewegungen zu realisieren, kann Software oder Hardware, die Zufallszahlen erzeugt, in der CPU 1 installiert sein oder kann eine Tabelle von Zufallszahlen und dgl. im Speicher 3 gespeichert sein.
  • Wenn bei der in 3 gezeigten Ausführungsform die Bedienungsperson die externe Steuerungseinrichtung (Kontroller) 2 zum Zuführen des externen Steuerungssignals S1 zur CPU 1 betätigt, so ist ein Kopfhörer, bei dem Kopfbewegungen (Rotation, Bewegung usw.) einer Bedienungsperson (Zuhörer) durch einen Sensor detektiert werden und Klangbildlokalisationsposition in Reaktion auf detektierte Bewegungen geändert wird, bekannt. Ein von einem solchen Sensor detektiertes Signal kann der CPU 1 als externes Steuerungssignal zugeführt werden.
  • Schließlich kann das Klangquellensignal im Speicher 3 Positionsinformation, Bewegungsinformation und dgl im Voraus aufweisen oder braucht sie nicht aufzuweisen. In allen Fällen addiert die CPU 1 Positionsänderungsinformation, die in Reaktion auf eine Instruktion von innen außen dem Klangquellensignal zugeführt wird, und bestimmt eine Klangquellenlokalisationsposition dieses Klangquellensignals. Es sei nun beispielsweise angenommen, dass eine Bewegungsinformation, die ein Flugzeug darstellt, das von vorne über Kopf rechts hinter einen Spieler fliegt, während ein Spieler ein Spiel spielt, zusammen mit dem Klangquellensignalsignal auf dem Speicher 3 aufgezeichnet ist. Wenn ein Spieler durch Betätigung des Kontrollers 2 Instruktion zum Wenden des Flugzeugs nach links bereitstellt, wird die Klangbildlokalisationsposition derart variiert, dass Klänge des Flugzeugs so erzeugt werden, wie wenn das Flugzeug auf der rechten Seite fortflöge.
  • Dieser Speicher 3 braucht nicht in der gleichen Videospielmaschine platziert zu sein und kann Information beispielsweise durch das Netzwerk von einer separaten Maschine empfangen. Es sind auch Fälle denkbar, bei denen eine separate Bedienungsperson für eine separate Videospielmaschine existiert und Klangquellen-Positions- und -Bewegungsinformation auf Basis dieser Operationsinformation sowie Fluktuationsinformation und dgl., die von der separaten Videospielmaschine erzeugt werden, bei der Bestimmung der Position des Klangquellenobjekts inkludiert sind.
  • Demgemäss werden zusätzlich zur Positions-/Bewegungsinformation, die das Klangquellensignal im Voraus aufweist, die Klangquellen-Positions- und -Bewegungsinformation (mit Lokalisationsinformation), die von der Information bestimmt werden, welche von der CPU 1 auf Basis der in Reaktion auf eine Instruktion von innen/außen zugeführten Positionsänderungsinformation erhalten wird, zum Audioverarbeitungsabschnitt 4 übertragen. Der Audioverarbeitungsabschnitt 4 bewirkt eine Virtuellklangbildlokalisationsverarbeitung bezüglich eines ankommenden Audiosignals auf Basis übertragener Klangquellen-Positions- und -Bewegungsinformation und gibt schließlich das so verarbeitete Audiosignal von einem Audioausgangsanschluss 5 als ein Stereoausgangssignal S2 aus.
  • Wenn es mehrere wiederzugebende Klangquellenobjekte gibt, wird jeweilige Positions- und Bewegungsinformation für die mehreren Klangquellenobjekte in der CPU 1 bestimmt. Diese Information wird dem Audioverarbeitungsabschnitt 4 zugeführt, und der Audioverarbeitungsabschnitt 4 lokalisiert ein virtuelles Klangbild jedes Klangquellenobjekts. Dann addiert (mischt) der Audioverarbeitungsabschnitt 4 ein Linkskanal-Audiosignal und ein Rechtskanal-Audiosignal, die mit den jeweiligen Tonquellenobjekten korrespondieren, separat und führt die von allen Klangquellenobjekten erzeugten Audiosignale einem Audioausgangsanschluss 5 als Stereoausgangssignale zu.
  • In Fällen, bei denen es andere Audiosignale gibt, für die eine virtuelle Klangbildlokalisation nicht ausgeführt wird, ist ein Verfahren denkbar, bei dem Audiosignale mit den obigen Audiosignalen gemischt und zur gleichen Zeit ausgegeben werden. Bei dieser Ausführungsform sind in Bezug auf Audiosignale, für die eine virtuelle Klangbildlokalisation nicht ausgeführt wird, keine Vorkehrungen getroffen.
  • Gleichzeitig überträgt die CPU 1 anzuzeigende Information zu einem Videoverarbeitungsabschnitt 6. Der Videoverarbeitungsabschnitt 6 verarbeitet die zugeführte Information in einer geeigneten Videoverarbeitungsweise und gibt ein resultierendes Videosignal S3 von einem Videoausgangsanschluss 7 aus.
  • Das Audiosignal S2 und das Videosignal S3 werden beispielsweise einem Audioeingangsanschluss und einem Videoeingangsanschluss eines Monitors 8 zugeführt, wodurch ein Spieler und ein Zuhörer virtuelle Realität erfahren können.
  • Es wird ein Verfahren zur Wiedergabe eines komplexen Objekts dieser Ausführungsform beschrieben.
  • Bei Realisierung eines komplexen Objekts wie beispielsweise eines Dinosauriers wird vom Kopf eine Stimme erzeugt, und von den Füssen kommen Klänge wie beispielsweise von Fußstapfen. Wenn ein Dinosaurier einen Schwanz hat können noch andere Klänge (beispielsweise der den Boden treffende Schwanz) sowie abnorme Klänge aus dem Bauch erzeugt werden. Um das Realitätsgefühl weiter zu verstärken können unterschiedliche andere Klänge von verschiedenen anderen Teilen des Dinosauriers erzeugt werden.
  • Wenn wie bei dieser Ausführungsform virtuelle Realität durch Benutzung von CG (computer graphics (Computergrafik)) wiedergegeben wird, so ist ein Verfahren bekannt, bei dem Punktklangquellen in Reaktion auf die minimale Einheit (Polygon usw.) eines zu zeichnenden Bildes positioniert werden, die Punktklangquellen in der gleichen Weise wie die Bewegung des Bildes bewegt werden und das Realitätsgefühl durch Lokalisieren virtueller Klangbilder wiedergegeben werden kann.
  • Bei dem obigen Beispiel des Dinosauriers werden Stimmen, Fußstapfen, vom Schwanz erzeugte Klänge und dgl. so positioniert, dass sie in dem Bild mit dem Mund, den Füssen, dem Schwanz korrespondieren, werden Klangbilder entsprechend ihren Bewegungen individuell lokalisiert und werden von der jeweiligen virtuellen Klaugbildlokalisation erhaltene Audiosignale im linken- und rechten Kanal separat addiert und vom Audioausgangsanschluss 5 ausgegeben.
  • Entsprechend diesem Verfahren gilt, je größer die Zunahme der Anzahl von Klangquellenobjekten (Punktklangquellen, die zu positionieren sind) ist, desto mehr nähert sich die Darstellung der Realität, aber desto größer ist die Zunahme des Verarbeitungsgrads.
  • Der Besonderheit des Bilds beim Verstehen der Position von Klang sich zuwendend werden, wie in 4 gezeigt, die Klangquellenobjekte T1, T2, T3, T4 synthetisiert und als Stereoaudiosignale SL, SR gespeichert. In diesem Fall wird durch Synthetisieren von Positions- und Bewegungsinformation der Stereoaudioquellen SL, SR dieser synthetisierten Klangquelle synthetisierte Information gebildet.
  • Ist das Verstehen von Position durch den Gehörsinn (sense of hearing) im Vergleich zum Verständnis von Position durch den Gesichtssinn (sense of sight) vage. Selbst wenn Klangquellenobjekte nicht entsprechend der oben erwähnten minimalen Zeichnungseinheit positioniert werden, kann Position verstanden und Raum erkannt werden. Das heißt, Klangquellen müssen nicht mit einer Einheit so klein wie die zu einer Bildverarbeitung erforderliche klassifiziert werden.
  • Entsprechend der herkömmlichen Stereowiedergabetechnik kann, wenn Klänge durch zwei Lautsprecher wiedergegeben werden, der mit M bezeichnete Zuhörer Klänge, die von diesen Lautsprechern erzeugt werden, nicht immer so hören, wie wenn alle Klänge bei der Position platziert sind, bei der diese Lautsprecher platziert sind. Demgemäss kann der Zuhörer Klänge so hören, wie wenn Klänge auf einer die zwei Lautsprecher verbindenden Linie platziert sind.
  • Entsprechend dem Fortschritt bei Aufzeichnungs- und Editierungstechnologien in den letzten Jahren wird es möglich, bezüglich der obigen Linie der zwei Lautsprecher Klänge mit einem Gefühl von Tiefe wiederzugeben.
  • Mit dem obigen Hintergrund werden mehrere Klangquellenobjekte T1, T2, T3, T4 wie in 4 gezeigt synthetisiert und im Voraus editiert und als die Stereoaudiosignale SL, SR gespeichert. In diesem Fall wird synthetisierte Information auch durch Synthetisieren von Positions- und Bewegungsinformation der Stereoaudiosignale SL, SR dieser synthetisierten Klangquelle gebildet. Das Verfahren zur Bildung dieser synthetisierten Information ist, alle in der synthetisierten Klangquelle in einer einzelnen Gruppe enthaltene Positions- und Bewegungsinformation zu mitteln und addieren und irgendeine Positions- und Bewegungsinformation auszuwählen und zu berechnen bzw. schätzen usw.. Beispielsweise wird, wie in 4 gezeigt, Positionsinformation der Klangquellenobjekte T1, T4 jeweils als Positionsinformation von Stereoklangquellen SL, SR kopiert, werden Klangquellensignale der Klangquellenobjekte T1, T4 den Stereoaudiosignalen SL, SR jeweils zugeordnet, wird ein Klangquellensignal des Klangquellenobjekts T2 mit einem Klanglautstärkeverhältnis von 3:1 mit den Stereoaudiosignalen SL, SR gemischt, wird ähnlich ein Klangquellensignal der Klangquelle T3 mit einem Klanglautstärkeverhältnis von beispielsweise 2:3 mit dem Stereoaudiosignal SL, SR gemischt, resultierend darin, dass das synthetisierte Audiosignal und die synthetisierte Information gebildet werden. Durch Benutzung der als die synthetisierten Klangquellen dienenden Stereoaudiosignale SL, SR werden die zwei synthetisierten Stereoklangquellen SL, SR höchstens (at most) richtig angeordnet.
  • Wenn Klänge von Bild begleitet sind, reicht es aus, Klangquellen der obigen zwei Punkte auf zwei richtigen Polygonen, die in einem solchen Bild benutzt werden, zu platzieren. Klangquellen müssen nicht immer im Bild platziert sein, sondern können unabhängig platziert und verarbeitet werden. Die CPU 1 führt eine Steuerung über den zwei so eingestellten Punkten aus. Der Audioverarbeitungsabschnitt 4 lokalisiert virtuelle Klangbilder dieser zwei synthetisierten Klangquellen SL, SR auf Basis der obigen synthetisierten Information und mischt resultierende synthetisierte Klangquellen wie in 5 gezeigt in Links- und Rechtskanalkomponenten. Dann werden die gemischten Ausgangssignale als Stereoaudiosignale an den Audioausgangsanschluss ausgegeben.
  • Wie beispielsweise in 6 gezeigt werden, wenn Klangquellen so gruppiert werden, dass sie Stereoklangquellen SL, SR als synthetisierte Klangquellen bereitstellen, wenn eine virtuelle Position bewegt oder gedreht wird, virtuelle Klangbilder der Stereoklangquellen SL, SR der zwei synthetisierten Klangquellen in Reaktion auf synthetisierte Information auf Basis der Bewegung oder Drehung so lokalisiert, dass Klangbilder beispielsweise bei den durch die Klangquellen SL, SR gezeigten Positionen in Bezug auf den Zuhörer M lokalisiert sind.
  • Wenn eine Positionsbeziehung zwischen jeweiligen Klangquellen, die diesen Satz aufweisen, transformiert wird, werden in Reaktion auf die synthetisierte Information virtuelle Klangbilder nur von Stereoklangquellen SL, SR der zwei synthetisierten Klangquellen auf Basis einer solchen Transformation lokalisiert, so dass in Bezug auf den Zuhörer M Klangbilder beispielsweise bei den durch die Klangquellen SL2, SR2 in 6 gezeigten Positionen lokalisiert sind.
  • Wie oben beschrieben werden, während entsprechend der verwandten Technik Positions- und Bewegungsinformation kontrolliert werden sollte und virtuelle Klangbilder für die Anzahl von Klangquellenobjekten lokalisiert werden sollten, bei dieser Ausführungsform wie in 5 gezeigt für die Stereoklangquellen SL, SR höchstens zwei jeweilige Positions- und Bewegungsinformationen zum Audioverarbeitungsabschnitt 4 übertragen und höchstens zwei virtuelle Klangbilder für den linken und rechten Kanal lokalisiert und addiert (gemischt). Als eine Konsequenz kann eine Menge von zu verarbeitenden Signalen reduziert werden.
  • Die Klangquellenobjektverarbeitung (Klangquellensignale werden gruppiert und ein Audiosignal wird in Stereoaudiosignale umgesetzt) wird nicht notwendigerweise ausgeführt, um alle Klangquellenobjekte, von denen Klänge zu erzeugen sind, in Stereoaudiosignalen unterzubringen, vielmehr sollte der Produzent die obige Verarbeitung ausführen, nachdem der Produzent die Menge von verarbeiteten Signalen, die erforderlich ist, wenn Positions- und Bewegungsinformation aller Klangquellenobjekte gesteuert wird, verglichen hat, und virtuelle Klangbilder sollten entsprechend der verwandten Technik mit Änderungen von Effekten, die erzielt werden, wenn Klangquellensignale gruppiert werden, lokalisiert werden.
  • Beispielsweise sei wie früher erwähnt angenommen, dass es zwei Dinosaurier gibt und dass alle Klangquellenobjekte als eine einzelne Gruppe in Stereoaudiosignale vorverarbeitet sind. Obgleich Klänge der zwei Dinosaurier wiedergegeben werden können, wenn sich die zwei Dinosaurier immer Seite an Seite bewegen, können Klänge der zwei Dinosaurier nicht wiedergegeben werden, wenn sie sich separat bewegen.
  • Wenn andererseits der Produzent andere Effekte erwartet, die durch eine Gruppierung von Klangquellenobjekten der zwei Dinosaurier erzielt werden, ist es überflüssig zu sagen, dass die obigen Klangquellenobjekte der zwei Dinosaurier in einer einzelnen Gruppe vorverarbeitet werden sollten.
  • Selbst wenn es nur einen Dinosaurier gibt, brauchen ihre Klangquellen nicht in einer einzelnen Klangquelle gruppiert zu sein. Wenn beispielsweise die obere Hälfte des Körpers und die untere Hälfte des Körpers des Dinosauriers in zwei Gruppen gesetzt sind, können unterschiedliche Effekte von virtueller Realität erzielt werden, wenn Klangquellen in einer einzelnen Klangquelle gruppiert sind. Diese Alternative kann ebenso angenommen werden.
  • Außerdem sind gruppierte Klangquellen nicht immer auf Stereoklangquellen beschränkt. Wenn gruppierte Klangquellen wie in den 7A bis 7C gezeigt beispielsweise als Punktklangquellen realisiert werden können, können gruppierte Klangquellen in eine monoaurale Klangquelle SO umgesetzt werden.
  • Bei dem in den 7A bis 7C gezeigten Beispiel sind mehrere Klangquellenobjekte T1, T2, T3, T4 im Voraus gruppiert und wie in 7A gezeigt als Stereoklangquellensignale SL, SR als synthetisierte Klangquellensignale gehalten. In Anbetracht eines Falles, bei dem Klangbilder an Positionen lokalisiert sind, die vom Zuhörer M distant sind, werden Klangquellen in wie in 7B gezeigt eine nähere Klangquelle SO umgesetzt (weiter gruppiert) und gehalten. Wenn ein Satz von Klangquellen, der mehrere Klangquellenobjekte aufweist, an der Position relativ distant vom Zuhörer lokalisiert ist, können die jeweiligen Klangquellen unter der Bedingung, dass sie annähernd bei einem einzelnen Punkt konzentriert sind, behandelt werden.
  • In diesem Fall werden die Klangquellenobjekte, die als die Stereoaudiosignale SL, SR gruppiert worden sind, so gruppiert, dass sie monoaurale Audiosignale werden, und die so gehaltene Klangquelle SO ist wie in 7C gezeigt lokalisiert, wodurch die Mengen von Positionsinformation und Bewegungsinformation von Klangquellen reduziert werden können und der Grad von virtueller Klangbildlokalisation erniedrigt werden kann.
  • Gemäß der Ausführungsform der vorliegenden Erfindung werden Klangquellenobjekte, die soweit unterteilt worden sind, in einer oder zwei Klangquellen gruppiert, vorverarbeitet, verarbeitet und für jede Gruppe als Audiosignale von richtigen Kanälen gespeichert. Dann kann, wenn virtuelle Klangbilder der vorverarbeiteten Audiosignale entsprechend einer Wiedergabe eines virtuellen Raums lokalisiert werden, die Menge von zu verarbeitenden Signalen reduziert werden.
  • Wenn die Audiosignale wie oben beschrieben gruppiert und ein oder zwei Klangsignale gespeichert werden, so ist die vorliegende Erfindung nicht darauf beschränkt, sondern es können drei Klangsignale oder mehr gespeichert werden, wenn beabsichtigt ist, im Vergleich mit dem Fall, bei dem virtuelle Realität durch ein Stereoaudiosignal entsprechend der verwandten Technik wiedergegeben wird, eine komplexere virtuelle Realität wiederzugeben. In diesem Fall kann, obgleich Positionsinformation und Bewegungsinformation von Klangquellen gesteuert werden sollte und virtuelle Klangbilder in der Anzahl gleich der Anzahl der gespeicherten Klangquellensignale lokalisiert werden sollten, die Menge von zu verarbeitenden Signalen durch richtige Gruppierung der Anzahl N der gruppierten Klangquellensignale derart reduziert werden, dass die Anzahl N kleiner als die Anzahl M (Anzahl von originalen Punktklangquellen) der originalen Klangquellenobjekte wird.
  • Wenn wie oben beschrieben die virtuelle Klangbildlokalisation ausgeführt wird, wenn die Zeit vergeht, so ist die vorliegende Erfindung nicht darauf beschränkt, sondern es können N Klangquellensignale von M (M ist eine Mehrzahl), beispielsweise vier Klangquellensignalen synthetisiert werden, wobei die Anzahl N kleiner als die Anzahl M ist, können beispielsweise N virtuelle Klangbilder von zwei synthetisierten Klangquellensignalen auf Basis von mehreren vorher bestimmten Lokalisationspositionen lokalisiert werden, können mehrere Sätze von synthetisierten Klangquellensignalen, die in virtuellen Klangbildern lokalisiert worden sind, im Speicher (Speichereinrichtung) 3 in Assoziation zu ihren Lokalisierungspositionen gespeichert werden, und können die synthetisierten Klangquellensignale aus dem Speicher 3 gelesen und in Reaktion auf die wiedergegebenen lokalisierten Positionen der synthetisierten Klangquellensignale wiedergegeben werden.
  • In diesem Fall können eine Aktion und Effekte ähnlich zu denen der obigen Ausführungsform erzielt werden. Da außerdem die synthetisierten Klangquellensignale, die im virtuellen Klangbild im Voraus lokalisiert worden sind, im Speicher 3 gespeichert sind und die synthetisierten Klangquellensignale in Reaktion auf die wiedergegebenen Lokalisationspositionen der synthetisierten Klangquellensignale aus dem Speicher 3 gelesen und wiedergegeben werden, kann auch eine Menge von bei der Wiedergabe zu verarbeitenden Signalen reduziert werden.
  • Wie oben beschrieben kann der Speicher 3 in Form eines Speichers bereitgestellt sein, der an der Videospielmaschine angebracht (in diese geladen) sein kann. Wenn der Speicher 3 beispielsweise in der Form einer CD-ROM oder einer Speicherkarte bereitgestellt ist, können die vorher erzeugten synthetisierten Klangquellensignale auf dem Speicher 3 in Assoziation zu ihrer Lokalisierungsinformation aufgezeichnet und verteilt sein, und die synthetisierten Klangquellensignale können von der Videospielmaschine aus dem Speicher 3 gelesen werden.
  • Wenn wie oben beschrieben die Stereoaudiosignale durch Lokalisieren von virtuellen Klangbildern der synthetisierten Klangquellensignale erhalten werden, so ist die vorliegende Erfindung nicht darauf beschränkt, sondern es können Stereoklangsignale als Mehrkanal-Umgebungssignale wie beispielsweise 5.1-Kanalsystemsignale ausgegeben werden. Insbesondere können Mehrkanallautsprecher wie das Mehrkanal-Umgebungssystem wie beispielsweise das 5.1-Kanalsystem um den Zuhörer herum angeordnet sein, und können Klangquellensignale diesen Kanälen richtig zugeordnet und dann ausgegeben werden. Auch in diesem Fall können N (N < M) Klangquellensignale durch Gruppieren von M Klangquellensignalen synthetisiert werden und können gewünschte Klangbilder auf Basis von mit den synthetisierten Klangquellensignalen und dgl. korrespondierender Positionsinformation lokalisiert werden.
  • Gemäß der vorliegenden Erfindung kann das Gefühl virtueller Realität durch Klänge erzielt werden, während die Menge von zu verarbeitenden Signalen reduziert werden kann.
  • Nach Beschreibung bevorzugter Ausführungsformen der Erfindung anhand der beigefügten Zeichnungen ist es so zu verstehen, dass die Erfindung nicht auf diese präzisen Ausführungsformen beschränkt ist, sondern dass von einem Fachmann zahlreiche Änderungen und Modifikationen ohne Verlassen des in den beigefügten Ansprüchen definierten Schutzbereichs der Erfindung bewirkt werden können.

Claims (12)

  1. Verfahren zur Verarbeitung eines Audiosignals, gekennzeichnet durch die Schritte: Synthetisieren mehrerer Klangquellensignale (T1, T2, T3, T4), deren Anzahl M ist, zum Erzeugen von Klangquellensignalen (SL, SR), deren Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer von Positionsinformation, Bewegungsinformation und Lokalisationsinformation der M Klangquellen, Synthetisieren von Information von wenigstens einer von Positionsinformation, Bewegungsinformation und Lokalisationsinformation, die mit den synthetisierten Klangquellensignalen korrespondieren, und Lokalisieren der N synthetisierten Klangquellensignale (SL, SR) in einem Klangbild auf Basis der synthetisierten Information.
  2. Verfahren zur Verarbeitung eines Audiosignals nach Anspruch 1, wobei die Klangbildlokalisation eine virtuelle Klangbildlokalisation zum Erhalten von zweikanalig wiedergegebenen Signalen (SL, SR) ist, die einem Paar Akustikumsetzer zum Lokalisieren eines Klangbilds bei einer beliebigen Position um einen Hörer herum zugeführt werden.
  3. Verfahren zur Verarbeitung eines Audiosignals nach Anspruch 1 oder 2, wobei die mit wenigstens einem Klangquellensignal der M Klangquellensignale (T1, T2, T3, T4) korrespondierende Information und/oder die mit wenigstens einem synthetisierten Klangquellensignal der N synthetisierten Klangquellensignale (SL, SR) korrespondierende synthetisierte Information durch eine Änderungsinstruktion geändert werden/wird.
  4. Verfahren zur Verarbeitung eines Audiosignals nach Anspruch 3, wobei eine Änderungsinstruktion durch eine Operation eines Benutzers zugeführt wird.
  5. Verfahren zur Verarbeitung eines Audiosignals nach Anspruch 3, wobei eine Änderungsinstruktion durch Detektieren einer Bewegung des Kopfs eines Hörers erhalten wird.
  6. Verfahren zur Verarbeitung eines Audiosignals nach einem der Ansprüche 1 bis 5, außerdem mit dem Schritt zum Zuführen zufälliger Fluktuationen zu der mit wenigstens einem Klangsignal der M Klangquellensignale (T1, T2, T3, T4) korrespondierenden Information und/oder zu der mit wenigstens einem synthetisierten Signal der N synthetisierten Klangquellensignale (SL, SR) korrespondierenden synthetisierten Information.
  7. Verfahren zur Verarbeitung eines Audiosignals nach einem der Ansprüche 1 bis 6, wobei die Anzahl N der synthetisierten Klangquellensignale (SL, SR) 2 oder größer ist, wenigstens eine der mit den synthetisierten Klangquellensignalen korrespondierenden synthetisierten Informationen Lokalisationsinformation ist und zumindest eine andere synthetisierte Information Lokalisationsinformation relativ zur einen Lokalisationsinformation ist.
  8. Verfahren zur Verarbeitung eines Audiosignals nach einem der Ansprüche 1 bis 7, außerdem mit den Schritten einer Änderung eines Videosignals (S3) in Reaktion auf Änderungen von wiedergebenden Lokalisationspositionen der M Klangquellensignale (T1, T2, T3, T4) oder der N synthetisierten Klangquellensignale (SL, SR) und einer Ausgabe des Videosignals (S3).
  9. Vorrichtung zur Verarbeitung eines Audiosignals, gekennzeichnet durch eine Einrichtung zum Synthetisieren mehrerer Klangquellensignale (T1, T2, T3, T4), deren Anzahl M ist, zum Erzeugen von N Klangquellensignalen (SL, SR), deren Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer von Positionsinformation, Bewegungsinformation und Lokalisationsinformation der M Klangquellen, eine Einrichtung (1) zur Erzeugung synthetisierter Information durch Synthetisieren von mit den synthetisierten Klangquellensignalen korrespondierender Information aus der Information der M Klangquellen und eine Signalverarbeitungseinrichtung (4) zum Lokalisieren der N synthetisierten Klangquellensignale (SL, SR) in einem Klangbild auf Basis der synthetisierten Information.
  10. Vorrichtung zur Verarbeitung eines Audiosignals nach Anspruch 9, wobei die Klangbildlokalisation in der Signalverarbeitungseinrichtung (4) eine virtuelle Klangbildlokalisation zum Erhalten von zweikanalig wiedergegebenen Signalen (SL, SR), die einem Paar Akustikumsetzer zum Lokalisieren eines Klangbilds bei einer beliebigen Position um einen Hörer herum zugeführt werden, ist.
  11. Aufzeichnungsmedium (3), auf dem synthetisierte Klangquellensignale aufgezeichnet sind, wobei mehrere Klangquellensignale (T1, T2, T3, T4), deren Anzahl M ist, in N Signale (SL, SR), deren Anzahl N kleiner als die Anzahl M der Klangquellensignale ist, auf Basis wenigstens einer Information von Positionsinformation, Bewegungs- und Lokalisationsinformation der Klangquelle synthetisiert sind und synthetisierte Information als wenigstens eine Information von Positionsinformation, Bewegungsinformation und Lokalisationsinformation entsprechend den synthetisierten Klangquellensignalen in Assoziation zueinander synthetisiert ist.
  12. Aufzeichnungsmedium (3) nach Anspruch 11, wobei die synthetisierten Klangquellensignale (SL, SR) zweikanalig wiedergegebene Signale sind, die einem Paar Akustikumsetzer zugeführt werden und dadurch Klangbilder an wiedergegebenen Lokalisationspositionen um einen Hörer herum lokalisiert werden.
DE60125664T 2000-08-03 2001-08-02 Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen Expired - Lifetime DE60125664T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000235926 2000-08-03
JP2000235926A JP4304845B2 (ja) 2000-08-03 2000-08-03 音声信号処理方法及び音声信号処理装置

Publications (2)

Publication Number Publication Date
DE60125664D1 DE60125664D1 (de) 2007-02-15
DE60125664T2 true DE60125664T2 (de) 2007-10-18

Family

ID=18728055

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60125664T Expired - Lifetime DE60125664T2 (de) 2000-08-03 2001-08-02 Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen

Country Status (4)

Country Link
US (1) US7203327B2 (de)
EP (1) EP1182643B1 (de)
JP (1) JP4304845B2 (de)
DE (1) DE60125664T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009115299A1 (de) * 2008-03-20 2009-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Vorrichtung und verfahren zur akustischen anzeige

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144912A (ja) * 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd 音声情報変換方法、音声情報変換プログラム、および音声情報変換装置
JP2004151229A (ja) * 2002-10-29 2004-05-27 Matsushita Electric Ind Co Ltd 音声情報変換方法、映像・音声フォーマット、エンコーダ、音声情報変換プログラム、および音声情報変換装置
US20040091120A1 (en) * 2002-11-12 2004-05-13 Kantor Kenneth L. Method and apparatus for improving corrective audio equalization
JP4694763B2 (ja) * 2002-12-20 2011-06-08 パイオニア株式会社 ヘッドホン装置
JP2004213320A (ja) * 2002-12-27 2004-07-29 Konami Co Ltd 広告音声課金システム
US6925186B2 (en) * 2003-03-24 2005-08-02 Todd Hamilton Bacon Ambient sound audio system
JP3827693B2 (ja) * 2004-09-22 2006-09-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置制御方法、ならびに、プログラム
WO2006070044A1 (en) * 2004-12-29 2006-07-06 Nokia Corporation A method and a device for localizing a sound source and performing a related action
CN101263739B (zh) 2005-09-13 2012-06-20 Srs实验室有限公司 用于音频处理的系统和方法
WO2007080212A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Controlling the decoding of binaural audio signals
WO2007123788A2 (en) 2006-04-03 2007-11-01 Srs Labs, Inc. Audio signal processing
ATE527833T1 (de) 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
EP2084901B1 (de) * 2006-10-12 2015-12-09 LG Electronics Inc. Vorrichtung zum verarbeiten eines mischsignals und verfahren dafür
KR100868475B1 (ko) * 2007-02-16 2008-11-12 한국전자통신연구원 객체기반 오디오 서비스를 위한 다중객체 오디오 콘텐츠파일의 생성, 편집 및 재생 방법과, 오디오 프리셋 생성방법
US20080273708A1 (en) * 2007-05-03 2008-11-06 Telefonaktiebolaget L M Ericsson (Publ) Early Reflection Method for Enhanced Externalization
KR100947027B1 (ko) * 2007-12-28 2010-03-11 한국과학기술원 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체
JP5499633B2 (ja) * 2009-10-28 2014-05-21 ソニー株式会社 再生装置、ヘッドホン及び再生方法
US9332372B2 (en) 2010-06-07 2016-05-03 International Business Machines Corporation Virtual spatial sound scape
PL2647222T3 (pl) * 2010-12-03 2015-04-30 Fraunhofer Ges Forschung Pozyskiwanie dźwięku za pomocą ekstrakcji informacji geometrycznej z estymacji kierunku nadejścia sygnału
JP5437317B2 (ja) * 2011-06-10 2014-03-12 株式会社スクウェア・エニックス ゲーム音場生成装置
US20160150345A1 (en) * 2014-11-24 2016-05-26 Electronics And Telecommunications Research Institute Method and apparatus for controlling sound using multipole sound object
KR102358514B1 (ko) * 2014-11-24 2022-02-04 한국전자통신연구원 다극 음향 객체를 이용한 음향 제어 장치 및 그 방법
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
JP6783541B2 (ja) 2016-03-30 2020-11-11 株式会社バンダイナムコエンターテインメント プログラム及び仮想現実体験提供装置
JP6223533B1 (ja) * 2016-11-30 2017-11-01 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
KR101916380B1 (ko) * 2017-04-05 2019-01-30 주식회사 에스큐그리고 영상 정보에 기반하여 가상 스피커를 재생하기 위한 음원 재생 장치
JP6863936B2 (ja) * 2018-08-01 2021-04-21 株式会社カプコン 仮想空間における音声生成プログラム、四分木の生成方法、および音声生成装置
JPWO2020045126A1 (ja) 2018-08-30 2021-08-10 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
CN112508997B (zh) * 2020-11-06 2022-05-24 霸州嘉明扬科技有限公司 航拍图像的视觉对位算法筛选及参数优化系统和方法
WO2023199818A1 (ja) * 2022-04-14 2023-10-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音響信号処理装置、音響信号処理方法、及び、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731848A (en) 1984-10-22 1988-03-15 Northwestern University Spatial reverberator
JP2762764B2 (ja) * 1991-02-14 1998-06-04 日産自動車株式会社 立体音場警報装置
EP0563929B1 (de) 1992-04-03 1998-12-30 Yamaha Corporation Verfahren zur Steuerung von Tonquellenposition
JP2882449B2 (ja) * 1992-12-18 1999-04-12 日本ビクター株式会社 テレビゲーム用の音像定位制御装置
JP3578783B2 (ja) 1993-09-24 2004-10-20 ヤマハ株式会社 電子楽器の音像定位装置
US5438623A (en) * 1993-10-04 1995-08-01 The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration Multi-channel spatialization system for audio signals
JP3492404B2 (ja) * 1993-12-24 2004-02-03 ローランド株式会社 音響効果装置
WO1995022235A1 (fr) * 1994-02-14 1995-08-17 Sony Corporation Systeme de reproduction visuelle et sonore
JPH08140199A (ja) * 1994-11-08 1996-05-31 Roland Corp 音像定位設定装置
FR2744871B1 (fr) * 1996-02-13 1998-03-06 Sextant Avionique Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre
JPH1042398A (ja) * 1996-07-25 1998-02-13 Sanyo Electric Co Ltd サラウンド再生方法及び装置
US6021206A (en) * 1996-10-02 2000-02-01 Lake Dsp Pty Ltd Methods and apparatus for processing spatialised audio
SG73470A1 (en) * 1997-09-23 2000-06-20 Inst Of Systems Science Nat Un Interactive sound effects system and method of producing model-based sound effects
JP3233275B2 (ja) * 1998-01-23 2001-11-26 オンキヨー株式会社 音像定位処理方法及びその装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009115299A1 (de) * 2008-03-20 2009-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Vorrichtung und verfahren zur akustischen anzeige

Also Published As

Publication number Publication date
US7203327B2 (en) 2007-04-10
JP4304845B2 (ja) 2009-07-29
EP1182643B1 (de) 2007-01-03
JP2002051399A (ja) 2002-02-15
US20020034307A1 (en) 2002-03-21
EP1182643A1 (de) 2002-02-27
DE60125664D1 (de) 2007-02-15

Similar Documents

Publication Publication Date Title
DE60125664T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen
DE69636666T2 (de) Mit einer Bildanzeige synchronisierter Tonerzeuger
US10490200B2 (en) Sound system
EP1652405B1 (de) Vorrichtung und verfahren zum erzeugen, speichern oder bearbeiten einer audiodarstellung einer audioszene
DE102016101316B4 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
DE69434887T2 (de) Audiowiedergabeeinrichtung
DE19950319A1 (de) Verfahren zum Synthetisieren eines dreidimensionalen Schallfeldes
DE102006017791A1 (de) Wiedergabegerät und Wiedergabeverfahren
DE102010030534A1 (de) Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
DE102016103331A1 (de) Vorrichtung und Verfahren zur Wiedergabe von Audiosignalen in einem Kraftfahrzeug
DE69636184T2 (de) Stereophonische Vorrichtung zur Schallfelderweiterung
JPH03159500A (ja) 立体音響再生方法
DE112021003592T5 (de) Informationsverarbeitungsvorrichtung, Ausgabesteuerverfahren und Programm
DE60125983T2 (de) Im fahrzeug angebrachter stereo-schallfeldwandler
DE102021103210A1 (de) Surround-Sound-Wiedergabe basierend auf Raumakustik
EP1240805A2 (de) Verfahren und anlage zur aufnahme und wiedergabe von klängen
DE69632889T2 (de) Wiedergabegerät mit Kopfhörer
DE102019128856A1 (de) Verfahren und system für immersives virtual reality (vr) streaming mit reduzierter audiolatenz
DE3512155C2 (de)
DE19900961A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
DE102011108788B4 (de) Verfahren zur Verarbeitung eines Audiosignals, Audiowiedergabesystem und Verarbeitungseinheit zur Bearbeitung von Audiosignalen
DE10125229A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
DE2023377C3 (de) Verfahren zur räumlichen Wiedergabe von Schallsignalen und Anordnung zu seiner Durchfuhrung
US10499178B2 (en) Systems and methods for achieving multi-dimensional audio fidelity
DE2503778C3 (de) Tonübertragungssystem mit mindestens vier Kanälen und mit einer Tonaufnahmeeinrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition