DE69736706T2 - Verfahren und gerät zum spleissen komprimierter datenflüsse - Google Patents

Verfahren und gerät zum spleissen komprimierter datenflüsse Download PDF

Info

Publication number
DE69736706T2
DE69736706T2 DE69736706T DE69736706T DE69736706T2 DE 69736706 T2 DE69736706 T2 DE 69736706T2 DE 69736706 T DE69736706 T DE 69736706T DE 69736706 T DE69736706 T DE 69736706T DE 69736706 T2 DE69736706 T2 DE 69736706T2
Authority
DE
Germany
Prior art keywords
stream
bitstream
splitting
information
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69736706T
Other languages
English (en)
Other versions
DE69736706D1 (de
Inventor
N. Robert Hopewell HURST
W. Paul New Egypt LYONS
Chris Glen Ridge WARD
M. Charles Princeton WINE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sarnoff Corp
Original Assignee
Sarnoff Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sarnoff Corp filed Critical Sarnoff Corp
Application granted granted Critical
Publication of DE69736706D1 publication Critical patent/DE69736706D1/de
Publication of DE69736706T2 publication Critical patent/DE69736706T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23608Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]

Description

  • Die Erfindung bezieht sich auf Kommunikationssysteme im allgemeinen, und insbesondere bezieht sich die Erfindung auf ein Verfahren und eine Vorrichtung zur Synchronisation einer Mehrzahl von komprimierten Datenströmen, um die Auswahl der Ströme, das Schneiden bzw. Aneinanderfügen von Strömen und andere Operationen zu erleichtern.
  • HINTERGRUND DER OFFENBARUNG
  • In einigen Kommunikationssystemen werden die zu übertragenden Daten komprimiert, so daß die verfügbare Bandbreite effizienter genutzt wird. Zum Beispiel hat die Moving Picture Expert Group (MPEG) verschiedene Standards veröffentlicht, die sich auf Systeme zur Übergabe digitaler Daten beziehen. Der erste, als MPEG-1 bekannte bezieht sich auf die ISO/IEC-Standards 11172, die durch Bezugnahme hier aufgenommen werden. Der zweite, als MPEG-2 bekannte bezieht sich auf die ISO/IEC-Standards 13818, die durch Bezugnahme hier aufgenommen werden. Ein komprimiertes digitales Video-System ist in dem Standard-Dokument A/53 über digitales Fernsehen des Advanced Television Systems Committee (ATSC) beschrieben, das hier per Referenz enthalten ist.
  • Ein Programm-Transportstrom wird durch Multiplexen individueller elementarer Ströme gebildet, die sich eine gemeinsame Zeitbasis teilen (d. h. dieselbe 27-MHz-Taktquelle). Die elementaren Ströme weisen kodierte Video-, Audio- und andere Bit-Ströme auf. Die Elementarströme können, müssen jedoch nicht, vor dem Transport-Multiplexen in einem paketierten Elementarstrom-(PES)-Format vorliegen. Ein PES besteht aus einem Paket-Header gefolgt von einer Paket-Nutzlast. Da die Elementarströme gemultiplext werden, sind sie als Transportpakete ausgebildet, und ein Steuer-Bitstrom, der das Programm beschreibt (auch als Transportpakete ausgebildet), wird hinzugefügt.
  • Es gibt viele Situationen, in denen es notwendig ist, von einem kodierten oder komprimierten Bitstrom zu einem anderen umzuschalten. Beim Umschalten von einem komprimierten MPEG-Video-Bitstrom zu einem anderen müssen geeignete Maßnahmen bei der Übertragungsreihenfolge des Bild-Bitstromes ergriffen werden, um eine richtige anschließende Wiedergabe der dekodierten Bilder ohne zeitliche Lücken sicherzustellen. Solche zeitliche Lücken führen zu unerwünschten Video- oder Audio-Artefakten (z. B. leerem Bildschirm aufgrund von Pufferüberlauf/-leerlauf, schlechte Lippensynchronisation und ähnlichem).
  • Die europäische Patentanmeldung EP-A-590 974 beschreibt eine Vorrichtung zum Editieren von kodierten Daten einschließlich einer ersten Datenspeichereinheit zum Speichern eines ersten kodierten Video-Signals, einer zweiten Speichereinheit zum Speichern eines zweiten kodierten Video-Signals, einer Auslese-Steuerung zum Auslesen des ersten und zweiten kodierten Video-Signals aus dem ersten bzw. zweiten Speichermechanismus durch Einstellen der Zeitbasis des ersten und zweiten kodierten Video-Signals, so daß sie miteinander übereinstimmen, und eines Header-Hinzufügers zum Hinzufügen eines Editier-Headers mindestens zu dem ersten oder dem zweiten kodierten Video-Signal. Ein Umschalter, der von einem Umschalt-Steuersignal gesteuert wird, schaltet einen Ausgang von der Verbindung mit der ersten Speichereinheit zur Verbindung mit der zweiten Speichereinheit (und umgekehrt) um, um in den Speichereinheiten gespeicherte Bitströme aneinanderzufügen bzw. zusammen zu schneiden.
  • Die japanische Patentanmeldung 06-003460 beschreibt einen Umschaltungs-Schaltkreis für Film-Kompressionsdaten zum Umschalten von einem ersten komprimierten Bild genau, bevor ein Zwischen-Frame oder ein vorwärtsgerichteter Vorhersage-Kodier-Frame auftritt, zu einem Zwischen-Frame-kodierten Bild eines zweiten komprimierten Bildes.
  • Bisher gab es kein Verfahren und keine Vorrichtung zum nahtlosen gegenseitigen Aneinanderfügen von Transportströmen.
  • Daher besteht beim Stand der Technik ein Bedarf für ein Verfahren und eine Vorrichtung zum Aneinanderfügen von komprimierten digitalen Informations-Bitströmen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Aspekt der Erfindung stellt ein Verfahren zum Aneinanderfügen von Bitströmen bereit, wobei die Bitströme eine Mehrzahl von Informationssegmenten aufweisen, die eine Sequenz von Informations-Frames repräsentieren, wobei das Verfahren folgende Schritte aufweist: Überwachen eines ersten Bitstromes zum Erkennen eines Ausstiegshinweises, wobei der erste Bitstrom an einen Ausgang angeschlossen ist und mindestens einen Ausstiegshinweis enthält, wobei der Ausstiegshinweis ein Hinweis auf ein geeignetes letztes Informationssegment eines Schnittsegments ist; Bereitstellen eines zweiten Bitstromes, wobei der zweite Bitstrom mindestens einen Einstiegshinweis beinhaltet, wobei der Einstiegshinweis ein Hinweis auf ein passendes erstes Informationssegment eines Schnittsegments ist; und Reagieren auf ein Schnittentscheidungssignal durch: Trennen des ersten Bitstromes von dem Ausgang bei einem erkannten Ausstiegshinweis; Anschließen des zweiten Bitstromes an den Ausgang bei einem erkannten Einstiegshinweis; und Übertragen eines Schnittbestätigungssignals bei Vollendung des Schneidens.
  • Ein komplementärer Aspekt der Erfindung bietet eine Vorrichtung zum Aneinanderfügen von Bitströmen, wobei die Bitströme eine Mehrzahl von Informationssegmenten aufweisen, die Repräsentanten für eine Sequenz von Informations-Frames sind, wobei die Vorrichtung folgendes aufweist: eine Überwachungseinrichtung zum Überwachen eines ersten Bitstromes, um einen Ausstiegshinweis zu erkennen, wobei der erste Bitstrom an einen Ausgang angeschlossen ist und mindestens einen Ausstiegshinweis beinhaltet, wobei der Ausstiegshinweis ein Hinweis auf ein geeignetes letztes Informationssegment eines Schneidesegments ist; eine Bitstromquelle zum Bereitstellen eines zweiten Bitstromes einschließlich mindestens eines Einstiegshinweises, wobei der Einstiegshinweis ein Hinweis auf ein passendes erstes Informationssegment eines Schneidesegments ist; einen Aneinanderfüger bzw. Schneider zum Trennen des ersten Bitstromes von der Ausgabe bei einem erkannten Ausstiegshinweis als Reaktion auf ein Schnittentscheidungssignal und Verbinden des zweiten Bitstromes mit dem Ausgang bei einem erkannten Einstiegshinweis, wobei der Schneider bei Vollendung des Aneinanderfügens ein Schnittbestätigungssignal überträgt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Lehre der vorliegenden Erfindung versteht man einfach beim Betrachten der folgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen, wobei
  • 1 ein Blockdiagramm eines Schneidesystems für komprimierte Bitströme zeigt, das die Erfindung beinhaltet;
  • 2 ein Flußdiagramm eines nahtlosen Schneidevorgangs gemäß der Erfindung zeigt;
  • 3 ein detailliertes Blockdiagramm der Schneidevorrichtung aus 1 zeigt; und
  • 4 ein Blockdiagramm eines digitalen Studios darstellt, das eine Mehrzahl von miteinander zusammenwirkenden Inseln aufweist und die Erfindung beinhaltet.
  • Um das Verständnis zu erleichtern, wurden, wo möglich, identische Bezugszeichen verwendet, um identische Elemente zu bezeichnen, die in den Figuren gemeinsam vorkommen.
  • DETAILLIERTE BESCHREIBUNG
  • Die allgemein im Kontext eines digitalen Fernsehstudios beschriebene Erfindung beinhaltet eine Mehrzahl von operativen Umgebungen, die verschiedene Bitströme empfangen und verarbeiten und die zugehörigen Umschaltmöglichkeiten gemäß der Erfindung haben. Die Umschaltmöglichkeiten ermöglichen nahtloses oder nicht-nahtloses Schneiden einer Mehrzahl von z. B. Videotransportströmen, um einen Ausgabestrom zu erzeugen. Eine Kombination von nahtlosen und nicht-nahtlosen Bitströmen kann erzeugt werden, um einen kontrolliert verschlechterten Ausgabestrom bereitzustellen.
  • Die Erfindung ist eine Schneidevorrichtung bzw. eine Vorrichtung zum Aneinanderfügen mit zwei Eingabeströmen, der Operationen zum Umschalten, Aneinanderfügen oder Einfügen auf einem Paar von MPEG-kompatiblen Eingabetransportströmen durchführt, um einen Ausgabestrom zu erzeugen. Es ist zu beachten, daß die Prinzipien der Erfindung für Bitstrom-Umschalter oder -Schneidevorrichtungen mit mehr als zwei Eingängen und mit Eingabeströmen, die keine MPEG-kompatiblen Eingabeströme sind, anwendbar sind. Die Erfindung kann mittels eines Allzweck-Computersystems implementiert werden, das zum Durch führen der unten diskutierten Funktionen programmiert ist. Wenn er programmiert ist, wird der Allzweckcomputer zu einer speziellen Vorrichtung zum Aneinanderfügen digitaler Datenbitströme.
  • Die Erfindung kann sowohl für nahtloses als auch für nicht-nahtloses Aneinanderfügen von Bitströmen verwendet werden. Nahtloses Aneinanderfügen bedeutet nahtloses Aneinanderfügen zweier Ströme auf Stoß, um einen resultierenden Ausgabestrom zu bilden, der einen kontinuierlichen, ungestörten Informationsfluß erzeugt (z. B. Video oder Audio ohne Störungen und Artefakte). Nicht-nahtloses Aneinanderfügen erzeugt ein resultierendes Ausgabesignal, das einen gestörten Informationsfluß haben kann (z. B. sichtbare oder hörbare Verzerrungen, Störungen und Artefakte). Für Zwecke dieser Diskussion wird angenommen, daß jeder Bitstrom ein Transportstrom ist, der Video-, Audio- und (möglicherweise) andere Informationen aufweist. Es ist zu beachten, daß die Erfindung auf paketierte Elementarströme und andere Elementarströme anwendbar ist. Darüberhinaus wird angenommen, daß die Schneidepunkte bezogen auf die Videoinformation festgelegt werden. Das kann zu gewissen Störungen der aneinander gefügten Audio- und anderen Informationen führen, da die Audio- und andere Informationen möglicherweise auf einer paketbezogenen Basis zeitlich nicht ausgerichtet sind.
  • Aneinanderfügen bzw. Schneiden besteht darin, in einem Ausgabestrom einen Übergang von einem „Von-Strom" zu einem „Zu-Strom" herzustellen. Der Von-Strom wird idealerweise an einem „Ausstiegspunkt" verlassen und in den Zu-Strom wird Idealerweise an einem „Einstiegspunkt" eingestiegen. Ein Ausstiegspunkt ist eine Stelle in einen gegenwärtig ausgewählten Strom (d. h. einem „Von-Strom"), an der der Strom beendet werden und ein anderer Strom (d. h. ein „Zu-Strom") angefügt werden kann. Ein „Einstiegspunkt" ist eine Stelle in dem anderen Strom, an der begonnen werden kann, Information an einen anderen Strom anzufügen.
  • Ein „Schneidesegment" ist definiert als der Teil eines Informationsstromes zwischen einem Einstiegspunkt und einem Ausstiegspunkt. Ein Schneidesegment kann mehrere Ausstiegs- und Einstiegspunkte beinhalten. Daher ist es wünschenswert, so viele Einstiegs- und Ausstiegspunkte wie möglich in einen Strom aufzunehmen, um eine maximale Flexibilität beim Schneiden zu ermöglichen. Innerhalb der Definition eines Einstiegs- und eines Ausstiegspunktes gibt es einen Verzögerungsparameter, z. B. einen Video-Puffer-Verifizierer (Video Buffering Verifier, VBV) für MPEG-kompatible Ströme. Ein Schneidesegment mit einem bekannten Einstiegspunkt-Verzögerungsparameter und mit Ausstiegspunkten mit demselben bekannten Verzögerungsparameter kann in sich kürzere, gültige Schneidesegmente mit verschiedenen Werten des Verzögerungsparameters enthalten.
  • Im Kontext einer Studioumgebung einer beispielhaften Ausführungsform der Erfindung sind Informationsströme in Transportpakete unterteilt. Die Pakete, die Video beinhalten, können mit Paketen, die Audio, Hilfsdaten oder andere Informationen beinhalten, gemischt sein. In dieser Umgebung ist ein Videostrom-Ausstiegspunkt das Ende des letzten Video-Transportpakets des in Rede stehenden Stromes. Der Videostrom vor und während des letzten Pakets muß der Schnittdefinition eines Ausstiegspunktes genügen. In ähnlicher Weise ist ein Videostrom-Einstiegspunkt der Beginn des ersten Video-Transpostpakets eines Schneidesegmentes (SS). Man beachte, daß andere Informationen in dem Transportstrom, speziell Audio, wahrscheinlich nicht genau passend an Einstiegs- und Ausstiegspunkten segmentiert ist. Ein Verfahren zur Korrektur von Fehlern, die durch die fehlende Ausrichtung von Audio-Transportpaketen herbeigeführt wird, ist in der US-Patentanmeldung mit der Seriennummer 08/864.321, registriert am 28. Mai 1997 (Anwaltsakte 12070), erteilt als US-Patent-Nr. 618383 am 1. Januar 2002, beschrieben.
  • Ein kritischer Aspekt beim Aneinanderfügen von Informationsströmen ist die genaue Verarbeitung der verschiedenen Verzögerungsparameter. Ein betrachteter Parameter ist der den verschiedenen Informationsströmen zugeordnete Verzögerungsparameter. Im Falle eines MPEG-kompatiblen Stromes ist der Verzögerungsparameter der Video-Puffer-Verifizier-(VBV)-Verzögerungsparameter. Ein anderer Parameter ist die Verzögerung oder Übergangszeit, die mit einer Aneinanderfügoperation einhergeht. Zum Beispiel geschieht ein typisches Zusammenfügen zu einem bestimmten Zeitpunkt, d. h. einem „Schnittzeitpunkt". Vor dem Schnittzeitpunkt weist der Ausgabeinformationsstrom einen Von-Strom auf. Zum Schnittzeitpunkt passiert ein Umschalten zum Zu-Strom. Für eine Zeitspanne kann der Ausgabestrom Information sowohl aus dem Von-Strom als auch aus dem Zu-Strom beinhalten. Möglicherweise beinhaltet der Ausgabestrom nur Information von dem Zu-Strom.
  • Es wird angenommen, daß sowohl der Von-Strom und als auch der Zu-Strom gültig sind. Es gibt gewisse Randbedingungen für die Ströme, die erfüllt sein müssen, wenn das Aneinanderfügen nahtlos sein soll. Nahtloses Aneinanderfügen setzt voraus, daß der resultierende zusammengefügte Bitstrom keine Diskontinuität in der Zukunft verursacht.
  • Ein spezielles Beispiel eines gültigen Schneidesegments, das nahtlos aneinandergefügt werden kann, ist ein MPEG-kompatibles Schneidesegment. Ein MPEG-Schneidesegment (SS) ist auf Transportebene definiert und umfaßt Funktionalität auf der Video- (und Audio-) Ebene. Ein informationstragendes Schneidesegment kann so kurz wie ein einzelner Frame sein. Ein Schneidesegment kann auch ein Segment von Null-Frame-Länge sein (wenngleich ein solches SS nicht MPEG-kompatibel sein könnte). Ein solches Null-Längen-Segment ist einfach ein Einstiegspunkt gefolgt von einem Ausstiegspunkt (d. h. ein „Einstiegs-Ausstiegs-Punkt"). Ein SS kann auch sehr lang sein und viele GOPs beinhalten. Im allgemeinen ist die Länge eines SS nicht eingeschränkt und das SS sollte mehrere Ausstiegspunkte beinhalten, um einen nahtlosen Ausstieg aus dem Segment zu ermöglichen. Eine mögliche Ausnahme ist ein SS, das einen Fernseh-Werbespot beinhaltet. Das Fernsehwerbungs-SS kann absichtlich ohne definierte Ausstiegspunkte produziert werden, so daß das Verlassen des Werbungssegments nicht nahtlos ist.
  • Ein MPEG-SS sollte ein MPEG-kompatibler Strom mit konsistenten Transportstrom- und Elementarstrom-Zeitstempeln (z. B. PCR, PTS und DTS) und einem zugehörigen Verzögerungsparameter (z. B. einer VBV-Verzögerung) sein, wodurch es einem Dekoder ermöglicht wird, die Information in dem SS richtig zu dekodieren und wiederzugeben. Der erste Informationsframe (z. B. Video-Zugangs-Einheit) an einem Einstiegspunkt eines MPEG-Video-SS muß ein 1-Frame sein. Der zweite Frame soll sich nicht auf Informationsframes vor dem Einstiegspunkt beziehen (d. h. wenn der zweite Frame ein B-Frame ist, kann der B-Frame keine Frames vor dem Einstiegspunkt referenzieren). Der letzte Frame vor einem Ausstiegspunkt sollte kein B-Frame sein (in Anzeige-Reihenfolge). Ein Audio-SS hat einen Einstiegspunkt, der aus dem Anfang eines Audio-Frame besteht, und einen Ausstiegspunkt, der aus dem letzten Byte eines Audio-Frame besteht. Dem Strom können andere Randbedingungen auferlegt sein, um z. B. Probleme des Kodierungsfehleranstiegs, der Abstimmungszeit und minimalen Bildqualität zu behandeln.
  • Der Einstiegspunkt eines Video-SS muß mit einem Sequenz-Header beginnen, wenngleich das SS mehrere Sequenz-Header beinhalten kann. Ein SS kann zusätzliche Header-Informationen beinhalten, um anzuzeigen, daß der Sequenz-Header auch ein Einstiegspunkt ist. Es ist notwendig den Sequenz-Header eines SS-Einstiegspunktes von einem Sequenz-Header zu unterscheiden, der für Abstimmungszeit und Bildqualität enthalten bzw. vorgesehen ist, da nahtloses Aneinanderfügen nur an Einstiegspunkten garantiert werden kann. Da die Einstiegspunkte auf einen Sequenz-Ende-Code (SEC) Code folgen sollten, ist es wünschenswert, daß der SEC-Code genau vor dem Einstiegspunkt einbezogen wird, wodurch die Notwendigkeit umgangen wird, den SEC an das Ende eines Ausstiegspunktes einzufügen. Der Ausstiegspunkt kann den SEC beinhalten. Falls ein MPEG-artiger Schnitt-Countdown verwendet wird, muß er am Ausstiegspunkt enden (d.h. gleich Null sein).
  • 1 zeigt ein Blockdiagramm eines Systems 100 zum Aneinanderfügen von komprimierten Bitstömen, das die Erfindung umfaßt. Das System 100 beinhaltet eine erste Stromquelle 110 eines komprimierten Bitstroms, eine zweite Stromquelle 120 eines komprimierten Bitstroms, eine Schneidevorrichtung 300, eine Steuerung 105 und eine optionale Schnittüberwachung 130. Die erste Stromquelle 110 eines komprimierten Bitstroms, im Beispiel eine „Live-Einspielung" von einem Transportstrom-Kodierer, erzeugt einen ersten MPEG-kompatiblen Transportstrom S6. Die zweite Stromquelle 120 eines komprimierten Bitstroms, im Beispiel ein Server (z. B. eine Video-Platte, Bandmaschine oder eine andere Speichereinrichtung), die Video- und Audio-Elementarströme speichert, kodiert die gespeicherten Ströme zum Transport, um einen zweiten MPEG-kompatiblen Transportstrom S7 zu erzeugen. Die gespeicherte Information kann z. B. einen Werbespot oder lokale Programminformationen aufweisen, die in den ersten Transportstrom einzufügen sind. Die Schneidevorrichtung 300 verbindet selektiv einen der beiden Eingabe-Transportströme S6, S7 mit einem Sender oder anderem Subsystem als ein Ausgabestrom S9. Eine optionale Schnittüberwachung 130 überwacht verschiedene Parameter des aneinandergefügten Ausgabesignals S9, z. B. Verzögerungsparameter, Puffernutzungsinformation, Synchronisation, Bitstromquelle und Ähnliches. Die optionale Schnittüberwachung 130 reagiert auf die Steuerung 105 und die Schneidevorrichtung 300.
  • Die Schneidevorrichtung 300 empfängt den ersten Transportstrom S6, im Beispiel ein von einer ersten Quelle produziertes Fernsehprogramm, und den zweiten Transportstrom S7, im Beispiel eine von einer zweiten Quelle produzierte Werbesendung. Als Reaktion auf ein Steuersignal SELECT erzeugt die Schneidevorrichtung ein Ausgabesignal S9, das entweder den ersten S6 oder den zweiten S7 Transportstrom beinhaltet. Das Steuersignal SELECT kann Vorranginformation umfassen, die die Schneidevorrichtung 300 dazu veranlaßt, sofort, innerhalb eines definierten Zeitintervalls oder dann, wenn bestimmte Bedingungen vorliegen (d. h. spezielle Ausrichtungen von Strom-Einstiegs- oder -Ausstiegspunkten), zu reagieren. Die Schneidevorrichtung 300 erzeugt ein Signal ACKNOWLEDGE, das verwendet wird, um das SELECT-Signal zu bestätigen und spezielle Einzelheiten über die Schnittoperation bereitzustellen (z. B. genauen Zeitpunkt des Aneinanderfügens, Fehlerbedingungen oder Ähnliches). Der Betrieb der Schneidevorrichtung 300 wird unten mit Bezug auf 3 vollständiger beschrieben.
  • Die tatsächliche Schnittoperation ist der Vorgang, der innerhalb der Schneidevorrichtung 300 stattfindet, der tut, was nötig ist, um tatsächlich zwischen den Bitströmen umzuschalten. Dies umfaßt das geordnete Stoppen des Paketflusses von dem Von-Strom, das Beginnen des Paketflusses von dem Zu-Strom in einer geordneten Weise und das Anpassen der Headerinformation im Ausgabestrom. Während einer bestimmten Zeitspanne ist es wahrscheinlich, daß Paket von dem Von-Strom und dem Zu-Strom vermischt sind.
  • Die Schnittoperation muß synchronisiert sein, um nahtlos zu sein. Um sicherzustellen, daß die Eingabeströme zu dem Zeitpunkt, zu dem sie benötigt werden, an der passenden Schneidevorrichtung ankommen, können verschiedene Synchronisationsoperationen durchgeführt werden. Es wird angenommen, daß der Ausgabestrom kontinuierlich ist und daß der tatsächliche Schnitt genommen wird als ein Wechsel des Inhalts des Ausgabestroms von einem Von-Strom zu einem Zu-Strom. Die Zeitstempel im Ausgabestrom sollten ebenfalls die Kontinuität von einem Stempel zum nächsten beibehalten (dies bezieht sich auf den Inhalt des Stroms) und der Schneidemechanismus sollte die Zeitstempel im Ausgabestrom anpassen. Beim Fehlen einer Zeitstempel-Kontinuität in einem MPEG-System sollte das MPEG-Header-Flag „Diskontinuität" verwendet werden, so daß eine Angabe eines neuen Zeitstempels (oder Zeitstempel-Diskontinuität) an einen Dekoder übergeben wird.
  • Um die Anpassung zu erreichen, muß der Schneidevorgang eine gewisse Vorstellung von Zeit haben, da diese lokale Vorstellung von Zeit zum Erzeugen der Ausgabezeitstempel verwendet werden muß. Der Schneidevorgang bekommt seine Vorstellung von Zeit von einer Taktquelle wie der OC-12c-Schnittstelle und die aktuelle Zeit wird entweder vom Inhalt eines Stromes oder Nachrichten zum Setzen der Zeit abgeleitet. Die lokale Vorstellung von Zeit muß einigermaßen kontinuierlich und angepaßt sein. Beim Aneinanderfügen muß sowohl das Ende vom Von-Strom als auch der Anfang vom Zu-Strom in der tatsächlichen Schnitt-Hardware, die die Ausgabe erzeugt, verfügbar sein. Darüberhinaus muß jegliche Pufferung innerhalb der Schneidevorgangs endlich und definiert sein.
  • Über die obenstehenden Probleme hinaus gibt es Synchronisationsprobleme, die zu betrachten sind. Zum Beispiel ist es wichtig, den Effekt von Paketschwankung bzw. -jitter auf den Schneidevorgang zu betrachten. Falls irgendwelche zusätzliche Information über diejenige hinaus, die in den aktuell aneinandergefügten Strömen verfügbar ist, benötigt wird (z. B. Vorranginformation, Quellenkennzeichnung, Fehlercodes und Ähnliches), muß die zusätzliche Information mit den tatsächlichen Schnittströmen richtig synchronisiert sein.
  • Es gibt verschiedene Bedingungen, die bezüglich der Synchronisation der Schnittfunktion von Interesse sind. Dies sind die zeitlichen Beziehungen zwischen einer gewünschten Operation und der tatsächlichen Operation, kontinuierlich fließenden Strömen, Servererzeugten Strömen und entfernt erzeugten Strömen.
  • Die zeitlichen Beziehungen zwischen gewünschten Operationen und tatsächlichen Operationen werden zuerst diskutiert. An einer operationalen Einheit, z. B. einem Umschalter für das Abspielen zum Senden, muß eine Entscheidung zum Umschalten von Strömen getroffen werden. Die Quelle des Ausgabestroms wird tatsächlich als Reaktion auf diese Entscheidung umgeschaltet.
  • Die Entscheidung zum Schneiden kann inhaltsbezogen sein wie etwa ein Umschalten von einem Von-Strom zu einem Zu-Strom, wenn ein inhaltsbezogenes Datenelement in einem der Ströme angetroffen wird. Zum Beispiel kann der Von-Strom überwacht werden und als Reaktion auf das Erkennen von z. B. einem schwarzen Bildschirm oder einem Szenenwechsel kann eine Entscheidung zum Aneinanderfügen getroffen werden. Die operationale Entscheidung erfordert keine Synchronisation. Vielmehr erfordert die Entscheidung, daß die Schneidevorrichtung (oder eine Steuerung) z. B. den Von-Strom analysiert, um das Datenelement zu erkennen. Die Entscheidung zum Aneinanderfügen kann auch Datenflußbezogen sein wie etwa ein Umschalten von einem Von-Strom zu einem Zu-Strom auf ein bestimmtes Paket hin oder beim Starten oder Stoppen des Informationsflusses.
  • Die Entscheidung zum Schneiden kann zeitbezogen sein wie etwa ein Umschalten von einem Programm zu einem Werbespot um 12 Uhr mittags. Zeitbezogene Entscheidungen müssen sich auf den lokalen Bezugsrahmen der Schneidevorrichtung beziehen. Ein Vorgang zur Nachrichtenübergabe übergibt die Information zur Entscheidung an die Schneidevorrichtung rechtzeitig, damit die Schneidevorrichtung bereit ist, das Aneinanderfügen in ihrem Bezugsrahmen herbeizuführen. Angenommen die Schnittentscheidung zu einem bestimmten Zeitpunkt ist getroffen, dann wird das Aneinanderfügen beim nächsten verfügbaren Schneidepunkt basierend auf dem Von-Strom und dem Zu-Strom vorgenommen.
  • Die Entscheidung zum Schneiden kann ereignisgetrieben sein wie etwa das Drücken eines Knopfes (z. B. Kommando „Aufnahme"- bzw. „Übernehmen" des Regisseurs wie in der Schneidevorrichtung 100 von 1 dargestellt). Wenn die Nachricht, die das Ereignis anzeigt, bei der Schneidevorrichtung ankommt, sind die Aktionen dieselben wie bei einer zeitbezogenen Entscheidung, deren Zeit gekommen ist.
  • Eine Art von Bestätigungsnachricht kann erforderlich sein. Wenn diese Nachricht an den Urheber der Schnittentscheidung (z. B. die Steuerung) übergeben wird, ermöglicht sie, daß eine intelligente Auswahl für Zeitüberwachung und Aktionen wie nicht-nahtlose Aneinanderfügungen im Alarmfall getroffen wird. Zeitüberwachung und Festlegungen bezüglich korrigierender Aktionen zum Beheben von Fehlern beim Aneinanderfügen ist Sache der Strategie für den Urheber der Schnittentscheidung. Zeitüberwachung und forciertes Umschalten kann ein Dienst sein, der von der Schneidevorrichtung implementiert wird, allerdings nur als eine Annehmlichkeit.
  • Eine operationale Einheit (z. B. Schneidevorrichtung oder Umschalter) kann eine geeignete Bestätigungsmeldung an eine steuernde Einheit zurückgeben. Der Inhalt einer solchen Rückmeldungsnachricht kann einen oder mehrere der folgenden Parameter beinhalten: 1) ein Aneinanderfügen hat stattgefunden oder nicht; 2) die lokale Tageszeit, zu der das Aneinanderfügen stattgefunden hat; 3) den Wert des Verzögerungsparameters des Zu-Stromes; 4) den Wert des Verzögerungsparameters des Von-Stromes; 5) die aktuelle Sync-Puffer-Verzögerung (nach dem Aneinanderfügen) (z. B. in Verzögerungssekunden); 6) der zukünftige Zeitpunkt, zu dem ein Aneinanderfügen stattfinden wird (wenn der Umschalter diesen Wert berechnen kann) und 7) irgendwelche Ausnahmebedingungen oder Fehler. Ausnahmebedingungen und Fehler können die Tatsache beinhalten, daß kein Aneinanderfügen stattgefunden hat, daß die von der Steuerung übergebenen Entscheidungsparameter nicht korrekt waren (z. B. syntaktisch oder logisch), daß der Zu-Strom nicht bereit war, daß eine Zeitüberwachung ausgelaufen ist oder daß ein Audio-Fehler auftrat (z. B. das Verwerfen einer übermäßigen Anzahl von Audio-Frames).
  • Zusätzliche Information, die von Wert sein kann, umfaßt: 1) die Zeitdauer, für die die Audio-Information von dem Von-Strom benötigt wird; 2) eine Anzeige, daß die Eingaben korrekt gepuffert und für ein erneutes Aneinanderfügen bereit sind und 3) andere Informationen, die für die Steuerung oder den Schnittvorgang selbst nützlich sind.
  • Der genaue Zeitpunkt, zu dem ein nahtloses Aneinanderfügen stattfindet, kann nicht vorab festgelegt werden, da das nahtlose Aneinanderfügen vom Eintreffen eines Einstiegspunktes in dem Zu-Strom abhängt. Im Fall einer Entscheidung, nahtlos aneinanderzufügen, gibt es einige untergeordnete Entscheidungen, die getroffen werden müssen darüber, was zu tun ist, wenn das Aneinanderfügen nicht innerhalb bestimmter Zeitgrenzen stattfindet. Die Wahlmöglichkeiten sind wie folgt. Als erstes einfach Warten, daß ein nahtloses Aneinanderfügen stattfindet. Abhängig von den operationalen Zielen des Studios kann dies nicht akzeptabel sein. Als zweites Definieren einer festen Zeitüberwachungsspanne und, wenn die Schneidevorrichtung nicht innerhalb der definierten Zeitüberwachungsspanne aneinandergefügt hat, ein nicht-nahtloses Aneinanderfügen durchführen (d. h. die Ströme in einer so kontrollierten Art und Weise wie möglich umschalten). Während dies ein einfacher Ansatz ist, schränkt es die Entscheidungsflexibilität ein. Als drittes einfach darauf Warten, daß das Aneinanderfügen passiert, aber diese Bedingung der steuernden Einheit Bestätigen. Welcher Vorgang auch immer die Entscheidung zum Aneinanderfügen erzeugt hat, kann dann entscheiden, ein nicht-nahtloses Aneinanderfügen zuzulassen. Dies erlaubt vernünftige operationale Flexibilität. Als viertes eine programmierbare Zeitüberwachung Bereitstellen, die optional eine Standard-Zeitüberwachung beinhaltet und optional eine Bestätigung dieser Bedingung an die steuernde Einheit beinhaltet. Diese Option ermöglicht es der steuernden Einheit, den Zeitüberwachungswert zu ändern, wodurch die größte operationale Flexibilität erreicht wird. Man sollte beachten, daß eine Zeitüberwachung eine sekundäre operationale Eigenschaft ist und daher eine Ausnahme vom normalen Betrieb ist.
  • Es wird nun die Synchronisation des Aneinanderfügens kontinuierlich fließender Ströme diskutiert. Die Ströme kommen an und müssen innerhalb der Schneidevorrichtung gepuffert werden (z. B. eine Sekunde an Information) in einer Weise, daß z. B. Einstiegspunkte im Zu-Strom verfügbar sind, wenn Ausstiegspunkte im Von-Strom auftreten. Wenn die gepufferte Menge ungenügend ist (z. B. mehr als eine Sekunde zwischen aufeinanderfolgenden Einstiegspunkte in einem Von-Strom vergeht), dann läuft der Puffer über und enthält ungültige Information. Diese Bedingung wird behoben, indem eine geeignete Anzahl von Einstiegs- und Ausstiegspunkten in die Bitströme eingefügt wird. Wenn Bitströme nicht häufig genug Einstiegs- und Ausstiegspunkte haben, können diese Bitströme zu diesen Zeitpunkten nicht nahtlos aneinandergefügt werden. Mehr noch wird in dem Maße, in dem zu dem Eintreftzeitpunkt der Eingangsbitströme Paket- oder Zellschwankung bzw. -jitter vorhanden ist, erwartet, daß ein First-In-First-Out (FIFO) Puffer (bei dem die Ausgabe in der nominellen Datenrate getaktet ist) den Fluß glättet.
  • Es wird nun die Synchronisation Server-erzeugter Ströme diskutiert.
  • Server-erzeugte Ströme müssen sorgfältig erzeugt werden, so daß die Daten nicht zu früh oder zu spät beim der Schneidevorrichtung eintreffen. Wenn die Daten zu früh eintreffen, besteht die Gefahr des Überlaufs eines Eingangspuffers. Wenn man annimmt, daß die Schneidevorrichtung über genügend Synchronisationspufferung verfügt, um etwa eine Sekunde an Video aufzunehmen, dann erschiene es so, daß die Serverströme in jedem beliebigen Flußmuster angeliefert werden können, das niemals die Just-In-Time- bzw. Gerade-Rechtzeitig-Beschränkung und die Eine-Sekunde-zu-Früh-Grenze überschreitet. Natürlich kann es Spitzenratenbeschränkungen bei einer Schneidevorrichtung geben.
  • Es wird nun die Synchronisation abgesetzt erzeugter Ströme diskutiert. Man muß beachten, daß von jedem in einem Studio, das die Schneidevorrichtung beinhaltet, verarbeiteten Strom erwartet wird, daß er dieselbe Bezugstaktrate hat. Abgesetzt erzeugte Ströme sollten zu dem Zeitpunkt, zu dem sie eine Schneidevorrichtung erreicht haben, dasselbe sein wie lokal erzeugte Echtzeit-Ströme. Um abgesetzt erzeugte Ströme auf einen lokalen Haupt- bzw. Vorgabetakt zu beziehen, kann die abgesetzte Quelle mit dem lokalen Studio synchronisiert bzw. „genlocked" werden. Dies kann über einen Rückkanal erfolgen oder indem beide Signale mit einer externen Referenz wie einem von dem Global Positioning System (GPS) abgeleiteten Taktsignal synchronisiert werden. Wenn es zwei unabhängige Studios gibt, jedes mit einem unabhängigen Haupttakt, und jedes eine entfernte Einspeisung für das andere vornimmt, dann wird eines Daten für das andere zu langsam anliefern und eines Daten zu schnell anliefern. Ein anderes Verfahren ist, eine entfernte Einspeisung um eine Zeitspanne zu verzögern, die gleich der maximalen Taktabweichung über ein bestimmtes Betriebsintervall ist. Eine Abweichungsrate von 30ppm über 24 Stunden addiert sich zu 2,6 Sekunden. Ein Sechs-Sekunden-Puffer, der mit einem Füller von 3 Sekunden initialisiert ist, ist geeignet, die Taktabweichung zu absorbieren.
  • Schnittüberwachung ist ein wichtiger Aspekt beim Aneinanderfügen, speziell in einer Studioumgebung. Inhaltsbezogene Überwachung kann die Schritte des Betrachtens eines Bildes auf einer Anzeigeeinrichtung (d. h. einem „Monitor") aufweisen, wobei als Reaktion Parameter der Bitströme, die das Bild erzeugen, geändert werden (z. B. Aneinanderfügen). Die optionale Schnittüberwachung 130 kann für inhaltsbezogene Überwachung z. B. von einem Regisseur verwendet werden. Eine andere Form der Überwachung ist die qualitative Bewertung eines überwachten Bitstroms. Die optionale Schnittüberwachung 130 kann zum Gewinnen von Qualitätsinformation aus dem aneinandergefügten Ausgangssignal S9 verwendet werden, z. B. Verzögerungsparameter, Information über Puffernutzung, Synchronisationsinformation, Identifikation der Bitstromquelle und Ähnlichem. Die optionale Schnittüberwachung 130 reagiert auf die Steuerung 105 und die Schneidevorrichtung 300, um entweder die Information zu verarbeiten und z. B. eine Zusammenfassung über den Betrieb zu liefern oder die qualitative Information direkt an die Steuerung 105 und die Schneidevorrichtung 300 zur weiteren Verarbeitung zu übergeben.
  • Bezüglich der inhaltsbezogen Überwachung kann ein Regisseur (d. h. ein Mensch) die verschiedenen Bitströme über Monitore (d. h. Dekodierer, die Anzeigen treiben) anschauen und in Reaktion darauf Aneinanderfügen, um ein Ausgangssignal zu erzeugen (d. h. ein Programm). Dieser Punkt ist besonders signifikant bei der Produktion oder beim Live-Umschalten mit komplexen GOP-Strömen. Die Probleme werden in großem Maße minimiert, wenn in einem Produktionsmodus mit geringer Verzögerung (z. B. nur I-Frames) gearbeitet wird. Wenn der Regisseur anzeigt, daß ein Schnitt „jetzt" vorzunehmen ist, beruht diese Entscheidung wahrscheinlich darauf, was der Regisseur sieht oder zu sehen erwartet. Da ein Dekodierer von sich aus seine Bilder nach einer bestimmten Verzögerung aus seinem Eingabestrom darstellt (z. B. ein Teil der oder die gesamte Verzögerung von einem Ende zum anderen und eine bestimmte zusätzliche Dekodier- und Formatierverzögerung), sind die Betriebsarten für den Regisseur in einer MPEG-Studioumgebung anders als aktuelle NTSC-bezogene Betriebsbedingungen. Für die Zwecke der folgenden Beispiele wird angenommen, daß ein Regisseur in einer MPEG-Studioumgebung arbeitet, daß Schneidesegmente ¼ Sekunde lang sind und daß die Verzögerung von einem Ende zum anderen der aneinandergefügten Ströme ½ Sekunde beträgt.
  • Ein erstes Beispiel ist ein Betrieb im „Sobald-wie-möglich"- bzw. „soonest"-Modus. In diesem Modus drückt der Regisseur einen „Übernahme"- bzw. „Take"-Knopf TAKE, basierend auf einem Ereignis, das er auf einem Ausgabemonitor 132, einem Von-Strom-Monitor 136 oder einem Zu-Strom-Monitor 134 sieht. Ein in einer Warteschlange stehender (d. h. Server-gespeicherter) Zu-Strom ist bereit und auf einen Einstiegspunkt ausgerichtet. Innerhalb ¼ Sekunde nach dem Kommando zum Aneinanderfügen kommt ein Ausstiegspunkt am Ende des Von-Strom-Sync-Puffers an und der Schnitt wird vorgenommen. Man beachte, daß der Von-Strom bis zu ¼ Sekunde Verzögerung beinhaltet. Eine Monitorverzögerung (½ Sekunde) später wechselt die Szene auf dem Ausgabemonitor.
  • Wenn der Regisseur auf eine Szene auf dem Ausgabemonitor 132 reagiert hat, liegt die Größe der Ausgabemonitorverzögerung (d. h. die Zeit zwischen dem „Übernahme"-Kommando TAKE und einem Wechsel der Szene auf dem Ausgabemonitor 132) zwischen ½ und einer Sekunde. Wenn der Regisseur auf eine Szene auf dem Von-Strom-Monitor 136 reagierte, liegt die Größe der Von-Strom-Monitorverzögerung zwischen ¼ und ½ Sekunde und die Ausgabemonitorverzögerung ist ½ Sekunde. Wenn der Regisseur auf eine Szene auf dem Zu-Strom-Monitor 134 reagierte, ist der Zu-Strom-Monitor 134 kontinuierlich (d. h. keine Monitorverzögerung) und die Ausgabemonitorverzögerung ist minus ¼ Sekunde (d. h. die Szene wechselt ¼ Sekunde, nachdem der „Übernahme"-Knopf TAKE gedrückt wird und das angezeigte Bild erschien ¼ Sekunde vor dem Drücken des Knopfes).
  • Ein zweites Beispiel ist der Betrieb im „Als-Nächstes"- bzw. „Next"-Modus. In diesem Modus wird ein in einer Warteschlange stehender Zu-Strom aus einem Zu-Strom- Synchronisationspuffer herausgenommen und das nächste, mit einem Einstiegspunkt beginnende Segment wird innerhalb von bis zu ¼ Sekunde in die Warteschlange gestellt. Der Zu-Strom-Synchronisationspuffer hat außerdem Null bis ¼ Sekunden zufälliger Verzögerung. Wenn der Einstiegspunkt ankommt, wird der Schnitt vorgenommen.
  • Wenn der Regisseur auf eine Szene auf dem Ausgabemonitor 132 reagiert hat, liegt die Größe der Ausgabemonitorverzögerung zwischen ½ und einer Sekunde. Wenn der Regisseur auf eine Szene auf dem Von-Strom-Monitor 136 reagierte, liegt die Größe der Von-Strom-Monitorverzögerung zwischen ½ und ¾ Sekunde und die Ausgabemonitorverzögerung beträgt ½ Sekunde. Wenn der Regisseur auf eine Szene auf dem Zu-Strom-Monitor 134 reagierte, ist der Zu-Strom-Monitor 134 kontinuierlich und der Ausgabemonitor 132 schaltet zwischen Null und ¼ Sekunden später auf eine neue Szene um.
  • Die Auswahl des „Sobald-wie-möglich"- oder „Als-Nächstes"-Modus des Zusammenfügens ist eine betriebliche und kann darauf beruhen, welcher der verwirrenden Effekte (Verzögerung oder Rücksetzen) am wenigsten störend ist. Um diese Effekte zu mindern, kann eine bestimmte Menge von Verzögerung in die Eingaben der Schneidevorrichtung eingefügt werden. Wenn diese Verzögerung mit der Monitorverzögerung übereinstimmt und die Monitore mit den Eingaben der Verzögerungen verbunden sind, dann ist die sichtbare Verzögerung zwischen den Szenen auf dem Monitor und der Knopfbetätigung geringer, aber die Verzögerung zur endgültigen Ausgabe größer.
  • Darüberhinaus kann eine separate Monitorsteuereinheit eingerichtet werden, um das Umschalten der Bitströme zu simulieren und die simulierten Ergebnisse der Bitstromumschaltung zu zeigen, wodurch dem Regisseur mehr Flexibilität geboten wird.
  • 3 zeigt ein detailliertes Blockdiagramm der Schneidevorrichtung 300 von 1. Die Schneidevorrichtung 300 wählt einen von einem ersten Eingabebitstrom S6 und einem zweiten Eingabebitstrom S7 als einen Ausgabebitstrom S8 aus. Der Ausgabebitstrom S8 ist optional mit Zeitstempeln versehen, um einen neu getakteten Ausgabestrom S9 zu erzeugen. Der erste und der zweite Eingabebitstrom S6, S7 sind im Beispiel MPEG-kompatible Transportströme einschließlich mindestens Video- und Audio-Elementarströmen. Die Video- und Audio-Elementarströme können im paketierten Elementarstrom-(PES)-Format vorliegen.
  • Für Zwecke der folgenden Diskussion wird angenommen, daß der zweite Bitstrom S7 aktuell als Eingabebitstrom ausgewählt ist (d. h. S7 ist der Von-Strom) und der erste Bitstrom S6 nach einer Schnittoperation als der Eingabebitstrom ausgewählt wird (d. h. S6 ist der Zu-Strom).
  • Der erste Eingabebitstrom S6 ist an einen ersten Bitstromprüfer 310A und einen ersten Synchronisationspuffer 320A angeschlossen. Der erste Bitstromprüfer 310A prüft den ersten Bitstrom auf Einstiegspunkte, die in den ersten Eingabebitstrom S6 aufgenommen wurden. Wenn ein Einstiegspunkt gefunden wird, wird der Inhalt des Synchronisationspuffers verworfen (d. h. der Puffer wird „gespült") und der Einstiegspunkt wird in dem ersten Speicherteil des Synchronisationspuffers gespeichert. Der Synchronisationspuffer kann als ein First-In-First-Out-(FIFO)-Puffer eingerichtet sein. Der Vorgang des Suchens nach Einstiegspunkten und des Leerens des Puffers wird wiederholt, bis der erste Eingabebitstrom S6 von der Schneidevorrichtung ausgewählt wird. Auf diese Weise gibt es immer einen am Ende des Synchronisationspuffers positionierten Einstiegspunkt des Stromes, der gerade nicht ausgegeben wird. Der Ausgabebitstrom S3A des ersten Synchronisationspuffers 320A ist an eine Umschaltsteuerung 340 und einen ersten Arbeitspuffer 330A angeschlossen. Der erste Arbeitspuffer 330A erzeugt ein Ausgabesignal S4A, das an eine Paketumschalteinheit 350 angeschlossen ist.
  • Der zweite Eingabebitstrom S7 ist an einen zweiten Bitstromprüfer 310B und einen zweiten Synchronisationspuffer 320B angeschlossen. Wenn der zweite Bitstrom aktuell nicht als der Ausgabebitstrom ausgewählt wurde, dann würden der zweite Bitstromprüfer 310B und der Synchronisationspuffer 320B in der selben Weise wie oben bezüglich des ersten Bitstromprüfers 310A und des Synchronisationspuffers 320A beschrieben arbeiten. Der zweite Bitstromprüfer 310B prüft den zweiten Bitstrom auf Ausstiegspunkte, die in den zweiten Eingabebitstrom S7 eingefügt wurden. In dem „ausgewählten Modus" des Betriebs wird der zweite Bitstromprüfer 310B nicht verwendet und der zweite Synchronisationspuffer 320B dient als ein konstanter Verzögerungspuffer, der einen verzögerten Bitstrom S3B erzeugt.
  • Der verzögerte Bitstrom S3B ist an einen Arbeitspuffer 330B und eine Umschaltsteuerung 340 angeschlossen. Der zweite Arbeitspuffer 330B erzeugt ein Ausgabesignal S4B, das an die Paketumschalteinheit 350 angeschlossen ist. Der zweite Arbeitspuffer 330B hält den ausgewählten Bitstrom lange genug vor, um eine Überlappung der alten Audiopakete mit den aktuellen Videopaketen zu ermöglichen. Dies ermöglicht, daß Audioframes bis zum Abschluß fortgesetzt werden, wenn ein Aneinanderfügen vorgenommen wurde. Die Synchronisation der Audio- und Videoframes werden unten und in der US-Patentanmeldung mit der Seriennummer 08/864.321, registriert am 28. Mai 1997 (Anwaltsakte 12070), erteilt als US-Patent 6.181.383 am 1. Januar 2002, genauer diskutiert.
  • Eine Schnittentscheidung wird von einer Steuerung (z. B. der Steuerung 105) getroffen und an die Umschaltsteuerung 340 über ein Steuersignal SELECT weitergegeben. Unter der Annahme, daß die Schnittentscheidung dem Kommando „bei nächster Gelegenheit nahtlos Zusammenfügen" entspricht, reagiert die Umschaltsteuerung 340 durch Abtasten des aktuell ausgewählten Ausgabestromes (d. h. des Bitstromes S3B) auf Ausstiegspunkte. Es wird angenommen, daß ein Einstiegspunkt am Ende des ersten Synchronisationspuffers 320A positioniert ist. Wenn ein Ausstiegspunkt in einem Von-Strom ankommt, veranlaßt die Umschaltsteuerung 340 über ein Steuersignal A/B den Umschalter 350, damit zu beginnen, Videopakete von dem Zu-Strom durch den Umschalter an den optionalen Header-Anpasser zu leiten. Zu einem passenden Zeitpunkt werden alle Audiopakete innerhalb des Zu-Stroms auch umgeschaltet.
  • Der optionale Header-Anpasser 360 ändert die Zeitstempel in dem ausgewählten Ausgabestrom S8, um einen neu mit Zeitstempel versehenen Ausgabestrom S9 zu erzeugen. Das Neuberechnen der Programmtaktreferenz (PCR), der Wiedergabezeitstempel (PTS) und der Dekodierzeitstempel {DTS) des ausgewählten Stroms S8 kann notwendig sein, um sicherzustellen, daß das Aneinanderfügen für einen Dekoder tatsächlich nahtlos ist. Der Header-Anpasser 360 beinhaltet einen (lokalen) 27-MHz-Stationstaktgeber 362, der von einem lokalen PCR- und PCRB-Generator 364 verwendet wird. Um die Wiedergabe- und Dekodierzeitstempel neu zu berechnen ist es notwendig, den ausgewählten Transportstrom S8 teilweise zu dekodieren (d. h. die paketierte Elementarstrom-(PES)-Schicht). Das teilweise Dekodieren und Neuberechnen von PTS und DTS wird von einer PTS- und DTS-Erkennungs- und Neuberechnungseinheit 366 durchgeführt, um einen Strom S8P mit neu berechneten PTS und DTS zu erzeugen. Der mit neuen PTS und DTS versehene Strom wird von der PCR-Erkennungs- und Neuberechnungseinheit 368 Transport-kodiert und mit Zeitstempeln versehen, um einen mit neuen Zeitstempeln versehenen Transportstrom S9 zu erzeugen.
  • Wie zuvor erwähnt kann die Erfindung mittels eines Allzweckcomputers implementiert werden, der zum Durchführen der verschiedenen Funktionen programmiert ist. Die Ausführungsform von 3 kann als ein Computerprogramm unter Verwendung von Teilen des Speichers zum Puffern und eines Algorithmus implementiert werden, der auf Prüf-, Steuerungs-, Umschalt- und Header-Anpassungs-Funktionen gerichtet ist. Wie zuvor erwähnt erzeugt die Schneidevorrichtung 300 ein Signal ACKNOWLEDGE, das zum Bestätigen des SELECT-Signals verwendet wird und spezielle Details über die Schnittoperation (z. B. den genauen Schnittzeitpunkt, Fehlerbedingungen und Ähnliches) bereitstellt. Eine Routine zum Schneiden bzw. Aneinanderfügen wird jetzt unter Bezug auf 2 beschrieben.
  • 2 veranschaulicht eine Schneideroutine gemäß der Erfindung. Die Schneideroutine wird bei Schritt 202 begonnen, wenn die Entscheidung zum Aneinanderfügen getroffen ist. Für die Zwecke dieser Diskussion wird angenommen, daß die Entscheidung darin besteht, nahtlos von dem aktuell ausgewählten (Von-)Strom S4B auf einen anderen (Zu-Strom)-Strom S4B umzuschalten bzw. zu schneiden. Die Entscheidung wird bei Schritt 204 geprüft. Wenn die Entscheidung von Schritt 202 darin besteht, so schnell wie möglich zu schneiden, dann geht die Routine bei Schritt 208 weiter. Wenn die Entscheidung darin besteht, beim nächsten Einstiegspunkt zu schneiden (z. B. den aktuell gepufferten GOP in dem Zu-Strom zu überspringen), dann wird der Synchronisationspuffer (z. B. 320A) gespült. Wenn der Zu-Strom-Synchronisationspuffer (z. B. 320A) einen gültigen Einstiegspunkt gespeichert hat (Schritt 208) und der Von-Strom an einem gültigen Ausstiegspunkt ist (Schritt 210), wird das Aneinanderfügen vorgenommen (Schritt 220) und die Routine beendet (Schritt 230}. Der Kontext, in dem eine Schnittentscheidung getroffen wird (Schritt 202), ist relevant für die Menge an benötigter Information zum Durchführen eines nahtlosen Aneinanderfügens. Wenn die Schnittentscheidung im Kontext des Zusammenstellens einer Editierliste für das Abspielen-zum-Senden- bzw. Play-to-Air getroffen wird, ist es notwendig, daß die zu schneidenden Ströme denselben Wert des Verzögerungsparameter haben. Wenn die Schnittentscheidung im Kontext des Herstellens einer Live-Produktion getroffen wird, ist es für die aneinandergefügten Ströme erforderlich, zueinander passende Verzögerungsparameter und Schneidepunkte zu haben, die häufig genug auftreten, um betriebliche Anforderungen zu erfüllen. Wenn die Schnittentscheidung im Kontext des Herstellens einer Live-Produktion getroffen wird und die Produktion auf Servern gespeicherte Informationen einbezieht, ist es hilfreich zu wissen, daß erwartete Schneidepunkte demnächst eintreffen (z. B. über Schneidepunkt-Countdowns oder Schneidetabellen). Die Schnittentscheidung und damit zusammenhängende Dinge werden unten genauer diskutiert.
  • Die Erfindung wird nun im Kontext eines digitalen Fernsehstudios beschrieben, das eine Reihe von unterschiedlichen Betriebsumgebungen (wie Server oder Editier-Suiten) umfaßt, die verschiedene Informationsströme empfangen, verarbeiten und übertragen. Die Betriebsumgebungen oder „Inseln der Zusammenarbeit" können so angeschlossen sein, daß sie eine oder mehrere Operationen auf den verschiedenen Informationsströmen durchführen. Die Ausgabe des Studios kann an Endbenutzer (z. B. die Öffentlichkeit) über ATSC-Rundfunk-, Kabel-, Telefon- und Satellitenübertragung und Ähnliches geliefert werden. Die Ausgabe des Studios kann auch zur späteren Verwendung z. B. in einem Server oder auf CD-ROM oder Video-Band gespeichert werden. Die Erfindung ist auch bei Video-Konferenzen und anderen Anwendungen nützlich.
  • Während die an Rundfunkteilnehmer gelieferten Ströme z. B. ATSC-Standards erfüllen müssen, ist es nicht nötig, die gesamte interne Studioinformation zu liefern. Zum Beispiel sind Studioformate mit hoher Bitrate nur innerhalb des Studios oder Studio-artigen Umgebungen nützlich. Wenn es ums Schneiden geht, kann es Information innerhalb des Stroms geben, die für Kundendekodierer ohne Bedeutung sind, die aber für das Schneiden im Studio notwendig ist.
  • 4 zeigt ein Blockdiagramm eines digitalen Studio, das eine Mehrzahl von interoperablen Inseln aufweist und die Erfindung umfaßt. Das digitale Studio 400 von 4 beinhaltet die interoperablen Inseln 401, 402 und 404-409. Das digitale Studio 400 beinhaltet auch einen erste Stromquelle 110 eines komprimierten Bitstromes, eine zweite Stromquelle 120 eines komprimierten Bitstromes, eine Schneidevorrichtung 300, eine Steuerung 105 und eine optionale Schnittüberwachungseinheit. Die erste Stromquelle 110 eines komprimierten Bitstroms, im Beispiel eine „Live-Einspielung" von einem Transportstrom-Kodierer, erzeugt einen ersten MPEG-kompatiblen Transportstrom S6. Die zweite Stromquelle 120 eines kompri mierten Bitstroms, im Beispiel ein Server (z. B. eine Video-Platte, Bandmaschine oder eine andere Speichereinrichtung), die Video- und Audio-Elementarströme speichert, kodiert die gespeicherten Ströme zum Transport, um einen zweiten MPEG-kompatiblen Transportstrom S7 zu erzeugen. Die erste und zweite Quelle komprimierter Bitströme 110, 120 arbeiten im Wesentlichen in derselben Art und Weise wie zuvor mit Bezug auf das Bitstrom-Schnittsystem 100 von 1 beschrieben. Das Digitalstudio 400 umfaßt eine Steuerung 105, welche die zuvor unter Bezug auf Bitstrom-Schnittsystem 100 von 1 beschriebenen Funktionen und andere Funktionen, die unten beschrieben werden, durchführt. Die Insel 300 entspricht ungefähr der Schneidevorrichtung 300 des Bitstrom-Schnittsystem 100 von 1.
  • Jede der Inseln empfängt eine Mehrzahl von Informationsströmen. Zum Beispiel empfangen die Inseln 401 und 402 jeweils Informationsströme von einer NETZEINSPEISUNG und einer LOKALEN EINSPEISUNG. Die Steuerung 105 kommuniziert mit jeder der Inseln über einen Steuerkanal C. Der Steuerkanal C wird verwendet, um den Informationsfluß durch das Studio (d. h. zwischen den Inseln) zu leiten und die Verarbeitung der Information innerhalb der Inseln zu lenken. Die Steuerung 105 stellt die Entscheidungen zum Aneinanderfügen bereit und alle notwendigen Parameter, die mit dem beabsichtigten Aneinanderfügen zusammenhängen. Die Inseln reagieren, indem sie die verschiedenen Operationen beim Aneinanderfügen durchführen, überwachen und bestätigen (über der Steuerkanal C).
  • Ein Digitalstudio gemäß der Erfindung kann als eine miteinander verbundene Gruppe von „Schnittinseln" beschrieben werden, die bestimmte Verarbeitungsfunktionen auf empfangenen Bitströmen durchführen, um Ausgabe-Bitströme zu erzeugen. Das liegt daran, daß die Inseln individuell unterschiedliche Betriebsumgebungen (z. B. Speicherumgebungen, Editierumgebungen, Verarbeitungsumgebungen und Ähnliches) bilden, die miteinander über eine Steuerung 105 kooperieren, um einen oder mehrere Ausgabe-Bitströme zu erzeugen (z. B. S9, AUSGABESTROM). Jede Insel arbeitet bei einem bekannten Verzögerungsparameter-Wert und jedes Schneiden bzw. Aneinanderfügen innerhalb einer Insel ist (idealerweise) nahtlos. Die Schnitt- und Verarbeitungsfunktionen stehen unter der allgemeinen Kontrolle der Steuerung 105, aber können, soweit nötig, lokal gesteuert werden. Zum Beispiel kann ein Operator, der an einer Editierstation sitzt, logisch eine Insel darstellen. Die zu editierenden Ströme werden als Reaktion auf über den Steuerkanal C von der Steuerung 105 übertragene Kommandos zu einer Editierinsel gelenkt (z. B. Insel 407). Als Reaktion auf die Kommandos kann ein Signal durch einige Inseln (z. B. 406 und 300) geschaltet werden, bevor es in einer Speichereinheit (nicht abgebildet) an der Editierinsel (z. B. 407) gespeichert wird.
  • Ein alternativer Betriebsmodus eines Studios ist es, eine oder mehrere Inseln kontrolliert in einem nicht-nahtlosen Modus zu betreiben. Der nicht-nahtlose Modus kann unter verschiedenen Umständen erforderlich sein, in denen ein Schnitt oder ein anderer Übergang zwischen Bitströmen schnell erfolgen muß, und eine Verschlechterung des Bitstroms kann in gewissem Umfang zulässig sein. Man beachte, daß nicht-nahtloses Umschalten Fehler hervorrufen kann, die an nachfolgende Inseln weitergegeben werden, die einen verschlechterten Bitstrom empfangen. Diese Fehler können, falls nötig, z. B. durch Verwerfen beschädigter oder minderwertiger Zugriffseinheiten oder Gruppen von Zugriffseinheiten (z. B. Video-Frames) oder durch Hinzufügen zusätzlicher Zugriffseinheiten gemildert werden. Wenn zum Beispiel ein Zu-Strom mit einem kurzen Verzögerungsparameter an einen Von-Strom mit einem langen Verzögerungsparameter angefügt werden soll, ist die Schnittoperation wahrscheinlich nicht nahtlos (d. h. der Puffer wird wahrscheinlich überlaufen). In diesem Fall können Frames verworfen werden, um die Überlaufbedingung zu vermeiden. Ebenso wird die Schneidevorrichtung die Zeitstempel anpassen müssen, wenn ein Zu-Strom mit einem langen Verzögerungsparameter an einen Von-Strom mit einem kurzen Verzögerungsparameter angefügt werden soll, um eine Anzahl von Frame-Wiederholungen zu veranlassen (d. h. Frames hinzuzufügen), während sich der Puffer füllt. Der Puffer kann auch durch Anfügen kurzer, völlig schwarzer Frames am Ende einer Sequenz mit kurzem Verzögerungsparameter vergrößert werden, um den Wert des Verzögerungsparameters, der zur Zeit in Verwendung ist, zu erreichen.
  • In den beispielhaften Ausführungsformen der 1, 3 und 4 finden Schnitt- bzw. Aneinanderfüge-Operationen in betrieblichen Einheiten (z. B. Schneide-Inseln) wie Routing-Umschaltern, Umschaltern für das Abspielen-zum-Senden- bzw. Play-to-Air, Produktionsumschaltern oder anderen Umschaltern statt. Daher ist es wünschenswert, eine Mehrzahl von Datenformaten und Bitraten zu unterstützen. Zum Beispiel unterstützen die sogenannten 422@HIGH- und 420@HIGH-Fernsehstudio-Formate jeweils mehrere Bildformate und Bitraten. Daher kann es notwendig sein, z. B. einen Bitstrom, der ein 60Hz Progressive Scan Bild mit 1280 mal 960 Bildelementen aufweist an das Ende eines Bitstromes, der ein 59,94 Hz Zwischenzeilen-Bild bzw. Interlaced-Bild mit 1920 mal 1080 Bildelement aufweist, anzufügen. Darüber hinaus kann es auch notwendig sein, einen 45-Mb/s-Strom an das Ende eines 155-Mb/s-Stroms anzufügen.
  • Beide obenstehenden Beispiel-Schnitte können nahtlos vorgenommen werden, wenn die aneinandergefügten Ströme übereinstimmende Verzögerungsparameter haben. Daher ist es wichtig, daß die Steuerung, die die Schnittentscheidung trifft, die Verzögerungsparameter der verschiedenen, aneinanderzufügenden Ströme kennt. Der Verzögerungsparameter eines Stroms kann von einer Betriebseinheit berechnet werden, die einen Strom empfängt, oder in dem Strom als Teil der Header-Information des Stroms enthalten sein. In der Schneidevorrichtung 300 von 3 umfasst die Umschaltsteuerung 340 einen Bitstrom-Rechner, der die Verzögerungsparameter der Eingabeströme S6, S7 berechnet. Man beachte, daß die Berechnung von Verzögerungsparametern auch von den Bitstrom-Überprüfern 310A, 310B oder der optionalen Schnittüberwachung 130 durchgeführt werden kann.
  • Ein anderer kritischer Aspekt beim Aneinanderfügen von Informationsströmen ist die Ermittlung der Lage von Einstiegs- und Ausstiegspunkten in den aneinanderzufügenden Strömen. Um ein nahtlosen Aneinanderfügen richtig durchzuführen, ist es nötig, den Einstiegspunkt im Zu-Strom und den Ausstiegspunkt im Von-Strom zu finden. Darüberhinaus kann ein Schneidesegment Einstiegs- und Ausstiegspunkte mit unterschiedlichen Verzögerungsparameterwerten beinhalten. Es stehen verschiedene Optionen zum Finden der passenden Schneidepunkte zur Verfügung.
  • Erstens kann der gesamte Zu-Strom oder Von-Strom von der Schneidevorrichtung in Echtzeit (d. h. während des Einlesens bzw. „on the fly") analysiert werden. Eine Echtzeit-Analyse ist für einen Zu-Strom schwierig, weil ein Einstiegspunkt nicht einfach aus dem Strom hergeleitet werden kann, ohne den Strom bis zu seinem Ende zu lesen. Auch wenn bekannt wäre, daß der Strom sich gutartig verhält, ist die Länge eines I-Frame nicht im Vorhinein bekannt. Zu dem Zeitpunkt, wenn der erste I-Frame beendet ist und seine Länge bekannt ist, ist es wahrscheinlich zu spät, diese Information zu verwenden. Man muß beachten, daß dieses Problem z. B. durch Verwenden von leistungsfähigeren Computereinrichtungen überwunden werden kann. Eine Echtzeit-Analyse ist bei einem Von-Strom einfacher, weil der Verzögerungsparameter des Von-Stroms bekannt ist (von dem Einstiegspunkt oder anderweitig), die Wiedergabe-Zeitstempel in dem Strom anzeigen, wann Frames den Dekodier-Puffer verlassen und Bitzähler (oder Paketzähler) anzeigen, wann die Frames in den Dekodier-Puffer kommen. Die Frame-Rate ist ebenso aus den Sequenz-Headern bekannt. Mit der vorstehenden Information wird es möglich, beim Beginn eines neuen Frames zu berechnen, daß das vorangehende Video den Puffer in einem Ausstiegspunkt-Zustand verlassen hat. Diese Information trifft nur ein wenig zu spät ein.
  • Zweitens kann eine externe Tabelle erstellt werden, um Hinweise darauf zu enthalten, wo die Schneidepunkte sind. Dieser Ansatz geht von der Annahme aus, daß die Information über die Lage von Einstiegs- und Ausstiegspunkten anderswo berechnet wurde (z. B. während des Kodiervorgangs eines Stromes). Dieser Ansatz erfordert, daß die Einstiegs- und Ausstiegspunkte in irgendeiner Weise indiziert sind (z. B. N-tes Paket von einer Markierung, erstes Paket nach einer Tageszeit-Referenz und Ähnliches). Dieser Ansatz erfordert auch das Aktualisieren einer mit einem Informationsstrom verbundenen Schnittabelle, wenn der Informationsstrom verarbeitet wird, und die Übertragung oder erneute Erzeugung der Tabelle, wenn der Informationsstrom übertragen wird (z. B. über eine Satellitenverbindung). Man sollte beachten, daß die Verwendung von separaten Informationstabellen zum Bestimmen der Schneidepunkte innerhalb eines Servers oder einer Betriebsinsel praktikabel ist, wenngleich diese Verwendung von Tabellen weniger praktikabel ist, wenn Kodierung und Dekodierung für die Übertragung auf dem Strom durchgeführt werden sollen.
  • Drittens können Markierungen von Einstiegs- und Ausstiegspunkten direkt in den Informationsstrom plaziert werden. Ein MPEG-kompatibler Informationsstrom beinhaltet Header-Anteile, in denen eine solche Markierung enthalten sein kann. Es gibt Header-Anteile, die für das Einfügen von Einstiegs- und Ausstiegspunktmarkierungen auf Systemebene, auf Transportebene und auf PES-Ebene geeignet sind. Es gibt auch Möglichkeiten, Markierungen in die Elementarströme einzufügen.
  • Sowohl Einstiegs- als auch Ausstiegspunkte sollten markiert werden, und das Markieren sollte Idealerweise auf der System-, Transport- und PES-Ebene geschehen. Zusätzlich zum Einfügen von Einstiegs- und Ausstiegspunktmarkierungen sollten auch der mit dem Strom oder dem Schneidesegment verbundene Verzögerungsparameter und ein Audio-Offset (d. h. eine Verschiebung von Audio-Frame-Grenzen gegenüber zugehörigen Video-Frames) in eine oder mehrere Schichten des Informationsstroms eingefügt werden. Die MPEG-Rückwärtszählen- bzw. Countdown-Funktionalität sollte auch verwendet werden, um anzuzeigen, daß sich z. B. ein Ausstiegspunkt nähert (absteigend positiver Countdown) oder ein Einstiegspunkt übertragen wurde (ansteigend negativer Countdown). Aus verschiedenen geschäftlichen Gründen kann es wünschenswert sein, diese Markierungen vor dem Übertragen eines MPEG- oder ATSC-Signals an einen Endbenutzer (d. h. Verbraucher) zu entfernen. Während Endbenutzer das Video möglicherweise schneiden möchten, ist es wichtig, daß sie nicht in der Lage sind, Werbespots automatisch auszuschneiden.
  • Die oben beschriebene Redundanz beim Markieren bietet ein Maximum an Flexibilität für Systemdesigner und bietet eine Redundanz beim Betrieb, die sicherzustellen hilft, daß Schnittoperationen tatsächlich nahtlos vorgenommen werden (d. h. an geeigneten Einstiegs- und Ausstiegspunkten vorgenommen werden).
  • Bitstrom-Erzeugung
  • Um das Sicherstellen von nahtlosem Schneiden zu unterstützen, kann es notwendig sein, den zu schneidenden Bitstrom in einer bestimmten Weise zu erzeugen. Es gibt zwei Aspekte beim Erzeugen von Bitströmen, die aneinandergefügt werden können; die Erzeugung des Strominhalts und das Einfügen geeigneter Schnittsteuerungsinformation (d. h. Einstiegs- und Ausstiegspunktmarkierungen). Der Einfachheit halber wird angenommen, daß ein gewünschter Wert des Verzögerungsparameters im Voraus bekannt ist. Darüberhinaus sind auch andere Zielgrößen, etwa wie häufig Einstiegspunkte gewünscht sind, bekannt.
  • Im einfachsten Fall, dem Kodieren aller I-Frames in einem Format mit geringer Verzögerung, wird die Erzeugung des Bitstromes eine Sache der Ratensteuerung. Für jeden Frame gibt es eine nicht zu überschreitende Bitzahl. Die Aufgabe der Ratensteuerung ist es, jeden Frame mit der bestmöglichen Qualität innerhalb der vorgegebenen Bitgrenze zu kodieren.
  • Die vorgegebene Bitgrenze pro Frame wird als die Übertragungsbitrate geteilt durch die Frame-Rate berechnet.
  • Bei komplexer GOP-Kodierung kann eine Vorwärtsanalyse des erzeugten Stromes vorgenommen werden. Die Zuweisung von Bits über Frames hinweg muß vorgenommen werden, um sicherzustellen, daß ein Dekodierpuffer nicht leerläuft. Eine erste Randbedingung, die auf den zu erzeugenden Strom angewandt wird, ist das Definieren eines Schneidesegments als eine feste GOP-Struktur (z. B. 13 Frames, die in der folgenden Anzeigereihenfolge angeordnet sind: „...IBBPBBPBBPBBP..."). Dieser Ansatz ist einfach auf Kosten unnötig verschlechterter Bildqualität. Zum Beispiel würde eine Szene, die beim letzten P-Frame eines „...IBBPBBPBBPBBP..."-GOP geschnitten ist, mit einer sehr kleinen Bitobergrenze wiedergegeben. Unglücklicherweise gibt es keine einzelne GOP-Struktur, die für alle Anwendungen ideal ist. Außerdem ist der mit diesem Ansatz einhergehende Verlust an Flexibilität wahrscheinlich nicht akzeptabel.
  • Eine zweite Randbedingung, die auf komplexe GOP-Kodierung angewendet werden kann, ist das Einfügen von Einstiegspunkten und Ausstiegspunkten in zuvor festgelegten Zeitintervallen (z. B. 2 bzw. 0,5 Sekunden). Dieser Ansatz erfordert keine Verwendung einer speziellen GOP-Struktur, daher steht es dem Dekodierer frei, Frame-Typen basierend auf den Eingabebildern auszuwählen.
  • Es gibt verschiedene zu lösende Ratensteuerungsproblempunkte, wenn zwischen MPEG-Strömen oder Schneidesegmenten umgeschaltet wird. Als solches kann es notwendig sein, den Inhalt oder die Größe z. B. von kodierten Bildbitströmen einzuschränken. Ein Ratensteuerungsproblem bezieht sich auf die Menge von Daten, die an einen Dekodierpuffer übertragen wird. Zum Beispiel wird der Dekodierpuffer nicht überlaufen, wenn der Pufferinhalt (gemessen in Bits) an jedem Ausstiegspunkt kleiner oder gleich dem Dekodierpufferinhalt (gemessen in Bits), gemessen an dem jüngsten Einstiegspunkt, ist. Es ist nicht nötig, die tatsächliche Anzahl von Bits zu kennen, es ist nur notwendig sicherzustellen, daß die Anzahl von Bits in dem Dekodierpuffer von Einstiegspunkt zu Ausstiegspunkt nicht ansteigt. Man muß beachten, daß sogenannte „Stopfbits" nicht gezählt werden, da diese Bits nur eingefügt werden, um die spezifizierten Übertragungsraten zu erfüllen und aus dem Puffer verschwinden, wenn die echten Bits verwendet werden (d. h. Stopfbits sammeln sich nicht im Puffer an).
  • Ein anderes Ratensteuerungsproblem bezieht sich auf den Darstellungszeitpunkt der dekodierten Informations-Frames, bezogen auf den Zeitpunkt, zu dem der Puffer den nächsten Frame empfängt. Zum Beispiel läuft der Dekodierpuffer nicht leer, wenn an einem Ausstiegspunkt der Zeitpunkt (gemessen in Zeiteinheiten) zum Darstellen des noch nicht dargestellten Pufferinhalts größer als der Zeitpunkt (gemessen in Zeiteinheiten) ist, zu dem der erste I-Frame bei der spezifizierten Bitrate an den Dekodierer zu liefern ist. Mit anderen Worten muß der nächste I-Frame (der erste Frame des Zu-Stroms) an den Dekodierpuffer geliefert sein, bevor der Puffer geleert ist.
  • Das oben beschriebene Zeitmaß kann am „Verzögerungsparameter" für den Strom definiert werden. Die Frame-Größen (gemessen in Zeit zum Übertragen der Frames bei der Betriebsbitrate) muß zu den betrieblichen Verzögerungsparametern konsistent sein, um nahtloses Aneinanderfügen sicherzustellen. Die Verzögerungsparameter sind die VBV-Größe von einem Ende zum anderen (gemessen in Zeit) und der VBV-Inhalt (gemessen in Zeit) zum Beginn/am Ende eines Stroms. Ein zusätzlicher, global definierter Wert ist die maximale Größe des physikalischen Puffers (in Bits). Die maximale Größe muß größer sein als die maximale VBV-Größe, die von dem MPEG-Profil und den Stufenanzeigekriterien impliziert wird. Schließlich sollte der Dekodierzeitstempel an einem Ausstiegspunkt aus einem Von-Strom um eine Framezeit des Stroms größer sein als der DTS und PTS des letzten Frames des Von-Stroms.
  • Wie zuvor erwähnt ist es wichtig, zwischen einer Schnittentscheidung und dem tatsächlichen Vorgang des Aneinanderfügens zu unterscheiden. Eine Schnittentscheidung wird von irgendeinem Menschen getroffen. Die Entscheidung kann im Verlauf des Erstellens einer Programmliste, die von einem Fernsehstudio zu übertragen ist, oder in Echtzeit, während das Studio überträgt, getroffen werden. Die Schnittentscheidung kann von einem Ersatzprozeß, wie z. B. einem vorprogrammierten Kommando, eine Ansage der Stationskennung jeden Tag um 00.05 Uhr in die Übertragung des Studios einzufügen, getroffen werden. Die Entscheidung kann darin bestehen, zu einem bestimmten Zeitpunkt in der Zukunft oder sofort zu schneiden.
  • Einige Parameter der aneinanderzufügenden Ströme können zum Zeitpunkt der Entscheidung bekannt sein, auch wenn sich diese Parameter vor der tatsächlichen Schnittoperation ändern können. Zum Beispiel wird die Schnittentscheidung üblicherweise mit einer gewissen Kenntnis des Zu-Stroms wie der Länge des Stroms, des VBV-Verzögerungsparameters und Ähnlichem getroffen. Es ist möglich, daß der Von-Strom zum Zeitpunkt der Entscheidung unbekannt ist (z. B. die tägliche Nachricht wird in einen Strom eingefügt, welcher auch immer zum Zeitpunkt der Einfügung übertragen wird).
  • Ein Entscheidung enthält die folgenden Elemente. Als erstes die operationale Einheit, die als Quelle des Zu-Stroms dient, die operationale Einheit, die das Aneinanderfügen durchführt, und den Strom oder die Segmente, die aneinanderzufügen sind. Als zweites den Zeitpunkt, zu dem der Schnitt stattfinden soll. Der Zeitpunkt kann „jetzt" sein, eine bestimmte Zeit des Tages oder das Auftreten einer bestimmten logischen Bedingung. „Jetzt" bedeutet, nimm den nächsten Schnitt nach Eintreffen der Jetzt-Schneiden-Nachricht vor. Die Jetzt-Entscheidung kann aus einer direkten Aktion eines Menschen (z. B. Knopfdruck) oder irgendeinem externen Steuerungsprozeß entstehen, der sich entscheidet, eine Jetzt-Schneiden-Nachricht zu senden. Die logische Bedingung kann das Auftreten eines Time-Code (z. B. SMPTE) in einem bestimmten Informationsstrom, ein Zeitstempel (z. B. PTS oder DTS) in einem Video- oder Audioframe, eine Referenzzeit (z. B. PCR) in einem Informationsstrom oder ein anderes erkennbares Ereignis (z. B. eine Änderung der Eingabestrom-PID) sein. Die logischen Ereignisse können auf logische Art und Weise kombiniert werden, um einen Schnittzeitpunkt zu bestimmen und passende Ströme zum Aneinanderfügen auszuwählen.
  • Nachdem eine Entscheidung getroffen wurde, wird sie an die geeignete operationale Einheit kommuniziert. Da es die Möglichkeit von Fehlern gibt (z. B. aufgrund der Komplexität beim Kombinieren mehrerer logischer Ereignisse), ist es für die steuernde Einheit wichtig, den Schneidevorgang genau zu überwachen und an Fehlerbedingungen und andere Bedingungen anzupassen.
  • Ein Ergebnis der Entscheidung und Teil des Ausführens der Schneidearbeit ist der Vorgang sicherzustellen, daß der richtige Bitstrom auf die richtige Eingabe der operationalen Einheit zur richtigen Zeit angewandt wird. Dies ist eine Funktion des gesamten Systembetriebs und kann Synchronisation des Informationsflusses von einem Server zu einem Umschalter einbeziehen. Nach Erhalt der Schnittentscheidung nimmt die Schneidevorrichtung den Schnitt vor. Der Vorgang des nahtlosen Aneinanderfügens erfordert, daß in den Zu-Strom bei einem Einstiegspunkt hineingegangen wird und der Von-Strom an einem Ausstiegspunkt verlassen wird, und möglicherweise die Verwaltung eines oder mehrerer Puffer und Zeitsteuerungsparameter.
  • Anschauliche Beispiele von Video-Schnitten
  • Die oben beschriebenen Konzepte werden nun mittels einiger Beispiele von Operationen beim Schneiden von MPEG-Bitströmen veranschaulicht. Das erste Beispiel ist ein Beispiel eines Schnitts von lauter I-Frames mit niedriger Verzögerung. Ein Zu-Strom weist Videoströme mit entweder 24 oder 30 Frames (Einzelbilder) pro Sekunde (fps) auf, die nur I-Frames beinhalten. Der Verzögerungsparameter des Zu-Stroms ist gleich einer Frame-Dauer bei niedrigster Frame-Rate (d. h. 42 ms bei 24 fps). In diesem Beispiel beinhaltet jeder I-Frame weniger Bits, als in einer Einheit einer Anzeigedauer (d. h. eine 42 ms Frame-Dauer) bei der Bitrate für den Frame gesendet werden können. Wenn die Bitrate 150 Mb/s ist, beinhaltet ein 30fps-Frame nicht mehr als 5 Mb. Wenn die Bitrate 150 Mb/s ist, beinhaltet ein 24fps-Frame nicht mehr als 6,25 Mb.
  • Wenn das letzte Bit eines Von-Stroms mit denselben Parametern in einen Dekodierpuffer gelangt ist, hat der Darstellungszeitstempel, der angibt, wann der letzte Frame anzuzeigen ist, einen Wert von 42 ms in der Zukunft. Daher wird, wenn der Von-Strom bei 30Hz wäre (33 ms Frame-Rate), 9 ms nach dem Ausstiegspunkt der letzte Frame von dem Von-Strom aus dem Dekodierpuffer geholt und 33 ms später der erste Frame von dem Zu-Strom benötigt. Wenn der Zu-Strom auch 30 Hz ist, wird der erste Frame 9 ms, bevor er benötigt wird, angeliefert worden sein. Wenn der Von-Strom bei 24 Hz wäre und der Zu-Strom auch bei 24 Hz wäre, kommt der Zu-Strom-Frame gerade rechtzeitig an. Wenn der Von-Strom bei 60 Hz (17 ms) wäre, dann enthält der Dekodierpuffer 2 Frames (33 ms), wenn das letzte Bit des Von-Stroms geliefert wird, und der Dekodieren verwendet den ersten von ihnen für 9 mS nicht. Wenn die Bitraten der Von- und Zu-Sequenzen differieren, bleibt die Zeit zum Laden von Frames korrekt, solange die Bits mit einer Rate, die der Bitrate der Sequenz entsprechen, angeliefert werden. Um es zusammenzufassen, die Ströme werden mit einem Bitzähler zwischen dem Einstiegspunkt und den folgenden Ausstiegspunkten, die aus der Bitrate und der Frame-Dauer (d. h. Bitrate * Frame-Dauer) berechnet werden, kodiert. Die Darstellungzeitstempel sind auf Werte gesetzt, die alle mit dem Verzögerungsparameter (d. h. der erste Frame wird um den Verzögerungsparameter nach der Ankunft des ersten Bits dargestellt) übereinstimmen.
  • Das zweite Beispiel ist ein komplexes GOP-Übertragungsformat. Für die Zwecke des zweiten Beispiels wird angenommen, daß der Strom ein Video- (und zugehöriger Audio-)Strom mit 30 Frames pro Sekunde ist, der einen Verzögerungsparameter von 250 ms, eine Anzeigereihenfolge von „...IBBPBBPBBPBBPBBP..." und eine Übertragungsreihenfolge von „...IPBBPBBPBBPBBPBB..." hat (wobei „I" einen I-Frame, „P" einen P-Frame und „B" einen B-Frame repräsentiert). Diese GOP-Struktur beinhaltet Einstiegspunkte an den I-Frames und Ausstiegspunkte an dem Frame unmittelbar vor den I-Frames. An jedem Ausstiegspunkt ist der mit dem letzten P-Frame verbundene PTS 250 ms in der Zukunft. Die Ratensteuerung stellt sicher, daß der Dekodierpuffer nicht bei dem 1-Frame leerläuft. Er muß weniger als 250 ms an Bits beinhalten. Die Randbedingung, gültiges MPEG zu sein, hat zur Folge, daß der auf den I-Frame folgende P-Frame auch nicht leerläuft. Es ist nicht erforderlich, daß der I-Frame die gesamten 250 ms nutzt. Wenn der I-Frame die gesamten 250 ms nutzt, muß der nächste P-Frame weniger als 33 ms nutzen (d. h., wenn der I-Frame 230 ms nutzt, könnte der nächste P-Frame, auch wenn das nicht nötig ist, 53 ms nutzen).
  • Das dritte Beispiel ist ein Beispiel mit mehreren Ausgaben. Für die Zwecke des dritten Beispiels wird angenommen, daß der Strom ein Video- (und zugehöriger Audio-)Strom mit 30 Frames pro Sekunde ist, der die folgende GOP-Struktur hat: „...IPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPPIPPPP..." Von dem Strom wird auch angenommen, daß er einen Verzögerungsparameter von 250 ms und eine Übertragungsbitrate von 20 Mb/s hat (d. h. 670 Kb pro Frame). Wenn ein 1-Frame 231 ms und ein P-Frame 20 ms braucht, dann ist der Inhalt des Dekodierpuffers auf ein Niveau unter dem Niveau an dem Einstiegspunkt zu dem Strom gesunken. Dies kann mittels einer Gleichung wie der folgenden berechnet werden: (231 + 20N) = 33·(N + 1)
  • Die obige Gleichung stellt die Zeit für die Biteintritte dar, beginnend mit den Daten eines 1-Frame, die 231 mS entsprechen, gefolgt von N P-Frames von 20 mS, die der Zeit für dieselben N + 1 Frames entsprechenden Bits gleichgesetzt werden, die aus den (N + 1) Puffer- Frames zu nehmen sind, wobei jeder 33 mS dauert. In diesem Beispiel kann jeder I-Frame ein Einstiegspunkt und alle P-Frames nach dem fünfzehnten P-Frame können Ausstiegspunkte sein.
  • Der Dekodierpuffer reagiert folgendermaßen. An einem Schnittpunkt beinhaltet der Puffer 7 Frames und ein Darstellungszeitstempel gibt an, daß der letzte Frame in 250 mS darzustellen ist. Die 7 Frames nutzen jeweils 20/33 der Bits/Frame-Quote (d. h. jeder P-Frame ist 400 Kb groß und der Puffer enthält 2,8 Mb). Über die nächsten 7 Frames kommt der I-Frame herein und vergrößert den Pufferinhalt. Da jeder I-Frame 670 Kb hinzufügt und jeder herausgenommene P-Frame 400 Kb entfernt, enthält der Puffer 4,7 Mb, nachdem sieben P-Frames herausgenommen wurden. Der 1-Frame wird dann dargestellt, wobei 4,6 Mb aus dem Puffer entfernt werden, und daher 100 Kb im Puffer verbleiben. Die Verzögerung in dem Puffer ist ungefähr Null. Jeder P-Frame fügt nun 400 Kb in 20 mS hinzu und je 33 ms werden 400 Kb verwendet. Daher steigt die Verzögerung im Puffer um 13 ms je Frame-Dauer an. Nach 15 Frames hat die in dem Puffer gespeicherte Verzögerung den Wert des Verzögerungsparameters erreicht. Zu diesem Zeitpunkt kann ein Schnitt zu einer anderen Sequenz vorgenommen werden, weil der Puffer in der Lage ist, einen I-Frame zu empfangen.
  • Obwohl verschiedene Ausführungsformen, die die Lehren der vorliegenden Erfindung berücksichtigen, hier im Detail gezeigt und beschrieben wurden, können sich Fachleute auf dem Gebiet leicht viele andere abgewandelte Ausführungsformen ersinnen, die immer noch diese Lehren beinhalten.
  • Schneiden von Zusatzdaten
  • Zusatzdaten sind in vielen MPEG-Strömen enthalten. Diese Daten liegen üblicherweise als zusammenhängende, nicht-unterbrechbare Ströme unbekannter Länge vor. Im Gegensatz dazu ist ein komprimierter Audio-Strom vergleichsweise gutartig und vorhersehbar. Der Zusatzdatenstrom kann mit einem entsprechenden Videostrom verbunden sein, der eine nun nicht spezifizierte Verzögerung hat.
  • Es gibt verschiedene Verfahren zum Behandeln von Zusatzdaten in einer Schneideoperation, einschließlich: 1) Sie zu ignorieren und die Zusatzdaten zum selben Zeitpunkt wie die Videodaten Schneiden; 2) Einfügen von Zusatzdaten über einen separaten Pfad z. B. in einen Umschalter auf Abspielen zum Senden (diese Daten können Programmhinweise oder andere Verbraucher-bezogene Information aufweisen) und 3) Definieren eines Satzes von Segmentierungsmarkierungen für Zusatzdaten und in Umschaltern sich darauf verlassen, um die Segmentierung korrekt zu halten (dies erfordert Kenntnis über den Inhalt der Zusatzdatenströme und die Länge der Zusatzdatensegmente innerhalb dieser Ströme). Die Zusatzdaten können auch mit oder ohne eine Verzögerung umgeschaltet werden, und die Verzögerung kann ein Parameter sein, der von einer eine Entscheidung treffenden Steuerung an den Umschalter übergeben wird. Die Zusatzdaten können über einen Zusatzdaten- bzw. Nebeneingang in die Schneidevorrichtung eingegeben werden. Eine Eingangsgröße, die an dem Zusatzdateneingang ankommt, kann gepuffert und in den Ausgabestrom als ein Ersatz für Null-Pakete eingefügt werden, falls Platz verfügbar ist. In diesem Fall steht es in der Verantwortung einer anderen Systemeinheit, solche Daten innerhalb von Strömen auszurichten und Kanalkapazität für eingefügte Zusatzdaten bereitzustellen, z. B. durch Verringern einer Videostrom-Datenrate.

Claims (10)

  1. Verfahren zum Aufspalten von Bitströmen, wobei die Bitströme eine Mehrzahl von Informationsabschnitten aufweisen, welche einer Folge von Informationsframes entsprechen und wobei das Verfahren die Schritte aufweist: Überwachen eines ersten Bitstromes (S6), um ein Austrittsindiz bzw. Austrittsmerkmal zu erfassen, wobei der erste Bitstrom (S6) mit einem Ausgang (S9) verbunden ist und zumindest ein solches Austrittsmerkmal enthält, wobei das Austrittsmerkmal ein Anzeichen für einen geeigneten letzten Informationsabschnitt eines Aufspaltabschnittes ist, Bereitstellen eines zweiten Bitstromes (S7), wobei der zweite Bitstrom (S7) zumindest ein Eintrittsmerkmal enthält, wobei das Eintrittsmerkmal ein Anzeichen für einen passenden ersten Informationsabschnitt eines Aufspaltabschnittes ist, und Reagieren auf ein Aufspaltentscheidungssignal durch: Entkoppeln des ersten Bitstromes von dem Ausgang an einem erfaßten Austrittsmerkmal, Verbinden des zweiten Bitstromes mit dem Ausgang an einem erfaßten Eintrittsmerkmal und Senden eines Aufspaltbestätigungssignals nach Abschluß der Aufspaltung.
  2. Verfahren nach Anspruch 1, welches weiterhin den Schritt aufweist: in Reaktion auf das erfaßte Eintrittsmerkmal in dem zweiten Bitstrom, Speichern des geeigneten ersten Informationssegmentes und einer Mehrzahl nachfolgender Informationssegmente, die zu dem erfaßten Eintrittsmerkmal gehören.
  3. Verfahren nach Anspruch 2, wobei der Schritt des Speicherns für jedes erfaßte Eintrittsmerkmal wiederholt wird, bis der zweite Bitstrom mit dem Ausgang verbunden ist.
  4. Verfahren nach Anspruch 1, wobei: das Aufspaltentscheidungssignal zumindest entweder einen gewünschten Zeitparameter, einen gewünschten Aufspaltqualitätsparameter oder einen Prioritätsparameter aufweist, und das Aufspaltbestätigungssignal zumindest einen aktuellen Zeitparameter oder einen aktuellen Aufspaltqualitätsparameter aufweist.
  5. Verfahren nach Anspruch 4, wobei der gewünschte Zeitparameter die gewünschte Zeit anzeigt, um den Verbindungsschritt auszuführen, der gewünschte Aufspaltqualitätsparameter ein Anzeichen für ein minimales Aufspaltqualitätsniveau ist, wobei das minimale Aufspaltqualitätsniveau geringer ist als oder gleich ist wie ein nahtloses Aufspaltqualitätsniveau, der aktuelle Zeitparameter eine Anzeige der Zeit ist, zu welcher der Verbindungsschritt ausgeführt wurde, und der aktuelle Zeitparameter eine Anzeige des Qualitätsniveaus eines Bitstromes ist, welcher während des Verbindungsschrittes erzeugt wurde.
  6. Verfahren nach Anspruch 1, wobei der Schritt des Reagierens weiterhin die Schritte aufweist: Vergleichen eines Verzögerungsparameters, der zu dem ersten Bitstrom gehört, mit einem Verzögerungsparameter, der zu dem zweiten Bitstrom gehört, und Verbinden des zweiten Bitstromes mit dem Ausgang in Reaktion darauf, daß die Verzögerungsparameter im wesentlichen gleich sind.
  7. Verfahren nach Anspruch 6, welches weiterhin den Schritt aufweist: Reaktion auf ein erfaßtes Eintrittsmerkmal in dem zweiten Bitstrom, Speichern des geeigneten ersten Informationssegmentes oder einer Mehrzahl nachfolgender Informationssegmente, die zu dem erfaßten Eintrittsmerkmal gehören, und wobei das Aufspaltentscheidungssignal zumindest einen Prioritätsparameter enthält und wobei der Schritt des Verbindens weiterhin die Schritte aufweist: Vergrößern oder Verkleinern eines Verzögerungsparameters, der zu dem gespeicherten Informationsstrom gehört, in Reaktion auf einen vorbestimmten Prioritätsparameter.
  8. Vorrichtung für das Aufspalten von Bitströmen, wobei die Bitströme eine Mehrzahl von Informationsabschnitten aufweisen, welche einer Folge von Informationsframes entsprechen, wobei die Vorrichtung aufweist: einen Monitor (130) zum Überwachen eines ersten Bitstromes (S6) zur Erfassung eines Austrittsmerkmals, wobei der erste Bitstrom mit einem Ausgang (S9) verbunden ist und zumindest ein solches Austrittsmerkmal enthält, wobei das Austrittsmerkmal ein Anzeichen für ein geeignetes letztes Informationssegment eines Aufspaltsegmentes ist, eine Bitstromquelle (120) zum Bereitstellen eines zweiten Bitstromes (S7), welcher zumindest ein Eintrittsmerkmal enthält, wobei das Eintrittsmerkmal ein Anzeichen für ein geeignetes erstes Informationssegment eines Aufspaltsegmentes ist, einen Aufspalter (300) für das Abkoppeln des ersten Bitstromes (S6) von einem Ausgang (S9) in Reaktion auf ein Aufspaltentscheidungssignal an einem erfaßten Austrittsmerkmal, und Verbinden des zweiten Bitstromes (S7) mit dem Ausgang (S9) an einem erfaßten Eintrittsmerkmal, wobei der Aufspalter (300) nach Abschluß der Aufspaltung ein Aufspaltbestätigungssignal sendet.
  9. Vorrichtung nach Anspruch 8, wobei der zweite Bitstrom (S7) ein gepufferter Bitstrom (S7) ist und wobei die Vorrichtung einen Puffer für das Empfangen eines Bitstromes und das Erzeugen des gepufterten Bitstromes (S7) aufweist.
  10. Vorrichtung nach Anspruch 9, wobei der Aufspalter (300) aufweist: einen Schalter (350) für das Verbinden entweder des gepufferten Bitstromes (S7) oder des ersten Bitstromes (S6) mit dem Ausgang (S9), und eine Schaltsteuerung (340), welche mit dem Schalter (350) verbunden ist, um den ersten Bitstrom zu empfangen und um in Reaktion auf das Aufspaltentscheidungssignal und die Erfassung eines Austrittmerkmals in dem ersten Bitstrom zu bewirken, daß der Schalter den ersten Bitstrom von dem Ausgang abkoppelt und den gepufferten Informationsstrom mit dem Ausgang verbindet.
DE69736706T 1996-05-29 1997-05-29 Verfahren und gerät zum spleissen komprimierter datenflüsse Expired - Lifetime DE69736706T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US1855496P 1996-05-29 1996-05-29
US18554P 1996-05-29
US08/864,322 US6137834A (en) 1996-05-29 1997-05-28 Method and apparatus for splicing compressed information streams
US864322 1997-05-28
PCT/US1997/009345 WO1997045965A1 (en) 1996-05-29 1997-05-29 Method and apparatus for splicing compressed information streams

Publications (2)

Publication Number Publication Date
DE69736706D1 DE69736706D1 (de) 2006-11-02
DE69736706T2 true DE69736706T2 (de) 2007-09-13

Family

ID=26691246

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69736706T Expired - Lifetime DE69736706T2 (de) 1996-05-29 1997-05-29 Verfahren und gerät zum spleissen komprimierter datenflüsse

Country Status (6)

Country Link
US (1) US6137834A (de)
EP (1) EP0901718B1 (de)
JP (1) JP4358910B2 (de)
CA (1) CA2257155C (de)
DE (1) DE69736706T2 (de)
WO (1) WO1997045965A1 (de)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020129374A1 (en) * 1991-11-25 2002-09-12 Michael J. Freeman Compressed digital-data seamless video switching system
US6405255B1 (en) * 1996-07-01 2002-06-11 Sun Microsystems, Inc. Mixing and splitting multiple independent audio data streams in kernel space
US7448062B1 (en) * 1996-10-18 2008-11-04 Microsoft Corporation Seamless playback of multiple clips of media data across a data network
US6806909B1 (en) * 1997-03-03 2004-10-19 Koninklijke Philips Electronics N.V. Seamless splicing of MPEG-2 multimedia data streams
US20020154694A1 (en) * 1997-03-21 2002-10-24 Christopher H. Birch Bit stream splicer with variable-rate output
US6654933B1 (en) 1999-09-21 2003-11-25 Kasenna, Inc. System and method for media stream indexing
CN1234945A (zh) * 1997-05-27 1999-11-10 皇家菲利浦电子有限公司 转换视频序列的方法和相应的转换装置和解码系统
GB2327548B (en) * 1997-07-18 2002-05-01 British Broadcasting Corp Switching compressed video bitstreams
KR100604631B1 (ko) * 1997-07-25 2006-07-28 소니 가부시끼 가이샤 편집 장치, 편집 방법, 재부호화 장치, 재부호화 방법,스플라이싱 장치 및 스플라이싱 방법
JP2001517040A (ja) * 1997-09-12 2001-10-02 イメディア コーポレイション 圧縮ビデオプログラムのシームレススプライシング
US6965804B1 (en) * 1997-09-24 2005-11-15 Sony Corporation Buffer management system for digital audio
JP3305999B2 (ja) * 1997-12-26 2002-07-24 日本ビクター株式会社 画像圧縮ストリーム編集装置及びその方法
JP4232209B2 (ja) * 1998-01-19 2009-03-04 ソニー株式会社 圧縮画像データの編集装置及び圧縮画像データの編集方法
EP0982726A4 (de) * 1998-01-19 2003-06-04 Sony Corp Schnittsystem, schnittsteuervorrichtung und schnittsteuerverfahren
US6414998B1 (en) * 1998-01-27 2002-07-02 Sony Corporation Method and apparatus for inserting an image material
US6487721B1 (en) * 1998-01-30 2002-11-26 General Instrument Corporation Apparatus and method for digital advertisement insertion in a bitstream
DE69943190D1 (de) * 1998-03-02 2011-03-31 Panasonic Corp Verfahren und Vorrichtung zur Fernladung eines gewünschten Teils eines kontinuierlichen Mediums mit erhöhter Genauigkeit
JPH11261958A (ja) * 1998-03-09 1999-09-24 Sony Corp 映像編集装置及び映像編集方法
US7031348B1 (en) * 1998-04-04 2006-04-18 Optibase, Ltd. Apparatus and method of splicing digital video streams
GB2352367A (en) * 1998-04-15 2001-01-24 Intel Corp Method and apparatus for interleaving a data stream
US8813137B2 (en) * 1998-05-08 2014-08-19 Qualcomm Incorporated Apparatus and method for decoding digital image and audio signals
US6785289B1 (en) * 1998-06-05 2004-08-31 Sarnoff Corporation Method and apparatus for aligning sub-stream splice points in an information stream
CA2273762A1 (en) * 1998-06-26 1999-12-26 Sarnoff Corporation Information distribution system exhibiting demographic affinity
AU4944699A (en) * 1998-06-29 2000-01-17 Limt Technology Ab Method and apparatus for splicing data streams
CA2343733A1 (en) * 1998-09-16 2000-03-23 Actv, Inc. Compressed digital-data seamless video switching system
US6912251B1 (en) * 1998-09-25 2005-06-28 Sarnoff Corporation Frame-accurate seamless splicing of information streams
GB9822087D0 (en) * 1998-10-09 1998-12-02 Snell & Wilcox Ltd Improvements in data compression
FR2784844B1 (fr) * 1998-10-14 2002-03-29 France Telecom Procede de basculement de la ou des composantes video d'un premier programme audiovisuel numerique sur la ou les composantes d'un second programme audiovisuel numerique
JP2000165802A (ja) * 1998-11-25 2000-06-16 Matsushita Electric Ind Co Ltd ストリーム編集装置と編集方法
US6704930B1 (en) * 1999-04-20 2004-03-09 Expanse Networks, Inc. Advertisement insertion techniques for digital video streams
US7068724B1 (en) * 1999-10-20 2006-06-27 Prime Research Alliance E., Inc. Method and apparatus for inserting digital media advertisements into statistical multiplexed streams
US20020087973A1 (en) * 2000-12-28 2002-07-04 Hamilton Jeffrey S. Inserting local signals during MPEG channel changes
US6298089B1 (en) * 1998-12-10 2001-10-02 Viewgraphics, Inc. Method for seamless and near seamless audio and non-video splicing of a digital transport stream
KR100657237B1 (ko) * 1998-12-16 2006-12-18 삼성전자주식회사 데이터열간의 연속 재생을 보장하기 위한 부가 정보 생성 방법
US6226608B1 (en) 1999-01-28 2001-05-01 Dolby Laboratories Licensing Corporation Data framing for adaptive-block-length coding system
US6377996B1 (en) * 1999-02-18 2002-04-23 International Business Machines Corporation System for seamless streaming of data stored on a network of distributed primary and target servers using segmentation information exchanged among all servers during streaming
GB2347812A (en) * 1999-03-08 2000-09-13 Nds Ltd Real time splicing of video signals
US8065708B1 (en) * 1999-03-31 2011-11-22 Cox Communications, Inc. Method for reducing latency in an interactive information distribution system
CA2366549C (en) * 1999-04-14 2015-09-08 Sarnoff Corporation Method for generating and processing transition streams
US6909743B1 (en) * 1999-04-14 2005-06-21 Sarnoff Corporation Method for generating and processing transition streams
DE60039861D1 (de) * 1999-04-20 2008-09-25 Samsung Electronics Co Ltd Werbeverwaltungssystem für digitale videoströme
US6330286B1 (en) * 1999-06-09 2001-12-11 Sarnoff Corporation Flow control, latency control, and bitrate conversions in a timing correction and frame synchronization apparatus
US20060093045A1 (en) * 1999-06-29 2006-05-04 Roger Anderson Method and apparatus for splicing
US7254175B2 (en) * 1999-07-02 2007-08-07 Crystalmedia Technology, Inc. Frame-accurate seamless splicing of information streams
US6993081B1 (en) * 1999-11-23 2006-01-31 International Business Machines Corporation Seamless splicing/spot-insertion for MPEG-2 digital video/audio stream
US6985589B2 (en) * 1999-12-02 2006-01-10 Qualcomm Incorporated Apparatus and method for encoding and storage of digital image and audio signals
US6763390B1 (en) * 2000-01-24 2004-07-13 Ati Technologies, Inc. Method and system for receiving and framing packetized data
US6999424B1 (en) * 2000-01-24 2006-02-14 Ati Technologies, Inc. Method for displaying data
US6885680B1 (en) 2000-01-24 2005-04-26 Ati International Srl Method for synchronizing to a data stream
US7366961B1 (en) 2000-01-24 2008-04-29 Ati Technologies, Inc. Method and system for handling errors
US6988238B1 (en) 2000-01-24 2006-01-17 Ati Technologies, Inc. Method and system for handling errors and a system for receiving packet stream data
US7174084B2 (en) * 2000-03-14 2007-02-06 Sedna Patent Services, Llc Method and apparatus for performing sub-picture level splicing based on interrupts
US8006261B1 (en) 2000-04-07 2011-08-23 Visible World, Inc. System and method for personalized message creation and delivery
US7900227B2 (en) 2000-04-07 2011-03-01 Visible World, Inc. Systems and methods for managing and distributing media content
US7917924B2 (en) 2000-04-07 2011-03-29 Visible World, Inc. Systems and methods for semantic editorial control and video/audio editing
US7904922B1 (en) 2000-04-07 2011-03-08 Visible World, Inc. Template creation and editing for a message campaign
US7870578B2 (en) 2000-04-07 2011-01-11 Visible World, Inc. Systems and methods for managing and distributing media content
US7870577B2 (en) 2000-04-07 2011-01-11 Visible World, Inc. Systems and methods for semantic editorial control and video/audio editing
US7895620B2 (en) 2000-04-07 2011-02-22 Visible World, Inc. Systems and methods for managing and distributing media content
US7861261B2 (en) 2000-04-07 2010-12-28 Visible World, Inc. Systems and methods for managing and distributing media content
US7870579B2 (en) 2000-04-07 2011-01-11 Visible Worl, Inc. Systems and methods for managing and distributing media content
US8572646B2 (en) 2000-04-07 2013-10-29 Visible World Inc. System and method for simultaneous broadcast for personalized messages
US7890971B2 (en) 2000-04-07 2011-02-15 Visible World, Inc. Systems and methods for managing and distributing media content
US20040148625A1 (en) * 2000-04-20 2004-07-29 Eldering Charles A Advertisement management system for digital video streams
JP4734690B2 (ja) * 2000-04-28 2011-07-27 ソニー株式会社 信号送出方法及び信号送出装置
US7113546B1 (en) 2000-05-02 2006-09-26 Ati Technologies, Inc. System for handling compressed video data and method thereof
JP2004505513A (ja) * 2000-07-25 2004-02-19 エイジルビジョン・エル・エル・シー ネットワークフィードの固定タイムスロットに圧縮されたローカルビデオセグメントをスプライシングすること
US7277956B2 (en) 2000-07-28 2007-10-02 Kasenna, Inc. System and method for improved utilization of bandwidth in a computer system serving multiple users
US7310678B2 (en) * 2000-07-28 2007-12-18 Kasenna, Inc. System, server, and method for variable bit rate multimedia streaming
US7490344B2 (en) 2000-09-29 2009-02-10 Visible World, Inc. System and method for seamless switching
US7346698B2 (en) * 2000-12-20 2008-03-18 G. W. Hannaway & Associates Webcasting method and system for time-based synchronization of multiple, independent media streams
US6765963B2 (en) * 2001-01-03 2004-07-20 Nokia Corporation Video decoder architecture and method for using same
US20020122491A1 (en) * 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
JP2004533738A (ja) 2001-03-02 2004-11-04 カセンナ インコーポレイテッド ネットワークにわたって低レイテンシで効率的にビデオコンテンツを配給するためのメタデータイネーブル型プッシュ−プルモデル
US7068719B2 (en) * 2001-06-01 2006-06-27 General Instrument Corporation Splicing of digital video transport streams
AU2002327217A1 (en) 2001-07-09 2003-01-29 Visible World, Inc. System and method for seamless switching of compressed audio streams
CN1269363C (zh) 2001-07-27 2006-08-09 松下电器产业株式会社 数字广播系统、同步信息替换装置和方法
US7117439B2 (en) * 2001-10-19 2006-10-03 Microsoft Corporation Advertising using a combination of video and banner advertisements
US20030079226A1 (en) * 2001-10-19 2003-04-24 Barrett Peter T. Video segment targeting using remotely issued instructions and localized state and behavior information
JP2003204482A (ja) * 2001-10-22 2003-07-18 Matsushita Electric Ind Co Ltd 放送装置
US7376159B1 (en) * 2002-01-03 2008-05-20 The Directv Group, Inc. Exploitation of null packets in packetized digital television systems
US7693220B2 (en) * 2002-01-03 2010-04-06 Nokia Corporation Transmission of video information
US8843990B1 (en) 2002-04-25 2014-09-23 Visible World, Inc. System and method for optimized channel switching in digital television broadcasting
US20030202576A1 (en) * 2002-04-29 2003-10-30 The Boeing Company Method and apparatus for decompressing and multiplexing multiple video streams in real-time
US20030206596A1 (en) * 2002-05-03 2003-11-06 David Carver Multimedia content assembly
US7286473B1 (en) 2002-07-10 2007-10-23 The Directv Group, Inc. Null packet replacement with bi-level scheduling
US7325070B1 (en) * 2002-08-26 2008-01-29 Network Appliance, Inc. Sub-application layer data transfer in a network comprising a layered architecture
AU2003270459A1 (en) 2002-09-06 2004-03-29 Visible World, Inc. System for authoring and editing personalized message campaigns
US7840119B2 (en) * 2002-09-25 2010-11-23 General Instrument Corporation Methods and apparatus for processing progressive I-slice refreshed MPEG data streams to enable trick play mode features on a display device
US7142645B2 (en) * 2002-10-04 2006-11-28 Frederick Lowe System and method for generating and distributing personalized media
US7123696B2 (en) * 2002-10-04 2006-10-17 Frederick Lowe Method and apparatus for generating and distributing personalized media clips
US7647221B2 (en) * 2003-04-30 2010-01-12 The Directv Group, Inc. Audio level control for compressed audio
US9456243B1 (en) 2003-06-06 2016-09-27 Arris Enterprises, Inc. Methods and apparatus for processing time-based content
US7843489B2 (en) * 2003-08-12 2010-11-30 General Instrument Corporation Maintaining continuous film mode with bad edits
US7912226B1 (en) 2003-09-12 2011-03-22 The Directv Group, Inc. Automatic measurement of audio presence and level by direct processing of an MPEG data stream
US8170096B1 (en) 2003-11-18 2012-05-01 Visible World, Inc. System and method for optimized encoding and transmission of a plurality of substantially similar video fragments
US9087126B2 (en) 2004-04-07 2015-07-21 Visible World, Inc. System and method for enhanced video selection using an on-screen remote
US9396212B2 (en) 2004-04-07 2016-07-19 Visible World, Inc. System and method for enhanced video selection
US8132204B2 (en) 2004-04-07 2012-03-06 Visible World, Inc. System and method for enhanced video selection and categorization using metadata
US7502368B2 (en) * 2004-04-08 2009-03-10 John Sanders Method and apparatus for switching a source of an audiovisual program configured for distribution among user terminals
US9060200B1 (en) * 2004-08-11 2015-06-16 Visible World, Inc. System and method for digital program insertion in cable systems
WO2006022221A1 (ja) * 2004-08-25 2006-03-02 Sony Corporation 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US20060075449A1 (en) * 2004-09-24 2006-04-06 Cisco Technology, Inc. Distributed architecture for digital program insertion in video streams delivered over packet networks
US7870590B2 (en) * 2004-10-20 2011-01-11 Cisco Technology, Inc. System and method for fast start-up of live multicast streams transmitted over a packet network
KR101180612B1 (ko) * 2004-11-08 2012-09-06 소니 주식회사 정보 처리 시스템 및 정보 처리 장치
US8615038B2 (en) * 2004-12-06 2013-12-24 Nokia Corporation Video coding, decoding and hypothetical reference decoder
US20060136556A1 (en) * 2004-12-17 2006-06-22 Eclips, Llc Systems and methods for personalizing audio data
FI20041689A0 (fi) * 2004-12-30 2004-12-30 Nokia Corp Mediavirran merkintä ja/tai jakaminen solukkoverkon päätteessä
US9357175B2 (en) * 2005-11-01 2016-05-31 Arris Enterprises, Inc. Generating ad insertion metadata at program file load time
US7680047B2 (en) * 2005-11-22 2010-03-16 Cisco Technology, Inc. Maximum transmission unit tuning mechanism for a real-time transport protocol stream
US7793329B2 (en) 2006-02-06 2010-09-07 Kasenna, Inc. Method and system for reducing switching delays between digital video feeds using multicast slotted transmission technique
US7965771B2 (en) 2006-02-27 2011-06-21 Cisco Technology, Inc. Method and apparatus for immediate display of multicast IPTV over a bandwidth constrained network
US8218654B2 (en) 2006-03-08 2012-07-10 Cisco Technology, Inc. Method for reducing channel change startup delays for multicast digital video streams
US7694002B2 (en) * 2006-04-07 2010-04-06 Cisco Technology, Inc. System and method for dynamically upgrading / downgrading a conference session
US20070263824A1 (en) * 2006-04-18 2007-11-15 Cisco Technology, Inc. Network resource optimization in a video conference
WO2007127166A2 (en) 2006-04-24 2007-11-08 Visible World Inc. Systems and methods for generating media content using microtrends
US8326927B2 (en) * 2006-05-23 2012-12-04 Cisco Technology, Inc. Method and apparatus for inviting non-rich media endpoints to join a conference sidebar session
US8358763B2 (en) * 2006-08-21 2013-01-22 Cisco Technology, Inc. Camping on a conference or telephony port
JP4221676B2 (ja) * 2006-09-05 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US8031701B2 (en) 2006-09-11 2011-10-04 Cisco Technology, Inc. Retransmission-based stream repair and stream join
US7847815B2 (en) * 2006-10-11 2010-12-07 Cisco Technology, Inc. Interaction based on facial recognition of conference participants
US20090180546A1 (en) * 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US7693190B2 (en) * 2006-11-22 2010-04-06 Cisco Technology, Inc. Lip synchronization for audio/video transmissions over a network
US8121277B2 (en) * 2006-12-12 2012-02-21 Cisco Technology, Inc. Catch-up playback in a conferencing system
US8769591B2 (en) 2007-02-12 2014-07-01 Cisco Technology, Inc. Fast channel change on a bandwidth constrained network
US20080253369A1 (en) 2007-04-16 2008-10-16 Cisco Technology, Inc. Monitoring and correcting upstream packet loss
US20090031037A1 (en) * 2007-04-30 2009-01-29 Ando Media, Llc Method of streaming media and inserting additional content therein using buffering
KR101391600B1 (ko) * 2007-08-07 2014-05-07 삼성전자주식회사 어댑티브 녹화 방법 및 장치
US8289362B2 (en) * 2007-09-26 2012-10-16 Cisco Technology, Inc. Audio directionality control for a multi-display switched video conferencing system
EP2213097A2 (de) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Übermittlung von verkettungseigenschaften und bildgeordnetheit in einem videostrom
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
US8966103B2 (en) * 2007-12-21 2015-02-24 General Instrument Corporation Methods and system for processing time-based content
US8787153B2 (en) 2008-02-10 2014-07-22 Cisco Technology, Inc. Forward error correction based data recovery with path diversity
US8510661B2 (en) * 2008-02-11 2013-08-13 Goldspot Media End to end response enabling collection and use of customer viewing preferences statistics
US8701051B2 (en) 2008-02-11 2014-04-15 Goldspot Media, Inc. Hot spot use in advertising
US9189794B2 (en) 2008-02-11 2015-11-17 Goldspot Media, Inc. Method and apparatus for maximizing brand exposure in a minimal mobile display
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8613013B2 (en) * 2008-06-12 2013-12-17 Cisco Technology, Inc. Ad splicing using re-quantization variants
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
KR101537701B1 (ko) * 2009-02-19 2015-07-20 엘지전자 주식회사 영상표시장치 및 영상표시장치의 스트리밍 서비스 제공방법
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US20110317774A1 (en) * 2010-06-24 2011-12-29 Worldplay (Barbados) Inc. Systems and methods for controlling the transmission of independent but temporally related elementary video streams
US8928809B2 (en) * 2010-09-15 2015-01-06 Verizon Patent And Licensing Inc. Synchronizing videos
US20120254915A1 (en) * 2011-03-30 2012-10-04 Google Inc. Transition from locally stored video data to broadcast feed
US20120281704A1 (en) * 2011-05-02 2012-11-08 Butterworth Ashley I Methods and apparatus for isochronous data delivery within a network
US9729120B1 (en) 2011-07-13 2017-08-08 The Directv Group, Inc. System and method to monitor audio loudness and provide audio automatic gain control
US9015555B2 (en) 2011-11-18 2015-04-21 Cisco Technology, Inc. System and method for multicast error recovery using sampled feedback
EP2876890A1 (de) * 2013-11-21 2015-05-27 Thomson Licensing Verfahren und Vorrichtung zur bildrahmengenauen Synchronisation von Video-Streams
GB2525590A (en) * 2014-04-23 2015-11-04 Starfish Technologies Ltd Digital media splicing system and method
CN107112024B (zh) * 2014-10-24 2020-07-14 杜比国际公司 音频信号的编码和解码
JP2017028463A (ja) * 2015-07-21 2017-02-02 ソニー株式会社 送信装置、および送信方法、受信装置、および受信方法、並びにプログラム
US10218986B2 (en) * 2016-09-26 2019-02-26 Google Llc Frame accurate splicing
EP3451673A1 (de) * 2017-08-30 2019-03-06 Rohde & Schwarz GmbH & Co. KG Video-spleissung zum einfügen von regionalem inhalt in einen komprimierten digitalen videostrom
US20210352341A1 (en) * 2020-05-06 2021-11-11 At&T Intellectual Property I, L.P. Scene cut-based time alignment of video streams

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5138440A (en) * 1990-10-29 1992-08-11 General Instrument Corporation Method and apparatus for communicating a plurality of asynchronous signals over a digital communication path
FR2678121B1 (fr) * 1991-06-18 1994-04-29 Matra Communication Dispositif d'insertion de paquets numeriques dans un canal de transmission.
JP3042102B2 (ja) * 1991-11-22 2000-05-15 日本電気株式会社 多重化送信装置
US5289276A (en) * 1992-06-19 1994-02-22 General Electric Company Method and apparatus for conveying compressed video data over a noisy communication channel
KR0121301B1 (ko) * 1992-09-30 1997-11-17 사또오 후미오 편집신호 디코딩 장치
JP2906361B2 (ja) * 1993-09-01 1999-06-21 富士通株式会社 多重化制御方式
JPH07212766A (ja) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd 動画像圧縮データ切り換え装置
US5579183A (en) * 1994-04-08 1996-11-26 U.S. Philips Corporation Recording and reproducing an MPEG information signal on/from a record carrier
US5548532A (en) * 1994-04-28 1996-08-20 Thomson Consumer Electronics, Inc. Apparatus and method for formulating an interactive TV signal
US5534944A (en) * 1994-07-15 1996-07-09 Matsushita Electric Corporation Of America Method of splicing MPEG encoded video
US5479398A (en) * 1994-12-22 1995-12-26 At&T Corp Digital data concentrator

Also Published As

Publication number Publication date
JP2002503402A (ja) 2002-01-29
CA2257155C (en) 2005-02-22
WO1997045965A1 (en) 1997-12-04
EP0901718A4 (de) 1999-08-11
EP0901718B1 (de) 2006-09-20
CA2257155A1 (en) 1997-12-04
US6137834A (en) 2000-10-24
DE69736706D1 (de) 2006-11-02
JP4358910B2 (ja) 2009-11-04
EP0901718A1 (de) 1999-03-17

Similar Documents

Publication Publication Date Title
DE69736706T2 (de) Verfahren und gerät zum spleissen komprimierter datenflüsse
DE69825526T2 (de) Korrektur der vorgegebenen Zeit
DE69731865T2 (de) Verfahren zur Verbindung von komprimierten paketierten digitalen Videoströmen
DE69814642T2 (de) Verarbeitung codierter videodaten
DE69637127T2 (de) Verfahren und Vorrichtung zum rastergenauen Zugriff auf digitale audiovisuelle Information
DE69929989T2 (de) Videokomponentanbindungsverfahren für zwei digitale bildtonprogramme mit duplikation von halbbildern
DE69838869T2 (de) Vorrichtung und Verfahren zum Spleißen von codierten Datenströmen sowie Vorrichtung und Verfahren zur Erzeugung von codierten Datenströmen
DE60310514T2 (de) Verfahren und Vorrichtung zur Synchronisation der Wiedergabe von Audio- und/oder Video-Frames
US6038000A (en) Information stream syntax for indicating the presence of a splice point
DE60104013T2 (de) Transkodierung von progressiv-kodierten i-slice-aufgefrischten mpeg datenströmen für trickmodi
DE69919714T2 (de) Verfahren und vorrichtung zur verbindung von programmen
DE69722556T2 (de) Synchronisierung einer stereoskopischen Videosequenz
DE69732281T2 (de) Puffergrösse minimierendes Verfahren zur Übertragung komprimierter Bilddaten
DE69830752T2 (de) Verfahren und Anlage zur Aufnahme vielfachprotokoll-komprimierter Ton- und Videodaten
DE69934095T2 (de) Vorrichtung und verfahren zum einfügen digitaler werbung in einen bitstrom
DE69534750T2 (de) Umwandlungssystem für MPEG-Informationssignale
DE60217169T2 (de) Verbesserungen in fernsehsignalempfängern
JP4503858B2 (ja) 遷移ストリームの生成/処理方法
DE60301395T2 (de) Rundfunkaufnahmesystem, aufnahmegerät, rundfunkgerät, und aufnahmeprogramm zum sparen von speicherplatz auf einem aufnahmemedium das zur inhaltsaufnahme benutzt wird
DE69629921T2 (de) Trickwiedergabesteuerung für vorkodiertes video
DE69835211T2 (de) Umschaltung zwischen komprimierten videobitströmen
DE19860507B4 (de) Videocodierverfahren, Videodecoder und digitales Fernsehsystem unter Verwendung eines solchen Verfahrens und eines solchen Decoders
KR20020001828A (ko) 전이 스트림 발생 및 처리를 위한 방법
US20170048564A1 (en) Digital media splicing system and method
DE60103510T2 (de) Verfahren und vorrichtung zur gleichzeitigen aufnahme und wiedergabe von zwei verschiedenen videoprogrammen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition