DE60021443T2 - Verwaltungssystem und -verfahren für audiovisuelle Information - Google Patents

Verwaltungssystem und -verfahren für audiovisuelle Information Download PDF

Info

Publication number
DE60021443T2
DE60021443T2 DE60021443T DE60021443T DE60021443T2 DE 60021443 T2 DE60021443 T2 DE 60021443T2 DE 60021443 T DE60021443 T DE 60021443T DE 60021443 T DE60021443 T DE 60021443T DE 60021443 T2 DE60021443 T2 DE 60021443T2
Authority
DE
Germany
Prior art keywords
information
user
description file
program
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60021443T
Other languages
English (en)
Other versions
DE60021443D1 (de
Inventor
Richard Qian
J.L. Peter Van Beek
M. Ibrahim Sezan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE60021443D1 publication Critical patent/DE60021443D1/de
Publication of DE60021443T2 publication Critical patent/DE60021443T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/437Administration of user profiles, e.g. generation, initialisation, adaptation, distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4182External card to be used in combination with the client device, e.g. for conditional access for identification purposes, e.g. storing user identification data, preferences, personal settings or data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Description

  • HINTERGRUND DER ERFINDUNG
  • Die Erfindung betrifft ein System zum Verwalten audiovisueller Information, und insbesondere betrifft sie ein System zum Browsen, Filtern, Suchen, Archivieren und persönlichen Gestalten audiovisueller Information.
  • Videokassettenrecorder (VCRs) können Videoprogramme dadurch aufzeichnen, dass eine Aufzeichnungstaste gedrückt wird, oder sie können so programmiert werden, dass sie Videoprogramme auf Grundlage der Tageszeit aufzeichnen. Jedoch muss der Zuschauer den VCR auf Grundlage von Information von einem Fernsehführer programmieren, um relevante, aufzuzeichnende Programme herauszufinden. Nach dem Aufzeichnen scannt der Zuschauer unter Ausnutzung der durch den VCR bereitgestellten Funktionen, wie schnellem Vorlauf und schnellem Rücklauf, durch das gesamte Videoband, um relevante Teile des Programms zum Anschauen auszuwählen. Unglücklicherweise beruhen das Suchen und Anschauen auf einem linearen Suchvorgang, weswegen es beträchtliche Zeit erfordern kann, die gewünschten Teile des Programms (der Programme) zu lokalisieren und schnell zum gewünschten Teil des Bands vorzuspulen. Außerdem ist es zeitaufwändig, einen VCR mittels eines Fernsehführers zum Aufzeichnen gewünschter Programme zu programmieren. Auch ist es unwahrscheinlich, solange der Zuschauer nicht die Programme aus dem Fernsehführer als wünschenswert erkennt, unwahrscheinlich, dass er derartige Programme zum Aufzeichnen auswählt.
  • RePlayTV und TiVo haben Systeme auf Festplattenbasis entwickelt, die Fernsehsendungen auf ähnliche Weise wie ein VCR empfangen, aufzeichnen und abspielen. Die Systeme können entsprechend den Anschauvorlieben des Zuschauers programmiert werden. Die Systeme verwenden eine Telefonleitungs-Schnittstelle zum Empfangen von Zeitplaninformation, ähnlich derjenigen, wie sie von einem Fernsehführer verfügbar ist. Auf Grundlage der Programm- und Zeitplaninformation des Systems zeichnet diese automatisch Programm auf, die von möglichem Interesse für den Zuschauer sein können. Unglückli cherweise erfolgt das Anschauen der aufgezeichneten Programm auf lineare Weise, und dies kann erheblich Zeit beanspruchen. Außerdem muss jedes System für die Vorlieben eines Individuums, also wahrscheinlich auf verschiedene Weisen, programmiert werden.
  • Freeman et al. offenbaren im US-Patent Nr. 5,861,881 ein interaktives Computersystem, mit dem Teilnehmer individualisierte Inhalte empfangen können.
  • Bei allen o.g. Systemen muss jeder einzelne Zuschauer die Vorrichtung entsprechend seinen besonderen Anschauvorlieben programmieren. Unglücklicherweise verfügt jeder verschiedene Vorrichtungstyp über verschiedene Fähigkeiten und Einschränkungen, die die Auswahlmöglichkeiten des Zuschauers einschränken. Außerdem verfügt jede Vorrichtung über eine andere Schnittstelle, mit der der Zuschauer unvertraut sein kann. Ferner kann es, wenn das Bedienerhandbuch unbeabsichtigt verlegt ist, für den Zuschauer schwierig sein, die Vorrichtung effizient zu programmieren.
  • In der europäischen Patentanmeldung EP 0854645 sind ein elektronisches Fernsehprogramm-Führungssystem und -verfahren beschrieben. Der elektronische Programmführer arbeitet auf einer Computerplattform, die einem Fernseher zugeordnet ist. Die Plattform greift auf eine Programmliste-Datenbank zu, die Programmlisteninformation für mehrere Fernsehprogramme enthält. Der elektronische Programmführer beinhaltet eine Profildatenbank, die ein Zuschauerprofil speichert, und ein Vorschlagsmodul, das mit dieser verbunden ist. Das Vorschlagsmodul greift auf das Zuschauermodul und die Programmlisteninformation zu, und daraufhin erzeugt sie einen bevorzugten Zeitplan entsprechend dem Zuschauerprofil und der Programmlisteninformation. Der bevorzugte Zeitplan kennzeichnet die Wünschbarkeit eines speziellen Programms in Bezug auf andere Programme.
  • Im US-Patent 5,410,344 sind ein Verfahren und eine Vorrichtung zum Auswählen audiovisueller Programme zur Präsentation an einen Zuschauer beschrieben. Die audiovisuellen Programme verfügen über Attribute und einen entsprechenden Inhaltscode, der zu den Attributen gehörende Information enthält. Das Verfahren beinhaltet verschiedene Schritte. Als Erstes wird eine Zuschauer-Vorliebendatei gespeichert, die Information betreffend den Einfluss verschiedener Attribute der audiovisuellen Programme auf den Zuschauer enthält. Als Zweites werden mehrere Inhaltscodes, die mehreren audiovisuellen Programmen entsprechen, empfangen. Als Drittes wird die Zuschauer-Vorliebendatei mit den mehreren entsprechenden Inhaltscodes verglichen.
  • Schließlich wird mindestens eines der mehreren audiovisuellen Programme auf den Vergleich hin zur Präsentation an den Zuschauer ausgewählt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung überwindet die o.g. Nachteile des Stands der Technik durch Bereitstellen mindestens eines Beschreibungsschemas. Für Audio- und/oder Videoprogramme liefert ein Programm-Beschreibungsschema Information hinsichtlich des zugehörigen Programms. Für den Benutzer liefert ein Benutzer-Beschreibungsschema Information hinsichtlich der Vorlieben des Benutzers. Für das System liefert ein System-Beschreibungsschema Information hinsichtlich des Systems. Die Beschreibungsschemas sind voneinander unabhängig. Bei der bevorzugten Ausführungsform kann das System eine Kombination der Beschreibungsschemas verwenden, um seine Fähigkeit zu verbessern, Such-, Filter- und Browsevorgänge für audiovisuelle Information auf persönlich angepasste und effektive Weise auszuführen.
  • Die vorstehenden sowie andere Aufgaben, Merkmale und Vorteile der Erfindung werden unter Berücksichtigung der folgenden detaillierten Beschreibung derselben in Verbindung mit den beigefügten Zeichnungen leichter verständlich werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine beispielhafte Ausführungsform eines Programms, eines Systems und eines Benutzers mit zugeordneten Beschreibungsschemas bei einem audiovisuellen System gemäß der Erfindung.
  • 2 ist eine beispielhafte Ausführungsform des audiovisuellen Systems, mit einem Analysiermodul, der 1.
  • 3 ist eine beispielhafte Ausführungsform des Analysiermoduls der 2.
  • 4 ist eine Darstellung einer Miniaturbildansicht (Kategorie) für das audiovisuelle System.
  • 5 ist eine Darstellung einer Miniaturbildansicht (Kanal) für das audiovisuelle System.
  • 6 ist eine Darstellung einer Textansicht (Kanal) für das audiovisuelle System.
  • 7 ist eine Darstellung einer Rahmenansicht für das audiovisuelle System.
  • 8 ist eine Darstellung einer Einzelbildansicht für das audiovisuelle System.
  • 9 ist eine Darstellung einer Schlüsselrahmenansicht des audiovisuellen Systems.
  • 10 ist eine Darstellung einer Highlightansicht für das audiovisuelle System.
  • 11 ist eine Darstellung einer Ereignisansicht für das audiovisuelle System.
  • 12 ist eine Darstellung einer Figur/Objekt-Ansicht für das audiovisuelle System.
  • 13 ist eine alternative Ausführungsform eines Programm-Beschreibungsschemas mit einem Syntaxstruktur-Beschreibungsschema, einem Semantikstruktur-Beschreibungsschema, einem Visualisierungs-Beschreibungsschema und einem Metainformations-Beschreibungsschema.
  • 14 ist eine beispielhafte Ausführungsform des Visualisierungs-Beschreibungsschemas der 13.
  • 15 ist eine beispielhafte Ausführungsform des Metainformations-Beschreibungsschemas der 13.
  • 16 ist eine beispielhafte Ausführungsform eines Segment-Beschreibungsschemas für das Syntaxstruktur-Beschreibungsschema der 13.
  • 17 ist eine beispielhafte Ausführungsform eines Bereichs-Beschreibungsschemas für das Syntaxstruktur-Beschreibungsschema der 13.
  • 18 ist eine beispielhafte Ausführungsform eines Segment/Bereich-Beziehungs-Beschreibungsschemas für das Syntaxstruktur-Beschreibungsschema der 13.
  • 19 ist eine beispielhafte Ausführungsform eines Ereignis-Beschreibungsschemas für das Semantikstruktur-Beschreibungsschema der 13.
  • 20 ist eine beispielhafte Ausführungsform eines Objekt-Beschreibungsschemas für das Semantikstruktur-Beschreibungsschema der 13.
  • 21 ist eine beispielhafte Ausführungsform eines Ereignis/Objekt-Beziehungsgraph-Beschreibungsschemas für das Syntaxstruktur-Beschreibungsschema der 13.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Viele Haushalte verfügen heutzutage über viele Quellen für Audio- und Videoinformation, wie mehrere Fernsehgeräte, mehrere VCRs, eine Heimstereoanlage, ein Heimunterhaltungszentrum, Kabelfernsehen, Satellitenfernsehen, Internetsendungen, World Wide Web, Datendienste, spezielle Internetdienste, tragbare Radios sowie ein Stereogerät in jedem ihrer Fahrzeuge. Für jede dieser Vorrichtungen wird normalerweise eine andere Schnittstelle verwendet, um den Video- und/oder Audioinhalt zu erhalten, auszuwählen, aufzuzeichnen und abzuspielen. Z.B. erlaubt ein VCR die Auswahl der Aufzeichnungszeiten, jedoch muss der Benutzer eine Korrelation zwischen dem Fernsehführer und den gewünschten Aufzeichnungszeiten herstellen. Ein anderes Beispiel ist ein Benutzer, der für seine Heimstereoanlage einen bevorzugten Satz vorab ausgewählter Radiostationen auswählt und vermutlich denselben Satz vorausgewählter Stationen auch für jedes seiner Fahrzeuge auswählt. Wenn es ein anderes Haushaltsmitglied wünscht, einen anderen Satz vorab ausgewählter Stereoauswahlpunkte zu treffen, muss die Programmierung jedes Audiogeräts mit ziemlicher Unbequemlichkeit umprogrammiert werden.
  • Die Erfinder haben erkannt, dass die Benutzer visueller Information sowie Hörer von Audioinformation, wie z.B. Radio, Audiobändern, Videobändern, Filmen und Nachrichten, den Wunsch haben, auf mehr als nur eine gleichmäßige Art und Weise unterhalten und informiert zu werden. Anders gesagt, sollte die einem speziellen Benutzer dargebotene audiovisuelle Information in einem Format und mit einem Inhalt vorliegen, der für ihre speziellen Anschauvorlieben geeignet ist. Außerdem sollte das Format vom Inhalt der speziellen audiovisuellen Information abhängen. Der Umfang der einem Benutzer oder Zuhörer dargebotenen Information sollte nur auf den Detailumfang be schränkt werden, der vom speziellen Benutzer zum speziellen Zeitpunkt gewünscht wird. Z.B. können es die immer weiter zunehmenden Anforderungen an die Zeit des Benutzers erfordern, dass es dieser wünscht, nur zehn Minuten oder lediglich die Highlights eines Basketballspiels anzuschauen. Außerdem haben es die Erfinder erkannt, dass das Erfordernis des Programmierens mehrerer Audio- und visueller Geräte mit ihren speziellen Anschauvorlieben eine mühevolle Aufgabe ist, insbesondere dann, wenn diese sich beim Reisen mit unvertrauten Aufzeichnungsgeräten ergibt. Beim Reisen wünschen es die Benutzer, unvertraute Geräte, wie audiovisuelle Geräte in einem Hotelzimmer auf einfache und effiziente Weise mit ihren Anschau- und Anhörvorlieben zu konfigurieren.
  • Die Erfinder haben es weiter erkannt, dass eine bequeme Technik, bei der lediglich die gewünschte Audio- und Videoinformation aufgezeichnet wird, nicht ausreicht, da die Präsentation der Information auf eine Weise erfolgen sollte, die zeiteffizient ist, insbesondere angesichts der eingeschränkten Zeit, wie sie häufig für die Präsentation derartiger Information zur Verfügung steht. Außerdem sollte der Benutzer dazu in der Lage sein, nur auf denjenigen Teil der gesamten verfügbaren Information zuzugreifen, an der er interessiert ist, während der Rest der Information übergangen wird.
  • Ein Benutzer kann nicht die riesige mögliche Menge an Information anschauen oder sie auf andere Weise anhören, die über alle, oder auch nur einen kleinen Teil, der Quellen von Audio- und Videoinformation verfügbar ist. Außerdem ist es unwahrscheinlich, dass angesichts der zunehmenden Information, die potenziell verfügbar ist, der Benutzer auch nur den möglichen Inhalt von Information erkennt, an dem er interessiert sein könnte. Angesichts des riesigen Umfangs an Audio-Bild- und Videoinformation haben es die Erfinder erkannt, dass ein System, das Audio- und Videoinformation auf Grundlage der früheren Anschau- und Anhörgewohnheiten, Vorlieben und persönlichen Eigenschaften, was allgemein als Benutzerinformation bezeichnet ist, aufzeichnet und sie dem Benutzer darbietet, wünschenswert ist. Außerdem kann ein derartiges System derartige Information auf Grundlage der Fähigkeiten der Systemgeräte präsentieren. Dies ermöglicht es dem System, wünschenswerte Information aufzuzeichnen und sich selbst automatisch an den Benutzer und/oder Hörer anzupassen. Es ist zu beachten, dass die Begriffe Benutzer, Zuschauer und/oder Hörer für jeden beliebigen Inhaltstyp austauschbar verwendet werden können. Auch sollte die Benutzerinformation zwischen verschiedenen Geräten portierbar und verwendbar sein, so dass andere Geräte automatisch in ähnlicher Weise auf die Vorlieben des speziellen Benutzers konfiguriert werden können, wenn sie die Anschauinformation empfangen.
  • Angesichts der vorstehend genannten Erkenntnisse und Motivierungen analysierten die Erfinder eine typische Audio- und Videopräsentationsumgebung, um die wesentlichen Eigenschaften einer typischen Audiovisionsumgebung zu ermitteln. Zunächst wird, gemäß der 1, die Video-, Bild- und/oder Audioinformation 10 einem Benutzer und/oder einem (Gerät) System zugeführt oder auf andere Weise verfügbar gemacht. Zweitens wird die Video-, Bild- und/oder Audioinformation dem Benutzer vom System 12 (Gerät), wie einem Telefongerät oder einem Radio, dargeboten. Drittens tritt der Benutzer sowohl mit dem System (Gerät) 12 zum Betrachten der Information 10 auf gewünschte Weise in Wechselwirkung, und Vorlieben zum Definieren der Audio-, Bild- und/oder Videoinformation wird entsprechend der Benutzerinformation 14 erhalten. Nachdem die Erfinder die verschiedenen Hauptgesichtspunkte eines audiovisuellen Systems korrekt erkannt haben, erkannten sie, dass Information dazu erforderlich ist, den Informationsinhalt jedes Teils des audiovisuellen Systems 16 zu beschreiben.
  • Bei drei Teilen des erkannten audiovisuellen Präsentationssystems 16 wird das Funktionsvermögen jedes Teils gemeinsam mit seiner Beziehung zu den anderen Teilen gekennzeichnet. Um die erforderlichen Beziehungen zu definieren, wird ein Satz von Beschreibungsschemas, der jeden Teil beschreibende Daten enthält, definiert. Die Beschreibungsschemas beinhalten Daten, die Hilfsdaten für die Programme 10, das System 12 und den Benutzer 14 sind, um einen Satz von Information zu speichern, der von durch Personen lesbarem Text bis zu codierten Daten reicht und der dazu verwendet werden kann, Browse-, Filter-, Such-, Archivier- und Vorgänge für persönliche Ausgestaltung zu ermöglichen. Durch Bereitstellen eines gesonderten Beschreibungsschemas zum Beschreiben des mindestens einen Programms 10, des Benutzers 14 und des Systems 12 können die drei Teile (Programm, Benutzer und System) miteinander kombiniert werden, um eine Interaktivität zu schaffen, die bisher nicht erzielbar war. Außerdem können verschiedene Programme 10, verschiedene Benutzer 14 und verschiedene Systeme 12 mit jeder beliebigen Kombination miteinander kombiniert werden, während immer noch die vollständige Kompatibilität und das Funktionsvermögen erhalten bleiben. Es ist zu beachten, dass das Beschreibungsschema die Daten selbst oder Verweise auf die Daten, wie erwünscht, erhalten kann.
  • Ein Programm-Beschreibungsschema 18, das mit Video-, Stehbild- und/oder Audioinformation 10 in Beziehung steht, enthält vorzugsweise zwei Sätze von Information, nämlich Programmansichten und Programmprofile. Die Programmansichten definieren logische Strukturen der Rahmen eines Videos, und sie definieren, wie Videorahmen möglicherweise für effizientes Browsen geeigneterweise anzuschauen sind. Z.B. können die Programmansichten einen Satz von Feldern enthalten, die Daten zur Kennzeichnung von Schlüsselrahmen, Segmentdefinitionen zwischen Einzelbildern, Highlightdefinitionen, Videozusammenfassungsdefinitionen, verschiedene Längen von Highlights, Miniaturbildsätze von Rahmen, einzelne Bilder oder Szenen, repräsentative Rahmen des Videos, eine Gruppierung verschiedener Ereignisse und eine Nahansicht enthalten. Die Programmansichtbeschreibungen können Miniaturbilder, Dias, Schlüsselrahmen, Highlights und Nahansichten enthalten, damit Benutzer nicht nur auf Programmniveau sondern auch innerhalb eines speziellen Programms filtern und suchen können. Die Beschreibungsschemas ermöglichen es Benutzern, dadurch in variierenden Detailmengen auf Information zuzugreifen, dass z.B. eine Schlüsselrahmenansicht als Teil einer Programmansicht unterstützt wird, die mehrere Niveaus einer Zusammenfassung von grob bis fein bereitstellt. Die Programmprofile definieren charakteristische Eigenschaften des Inhalts des Programms, wie Schauspieler, Stars, das Rating, den Regisseur, das Uraufführungsdatum, Zeitmarkierungen, eine Schlüsselwortkennung, ein Triggerprofil, ein Stehbildprofil, ein Ereignisprofil, ein Figurenprofil, ein Objektprofil, ein Farbprofil, ein Texturprofil, ein Formprofil, ein Bewegungsprofil und Kategorien. Die Programmprofile sind besonders dazu geeignet, das Filtern und Durchsuchen der Audio- und Videoinformation zu erleichtern. Das Beschreibungsschema ermöglicht es Benutzern, über die Möglichkeit des Entdeckens interessierender Programme zu verfügen, da das Benutzer-Beschreibungsschema bereitgestellt ist, die sie andernfalls übersehen würden. Das Benutzer-Beschreibungsschema liefert Information an einen Softwareagenten, der seinerseits eine Suche und Filterung hinsichtlich des Benutzers unter möglicher Benutzung des System-Beschreibungsschemas und des Programm-Beschreibungsschemas ausführt. Es ist zu beachten, dass bei einer der Ausführungsformen der Erfindung lediglich das Programm-Beschreibungsschema vorhanden ist.
  • Im Programm-Beschreibungsschema enthaltene Programmansichten bilden ein Merkmal, das eine Funktion wie eine Nahansicht unterstützt. Bei der Nahansicht kann ein bestimmtes Bildobjekt, z.B. ein bekannter Basketballspieler wie Michael Jordan, dadurch nah betrachtet werden, dass eine Nahbetrachtungssequenz abgespielt wird, die vom Originalprogramm getrennt ist. Es kann eine alternative Ansicht auf unkomplizierte Weise eingeschlossen wer den. Das Figurenprofil andererseits kann Raum-Zeit-Information, d.h. die Position und die Größe, d.h. die Position und die Größe des Rechteckbereichs um die interessierende Figur herum enthalten. Dieser Bereich kann durch die Präsentationsmaschine vergrößert werden, oder diese kann außerhalb des Bereichs auf dunkel schalten, um die Aufmerksamkeit des Benutzers auf die Figuren, die eine bestimmte Anzahl von Rahmen überdecken, zu fokussieren. Information innerhalb des Programm-Beschreibungsschemas kann Daten zur Anfangsgröße oder zum Ort des Bereichs, zur Bewegung des Bereichs von einem Rahmen zu einem anderen sowie zur Dauer und zu Bedingungen der Anzahl von Rahmen, die den Bereich kennzeichnen, enthalten. Das Figurenprofil sorgt auch für Angaben, die Textanmerkungen und Audioanmerkungen zur Figur sowie Webseiteninformation sowie andere geeignete Information enthalten. Derartige Figurenprofile können die Audioanmerkung enthalten, die getrennt von der zugehörigen Audiospur des Videos und zusätzlich zu dieser vorliegt.
  • Das Programm-Beschreibungsschema kann in ähnlicher Weise ähnlich Information hinsichtlich Audio (wie Radiosendungen) und Bildern (wie analoge oder digitale Fotografien oder einen Videorahmen) enthalten.
  • Das Benutzer-Beschreibungsschema 20 beinhaltet vorzugsweise die persönlichen Vorlieben des Benutzers sowie Information hinsichtlich des Anschauverlaufs des Benutzers, wie z.B. den Browseverlauf, den Filterverlauf, den Suchverlauf und den Geräteeinstellungsverlauf. Zu den persönlichen Vorlieben des Benutzers gehört Information hinsichtlich spezieller Programme sowie Kategorien von Programmen, die der Benutzer bevorzugt anschaut. Das Benutzer-Beschreibungsschema kann auch persönliche Information zum speziellen Benutzer enthalten, wie z.B. demografische und geografische Information, z.B. die Postleitzahl und das Alter. Die explizite Definition der speziellen Programme oder diesen zugehörigen Attributen ermöglicht es dem System 16, diejenigen Programme aus der in den verfügbaren Programm-Beschreibungsschemas 18 enthaltenen Information auszuwählen, die für den Benutzer von Interesse sein können. Häufig wünscht es der Benutzer nicht, die Programmierung des Geräts zu erlernen, und er wünscht es nicht, dasselbe explizit zu programmieren. Außerdem ist es möglich, dass das Benutzer-Beschreibungsschema 20 nicht ausreichend robust ist, um explizite Definitionen zu enthalten, die alle möglichen Programme für einen speziellen Benutzer beschreiben. In einem derartigen Fall ist die Fähigkeit des Benutzer-Beschreibungsschemas 20 von Nutzen, sich an das Zuschauverhalten des Benutzers anzupassen, um verschiedenen Zuschaucharakteristiken zu genügen, die nicht explizit vorgesehen sind oder die auf andere Weise schwierig zu be schreiben sind. In einem derartigen Fall kann das Benutzer-Beschreibungsschema 20 verstärkt werden, oder es kann irgendeine Technik verwendet werden, um die im Benutzer-Beschreibungsschema 20 enthaltene Information mit der verfügbaren, im Programm-Beschreibungsschema 18 enthaltenen Information zu vergleichen, um eine Auswahl zu treffen. Das Benutzer-Beschreibungsschema sorgt für eine Technik zum Speichern von Benutzervorlieben im Bereich von Programmkategorien bis zu Programmansichten, sowie des Nutzungsverlaufs. Die Information im Benutzer-Beschreibungsschema ist dauerhaft, jedoch kann sie zu jedem beliebigen Zeitpunkt durch den Benutzer oder einen intelligenten Softwareagenten zugunsten des Benutzers aktualisiert werden. Sie kann auch vom Benutzer zu jedem beliebigen Zeitpunkt deaktiviert werden, wenn dieser dies wünscht. Außerdem ist das Benutzer-Beschreibungsschema modular und portierbar, so dass Benutzer dasselbe von einem Gerät zu einem anderen transportieren oder portieren können, wie bei einem elektronischen Handgerät oder einer Smart-Card, oder es kann über ein Netzwerk transportiert werden, das mehrere Geräte verbindet. Wenn das Benutzer-Beschreibungsschema für verschiedene Hersteller oder Erzeuger standardisiert wird, werden Benutzervorlieben portierbar. Z.B. kann ein Benutzer den Fernsehempfänger in einem Hotelraum an seine persönlichen Wünsche anpassen, was es Benutzern ermöglicht, zu jedem Zeitpunkt und an jedem Ort auf diejenige Information zuzugreifen, die sie bevorzugen. In gewissem Sinn ist das Benutzer-Beschreibungsschema dauerhaft und zeitlos. Außerdem kann ausgewählte Information innerhalb des Programm-Beschreibungsschemas verschlüsselt werden, da der letztere Teil der Information als privat anzusehen ist (z.B. demografische Angaben). Ein Benutzer-Beschreibungsschema kann einer Sendung eines audiovisuellen Programms zugeordnet werden und mit dem Beschreibungsschema des Empfängers betreffend einen speziellen Benutzer verglichen werden, um auf einfache Weise zu ermitteln, ob das im Programm vorgesehene Zuhörerschaftprofil zu diesem Benutzer passt. Es ist zu beachten, dass bei einer der Ausführungsformen der Erfindung lediglich das Benutzer-Beschreibungsschema enthalten ist.
  • Das System-Beschreibungsschema 22 verwaltet vorzugsweise die einzelnen Programme und andere Daten. Zur Verwaltung gehört das Warten von Listen von Programmen, Kategorien, Kanälen, Benutzern, Videos, Audio und Bildern. Die Verwaltung kann die Fähigkeiten eines Geräts zum Bereitstellen von Audio, Video und/oder Bildern beinhalten. Zu derartigen Fähigkeiten können z.B. die Schirmgröße, Stereo, AC3, DT3, Farbe, schwarz/weiß usw. gehören. Die Verwaltung kann auch Beziehungen zwischen dem Benutzer, Audio und/oder Bildern in Beziehung zu einem oder mehreren Programm-Beschreibungsschemas und Benutzer-Beschreibungsschemas enthalten. Auf ähnliche Weise kann die Verwaltung Beziehungen zwischen einem oder mehreren Programm-Beschreibungsschemas und Benutzer-Beschreibungsschemas enthalten. Es ist zu beachten, dass bei einer der Ausführungsformen der Erfindung lediglich das System-Beschreibungsschema enthalten ist.
  • Die Deskriptoren des Programm-Beschreibungsschemas und des Benutzer-Beschreibungsschemas sollten zumindest teilweise überlappen, so dass die mögliche Wünschbarkeit des Programms dadurch ermittelt werden kann, dass Deskriptoren verglichen werden, die dieselbe Information repräsentieren. Z.B. können das Programm- und das Benutzer-Beschreibungsschema denselben Satz von Kategorien und Schauspielern enthalten. Das Programm-Beschreibungsschema hat keine Kenntnis vom Benutzer-Beschreibungsschema, und umgekehrt, so dass keines der Beschreibungsschemas für seine Existenz vom anderen abhängt. Es ist nicht erforderlich, dass die Beschreibungsschemas völlig belegt sind. Es ist auch günstig, in das Programm-Beschreibungsschema nicht das Benutzer-Beschreibungsschema einzuschließen, da wahrscheinlich Tausende von Programmen mit zugehörigen Beschreibungsschemas existieren, die in Kombination mit dem Benutzer-Beschreibungsschema zu einem unnötig größen Benutzer-Beschreibungsschema würden. Es ist wünschenswert, das Benutzer-Beschreibungsschema klein zu halten, damit es leichter portierbar ist. Demgemäß wäre ein System mit nur dem Programm-Beschreibungsschema und dem Benutzer-Beschreibungsschema günstig.
  • Das Benutzer-Beschreibungsschema und das System-Beschreibungsschema sollten zumindest teilweise überlappende Felder enthalten. Durch überlappende Felder kann das System gewünschte Information erfassen, die andernfalls nicht als wünschenswert erkannt würde. Das System-Beschreibungsschema enthält vorzugsweise eine Liste von Benutzern und verfügbaren Programmen. Auf Grundlage der Hauptliste verfügbarer Programme und des zugeordneten Programm-Beschreibungsschemas kann das System eine Übereinstimmungsprüfung für gewünschte Programme ausführen. Es ist auch günstig, dass im System-Beschreibungsschema nicht das Benutzer-Beschreibungsschema enthalten ist, da wahrscheinlich Tausende von in den System-Beschreibungsschemas gespeicherte Programme existieren, die in Kombination mit dem Benutzer-Beschreibungsschema zu einem unnötig großen Benutzer-Beschreibungsschema führen würden. Es ist wünschenswert, das Benutzer-Beschreibungsschema klein zu halten, damit es leichter portierbar ist. Z.B. kann das Benutzer-Beschreibungsschema vorab ausgewählte Frequenzen von Radiostationen und/oder Typen von Stationen enthalten, während das System-Beschreibungsschema die verfügbaren Stationen für Radiostationen in speziellen Städten enthält. Beim Reisen in eine andere Stadt ermöglicht es das Benutzer-Beschreibungsschema gemeinsam mit dem System-Beschreibungsschema, die Radiostationen neu zu programmieren. Demgemäß wäre ein System mit nur dem System-Beschreibungsschema und dem Benutzer-Beschreibungsschema günstig.
  • Das Programm-Beschreibungsschema und das System-Beschreibungsschema sollten zumindest teilweise überlappende Felder enthalten. Mit den überlappenden Feldern ist das System-Beschreibungsschema dazu in der Lage, die im Programm-Beschreibungsschema enthaltene Information zu speichern, so dass die Information korrekt indiziert wird. Durch korrekte Indizierung ist das System dazu in der Lage, eine Übereinstimmungsprüfung für derartige Information mit der Benutzerinformation, falls verfügbar, auszuführen, um geeignete Programme zu erhalten und aufzuzeichnen. Wenn das Programm-Beschreibungsschema und das System-Beschreibungsschema nicht überlappen würden, würde keine Information aus den Programmen entnommen und abgespeichert werden. Innerhalb des System-Beschreibungsschemas eines speziellen Betrachtungssystems spezifizierte Systemfähigkeiten können mit einem Programm-Beschreibungsschema korreliert werden, um die Betrachtungsmöglichkeiten zu ermitteln, die durch das Betrachtungssystem unterstützt werden können. Wenn z.B. das Betrachtungsgerät nicht dazu in der Lage ist, Video abzuspielen, kann das zugehörige System-Beschreibungsschema seine Betrachtungsmöglichkeiten als auf nur Schlüsselrahmenbetrachtung und Diabetrachtung eingeschränkt beschreiben. Das Programm-Beschreibungsschema eines speziellen Programms sowie das System-Beschreibungsschema des Betrachtungssystems werden dazu verwendet, für die geeigneten Betrachtungsmöglichkeiten des Betrachtungssystems zu sorgen. So liefert ein Programmserver die geeigneten Ansichten entsprechend den Fähigkeiten eines speziellen Betrachtungssystems, die über ein Netzwerk oder einen Kommunikationskanal, der den Server mit dem Betrachtungsgerät des Benutzers verbindet, übertragen werden können. Es ist bevorzugt, das Programm-Beschreibungsschema getrennt vom System-Beschreibungsschema zu halten, da die Inhalteprovider den Inhalt und die Beschreibungsschemas mit verschiedenen Stilen, zu verschiedenen Zeiten und mit verschiedenen Formaten neu zusammenstellen. Vorzugsweise wird das Programm-Beschreibungsschema dem Programm zugeordnet, selbst wenn eine Anzeige zu einem anderen Zeitpunkt erfolgt. Demgemäß wäre ein System günstig, das nur das System-Beschreibungsschema und das Programm-Beschreibungsschema enthält.
  • Dadurch, dass vorzugsweise die Unabhängigkeit jedes der drei Beschreibungs schemas aufrechterhalten wird, während Felder, die dieselbe Information, die Programme 10, die Benutzer 14 und das System 12 korrelieren, miteinander vertauscht werden können, bleibt das Funktionsvermögen des Gesamtsystems 16 aufrechterhalten. Gemäß der 2 wird das Audio-, visuelle oder audiovisuelle Programm 38 vom System 16 empfangen. Das Programm 38 kann von jeder geeigneten Quelle herrühren, wie z.B. gesendetes Fernsehen, Kabelfernsehen, Satellitenfernsehen, digitales Fernsehen, Internetsendungen, World Wide Web, digitale Videoplatten, Stehbilder, Videokameras, Laserplatten, magnetische Medien, Computer-Festplattenlaufwerke, Videobänder, Audiobänder, Datendienste, Radiosendungen sowie Mikrowellenübertragungen. Der Programm-Beschreibungsstrom kann von jeder geeigneten Quelle herrühren, wie z.B. PSIP/DVB-SI-Information bei digitalen Fernsehsendungen, speziellen digitalen Fernsehdatendiensten, speziellen Internetdiensten, World Wide Web, Datendateien, Daten über das Telefon sowie Speicher, wie Computerspeicher. Das Programm-, das Benutzer- und/oder das System-Beschreibungsschema können über ein Netzwerk (einen Kommunikationskanal) transportiert werden. Z.B. kann das System-Beschreibungsschema zur Quelle transportiert werden, um diese mit Betrachtungsmöglichkeiten oder anderen Fähigkeiten zu versorgen, die das Gerät nutzen kann. Daraufhin versorgt die Quelle das Gerät mit Bild-, Audio- und/oder Videoinhalt, der angepasst ist oder auf andere Weise für das spezielle Gerät geeignet ist. Das System 16 kann jedes beliebige Gerät (Geräte) enthalten, das dazu geeignet ist, eines oder mehrere derartiger Programme 38 zu empfangen. Ein Analysiermodul 42 für audiovisuelle Programme führt eine Analyse der empfangenen Programme 38 aus, um programmbezogene Information (Deskriptoren) zu entnehmen und an das Beschreibungsschema(DS)-Erzeugungsmodul 44 zu liefern. Die programmbezogene Information kann aus dem das Programm 38 enthaltenden Datenstrom entnommen werden oder von einer beliebigen anderen Quelle erhalten werden, wie z.B. über eine Telefonleitung übertragenen Daten, Daten, die bereits in der Vergangenheit an das System 16 übertragen wurden, oder Daten von einer zugeordneten Datei. Die programmbezogene Information enthält vorzugsweise Daten, die sowohl die Programmansichten als auch die Programmprofile, wie sie für das spezielle Programm 38 verfügbar sind, definieren. Das Analysiermodul 42 führt eine Analyse des Programms 38 unter Verwendung von Information aus, die durch Folgendes erhalten wird: (i) automatische Audio-Video-Analysierverfahren auf Grundlage von Merkmalen auf niedriger Ebene, die aus dem mindestens einen Programm entnommen werden, (ii) Ereigniserkennungstechniken, (iii) Daten, die von Datenquellen oder elektronischen Programmführern (EPGs, DVB-SI und PSIP) verfügbar (oder daraus entnehmbar) sind, und (iv) Benutzerinformation, die aus dem Benutzer-Beschreibungsschema 20 erhalten wird, um Daten zu liefern, die das Programm-Beschreibungsschema definieren.
  • Die Auswahl einer speziellen Programmanalysiertechnik hängt vom Umfang der leicht verfügbaren Daten und den Benutzervorlieben ab. Wenn es z.B. ein Benutzer bevorzugt, ein Videohighlight eines speziellen Programms, wie eines Basketballspiels, von fünf Minuten Dauer anzuschauen, kann das Analysiermodul 42 ein System 90 auf Wissensbasis (3) aufrufen, um die Highlights zu ermitteln, die die beste Zusammenfassung von fünf Minuten liefern. Das System 90 auf Wissensbasis kann ein Werbungsfilter 92 zum Entfernen von Werbespots und einen Zeitlupendetektor 54 zur Unterstützung bei der Erzeugung der Videozusammenfassung aufrufen. Das Analysiermodul 42 kann auch andere Module aufrufen, um Information (z.B. Textinformation) zusammenzustellen, um als Autor spezieller Programmansichten zu wirken. Wenn z.B. das Programm 38 ein Heimvideo darstellt, bei dem keine weitere Information verfügbar ist, kann das Analysiermodul 42 eine Schlüsselrahmenzusammenfassung dadurch erzeugen, dass es Schlüsselrahmen einer Zusammenfassung auf mehreren Ebenen erzeugt und die zu verwendende Information, die zum Erzeugen der Programmansichten, insbesondere einer Schlüsselrahmenansicht, zu verwenden ist, an das Beschreibungsschema weiterleitet. Gemäß weiterer Bezugnahme auf die 3 kann das Analysiermodul 42 auch andere Untermodule enthalten, wie z.B. einen Demultiplexer/Decodierer 60, einen Daten- und Dienstinhaltanalysator 62, einen Textverarbeitungs- und Textzusammenfassungsgenerator 64, einen Detailuntertitelanalysator 66, einen Titelrahmengenerator 68, einen Analysiermanager 70, eine Einrichtung 72 zum Analysieren und Entnehmen audiovisueller Merkmale, einen Ereignisdetektor 74, eine Schlüsselrahmen-Zusammenfassungseinrichtung 76 und eine Highlight-Zusammenfassungseinrichtung 78.
  • Das Erzeugungsmodul 44 empfängt die Systeminformation 46 für das System-Beschreibungsschema. Die Systeminformation 46 beinhaltet vorzugsweise vom Erzeugungsmodul 44 erzeugte Daten für das System-Beschreibungsschema 22. Das Erzeugungsmodul 44 empfängt auch Benutzerinformation 48 einschließlich Daten für das Benutzer-Beschreibungsschema. Die Benutzerinformation 48 beinhaltet vorzugsweise innerhalb des Erzeugungsmoduls 44 erzeugte Daten für das Benutzer-Beschreibungsschema. Die Benutzer-Eingabeinformation 48 kann z.B. Metainformation enthalten, die in das Programm- und das System-Beschreibungsschema einzuschließen ist. Das Benutzer-Beschreibungsschema (oder entsprechende Information) wird zur selektiven Analyse des mindestens einen Programms 38 an das Analysiermodul 42 geliefert. Z.B. kann das Benutzer-Beschreibungsschema dazu geeignet sein, die Highlighterzeugungsfunktion für ein spezielles Programm auszulösen, um so die bevorzugten Ansichten zu erzeugen und zugehörige Daten im Programm-Beschreibungsschema zu speichern. Das Erzeugungsmodul 44 und das Analysiermodul 42 liefern Daten an eine Datenspeichereinheit 50. Die Speichereinheit 50 kann eine beliebige Speichervorrichtung sein, wie ein Arbeitsspeicher oder ein Magnetmedium.
  • Ein Such-, Filter- und Browse(SFB)modul 52 implementiert die Beschreibungsschematechnik durch Zergliedern und Entnehmen von Information, die im Beschreibungsschema enthalten ist. Das SFB-Modul 52 kann Filter-, Such- und Browsevorgänge für die Programme 38 auf Grundlage von in den Beschreibungsschemas enthaltener Information ausführen. Vorzugsweise ist im SFB-Modul 52 ein intelligenter Softwareagent enthalten, der benutzerspezifische Information sammelt und an das Erzeugungsmodul 44 liefert, die beim Editieren und Aktualisieren des Benutzer-Beschreibungsschemas (mittels des Erzeugungsmoduls 44) zu verwenden ist. Auf diese Wiese kann gewünschter Inhalt über ein Display 80 an den Benutzer ausgegeben werden. Die Auswahlvorgänge für das mindestens eine gewünschte Programm, das herauszusuchen, zu speichern und/oder anzuschauen ist, können, zumindest teilweise, durch eine grafische Benutzerschnittstelle 82 programmiert werden. Die grafische Benutzerschnittstelle kann auch eine Präsentationsmaschine enthalten oder mit einer solchen verbunden sein, um die Information über die grafische Benutzerschnittstelle dem Benutzer darzubieten.
  • Die intelligente Verwaltung und die Inanspruchnahme audiovisueller Information unter Verwendung der Vorrichtung mit mehrteiligem Beschreibungsstrom sorgt für eine Vorrichtung der nächsten Generation, die für die moderne Ära der Informationsüberlastung geeignet ist. Die Vorrichtung reagiert auf sich ändernde Lebensstile von Individuen und Familien, und sie ermöglicht es jedem, diejenige Information, die sie wünschen, jederzeit und an jedem gewünschten Ort zu erhalten.
  • Ein Beispiel für den Gebrauch der Vorrichtung ist das Folgende. Ein Benutzer kommt am späten Freitag abend nach Hause und freut sich, dass die Arbeit endlich vorüber ist. Der Benutzer wünscht es, auf das Laufende betreffend die Ereignisse in der Welt zu kommen, und dann später am Abend die ABC-Show 20/20 anzuschauen. Nun ist es 21 Uhr und die Show 20/20 beginnt in einer Stunde um 22 Uhr. Der Benutzer ist an den Sportereignissen der Woche und allen Nachrichten zum Fall Microsoft/Justizministerium interessiert. Das Benutzer-Beschreibungsschema kann ein Profil enthalten, das den Wunsch anzeigt, dass es der spezielle Benutzer wünscht, alle verfügbare Informati on hinsichtlich des Microsoft-Verfahrens sowie ausgewählter Sportereignisse für spezielle Teams zu erhalten. Außerdem liefern das System-Beschreibungsschema und das Programm-Beschreibungsschema Information hinsichtlich des Inhalts der verfügbaren Information, die selektiv erhalten und aufgezeichnet werden kann. Das System erhält, auf autonome Weise, periodisch, auf Grundlage der drei Beschreibungsschemas, audiovisuelle Information, die während der vergangenen Woche für den Benutzer von Bedeutung gewesen sein konnte, und zeichnet diese auf. Die Vorrichtung hat höchstwahrscheinlich mehr als eine Stunde audiovisueller Information aufgezeichnet, so dass die Information auf irgendeine Weise verdichtet werden muss. Der Benutzer beginnt mit einer Zeigeeinrichtung oder Sprachbefehlen mit dem System in Wechselwirkung zu treten, um den Wunsch anzuzeigen, dass er es wünscht, aufgezeichnete Sportprogramme anzuschauen. Auf dem Display wird dem Benutzer eine Liste aufgezeichneter Sportereignisse, einschließlich Basketball und Fußball angezeigt. Ersichtlich spielte das liebste Footballteam des Benutzers diese Woche nicht, da nichts dazu aufgezeichnet ist. Der Benutzer ist an Basketspielen interessiert, und er gibt den Wunsch an, Spiele zu sehen. Auf dem Display wird eine Gruppe von Titelrahmen dargeboten, die einen wichtigen Moment jedes Spiels erfassen. Der Benutzer wählt das Spiel der Chicago Bulls aus, und er zeigt den Wunsch an, fünf Minuten Highlights dieses Spiels anzuschauen. Das System erzeugt automatisch Highlights. Die Highlights können durch Audio- oder Videoanalyse erzeugt werden, oder das Programm-Beschreibungsschema enthält Daten, die die Frames angeben, die für ein Highlight von fünf Minuten dargeboten werden. Im System kann auch Textinformation auf Webbasis hinsichtlich des speziellen Spiels der Chicago Bulls aufgezeichnet sein, die vom Benutzer zum Anschauen ausgewählt wird. Falls erwünscht, kann die zusammengefasste Information in einem Speicher, wie einer DVD mit einem Etikett, aufgezeichnet werden. Die gespeicherte Information kann auch einen Indexcode enthalten, so dass sie zu einem späteren Zeitpunkt lokalisiert werden kann. Nachdem der Benutzer die Sportereignisse angeschaut hat, kann er es wünschen, die Nachrichten zum Microsoftverfahren zu lesen. Nun ist es 21:50 Uhr, und der Benutzer ist damit beschäftigt, die Nachrichten anzuschauen. Tatsächlich hat es der Benutzer gewählt, alle aufgezeichneten Einzelnachrichten zu löschen, nachdem er sie angeschaut hat. Dann erinnert sich der Benutzer daran, noch eine letzte Sache vor 22 Uhr zu erledigen. Am nächsten Tag wünscht es der Benutzer, das VHS-Band anzuschauen, das er heute von seinem Bruder erhalten hat, das Filmmaterial zum neugeborenen Mädchen seines Bruders und zu seinen Ferien in Peru im letzten Sommer enthält. Der Benutzer wünscht es, das gesamte Band von 2 Stunden anzuschauen, jedoch will er unbedingt sehen, wie das Baby aussieht, und er will auch das in Lima gebaute neue Stadion sehen, das noch nicht vorhanden war, als er das letzte Mal Peru besuchte. Der Benutzer plant es, einen schnellen Blick auf eine Videozusammenfassung des Bands zu werfen, es zu überfliegen und möglicherweise einige Segmente für einige Minuten zu sehen, bevor er um 10 Uhr am nächsten Morgen seine Tochter zu ihrer Klavierstunde bringt. Der Benutzer schiebt das Band in seinen VCR, der mit dem System verbunden ist, und er ruft die Zusammenfassungsfunktion des Systems auf, um das Band durchzuscannen und eine Zusammenfassung zu erstellen. Dann kann der Benutzer die Zusammenfassung am nächsten Morgen anschauen, um schnell das Aussehen des Babys wahrzunehmen, und er kann Segmente zwischen den Schlüsselrahmen der Zusammenfassung abspielen, um einen Blick auf das weinende Baby zu werfen. Das System kann auch den Bandinhalt auf dem Festplattenlaufwerk (oder dem Festspeicher) des Systems aufzeichnen, so dass die Videozusammenfassung schnell angeschaut werden kann. Nun ist es 22:10 Uhr, und es scheint, dass der Benutzer 10 Minuten zu spät zum Anschauen von 20/20 ist. Glücklicherweise zeichnet das System, auf Grundlage der drei Beschreibungsschemas, 20/20 bereits seit 22 Uhr auf. Nun kann der Benutzer damit beginnen, den aufgezeichneten Teil von 20/20 anzuschauen, während die Aufzeichnung von 20/20 weiterläuft. Der Benutzer beendet das Anschauen von 20/20 um 23:10 Uhr.
  • Der mittlere Verbraucher verfügt über eine immer weiter zunehmende Anzahl von Multimediageräten, wie Heimaudiosystem, Fahrzeugstereo, mehrere Fernseher im Haushalt, Webbrowser usw. Aktuell muss der Benutzer jedes der Geräte auf optimale Anschau- und/oder Anhörvorlieben anpassen. Durch Speichern der Benutzervorlieben auf einem austauschbaren Festspeicher, wie einer Smart-Card, kann der Benutzer die seine Vorlieben enthaltende Karte für automatische Anpassung in derartige Mediengeräte einführen. Dies führt dazu, dass die gewünschten Programme automatisch auf dem VCR aufgezeichnet werden und die Radiostationen für das Fahrzeugstereosystem und das Heimaudiosystem eingestellt werden. Auf diese Weise muss der Benutzer seine Vorlieben höchstens einmal auf einem einzelnen Gerät spezifizieren, und anschließend werden die Deskriptoren durch den austauschbaren Permanentspeicher in Geräte hochgeladen. Das Beschreibungsschema kann auch unter Verwendung einer leitungsgebundenen oder drahtlosen Netzwerksverbindung, z.B. der eines Heimnetzwerks, in andere Geräte geladen werden. Alternativ kann das System den Benutzerverlauf speichern und Einträge im Benutzer-Beschreibungsschema auf Grundlage der Audio- und Videoanschaugewohnheiten erzeugen. Auf diese Weise muss der Benutzer nie die Anschauinformation programmieren, um gewünschte Information zu erhalten. In gewisser Hinsicht ermöglicht es das Benutzer-Beschreibungsschema, den Benutzer dadurch nachzubilden, dass ein zentraler Permanentspeicher für die Anhör-, Anschau- und Browsevorlieben, und für das Verhalten des Benutzers, bereitgestellt wird. Dies ermöglicht es, Geräte schnell an persönliche Vorlieben anzupassen, und es ermöglicht es, dass andere Komponenten, wie intelligente Agenten, eine Kommunikation auf Grundlage eines standardisierten Beschreibungsformats ausführen und intelligente Eingriffe unter Berücksichtigung der Vorlieben des Benutzers ausführen.
  • Aus den 2 und 3 können viele verschiedene Realisierungen und Anwendungen leicht dadurch hergeleitet werden, dass ihre verschiedenen Teile geeignet organisiert und verwendet werden, oder dadurch, dass nach Bedarf Peripheriemaßnahmen und Erweiterungen hinzugefügt werden. In ihrer allgemeinsten Form zeigt die 2 eine audiovisuelle Such-, Filter-, Browse- und/oder Aufzeichnungsanwendung, die an eine Person anpassbar ist. Die unten angegebene Liste speziellerer Anwendungen/Realisierungen ist nicht erschöpfend, sondern überdeckt einen Bereich.
  • Das Benutzer-Beschreibungsschema ist eine Hauptmaßnahme zum Realisieren persönlich angepasster audiovisuellen Anwendungen. Wenn die Struktur (Syntax und Semantik) der Beschreibungsschemas für verschiedene Anwendungen bekannt ist, kann der Benutzer (Benutzer) die in seinem Benutzer-Beschreibungsschema enthaltene Information von einer Anwendung zu einer anderen transportieren (oder auf andere Weise übertragen), möglicherweise über eine Smart-Card – wobei diese Anwendungen eines Smart-Card-Schnittstelle unterstützen –, um sie persönlich auszugestalten. Die persönliche Ausgestaltung kann von Geräteeinstellungen, wie dem Anzeigekontrast und einer Lautstärkeansteuerung, bis zur Einstellung von Fernsehkanälen, Radiostationen, Webstationen, Websites, geografischer Information und demografischer Information, wie dem Alter, der Postleitzahl usw. reichen. Anwendungen, die persönlich ausgestaltet werden können, können auf Inhalt von anderen Quellen zugreifen. Sie können mit dem Web, terrestrischen oder Kabelsendern usw. verbunden sein, und sie können auch auf mehrere oder verschiedene Typen von Einzelmedien, wie Video, Musik usw., zugreifen.
  • Z.B. kann das Autostereo und Verwendung einer Smart-Card persönlich ausgestaltet werden, die aus dem System zuhause herausgezogen wurde und in das Autostereosystem eingesteckt wurde, um dazu in der Lage zu sein, zu bestimmten Zeitpunkten auf begünstigte Stationen abzustimmen. Gemäß einem anderen Beispiel kann das Fernsehschauen persönlich ausgestaltet werden, z.B. dadurch, dass die Smart-Card in eine Fernsteuerung gesteckt wird, die ihrerseits das Fernsehempfangssystem autonom steuert, um dem Benutzer Information über aktuelle und zukünftige Programme, die zu seinen Vorlieben passen, darzubieten. Verschiedene Mitglieder eines Haushalts können die Zuschauerfahrungen dadurch momentan persönlich ausgestalten, dass sie ihre eigene Smart-Card in die Fernsteuerung der Familie stecken. Beim Fehlen einer derartigen Fernsteuerung kann derselbe Art einer persönlichen Ausgestaltung dadurch erzielt werden, dass die Smart-Card direkt in das Fernsehsystem gesteckt wird. Die Fernsteuerung kann in ähnlicher Weise Audiosysteme steuern. Bei einer anderen Realisierung enthält das Fernsehempfangssystem Benutzer-Beschreibungsschemas für mehrere-Beschreibungsschema (Beschreibungsschema) in einem lokalen Permanentspeicher, und es identifiziert verschiedene Benutzer (oder Gruppen von Benutzern) unter Verwendung einer geeigneten Eingabeschnittstelle. Z.B. handelt es sich um eine Schnittstelle unter Verwendung einer Technik zum Erkennen der Stimme des Benutzers. Es wird darauf hingewiesen, dass in Netzwerksystemen das Benutzer-Beschreibungsschema über das Netzwerk transportiert werden kann.
  • Das Benutzer-Beschreibungsschema wird durch direkte Eingabe des Benutzers und unter Verwendung von Software erzeugt, die den Benutzer überwacht, um sein Nutzungsmuster und seinen Nutzungsverlauf zu ermitteln. Das Benutzer-Beschreibungsschema kann vom Benutzer oder automatisch auf dynamische Weise aktualisiert werden. Ein gut definiertes und strukturiertes Beschreibungsschemadesign ermöglicht es, dass verschiedene Geräte miteinander wechselwirken. Ein modulares Design sorgt auch für Portierbarkeit.
  • Das Beschreibungsschema fügt zu den Funktionen eines aktuellen VCR eine neue Funktion hinzu. Ein fortschrittliches VCR-System kann vom Benutzer über direkte Eingabe von Vorlieben lernen, oder durch Beobachten des Nutzungsmusters und des Verlaufs betreffend den Benutzer. Das Benutzer-Beschreibungsschema enthält Vorlieben des Benutzers sowie den Verlauf der Verwendung durch ihn. Dann kann ein intelligenter Agent auf das Benutzer-Beschreibungsschema Bezug nehmen und Information erhalten, die er benötigt, um für den Benutzer zu agieren. Mittels des intelligenten Agenten wirkt das System für den Benutzer, um Programme herauszufinden, die zum Geschmack des Benutzers passen, um ihn über derartige Programme zu informieren und/oder um sie selbstständig aufzuzeichnen. Ein Agent kann auch den Permamentspeicher im System entsprechend dem Benutzer-Beschreibungsschema verwalten, d.h. Prioritäten für das Löschen von Programmen setzen (oder den Benutzer auf eine Übertragung auf ein austauschbares Medium hinzuweisen), oder um ihren Kompressionsfaktor (der direkten Einfluss auf die visuelle Qualität hat) entsprechend den Vorlieben und dem Verlauf betreffend den Benutzer zu bestimmen.
  • Das Programm-Beschreibungsschema und das System-Beschreibungsschema arbeiten in Zusammenwirkung mit dem Benutzer-Beschreibungsschema, um einige Aufgaben zu lösen. Zusätzlich ermöglichen es das Programm-Beschreibungsschema und das System-Beschreibungsschema in einem fortschrittlichen VCR oder anderen System, dass der Benutzer audiovisuelle Programme browst, durchsucht und filtert. Das Browsen im System bietet Möglichkeiten, die weit über schnellen Vorlauf und Rücklauf hinausgehen. Z.B. kann der Benutzer eine Miniaturbildansicht verschiedener Kategorien von im System gespeicherten Programmen betrachten. Der Benutzer kann dann eine Rahmenansicht, eine Einzelbildansicht, eine Schlüsselrahmenansicht oder eine Highlightansicht, abhängig von deren Verfügbarkeit und seinen Vorlieben auswählen. Diese Ansichten können unter Verwendung der relevanten Information im Programm-Beschreibungsschema, insbesondere in Programmansichten, leicht aufgerufen werden. Der Benutzer kann zu jedem Zeitpunkt das Anschauen des Programms entweder teilweise oder insgesamt starten.
  • Bei dieser Anwendung kann das Programm-Beschreibungsschema von vielen Diensten leicht verfügbar sein, wie: (i) aus Funkübertragungen (durch EPG transportiert, wie als Teil von ATSC-PSIP (ATSC-Program Service Integration Protocol) transportiert) in den USA oder DVB-SI (Digital Video Broadcast-Service Information) in Europa; (ii) von spezialisierten Datendiensten (zusätzlich zu PSIP/DVB-SI); (iii) von spezialisierten Websites; (iv) von der Medienspeichereinheit, die den audiovisuellen Inhalt enthält (z.B. DVD); (v) von fortschrittlichen Kameras (wird später erörtert), und/oder es kann durch das Analysiermodul 42 oder durch die Benutzereingabeeinrichtung 48 erzeugt werden (d.h. für Programme, die gespeichert werden).
  • Der Inhalt digitaler Stehbild- und Videokameras kann durch ein System gespeichert und verwaltet werden, das die Beschreibungsschemas implementiert, z.B. ein System, wie es in der 2 dargestellt ist. Fortschrittliche Kameras können z.B. ein Programm-Beschreibungsschema zusätzlich zum audiovisuellen Inhalt selbst speichern. Das Programm-Beschreibungsschema kann entweder teilweise oder insgesamt durch eine geeignete Benutzer-Eingabeschnittstelle (z.B. Sprache, visuelle Menüsteuerung usw.) in der Kamera selbst erzeugt werden. Benutzer können die Information für das Programm-Beschreibungsschema, insbesondere diejenige Information auf hoher Ebene (oder Semantikinformation), die ansonsten vom System schwierig automatisch zu entnehmen ist, in die Kamera eingeben. Einige Kameraeinstellwerte und -parameter (z.B. das Datum und die Zeit) sowie in der Kamera berechnete Werte (z.B. ein Farbhistogramm, das in das Farbprofil einzuschließen ist), können ebenfalls beim Erzeugen des Programm-Beschreibungsschemas verwendet werden. Wenn die Kamera einmal angeschlossen ist, kann das System durch den Inhalt derselben Browsen oder es kann den Kamerainhalt und das zugehörige Beschreibungsschema für zukünftigen Gebrauch in den lokalen Permanentspeicher übertragen. Es ist auch möglich, die Information zu aktualisieren oder sie zum in der Kamera erzeugten Beschreibungsschema hinzuzufügen.
  • Die Spezifikationen für die Standards IEEE 1394 und Havi ermöglichen diesen Typ einer zentrierten Kommunikation "audiovisuellen Inhalts) zwischen Geräten. Die Beschreibungsschema-APIs können in Zusammenhang mit Have verwendet werden, um den Inhalt einer Kamera oder einer DVD, die auch ein dem Inhalt zugeordnetes Beschreibungsschema enthält, einem Browse- und/oder Suchdurchgang zu unterziehen, d.h. mehr auszuführen, als lediglich die Abspiel-API dazu aufzurufen, das Medium abzuspielen und linear durchzusehen.
  • Die Beschreibungsschemas können zum Archivieren audiovisueller Programme in einer Datenbank verwendet werden. Die Suchmaschine verwendet die im Programm-Beschreibungsschema enthaltene Information zum Abrufen von Programmen auf Grundlage ihres Inhalts. Das Programm-Beschreibungsschema kann auch zum Navigieren durch den Inhalt der Datenbank oder der Abfrageergebnisse verwendet werden. Das Benutzer-Beschreibungsschema kann dazu verwendet werden, die Ergebnisse der Benutzerabfrage während der Präsentation mit einer Priorität zu versehen. Selbstverständlich ist es möglich, abhängig von der Art der speziellen Anwendung dafür zu sorgen, dass das Programm-Beschreibungsschema umfassender ist.
  • Das Beschreibungsschema erfüllt den Wunsch des Benutzers, über Anwendungen zu verfügen, die Aufmerksamkeit verdienen und seinen Anschau- und Benutzungsgewohnheiten, Vorlieben und persönlichen demografischen Werten genügen. Das vorgeschlagene Benutzer-Beschreibungsschema berücksichtigt diesen Wunsch bei seiner Auswahl von Gebieten und der Beziehung zu anderen Beschreibungsschemas auf direkte Weise. Da die Beschreibungsschemas ihrer Art nach modular sind, kann der Benutzer sein Benutzer-Beschreibungsschema von einem Gerät auf ein anderes übertragen, um das Gerät "persönlich auszugestalten".
  • Die vorgeschlagenen Beschreibungsschemas können in aktuelle Produkte eingeschlossen werden, ähnlich denen von TiVo und Replay-TV, um ihren Unterhaltungs-Informationswert zu erhöhen. Insbesondere ermöglicht das Beschreibungsschema audiovisuelle Browse- und Durchsuchvorgänge für Programme, und es ermöglicht ein Filter innerhalb eines speziellen Programms durch Unterstützen mehrerer Programmansichten, wie der Highlightansicht. Außerdem handhabt das Beschreibungsschema Programme, die von anderen Quellen als Fernsehsendern herrühren, für deren Handhabung TiVo und Replay-TV nicht konzipiert sind. Außerdem können, durch Standardisieren von Geräten gemäß dem TiVo- und Replay-TV-Typ andere Erzeugnisse in derartige Geräte eingebaut werden, um ihre Fähigkeiten zu erweitern, wie Geräte, die eine MPEG-7-Beschreibung unterstützen. MPEG-7 entspricht Moving Pictures Experts Group-7, die dahingehend arbeitet, Beschreibungen und Beschreibungsschemas für audiovisuelle Information zu standardisieren. Das Gerät kann nach Wunsch auch dahingehend erweitert werden, dass es an mehrere Benutzer persönlich angepasst werden kann.
  • Da das Beschreibungsschema definiert ist, können intelligente Softwareagenten untereinander kommunizieren, um intelligente Folgerungen hinsichtlich der Vorlieben des Benutzers zu treffen. Außerdem können die Entwicklung und Aktualisierung intelligenter Softwareagenten für Browse- und Filteranwendungen auf Grundlage des standardisierten Benutzer-Beschreibungsschemas vereinfacht werden.
  • Das Beschreibungsschema ist im folgenden Sinn mehr modal, dass es Merkmale und/oder Deskriptoren sowohl auf hoher Ebene (semantisch) als auch auf niedriger Ebene enthält. Z.B. sind die Deskriptoren auf hoher und niedriger Ebene der Name eines Schauspielers bzw. Parameter zum Bewegungsmodell. Deskriptoren auf hoher Ebene sind von Menschen leicht lesbar, während solche auf niedriger Ebene leichter durch Maschinen lesbar sind und für Menschen weniger verständlich sind. Das Programm-Beschreibungsschema kann mit existierender EPG-PSIP- und DVB-SI-Information leicht harmonisiert werden, um das Durchsuchen und Filtern von Sendungsprogrammen zu erleichtern. Zukünftig können vorhandene Dienste dadurch erweitert werden, dass zusätzliche Information unter Verwendung des passenden Beschreibungsschemas eingeschlossen wird.
  • Beispielsweise kann ein Fall audiovisuelle Programme enthalten, die vorab auf einem Träger wie einer digitalen Videoplatte aufgezeichnet sind, die auch ein Beschreibungsschema enthält, das dieselbe Syntax und Semantik hat wie das Beschreibungsschema, das das SFB-Modul verwendet. Wenn das SFB-Modul ein anderes Beschreibungsschema verwendet, kann ein Übersetzer (Wandler) für das Beschreibungsschema verwendet werden. Der Benutzer kann es wünschen, den Inhalt der digitalen Videoplatte durchzubrowsen und anzuschauen. In diesem Fall muss der Benutzer nicht das Analysiermodul aufrufen, um eine Programmbeschreibung zu verfassen. Jedoch kann es der Benutzer wünschen, sein Beschreibungsschema beim Filtern, Durchsuchen und Browsen des Inhalts der digitalen Videoplatte aufzurufen. Andere Quellen von Programminformation können ähnlich auf dieselbe Weise verwendet werden.
  • Es ist zu beachten, dass jede der hier in Bezug auf Video beschriebenen Techniken in gleicher Weise auf Bilder (wie Stehbilder oder einen Videorahmen) und Audio (wie Radio) anwendbar sind.
  • In den 412 ist ein Beispiel einer audiovisuellen Schnittstelle dargestellt, die für das bevorzugte audiovisuelle Beschreibungsschema geeignet ist. Gemäß der 4 wird durch Auswählen der Miniaturbildfunktion als Kategoriefunktion eine Anzeige mit einer Gruppe von Kategorien auf der linken Seite geliefert. Durch Auswählen einer speziellen Kategorie, wie Nachrichten, wird eine Gruppe von Miniaturbildansichten verschiedener Programme geliefert, die aktuell zum Anschauen verfügbar sind. Außerdem können die verschiedenen Programme auch solche Programme enthalten, die zu einem anderen Zeitpunkt zum Anschauen verfügbar sind. Die Miniaturbildansichten sind kurze Videosegmente, die eine Kennzeichnung für den Inhalt des jeweiligen aktuellen Programms, das ihnen entspricht, liefern. Gemäß der 5 kann eine Miniaturbildansicht verfügbarer Programme entsprechend Kanälen angezeigt werden, falls dies erwünscht ist. Gemäß der 6 kann eine Textansicht verfügbarer Programme entsprechend Kanälen angezeigt werden, falls dies erwünscht ist. Gemäß der 7 kann eine Rahmenansicht spezieller Programme angezeigt werden, falls dies erwünscht ist. In der Mitte der Anzeige wird ein repräsentativer Rahmen mit einer Gruppe repräsentativer Rahmen verschiedener Programme in der linken Spalte angezeigt. Die Häufigkeit der Anzahl der Rahmen kann nach Wunsch ausgewählt werden. Auch wird eine Gruppe von Rahmen im unteren Teil der Anzeige angezeigt, die für verschiedene Rahmen während des speziellen ausgewählten Programms repräsentativ sind. Gemäß der 8 kann eine Einzelbildansicht spezieller Programme nach Wunsch angezeigt werden. Ein repräsentativer Rahmen eines Einzelbilds wird im Zentrum der Anzeige mit einer Gruppe repräsentativer Rahmen verschiedener Programme in der linken Spalte angezeigt. Auch wird eine Gruppe von Einzelbildern im unteren Teil der Anzeige angezeigt, die für verschie dene Einzelbilder (Segmente eines Programms, typischerweise der Art nach sequenziell) während des speziellen ausgewählten Programms repräsentativ sind. Gemäß der 9 kann eine Schlüsselrahmenansicht spezieller Programme nach Wunsch angezeigt werden. Es wird ein repräsentativer Rahmen in der Mitte der Anzeige mit einer Gruppe repräsentativer Rahmen verschiedener Programme in der linken Spalte angezeigt. Auch wird im unteren Teil der Anzeige eine Gruppe von Schlüsselrahmenansichten angezeigt, die für verschiedene Schlüsselrahmenabschnitte während des speziellen ausgewählten Programms repräsentativ ist. Die Anzahl der Schlüsselrahmen in jeder Schlüsselrahmenansicht kann dadurch eingestellt werden, dass die Ebene ausgewählt wird. Gemäß der 10 kann in ähnlicher Weise nach Wunsch eine Highlightansicht angezeigt werden. Gemäß der 11 wird in ähnlicher Weise eine Ereignisansicht nach Wunsch angezeigt. Gemäß der 12 kann in ähnlicher Weise eine Figur-/Objektansicht nach Wunsch angezeigt werden.
  • Unten ist ein Beispiel für die Beschreibungsschemas in XML angegeben. Das Beschreibungsschema kann in jeder beliebigen Sprache implementiert werden, und es enthält, nach Wunsch, beliebige der enthaltenen Beschreibungen (oder mehr).
  • Das vorgeschlagene Programm-Beschreibungsschema enthält drei Hauptabschnitte zum Beschreiben eines Videoprogramms. Der erste Abschnitt kennzeichnet das beschriebene Programm. Der zweite Abschnitt definiert eine Anzahl von Ansichten, die bei Browseanwendungen nützlich sein können. Der dritte Abschnitt definiert eine Anzahl von Profilen, die bei Filter- und Suchanwendungen nützlich sein können. Daher ist die Gesamtstruktur des vorgeschlagenen Beschreibungsschemas die Folgende:
  • Figure 00250001
  • Programmidentität • Programm-ID
    Figure 00260001
  • Der Deskriptor <ProgramID> enthält eine Nummer oder eine Zeichenkette zum Kennzeichnen eines Programms.
  • • Programmname
    Figure 00260002
  • Der Deskriptor <ProgramName> spezifiziert den Namen eines Programms.
  • • Quellposition
    Figure 00260003
  • Der Deskriptor <SourceLocation> spezifiziert den Ort eines Programms im URL-Format.
  • Programmansichten Miniaturbildansicht
    Figure 00270001
  • Der Deskriptor <ThumbnailView> spezifiziert ein Bild als Miniaturbilddarstellung eines Programms.
  • • Diaansicht
    Figure 00270002
  • Der Deskriptor <SlideView> spezifiziert die Anzahl von Rahmen in einem Programm, die als Schnappschüsse oder auf Diaschauweise angeschaut werden können.
  • • Rahmenansicht
    Figure 00270003
  • Der Deskriptor <FrameView> spezifiziert den Start- und den Endrahmen eines Programms. Dies ist die Grundansicht eines Programms, und jedes Programm verfügt über eine Rahmenansicht.
  • • Einzelbildansicht
    Figure 00280001
  • Der Deskriptor <ShotView> spezifiziert eine Anzahl von Einzelbildern in einem Programm. Der Deskriptor <Shot> definiert den Start- und den Endrahmen eines Einzelbilds. Er kann auch einen Rahmen zum Repräsentieren des Einzelbilds spezifizieren.
  • • Schlüsselrahmenansicht
    Figure 00280002
  • Der Deskriptor <KeyFrameView> spezifiziert Schlüsselrahmen in einem Programm. Die Schlüsselrahmen können auf hierarchische Weise organisiert werden, und die Hierarchie wird durch den Deskriptor <KeyFrames> mit einem Attribut zur Ebene erfasst. Die Clips, die jedem Schlüsselrahmen zugeordnet sind, werden durch den Deskriptor <Clip> definiert. Hierbei ist der Anzeigerahmen in jedem Clip der entsprechende Schlüsselrahmen.
  • • Highlightansicht
    Figure 00290001
  • Der Deskriptor <HighlightView> spezifiziert Clips zum Erzeugen von Highlights eines Programms. Ein Programm kann verschiedene Versionen von Highlights enthalten, die auf verschiedene zeitliche Längen zugeschnitten sind. Die Clips werden in eine jeweilige Highlightversion gruppiert, die durch den Deskriptor <Highlight> mit einem Längenattribut spezifiziert wird.
  • • Ereignisansicht
    Figure 00300001
  • Der Deskriptor <EventView> spezifiziert Clips, die mit bestimmten Ereignissen in einem Programm in Beziehung stehen. Die Clips werden in die entsprechenden Ereignisse gruppiert, die durch den Deskriptor <Event> mit einem Namensattribut spezifiziert werden.
  • • Nahansicht
    Figure 00300002
  • Figure 00310001
  • Der Deskriptor <CloseUpView> spezifiziert Clips, die in einem Programm in bestimmte Ziele gezoomt werden können. Die Clips werden in die entsprechenden Ziele gruppiert, die durch den Deskriptor <Target> mit einem Namensattribut spezifiziert werden.
  • • Alternative Ansicht
    Figure 00310002
  • Der Deskriptor <AlternativeView> spezifiziert Quellen, die als alternative Ansichten eines Programms dargestellt werden können. Jede alternative Ansicht wird vom Deskriptor <AlternateSource> mit einem id-Attribut spezifiziert. Der Ort der Quelle kann im URL-Format spezifiziert sein.
  • Programmprofile • Allgemeines Profil
    Figure 00320001
  • Der Deskriptor <GeneralProfile> beschreibt die allgemeinen Gesichtspunkte eines Programms.
  • • Kategorieprofil
    Figure 00320002
  • Der Deskriptor <CategoryProfile> spezifiziert die Kategorien, in die ein Programm eingeordnet werden kann.
  • • Datum-Zeit-Profil
    Figure 00330001
  • Der Deskriptor <DateTimeProfile> spezifiziert verschiedene Datums- und Zeitinformationen eines Programms.
  • • Schlüsselwortprofil
    Figure 00330002
  • Der Deskriptor <KeywortProfile> spezifiziert eine Anzahl von Schlüsselwörtern, die dazu verwendet werden können, ein Programm zu filtern oder zu durchsuchen.
  • • Triggerprofil
    Figure 00330003
  • Der Deskriptor <TriggerProfile> spezifiziert eine Anzahl von Rahmen in einem Programm, die dazu verwendet werden können, bestimmte Aktionen auszulösen, während das Programm abgespielt wird.
  • • Stehbildprofil
    Figure 00340001
  • Figure 00350001
  • Der Deskriptor <StillProfile> spezifiziert heiße oder interessierende Bereiche innerhalb eines Rahmens. Der Rahmen wird vom Deskriptor <Still> mit einem id-Attribut, das der Rahmen-id entspricht, spezifiziert. Innerhalb eines Rahmens wird jeder heiße Bereich durch den Deskriptor <HotRegion> mit einem id-Attribut spezifiziert.
  • • Ereignisprofil
    Figure 00350002
  • Figure 00360001
  • Der Deskriptor <EventProfile> spezifiziert die Detailinformation für bestimmte Ereignisse in einem Programm. Jedes Ereignis wird durch den Deskriptor <Event> mit einem Namensattribut spezifiziert. Jedes Auftreten eines Ereignisses wird durch den Deskriptor <Occurrence> mit einem id-Attribut spezifiziert, das mit einer Clip-id unter <EventView> übereinstimmen kann.
  • • Figurprofil
    Figure 00360002
  • Figure 00370001
  • Figure 00380001
  • Der Deskriptor <CharacterProfile> spezifiziert Detailinformation für bestimmte Figuren in einem Programm. Jede Figur wird durch den Deskriptor <Character> mit einem Namensattribut spezifiziert. Jedes Auftreten einer Figur wird durch den Deskriptor <Occurrence> mit einem id- Attribut spezifiziert, das mit einer Clip-id unter <CloseUpView> übereinstimmen kann.
  • • Objektprofil
    Figure 00380002
  • Figure 00390001
  • Der Deskriptor <ObjectProfile> spezifiziert Detailinformation für bestimmte Objekte in einem Programm. Jedes Objekt wird durch den Deskriptor <Object> mit einem Namensattribut spezifiziert. Jedes Auftreten eines Objekts wird durch den Deskriptor <Occurrence> mit einem id-Attribut spezifiziert, das mit einer Clip-id unter <CloseUpView> übereintimmen kann.
  • • Farbprofil
    Figure 00400001
  • Der Deskriptor <ColorProfile> spezifiziert detaillierte Farbinformation eines Programms. Hier können alle MPEG-7-Farbdeskriptoren platziert werden.
  • • Texturprofil
    Figure 00400002
  • Der Deskriptor <TextureProfile> spezifiziert detaillierte Texturinformation eines Programms. Es können alle MPEG-7-Trexturdeskriptoren hier platziert werden.
  • • Formprofil
    Figure 00410001
  • Der Deskriptor <ShapeProfile> spezifiziert detaillierte Forminformation eines Programms. Es können alle MPEG-7-Formdeskriptoren hier platziert werden.
  • • Bewegungsprofil
    Figure 00410002
  • Der Deskriptor <MotionProfile> spezifiziert die detaillierte Bewegungsinformation eines Programms. Es können alle MPEG-7-Bewegungsdeskriptoren hier platziert werden.
  • Benutzerbeschreibungsschema
  • Das vorgeschlagene Benutzerbeschreibungsschema beinhaltet drei Hauptabschnitte zum Beschreiben eines Benutzers. Der erste Abschnitt kennzeichnet den beschriebenen Benutzer. Der zweite Abschnitt zeichnet eine Anzahl von Einstellungen auf, wie sie vom Benutzer bevorzugt sein können. Der dritte Abschnitt zeichnet einige statistische Angaben auf, die bestimmte Benutzungsmuster des Benutzers widerspiegeln können. Daher ist die Gesamtstruktur des vorgeschlagenen Beschreibungsschemas die folgende:
  • Figure 00420001
  • Benutzerkennung • Benutzer-ID
    Figure 00420002
  • Der Deskriptor <UserID> enthält eine Zahl oder eine Zeichenkette zum Kennzeichnen eines Benutzers.
  • • Benutzername
    Figure 00430001
  • Der Deskriptor <UserName> spezifiziert den Namen eines Benutzers.
  • Benutzervorlieben • Browsingvorlieben
    Figure 00430002
  • Der Deskriptor <BrowsingPreferences> spezifiziert die Browsingvorlieben eines Benutzers. Die bevorzugten Ansichten des Benutzers werden durch den Deskriptor <Views> spezifiziert. Für jede Kategorie werden die bevorzugten Ansichten durch den Deskriptor <ViewCategory> mit einem id-Attribut spezifiziert, das der Kategorie-id entspricht. Der Deskriptor <FrameFrequency> spezifiziert, mit welchem Intervall die Rahmen in der Rahmenansicht auf einem Browsing-Diaprojektor angezeigt werden sollten. Der Deskriptor <ShotFrequency> spezifiziert, mit welchem Intervall die Einzelbilder auf einem Browsing-Diaprojektor bei der Einzelbildansicht angezeigt werden sollten. Der Deskriptor <KeyFrameLevel> spezifiziert, auf welcher Ebene der Schlüsselrahmen auf einem Browsing-Diaprojektor in der Schlüsselrahmenansicht angezeigt werden sollte. Der Deskriptor <HighlightLength> spezifiziert, welche Highlightversion bei der Highlightansicht angezeigt werden sollte.
  • • Filterungsvorlieben
    Figure 00440001
  • Der Deskriptor <FilteringPreferences> spezifiziert die filterbezogenen Vorlieben eines Benutzers.
  • • Suchvorlieben
    Figure 00450001
  • Der Deskriptor <SearchPreferences> spezifiziert die suchbezogenen Vorlieben eines Benutzers.
  • Gerätevorlieben
    Figure 00450002
  • Der Deskriptor <DevicePreferences> spezifiziert die Gerätevorlieben eines Benutzers.
  • Benutzungsverlauf • Browsingverlauf
    Figure 00460001
  • Der Deskriptor <BrowsingHistory> erfasst den Verlauf browsingbezogener Aktivitäten eines Benutzers.
  • • Filterungsverlauf
    Figure 00460002
  • Figure 00470001
  • Der Deskriptor <FilteringHistory> erfasst den Verlauf filterungsbezogener Aktivitäten eines Benutzers.
  • • Suchverlauf
    Figure 00470002
  • Der Deskriptor <SearchHistory> erfasst den Verlauf suchbezogener Aktivitäten eines Benutzers.
  • • Geräteverlauf
    Figure 00480001
  • Der Deskriptor <DeviceHistory> erfasst den Verlauf gerätebezogener Aktivitäten eines Benutzers.
  • Demografische Benutzerangaben • Alter
    Figure 00480002
  • Der Deskriptor <Age> spezifiziert das Alter eines Benutzers.
  • • Geschlecht
    Figure 00480003
  • Der Deskriptor <Gender> spezifiziert das Geschlecht eines Benutzers.
  • • Postleitzahl
    Figure 00490001
  • Der Deskriptor <ZIP> spezifiziert die Postleitzahl des Orts, an dem ein Benutzer lebt.
  • System-Beschreibungsschema
  • Das vorgeschlagene System-Beschreibungsschema enthält vier Hauptabschnitte zum Beschreiben eines Benutzers. Der erste Abschnitt kennzeichnet das beschriebene System. Der zweite Abschnitt speichert eine Liste aller bekannten Benutzer. Der dritte Abschnitt speichert Listen verfügbarer Programme. Der vierte Abschnitt beschreibt die Fähigkeiten des Systems. Daher ist die Gesamtstruktur des vorgeschlagenen Beschreibungsschemas die folgende:
  • Figure 00490002
  • Figure 00500001
  • Systemidentität • System-ID
    Figure 00500002
  • Der Deskriptor <SystemID> enthält eine Zahl oder eine Zeichenkette zum Kennzeichnen eines Videosystems oder eines Geräts.
  • • Systemname
    Figure 00500003
  • Der Deskriptor <SystemName> spezifiziert den Namen eines Videosystems oder eines Geräts.
  • • Seriennummer des Systems
    Figure 00500004
  • Der Deskriptor <SystemSerialNumber> spezifiziert die Seriennummer eines Videosystems oder eines Geräts.
  • Systembenutzer • Benutzer
    Figure 00510001
  • Der Deskriptor <SystemUsers> listet eine Anzahl von Benutzern auf, die für ein Videosystem oder ein Gerät registriert sind. Jeder Benutzer wird durch den Deskriptor <User> spezifiziert. Der Deskriptor <UserID> spezifiziert eine Zahl oder eine Zeichenkette, die mit der in <UserID> in einem der Benutzer-Beschreibungsschemas spezifizierten Zahl oder Zeichenkette übereinstimmen sollte.
  • Programme im System • Kategorien
    Figure 00510002
  • Figure 00520001
  • Der Deskriptor <Categories> listet eine Anzahl von Kategorien auf, die in einem Videosystem oder einem Gerät registriert wurden. Jede Kategorie wird durch den Deskriptor <Category> spezifiziert. Die Haupt-Unter-Beziehung zwischen den Kategorien wird durch den Deskriptor <SubCategories> erfasst.
  • • Kanäle
    Figure 00520002
  • Figure 00530001
  • Der Deskriptor <Programs> listet Programme auf, die in einem Videosystem oder in einem Gerät verfügbar sind. Die Programme werden in entsprechende Kategorien oder Kanäle eingruppiert. Jede Gruppe von Programmen wird durch den Deskriptor <CategoryPrograms> oder <ChannelPrograms> spezifiziert. Jede Programm-id im Deskriptor <Programs> sollte mit der Zahl oder der Zeichenkette übereinstimmen, die in <ProgrammID> in einem der Programm-Beschreibungsschemas spezifiziert ist.
  • Systemfähigkeiten • Ansichten
    Figure 00530002
  • Figure 00540001
  • Der Deskriptor <Channels> listet eine Anzahl von Kanälen auf, die in einem Videosystem oder einem Gerät registriert wurden. Jeder Kanal wird durch den Deskriptor <Channel> spezifiziert. Die Haupt-Unter-Beziehung zwischen Kanälen wird durch den Deskriptor <SubChannels> erfasst.
  • • Programme
    Figure 00540002
  • Der Deskriptor <Views> listet Ansichten auf, die durch ein Videosystem oder ein Gerät unterstützt werden. Jede Ansicht wird durch den Deskriptor <View> spezifiziert. Der Deskriptor (ViewName> enthält eine Zeichenkette, die mit einer der folgenden Ansichten übereinstimmen sollte, wie sie in den Programm-Beschreibungsschemas verwendet werden: ThumbnailView, SlideView, Frame,View, ShotView, KeyFrameView, HighlightView, EventView und CloseUpView.
  • Die Erfinder haben erkannt, dass das Programm-Beschreibungsschema weiter modifiziert werden kann, um für zusätzliche Fähigkeiten zu sorgen. Gemäß der 13 enthält das modifizierte Programm-Beschreibungsschema 400 vier gesonderte Typen von Information, nämlich ein Syntaxstruktur-Beschreibungsschema 402, ein Semantikstruktur-Beschreibungsschema 404, ein Visualisierungs-Beschreibungsschema 406 und ein Metainformations-Beschreibungsschema 408. Es ist zu beachten, dass in jedem speziellen System ein oder mehrere der Beschreibungsschemas, nach Wunsch, enthalten sein können.
  • Es wird auf die 14 Bezug genommen, gemäß der das Visualisierungs-Beschreibungsschema 406 ein schnelles und effektives Browsen durch ein Videoprogramm (und Audioprogramme) dadurch ermöglicht, dass Zugriff auf die erforderlichen Daten, vorzugsweise in einem Prozess mit einem Schritt, ermöglicht wird. Das Visualisierungs-Beschreibungsschema 406 sorgt für mehrere verschiedene Präsentationen des Videoinhalts (oder Audio), wie z.B. ein Miniaturbildansicht-Beschreibungsschema 410, ein Schlüsselrahmenansicht-Beschreibungsschema 412, ein Highlightansicht-Beschreibungsschema 414, ein Ereignisansicht-Beschreibungsschema 416, ein Nahansicht-Beschreibungsschema 418 und ein Alternativ-Ansicht-Beschreibungsschema 420. Andere Präsentationstechniken und Beschreibungsschemas können nach Wunsch hinzugefügt werden. Das Miniaturbildansicht-Beschreibungsschema 410 enthält vorzugsweise ein Bild 422 oder einen Verweis auf ein Bild, das für den Videoinhalt repräsentativ ist, sowie einen zeitlichen Verweis 424 auf die Videoinformation. Das Schlüsselrahmenansicht-Beschreibungsschema 412 enthält vorzugsweise einen Ebenenanzeiger 426 und einen Zeitverweis 428. Der Ebenenanzeiger 426 sorgt abhängig von der Vorliebe des Benutzers für die Präsentation einer verschiedenen Anzahl von Schlüsselrahmen für denselben Videoabschnitt. Das Highlightansicht-Beschreibungsschema 414 enthält einen Längenanzeiger 430 und einen Zeitverweis 432. Der Längenanzeiger 430 sorgt abhängig von der Vorliebe des Benutzers für die Präsentation einer anderen Highlightdauer eines Videos. Das Ereignisansicht-Beschreibungsschema 416 enthält vorzugsweise einen Ereignisanzeiger 434 für die Auswahl des gewünschten Ereignisses sowie einen Zeitverweis 436. Das Nahansicht-Beschreibungsschema 418 enthält vorzugsweise einen Zielanzeiger 438 und einen Zeitverweis 440. Das Alternativ-Ansicht-Beschreibungsschema enthält vorzugsweise einen Quellenanzeiger 442. Um das Funktionsvermögen des Systems zu erhöhen ist es bevorzugt, diejenigen Daten zu spezifizieren, die dazu erforderlich sind, derartige Ansichten auf zentralisierte und unkomplizierte Weise zu erstellen. Durch diese Vorgehensweise ist es dann ausführbar, in einem einfachen einstufigen Prozess ohne komplizierte Zerlegung des Videos auf die Daten zuzugreifen.
  • Gemäß der 15 enthält das Metainformations-Beschreibungsschema 408 im Wesentlichen verschiedene Deskriptoren, die allgemeine Information zu einem Video-(oder Audio)programm enthalten, wie den Titel, die Kategorie, Schlüsselwörter usw. Zusätzliche Deskriptoren, wie die bereits beschriebenen, können, nach Wunsch, enthalten sein.
  • Gemäß erneuter Bezugnahme auf die 13 spezifiziert das Syntaxstruktur-Beschreibungsschema 402 die physikalische Struktur eines Videoprogramms (oder Audio), z.B. ein Inhaltsverzeichnis. Zu den physikalischen Merkmalen können z.B. die Farbe, die Textur, Bewegung usw. gehören. Das Syntaxstruktur-Beschreibungsschema 402 enthält vorzugsweise drei Module, nämlich ein Segment-Beschreibungsschema 450, ein Bereichs-Beschreibungsschema 452 und ein Segment/Bereich-Beziehungsgraph-Beschreibungsschema 454. Das Segment-Beschreibungsschema 450 kann dazu verwendet werden, Beziehungen zwischen verschiedenen Teilen des Videos, die aus mehreren Rahmen desselben bestehen, zu definieren. Ein Segment-Beschreibungsschema 450 kann ein anderes Segment-Beschreibungsschema 450 und/oder ein Einzelbild-Beschreibungsschema enthalten, um einen Segmentbaum zu bilden. Ein derartiger Segmentbaum kann dazu verwendet werden, eine zeitliche Struktur eines Videoprogramms zu definieren. Es können mehrere Segmentbäume erzeugt werden, wodurch mehrere Inhaltsverzeichnisse erzeugt werden. Z.B. kann ein Videoprogramm in Storyeinheiten, Szenen und Einzelbilder unterteilt werden, von denen das Segment-Beschreibungsschema 450 derartige Information als Inhaltsverzeichnis enthalten kann. Das Einzelbild-Beschreibungsschema kann eine Anzahl von Schlüsselrahmen-Beschreibungsschemas, mindestens ein Mosaik-Beschreibungsschema, mindestens ein Kamerabewegungs-Beschreibungsschema usw. enthalten. Das Schlüsselrahmen-Beschreibungsschema kann ein Stehbild-Beschreibungsschema enthalten, das seinerseits Deskriptoren für die Farbe und die Textur enthält. Es wird darauf hingewiesen, dass im Stehbild-Beschreibungsschema unter dem Segment-Beschreibungsschema verschiedene Deskriptoren auf niedriger Ebene enthalten sein können. Auch können visuelle Deskriptoren im Be reichs-Beschreibungsschema enthalten sein, das nicht notwendigerweise unter einem Stehbild-Beschreibungsschema vorliegt. Ein Beispiel für ein Segment-Beschreibungsschema 450 ist in der 16 dargestellt.
  • Gemäß der 17 definiert das Bereichs-Beschreibungsschema 452 die Beziehungen zwischen Gruppen von Pixeln desselben und/oder verschiedener Rahmen des Videos. Das Bereichs-Beschreibungsschema 452 kann geometrische Merkmale, die Farbe, Texturmerkmale, Bewegungsmerkmale usw. enthalten.
  • Gemäß der 18 definiert das Segment/Bereich-Beziehungsgraph-Beschreibungsschema 454 die Beziehungen zwischen mehreren Bereichen (oder Bereichs-Beschreibungsschemas), mehreren Segmenten (oder Segment-Beschreibungsschemas) und/oder mehreren Bereichen (oder Beschreibungsschemas) sowie Segmenten (oder Beschreibungsschemas).
  • Gemäß erneuter Bezugnahme auf die 13 wird das Semantikstruktur-Beschreibungsschema 404 dazu verwendet, Semantikmerkmale eines Videoprogramms (oder Audio) zu spezifizieren, z.B. semantische Ereignisse. Auf ähnliche Weise wie das Syntaxstruktur-Beschreibungsschema enthält das Semantikstruktur-Beschreibungsschema 404 vorzugsweise drei Module, nämlich ein Ereignis-Beschreibungsschema 480, ein Objekt-Beschreibungsschema 482 und ein Ereignis/Objekt-Beziehungsgraph-Beschreibungsschema 484. Das Ereignis-Beschreibungsschema 480 kann dazu verwendet werden, Beziehungen zwischen verschiedenen Ereignissen des Videos herzustellen, die normalerweise aus mehreren Rahmen desselben bestehen. Ein Ereignis-Beschreibungsschema 480 kann ein anderes Ereignis-Beschreibungsschema 480 enthalten, um einen Segmentbaum zu bilden. Ein derartiger Ereignissegmentbaum kann dazu verwendet werden, eine semantische Indextabelle für ein Videoprogramm zu definieren. Es können mehrere Ereignisbäume erzeugt werden, wodurch mehrere Indextabellen erzeugt werden. Z.B. kann ein Videoprogramm mehrere Ereignisse enthalten, wie einen Tauchwurf, einen Steilangriff und einen Freiwurf beim Basketball, und das Ereignis-Beschreibungsschema kann derartige Information als Indextabelle enthalten. Das Ereignis-Beschreibungsschema kann auch Bezugnahmen enthalten, die das Ereignis mit den entsprechenden Segmenten und/oder Bereichen verknüpfen, die im Syntaxstruktur-Beschreibungsschema spezifiziert sind. Ein Beispiel für ein Ereignisbeschreibungsschema ist in der 19 dargestellt.
  • Gemäß der 20 definiert das Objekt-Beschreibungsschema 482 die Beziehungen zwischen Gruppen von Pixeln desselben und/oder verschiedener Rahmen des Videos, die für Objekte repräsentativ sind. Das Objekt-Beschreibungsschema 482 kann ein anderes Objekt-Beschreibungsschema enthalten, um dadurch einen Objektbaum zu bilden. Ein derartiger Objektbaum kann dazu verwendet werden, eine Objektindextabelle für ein Videoprogramm zu definieren. Das Objekt-Beschreibungsschema kann auch Bezugnahmen enthalten, die das Objekt mit den entsprechenden Segmenten und/oder Bereichen verknüpfen, die im Syntaxstruktur-Beschreibungsschema spezifiziert sind.
  • Gemäß der 21 definiert das Ereignis/Objekt-Beziehungsgraph-Beschreibungsschema 484 die Beziehungen zwischen mehreren Ereignissen (oder Ereignis-Beschreibungsschemas), mehreren Objekten (oder Objekt-Beschreibungsschemas) und/oder mehreren Ereignissen (oder Beschreibungsschemas) und Objekten (oder Beschreibungsschemas).

Claims (31)

  1. Verfahren zum Verwenden eines audiovisuellen Geräts, mit den folgenden Schritten: (a) Bereitstellen, (i) einer Programmbeschreibungsdatei, die in einer Programmbeschreibungssprache implementiert ist und Folgendes enthält: – Programmdateien; und – Informationsfelder hinsichtlich verfügbaren audiovisuellen Inhalts; – wobei die Programmbeschreibungsdatei von einem Inhalteprovider geliefert wird; (ii) einer Benutzerbeschreibungsdatei, die in einer Beschreibungssprache implementiert ist und Folgendes aufweist: – Information betreffend mindestens eine der persönlichen Vorlieben des Benutzers, einen Anschauverlauf des Benutzers und einen Anhörverlauf desselben; und – ein oder mehrere Informationsfelder hinsichtlich verfübarer Benutzer; – wobei die Benutzerbeschreibungsdatei modular und portierbar ist, so dass Benutzer sie von einem audiovisuellen Gerät zu einem anderen mitnehmen oder portieren können; (iii) einer Systembeschreibungsdatei, die in einer Beschreibungssprache implementiert ist; – die Information hinsichtlich des audiovisuellen Geräts liefert; – und Information hinsichtlich Fähigkeiten einer Vorrichtung zum Liefern audiovisuellen Inhalts an einen Benutzer enthält; – ferner mit: – ersten Informationsfeldern hinsichtlich verfügbaren audiovisuellen Inhalts, wobei die ersten Informationsfelder zumindest teilweise mit entsprechenden Informationsfeldern der Programmbeschreibungsdatei überlappen; – zweiten Informationsfeldern hinsichtlich verfügbaren Benutzer, wobei die zweiten Informationsfelder zumindest teilweise mit entsprechenden Informationsfeldern der Benutzerbeschreibungsdatei überlappen; – wobei die Beschreibungsdateien als separate Beschreibungsdateien bereitgestellt sind; (b) automatisches Auswählen mindestens einer Video-, einer Bild- und einer Audioinformation auf Grundlage der Systembeschreibungsdatei, der Programmbeschreibungsdatei und der Benutzerbeschreibungsdatei; – wobei die teilweise überlappenden Informationsfelder zum Korrelieren von Information hinsichtlich verfügbaren audiovisuellen Inhalts und verfügbarer Benutzer verwendet werden.
  2. Verfahren nach Anspruch 1, bei dem die Programmbeschreibungsdatei (18) mindestens eine der folgenden Informationen enthält: einen Titel, eine Kategorie, eine Anmerkung, ein Schlüsselwort und einen Datenwert betreffend mehrere Rahmen.
  3. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) Felder zum Speichern des Folgenden enthält: (1) Information hinsichtlich Beziehungen zwischen mehreren Rahmen mit der Kennung von Schlüsselrahmen der Videoinformation; (2) Information hinsichtlich Beziehungen zwischen den mehreren Rahmen mit Kennung mehrerer Rahmen, die für die Highlights zumindest eines Teils der Videoinformation repräsentativ sind; (3) Information hinsichtlich Beziehungen zwischen den Rahmen mit der Kennung einer Gruppe von Rahmen, von denen jede für einen anderen Teil der Videoinformation repräsentativ ist; (4) und Information hinsichtlich Beziehungen zwischen den mehreren Rahmen mit der Kennung mehrerer sequenzieller Rahmen der Videoinformation, die mindestens eine Aufnahme und eine Szene repräsentiert.
  4. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) Felder zum Speichern mindestens einer der folgenden Profile enthält: ein Farbprofil mindestens eines Teils der Videoinformation; ein Texturprofil mindestens eines Teils der Videoinformation; ein Formprofil mindestens eines Teils der Videoinformation; und ein Bewegungsprofil mindestens eines Teils der Videoinformation.
  5. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) eine zweite Audiospur getrennt von der normalen Audiospur der Videoinformation kennzeichnet.
  6. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) auf dem Internet beruhende Information betreffend die Videoinformation kennzeichnet.
  7. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) die Syntaxstruktur mehrerer Rahmen der Videoinformation enthält.
  8. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) eine Semantikstruktur hinsichtlich mehrerer Rahmen der Videoinformation enthält.
  9. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Information für die Programmbeschreibungsdatei (18) aus dem Inhalt von Videoinformation entnommen wird.
  10. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit dem Schritt des Erzeugens einer Zusammenfassung der Videoinformation mit einer vom Benutzer bestimmten Dauer auf Grundlage der Information der Programmbeschreibungsdatei (18).
  11. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den folgenden Schritten: (a) Erzeugen von Zusammenfassungs- und/oder Schlüsselrahmeninformation für die Videoinformation auf Grundlage des Inhalts derselben; und (b) Aufnehmen der Zusammenfassungs- und/oder der Schlüsselrahmeninformation in die Programmbeschreibungsdatei (18).
  12. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Benutzerbeschreibungsdatei (20) die Information betreffend den Anschauverlauf des Benutzers enthält.
  13. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Information (14) betreffend den Benutzer geografische und/oder demografische Information enthält.
  14. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Benutzerbeschreibungsdatei (20) persönliche Vorlieben des Benutzers enthält.
  15. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Benutzerbeschreibungsdatei (20) in einem elektronischen Handgerät enthalten ist.
  16. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Benutzerbeschreibungsdatei (20) vorausgewählte Frequenzen und vorausgewählte Stationen für Rundfunkübertragungen enthält.
  17. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Systembeschreibungsdatei (22) Fähigkeiten der Vorrichtung (12) zum Bereitstellen der Audio- und oder der Bild- und/oder der Videoinformation für den Benutzer enthält.
  18. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Videoinformation von mindestens einer der folgenden Quellen aufgenommen wird: übertragenes Fernsehen, Kabelfernsehen, Satellitenfernsehen, digitales Fernsehen, Internetübertragungen, Worldwide Web, digitale Videoplatten, Stehbilder, Videokameras, Laserplatten, magnetische Medien, Computerfestplatte, Videoband, Datendienste und Mikrowellen-Kommunikationen.
  19. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) von mindestens einer der folgenden Quellen empfangen wird: PSIP/DVB-SI-Information bei digitalen Fernsehübertragungen, spezielle digitale Fernsehdatendienste, spezielle Internetdienste, Datendatei, Daten über eine Telefonleitung und Computerspeicher.
  20. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den Schritt des Bestimmens, auf das Empfangen der Videoinformation hin, gemeinsam mit Information innerhalb der Benutzerbeschreibungsdatei (20), ob eine Analyse der Videoinformation auszuführen sei.
  21. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den folgenden Schritten: (a) Entnehmen von Information, wie sie in der Systembeschreibungsdatei (22) und/oder der Programmbeschreibungsdatei (18) enthalten ist; und (b) Modifizieren der in der Benutzerbeschreibungsdatei (20) enthaltenen Information (14) auf Grundlage des Entnahmevorgangs.
  22. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den folgenden Schritten: (a) Speichern der Benutzerbeschreibungsdatei (20) in mindestens einer tragbaren Vorrichtung; (b) Verbinden der tragbaren Vorrichtung mit mehreren verschiedenen zweiten Vorrichtungen, von denen jede die in der Benutzerbeschreibungsdatei (20) enthaltene Information (14) verwendet.
  23. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, bei dem die Programmbeschreibungsdatei (18) in einer Kamera enthalten ist und das System die in dieser Kamera enthaltene Information, zumindest teilweise, auf Grundlage der Information der Benutzerbeschreibungsdatei (20) und der Information der Systembeschreibungsdatei (22) modifiziert.
  24. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit einer Suchvorrichtung zum Identifizieren von Videoinformation, zumindest teilweise, auf Grundlage der Information (10) der Programmbeschreibungsdatei (18) und der Information (14) der Benutzerbeschreibungsdatei (20).
  25. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit einer Aufzeichnungsvorrichtung, die Videoübertragungen, wie sie für den Benutzer wünschenswert sein können, auf Grundlage der in der Programmbeschreibungsdatei (18) enthaltenen Information und der in der Benutzerbeschreibungsdatei (20) enthaltenen Information (14) aufzeichnet.
  26. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den folgenden Schritten: (a) Speichern der Benutzerbeschreibungsdatei (20) und/oder der Systembeschreibungsdatei (22) und/oder der Programmbeschreibungsdatei (18) in einer ersten Vorrichtung; und (b) Übertragen der Benutzerbeschreibungsdatei (20) und/oder der Systembeschreibungsdatei (22) und/oder der Programmbeschreibungsdatei (18) über ein Netzwerk an eine zweite Vorrichtung.
  27. Verfahren nach Anspruch 1 oder einem der vorstehenden Ansprüche, ferner mit den folgenden Schritten: (a) Bereitstellen der Systembeschreibungsdatei (22) über ein Netzwerk an einen Provider von Audio- und/oder Bild- und/oder Videodaten; (b) wobei der Provider auf den Empfang der Systembeschreibungsdatei (22) hin die Audio- und/oder Bild- und/oder Videodaten entsprechend derselben auswählt; und (c) Bereitstellen der Audio- und/oder Bild- und/oder Videodaten an eine Vorrichtung (12) für einen Benutzer.
  28. Vorrichtung zum Verwalten eines audiovisuellen Geräts, mit: einer Einrichtung zum Bereitstellen (i) einer Programmbeschreibungsdatei, die in einer Programmbeschreibungssprache implementiert ist und Folgendes enthält: – Programmdateien; und – Informationsfelder hinsichtlich verfügbaren audiovisuellen Inhalts; – wobei die Programmbeschreibungsdatei von einem Inhalteprovider geliefert wird; (ii) einer Benutzerbeschreibungsdatei, die in einer Beschreibungssprache implementiert ist und Folgendes aufweist: – Information betreffend mindestens eine der persönlichen Vorlieben des Benutzers, einen Anschauverlauf des Benutzers und einen Anhörverlauf desselben; und – ein oder mehrere Informationsfelder hinsichtlich verfübarer Benutzer; – wobei die Benutzerbeschreibungsdatei modular und portierbar ist, so dass Benutzer sie von einem audiovisuellen Gerät zu einem anderen mitnehmen oder portieren können; (iii) einer Systembeschreibungsdatei, die in einer Beschreibungssprache implementiert ist; – die Information hinsichtlich des audiovisuellen Geräts liefert; – und Information hinsichtlich Fähigkeiten einer Vorrichtung zum Liefern audiovisuellen Inhalts an einen Benutzer enthält; – ferner mit: – ersten Informationsfeldern hinsichtlich verfügbaren audiovisuellen Inhalts, wobei die ersten Informationsfelder zumindest teilweise mit entsprechenden Informationsfeldern der Programmbeschreibungsdatei überlappen; – zweiten Informationsfeldern hinsichtlich verfügbaren Benutzer, wobei die zweiten Informationsfelder zumindest teilweise mit entsprechenden Informationsfeldern der Benutzerbeschreibungsdatei überlappen; – wobei die Beschreibungsdateien als separate Beschreibungsdateien bereitgestellt sind; (b) einer Auswähleinrichtung – zum automatischen Auswählen mindestens einer Video-, einer Bild- und einer Audioinformation auf Grundlage der Systembeschreibungsdatei, der Programmbeschreibungsdatei und der Benutzerbeschreibungsdatei; – wobei die teilweise überlappenden Informationsfelder zum Korrelieren von Information hinsichtlich verfügbaren audiovisuellen Inhalts und verfügbarer Benutzer verwendet werden.
  29. Vorrichtung nach Anspruch 28, mit einer Einrichtung zum Entnehmen von Information für die Programmbeschreibungsdatei (18) aus dem Inhalt von Videoinformation selbst.
  30. Vorrichtung nach Anspruch 28 oder 29, ferner mit einer Videozusammenfassungseinrichtung zum Erzeugen einer Zusammenfassung der Videoinformation mit vom Benutzer bestimmter Dauer auf Grundlage der Information der Programmbeschreibungsdatei (18).
  31. Vorrichtung nach einem der Ansprüche 28, 29 und 30, ferner mit: – einer Einrichtung zum Erzeugen von Zusammenfassungs- und/oder Schlüsselrahmeninformation der Videoinformation auf Grundlage des Inhalts derselben; und – einer Einrichtung zum Einschließen und Aufrechterhalten der Zusammenfassungs- und/oder Schlüsselrahmeninformation in der Programmbeschreibungsdatei (18).
DE60021443T 1999-02-01 2000-01-27 Verwaltungssystem und -verfahren für audiovisuelle Information Expired - Lifetime DE60021443T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US11819199P 1999-02-01 1999-02-01
US118191 1999-02-01
US12412599P 1999-03-12 1999-03-12
US124125 1999-03-12
US09/299,811 US6236395B1 (en) 1999-02-01 1999-04-26 Audiovisual information management system
US299811 1999-04-26

Publications (2)

Publication Number Publication Date
DE60021443D1 DE60021443D1 (de) 2005-09-01
DE60021443T2 true DE60021443T2 (de) 2006-05-24

Family

ID=27382114

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60021443T Expired - Lifetime DE60021443T2 (de) 1999-02-01 2000-01-27 Verwaltungssystem und -verfahren für audiovisuelle Information

Country Status (4)

Country Link
US (2) US6236395B1 (de)
EP (1) EP1026887B1 (de)
JP (4) JP2000253377A (de)
DE (1) DE60021443T2 (de)

Families Citing this family (378)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
AU5027796A (en) 1995-03-07 1996-09-23 Interval Research Corporation System and method for selective recording of information
US20030093790A1 (en) 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6263507B1 (en) 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US5893062A (en) 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US6360234B2 (en) 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
US6819863B2 (en) * 1998-01-13 2004-11-16 Koninklijke Philips Electronics N.V. System and method for locating program boundaries and commercial boundaries using audio categories
US7146627B1 (en) * 1998-06-12 2006-12-05 Metabyte Networks, Inc. Method and apparatus for delivery of targeted video programming
US8352984B2 (en) 1998-06-12 2013-01-08 Thomson Licensing System and method for generating and managing user preference information for scheduled and stored television programs
US6614987B1 (en) * 1998-06-12 2003-09-02 Metabyte, Inc. Television program recording with user preference determination
CN1867068A (zh) 1998-07-14 2006-11-22 联合视频制品公司 交互式电视节目导视系统及其方法
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
US6694482B1 (en) * 1998-09-11 2004-02-17 Sbc Technology Resources, Inc. System and methods for an architectural framework for design of an adaptive, personalized, interactive content delivery system
US7143434B1 (en) * 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US6320623B1 (en) * 1998-11-13 2001-11-20 Philips Electronics North America Corporation Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event
US6859799B1 (en) 1998-11-30 2005-02-22 Gemstar Development Corporation Search engine for video and graphics
US8290351B2 (en) * 2001-04-03 2012-10-16 Prime Research Alliance E., Inc. Alternative advertising in prerecorded media
KR100347710B1 (ko) * 1998-12-05 2002-10-25 엘지전자주식회사 등장인물들의관계중심동영상검색데이터구성방법및검색방법
US7209942B1 (en) * 1998-12-28 2007-04-24 Kabushiki Kaisha Toshiba Information providing method and apparatus, and information reception apparatus
US6584496B1 (en) * 1999-01-29 2003-06-24 Sony Corporation Distributed help system for consumer electronic devices
DE60045699D1 (de) * 1999-01-29 2011-04-21 Sony Corp Daten-beschreibungs-verfahren und daten-bearbeitung-vorrichtung
US7185049B1 (en) 1999-02-01 2007-02-27 At&T Corp. Multimedia integration description scheme, method and system for MPEG-7
US6633859B1 (en) * 1999-08-17 2003-10-14 Authoria, Inc. Knowledge system with distinct presentation and model structure
US6710822B1 (en) * 1999-02-15 2004-03-23 Sony Corporation Signal processing method and image-voice processing apparatus for measuring similarities between signals
WO2000055962A2 (en) 1999-03-15 2000-09-21 Sony Electronics, Inc. Electronic media system, method and device
US20040255336A1 (en) * 1999-03-30 2004-12-16 Gotuit Video, Inc. Methods and apparatus for simultaneous program viewing
US6993789B1 (en) * 1999-04-23 2006-01-31 Sharp Laboratories Of America DTV data service application and receiver mechanism
US6516329B1 (en) * 1999-04-26 2003-02-04 Gateway, Inc. Method of maintaining search results pages
JP4378576B2 (ja) * 1999-05-18 2009-12-09 ソニー株式会社 受信装置および方法、供給装置および方法、双方向通信システムおよび方法、並びに記録媒体
US7224790B1 (en) * 1999-05-27 2007-05-29 Sbc Technology Resources, Inc. Method to identify and categorize customer's goals and behaviors within a customer service center environment
US7086007B1 (en) * 1999-05-27 2006-08-01 Sbc Technology Resources, Inc. Method for integrating user models to interface design
US6954217B1 (en) * 1999-07-02 2005-10-11 Pentax Corporation Image processing computer system for photogrammetric analytical measurement
US6847980B1 (en) * 1999-07-03 2005-01-25 Ana B. Benitez Fundamental entity-relationship models for the generic audio visual data signal description
US7293280B1 (en) 1999-07-08 2007-11-06 Microsoft Corporation Skimming continuous multimedia content
US7313808B1 (en) * 1999-07-08 2007-12-25 Microsoft Corporation Browsing continuous multimedia content
US8464302B1 (en) * 1999-08-03 2013-06-11 Videoshare, Llc Method and system for sharing video with advertisements over a network
US6615248B1 (en) * 1999-08-16 2003-09-02 Pitney Bowes Inc. Method and system for presenting content selection options
KR100370247B1 (ko) * 1999-08-26 2003-01-29 엘지전자 주식회사 등장인물 관계 기반 동영상 검색 방법
US6513006B2 (en) * 1999-08-26 2003-01-28 Matsushita Electronic Industrial Co., Ltd. Automatic control of household activity using speech recognition and natural language
US7383504B1 (en) * 1999-08-30 2008-06-03 Mitsubishi Electric Research Laboratories Method for representing and comparing multimedia content according to rank
US7996878B1 (en) * 1999-08-31 2011-08-09 At&T Intellectual Property Ii, L.P. System and method for generating coded video sequences from still media
GB2354104A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd An editing method and system
US7194687B2 (en) * 1999-09-16 2007-03-20 Sharp Laboratories Of America, Inc. Audiovisual information management system with user identification
KR100304482B1 (ko) 1999-09-22 2001-11-02 구자홍 다중 계층구조를 가지는 사용자 선호도 정보구조와 이를 이용한 멀티미디어 정보 서비스 방법
KR100350792B1 (ko) * 1999-09-22 2002-09-09 엘지전자 주식회사 사용자 선호도를 반영한 사용자 프로파일 생성방법과 멀티미디어 데이타 브라우징 방법
US7075591B1 (en) 1999-09-22 2006-07-11 Lg Electronics Inc. Method of constructing information on associate meanings between segments of multimedia stream and method of browsing video using the same
US7143432B1 (en) 1999-10-01 2006-11-28 Vidiator Enterprises Inc. System for transforming streaming video data
US7114174B1 (en) 1999-10-01 2006-09-26 Vidiator Enterprises Inc. Computer program product for transforming streaming video data
US7339993B1 (en) * 1999-10-01 2008-03-04 Vidiator Enterprises Inc. Methods for transforming streaming video data
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US7181757B1 (en) * 1999-10-11 2007-02-20 Electronics And Telecommunications Research Institute Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US6675158B1 (en) * 1999-11-30 2004-01-06 Sony Corporation Method and apparatus for organizing data pertaining to audiovisual content
US6845487B1 (en) * 1999-11-30 2005-01-18 Sony Corporation Method and an apparatus for implementing a key frame
JP2001160940A (ja) * 1999-12-01 2001-06-12 Sony Corp 放送システム及び受信装置
US8051446B1 (en) * 1999-12-06 2011-11-01 Sharp Laboratories Of America, Inc. Method of creating a semantic video summary using information from secondary sources
US7212972B2 (en) * 1999-12-08 2007-05-01 Ddi Corporation Audio features description method and audio video features description collection construction method
US7340457B1 (en) * 1999-12-16 2008-03-04 Texas Instruments Incorporated Apparatus and method to facilitate the customization of television content with supplemental data
US6727914B1 (en) * 1999-12-17 2004-04-27 Koninklijke Philips Electronics N.V. Method and apparatus for recommending television programming using decision trees
JP2001184842A (ja) * 1999-12-28 2001-07-06 Hitachi Ltd 情報再生装置
KR100317303B1 (ko) * 2000-01-10 2001-12-22 구자홍 방송 프로그램 녹화 및 재생시 a/v와 데이터간 동기화장치
US20010049826A1 (en) * 2000-01-19 2001-12-06 Itzhak Wilf Method of searching video channels by content
JP2001202371A (ja) * 2000-01-19 2001-07-27 Sony Corp データ通信システムならびにそれに用いる受信装置
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
AUPQ535100A0 (en) * 2000-01-31 2000-02-17 Canon Kabushiki Kaisha Video browser data magnifier
US6574279B1 (en) * 2000-02-02 2003-06-03 Mitsubishi Electric Research Laboratories, Inc. Video transcoding using syntactic and semantic clues
US20020156860A1 (en) * 2000-02-25 2002-10-24 Finke Alan D. Personal server system
US7788686B1 (en) * 2000-03-01 2010-08-31 Andrews Christopher C Method of and apparatus for describing, promoting, publishing, aggregating, distributing and accessing live content information
AU2001245575A1 (en) 2000-03-09 2001-09-17 Videoshare, Inc. Sharing a streaming video
AU2001255806A1 (en) * 2000-03-14 2001-09-24 Sony Electronics Inc. A method and device for forming a semantic description
US6891566B2 (en) * 2000-03-14 2005-05-10 Joseph Robert Marchese Digital video system using networked cameras
US7284064B1 (en) 2000-03-21 2007-10-16 Intel Corporation Method and apparatus to determine broadcast content and scheduling in a broadcast system
US20020056102A1 (en) * 2000-03-23 2002-05-09 Hughes Electronics Corporation Personal video on-demand system and method
US20070127887A1 (en) * 2000-03-23 2007-06-07 Adrian Yap Digital video recorder enhanced features
US8312490B2 (en) 2000-03-23 2012-11-13 The Directv Group, Inc. DVR with enhanced functionality
JP3810268B2 (ja) * 2000-04-07 2006-08-16 シャープ株式会社 オーディオビジュアルシステム
US7962948B1 (en) * 2000-04-07 2011-06-14 Virage, Inc. Video-enabled community building
US7260564B1 (en) * 2000-04-07 2007-08-21 Virage, Inc. Network video guide and spidering
US8171509B1 (en) 2000-04-07 2012-05-01 Virage, Inc. System and method for applying a database to video multimedia
US7222163B1 (en) * 2000-04-07 2007-05-22 Virage, Inc. System and method for hosting of video content over a network
JP4587416B2 (ja) * 2000-04-25 2010-11-24 富士通株式会社 デジタル映像コンテンツ閲覧装置及び方法
US6678737B1 (en) * 2000-04-28 2004-01-13 Webtv Networks, Inc. Home network appliance and method
JP4487383B2 (ja) 2000-05-01 2010-06-23 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP4730571B2 (ja) * 2000-05-01 2011-07-20 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP4431918B2 (ja) * 2000-05-01 2010-03-17 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
JP2001312410A (ja) * 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
US6968366B1 (en) * 2000-05-12 2005-11-22 International Business Machines Corporation System and method for management, creation, storage, search and delivery of rich media optimized for e-commerce in a distributed information network
JP2001333389A (ja) * 2000-05-17 2001-11-30 Mitsubishi Electric Research Laboratories Inc ビデオ再生システムおよびビデオ信号処理方法
US6829781B1 (en) * 2000-05-24 2004-12-07 At&T Corp. Network-based service to provide on-demand video summaries of television programs
US7013477B2 (en) * 2000-05-25 2006-03-14 Fujitsu Limited Broadcast receiver, broadcast control method, and computer readable recording medium
US8028314B1 (en) 2000-05-26 2011-09-27 Sharp Laboratories Of America, Inc. Audiovisual information management system
JP3865194B2 (ja) * 2000-05-26 2007-01-10 Kddi株式会社 オーディオ/ビデオの概要情報の記述方法および閲覧方法
US6701014B1 (en) * 2000-06-14 2004-03-02 International Business Machines Corporation Method and apparatus for matching slides in video
FR2810832B1 (fr) * 2000-06-27 2006-06-16 Interactif Delta Production Reseau de television numerique interactive
US7647340B2 (en) 2000-06-28 2010-01-12 Sharp Laboratories Of America, Inc. Metadata in JPEG 2000 file format
US8087051B2 (en) * 2000-06-30 2011-12-27 Thomson Licensing Database management system and method for electronic program guide and television channel lineup organization
US6763069B1 (en) * 2000-07-06 2004-07-13 Mitsubishi Electric Research Laboratories, Inc Extraction of high-level features from low-level features of multimedia content
US7571244B2 (en) * 2000-07-15 2009-08-04 Filippo Costanzo Audio-video data switching and viewing system
JP2002044572A (ja) 2000-07-21 2002-02-08 Sony Corp 情報信号処理装置及び情報信号処理方法および情報信号記録装置
US20050193408A1 (en) * 2000-07-24 2005-09-01 Vivcom, Inc. Generating, transporting, processing, storing and presenting segmentation information for audio-visual programs
JP2002044555A (ja) * 2000-07-28 2002-02-08 Sony Corp 情報表示制御装置および方法
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
US8191103B2 (en) 2000-08-30 2012-05-29 Sony Corporation Real-time bookmarking of streaming media assets
US6748375B1 (en) * 2000-09-07 2004-06-08 Microsoft Corporation System and method for content retrieval
US8020183B2 (en) 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
US8302127B2 (en) * 2000-09-25 2012-10-30 Thomson Licensing System and method for personalized TV
AU2001294749A1 (en) * 2000-09-27 2002-04-08 Thomson Licensing S.A. Architecture for optimizing audio and video output states for multimedia devices
US7103906B1 (en) 2000-09-29 2006-09-05 International Business Machines Corporation User controlled multi-device media-on-demand system
KR20190096450A (ko) 2000-10-11 2019-08-19 로비 가이드스, 인크. 매체 콘텐츠 배달 시스템 및 방법
EP1330924A1 (de) * 2000-10-17 2003-07-30 Koninklijke Philips Electronics N.V. Binäres format für mpeg-7 instanzen
US7398275B2 (en) * 2000-10-20 2008-07-08 Sony Corporation Efficient binary coding scheme for multimedia content descriptions
US7206853B2 (en) * 2000-10-23 2007-04-17 Sony Corporation content abstraction layer for use in home network applications
US7890989B1 (en) * 2000-10-24 2011-02-15 Sony Corporation Automated context-sensitive updating on content in an audiovisual storage system
US6973256B1 (en) * 2000-10-30 2005-12-06 Koninklijke Philips Electronics N.V. System and method for detecting highlights in a video program using audio properties
FR2816156B1 (fr) * 2000-10-31 2003-01-10 Thomson Multimedia Sa Procede de detection d'une sequence de ralenti dans une emission audiovisuelle et appareil mettant en oeuvre le procede
FR2816157A1 (fr) * 2000-10-31 2002-05-03 Thomson Multimedia Sa Procede de traitement de donnees video distinees a etre visualisees sur ecran et dispositif mettant en oeuvre le procede
US6931595B2 (en) * 2000-11-02 2005-08-16 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video
US6918091B2 (en) * 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
US7444660B2 (en) * 2000-11-16 2008-10-28 Meevee, Inc. System and method for generating metadata for video programming events
US20020083468A1 (en) * 2000-11-16 2002-06-27 Dudkiewicz Gil Gavriel System and method for generating metadata for segments of a video program
US20020100046A1 (en) * 2000-11-16 2002-07-25 Dudkiewicz Gil Gavriel System and method for determining the desirability of video programming events
AU2002239297A1 (en) * 2000-11-16 2002-06-03 Mydtv, Inc. System and methods for determining the desirability of video programming events
US7127736B2 (en) * 2000-11-17 2006-10-24 Sony Corporation Content processing apparatus and content processing method for digest information based on input of a content user
WO2002043396A2 (en) * 2000-11-27 2002-05-30 Intellocity Usa, Inc. System and method for providing an omnimedia package
WO2002048920A2 (en) * 2000-12-12 2002-06-20 Time Warner Entertainment Company, L.P. Digital asset data type definitions
US20020083471A1 (en) * 2000-12-21 2002-06-27 Philips Electronics North America Corporation System and method for providing a multimedia summary of a video program
US6964061B2 (en) * 2000-12-28 2005-11-08 International Business Machines Corporation Squeezable rebroadcast files
US6903655B2 (en) * 2000-12-29 2005-06-07 Bellsouth Intellectual Property Corp. Remote control device with illumination
US7653926B2 (en) 2000-12-29 2010-01-26 At&T Intellectual Property I, L.P. Remote control device with event notifier
US6946970B2 (en) * 2000-12-29 2005-09-20 Bellsouth Intellectual Property Corp. Remote control device with smart card capability
US20020100045A1 (en) * 2001-01-23 2002-07-25 Rafey Richter A. System and method for enabling anonymous personalization
US20070300258A1 (en) * 2001-01-29 2007-12-27 O'connor Daniel Methods and systems for providing media assets over a network
US20020101454A1 (en) * 2001-01-30 2002-08-01 Hong Marcus Suhwa Pre-audition CD
US20030038796A1 (en) * 2001-02-15 2003-02-27 Van Beek Petrus J.L. Segmentation metadata for audio-visual content
US20020120929A1 (en) * 2001-02-28 2002-08-29 Schwalb Eddie M. Method and system for mass customization of digital television broadcasts
US7240285B2 (en) * 2001-03-01 2007-07-03 Sony Corporation Encoding and distribution of schema for multimedia content descriptions
US7689901B2 (en) * 2001-03-01 2010-03-30 Sony Corporation Multiple updates to content descriptions using a single command
US20020166123A1 (en) * 2001-03-02 2002-11-07 Microsoft Corporation Enhanced television services for digital video recording and playback
US20020133821A1 (en) * 2001-03-08 2002-09-19 Koninklijke Philips Electronics N.V. Activity schedule controls personalized electronic content guide
JP4191932B2 (ja) * 2001-03-08 2008-12-03 パナソニック株式会社 メディア配信装置およびメディア配信方法
EP1241587A1 (de) * 2001-03-12 2002-09-18 THOMSON multimedia Verfahren zur Verarbeitung von Inhaltsdaten
US7248778B1 (en) 2001-03-16 2007-07-24 Gateway Inc. Automated video editing system and method
US20020140805A1 (en) * 2001-03-28 2002-10-03 Koninklijke Philips Electronics N.V. Television program selection system
US20020184047A1 (en) * 2001-04-03 2002-12-05 Plotnick Michael A. Universal ad queue
US20020178447A1 (en) * 2001-04-03 2002-11-28 Plotnick Michael A. Behavioral targeted advertising
US20030163815A1 (en) * 2001-04-06 2003-08-28 Lee Begeja Method and system for personalized multimedia delivery service
US8060906B2 (en) * 2001-04-06 2011-11-15 At&T Intellectual Property Ii, L.P. Method and apparatus for interactively retrieving content related to previous query results
US20030088687A1 (en) 2001-12-28 2003-05-08 Lee Begeja Method and apparatus for automatically converting source video into electronic mail messages
US7904814B2 (en) 2001-04-19 2011-03-08 Sharp Laboratories Of America, Inc. System for presenting audio-video content
US7930624B2 (en) * 2001-04-20 2011-04-19 Avid Technology, Inc. Editing time-based media with enhanced content
US20020162101A1 (en) * 2001-04-27 2002-10-31 Koninklijke Philips Electronics N.V. Method of and apparatus for enabling recommendations to be made to users of entertainment receivers
US7110458B2 (en) * 2001-04-27 2006-09-19 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion descriptors
US7305691B2 (en) * 2001-05-07 2007-12-04 Actv, Inc. System and method for providing targeted programming outside of the home
US8479238B2 (en) 2001-05-14 2013-07-02 At&T Intellectual Property Ii, L.P. Method for content-based non-linear control of multimedia playback
US20020174445A1 (en) * 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Video playback device with real-time on-line viewer feedback capability and method of operation
US7734997B2 (en) * 2001-05-29 2010-06-08 Sony Corporation Transport hint table for synchronizing delivery time between multimedia content and multimedia content descriptions
US7499077B2 (en) * 2001-06-04 2009-03-03 Sharp Laboratories Of America, Inc. Summarization of football video content
US7143354B2 (en) 2001-06-04 2006-11-28 Sharp Laboratories Of America, Inc. Summarization of baseball video content
US7380262B2 (en) * 2001-06-12 2008-05-27 Thomson Licensing Method and apparatus for generating a list of suggested scheduled television programs
US7716704B2 (en) * 2001-06-12 2010-05-11 Thomson Licensing Television program selection apparatus and method
US6918132B2 (en) * 2001-06-14 2005-07-12 Hewlett-Packard Development Company, L.P. Dynamic interface method and system for displaying reduced-scale broadcasts
DE10129446A1 (de) * 2001-06-19 2003-01-02 Bosch Gmbh Robert Verfahren zur Initialisierung einer verteilten Software Architektur und elektronisches System
US8818871B2 (en) * 2001-06-21 2014-08-26 Thomson Licensing Method and system for electronic purchases using an intelligent data carrier medium, electronic coupon system, and interactive TV infrastructure
JP3952302B2 (ja) * 2001-06-22 2007-08-01 ノキア コーポレイション デジタルビデオ録画の自動インデックス作成システム
US20030005466A1 (en) * 2001-06-29 2003-01-02 Hsinchao Liao Content personalization system for mobile users
US20030004934A1 (en) * 2001-06-29 2003-01-02 Richard Qian Creating and managing portable user preferences for personalizion of media consumption from device to device
US20030005431A1 (en) * 2001-07-02 2003-01-02 Sony Corporation PVR-based system and method for TV content control using voice recognition
US20030009371A1 (en) * 2001-07-03 2003-01-09 Ravi Gauba Interactive decision-making scenarios in an audio/video broadcast
US7574723B2 (en) * 2001-07-19 2009-08-11 Macrovision Corporation Home media network
US20030028871A1 (en) * 2001-07-20 2003-02-06 Annie Wang Behavior profile system and method
US7065201B2 (en) * 2001-07-31 2006-06-20 Sbc Technology Resources, Inc. Telephone call processing in an interactive voice response call management system
US8515773B2 (en) 2001-08-01 2013-08-20 Sony Corporation System and method for enabling distribution and brokering of content information
US20030025720A1 (en) * 2001-08-03 2003-02-06 Clement Lau System and method for common interest analysis among multiple users
US20030033602A1 (en) * 2001-08-08 2003-02-13 Simon Gibbs Method and apparatus for automatic tagging and caching of highlights
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7139470B2 (en) * 2001-08-17 2006-11-21 Intel Corporation Navigation for MPEG streams
US7636931B2 (en) * 2001-08-17 2009-12-22 Igt Interactive television devices and systems
WO2003021414A1 (en) * 2001-08-29 2003-03-13 Digeo, Inc. System and method for focused navigation within an interactive television user interface
US20030061611A1 (en) * 2001-09-26 2003-03-27 Ramesh Pendakur Notifying users of available content and content reception based on user profiles
US8943540B2 (en) 2001-09-28 2015-01-27 Intel Corporation Method and apparatus to provide a personalized channel
US20030074447A1 (en) * 2001-10-16 2003-04-17 Rafey Richter A. Intuitive mapping between explicit and implicit personalization
US7474698B2 (en) 2001-10-19 2009-01-06 Sharp Laboratories Of America, Inc. Identification of replay segments
US6865555B2 (en) * 2001-11-21 2005-03-08 Digeo, Inc. System and method for providing conditional access to digital content
US20030105880A1 (en) * 2001-12-04 2003-06-05 Koninklijke Philips Electronics N.V. Distributed processing, storage, and transmision of multimedia information
US7339992B2 (en) * 2001-12-06 2008-03-04 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
AU2002351472A1 (en) * 2001-12-07 2003-06-23 Charles S. Packer Recommendation-based electronic program guide with multiple modes of operation
US20030110297A1 (en) * 2001-12-12 2003-06-12 Tabatabai Ali J. Transforming multimedia data for delivery to multiple heterogeneous devices
US20030110501A1 (en) * 2001-12-12 2003-06-12 Rafey Richter A. Personalizing media presentations based on a target duration
US7284032B2 (en) * 2001-12-19 2007-10-16 Thomson Licensing Method and system for sharing information with users in a network
US20030112276A1 (en) * 2001-12-19 2003-06-19 Clement Lau User augmentation of content
KR100431509B1 (ko) * 2001-12-20 2004-05-14 한국전자통신연구원 메소드 내장형 컨텐츠 처리 장치 및 그 방법
EP1459320B1 (de) * 2001-12-25 2008-02-13 Matsushita Electric Industrial Co., Ltd. Vorrichtung und verfahren zur wiedergabe von inhalten
US7751628B1 (en) 2001-12-26 2010-07-06 Reisman Richard R Method and apparatus for progressively deleting media objects from storage
KR100411437B1 (ko) * 2001-12-28 2003-12-18 엘지전자 주식회사 지능형 뉴스 비디오 브라우징 시스템
KR100493674B1 (ko) * 2001-12-29 2005-06-03 엘지전자 주식회사 멀티미디어 데이터 검색 및 브라우징 시스템
EP1333671A1 (de) 2002-01-22 2003-08-06 Koninklijke Philips Electronics N.V. Schnittstellenvorrichtung zur Verwendung mit einer Multimedia-Inhalten Wiederherstellungsvorrichtung um wiederhergestellte Multimedia-Inhalte zu recherchieren
US7739601B1 (en) * 2002-01-23 2010-06-15 Microsoft Corporation Media authoring and presentation
US7251790B1 (en) 2002-01-23 2007-07-31 Microsoft Corporation Media browsing system displaying thumbnails images based on preferences of plurality of users and placing the thumbnails images at a scene change
US7120873B2 (en) * 2002-01-28 2006-10-10 Sharp Laboratories Of America, Inc. Summarization of sumo video content
US7305070B2 (en) 2002-01-30 2007-12-04 At&T Labs, Inc. Sequential presentation of long instructions in an interactive voice response system
US20030149975A1 (en) * 2002-02-05 2003-08-07 Charles Eldering Targeted advertising in on demand programming
US7333712B2 (en) * 2002-02-14 2008-02-19 Koninklijke Philips Electronics N.V. Visual summary for scanning forwards and backwards in video content
TWI247295B (en) * 2002-03-09 2006-01-11 Samsung Electronics Co Ltd Reproducing method and apparatus for interactive mode using markup documents
US8214741B2 (en) 2002-03-19 2012-07-03 Sharp Laboratories Of America, Inc. Synchronization of video and data
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
US20030191776A1 (en) * 2002-04-05 2003-10-09 Pere Obrador Media object management
JP4352653B2 (ja) * 2002-04-12 2009-10-28 三菱電機株式会社 映像コンテンツ管理運用システム
US7818180B2 (en) * 2002-04-29 2010-10-19 Medtronic, Inc. Personalization software for implanted medical device patients
US7346668B2 (en) * 2002-05-17 2008-03-18 Sap Aktiengesellschaft Dynamic presentation of personalized content
US7127473B2 (en) * 2002-05-17 2006-10-24 Sap Aktiengesellschaft Methods and systems for providing supplemental contextual content
US7321887B2 (en) * 2002-09-30 2008-01-22 Sap Aktiengesellschaft Enriching information streams with contextual content
US20040003097A1 (en) * 2002-05-17 2004-01-01 Brian Willis Content delivery system
US7305436B2 (en) * 2002-05-17 2007-12-04 Sap Aktiengesellschaft User collaboration through discussion forums
US7370276B2 (en) 2002-05-17 2008-05-06 Sap Aktiengesellschaft Interface for collecting user preferences
US7200801B2 (en) 2002-05-17 2007-04-03 Sap Aktiengesellschaft Rich media information portals
US20040002963A1 (en) * 2002-06-28 2004-01-01 Cynkin Laurence H. Resolving query terms based on time of submission
US20040003394A1 (en) * 2002-07-01 2004-01-01 Arun Ramaswamy System for automatically matching video with ratings information
GB0215624D0 (en) * 2002-07-05 2002-08-14 Colthurst James R Razor head
US7657836B2 (en) 2002-07-25 2010-02-02 Sharp Laboratories Of America, Inc. Summarization of soccer video content
US7149755B2 (en) * 2002-07-29 2006-12-12 Hewlett-Packard Development Company, Lp. Presenting a collection of media objects
KR100806873B1 (ko) * 2002-08-08 2008-02-22 삼성전자주식회사 영상 기록/재생 장치 및 그 저장된 프로그램 리스트표시방법
WO2004023358A1 (en) * 2002-09-09 2004-03-18 Koninklijke Philips Electronics N.V. A data network, user terminal and method for providing recommendations
US7657907B2 (en) 2002-09-30 2010-02-02 Sharp Laboratories Of America, Inc. Automatic user profiling
US7900229B2 (en) * 2002-10-15 2011-03-01 Opentv, Inc. Convergence of interactive television and wireless technologies
US9462295B2 (en) * 2002-10-21 2016-10-04 Entropic Communications, Llc Manipulating sub-pictures of a compressed video signal
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
US20040088723A1 (en) * 2002-11-01 2004-05-06 Yu-Fei Ma Systems and methods for generating a video summary
US8931010B2 (en) * 2002-11-04 2015-01-06 Rovi Solutions Corporation Methods and apparatus for client aggregation of media in a networked media system
US8712218B1 (en) 2002-12-17 2014-04-29 At&T Intellectual Property Ii, L.P. System and method for providing program recommendations through multimedia searching based on established viewer preferences
US7131059B2 (en) * 2002-12-31 2006-10-31 Hewlett-Packard Development Company, L.P. Scalably presenting a collection of media objects
US7493646B2 (en) * 2003-01-30 2009-02-17 United Video Properties, Inc. Interactive television systems with digital video recording and adjustable reminders
US7164798B2 (en) 2003-02-18 2007-01-16 Microsoft Corporation Learning-based automatic commercial content detection
US7213228B2 (en) * 2003-03-17 2007-05-01 Macrovision Corporation Methods and apparatus for implementing a remote application over a network
US7574691B2 (en) * 2003-03-17 2009-08-11 Macrovision Corporation Methods and apparatus for rendering user interfaces and display information on remote client devices
US7262772B2 (en) * 2003-03-21 2007-08-28 Sap Aktiengesellschaft Visual content summary
US7076616B2 (en) * 2003-03-24 2006-07-11 Sony Corporation Application pre-launch to reduce user interface latency
US20040194612A1 (en) * 2003-04-04 2004-10-07 International Business Machines Corporation Method, system and program product for automatically categorizing computer audio files
US8392834B2 (en) * 2003-04-09 2013-03-05 Hewlett-Packard Development Company, L.P. Systems and methods of authoring a multimedia file
JP2004336343A (ja) * 2003-05-07 2004-11-25 Canon Inc 画像処理システム
US8290948B2 (en) * 2003-06-30 2012-10-16 Hoshiko, Llc Method and apparatus for content filtering
US20050028199A1 (en) * 2003-07-30 2005-02-03 Borden George R. Personal video recorder user interface
US7372991B2 (en) * 2003-09-26 2008-05-13 Seiko Epson Corporation Method and apparatus for summarizing and indexing the contents of an audio-visual presentation
EP1531458B1 (de) * 2003-11-12 2008-04-16 Sony Deutschland GmbH Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
JP4047267B2 (ja) * 2003-11-21 2008-02-13 キヤノン株式会社 番組選択方法及び番組選択制御装置
US20050120383A1 (en) * 2003-12-02 2005-06-02 Ozaki Arthur H. System for saving settings of an audiovisual system
KR20060126508A (ko) * 2003-12-18 2006-12-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 시청각 데이터의 스트림의 멀티미디어 요약을 생성하기위한 방법 및 회로
US20050149965A1 (en) * 2003-12-31 2005-07-07 Raja Neogi Selective media storage based on user profiles and preferences
US7343375B1 (en) 2004-03-01 2008-03-11 The Directv Group, Inc. Collection and correlation over time of private viewing usage data
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US8356317B2 (en) 2004-03-04 2013-01-15 Sharp Laboratories Of America, Inc. Presence based technology
US7594245B2 (en) 2004-03-04 2009-09-22 Sharp Laboratories Of America, Inc. Networked video devices
US7529870B1 (en) 2004-04-27 2009-05-05 Apple Inc. Communication between an accessory and a media player with multiple lingoes
US7441062B2 (en) * 2004-04-27 2008-10-21 Apple Inc. Connector interface system for enabling data communication with a multi-communication device
US7441058B1 (en) 2006-09-11 2008-10-21 Apple Inc. Method and system for controlling an accessory having a tuner
US7895378B2 (en) 2004-04-27 2011-02-22 Apple Inc. Method and system for allowing a media player to transfer digital audio to an accessory
US7526588B1 (en) 2004-04-27 2009-04-28 Apple Inc. Communication between an accessory and a media player using a protocol with multiple lingoes
US8117651B2 (en) * 2004-04-27 2012-02-14 Apple Inc. Method and system for authenticating an accessory
US7673083B2 (en) * 2004-04-27 2010-03-02 Apple Inc. Method and system for controlling video selection and playback in a portable media player
US7529872B1 (en) 2004-04-27 2009-05-05 Apple Inc. Communication between an accessory and a media player using a protocol with multiple lingoes
US20060031879A1 (en) * 2004-04-30 2006-02-09 Vulcan Inc. Management and non-linear presentation of news-related broadcasted or streamed multimedia content
US20060053470A1 (en) * 2004-04-30 2006-03-09 Vulcan Inc. Management and non-linear presentation of augmented broadcasted or streamed multimedia content
US7373604B1 (en) * 2004-05-28 2008-05-13 Adobe Systems Incorporated Automatically scalable presentation of video demonstration content
US7970263B1 (en) * 2004-05-28 2011-06-28 Adobe Systems Incorporated Seamless integration of video capture in demonstration applications
US9053754B2 (en) 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
US7986372B2 (en) * 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
US7543068B2 (en) * 2004-08-26 2009-06-02 At&T Intellectual Property I, Lp Filtering information at a data network based on filter rules associated with consumer processing devices
US8086575B2 (en) 2004-09-23 2011-12-27 Rovi Solutions Corporation Methods and apparatus for integrating disparate media formats in a networked media system
US8768844B2 (en) * 2004-10-06 2014-07-01 Sony Corporation Method and system for content sharing and authentication between multiple devices
US20060075441A1 (en) * 2004-10-06 2006-04-06 Sony Corporation Method and system for a personal video recorder comprising multiple removable storage/tuner units
US20060090184A1 (en) * 2004-10-26 2006-04-27 David Zito System and method for presenting information
JP2006129122A (ja) * 2004-10-29 2006-05-18 Sharp Corp 放送受信装置、放送受信方法、放送受信プログラム及びプログラム記録媒体
JP4277782B2 (ja) * 2004-11-09 2009-06-10 ソニー株式会社 放送データの表示制御装置、受信装置、および、表示制御方法
JP2006155828A (ja) * 2004-11-30 2006-06-15 Toshiba Corp 再生装置及び再生方法
US7613383B2 (en) 2004-12-02 2009-11-03 Hitachi, Ltd. Editing method and recording and reproducing device
KR100685093B1 (ko) * 2004-12-06 2007-02-22 엘지전자 주식회사 휴대용 메모리를 이용한 디지털 재생기의 환경 설정 방법및 장치
GB2421135A (en) 2004-12-09 2006-06-14 Sony Uk Ltd User resizable video display of catalogue entries
US7480701B2 (en) * 2004-12-15 2009-01-20 Microsoft Corporation Mixed-media service collections for multimedia platforms
US7768388B2 (en) 2005-01-05 2010-08-03 Rovi Solutions Corporation Methods and apparatus for providing notifications in a media system
US7823214B2 (en) 2005-01-07 2010-10-26 Apple Inc. Accessory authentication for electronic devices
WO2006096612A2 (en) * 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
US20060218573A1 (en) * 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
KR100707189B1 (ko) * 2005-04-29 2007-04-13 삼성전자주식회사 동영상의 광고 검출 장치 및 방법과 그 장치를 제어하는컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체
JP4492462B2 (ja) * 2005-06-30 2010-06-30 ソニー株式会社 電子機器、映像処理装置及び映像処理方法
US20070011718A1 (en) * 2005-07-08 2007-01-11 Nee Patrick W Jr Efficient customized media creation through pre-encoding of common elements
JP4830379B2 (ja) * 2005-07-13 2011-12-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR20070027070A (ko) * 2005-08-29 2007-03-09 삼성전자주식회사 방송/통신 결합서비스 정보 송수신 방법 및 장치
KR100719023B1 (ko) * 2005-10-08 2007-05-17 삼성전자주식회사 디스플레이장치 및 컨텐츠 정보 표시방법
US20070112811A1 (en) * 2005-10-20 2007-05-17 Microsoft Corporation Architecture for scalable video coding applications
US7688686B2 (en) * 2005-10-27 2010-03-30 Microsoft Corporation Enhanced table of contents (TOC) identifiers
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US7773813B2 (en) 2005-10-31 2010-08-10 Microsoft Corporation Capture-intention detection for video content analysis
US20070101394A1 (en) * 2005-11-01 2007-05-03 Yesvideo, Inc. Indexing a recording of audiovisual content to enable rich navigation
US8196032B2 (en) * 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
JP4525558B2 (ja) * 2005-11-08 2010-08-18 ソニー株式会社 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007150724A (ja) * 2005-11-28 2007-06-14 Toshiba Corp 映像視聴支援システムおよび方法
US9467322B2 (en) * 2005-12-27 2016-10-11 Rovi Solutions Corporation Methods and apparatus for integrating media across a wide area network
US9681105B2 (en) 2005-12-29 2017-06-13 Rovi Guides, Inc. Interactive media guidance system having multiple devices
US7599918B2 (en) * 2005-12-29 2009-10-06 Microsoft Corporation Dynamic search with implicit user intention mining
US8607287B2 (en) 2005-12-29 2013-12-10 United Video Properties, Inc. Interactive media guidance system having multiple devices
AR059551A1 (es) * 2006-02-17 2008-04-09 Directv Group Inc Reflejo de datos en vivo en los datos de guia en un sistema de television
WO2007098068A2 (en) * 2006-02-17 2007-08-30 The Directv Group, Inc. Amalgamation of user data for geographical trending
US20070204238A1 (en) * 2006-02-27 2007-08-30 Microsoft Corporation Smart Video Presentation
US8689253B2 (en) 2006-03-03 2014-04-01 Sharp Laboratories Of America, Inc. Method and system for configuring media-playing sets
KR100775176B1 (ko) * 2006-03-10 2007-11-12 엘지전자 주식회사 동영상 정보를 썸네일로 재생하는 방법 및 이를 이용한단말기
US20070219832A1 (en) * 2006-03-18 2007-09-20 Interactive Travel Group, Inc. Travel profile access system and method
JP2007272442A (ja) * 2006-03-30 2007-10-18 Fujitsu Ltd サービス提供方法、サービス提供プログラムおよびサービス提供装置
US9166883B2 (en) 2006-04-05 2015-10-20 Joseph Robert Marchese Network device detection, identification, and management
US8682654B2 (en) * 2006-04-25 2014-03-25 Cyberlink Corp. Systems and methods for classifying sports video
US8006019B2 (en) * 2006-05-22 2011-08-23 Apple, Inc. Method and system for transferring stored data between a media player and an accessory
US7929551B2 (en) * 2006-06-01 2011-04-19 Rovi Solutions Corporation Methods and apparatus for transferring media across a network using a network interface device
US20070300265A1 (en) * 2006-06-21 2007-12-27 Nokia Corporation User behavior adapted electronic service guide update
US7415563B1 (en) 2006-06-27 2008-08-19 Apple Inc. Method and system for allowing a media player to determine if it supports the capabilities of an accessory
US7558894B1 (en) 2006-09-11 2009-07-07 Apple Inc. Method and system for controlling power provided to an accessory
KR100850791B1 (ko) * 2006-09-20 2008-08-06 삼성전자주식회사 방송 프로그램 요약 생성 시스템 및 그 방법
JP2008090678A (ja) * 2006-10-03 2008-04-17 Sony Corp 番組情報検索システム、放送受信装置、番組情報検索装置、番組情報検索方法及びプログラム
TWI420504B (zh) * 2007-03-19 2013-12-21 Cyberlink Corp 多重顯示之方法及相關系統
US7721312B2 (en) * 2007-03-19 2010-05-18 Sony Corporation System and method for scrolling through TV video icons by category
US7465241B2 (en) * 2007-03-23 2008-12-16 Acushnet Company Functionalized, crosslinked, rubber nanoparticles for use in golf ball castable thermoset layers
US9542394B2 (en) * 2007-06-14 2017-01-10 Excalibur Ip, Llc Method and system for media-based event generation
FR2917523B1 (fr) 2007-06-15 2010-01-29 Alcatel Lucent Procede de description cooperative d'objets medias
US20090019492A1 (en) * 2007-07-11 2009-01-15 United Video Properties, Inc. Systems and methods for mirroring and transcoding media content
US20090241153A1 (en) * 2008-03-18 2009-09-24 Avaya Technology Llc Open cable application platform set-top box (stb) personal profiles and communications applications
US20090241158A1 (en) * 2008-03-18 2009-09-24 Avaya Technology Llc Open cable application platform set-top box (stb) personal profiles and communications applications
US20090241159A1 (en) * 2008-03-18 2009-09-24 Avaya Technology Llc Open cable application platform set-top box (stb) personal profiles and communications applications
US8453188B2 (en) * 2008-01-22 2013-05-28 Avaya Inc. Open cable application platform set-top box (STB) personal profiles and communications applications
US9378286B2 (en) * 2008-03-14 2016-06-28 Microsoft Technology Licensing, Llc Implicit user interest marks in media content
CN101540645A (zh) * 2008-03-21 2009-09-23 华为技术有限公司 动态内容分发方法和装置
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
US8601526B2 (en) 2008-06-13 2013-12-03 United Video Properties, Inc. Systems and methods for displaying media content and media guidance information
WO2009155281A1 (en) * 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
JP4924565B2 (ja) * 2008-08-01 2012-04-25 沖電気工業株式会社 情報処理システム、及び視聴効果測定方法
US8238811B2 (en) 2008-09-08 2012-08-07 Apple Inc. Cross-transport authentication
US8208853B2 (en) 2008-09-08 2012-06-26 Apple Inc. Accessory device authentication
US8259082B2 (en) * 2008-09-12 2012-09-04 At&T Intellectual Property I, L.P. Multimodal portable communication interface for accessing video content
US20100083113A1 (en) * 2008-09-26 2010-04-01 Thomson Licensing Inc. Architecture For Optimizing Audio and Video Output States for Multimedia Devices
US8194102B2 (en) * 2008-10-06 2012-06-05 Microsoft Corporation Rendering annotations for images
US20100095345A1 (en) * 2008-10-15 2010-04-15 Samsung Electronics Co., Ltd. System and method for acquiring and distributing keyframe timelines
US9237295B2 (en) * 2008-10-15 2016-01-12 Samsung Electronics Co., Ltd. System and method for keyframe analysis and distribution from broadcast television
US10063934B2 (en) 2008-11-25 2018-08-28 Rovi Technologies Corporation Reducing unicast session duration with restart TV
KR20100072847A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 차량 입출고를 기반으로 한 디지털 가전기기 제어 장치 및 방법
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
US8635694B2 (en) 2009-01-10 2014-01-21 Kaspersky Lab Zao Systems and methods for malware classification
US8769589B2 (en) * 2009-03-31 2014-07-01 At&T Intellectual Property I, L.P. System and method to create a media content summary based on viewer annotations
US9578271B2 (en) * 2009-08-18 2017-02-21 Sony Corporation Integrated user interface for internet-enabled TV
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US20120090009A1 (en) 2010-10-12 2012-04-12 Comcast Cable Communications, Llc Video Assets Having Associated Graphical Descriptor Data
JP5729241B2 (ja) * 2010-11-24 2015-06-03 株式会社Jvcケンウッド チャプター作成装置、チャプター作成方法、及びチャプター作成プログラム
US8498595B2 (en) * 2011-02-09 2013-07-30 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and methods for automatic preset
US8559793B2 (en) 2011-05-26 2013-10-15 Avid Technology, Inc. Synchronous data tracks in a media editing system
US20130086611A1 (en) * 2011-09-29 2013-04-04 Infosys Limited Dynamic header in an interactive application on television
US20130097643A1 (en) * 2011-10-17 2013-04-18 Microsoft Corporation Interactive video
US8805418B2 (en) 2011-12-23 2014-08-12 United Video Properties, Inc. Methods and systems for performing actions based on location-based rules
US8787726B2 (en) 2012-02-26 2014-07-22 Antonio Rossi Streaming video navigation systems and methods
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US20150221112A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Emotion Indicators in Content
US20150312652A1 (en) * 2014-04-24 2015-10-29 Microsoft Corporation Automatic generation of videos via a segment list
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9213903B1 (en) 2014-07-07 2015-12-15 Google Inc. Method and system for cluster-based video monitoring and event categorization
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US10652127B2 (en) 2014-10-03 2020-05-12 The Nielsen Company (Us), Llc Fusing online media monitoring data with secondary online data feeds to generate ratings data for online media exposure
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10158983B2 (en) 2015-07-22 2018-12-18 At&T Intellectual Property I, L.P. Providing a summary of media content to a communication device
GB2544106A (en) * 2015-11-06 2017-05-10 Tv Control Ltd Method, system and computer program product for providing a description of a program to a user equipment
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10419794B2 (en) * 2017-03-17 2019-09-17 Rovi Guides, Inc. Systems and methods for synchronizing media asset playback from multiple sources
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
CN113380082B (zh) * 2021-01-13 2023-03-14 内江师范学院 一种历史交互互动平台

Family Cites Families (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US177503A (en) * 1876-05-16 Improvement in plows
US616A (en) * 1838-02-24 Artificial horizon foe
US88872A (en) * 1869-04-13 Improvement in velocipede
US4183056A (en) * 1977-05-23 1980-01-08 Kewp Electronic Systems, Inc. Apparatus and method for monitoring sports contests
US4324402A (en) * 1979-01-05 1982-04-13 Mattel, Inc. Electronic baseball game
US4321635A (en) * 1979-04-20 1982-03-23 Teac Corporation Apparatus for selective retrieval of information streams or items
US4253108A (en) * 1979-06-04 1981-02-24 Zenith Radio Corporation Control for color killer and automatic color limiter
US4520404A (en) * 1982-08-23 1985-05-28 Kohorn H Von System, apparatus and method for recording and editing broadcast transmissions
US4602279A (en) * 1984-03-21 1986-07-22 Actv, Inc. Method for providing targeted profile interactive CATV displays
US4729044A (en) * 1985-02-05 1988-03-01 Lex Computing & Management Corporation Method and apparatus for playing serially stored segments in an arbitrary sequence
US5109482A (en) * 1989-01-11 1992-04-28 David Bohrman Interactive video control system for displaying user-selectable clips
US5012334B1 (en) * 1990-01-29 1997-05-13 Grass Valley Group Video image bank for storing and retrieving video image sequences
US5101364A (en) * 1990-02-09 1992-03-31 Massachusetts Institute Of Technology Method and facility for dynamic video composition and viewing
US5861881A (en) * 1991-11-25 1999-01-19 Actv, Inc. Interactive computer system for providing an interactive presentation with personalized video, audio and graphics responses for multiple viewers
US6553178B2 (en) * 1992-02-07 2003-04-22 Max Abecassis Advertisement subsidized video-on-demand system
US5200825A (en) * 1992-07-01 1993-04-06 Beam Laser Systems, Inc. Commercial insertion system remotely controlling multiple video switches
US5404316A (en) * 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
US5288069A (en) * 1992-11-20 1994-02-22 Susan Matsumoto Talking football
US5798785A (en) * 1992-12-09 1998-08-25 Discovery Communications, Inc. Terminal for suggesting programs offered on a television program delivery system
US5381477A (en) * 1993-02-16 1995-01-10 Scientific-Atlanta, Inc. Method of selecting cable television converter groups
CA2106222C (en) * 1993-09-15 2000-10-31 Russell D. N. Mackinnon Object oriented communication network
US5410344A (en) * 1993-09-22 1995-04-25 Arrowsmith Technologies, Inc. Apparatus and method of selecting video programs based on viewers' preferences
US6195497B1 (en) * 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
CA2140850C (en) * 1994-02-24 1999-09-21 Howard Paul Katseff Networked system for display of multimedia presentations
CN1084766C (zh) * 1994-03-02 2002-05-15 纳幕尔杜邦公司 非粉化防粘/耐磨涂层
US5521841A (en) * 1994-03-31 1996-05-28 Siemens Corporate Research, Inc. Browsing contents of a given video sequence
JP3460198B2 (ja) * 1994-04-07 2003-10-27 株式会社東芝 テレビジョン受信機及び番組情報表示方法
US5600781A (en) * 1994-09-30 1997-02-04 Intel Corporation Method and apparatus for creating a portable personalized operating environment
US5717923A (en) * 1994-11-03 1998-02-10 Intel Corporation Method and apparatus for dynamically customizing electronic information to individual end users
US5758257A (en) * 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US6029195A (en) * 1994-11-29 2000-02-22 Herz; Frederick S. M. System for customized electronic identification of desirable objects
US5710815A (en) * 1995-06-07 1998-01-20 Vtech Communications, Ltd. Encoder apparatus and decoder apparatus for a television signal having embedded viewer access control data
US5907324A (en) * 1995-06-07 1999-05-25 Intel Corporation Method for saving and accessing desktop conference characteristics with a persistent conference object
GB9517808D0 (en) * 1995-08-31 1995-11-01 Philips Electronics Uk Ltd Interactive entertainment personalisation
US6226678B1 (en) * 1995-09-25 2001-05-01 Netspeak Corporation Method and apparatus for dynamically defining data communication utilities
US5717879A (en) * 1995-11-03 1998-02-10 Xerox Corporation System for the capture and replay of temporal data representing collaborative activities
US6269215B1 (en) * 1999-03-02 2001-07-31 Hitachi, Ltd. Information processing system
JPH11506250A (ja) * 1996-03-04 1999-06-02 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ユーザ指向のマルチメディア プレゼンテーション システム
JP3113814B2 (ja) * 1996-04-17 2000-12-04 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 情報検索方法及び情報検索装置
US5828402A (en) * 1996-06-19 1998-10-27 Canadian V-Chip Design Inc. Method and apparatus for selectively blocking audio and video signals
US5857190A (en) * 1996-06-27 1999-01-05 Microsoft Corporation Event logging system and method for logging events in a network system
US5832495A (en) * 1996-07-08 1998-11-03 Survivors Of The Shoah Visual History Foundation Method and apparatus for cataloguing multimedia data
US6233289B1 (en) * 1996-07-17 2001-05-15 Seagate Technolgy, Inc. High rate trellis code for partial response channels
US5732216A (en) * 1996-10-02 1998-03-24 Internet Angles, Inc. Audio message exchange system
US6199076B1 (en) * 1996-10-02 2001-03-06 James Logan Audio program player including a dynamic program selection controller
JPH10112825A (ja) * 1996-10-04 1998-04-28 Hitachi Ltd テレビジョンチャネルの設定回路
JP3687237B2 (ja) * 1996-12-05 2005-08-24 三菱電機株式会社 インバータ装置
US6263507B1 (en) * 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US6177931B1 (en) * 1996-12-19 2001-01-23 Index Systems, Inc. Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information
US6163316A (en) * 1997-01-03 2000-12-19 Texas Instruments Incorporated Electronic programming system and method
US6983478B1 (en) * 2000-02-01 2006-01-03 Bellsouth Intellectual Property Corporation Method and system for tracking network use
US5877821A (en) * 1997-01-30 1999-03-02 Motorola, Inc. Multimedia input and control apparatus and method for multimedia communications
US6006241A (en) * 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
GB9703193D0 (en) * 1997-02-15 1997-04-02 Philips Electronics Nv Television
GB2325537B8 (en) * 1997-03-31 2000-01-31 Microsoft Corp Query-based electronic program guide
US6370504B1 (en) * 1997-05-29 2002-04-09 University Of Washington Speech recognition on MPEG/Audio encoded files
JPH118809A (ja) * 1997-06-17 1999-01-12 Victor Co Of Japan Ltd デジタル放送受信機
EP0993730B1 (de) * 1997-06-20 2003-10-22 Swisscom Fixnet AG System und verfahren zur kodierung und zur aussendung von sprachdaten
US6014183A (en) * 1997-08-06 2000-01-11 Imagine Products, Inc. Method and apparatus for detecting scene changes in a digital video stream
US6070167A (en) * 1997-09-29 2000-05-30 Sharp Laboratories Of America, Inc. Hierarchical method and system for object-based audiovisual descriptive tagging of images for information retrieval, editing, and manipulation
US6064385A (en) * 1997-09-30 2000-05-16 Compaq Computer Corporation Systems with user preference setting schemes
US6219837B1 (en) * 1997-10-23 2001-04-17 International Business Machines Corporation Summary frames in video
US6064449A (en) * 1997-10-31 2000-05-16 Webtv Networks, Inc. Automatic characterization of a television signal
US6055018A (en) * 1997-11-04 2000-04-25 Ati Technologies, Inc. System and method for reconstructing noninterlaced captured content for display on a progressive screen
US6363380B1 (en) * 1998-01-13 2002-03-26 U.S. Philips Corporation Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser
US20050028194A1 (en) * 1998-01-13 2005-02-03 Elenbaas Jan Hermanus Personalized news retrieval system
US6055569A (en) * 1998-01-27 2000-04-25 Go Ahead Software Inc. Accelerating web access by predicting user action
US7185355B1 (en) * 1998-03-04 2007-02-27 United Video Properties, Inc. Program guide system with preference profiles
EP0940980A2 (de) * 1998-03-05 1999-09-08 Matsushita Electric Industrial Co., Ltd. Benutzerschnittstellengerät und Rundfunkempfangsgerät
JP3657424B2 (ja) * 1998-03-20 2005-06-08 松下電器産業株式会社 番組情報を放送するセンター装置と端末装置
US6233586B1 (en) * 1998-04-01 2001-05-15 International Business Machines Corp. Federated searching of heterogeneous datastores using a federated query object
US6530082B1 (en) * 1998-04-30 2003-03-04 Wink Communications, Inc. Configurable monitoring of program viewership and usage of interactive applications
US6339842B1 (en) * 1998-06-10 2002-01-15 Dennis Sunga Fernandez Digital television with subscriber conference overlay
US6546555B1 (en) * 1998-07-23 2003-04-08 Siemens Corporate Research, Inc. System for hypervideo filtering based on end-user payment interest and capability
ES2216608T3 (es) * 1998-11-30 2004-10-16 Index Systems, Inc. Agente inteligente basado en la realizacion de perfiles basados en habitos, inferencia estadistica y datos psico-demograficos.
US6216129B1 (en) * 1998-12-03 2001-04-10 Expanse Networks, Inc. Advertisement selection system supporting discretionary target market characteristics
US6169542B1 (en) * 1998-12-14 2001-01-02 Gte Main Street Incorporated Method of delivering advertising through an interactive video distribution system
US6374404B1 (en) * 1998-12-16 2002-04-16 Sony Corporation Of Japan Intelligent device having background caching of web pages from a digital television broadcast signal and method of same
US6342904B1 (en) * 1998-12-17 2002-01-29 Newstakes, Inc. Creating a slide presentation from full motion video
US20030001880A1 (en) * 2001-04-18 2003-01-02 Parkervision, Inc. Method, system, and computer program product for producing and distributing enhanced media
US6363160B1 (en) * 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
TW452748B (en) * 1999-01-26 2001-09-01 Ibm Description of video contents based on objects by using spatio-temporal features and sequential of outlines
US6522342B1 (en) * 1999-01-27 2003-02-18 Hughes Electronics Corporation Graphical tuning bar for a multi-program data stream
US6535639B1 (en) * 1999-03-12 2003-03-18 Fuji Xerox Co., Ltd. Automatic video summarization using a measure of shot importance and a frame-packing method
US6370688B1 (en) * 1999-05-26 2002-04-09 Enounce, Inc. Method and apparatus for server broadcast of time-converging multi-media streams
US6704929B1 (en) * 1999-08-18 2004-03-09 Webtv Networks, Inc. Tracking viewing behavior of a home entertainment system
US6993245B1 (en) * 1999-11-18 2006-01-31 Vulcan Patents Llc Iterative, maximally probable, batch-mode commercial detection for audiovisual content
US6675158B1 (en) * 1999-11-30 2004-01-06 Sony Corporation Method and apparatus for organizing data pertaining to audiovisual content
US6549643B1 (en) * 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
US6542546B1 (en) * 2000-02-02 2003-04-01 Mitsubishi Electric Research Laboratories, Inc. Adaptable compressed bitstream transcoder
US6868440B1 (en) * 2000-02-04 2005-03-15 Microsoft Corporation Multi-level skimming of multimedia content using playlists
US7472093B2 (en) * 2000-03-08 2008-12-30 Rsa Security Inc. Targeted delivery of informational content with privacy protection
US6817027B1 (en) * 2000-03-31 2004-11-09 Matsushita Electric Industrial Co., Ltd. Display interface comprising a channel matrix
US8572646B2 (en) * 2000-04-07 2013-10-29 Visible World Inc. System and method for simultaneous broadcast for personalized messages
US6546101B1 (en) * 2000-06-02 2003-04-08 Motorola, Inc. Communication device having illuminated audio indicator
US6691126B1 (en) * 2000-06-14 2004-02-10 International Business Machines Corporation Method and apparatus for locating multi-region objects in an image or video database
US6813313B2 (en) * 2000-07-06 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for high-level structure analysis and event detection in domain specific videos
US6724933B1 (en) * 2000-07-28 2004-04-20 Microsoft Corporation Media segmentation system and related methods
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
US6685423B1 (en) * 2000-09-25 2004-02-03 Starcon International, Inc. Method and apparatus for extracting and installing heat exchanger bundles
US8302127B2 (en) * 2000-09-25 2012-10-30 Thomson Licensing System and method for personalized TV
US6588120B2 (en) * 2000-11-29 2003-07-08 Athan Corporation Method and apparatus for aligning a drum assembly used in a video recording device
WO2002054762A1 (fr) * 2000-12-28 2002-07-11 Sony Corporation Procédé et dispositif de création de contenus
US7110458B2 (en) * 2001-04-27 2006-09-19 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion descriptors
US6820075B2 (en) * 2001-08-13 2004-11-16 Xerox Corporation Document-centric system with auto-completion
DE10144023B4 (de) * 2001-09-07 2005-12-29 Siemens Ag Vorrichtung und Verfahren zur automatischen Benutzerprofil-Konfiguration
US20030066068A1 (en) * 2001-09-28 2003-04-03 Koninklijke Philips Electronics N.V. Individual recommender database using profiles of others
US6909384B2 (en) * 2002-01-31 2005-06-21 Microsoft Corporation Generating and searching compressed data
AU2003226192A1 (en) * 2002-04-02 2003-10-20 Worldcom, Inc. Billing system for communications services involving telephony and instant communications
US8856236B2 (en) * 2002-04-02 2014-10-07 Verizon Patent And Licensing Inc. Messaging response system
US20040032486A1 (en) * 2002-08-16 2004-02-19 Shusman Chad W. Method and apparatus for interactive programming using captioning
US6757722B2 (en) * 2002-07-16 2004-06-29 Nokia Corporation System and method for providing partial presence notifications
GB2397406B (en) * 2002-07-23 2005-02-09 Samsung Electronics Co Ltd Index structure of metadata, method for providing indices of metadata, and metadata searching method and apparatus using the indices of metadata
US7657836B2 (en) * 2002-07-25 2010-02-02 Sharp Laboratories Of America, Inc. Summarization of soccer video content

Also Published As

Publication number Publication date
EP1026887A3 (de) 2003-07-30
DE60021443D1 (de) 2005-09-01
JP2005025776A (ja) 2005-01-27
JP4408768B2 (ja) 2010-02-03
EP1026887A2 (de) 2000-08-09
US20010010523A1 (en) 2001-08-02
US6236395B1 (en) 2001-05-22
JP2000253377A (ja) 2000-09-14
EP1026887B1 (de) 2005-07-27
JP2005065272A (ja) 2005-03-10
JP2004357334A (ja) 2004-12-16

Similar Documents

Publication Publication Date Title
DE60021443T2 (de) Verwaltungssystem und -verfahren für audiovisuelle Information
JP4363806B2 (ja) オーディオビジュアルプログラム管理システム及びオーディオビジュアルプログラム管理方法
JP3810268B2 (ja) オーディオビジュアルシステム
JP4107811B2 (ja) オーディオビジュアルシステムの使用方法
US7194688B2 (en) Audiovisual information management system with seasons
US7055168B1 (en) Method for interpreting and executing user preferences of audiovisual information
US20030023975A1 (en) Enhanced music services for television
KR20030096218A (ko) 데이터베이스에 의해 분산 사건들의 테이블들을 포함하는오디오-비주얼 플럭스에서의 오디오-비주얼 프로그램들또는 콘텐츠의 검색 방법
US20030121040A1 (en) Audiovisual management system
JPH11341449A (ja) 放送型配信方法およびその方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005501489A (ja) 改善されたユーザインタフェースを備えたシステム
EP1100268B1 (de) System zur Verwaltung von audiovisuellen Informationen
Barbieri et al. A personal TV receiver with storage and retrieval capabilities
EP1580990A2 (de) Verwaltungssystem für audiovisuelle Information
EP2603014A1 (de) Bereitstellen einer Suchfunktion mit einem digitalen Fernsehempfänger

Legal Events

Date Code Title Description
8364 No opposition during term of opposition