-
Gebiet der
Erfindung
-
Die vorliegende Erfindung bezieht
sich allgemein auf Videokonferenzsysteme und im Spezielleren auf ein
peripheres Videokonferenzsystem, das für autonomen Einsatz und Betrieb
mit einem separaten Host-Computersystem ausgelegt ist.
-
Hintergrund
der Erfindung
-
Videotelekonferenzsysteme, welche
kundenspezifische Audio- und Videoverarbeitungskomponenten und herstellerspezifische
Signalverarbeitungsverfahren benutzen, um über ein spezielles Netz Videotelekonferenzen
zu veranstalten, sind bekannt. Kundenspezifische Videotelekonferenzsysteme
aus dem Stand der Technik, wie das in 1 dargestellte,
benutzen typischerweise ein lokales Videoverarbeitungssystem 20 und ein
entfernt angeordnetes Videoverarbeitungssystem 30, die
Audio- und Videodaten über
eine spezielle oder spezialisierte Netzverbindung 26 austauschen.
Hersteller solcher Videoverarbeitungssysteme aus dem Stand der Technik
verwenden typischerweise kundenspezifische Audio- und Videokomponenten
zur Auslegung und Herstellung von kundenspezifischen Audio- und
Videocodier- und Videodecodiereinheiten (CODEC-Einheiten), die im Allgemeinen nur mit
CODEC-Einheiten kommunizieren, die vom selben Hersteller hergestellt
werden. Die Verwendung kundenspezifischer CODEC-Einheiten erfordert typischerweise die
Verwendung kundenspezifischer Kommunikationsschnittstellen 24 und 34,
um eine Interaktionsmöglichkeit
zwischen den kundenspezifischen Videoverarbeitungssystemen 20 und 30 und
der speziellen Netzverbindung 26 herzustellen.
-
Die Verwendung kundenspezifischer
Audio- und Video-CODEC-Einheiten und – signalverarbeitungsverfahren
führt bei
der Produktion von Videokonferenzsystemen im Allgemeinen zur Herstellung
von in kleinen Serien produzierten, teuren Systemen, die sich typischerweise
nur Regierungsstellen und größere Firmen
leisten können.
Die älteren
kundenspezifischen Videoverarbeitungssysteme 20 und 30 kosteten
typischerweise über
$ 100.000,-- pro Einzelsystem, wobei die Betriebskosten oftmals
$ 200,-- pro Stunde überschritten,
um über
eine spezielle Netzverbindung 26 zu kommunizieren.
-
Jüngste
Fortschritte in der Videotelekonferenztechnologie führten zu
einer Senkung der Produktions- und Anschaffungskosten von Videotelekonferenzsystemen.
Um 1993 brachten zwei auf dem Videotelekonferenzsystemmarkt aufkommende
Führer,
Picture-Tel und
VTel, Systeme mit einem durchschnittlichen Kaufpreis von ca. $ 40.000,--
auf den Markt. Diese und weitere Videokonferenzsysteme aus dem Stand
der Technik benutzten jedoch weiterhin kundenspezifische Audio-/Videokomponenten
und – signalverarbeitungsverfahren. Die
hohen Kosten, die mit dem Erwerb und Betrieb von Videokonferenzsystemen
aus dem Stand der Technik verbunden waren, und insbesondere der
Mangel an Kompatibilität
zwischen ungleichen Systemen, schränkt die Effizienz der Videotelekonferenz
als Kommunikationsmittel für
Geschäfte
und Einzelpersonen stark ein.
-
Jüngst
wurden Tischvideotelekonferenzsysteme entwickelt, um die relativ
billigen Verarbeitungsfähigkeiten
der heutigen PC-Systeme auszunutzen. Hersteller solcher Tischvideotelekonferenzsysteme
erzeugen und vermarkten im Allgemeinen einen Satz von Videotelekonferenzcomputerkarten,
welche, zusammen mit dem Computersystem, in das die Karten eingebaut
werden, eine Tischvideotelekonferenzmöglichkeit mit eingeschränkter Qualität und Funktionalität bereitstellen.
Ein Satz Videotelekonferenzkarten zur Verwendung in einem Host-Computersystem
umfasst typischerweise drei einzelne Computerkarten, wovon jede
in einen entsprechenden Kartenschlitz innerhalb des Computersystemgehäuses eingebaut
werden muss. In 2 ist
ein herkömmliches
PC-System 40 dargestellt,
wobei die Gehäuseabdeckung
abgenommen ist. Ein typisches PC-System 40 umfasst im Allgemeinen
eine Stromversorgung 42, ein oder mehrere Festplatten-
und Diskettenlaufwerke 44, einen internen Direktzugriffsspeicher
und bis zu acht Kartenschlitze, welche alle im Allgemeinen an eine
Hauptplatine 51 angeschlossen sind und über diese kommunizieren.
-
Ein Benutzer eines Tischvideotelekonferenzsystems
aus dem Stand der Technik muss typischerweise das Gehäuse des
Computersystems auseinander bauen, um Zugriff auf die internen Komponenten
zu erlangen, muss die drei Videotelekonferenzkarten in die drei
Kartenschlitze 46, 48 und 50 einbauen,
die Einstellungen verschiedener Konfigura tionsschalter auf der Hauptplatine 51 verändern, Gehäuseabdeckung
und -unterteil des Computersystems wieder zusammensetzen und dann
die Betriebssystemsoftware des Computersystems 40 neu konfigurieren,
um den neu installierten Satz von Videotelekonferenzkarten zu bestätigen und
damit zu kommunizieren. Obwohl die Kosten von Tischvideotelekonferenzsystemen
aus dem Stand der Technik vergleichsweise niedriger sind als die
zuvor erörterten
Videoverarbeitungssysteme 20 und 30, bleiben solche Tischsysteme
für viele
Geschäfte
und den Einzelverbraucher immer noch unerschwinglich teuer. Noch
augenfälliger
ist, dass ein potentieller Käufer
eines Tischvideotelekonferenzsystems aus dem Stand der Technik nicht immer
bis zu drei interne Kartenschlitze 46, 48, 50 zum
Einbau der Videotelekonferenzkarten opfern kann oder möchte. Darüber hinaus
kann die typischerweise komplexe Aufgabe des Neukonfigurierens sowohl
der Hard- als auch der Software des PC-Systems 40 zur Erleichterung
der Tischvideotelekonferenz nach dem Einbau des Videotelekonferenzkartensatzes
einen Benutzer sehr wohl davon abhalten, in solch ein umständliches System
zu investieren.
-
Die in den 1 und 2 dargestellten
herkömmlichen
Videotelekonferenzsysteme schaffen es nicht, einen hohen Grad an
Mobilität
von einer Konferenzstätte
zu einer anderen bereitzustellen. Das in 1 gezeigte System ist für gewöhnlich dauerhaft
in speziellen lokal und entfernt angeordneten Konferenzräumen installiert, in
denen die Parteien zusammenkommen müssen, um an einer Videokonferenz
teilzunehmen. Ein Zugriff auf die spezielle Netzverbindung 26 ist
im Allgemeinen nur an den ständigen
Konferenzstätten
verfügbar,
womit die Möglichkeit
ausgeschlossen ist, die Videotelekonferenzsysteme 20 und 30 an
andere gewünschte
Konferenzstätten
zu bringen.
-
Ein Transport des in 2 dargestellten Tischvideotelekonferenzsystems
aus dem Stand der Technik an eine neue Konferenzstätte ist ähnlich unpraktisch.
Das Tischcomputersystem 40, Tastatur, Bildschirm, Kabel
und jegliche weiteren Peripheriegeräte müssen ausgesteckt, transportiert
und dann an der neuen Konferenzstätte wieder angeschlossen werden.
Obwohl ein Transport eines Tischvideotelekonferenzsystems 40 aus dem
Stand der Technik und der damit verbundenen Hardware mit großer Anstrengung
bewerkstelligt werden kann, erfordern solche Systeme im Allgemeinen
eine spezielle Netzverbindung, die typischerweise an anderen gewünschten
Konferenzstätten
nicht zur Verfügung
steht. Darüber
hinaus schränkt
die Verwendung kundenspezifi scher Audio-/Videokomponenten und -signalverarbeitungsverfahren
weiterhin die Mobilität
von Tischvideotelekonferenzsystemen aus dem Stand der Technik stark
ein.
-
Unter den Herstellern und Benutzern
von Videotelekonferenzsystemen besteht der Wunsch, die Komplexität des Installierens,
Konfigurierens und Betreibens eines Videotelekonferenzsystems zu
minimieren. Es besteht der weitere Wunsch, die Mobilität eines
Videotelekonferenzsystems zu erhöhen,
um einen problemlosen Transport des Systems zu mehreren Konferenzstätten zu
erleichtern.
-
Zusätzlich besteht weiterhin in
der Herstellergemeinschaft von Videotelekonferenzgeräten ein
starkes Bedürfnis
nach der Bereitstellung von farbgetreuen Bewegtbild-Videotelekonferenzsystemen,
die in Übereinstimmung
mit international anerkannten Kommunikationsstandards kommunizieren
können,
und die zu einem relativ niedrigen Preis erworben werden können. Die
vorliegende Erfindung erfüllt
diese und weitere Bedürfnisse.
-
Zusammenfassung
der Erfindung
-
Die vorliegende Erfindung ist ein
peripheres audiovisuelles Kommunikationssystem, das mit analogen und
digitalen Kommunikationskanälen
kommuniziert, um Video-, Audio- und
andere von einer lokalen Konferenzstätte erfasste Daten zu übertragen,
und um Audio- und Videodaten von einer entfernt angeordneten Konferenzstätte zu empfangen.
Die Erfindung umfasst auch ein Hochgeschwindigkeitsinterface, um
mit einem separaten Host-Computersystem zu kommunizieren, und beinhaltet
Videokonferenzanwendungssoftware, um die Funktionalität des audiovisuellen
Kommunikationssystems zu verbessern.
-
Kurze Beschreibung
der Zeichnungen
-
1 ist
ein Blockschema eines Videoverarbeitungssystems aus dem Stand der
Technik, das kundenspezifische Audio-/Videokomponenten und kundenspezifische
Kommunikationsschnittstellen beinhaltet, um Daten über eine
spezielle Netzverbindung zu übertragen
und zu empfangen;
-
2 ist
eine verallgemeinerte Draufsicht auf ein PC-System aus dem Stand
der Technik, wobei seine Gehäuseabdeckung
abgenommen ist und drei Videotelekonferenzkarten aus dem Stand der
Technik in das Computersystem eingebaut sind;
-
3 ist
eine Darstellung eines Videokonferenzsystems, das ein neues peripheres
audiovisuelles Kommunikationssystem verwendet;
-
4 ist
eine Darstellung von verschiedenen Systemplatinen eines neuen peripheren
audiovisuellen Kommunikationssystems;
-
5 ist
ein Blockschema des Systems eines neuen peripheren audiovisuellen
Kommunikationssystems, das an einen Kommunikationskanal angeschlossen
ist;
-
6 ist
eine Darstellung verschiedener Steckverbinder, Buchsen und Sender/Empfänger-Schaltungen,
die die Ausgangs-, Eingangs- und Kommunikationskanalschnittstellen
eines neuen peripheren audiovisuellen Kommunikationssystems umfassen;
-
7 ist
eine schematische Darstellung eines Videokonferenzsystems, das zwei
neue periphere audiovisuelle Kommunikationssysteme verwendet, die über einen
Kommunikationskanal für
eine Videokonferenzmöglichkeit
zwischen lokalen und entfernt angeordneten Konferenzstätten sorgen;
-
8 ist
ein Blockschema einer Graphikkarte, die sich dazu eignet, lokale
oder entfernte Videosignale zu verarbeiten, die einem neuen peripheren
audiovisuellen Kommunikationssystem übermittelt werden;
-
9 ist
ein Blockschema einer Soundkarte, die sich dazu eignet, lokale und
entfernte Audiosignale zu verarbeiten, die einem neuen peripheren
audiovisuellen Kommunikationssystem übermittelt werden;
-
10 ist
eine verallgemeinerte Darstellung verschiedener Datenfelder einschließlich eines
Lese- oder Schreib-Koordinationsbefehls, der von einem Host-Computersystem
erzeugt wird, und begleitender Anwendungssoftware für Videokonferenz,
die damit ar beitet, und der über
eine Hochgeschwindigkeitsschnittstelle übertragen wird, die das separate
Host-Computersystem und ein neues peripheres audiovisuelles Kommunikationssystem
verbindet.
-
11 ist
eine schematische Darstellung einer Konfiguration eines Videokonferenzsystems,
das zwei neue periphere audiovisuelle Kommunikationssysteme verwendet,
wobei zugehörige
Host-Computersysteme daran angeschlossen sind, die zusammenwirkend
kommunizieren, um einen Gemeinschaftsfensterzugriff und eine Dokumentinteraktion
zwischen einer lokalen und einer entfernt angeordneten Konferenzstätte bereitzustellen;
-
12 ist
ein verallgemeinertes Fließschema,
das verschiedene Prozessschritte darstellt, die mit Vorgängen des
Gemeinschaftsfensterzugriffs und der Dokumentinteraktion verbunden
sind, die von der Videokonferenzanwendungssoftware koordiniert werden,
die auf einem Host-Computersystem zusammenwirkend mit einem neuen
peripheren audiovisuellen Kommunikationssystem läuft;
-
13 ist
ein verallgemeinertes Fließschema,
das verschiedene Prozessschritte darstellt, die mit der Koordination
verbesserter Videokonferenzfunktionen verbunden sind, die von der
Videokonferenzanwendungssoftware dirigiert werden, die auf einem
Host-Computersystem
zusammenwirkend mit einem neuen peripheren audiovisuellen Kommunikationssystem
läuft;
-
14 ist
eine Darstellung einer Ausführungsform
einer Peripheriegerätegehäusekonfiguration
für ein neues
peripheres audiovisuelles Kommunikationssystem; und
-
15 ist
eine Darstellung einer Rückwand
eines Peripheriegerätegehäuses, die
mit mehreren Eingangs- und Ausgangssteckverbindern, Buchsen und
Sende-/Empfangs-Schaltungen
für ein
neues peripheres audiovisuelles Kommunikationssystem ausgestattet
ist.
-
Ausführliche Beschreibung der bevorzugten
Ausführungsformen
-
Nun ist mit Bezug auf die Figuren,
und im Spezielleren auf 3,
ein Videokonferenzsystem gezeigt, das ein neues peripheres audiovisuelles
Kommunikationssystem 70 enthält, das dazu ausgelegt ist,
Audio- und Video-Quellsignale 80 und 78 über einen
Kommunikationskanal 82 zu übermitteln und über den
Kommunikationskanal 82 von einer entfernt angeordneten
Konferenzstätte
Audio- und Videofernsignale zu empfangen. In einer Ausführungsform
ist das periphere audiovisuelle Kommunikationssystem 70 so
aufgebaut, dass es von einer entfernt angeordneten Konferenzstätte über den
Kommunikationskanal 82 Videobildfernsignale an einen externen
Bildschirm 76 und Audiofernsignale an einen internen Lautsprecher 90 überträgt. In einer weiteren
Ausführungsform
ist das audiovisuelle Kommunikationssystem 70 so aufgebaut,
dass es über
ein hochschnelles Ausgabeinterface 140 eines Host-Computersystems
mit einem separaten Host-Computersystem 72 kommuniziert.
Videobilder, die von einer entfernt angeordneten Konferenzstätte eingehen,
können über ein
Display 74 angezeigt werden, das an das Host-Computersystem 72 angeschlossen
ist, und Audiofernsignale werden vorzugsweise über den internen Lautsprecher 90 ausgestrahlt.
-
Beim Vergleich des in 3 gezeigten, neuen audiovisuellen
Kommunikationssystems 70 mit den zuvor im Hinblick auf
die 1 und 2 erörterten Videotelekonferenzsystemen
aus dem Stand der Technik wird schnell klar, dass das autonome periphere
audiovisuelle Kommunikationssystem 70 für eine wesentliche Verringerung
bei den Kosten und der Komplexität
für die
Videokonferenzdurchführung
sorgt. Am augenfälligsten ist,
dass das periphere audiovisuelle Kommunikationssystem 70 eine
farbgetreue Bewegtbild-Videokonferenzmöglichkeit zwischen lokalen
und entfernt angeordneten Konferenzstätten bereitstellt, indem das
audiovisuelle Kommunikationssystem 70 einfach an einen
Kommunikationskanal 82, beispielsweise eine standardmäßige Telefonleitung,
eine Videosignalquelle 78, wie einen Videocamcorder, und
einen externen Bildschirm 76, wie einen Fernsehbildschirm
zum Anschauen von Videofernbildern, angeschlossen wird. Ein Einbaumikrofon 91 ist
dazu ausgelegt, lokale Audiosignale zu empfangen, um sie zu einer
entfernt angeordneten Konferenzstätte zu übertragen, und es ist ein interner
Lautsprecher 90 vorgesehen, um das empfangene Audiofernsignal
auszustrahlen. Es ist festzuhalten, dass das audiovisuelle Kommunikationssystem 70,
da es ein kompaktes, autonomes Peripheriegerät ist, sich sehr gut zu einem
problemlosen Transport zu einer von mehreren gewünschten Konferenzstätten eignet.
-
Ein wichtiger Vorteil des neuen audiovisuellen
Kommunikationssystems 70 ist das effiziente Entkoppeln
oder Trennen der verschiedenen für
eine Videokonferenzdurchführung
notwendigen Audio- und Videobearbeitungseinheiten von einem Host-Computersystem 72.
Wie in 4 dargestellt
ist, sind alle Sound- und Graphikkarten und komponenten, aus denen
das audiovisuelle Kommunikationssystem 70 besteht, vollständig getrennt
vom Host-Computersystem 72 in einem Peripheriegerätegehäuse 115 untergebracht.
Dementsprechend braucht ein Benutzer des peripheren audiovisuellen
Kommunikationssystems 70 keine zusätzlichen Karten in das Host-Computersystem 72 einzubauen,
und der Benutzer muss auch die Hardware oder die Betriebssystemsoftware
des Host-Computersystems 72 nicht neu konfigurieren, um
eine qualitativ hochstehende und vollwertige Videokonferenz durchzuführen. Ein
Benutzer muss nur unter Verwendung einer standardmäßigen Anschlussschnittstelle
das neue periphere audiovisuelle Kommunikationssystem 70 an
ein Host-Computersystem 72 anschließen.
-
Wie darüber hinaus in 4 noch gezeigt ist, ist eine Gehäuseabdeckung
114 abnehmbar an einer Gehäusebasis 116 befestigt,
die zusammen ein Peripheriegerätegehäuse 115 bilden,
in dem die Komponenten des audiovisuellen Kommunikationssystems 70 untergebracht
sind. Eine Eingangs-/Ausgangs-Platine 112 umfasst vorzugsweise
Einrichtungen, um zwischen einer Hauptplatine 100 und verschiedenen
Steckverbindern, Buchsen und Sende-/Empfangs-Schaltungen, die an
einer Rückwand 123 des
Peripheriegerätegehäuses 115 angebracht
sind, Audio- und Videosignale zu übertragen, die zwischen einer
lokalen und einer entfernt angeordneten Konferenzstätte übertragen
werden. Eine Graphikkarte 104 verarbeitet Videofernsignale,
die vom Kommunikationskanal 82 her eingehen, und überträgt verarbeitete,
aus einer lokalen Konferenzstätte
erfasste Video-Quellsignale 78 über den Kommunikationskanal 82.
Die Soundkarte 102 verarbeitet von einer entfernt angeordneten
Konferenzstätte
eingehende Audiofernsignale und verarbeitet Audio-Quellsignale 80 zur Übertragung über den
Kommunikationskanal 82.
-
Eine alternative Auslegung des Peripheriegerätegehäuses 115 ist
in den 14 und 15 dargestellt. Ein Gehäusekasten 117 ist
vom Aufbau her allgemein rechteckig, wobei offene Endabschnitte
dazu ausgelegt sind, jeweils einen Gehäusefrontrahmen 119 und
eine Rückwand 123 aufzunehmen.
Der Gehäusefrontrahmen 119 trägt vorzugsweise
einen Einbaulautsprecher 90 und ein Einbaumikrofon 91.
Mehrere Stecker und Adapter für
Video, Audio, Kommunikationskanal und Strom sind vorzugsweise an
der Rückwand 123 angebracht.
Eine vorzugsweise am Gehäusekasten 117 angebrachte
Leuchte 121 macht einen Benutzer des audiovisuellen Kommunikationssystems 70 darauf
aufmerksam, dass gerade eine Videokonferenz abläuft. Es ist festzuhalten, dass
die Leuchte 121 eine Glühdiode,
Leuchtstoffdiode, LED oder eine andere bekannte Lichtquelle sein kann.
-
Das Senden und Empfangen von lokalen
oder fernen Audio- und Videosignalen über den Kommunikationskanal 82 wird
vorzugsweise durch eine im Peripheriegerätegehäuse 115 vorgesehene
Kommunikationsplatine 106 erleichtert. Die Kommunikationsplatine 106,
die mit der Hauptplatine 100 und Kommunikationskanal-Sende-/Empfangs-Schaltungen, die
an der Rückwand 123 angebracht
sind, verbunden ist, kommuniziert mit der Soundkarte 102 und
der Graphikkarte 104, um lokale und ferne Audio- und Videosignale über den Kommunikationskanal 82 zu
senden bzw. zu empfangen. Es ist festzuhalten, dass der Kommunikationskanal 82 im
Allgemeinen an ein nationales oder internationales Kommunikationsnetz 84 angeschlossen
ist. Darüber hinaus
ist festzuhalten, dass der Kommunikationskanal von der Art eines
herkömmlichen
analogen POTS-Telefondienstaufbaus
(Plain Old Telefone Service) oder ein digitaler Kommunikationskanal
wie ein digitaler ISDN-Kommunikationskanal (Integrated Services
Digital Network) sein kann. Die Kommunikationsplatine 106 umfasst
vorzugsweise ein Hochgeschwindigkeitsmodem zur Übertragung von Audio-, Video-
und anderen Datensignalen über
einen analogen Kommunikationskanal. Strom für das audiovisuelle Kommunikationssystem 70 wird
von einer Stromversorgung 108 bereitgestellt, die mit der
Hauptplatine 100 verbunden ist. Die Stromversorgung 108 ist
vorzugsweise eine universale Wechselstrom-Schaltstromversorgung,
die in der Lage ist, einen breiten Bereich an Versorgungsspannungen
zu liefern, vorzugsweise zwischen 85 und 264 Volt und mit Frequenzen
von 47 bis 63 Hertz, um sowohl in nationalen als auch internationalen
Stromversorgungssystemen zu arbeiten.
-
Ein wichtiges Merkmal des neuen audiovisuellen
Kommunikationssystems 70 betrifft die hochschnelle Ausgabeinterface-Platine 110,
die dazu ausgelegt ist, mit einem separaten Host-Computersystem 72 zu
kommunizieren. In einer Ausführungsform
werden lokale und ferne Videosignale über eine SCSI-Schnittstelle
(SCSI – Small
Computer Systems Interface) oder einen SCSI-Bus an das separate
Host-Computersystem 72 übertragen.
-
In einer weiteren Ausführungsform
umfasst die Ausgabeinterface-Platine 110 eine PCMCIA-Schnittstelle
(Personal Computer Memory Card Industry Association) oder einen
PCMCIA-Bus, um Hochgeschwindigkeitsverbindungen zwischen dem audiovisuellen
Kommunikationssystem 70 und verschiedenen Arten von Host-Computersystemen 72,
einschließlich
Laptop-Computersystemen, bereitzustellen.
-
Nunmehr mit Bezug auf 6 ist ein Eingabe-/Ausgabefeld 120 gezeigt,
das ein Ausgabeinterfacefeld 122, ein Eingabeinterfacefeld 150 und
ein Kommunikationskanalinterfacefeld 170 umfasst. Das Eingabe-/Ausgabefeld 120 ist
vorzugsweise als Rückwand 123 ausgelegt
und auf der Rückseite
des Peripheriegerätegehäuses 115 angebracht
und stellt Einrichtungen bereit, um die internen Audio-, Video-
und Datenverarbeitungseinheiten des audiovisuellen Kommunikationssystems 70 mit
Audio- und Videosignalquellen 80 und 78, dem Kommunikationskanal 82,
dem Host-Computersystem 72, dem externen Lautsprecher 220 und
dem Bildschirm 76 zu verbinden. Das Eingabeinterfacefeld 150 umfasst
vorzugsweise ein Videoeingangsfeld 151 und ein Audioeingangsfeld 160.
das Videoeingangsfeld 151 umfasst vorzugsweise eine Videoeingangshauptbuchse 152 (MAIN)
und eine Videoeingangshilfsbuchse 154 (AUX), um NTSC- oder
PAL-Quellvideodaten 78 zu empfangen (NTSC – National
Television Systems Committee; PAL – Phase Altering Line). Im
Allgemeinen ist eine Videokamera oder ein Videocamcorder an die
Videoeingangshauptbuchse 152 angeschlossen, während für gewöhnlich ein
Videokassettenrekorder (VCR) an die Videoeingangshilfsbuchse 154 angeschlossen
ist, obwohl auch anstelle eines Videokassettenrekorders eine zweite
Videokamera verwendet werden kann. Das Videoeingangsfeld 151 umfasst
darüber
hinaus S-Videoeingangshaupt-
und Videoeingangshilfsbuchsen 156 und 158 (MAIN/AUX),
um Videosignale von einer S-Bildquelle 78 zu empfangen.
-
Das Audioeingangsfeld 160 umfasst
vorzugsweise eine Audioeingangshauptbuchse 162 (MAIN) und eine
Audioeingangshilfsbuchse 164 (AUX), wobei beide Audioeingänge 162 und 164 vorzugsweise
kompatible Eingänge
mit einem Spannungspegel von 2,0 Volt sind. Die Audioeingangshauptbuchse 162 ist
im Allgemeinen an den Audioausgang einer Videokamera oder eines
Videocamcorders angeschlossen, wobei das vom Einbaumikrofon des
Videocamcorders erzeugte Audioausgangssignal von der Audioeingangsbuchse 162 empfangen
wird. Die Audioeingangshilfsbuchse 164 ist für gewöhnlich an
einen VCR angeschlossen, kann aber alternativ auch an den Audioausgang
einer zwei ten Videokamera oder eines zweiten Videocamcorders angeschlossen
sein. Eine externe Mikrofonbuchse 168 ist vorgesehen, um
Audioeingangssignale von einem externen Mikrofon zu empfangen und
die, wenn sie in Gebrauch ist, vorzugsweise das Einbaumikrofon 91 sperrt,
das am Peripheriegerätegehäuse 115 vorhanden
ist.
-
Das Ausgabeinterfacefeld 122 umfasst
vorzugsweise ein Videoausgangsfeld 125, ein Audioausgangsfeld 127 und
ein Interfacefeld 140 für
das Host-Computersystem. Videofernsignale, die über den Kommunikationskanal 82 eingehen,
können
auf einem externen Bildschirm 76 angezeigt werden, indem
der externe Bildschirm 76 an die Videoausgangsbuchse 124 angeschlossen
wird. Das Videoausgangssignal, das an der Videoausgangsbuchse 124 bereitsteht,
entspricht vorzugsweise einem der beiden Betriebsübertragungsparameter der
Videosignalstandards NTSC oder PAL. Eine S-Videoausgangsbuchse 126 ist
vorgesehen, um Netzwerkfähigkeit
mit einer S-Videovorrichtung
zu ermöglichen.
-
Das Audioausgangsfeld 127 umfasst
vorzugsweise eine lokale Audioausgangsbuchse 128 und eine entfernt
angeordnete Audioausgangsbuchse 130. Die lokale Audioausgangsbuchse 128 ist
dazu ausgelegt, Audiosignale zu übertragen,
die an der lokalen Konferenzstätte
erzeugt werden, während
die entfernt angeordnete Audioausgangsbuchse 130 dazu ausgelegt
ist, Audiofernsignale zu übertragen,
die von einer entfernt angeordneten Konferenzstätte eingehen. Die lokalen und
entfernt angeordneten Audioausgangsbuchsen 128 und 130 sind
für gewöhnlich an
linke und rechte Audioeingänge
eines Stereovideokassettenrekorders angeschlossen. Eine externe
Lautsprecherbuchse 132 stellt Einrichtungen zur Verfügung, um
Audiofernsignale über
einen externen Lautsprecher 220 auszustrahlen. Es ist festzuhalten,
dass Audiofernsignale vorzugsweise zu einem internen Lautsprecher 90 geleitet
werden, wenn nicht ein externer Lautsprecher 220 an die
externe Lautsprecherbuchse 132 angeschlossen ist, wobei
der interne Lautsprecher 90 dann vorzugsweise gesperrt wird.
-
Wie zuvor erörtert stellt in einer Ausführungsform
das audiovisuelle Kommunikationssystem 70 eine autonome
Videokonferenzmöglichkeit
bereit, indem Audio- und Videosignalquellvorrichtungen 80 und 78 einfach
an die Audio- und Videoeingangsbuchsen 162 und 152 des
Eingabeinterfacefelds 150 angeschlossen werden, ein externer
Bildschirm 76 an die Videoausgangsbuchse 124 angeschlossen
wird, und eine standardmä ßige oder
digitale Telefonleitung an das Kommunikationskanalinterfacefeld 170 angeschlossen
wird. In dieser Konfiguration stellt das audiovisuelle Kommunikationssystem 70 eine
farbgetreue Bewegtbild-Videokonferenzmöglichkeit über einen Kommunikationskanal 82 bereit,
wobei Videofernbilder auf dem Bildschirm 76 angezeigt und
Audiofernsignale über
den internen Lautsprecher 90 ausgestrahlt werden.
-
Die Funktionalität des in 3 dargestellten Videokonferenzsystems
wird im Allgemeinen noch verstärkt,
indem das periphere audiovisuelle Kommunikationssystem 70 mit
einem separaten Host-Computersystem 72 verbunden wird und
eine Videokonferenzanwendungssoftware zum Einsatz gebracht wird,
die vorzugsweise so konfiguriert ist, dass sie in und zusammenwirkend
mit dem Host-Computersystem 72 arbeitet. Das Host-Computersystem 72 und
die dazugehörige
Videokonferenzanwendungssoftware wirken vorzugsweise mit dem audiovisuellen
Kommunikationssystem 70 zusammen, um die Darstellung ferner
und lokaler Videobilder auf einem an das Host-Computersystem 72 angeschlossenen
Display 74 zu koordinieren, und um allgemein die Funktionalität des audiovisuellen
Kommunikationssystems 70 zu verstärken. Das Videokonferenzsanwendungssoftwarepaket,
das das audiovisuelle Kommunikationssystem 70 begleitet,
ist vorzugsweise so ausgelegt, dass es in den verbreitetsten PC-Systemen
und zusammenwirkend mit einer Vielzahl an Betriebssystemen mit Industriestandard
läuft.
In einer Ausführungsform
kann das Videokonferenzanwendungssoftwarepaket vorzugsweise in Computersystemen
betrieben werden, die sowohl auf Windows® als
auch Macintosh® basieren.
-
Das Ausgabeinterfacefeld 122 beinhaltet
ein Interface bzw. Interfacefeld 140, welches vorzugsweise ein
SCSI-Interface und einen Ausgangssteckverbinder 142 und/oder
ein PCMCIA-Interface und einen Ausgangssteckverbinder 148 umfasst.
Ein zweites SCSI- oder
PCMCIA-Interface und ein Ausgangssteckverbinder 144 stehen
vorzugsweise zur Verfügung,
um das audiovisuelle Kommunikationssystem 70 mit anderen SCSI-
oder PCMCIA-Peripheriegeräten
prioritätisch
zu verketten. Ein Kennungsschalter 146 (ID) ist vorgesehen,
um dem audiovisuellen Kommunikationssystem 70 unter weiteren
Peripheriegeräten,
die über
einen gemeinsamen SCSI-Bus 113 kommunizieren, eine eindeutige
Kennung zu geben. Das Host-Computersystem 72 kommuniziert,
wenn es an das Interfacefeld 140 des Host-Computers angeschlossen
ist, mit dem audiovisuellen Kommunikationssystem 70 vorzugsweise,
indem es einen oder mehrere Koordinationsbefehle erteilt, um den
Betrieb des audiovisuellen Kommunikationssystems 70 zu
konfigurieren und zu koordinieren.
-
Netzwerkfähigkeit zwischen dem audiovisuellen
Kommunikationssystem 70 und dem Kommunikationskanal 82 wird
vorzugsweise durch ein Kommunikationskanalinterfacefeld 170 bereitgestellt.
Eine Kommunikation über
entweder ein digitales ISDN-Nachrichtenkabel
oder ein standardmäßiges analoges
POTS-Nachrichtenkabel wird wahlweise von einem ISDN-Transceiver 172 und
einem POTS-Transceiver 174 bereitgestellt. Die Abhaltung
einer Videokonferenz über
ein standardmäßiges analoges
POTS-Kabel wird
durch ein internes Modem erleichtert, das vorzugsweise mit einer
Baud-Rate von bis zu 28.800 Kilobits pro Sekunde (kbit) betrieben
werden kann. Der ISDN-Transceiver 172 ist
vorzugsweise an einen digitalen Basisraten-ISDN-(BRI)-Kommunikationskanal 82 angeschlossen,
welcher zwei 64 kbit-Datenkanäle,
einen 16 kbit-Sprachkanal und einen 64 kbit-Signalisierungskanal
bereitstellt. Das Kommunikationskanalinterfacefeld 170 kann
darüber
hinaus einen optionalen Kanaltransceiver 176 umfassen,
um über
einen Primärraten-ISDN-(PRI)-Kommunikationskanal,
eine T1-Leitung,
eine Vermittlungsleitung 56 und verschiedene lokale und überregionale
Netze zu kommunizieren.
-
Nunmehr ist mit Bezug auf 5 ein verallgemeinertes
Blockschema eines Videokonferenzsystems gezeigt, das ein peripheres
audiovisuelles Kommunikationssystem 70 und ein separates
Host-Computersystem 72 umfasst. Audio- und Video-Quellsignale 80 und 78 werden
vom Eingabeinterfacefeld 150 empfangen, das geeignete Eingangsstecker
und -Buchsen umfasst. Das Eingabeinterfacefeld 150 ist
vorzugsweise so ausgelegt, dass es Video-Quellsignale 78 empfängt, die
von mindestens zwei Bildquellen bereitgestellt werden, die eine
Videokamera und einen VCR oder alternativ beispielsweise zwei Videokameras
umfassen. Das Audio-Quellsignal 80, das von einem Einbaumikrofon 91 oder
einem externen Mikrofon empfangen wird, wird vorzugsweise an den
lokalen Audioprozessor 182 der Soundkarte 102 übertragen.
Das Video-Quellsignal 78 wird vorzugsweise an den lokalen
Videoprozessor 186 der Graphikkarte 104 übertragen.
-
Der lokale Audioprozessor 182 empfängt das
Audio-Quellsignal 80 vorzugsweise vom Audioeingangsfeld 160 und überträgt das Audio-Quellsignal 80 an
eine zentrale Steuereinheit 200. Ein Kommunikationskanalinterfacefeld 170 empfängt das
von der zentralen Steuereinheit 200 übertragene Audio-Quellsignal 80 und überträgt das Audio-Quellsignal 80 wiederum
an den Kommunikationskanal 82. In einer Ausführungsform
wandelt der lokale Audioprozessor 182 das Audio-Quellsignal 80 in
ein entsprechendes komprimiertes Audiosignal mit einem vorbestimmten
komprimierten Format für
eine rationelle Übertragung über den
Kommunikationskanal 82 um.
-
Das vom Videoeingangsfeld 151 empfangene
Video-Quellsignal 78 wird an einen lokalen Videoprozessor 186 übertragen,
der auf der Graphikkarte 104 vorgesehen ist. Der lokale
Videoprozessor 186 verarbeitet das Video-Quellsignal 78 zur Übertragung
an die zentrale Steuereinheit 200, welche das Video-Quellsignal 78 wiederum
an das Kommunikationskanalinterfacefeld 170 zur Übertragung über den
Kommunikationskanal 82 überträgt. In einer
Ausführungsform
wandelt der lokale Videoprozessor 186 das vom Videoeingangsfeld 151 empfangene
Video-Quellsignal 78 in ein entsprechendes komprimiertes
Videosignal mit einem vorbestimmten komprimierten digitalen Format
zur rationellen Übertragung über den
Kommunikationskanal 82 um. Es ist festzuhalten, dass das
Video-Quellsignal 78 und das dazugehörige Audiosignal 80 im
Allgemeinen zusammen als kombiniertes Audio-/Videosignal über den
Kommunikationskanal 82 übertragen
werden. Die zentrale Steuereinheit 200 synchronisiert vorzugsweise
bei der Erzeugung eines kombinierten Audio-/Videosignals die zusammengehörenden Audio-
und Videosignale 80 und 78.
-
Immer noch mit Bezug auf 5 wird ein über den
Kommunikationskanal 82 übertragenes
Audiofernsignal vom Kommunikationskanalinterfacefeld 170 empfangen
und an die zentrale Steuereinheit 200 weitergeleitet. Die
zentrale Steuereinheit 200 überträgt das Audiofernsignal an einen
entfernt angeordneten Audioprozessor 184, der auf der Soundkarte 102 vorgesehen
ist. Der entfernt angeordnete Audioprozessor 184 umfasst
Einrichtungen zum Umwandeln eines komprimierten Audiofernsignals
in ein entsprechendes decodiertes Audiofernsignal. Das decodierte
Audiofernsignal wird vorzugsweise an einen internen Lautsprecher 90 übertragen,
der am Peripheriegerätegehäuse 115 vorgesehen
ist. Das decodierte Audiofernsignal wird auch an das Ausgabeinterfacefeld 122 und
insbesondere an die externe Lautsprecherbuchse 127 übertragen.
Das Anschließen
eines externen Lautsprechers 220 an die externe Lautsprecherbuchse 127 zum
Ausstrahlen der decodierten Audiofernsignale sperrt vorzugsweise
den internen Lautsprecher 90.
-
Das Kommunikationskanalinterfacefeld 170 empfängt auch
Videofernsignale vom Kommunikationskanal 82 und überträgt die Videofernsignale
an die zentrale Steuereinheit 200 zur Verarbeitung durch
den entfernt angeordneten Videoprozessor 188, der auf der
Graphikkarte 104 vorgesehen ist. Der entfernt angeordnete
Videoprozessor 188 empfängt
typischerweise von der zentralen Steuereinheit 200 ein
komprimiertes Videofernsignal, welches vorzugsweise vom entfernt
angeordneten Videoprozessor 188 in ein entsprechendes decodiertes
Videosignal umgewandelt wird. Die Graphikkarte 104 überträgt das decodierte
Videofernsignal vorzugsweise sowohl an das Interfacefeld 140 des
Host-Computers, als auch an das Videoausgangsfeld 125.
Ein externer Bildschirm 76 kann an das Videoausgangsfeld 125 angeschlossen
sein, um darauf ein zum decodierten Videofernsignal gehörendes Videobild
anzuzeigen. Das vom Interfacefeld 140 des Host-Computers
empfangene decodierte Videofernsignal wird vorzugsweise an das SCSI-Interface 142 oder
das PCMCIA-Interface 148 zur Weiterleitung an ein separates
Host-Computersystem 72 übertragen,
das an das audiovisuelle Kommunikationssystem 70 angeschlossen
ist. Das Host-Computersystem 72 koordiniert vorzugsweise
die Darstellung eines zum decodierten Videofernsignal gehörenden Videobilds
auf einem Display 74, das an das Host-Computersystem 72 angeschlossen
ist.
-
In einer Ausführungsform überträgt die Graphikkarte 104 das
Video-Quellsignal 78 zusammen mit dem decodierten Videofernsignal
an das Interfacefeld 140 des Host-Computers. Ein kombiniertes Videosignal,
das der Kombination von Video-Quellsignal und decodiertem Videofernsignal
entspricht, wird vorzugsweise an das Host-Computersystem 72 zur gleichzeitigen
Darstellung auf dem Display 74 übertragen. Videobilder, die
zu den Video-Quellsignalen und den decodierten Videofernsignalen
gehören,
können
jeweils als nebeneinander angeordnete Videobilder, oder als Bildschirmfenstereinblendungsbilder
oder in jeder anderen gewünschten Form
von Videoquellbildern oder Videofernbildern auf dem Display 74 angezeigt
werden. Die Formatierung und Darstellung der Videoquell- und Videofernbilder
wird vorzugsweise vom Host-Computersystem 72 und, noch
konkreter ausgedrückt,
durch Zusammenwirken des Host-Computersystems 72 mit der
darauf laufenden Videokonferenzanwendungssoftware gesteuert.
-
Die Audio- und Videoprozessoren 182, 184, 186 und 188 der
Audio- und Graphikkarten 102 und 104 umfassen
vorzugsweise Komprimierungs- und Entkomprimierungschips, die auch
als CODEC-Chips bezeichnet werden, die Audio- und Videosignale entsprechend
eines international anerkannten Videokonferenzstandards codieren
und decodieren. Ein geeigneter Videokonferenzstandard ist der Standard
CCITT H.320, der vom Consultative Committee on International Telefony
and Telegraphy, einer Körperschaft
der International Telegraph Union (ITU) veröffentlicht wurde, die von den
Vereinten Nationen eingerichtet wurde. Der Videokonferenzstandard
CCITT H.320 umfasst mehrere Unterstandards einschließlich eines
Videokomprimierungsstandards N.261, eines Kanalcodierungsstandards
H.221 und Audiokomprimierungsstandards G.711, G.722 und G.728.
-
Gemäß einer weiteren Ausführungsform
umfasst das audiovisuelle Kommunikationssystem 70 eine Hochgeschwindigkeitsdatenpipeline
oder -datentransferfähigkeit,
um Datendateien über
den Kommunikationskanal zu übertragen.
Eine standardmäßige Datendatei,
die im Host-Computersystem 72 hinterlegt ist, wird beispielsweise über das
Interfacefeld 140 des Host-Computers an einen Datendateiprozessor 202 übertragen. Die
zentrale Steuereinheit 200 empfängt dann die vom Datendateiprozessor 202 übertragene
Datendatei und leitet diese wiederum an das Kommunikationskanalinterfacefeld 170 weiter.
Das Kommunikationskanalinterfacefeld 170 überträgt die Datendatei über einen
ISDN-Transceiver 172, wenn das audiovisuelle Kommunikationssystem 70 über einen
digitalen ISDN-Kommunikationskanal 82 kommuniziert. Ein
(nicht gezeigtes) Hochgeschwindigkeitsmodem, das vorzugsweise auf
der Kommunikationsplatine 106 vorgesehen ist, empfängt die Datendatei
von der zentralen Steuereinheit 200, bevor es die Datendatei über den
POTS-Transceiver 174 des Kommunikationskanalinterfacefelds 170 überträgt. Der
Datendateiprozessor 202 umfasst vorzugsweise Datenkomprimierungseinrichtungen,
um eine standardmäßige Datendatei
in eine komprimierte Datendatei mit einem vorbestimmten komprimierten
Format zur Schnellübertragung über den
Kommunikationskanal 82 umzuwandeln.
-
Eine Ferndatendatei kann vom Kommunikationskanalinterfacefeld 170 empfangen,
zur zentralen Steuereinheit 200 weitergeleitet und dann
dem Datendateiprozessor 202 übermittelt werden. Eine komprimierte
Ferndatendatei wird vom Datendateiprozessor 202 vorzugsweise
in eine standardmäßige Ferndatendatei umgewandelt
und über
das Interfacefeld 140 des Host-Computers an das Host-Computersystem 72 übertragen.
Somit wird durch den Datendateiprozessor 202 des audiovisuellen
Kommunikationssystems 70 eine hochschnelle Datendateitransferverbindung
oder Datenpipeline zwischen einem lokalen Host-Computersystem 72 und
einem (nicht gezeigten) entfernt angeordneten Host-Computersystem
gefördert.
-
Der Datendateiprozessor 202 stellt
vorzugsweise eine hochschnelle, doppeltgerichtete Datenübermittlung
zwischen zwei Host-Computersystemen bereit, die über den Kommunikationskanal 82 kommunizieren. Verschiedene
Merkmale zur Verbesserung von Videokonferenz, einschließlich Dateitransfer,
Bildschirmgemeinschaftszugriff, Dokumentinteraktion und weitere
Datenaustauschmerkmale werden vom Datendateiprozessor 202 bereitgestellt,
der mit zwei Host-Computersystemen zusammenarbeitet, die über den
Kommunikationskanal 82 kommunizieren. Die Koordination
des Dateitransferprozesses ist sowohl einfach als auch zuverlässig. Das
lokale Host-Computersystem 72 überträgt beispielsweise bevorzugt
immer dann Datenblöcke über den
Kommunikationskanal 82, wenn eine lokaler Sendestatus (SEND)
auf „Positiv" (TRUE) eingestellt
ist, wodurch angezeigt wird, dass das entfernt angeordnete Host-Computersystem
bereit ist, die Datenblöcke
zu empfangen. Der lokale Sendestatus (SEND) wird zuerst auf „Positiv" (TRUE) und danach
auf „Negativ" (FALSE) eingestellt,
nachdem ein erster Satz von Datenblöcken übertragen wurde. Das entfernt
angeordnete Host-Computersystem überträgt, nachdem
es den ersten Satz von Datenblöcken über den
Kommunikationskal 82 erhalten hat, ein Sendebereitschaftsstatussignal
(OK SEND) an das lokale Host-Computersystem 72,
aber nur, wenn der erste Satz lokaler Datenblöcke fehlerfrei eingegangen
ist. Dann können
zusätzliche
Datenblöcke vom
lokalen Host-Computersystem 72 an das entfernt angeordnete
Host-Computersystem geschickt werden.
-
Ein Empfangsstatussignal (RECEIVE)
zeigt an, dass eingehende Datenblöcke von einer entfernt angeordneten
Konferenzstätte
empfangen wurden und dort ihrer Verarbeitung harren. Der lokale
Host-Computer 72 überträgt ein Sendebereitschaftsstatussignal
(OK SEND) an die entfernt angeordnete Konferenzstätte, nachdem
die eingehenden Datenblöcke
bearbeitet wurden. Wird ein Datenblock zwischen einem lokalen Host-Computersystem 72 und
einem entfernt angeordneten Host-Computersystem nicht ordnungsgemäß übertragen,
wird er automatisch zurückgeschickt.
Dementsprechend ist ein Überlauf
oder Datenverlust ausgeschlossen. Vorzugsweise wickelt der Datendatei- prozessor 202 alle
Quittungs- und Fehlererfassungs-/Fehlerkorrekturvorgänge ab.
Der Datendateiprozessor 202 umfasst darüber hinaus bevorzugt Doppelpufferspeichereinrichtungen,
um sicherzustellen, dass die Übertragungsbandbreite
des Kommunikationskanals 82 optimal genutzt wird. Eine
Doppelpufferspeicherung ermöglicht
es dem lokalen Host-Computersystem, beispielsweise einen zweiten
Satz von Datenblöcken
an den Datendateiprozessor 202 zu übertragen, während der
erste Satz von Datenblöcken
gerade über
den Kommunikationskanal übertragen
wird.
-
Eine wichtiges Merkmal, das von der
hochschnellen Datenpipeline oder Datentransferfähigkeit des audiovisuellen
Kommunikationssystems 72 bereitgestellt wird, ist die Möglichkeit,
Einsicht in ein Dokument nehmen und es abändern zu können, das an einer lokalen
und entfernt angeordneten Konferenzstätte gleichzeitig angezeigt
wird. Nunmehr mit Bezug auf die 11 und 12, arbeitet das neue periphere
audiovisuelle Konferenzsystem zusammenwirkend mit einem Host-Computersystem
und einer Videokonferenzanwendungssoftware, um Gemeinschaftsfensterzugriffs-
und Dokumentinteraktionsfunktionen bereitzustellen, die entweder
an einer lokalen oder einer fern angeordneten Konferenzstätte eingeleitet
werden können.
Es wird davon ausgegangen, dass die Betriebssysteme der lokalen
und entfernt angeordneten Host-Computersysteme 244 und 246 in
der Lage sind, mit mindestens einer Softwareanwendung von mehreren
aktivierbaren Softwareanwendungsfenstern zu arbeiten.
-
Ein Benutzer des lokalen Host-Computersystems 244 leitet
beispielsweise den Gemeinschaftsfensterzugriff und die Dokumentinteraktion
dadurch ein, dass er zuerst bei Schritt 622 eines oder
mehrere lokale Anwendungsfenster öffnet. Ein lokales Fenstermenü 600 baut
sich bei Schritt 624 auf, das als Zugangsauswahlmöglichkeiten
die Namen oder Bezeichnungen der zuvor geöffneten Fensteranwendungen
benutzt. Das lokale Fenstermenü 600 wird
vorzugsweise bei Schritt 626 aktualisiert, um die Namen
oder Bezeichnungen aller nachfolgend geöffneten Anwendungsfenster aufzunehmen,
unmittelbar bevor das lokale Fenstermenü 600 vom Benutzer
durch einen Pull-down-Vorgang in den Vordergrund des lokalen Displays 248 gebracht
wird. Die mit jedem der Fenster verbundenen Anwendungen werden vorzugsweise
zur Auswahl im Menü 600 in
alphabetischer Reihenfolge dargestellt.
-
Dann wählt der Benutzer bei Schritt 628 ein
lokales, aktives Anwendungsfenster 602 aus dem Menü 600 aus,
um gemeinsam mit einer entfernt angeordneten Konferenzstätte darauf
zuzugreifen. Das lokale Host-Computersystem 244 teilt bei
Schritt 630 vorzugsweise einen geeigneten Systemspeicherbetrag
zu, um einen lokalen verdeckten Fensterpufferspeicher 604 und
eine lokale Pixelaktualisierungstabelle 606 unterzubringen.
Eine Kopie der Pixels oder Pixeldaten, die das lokale aktive Fenster 602 definieren,
werden bei Schritt 632 an den lokalen verdeckten Fensterpufferspeicher 604 übertragen.
Das aus dem Fenstermenü 600 ausgewählte lokale
aktive Fenster wird dann bei Schritt 634 in den Vordergrund
des lokalen Displays 248 gebracht. Alle Pixel, die das
im Vordergrund des lokalen Displays 248 dargestellte Videobild
im lokalen aktiven Fenster 602 umfassen, werden dann bei
Schritt 636 in den lokalen verdeckten Pufferspeicher 604 kopiert.
-
Die Videokonferenzanwendungssoftware
erfasst, ob bei Schritt 638 ein lokaler Zeichnungsbefehl
ergangen ist, typischerweise, indem beispielsweise die Aktivität einer
Maus oder Tastatur erfasst wird, die das lokale Benutzerinterface 246 umfasst.
Im Ansprechen auf den lokalen Zeichnungsbefehl werden über das
lokale aktive Fenster 602 Pixels, die von dem lokalen Zeichnungsbefehl
betroffen sind, bei Schritt 642 abgeändert oder aktualisiert. Die
aktualisierten Pixeldaten im lokalen Fenster 602 werden
bei Schritt 640 typischerweise in der Form von Pixelkennlinien-
und Pixelgeometriedaten aufgezeichnet oder in der lokalen Pixelaktualisierungstabelle 606 aktualisiert.
Die aktualisierten Pixeldaten werden dann bei Schritt 636 in
den lokalen verdeckten Fensterpufferspeicher 604 kopiert,
was dazu führt,
dass ein Spiegelbild des lokalen aktiven Fensters 602 im
lokalen verdeckten Fensterpufferspeicher 604 hinterlegt
ist. In der Praxis werden ursprüngliche
Pixeldaten, die an besonderen Speicherstellen im verdeckten Fensterpufferspeicher 604 gespeichert
sind, im Allgemeinen überschrieben
oder durch modifizierte Pixeldaten, die denselben Speicherstellen
entsprechen, ersetzt.
-
Zu einem passenden Zeitpunkt werden
die im lokalen verdeckten Fensterpufferspeicher 604 gespeicherten
Pixeldaten bei Schritt 644 über den Kommunikationskanal 82 an
das lokale audiovisuelle Kommunikationssystem 242 übertragen.
Es ist festzuhalten, dass die Übertragung
der lokalen Pixeldaten über
die Datenpipeline oder den Kommunikationskanal 82 bei Schritt 644 nach
oder gleichzeitig mit den Prozessschritten 638, 642,
640 und 636 vonstatten
gehen können,
die mit Änderungen
zusammenhängen,
die an den lokalen aktiven Fensterpixeln vorgenommen werden.
-
Ein entfernt angeordnetes Host-Computersystem 264 arbeitet
mit einer Videokonferenzanwendungssoftware, die im Wesentlichen
gleich derjenigen ist, mit der das lokale Host-Computersystem 244 arbeitet,
um das Abhalten einer Videokonferenz zwischen der lokalen und entfernt
angeordneten Konferenzstätte
zu verbessern. Nachdem eine Kommunikationsverbindung zwischen den
lokalen und entfernt angeordneten Host-Computersystemen 244 und 264 hergestellt
wurde, wird eine komplette Aktualisierung von Pixeldaten, die mit
dem Videobild des gesamten lokalen aktiven Fensters 602,
wie es sich im lokalen verdeckten Fensterpufferspeicher 604 wiederspiegelt,
zuerst bei Schritt 650 über
den Kommunikationskanal 82 übertragen und vom entfernt
angeordneten audiovisuellen Kommunikationssystem 262 empfangen.
Die Pixeldaten, die mit dem gesamten lokalen aktiven Fenster 602 zusammenhängen, werden
zuerst bei Schritt 652 in den entfernt angeordneten verdeckten
Fensterpufferspeicher 610 kopiert und danach bei Schritt 654 zum
entfernt angeordneten aktiven Fenster 608 übertragen,
das im Vordergrund des entfernt angeordneten Displays 268 dargestellt ist.
-
Die bei Schritt 644 über die
Datenpipeline 82 übertragenen
modifizierten lokalen Pixeldaten gehen bei Schritt 650 an
der entfernt angeordneten Konferenzstätte ein, werden dann bei Schritt 652 in
den entfernt angeordneten verdeckten Fensterpufferspeicher 610 kopiert
und danach bei Schritt 654 an das entfernt angeordnete
aktive Fenster 608 übertragen,
um das darin dargestellte Videobild zu aktualisieren. Es ist festzuhalten, dass
auch eine Konferenzpartei an der entfernt angeordneten Konferenzstätte Änderungen
am Dokument oder der Anwendung vornehmen kann, auf die gerade in
den lokalen und entfernt angeordneten Fenstern 602 und 608 gemeinsam
zugegriffen wird. Das entfernt angeordnete Host-Computersystem 264 wirkt
vorzugsweise mit einer Videokonferenzanwendungssoftware zusammen,
um einen Gemeinschaftsfensterzugriff, eine Änderung und Aktualisierung
auf eine Weise zu koordinieren, die ähnlich derjenigen ist, die
zuvor im Hinblick auf das lokale Host-Computersystem 244 erörtert wurde.
-
Während
der Vorgänge
des Gemeinschaftsfensterzugriffs und der Dokumentinteraktion wird
im Allgemeinen eine komplette Aktualisierung oder Übertragung
von all den Pixeldaten durchgeführt,
die mit einem der lokalen oder entfernt angeordneten Fenster 602 und 608 zusammenhängen, wenn
eine Konferenzpartei die Größe eines
aktiven Fensters verändert,
oder bei Ablauf einer vorbestimmten Zeit, die in einem automatischen Zeitgeber
einprogrammiert ist, um das lokale und entfernt angeordnete Fenster 602 und 608 periodisch
aufzufrischen. Es ist festzuhalten, dass das schrittweise Aktualisieren
von Pixeldaten in erster Linie durchgeführt wird, um die Nutzung der
verfügbaren Übertragungsbandbreite
eines Kommunikationskanals 82 mit eingeschränkter Bandbreite
zu optimieren. Weitere Optimierungsschemata wie das Konvertieren
der Pixeldaten in ein komprimiertes Format unter Verwendung eines
von vielen Komprimierungsverfahren, kann eingesetzt werden, um den
Wirkungsgrad der Übertragung
von Pixeldaten zwischen einer lokalen und einer entfernt angeordneten
Konferenzstätte
zu erhöhen,
wenn Gemeinschaftsfensterzugriffs- und Dokumentinteraktionsaufgaben
erfüllt
werden.
-
Ein wichtiger Vorteil des neuen audiovisuellen
Kommunikationssystems 72 betrifft seine Betriebsbereitschaft
mit einer großen
Bandbreite an Host-Computersystemen 70 und dazugehörigen Betriebssystemen. Die
Fähigkeit,
mit praktisch allen gängigen
Host-Computersystemplattformen
und Betriebssystemen zu kommunizieren, verbessert die Mobilität des audiovisuellen
Kommunikationssystems 70 deutlich und stellt ohne Weiteres
eine vollwertige Videokonferenzmöglichkeit
für die
meisten gewerblichen, staatlichen und persönlichen Einsätze zur
Verfügung.
Ein Abhalten von Mehrplattformvideokonferenzen und plattformübergreifenden (Betrieb
zwischen zwei unter ungleichen Betriebssystemen laufenden Computern)
Videokonferenzen wird vorzugsweise durch eine Videokonferenzanwendungssoftware
gefördert,
die im Host- und/oder entfernt angeordneten Computersystem arbeiten
kann.
-
Im Allgemeinen unterscheidet sich
die Art und Weise, auf die Videodaten von einem bestimmten Host-Computersystem 72 verarbeitet
werden, von einem Computersystemhersteller zum anderen. Da kein einziger
Videoverarbeitungsstandard für
den exklusiven Gebrauch unter Herstellern von Host-Computersystemen
angenommen wurde, führt
das neue audiovisuelle Kommunikationssystem 70 vorzugsweise
im Wesentlichen alle signifikanten Videoverarbeitungsaufgaben durch,
bevor es die Videodaten über
ein Ausgabeinterface 140 an ein angeschlossenes Host-Computersystem 72 zur
Darstellung auf einem Display 74 weiterleitet. Praktisch
alle gängigen
Host-Computersysteme 72 sind allgemein so konfiguriert,
dass sie über
eines einer begrenzten Anzahl von standardmäßigen Ausgabeinterfaces 140,
wie beispielsweise ein SCSI-Interface 142 oder PCMCIA-Interface 148 kommunizieren.
Das audiovisuelle Kommunikationssystem 70 stellt prozessorunabhängige Kompatibilität mit praktisch
allen gängigen
Host-Computersystemen 72 bereit,
indem Videodaten zu einer zur Übertragung über das
standardmäßige Ausgabeinterface 140 geeigneten
Form formatiert und durch ein spezielles Host-Computersystem 72 verarbeitet
werden, das an das audiovisuelle Kommunikationssystem 70 angeschlossen
ist.
-
Ein Host-Computersystem 72 erteilt
zusammenwirkend mit einer darauf laufenden Videokonferenzanwendungssoftware
an das audiovisuelle Kommunikationssystem 70 vorzugsweise
verschiedene Koordinierungsbefehle, um das Abhalten von Videokonferenzen
zwischen einer lokalen und einer entfernt angeordneten Konferenzstätte zu fördern. Das
Host-Computersystem 72 koordiniert vorzugsweise den Transfer
von Videobilddaten zwischen dem audiovisuellen Kommunikationssystem 72 und
dem Host-Computersystem 72.
-
Das Host-Computersystem 72 erteilt
an das audiovisuelle Kommunikationssystem 70 vorzugsweise Lese-
und Schreibanforderungsbefehle, um den Transfer von Videodaten von
dort auf eine Weise zu koordinieren, die derjenigen ähnlich ist,
wenn es mit anderen Peripheriegeräten wie beispielsweise einer
Plattenlaufwerkgruppe kommuniziert. Im Ansprechen auf die Lese-
und Schreibanforderungsbefehle überträgt das audiovisuelle
Kommunikationssystem 70 eine angeforderte Zahl von Videobildern
und andere Konfigurationsparameter zwischen dem Host-Computersystem 72 und
dem audiovisuellen Kommunikationssystem 70. Nach dieser
Ausführungsform
arbeitet das audiovisuelle Kommunikationssystem 70 mit
dem Host-Computersystem 72 in einem untergeordneten Verhältnis zusammen,
wobei alle Koordinierungsbefehle vom Host-Computersystem 72 erzeugt
werden und das audiovisuelle Kommunikationssystem 70 darauf
reagiert.
-
In einer Ausführungsform umfasst das Ausgabeinterface 140 ein
SCSI-Interface 142, wobei die Kommunikation zwischen dem
Host-Computersystem 72 und dem audiovisuellen Kommunikationssystem 70 einem
von mehreren standardmäßigen SCSI-Kommunikationsprotokollen
wie SCSI-I- und SCSI-II-Protokollen entspricht. Das Host-Computersystem 72 erzeugt
vorzugsweise Koordinierungsbefehle oder -Instruktionen in der Form
von Parameterblöcken.
Jeder Parameterblock umfasst typischerweise ein Operationscodefeld
oder Opcode-Feld, das die besondere Operation, die durchgeführt werden
soll, spezifiziert und auch die dazugehörigen Daten und Konfigurationsparameter
umfasst, die zum Durchführen
der Operation verwendet werden. Das Opcode-Feld ist im Allgemeinen
am Anfang des Parameterblocks enthalten, dann kommen Konfigurationsparameter
und Daten, die für
den besonderen Opcode einzigartig sind. Die Konfigurationsparameter
spezifizieren typischerweise die Art von Videodaten und die Weise,
auf die die vom audiovisuellen Kommunikationssystem 72 übertragenen
Videodaten auf dem Display 74 dargestellt werden sollen.
-
Beispielsweise ist wie in 10 gezeigt ein verallgemeinertes
Schema einer typischen Information gezeigt, die in einem Lese- oder
Schreibkoordinierungsbefehl 500 enthalten ist, der sich
zur Koordinierung von Kommunikation zwischen dem Host-Computersystem 72 und
dem audiovisuellen Kommunikationssystem 70 über das
SCSI-Ausgabeinterface 142 eignet.
Selbstverständlich
können
andere Peripheriegeräte-Kommunikationsprotokolle
verwendet werden als dieses eine, das dem SCSI-Standard entspricht,
um Kommunikation zwischen dem Host-Computersystem 72 und
dem audiovisuellen Kommunikationssystem 70 zu bewerkstelligen,
ohne dass dabei der Rahmen der vorliegenden Erfindung verlassen
würde.
Beispielsweise kann ein PCMCIA-Interface 148 und das dazugehörige Kommunikationsprotokoll
verwendet werden.
-
Beispielsweise und nicht einschränkend umfasst
der in 10 gezeigte Koordinierungsbefehl 500 ein ID-Feld 508,
ein Logikeinheitzahlenfeld 506 und ein Datenblockfeld 502,
welches ein Nutzbytevorfeld 504 beinhaltet. Sowohl die
Lese- als auch Schreibanforderungsbefehle sind vorzugsweise so aufgebaut,
dass sie die in 10 dargestellten
Datenfelder enthalten. Das ID-Feld 508 stellt eine Kennung
bereit, die das audiovisuelle Kommunikationssystem 70 von
anderen Peripheriegeräten,
die über
den SCSI-Bus kommunizieren, unterscheiden soll. Das Logikeinheitzahlenfeld 506 gibt
vorzugsweise die Art von Daten an, die übertragen werden, wenn das
Host-Computersystem 72 die Daten aus dem audiovisuellen
Kommunikationssystem 72 ausliest oder überträgt. Das Logikeinheitzahlenfeld 506 ist
vorzugsweise nur während
einer Lesetransferoperation impliziert, und ist typischerweise während Schreibtransferoperationen
auf Null gesetzt.
-
Die Art von Daten, die während einer
Schreibtransferoperation übertragen
werden, wird vorzugsweise durch das Nutzbytevorfeld 504 des
Datenblockfelds 502 angezeigt. Die spezielle Information
oder die Daten, die während
einer Schreib- oder Lesetrans feroperation übertragen wird/werden, sind
vorzugsweise im Datenblockfeld 502 enthalten. Die Anzahl
von Bytes, die das Datenblockfeld 502 umfasst, hängt vorzugsweise
vom speziellen Typ des Lese- oder Schreibanforderungsbefehls ab,
der vom Host-Computersystem 72 erzeugt wird.
Erteilt beispielsweise das Host-Computersystem 72 einen
Leseanforderungsbefehl, Videodaten aus dem audiovisuellen Kommunikationssystem 70 an
das Host-Computersystem 72 zu übertragen, wird eine im Datenblockfeld 502 vorbestimmte
feste Anzahl von Videodatenbytes übertragen. Erteilt das Host-Computersystem 72 beispielsweise
einen Lesestatusanforderungsbefehl, wird eine im Datenblockfeld 502 vorbestimmte, feste
Anzahl von Datenbytes übertragen,
die mit der Statusinformation zusammenhängen. Als weiteres Beispiel
wird, wenn das Host-Computersystem 72 einen
Datenblock in das audiovisuelle Kommunikationssystem 70 einschreibt,
die Größe des Datenblocks 502,
der übertragen
wird, erhalten, indem das Nutzdatenvorfeld 504 im Datenblock 502 gelesen
wird. Dementsprechend hat jeder spezielle Typ von Koordinierungsbefehlen 500 eine
dazugehörige
vordefinierte Größe des Datenblockfelds 502.
-
Mit weiterem Bezug auf 10 sind die im Datenblockfeld 502 enthaltenen
Videodaten in einem RGB-Format (Rot-Grün-Blau-Format) für eine Pixelmatrix
geordnet gezeigt, wobei jedes Pixel einem einzelnen Punkt auf einem
Farbfernsehbildschirm oder – monitor
entspricht. Jedes Pixel 512 besteht wiederum aus roten, grünen und
blauen Farbkomponenten. Das Format der Pixeldaten des Datenblocks 502 hängt vorzugsweise von
der speziellen CPU (zentrale Prozessoreinheit) des Host-Computersystems 72 ab.
Die roten, grünen
und blauen Farbkomponenten sind vorzugsweise für auf Macintosh®/Motorola® basierende
Computersysteme mengenmäßig auf
drei 5-bit-Felder 516, 518 und 520 aufgeteilt.
In der Praxis sind vorzugsweise mit jedem einzelnen Pixel 512 16
bits oder zwei 8-bit-Bytes von Farbkomponentendaten verbunden. Als
solches ist das zusätzliche
signifikanteste Bit 514 vorzugsweise auf Null gesetzt.
Für Host-Computersysteme 72,
die eine auf Windows®/Intel® beruhende
Architektur verwenden, sind die Farbkomponenten jedes Pixels 532 vorzugsweise mengenmäßig in der
folgenden Feldsequenz aufgeteilt: ein 3-bit-Grünfeld 536, ein 5-bit-Blaufeld 538,
ein unbesetztes 1-bit-Feld 540, ein 5-bit-Rotfeld 542 und
ein 2-bit-Grünfeld 544.
Man kann davon ausgehen, dass eine mengenmäßige Aufteilung der drei Farbkomponenten
für jede
Pixelkonfiguration 512 und 532 entsprechend dieser
bevorzugten Formate bis zu 32.678 (215)
Farbkombinationen bereitstellt. Es ist auch klar, dass andere Host- Prozessoren oder
CPUs im Host-Computersystem 72 verwendet werden können als
die zuvor erörterten,
und dass das audiovisuelle Kommunikationssystem 72 solche
andere Prozessoren aufnehmen kann, indem die Pixeldaten, die mit
lokalen Videosignalen und Videofernsignalen zusammenhängen, in
einer Form formatiert werden, die sich zur Übertragung über das Ausgabeinterface 140 und
eine Verarbeitung durch das spezielle Host-Computersystem 72 eignet.
-
Es ist festzuhalten, dass ein Videodatenblockfeld
502 im
Allgemeinen aus einer sich (nicht unbedingt in dieser Reihenfolge)
wiederholenden Sequenz von roten, grünen und blauen Datenfeldern
besteht, wobei die Höchstmenge
an Pixeldaten, die ein einzelnes Datenblockfeld
502 enthält, durch
die Größe des vordefinierten Datenblocks
502 begrenzt
ist, die durch den speziellen Lese- oder Schreibvideotransferkoordinierungsbefehl diktiert
wird, der vom Host-Computersystem
72 ausgeführt wird.
Ein typischer Koordinierungsbefehl, der mit einem Befehlsparameterblock
für eine
Bildschirmfenstereinblendungs-Anzeige zusammenhängt, ist beispielsweise im
folgenden in C-Sprache abgefassten Softwarecode dargestellt:
-
Der in Parameterblöcken aufgebaute
Softwarecode für
andere Koordinierungsbefehle ähnelt
vorzugsweise dem vorstehend für
einen Bildschirmfenstereinblendungs-Anzeigebefehl zur Veranschaulichung
dargestellten.
-
Die mit dem Transfer von Datendateiinformation über den
Kommunikationskanal 82 verbundenen Koordinierungsbefehle,
die einen Gemeinschaftsfensterzugriff und Dokumentinteraktion fördern sollen,
sind vorzugsweise in einem Parameterblockbefehlsformat ähnlich demjenigen,
das in 10 dargestellt
ist, strukturiert. Ein Operationscode oder Opcode und ein Blocklängencode
sind typischerweise die ersten beiden Parameter eines Datentransferkoordinierungsbefehls.
Diese beiden Parameter definieren vorzugsweise Aufbau und Inhalt
des gesamten Datentransferparameterblockbefehls. Der Opcode für einen
Zeichnungs- oder Anzeigekoordinierungsbefehl umfasst typischerweise
einen Anzeige-Opcode, einen Blocklängencode, der die Gesamtanzahl
an Bytes definiert, aus denen der Parameterblockbefehl besteht,
und mehrere Pixeldaten, die die Stelle auf dem Bildschirm und Merkmale
jedes Pixels angibt.
-
Um einen Datentransfer über unterschiedliche
Host-Computersysteme zu erleichtern, können die Pixeldaten zusätzliche
Daten in Form von eingebetteten Befehlen beinhalten, die eine spezielle
CPU anweisen, die Pixeldaten auf eine besondere Weise zu verarbeiten.
Wenn zwei ähnliche
CPUs Daten über
den Kommunikationskanal 82 austauschen, kann der eingebettete
Befehl ignoriert oder vorzugsweise nicht in die Pixeldaten aufgenommen
werden. Wird eine plattformübergreifende Übertragung
von Daten gewünscht,
extrahiert die empfangende CPU vorzugsweise die eingebetteten Befehle
und verarbeitet die dazugehörigen
Pixeldaten anweisungsgemäß. Ein eingebetteter
Befehl kann beispielsweise die empfangende CPU anweisen, die Position bestimmter
Farbbits innerhalb des Blocks von Pixeldaten wie zuvor im Hinblick
auf 10 erörtert, umzulagern.
-
In einer anderen, wie in 7 gezeigten, Ausführungsform
sind ein lokales audiovisuelles Kommunikationssystem 242 und
ein entfernt angeordnetes audiovisuelles Kommunikationssystem 262 gezeigt,
die über einen
Kommunikationskanal 82 kommunizieren. Das lokale und entfernt
angeordnete audiovisuelle Kommunikationssystem 242 und 262 arbeiten
vorzugsweise in Übereinstimmung
mit einem von der Industrie anerkannten internationalen Kommunikationsstandard,
wie dem Standard CCITT H.320. Das lokale audiovisuelle Kommunikationssystem 242 empfängt und
verarbeitet Audio- und Videosignale 252 und 254 aus
einer lokalen Quelle von einer lokalen Konferenzstätte 240.
Die Audio- und Video-Quellsignale 252 und 254 aus
der lokalen Quelle werden dann an einen Kommunikationskanal 82 übertragen.
Die über
den Kommunikationskanal 82 übertragenen Audio- und Videosignale 252 und 254 aus
der lokalen Quelle werden vom entfernt angeordneten audiovisuellen
Kommunikationssystem 262 empfangen und verarbeitet, das
sich an einer entfernt angeordneten Konferenzstätte 260 befindet.
-
Audio- und Videosignale 272 und 274 aus
einer Fernquelle werden vom entfernt angeordneten audiovisuellen
Kommunikationssystem 262 empfangen und verarbeitet, über den
Kommunikationskanal 82 übertragen
und vom lokalen audiovisuellen Kommunikationssystem 242 empfangen
und verarbeitet. Ein lokaler Bildschirm 281 kann an das
lokale audiovisuelle Kommunikationssystem 242 angeschlossen
sein, um Videofernbilder anzuzeigen, die von der entfernt angeordneten
Konferenzstätte 260 eingegangen
sind. Ähnlich
kann ein entfernt angeordneter Bildschirm 283 an das entfernt
angeordnete audiovisuelle Kommunikationssystem 262 angeschlossen
sein, um lokale Videobilder an der entfernt angeordneten Konferenzstätte 260 anzuzeigen. Gemäß dieser
Ausführungsform
wird durch die lokalen und entfernt angeordneten audiovisuellen
Kommunikationssysteme 242 und 262, die jeweils
mit lokalen und entfernt angeordneten Bildschirmen 281 und 283 und mit
dem Kommunikationskanal verbunden sind, eine farbgetreue, autonome,
Bewegtbild-Videokonferenzkonferenzmöglichkeit geschaffen.
-
Nach einer weiteren Ausführungsform
ist das lokale und das entfernt angeordnete audiovisuelle Kommunikationssystem 242 bzw. 262 über ein
lokales und ein entfernt angeordnetes Ausgabeinterface 250 bzw. 270 an
ein lokales und ein entfernt angeordne tes Host-Computersystem 244 bzw. 264 angeschlossen.
Das lokale und das entfernt angeordnete Host-Computersystem 244 bzw. 264 koordiniert
den Transfer von Videodaten zwischen dem lokalen und dem entfernt
angeordneten audiovisuellen Kommunikationssystem 242 bzw. 262 zur
Darstellung auf dem lokalen und dem entfernt angeordneten Display 248 bzw. 268.
Zusätzlich
konfiguriert, stellt ein und modifiziert das lokale und das entfernt
angeordnete Host-Computersystem 244 bzw. 264 verschiedene
Betriebsparameter des lokalen und des entfernt angeordneten audiovisuellen
Kommunikationssystems 242 bzw. 262, wie beispielsweise
Farb-, Kontrast- und Helligkeitseigenschaften verarbeiteter Videosignale,
Lautstärkeeinstellungen
der internen oder externen Lautsprecher 90 und 220,
und einen Anschluss an entweder einen ISDN- oder POTS-Kommunikationskanal 82.
-
Gemäß der in 7 dargestellten Systemkonfiguration kann
ein Videokonferenzanwendungssoftwarepaket sowohl im lokalen als
auch im Host-Computersystem 244 und 264 arbeiten.
Das Videokonferenzanwendungssoftwarepaket verstärkt und erweitert vorzugsweise
die Funktionalität
der audiovisuellen Kommunikationssysteme 242 und 262 auf
eine Weise, die zuvor bereits erörtert
wurde und nachstehend noch weiter erörtert wird. Das lokale Host-Computersystem 244 erteilt
vorzugsweise einen oder mehrere Koordinierungsbefehle an das lokale
audiovisuelle Kommunikationssystem 242, um den Transfer
von Videodaten zur Darstellung auf dem lokalen Display 248 zu
dirigieren, die das lokale audiovisuelle Kommunikationssystem 242 aus dem
Kommunikationskanal 82 erhalten hat. Darüber hinaus
erteilt der lokale Host-Computer 244 im Zusammenwirken
mit der auf dem lokalen Host-Computer 244 laufenden Videokonferenzanwendungssoftware,
vorzugsweise einen oder mehrere Koordinierungsbefehle, um den Transfer
von Datendateien zwischen dem lokalen audiovisuellen Kommunikationssystem 242 und
dem entfernt angeordneten audiovisuellen Kommunikationssystem 262 und
dem entfernt angeordneten Host-Computersystem 264 zu bewerkstelligen.
Selbstverständlich
treffen die Merkmale und trifft die Funktionalität, die mit Bezug auf das lokale
audiovisuelle Kommunikationssystem 242 beschrieben wurde/n,
gleichermaßen
auch auf das entfernt angeordnete audiovisuelle Kommunikationssystem 262 zu.
-
Ein weiteres wichtiges Merkmal, das
durch das Zusammenwirken des lokalen Host-Computers 244 und der darauf
laufenden Videokonferenzanwendungssoftware bereitgestellt wird,
umfasst die Fähigkeit,
die tatsächliche Übertragungsbandbreite
des Kommunikationskanals 82 einzustellen oder abzuändern, um
die relativen Übertragungsraten
von Audio-, Video- und Dateninformation, die über den Kommunikationskanal 82 übertragen
wird, zu erhöhen
oder herabzusetzen. In einer Ausführungsform ist die Frequenzbandbreite
des Kommunikationskanals 82, die Video-, Audio- und Datendateiquellen
zugeteilt ist, vorzugsweise vom Host-Computersystem 72 veränderbar,
das mit der Videokonferenzanwendungssoftware arbeitet. Die Übertragungsbandbreite
des Kommunikationskanals 82 ist vorzugsweise übereinstimmend
mit der Spezifikation der Standards CCITT H.320 in endlichen Inkrementen
einstellbar. Jede der Video-, Audio- und Datendateiquellen kann herabgesetzt
oder eliminiert werden, um die relative Leistung der anderen Quellen
zu verstärken.
Eine Einstellung der Übertragungsbandbreite
des Kommunikationskanals 82, die für Audio-, Video- und Datensignalübertragung
zugewiesen ist, liegt vorzugsweise innerhalb der vom Kommunikationsstandard
CCITT H.320 oder einem anderen international anerkannten Standard
auferlegten Randbedingungen, um zu gewährleisten, dass eine Bewegtbildvideokonferenz
aufrechterhalten wird.
-
Ein weiteres wichtiges Merkmal, das
durch das Zusammenwirken des lokalen audiovisuellen Kommunikationssystems 242 und
des lokalen Host-Computersystems 244 und der dazugehörigen Videokonferenzanwendungssoftware
bereitgestellt wird, umfasst die Fähigkeit, gleichzeitig Videobilder
auf jedem lokalen und entfernt angeordneten Display 248 und 268 anzuzeigen,
die sowohl von der lokalen 240 als auch der entfernt angeordneten
Konferenzstätte 260 übertragen
werden. Das lokale audiovisuelle Kommunikationssystem 242 empfängt, wie
später
noch im Einzelnen mit Bezug auf 8 beschrieben
wird, sowohl das Videosignal 254 aus der lokalen Quelle
als auch das Videosignal 274 aus der Fernquelle und legt
es in einem Zwischenspeicher ab, und erzeugt ein Videosignal, das
für beide
Videosignale, das lokale sowie das Fernsignal, steht. Der lokale Host-Computer 244 überträgt dann
das kombinierte lokale und das Videofernsignal, um es auf dem lokalen Display 248 anzuzeigen.
-
Ein verallgemeinertes Fließschema,
das einige der wichtigeren Koordinierungsfunktionen darstellt, die von
der Videokonferenzanwendungssoftware wahrgenommen werden, ist in 13 gegeben. Die Videokonferenzanwendungssoftware
arbeitet sowohl im lokalen als auch dem entfernt angeordneten Host-Computersystem 244 und 264,
um den Betrieb des lokalen und entfernt angeordneten audiovisuellen
Kommunikationssystems
242 und 262 in vorteilhafter
Weise zu steigern. Eine Konferenzpartei leitet eine Videokonferenz
typischerweise dadurch ein, dass sie bei Schritt 702 die
Videokonferenzanwendungssoftware ablaufen lässt. Dem Benutzer werden verschiedene
Optionen durch die Darstellung eines Hauptmenüs bei Schritt 704 dargeboten, die
Optionen zum Konfigurieren des Systems, Einleiten der Videokonferenz
und Beenden der Videokonferenzsitzung beinhalten.
-
Bei Schritt 706 hat eine
Konferenzpartei die Option, verschiedene Parameter abzuändern, die
die Konfiguration und den Betrieb des lokalen audiovisuellen Kommunikationssystems 242 und
des lokalen Host-Computersystems 244 beeinflussen. Bei
Schritt 708 kann ein Benutzer verschiedene Parameter auswählen und
abändern,
die die Kommunikation zwischen dem lokalen audiovisuellen Kommunikationssystem 242 und
dem Kommunikationskanal 82 beeinflussen. Der Benutzer kann
beispielsweise bestimmen, ob die Videokonferenz über einen standardmäßigen analogen
(POTS) oder digitalen (ISDN) Kommunikationskanal 82 hergestellt
werden soll. Beispielsweise kann eine automatisierte Fernsprechverzeichnisdatenbank
erstellt und auf diese zugegriffen werden, um einen Benutzer zu
unterstützen,
wenn er mit einer Konferenzpartei eine Nachrichtenverbindung aufbaut.
Weitere Kommunikationsmerkmale können
bei Schritt 708 gesteuert werden, wie Rufprotokollierung,
was zur Aufzeichnung von Daten führt,
die mit eingehenden, ausgehenden oder allen Nachrichten zusammenhängt, die
zwischen dem lokalen audiovisuellen Kommunikationssystem 242 und
dem Kommunikationskanal 82 hin- und hergehen.
-
Eine Konferenzpartei kann bei Schritt 710 verschiedene
Videomerkmale und – einstellungen
auswählen
und abändern,
die sowohl den lokalen, an das lokale audiovisuelle Kommunikationssystem 242 angeschlossenen
Bildschirm 281 als auch das lokale, an den lokalen Host-Computer 244 angeschlossene
Display 248 beeinflusst. Ein Benutzer kann beispielsweise
wahlweise entscheiden, Videobilder anzuschauen, die mit einem Videosignal 254 aus
einer lokalen Quelle zusammenhängen,
das entweder von einer Haupt- oder einer Hilfsbildquelle 152 oder 154 eingeht.
Ein Bildschirmeinblendungsanzeigemodus kann wie gewünscht aktiviert oder
deaktiviert werden. Farb-, Helligkeits-, Kontrast- und Farnnuanceneigenschaften
des Videosignals 254 aus der lokalen Quelle können vorzugsweise über am Bildschirm
vorhandene Bedieneinrichtungen eingestellt werden, die von einer
Konferenzpartei über
ein lokales Benutzerinterface
246 eingestellt werden können. Darüber hinaus
kann der Benutzer bei Schritt 710 das lokale audiovisuelle
Kommunikationssystem konfigurieren, um Videobilder anzuzeigen, die
von der lokalen Konferenzstätte,
der entfernt angeordneten Konferenzstätte oder beiden Konferenzstätten erfasst
wurden. Verschiedene Konfigurationsparameter, die den lokalen und
den entfernt angeordneten Audioanschluss beeinflussen, können bei
Schritt 712 abgeändert
werden. Beispielsweise kann der Verstärkungsfaktor des Audioeingangs
einer Haupt- oder einer Hilfskamera durch eine Konferenzpartei modifiziert
werden. Der Lautstärkepegel
eines internen oder externen Lautsprechers 90 und 220 kann ebenfalls
gesteuert werden.
-
Die Betriebseigenschaften der Datenpipeline 82 und
die Datenübertragungsfähigkeit
des lokalen audiovisuellen Kommunikationssystems 242 kann
bei Schritt 714 von einem Benutzer abgeändert werden. Der Übertragung
von Datendateien über
den Kommunikationskanal 82 kann beispielsweise eine hohe
Priorität
gegenüber
der Übertragung
von Video- und Audiodaten eingeräumt
werden, was zum beständigen
Transfer von Datenbytes, aus denen die Datendateien bestehen, über den
Kommunikationskanal 82 führt. Alternativ kann dem Datendateitransferprozess
eine niedrigere Priorität
zugewiesen werden, was zur selektiven Übertragung von Datenbytes im
Hintergrund führt,
um eine optimale Übertragung
von Video- und Audiodaten über
den Kommunikationskanal 82 sicherzustellen. Eine Konferenzpartei
kann aus dem Hauptmenü bei
den Schritten 704 und 716 eine Videokonferenz
einleiten und bei Schritt 718 eine Nachrichtenverbindung
zwischen der lokalen Konferenzstätte 240 und
der entfernt angeordneten Konferenzstätte 260 herstellen,
indem typischerweise über
den Kommunikationskanal 82 ein Anruf an die entfernt angeordnete
Konferenzstätte 260 abgesetzt wird.
Während
der Videokonferenz hat ein Benutzer die Wahl, die Systemkonfiguration
bei Schritt 722 abzuändern
und kann bei Schritt 728 verschiedene Konfigurations- und
Betriebsparameter abändern,
die vorstehend im Hinblick auf die Konfigurationssystemoption bei
Schritt 706 erörtert
wurden. Ein Benutzer kann auch bei Schritt 726 die Art
und Weise modifizieren, auf die Datendateien über die Datenpipeline 82 übertragen
werden, die beispielsweise Optionen zum Abändern der Priorität der Datendateiübertragung
gegenüber
der Video- nd Audiosignalübertragung
und die der Übertragung
vorausgehende Verschlüsselung
und/oder Komprimierung der Datendatei umfasst. Eine Videokonferenz
zwischen zwei Konferenzstätten 240 und 260 kann
fortgesetzt werden, bis eine Konferenzpartei beschließt, die
Videokonferenzsitzung zu beenden, typischerweise, indem aus der
Videokonferenzsoftwareanwendung bei Schritt 720 oder bei
Schritt 704 vom Hauptmenü aus ausgestiegen wird.
-
Während
einer Videokonferenzsitzung zwischen einer lokalen und einer entfernt
angeordneten Konferenzstätte 240 und 260 kann
es eine Konferenzpartei wünschen,
bei Schritt 724 einen Gemeinschaftsfensterzugriff oder
eine Dokumentinteraktion einzuleiten. Es ist vorzugsweise eine Option
vorgesehen, gemeinsam auf ein Fenster zuzugreifen, das entweder
in Farbe oder in Schwarz-Weiß dargestellt
wird, um zuverlässige/n und
durchgängige/n
Gemeinschaftsfensterzugriff und/oder Dokumentinteraktion über einen
Kommunikationskanal 82 mit begrenzter Bandbreite zu gewährleisten.
Konferenzparteien können
beispielsweise gemeinsam auf ein Fenster zugreifen, das anfänglich in
Farbe dargestellt ist, und danach bei Schritt 730 zu einer Schwarz-Weiß-Darstellung umschalten,
falls eine Verschlechterung der Bildqualität, die sich typischerweise aus
einer Abnahme der Übertragungsrate über die
Datenpipeline 82 ergibt, festgestellt wird. Ein Benutzer
kann ein spezielles Fenster für
den Gemeinschaftszugriff auswählen,
oder je nach Wunsch bei Schritt 730 eine Beendigung des
Gemeinschaftsfensterzugriffs oder der Dokumentinteraktion wählen. Die
hier vorstehend im Hinblick auf die Videokonferenzanwendungssoftware,
die zusammenwirkend mit einem Host-Computer arbeitet, erläuterten
Merkmale und Funktionen sind nur zu illustrativen Zwecken wiedergegeben
und stellen beispielhaft die verstärkte Funktionalität eines
lokalen und eines entfernt angeordneten audiovisuellen Kommunikationssystems 240 und 262 dar,
wenn sie jeweils an ein lokales bzw. entfernt angeordnetes Host-Computersystem 244 und 246 angeschlossen
sind.
-
Ein weiteres wichtiges Merkmal betrifft
eine neue Videokonferenzsoftwareroutine oder -anwendung, die in
einem oder beiden der lokalen und entfernt angeordneten Host-Computersysteme 244 und 264 laufen kann,
um eingehende Nachrichten zu überwachen,
die über
den Kommunikationskanal 82 empfangen werden. Eine Softwareanwendung
zur Erfassung eingehender Nachrichten, die im lokalen Host-Computer 244 laufen kann, überwacht
beispielsweise den Signalverkehr über das lokale Ausgabeinterface 250.
Die Erfassungssoftwareroutine arbeitet dabei vorzugsweise unabhängig von
jeder anderen im lokalen Host-Computer 244 laufenden Anwendungssoftware,
und es kann durch einen Benutzer des lokalen Host-Computers 244 weder
auf sie zugegriffen werden, noch kann er sie wahrnehmen. Die Erfassungssoftwareroutine
arbeitet als solches im Hintergrund und überwacht durchgehend eingehende
Nachrichten, indem das lokale Ausgabeinterface 250 regelmäßig, beispielsweise
ein Mal jede Sekunde, abgefragt wird. Beim Erfassen einer eingehenden
Nachricht leitet die Erfassungssoftwareroutine vorzugsweise eine
Warnsoftwareanwendung oder -routine ein oder führt diese aus, welche den Benutzer
des lokalen audiovisuellen Kommunikationssystems 242 auf
die über
den Kommunikationskanal 82 empfangene, eingehende Nachricht
aufmerksam macht.
-
Die Warnsoftwareroutine unterbricht
vorzugsweise die aktuelle Operation der Videokonferenzanwendungssoftware
oder jeder anderen Anwendungssoftware, die gerade auf dem lokalen
Host-Computer 244 läuft,
und bietet dem Benutzer mehrere Optionen, einschließlich einer
Option, auf die eingehende Nachricht zu antworten oder sie zu ignorieren.
Im Ansprechen auf die Entscheidung eines Benutzers, die eingehende
Nachricht zu beantworten, erteilt der lokale Host-Computer 244 vorzugsweise
einen Antwortkoordinierungsbefehl an das lokale audiovisuelle Kommunikationssystem 242 und
lässt eine
Videokonferenzanwendungssoftwareroutine ablaufen, um die eingehende
Nachricht zu empfangen und zu beantworten.
-
Der Benutzer des lokalen audiovisuellen
Kommunikationssystems 242 lässt sich vorzugsweise mit dem
lokalen Host-Computer 244 über eine lokale Benutzerschnittstelle 246 verbinden,
die an das lokale Host-Computersystem 244 angeschlossen
ist. Die lokale Benutzerschnittstelle 246 ist vorzugsweise
eine graphische Benutzeroberfläche,
welche, zusammenwirkend mit einer an das lokale Host-Computersystem 244 angeschlossenen
Maus und Tastatur, einem Benutzer Einrichtungen zur Verfügung stellt,
um Koordinierungsbefehle zwischen dem lokalen Host-Computersystem 244 und
dem lokalen audiovisuellen Kommunikationssystem 242 hin-
und herzuschicken. Es ist festzuhalten, dass graphische Benutzeroberflächen, wie
diejenigen, die für
auf Windows® und
Macintosh® basierende
Computersysteme entwickelt wurden, normalerweise dazu verwendet
werden, ein Host-Computersystem zu steuern oder zu betreiben. Fachleute
können
neue graphische Benutzeroberflächenprogramme
schaffen oder bereits bestehende abändern, damit diese die Funktionalität zur Steuerung
des Betriebs des lokalen Host-Computers 244 und, in Zusammenwirken
mit der Videokonferenzanwendungssoftware, des lokalen audiovisuellen
Kommunikationssystems 242 beinhalten.
-
Die 8 und 9 stellen in Form eines Blockschemas
die verschiedenen Audio- und Videoverarbeitungskomponenten dar,
die die in den 4 und 5 gezeigten Graphikkarten 102 und 104 umfassen.
Ein wichtiger Vorteil der Graphikkarte 104, die das audiovisuelle
Kommunikationssystem 72 umfasst, betrifft die automatische
Erfassung und Verarbeitung von Videosignalen, die entweder von einer
NTSC- oder einer PAL-Bildquelle
erzeugt werden. Das in 8 gezeigte
Videoverarbeitungsblockschema 300 umfasst eine zentrale Steuereinrichtung 200,
welche die Übertragung
und den Empfang von Videosignalen koordiniert, die über den Kommunikationskanal 82 verschickt
werden. Lokale Videosignale, die an der lokalen Konferenzstätte 240 entweder
von einer NTSC- oder einer PAL-Videokamera erzeugt werden, werden
vorzugsweise von der Hauptvideoeingangsbuchse 152 und/oder
der Hilfsvideoeingangsbuchse 154 empfangen.
-
Der NTSC-Standard schreibt eine Videobildrate
von dreißig
Videobildern pro Sekunde vor, wohingegen der PAL-Standard eine Videobildrate
von fünfundzwanzig
Videobildern pro Sekunde spezifiziert, um ein Bewegtbildvideo zu
erhalten. Ein einzelnes Bewegtbild-Kommunikationsbild umfasst typischerweise
ein geradzahliges und ein ungeradzahliges Feld. Der NTSC-/PAL-Decodierer 302 wandelt
vorzugsweise am Ausgang des NTSC-/PAL-Decodierers 302 ein
lokales NTSC- oder PAL-Videosignal in entsprechende lokale decodierte
Videobild- oder Pixeldaten um. Eine automatische Erfassung und Bestimmung
des Videosignalformats wird vom NTSC-/PAL-Decodierer 302 durchgeführt, wenn
er die Dateianfangsdaten oder andere Daten verarbeitet, aus denen
ein PAL- und ein NTSC-Videosignal besteht.
-
Die decodierten lokalen Videopixeldaten
haben typischerweise ein Videoformat RGB (Rot, Blau, Grün) oder
YUV (Leuchtdichte Y, und Farbdifferenzsignale U und V). Der NTSC-/PAL-Decodierer 302 decodiert
vorzugsweise lokale NTSC-Videosignale zu entsprechenden CIF240-Bildauflösungsdaten
(352 × 244),
und lokale PAL-Videosignale zu entsprechenden CIF-Bildauflösungsdaten
(352 × 288).
Ein Bild mit CIF240-Auflösung
ist als Standardbildformat für
private Videogeräte
anerkannt, während
ein Bild mit CIF- (und
QCIF-) Auflösung
als ein internationales Standardbildformat anerkannt ist.
-
Wenn er ein geradzahliges Feld eines
lokalen NTSC- oder PAL-Videobilds verarbeitet, überträgt der NTSC-/PAL-Decodierer 302 vorzugsweise
an den lokalen Videocodierer
304 lokale Bilddaten mit CIF240-
bzw. CIF-Auflösung,
je nachdem, ob die lokale Videoquellvorrichtung eine NTSC- oder
PAL-Kamera ist. Der lokale Videocodierer 304 umfasst vorzugsweise
Maßstabsschaltungen,
die ein lokales Bild mit CIF-240-Auflösung in ein Bild eines Maßstabs mit
geeigneter CIF-Auflösung
bringen. Bei der Bearbeitung eines ungeradzahligen Felds des lokalen
NTSC- oder PAL-Videobilds überträgt der NTSC/PAL-Decodierer 302 vorzugsweise
die zuvor decodierten CIF-Bilddaten oder -pixel des geradzahligen
Felds an den lokalen Graphikspeicher 306, während er
gleichzeitig das nächste
ungeradzahlige Feld des lokalen Videobilds decodiert. Dieses Decodierschema
wird vorzugsweise für
nachfolgende lokale NTSC- oder PAL-Videobilder wiederholt, die der
NTSC-/PAL-Decodierer 302 empfängt. Der lokale Videocodierer 304 umfasst
vorzugsweise Schaltungen, um lokale decodierte Videobilddaten, die
typischerweise im YUV-Format sind, in entsprechende komprimierte
lokale Videobilddaten umzuwandeln. Ein geeigneter lokaler Videocodierer
ist das von AT&T
hergestellte Modell AV4310A, und ein geeigneter NTSC-/PAL-Decodierer 302 ist
das von Philips hergestellte Modell SAA7194.
-
Der lokale Graphikspeicher 306 umfasst
vorzugsweise einen DRAM-Speicher (Dynamic Random Access Memory-
dynamischer Dirktzugriffsspeicher), der ausreicht, um die Daten
für 256.000
lokale Pixel temporär
zu speichern oder zwischenzuspeichern, was ausreicht, um zwei lokale
CIF-Bilder zwischenzuspeichern. Somit stellt der lokale Graphikspeicher 306 eine
Doppelpufferspeicherung der lokalen Videobilddaten bereit, welche
zusammen mit dem zwischen dem lokalen Videocodierer 304 und
dem lokalen Graphikspeicher 306 angeordneten Leitungspuffer 314 das
Zusammenwirken und die Verarbeitung zwischen dem NTSC-/PAL-Decodierer 302,
dem lokalen Videocodierer 304 und dem lokalen Graphikspeicher 306 fördert. Die
rekonstruierten lokalen CIF-Bilddaten,
die im lokalen Graphikspeicher 306 zwischengespeichert
sind, können
dann als lokale decodierte Videosignale zum Ausgabeinterface 140 und/oder
der Videoausgangsbuchse 124 geleitet werden. Die vom NTSC-/PAL-Decodierer 302 und
dem lokalen Videocodierer 304 verarbeiteten lokalen decodierten
Bilddaten werden auch vorzugsweise an die zentrale Steuereinheit 200 zur
Weiterleitung über
den Kommunikationskanal 82 übertragen.
-
Videobildfernsignale, die über den
Kommunikationskanal 82 übertragen
werden, werden vorzugsweise an der zentralen Steuereinheit 200 empfangen
und an einen entfernt angeordneten Videodecodierer 318 übertragen.
Die Videofernsignale werden vom Videodecodierer 318 in
entsprechende decodierte Videobildferndaten umgewandelt. Die rekonstruierten
Bilddaten werden in einem Leitungspuffer 324 zwischengespeichert
und temporär
in einem entfernt angeordneten Graphikspeicher 320 gespeichert.
Auf eine ähnliche
Weise wie derjenigen, die zuvor im Hinblick auf den NTSC-/PAL-Decodierer 302 und
den lokalen Videocodierer 304 beschrieben wurde, werden
geradzahlige und ungeradzahlige Felder der Videobildferndaten nacheinander
decodiert und zu decodierten Videobildferndaten rekonstruiert und
durch eine gemeinsame Verarbeitung zwischen dem entfernt angeordneten
Videodecodierer 318 und dem entfernt angeordneten Graphikspeicher 320 zwischengespeichert.
Die decodierten Videobildferndaten werden dann als decodierte Videofernsignale
zum Ausgabeinterface 140 und/oder zur Videoausgangsbuchse 124 geleitet.
-
Ein weiterer wichtiger Vorteil, der
vom audiovisuellen Kommunikationssystem 70 bereitgestellt
wird, betrifft die gleichzeitige Anzeige von decodierten lokalen
und fernen Videobildern auf einem Videobildschirm 76 oder
einem Display 74, die an ein separates Host-Computersystem 72 angeschlossen
sind. In einer in 8 dargestellten
Ausführungsform
empfängt
ein Ausgangsmultiplexer 308 decodierte lokale und ferne
Videobilddaten von einem lokalen Graphikspeicher 306 bzw.
einem entfernt angeordneten Graphikspeicher 320. Die kombinierten
decodierten lokalen und fernen Videobilddaten werden in einem Leitungspuffer 310 zur
Ausgabe an den separaten Host-Computer 72 über das
Ausgabeinterface 140 des Host-Computers zwischengespeichert.
Der Leitungspuffer 310 ist vorzugsweise dazu vorgesehen,
die Übertragung
der decodierten lokalen und fernen Videobilddaten zwischen dem Ausgangsmultiplexer 308 und
dem Ausgabeinterface 140 des Host-Computers zu erhöhen.
-
Die kombinierten lokalen und fernen
Videobilddaten können
dann als verschiedene Kombinationen zusammengehöriger lokaler und ferner Videobilder
auf dem an das Host-Computersystem 72 angeschlossenen Display 74 dargestellt
werden. Das Host-Computersystem 72 erteilt
vorzugsweise einen oder mehrere Koordinierungsbefehle, um das Hin-
und Herleiten der lokalen und fernen Videobilddaten zwischen dem
Ausgabeinterface 140 des Host-Computers und der Videoausgangsbuchse 140 zu
steuern. Der Ausgangsmultiplexer 308 kann beispielsweise
angewiesen werden, nur die Videobildferndaten an das Ausgabeinterface 140 des Host-Computers
zu übertragen,
und nicht die lokalen Videobilddaten oder die kombinierten lokalen
Videobilddaten oder Videobildferndaten.
-
Die decodierten lokalen und fernen
Videobilddaten können
auch über
den Displaymultiplexer 330 zur Videoausgangsbuchse 124 geleitet
werden. Der Displaymultiplexer 330 steuert vorzugsweise
die vom NTSC-/PAL-Codierer 332 und der Videoausgangsbuchse 124 übertragenen
Videobilddaten. Lokale, ferne oder kombinierte lokale und ferne
Videobilddaten können über den
Displaymultiplexer 330 an den NTSC-/PAL-Codierer 332 übertragen
werden. Die vom Displaymultiplexer 330 übertragenen Videobilddaten
werden vom NTSC-/PAL-Codierer 332 in ein NTSC- oder PAL-Format
umgewandelt und zur Videoausgangsbuchse 124 geleitet, um
gegebenenfalls auf einem daran angeschlossenen NTSC- oder PAL-Bildschirm 76 angezeigt
zu werden.
-
Der NTSC-/PAL-Codierer 332 ist
vorzugsweise so konfiguriert, dass er 704 Pixel vom Displaymultiplexer 330 empfängt, die
einem CIF-Videobild entsprechen, das jeweils in jedem der lokalen
und entfernt angeordneten Graphikspeicher 306 und 320 hinterlegt
ist (352 lokale plus 352 ferne Pixel ergeben insgesamt 704 Pixel).
Falls es wünschenswert
ist, nur die lokalen oder fernen Videobilder auf dem an die Videoausgangsbuchse 124 angeschlossenen
Bildschirm 76 anzuzeigen, führt der Displaymultiplexer 330 vorzugsweise
eine Maßstabsvergrößerung 1
: 2 durch (352 × 2),
indem er die 352 lokalen und fernen Pixel in einem Auffangspeicher auffängt und
hält, bevor
sie an den NTSC/PAL-Codierer 332 übertragen werden. Falls gewünscht wird,
das lokale und ferne Videobild nebeneinander darzustellen, überträgt der Displaymultiplexer 330 jeweils
alle 352 Pixel vom lokalen bzw. entfernt angeordneten Graphikspeicher 306 bzw. 320 an
den NTSC-/PAL-Codierer 332. Ein geeigneter Displaymultiplexer 330 ist
das von Xilink hergestellte Modell XC3030, und ein geeigneter NTSC-/PAL-Codierer
ist das von Philips hergestellte Modell SAA179.
-
Mit Bezug auf 9 ist ein Blockschema der verschiedenen
Systemkomponenten 400 gezeigt, die lokale Audiosignale,
die aus einer lokalen Konferenzstätte erfasst werden, und Audiofernsignale,
die über
den Kommunikationskanal 82 eingehen, verarbeiten. Lokale
Audiosignale werden vorzugsweise von mehreren Audioquellen in einen
Audioprozessor 406 eingegeben. Haupt- und Hilfseingangsbuchsen 164 und 162 sind
jeweils am Peripheriegerätegehäuse 115 des
audiovisuellen Kommunikationssystems 70 vorge sehen, um
lokale Audiosignale typischerweise aus den Audioausgängen einer
Videokamera oder eines Videocamcorders zu empfangen. Der Audioprozessor 406 kann
darüber
hinaus lokale Audiosignale aus einem internen Mikrofon 91,
einem an die externe Mikrofonbuchse 168 angeschlossenen
externen Mikrofon oder einem standardmäßigen Telefonmikrofon 440 empfangen,
das an einen Wandler 410 angeschlossen ist, der das Telefontonsignal in
ein geeignetes analoges Audiosignal umwandelt. In einer Konfiguration
stellt ein Eingangsmultiplexer 408, wobei sein Ausgang
an den Audioprozessor 406 angeschlossen ist, Einrichtungen
bereit, um lokale Audiosignale zu kombinieren, die vom Mikrofon 91 und
dem Telefon 440 erzeugt werden. Der Audioprozessor 406 umfasst
vorzugsweise einen Analog/Digital-Wandler, um lokale analoge Audiosignale
in entsprechende lokale digitale Audiosignale umzuwandeln.
-
Die vom Audioprozessor 406 empfangenen
lokalen Audiosignale werden an den Audiocodierer 404 übertragen
und von diesem verarbeitet. Der Audiocodierer umfasst vorzugsweise
Audiocodierschaltungen, um lokale digitale Audiosignale in entsprechende
lokale komprimierte Audiosignale umzuwandeln. Die lokalen digitalen
oder komprimierten Audiosignale werden dann an die zentrale Steuereinheit 200 übertragen,
welche die Übertragung
der lokalen Audiosignale über
den Kommunikationskanal 82 koordiniert. Ein geeigneter
Audiocodierer 404 ist das von AT&T hergestellte Modell DSP3210.
-
Über
den Kommunikationskanal 82 übertragene Audiofernsignale
werden vorzugsweise von der zentralen Steuereinheit 200 empfangen
und an einen Audiodecodierer 402 übertragen. Die Audiofernsignale
sind typischerweise seriell komprimierte Audiosignale, die einem
von vielen Komprimierungsformaten mit Industriestandard entsprechen.
Der Audiodecodierer 402 wandelt vorzugsweise die komprimierten
Audiofernsignale in entsprechende digitale Audiofernsignale um.
Zusätzlich
umfasst der Audiodecodierer 402 vorzugsweise Echokompensierungsschaltungen,
um ein lokales Audiosignal herauszufiltern, das von einer lokalen
Konferenzstätte übertragen
wird, an der entfernt angeordneten Konferenzstätte empfangen wird, und dann
zur lokalen Konferenzstätte
rückübertragen
und wieder vom Audiodecodierer 402 empfangen wird.
-
Der Audioprozessor 406,
der vorzugsweise einen Analog/Digital-Wandler umfasst, wandelt digitale Audiofernsignale
in entsprechende analoge Audiofernsignale zur Übertragung an mehrere Audioausgänge, einschließlich einer
lokalen Audioausgangsbuchse
128, einer entfernt angeordneten
Audioausgangsbuchse 130, einer externen Lautsprecherbuchse 132 und
eines Verstärkers 414,
der an den internen Lautsprecher 90 angeschlossen ist.
Ein geeigneter Audiodecodierer 402 ist das von AT&T hergestellte
Modell DSP3210. Es ist festzuhalten, dass die zentrale Steuereinheit 200 mit
den Audio- und Videoverarbeitungskomponenten 400 und 300 und
dem Kommunikationskanal 82 zusammenwirkt, um einen optimalen
Betrieb des audiovisuellen Kommunikationssystems 70 aufrechtzuerhalten.
-
Selbstverständlich wird klar, dass die
hier vorstehend erörterten
bevorzugten Ausführungsformen
verschiedene Modifizierungen und Zusätze erfahren können, ohne
dass dabei der Rahmen der vorliegenden Erfindung verlassen würde. Dementsprechend
sollte der Rahmen der vorliegenden Erfindung nicht durch die zuvor
erläuterten
speziellen Ausführungsformen
eingeschränkt,
sondern sollte nur durch die nachstehend aufgeführten Ansprüche und deren Äquivalente
definiert sein.
-
Bezugszeichenliste
und Verfahrensschritte
-
-
-
-
verfahrensschritte
(Figur 11)
-
Verfahrensschritte
(Figur 13)