DE112009000481T5 - Inhaltsbewusste Speicherung von Videodaten - Google Patents

Inhaltsbewusste Speicherung von Videodaten Download PDF

Info

Publication number
DE112009000481T5
DE112009000481T5 DE112009000481T DE112009000481T DE112009000481T5 DE 112009000481 T5 DE112009000481 T5 DE 112009000481T5 DE 112009000481 T DE112009000481 T DE 112009000481T DE 112009000481 T DE112009000481 T DE 112009000481T DE 112009000481 T5 DE112009000481 T5 DE 112009000481T5
Authority
DE
Germany
Prior art keywords
video
video data
storage
interest
hard disk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112009000481T
Other languages
English (en)
Other versions
DE112009000481B4 (de
Inventor
Douglas H. Marman
Mahesh Saptharishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
VideoIQ Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VideoIQ Inc filed Critical VideoIQ Inc
Publication of DE112009000481T5 publication Critical patent/DE112009000481T5/de
Application granted granted Critical
Publication of DE112009000481B4 publication Critical patent/DE112009000481B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3246Power saving characterised by the action undertaken by software initiated power-off
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0616Improving the reliability of storage systems in relation to life time, e.g. increasing Mean Time Between Failures [MTBF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Abstract

Verfahren zum Implementieren einer Videospeicherung in einer Videokamera, die Videodaten erzeugt, die ein Blickfeld einer Szene darstellen, die von der Videokamera beobachtet wird, wobei die Videokamera ein Kameragehäuse umfasst und zur Verbindung mit einem Netzwerk-Kommunikationssystem ausgelegt ist, welches umfasst:
Definieren eines interessierenden Ereignisses für die Detektion durch die Analyse der von der Videokamera erzeugten Videodaten;
Versehen der Videokamera mit einer Videoanalytik und einer Massenspeichereinheit, wobei die Videoanalytik und die Massenspeichereinheit im Kameragehäuse enthalten sind oder einen Teil davon bilden;
Bewirken, dass die Videoanalytik die durch die Videokamera erzeugten Videodaten analysiert und detektiert, ob ein Vorkommnis des interessierenden Ereignisses besteht; und
Speichern der Videodaten, die das Blickfeld der Szene darstellen, die von der Videokamera beobachtet wird, in der Massenspeichereinheit, wobei die gespeicherten Videodaten Videodaten mit einer ersten Qualität und Videodaten mit einer zweiten Qualität umfassen, wobei die erste Qualität das Auftreten des interessierenden Ereignisses, das von der...

Description

  • Technisches Gebiet
  • Diese Offenbarung beschreibt ein Videoabbildungssystem, das den Inhalt von Videodaten intelligent erkennt, Systemspeicherkapazitäts-Anforderungen verringert und die Betriebslebensdauer von Videodaten-Massenspeichereinheiten verlängert.
  • Hintergrundinformationen
  • Netzwerk-Kamerasysteme, beispielsweise Netzwerk-Überwachungskamerasysteme oder IP-Kamerasysteme, haben für eine Anzahl von Jahren existiert, haben jedoch relativ langsam eine Industrieübernahme erfahren. Im Vergleich zu herkömmlichen analogen Kamerasystemen bieten Netzwerk-Kamerasysteme Vorteile, wie z. B. Zugänglichkeit, Integration, niedrige Installationskosten, Skalierbarkeit und eine Fähigkeit, sich zu Video mit höherer Auflösung zu bewegen. Daten, die von Netzwerkkameras erzeugt werden, verlangen jedoch große Mengen an Bandbreite und Speicherkapazität.
  • Bandbreitenprobleme, die mit Netzwerk-Kamerasystemen verbunden sind, haben zu komplexeren Kameranetzwerken geführt, die eine erhöhte Anzahl von Schaltern und in einigen Fällen vollständige alternative Datenpfade umfassen. Speicherprobleme, die mit Netzwerk-Kamerasystemen verbunden sind, werden vergrößert, wenn die Videoauflösung und die Anzahl von Kameras in einem System zunehmen. Eine einzelne Standardkamera mit D1-Auflösung unter Verwendung von MPEG-4-Kompression, die mit 30 Bildern pro Sekunde (fps) arbeitet, kann beispielsweise 360 Gigabytes (GB) Speicher für Videodaten erfordern, die einen Monat von Videodaten darstellen. Ein Kamerasystem mit 1000 Kameras würde daher 360 Terabytes (TB) Speicher für Daten, die sich über einen Monat erstrecken, erfordern. Dieses Beispiel demonstriert eine ungeheure Kosten- und Einrichtungs-Handhabungsherausforderung, die bei Netzwerk-Kamerasystemen dargeboten wird, insbesondere wenn eine Megapixel-Auflösung erwünscht ist und wenn Anwendungen sechs Monate oder ein Jahr Videodatenspeicherung erfordern. Aufgrund der identifizierten Probleme werden die meisten Netzwerk-Videodaten nicht mit voller Qualität aufgezeichnet, sondern werden mit niedrigeren Auflösungen und Bildraten aufgezeichnet. Da typische Kameras mit hoher Auflösung Videodaten erzeugen, die eine große Menge an Speicherbetriebsmitteln innerhalb einer kurzen Zeitdauer erfordern, ist es unpraktisch, dass eine typische Kamera eine unabhängige Speichereinheit wie z. B. ein Festplattenlaufwerk umfasst, die eine signifikante Menge an Videodaten speichern kann.
  • Eine typische Speicherarchitektur von Netzwerk-Kamerasystemen ist ähnlich zu herkömmlichen analogen Systemen konfiguriert. Die Architektur umfasst zentral angeordnete digitale Videoaufzeichnungsgeräte (DVRs) oder Netzwerk-Videoaufzeichnungsgeräte (NVRs), die über ein Netzwerk mit IP-Kameras verbunden sind. Die typische Architektur ist aus einer Anzahl von Gründen ungeeignet. Die meisten DVRs und NVRs umfassen beispielsweise keine offenen Plattformen, so dass ein System auf eine Marke für zukünftige Austauschvorgänge und Aufrüstungen begrenzt ist. Die meisten DVRs und NVRs erfüllen auch keine IT-Standards für die Systemelastizität, Redundanz und die Langzeitarchivierung von Videodaten. Außerdem fehlt es typischen Netzwerk-Kamerasystemen häufig an Speicherskalierbarkeit, so dass, wenn sich Netzwerk-Kamerasysteme erweitern, Speichersysteme ”Gabelstapler”-Aufrüstungen erfordern.
  • Ein weiteres Problem bei typischen Videodatenspeicher-Konfigurationen besteht darin, dass viele Anwendungen erfordern, dass Speichervorrichtungen kontinuierlich laufen. Ein solcher kontinuierlicher Betrieb verursacht, dass die Speichervorrichtungen nach fünf oder sechs Jahren Betrieb ausfallen. Wenn sie nicht redundant archiviert oder gespeichert werden, gehen Daten in ausgefallenen Speichervorrichtungen verloren. Der Bedarf zum Austausch von Speichervorrichtungen wird daher zu einer signifikanten Sorge und einem Wartungsproblem.
  • In letzter Zeit haben einige Netzwerk-Kamerasysteme eine Videoanalyseverarbeitung implementiert, um zu identifizieren, wenn wichtige Ereignisse (wie z. B. eine Objektbewegung) von einer Videokamera erfasst werden. Die Videoanalytik wurde hauptsächlich verwendet, um den Sicherheitsdienst auf potentielle ungewollte Ereignisse aufmerksam zu machen. Die meiste Videoanalytik wird durch einen zentralen Prozessor durchgeführt, der mehreren Kameras gemeinsam ist, aber einige Videokameras weisen eingebaute Videoanalysefähigkeiten auf. Diese Videokameras mit eingebauter Analytik haben jedoch aufgrund der großen Speicheranforderungen der durch die Kamera erzeugten Videodaten keinen Speicher mit großer Kapazität enthalten. Es gibt auch einige Kameras, die ohne eingebaute Videoanalytik, aber mit einer eingebauten kleinen Speicherkapazität konfiguriert sind, die unzureichend ist, um als Ersatz für herkömmliche DVRs und NVRs zu dienen.
  • Daher existiert ein Bedarf für ein Netzwerk-Kamerasystem, das Videodaten mit hoher Qualität erzeugt, weniger Speicherkapazität und Netzwerkbandbreite erfordert, IT-Standards erfüllt, leicht skalierbar ist und für eine längere Zeitdauer ohne Speichervorrichtungsaustausch arbeitet.
  • Zusammenfassung der Offenbarung
  • Bevorzugte Ausführungsbeispiele implementieren Verfahren und Systeme für eine inhaltsbewusste Speicherung von Videodaten, die von einer Videokamera erzeugt werden, die ein Kameragehäuse umfasst und zur Verbindung mit einem Netzwerk-Kommunikationssystem ausgelegt ist. Die erzeugten Videodaten stellen ein Blickfeld einer Szene dar, die von der Videokamera beobachtet wird. Eine Videoanalytik und eine Massenspeichereinheit sind in dem Kameragehäuse enthalten oder bilden einen Teil von diesem. Die Videoanalytik analysiert die durch die Videokamera erzeugten Videodaten und detektiert, ob ein Vorkommnis eines interessierenden Ereignisses besteht. Die Videodaten, die das Blickfeld der Szene darstellen, die von der Videokamera beobachtet wird, werden in der Massenspeichereinheit gespeichert. Die gespeicherten Videodaten umfassen Videodaten mit einer ersten Qualität und Videodaten mit einer zweiten Qualität.
  • Die erste Qualität stellt das Auftreten des interessierenden Ereignisses im Blickfeld dar, das von der Videoanalytik detektiert wird, und die zweite Qualität stellt das Nicht-Auftreten des interessierenden Ereignisses im Blickfeld dar, das von der Videoanalytik detektiert wird. Durch Speichern von Videodaten in der Massenspeichereinheit, die im Kameragehäuse enthalten ist oder einen Teil von diesem bildet, werden Netzwerkbandbreiten-Anforderungen verringert, da die Videodaten nicht für Speicherzwecke über das Netzwerk gestreamt werden müssen.
  • Die vorstehend beschriebene Implementierung verringert die Videodatenspeicher- und Netzwerkbandbreiten-Anforderungen eines verteilten Netzwerk-Videoüberwachungssystems, das Netzwerk-Kommunikationspfade zwischen Netzwerk-Videoabbildungsvorrichtungen und Netzwerk-Videodatenspeichern umfasst. In einem solchen Überwachungssystem erzeugen die Netzwerk-Videoabbildungsvorrichtungen Videodaten, die Blickfelder von durch die Videoabbildungsvorrichtungen beobachteten Szenen darstellen, und die Netzwerk-Videodatenspeicher speichern Videoinformationen entsprechend den Videodaten, die von den Netzwerk-Videoabbildungsvorrichtungen erzeugt werden. Jede von mehreren der Netzwerk-Videoabbildungsvorrichtungen ist einem inhaltsbewussten Videodaten-Speichersystem zugeordnet, das zur selektiven Speicherung von Videodaten in der Lage ist, die durch seine zugehörige Netzwerk-Videoabbildungsvorrichtung erzeugt werden. Das inhaltsbewusste Videodaten-Speichersystem umfasst eine Videoanalytik, die den Inhalt der Videodaten analysiert, und lokale Videodatenspeicher, die Teile der Videodaten in Reaktion auf die Analyse durch die Videoanalytik speichern. Videodaten, die den Teilen von Videodaten entsprechen, werden über die Netzwerk Kommunikationspfade zu den Netzwerk-Videodatenspeichern geliefert, um eine verwaltete Menge von Videodaten zu schaffen, die mit einem festgelegten Qualitätsniveau die Blickfelder der Szenen darstellen. Die verwaltete Menge der Videodaten verbraucht beträchtlich weniger Netzwerkbandbreite und weniger Datenspeicherbetriebsmittel als jene, die durch die Lieferung der durch die Netzwerk-Videoabbildungsvorrichtungen erzeugten Videodaten mit dem festgelegten Qualitätsniveau und bei Abwesenheit einer Analyse durch die Videoanalytik zu den Netzwerk-Videospeichern verbraucht werden würden. Obwohl Videoüberwachungsanwendungen von speziellem Interesse sind, ist die obige Methode über eine breite Vielfalt von Videoanwendungen anwendbar.
  • Bevorzugte Ausführungsbeispiele implementieren Verfahren zum Verlängern der Betriebslebensdauer eines Festplattenlaufwerksspeichers, während er in Videodaten-Speicheranwendungen in Gebrauch ist. Ein Halbleiterspeicher fungiert als Speicherpuffer für Videodaten, die durch eine Videokamera erzeugt werden. Die Videodaten stellen eine durch die Videokamera beobachtete Szene dar. Ein Festplattenlaufwerksspeicher arbeitet normalerweise in einem heruntergefahrenen Zustand. Die Videodaten werden im Speicherpuffer während eines ersten Zeitintervalls gespeichert, wenn die Videodaten durch die Videokamera erzeugt werden. Das Festplattenlaufwerk wird in einem hochgefahrenen Zustand betrieben. Ein Teil der im Speicherpuffer gespeicherten Videodaten wird zum Festplattenlaufwerksspeicher im hochgefahrenen Zustand während eines zweiten Zeitintervalls übertragen und darin gespeichert, welches wesentlich kürzer ist als das erste Zeitintervall. Der Festplattenlaufwerksspeicher wird nach der Vollendung der Übertragung von Videodaten in den heruntergefahrenen Zustand zurückgebracht, und für eine gesamte Festplattenlaufwerksspeicherzeit, die eine Summe der zweiten Zeitintervalle darstellt, und eine gesamte Pufferspeicherzeit, die eine Summe der ersten Zeitintervalle darstellt, über eine Betriebslebensdauer des Festplattenlaufwerksspeichers ist die gesamte Festplattenlaufwerksspeicherzeit, die für die Übertragung eines Teils der Videodaten zum Festplattenlaufwerksspeicher und die Speicherung derselben darin aufgewendet wird, wesentlich geringer als die gesamte Pufferspeicherzeit, die für das Speichern der Videodaten im Speicherpuffer aufgewendet wird. Diese Methode ermöglicht, dass die Betriebslebensdauer eines Festplattenlaufwerksspeichers verlängert wird. Folglich können Netzwerkrandvorrichtungen wie z. B. Videokameras eines Netzwerk-Kamerasystems Festplattenlaufwerke ohne große Reparatur- und Wartungskosten umfassen.
  • Zusätzliche Aspekte und Vorteile sind aus der folgenden ausführlichen Beschreibung von bevorzugten Ausführungsbeispielen ersichtlich, die mit Bezug auf die zugehörigen Zeichnungen vor sich geht.
  • Kurzbeschreibung der Zeichnungen
  • 1 stellt ein Ausführungsbeispiel eines Netzwerk-Kamerasystems dar.
  • 2 ist ein Blockdiagramm hoher Ebene einer Netzwerkkamera von 1.
  • 3 ist ein Blockdiagramm, das das Abbildungssystem, das Videoverarbeitungssystem und das Datenspeichersystem von 2 gemäß einem ersten Ausführungsbeispiel darstellt.
  • 4 ist ein Blockdiagramm, das eine Zugriffssteuerverwaltungseinheit darstellt, die im Videoverarbeitungssystem des ersten Ausführungsbeispiels von 3 arbeitet.
  • 5 ist ein Blockdiagramm, das ein zweites Ausführungsbeispiel des Abbildungssystems, des Videoverarbeitungssystems und des Datenspeichersystems von 2 darstellt.
  • 6 ist ein Blockdiagramm, das Teile des Videoverarbeitungssystems des zweiten Ausführungsbeispiels darstellt.
  • 7 ist ein Blockdiagramm, das eine Speicherpuffereinheit und eine Festplattenlaufwerks-Speichereinheit des Datenspeichersystems darstellt.
  • 8 ist ein Bild eines Vogels, der an einer Futterröhre sitzt, in welchem Bild der Vogel und die Futterröhre als Bilder mit hoher Qualität angezeigt sind und eine Hintergrundszene in niedriger Qualität angezeigt ist.
  • Ausführliche Beschreibung von bevorzugten Ausführungsbeispielen
  • Systemkomponenten mit gleichen Bezugsziffern führen dieselben Funktionen in jedem der Ausführungsbeispiele eines inhaltsbewussten Speichersystems, das nachstehend beschrieben wird, durch.
  • 1 ist ein bildhaftes Diagramm, das ein Ausführungsbeispiel eines Netzwerk-Kamerasystems 100 darstellt, das in einer Anwendung mit lokalen Geländegebäuden und entfernten Orten verwendet wird. Das Netzwerk-Kamerasystem 100 ist nicht auf die Videoüberwachung oder auf die dargestellte Anwendung begrenzt, sondern kann in einem beliebigen Netzwerk-Kommunikationssystem verwendet werden. Das Netzwerk-Kamerasystem 100 umfasst Netzwerkkameras 102, die mit einer zentralen Überwachungsstation 104 über ein Netzwerk 106 verbunden sind, das ein Großraumnetzwerk (WAN) 108 und ein lokales Geländenetzwerk (LAN) 110 umfasst. Das Netzwerk 106 kann auch ein drahtloses Netzwerk 112 umfassen, das Netzwerkkameras 102' mit drahtlosen Kommunikationsfähigkeiten umfasst. Das Netzwerk 106 stellt mehrere Netzwerk-Kommunikationspfade her. Die folgenden Beschreibungen der Netzwerkkamera 102 gelten auch für die Netzwerkkamera 102'. Das Netzwerk 106 ist nicht auf die dargestellte Konfiguration begrenzt, sondern kann verschiedene Konfigurationen und Typen von Netzwerken umfassen. Ein entfernter Benutzer 114 kann auch mit den Netzwerkkameras 102 über das WAN 108 verbunden sein. Die Netzwerkkameras 102 können mit einer entfernten Speichereinheit 116 (d. h. einem Netzwerk-Datenspeicher) verbunden sein. Das Netzwerk-Kamerasystem 100 kann auch verschiedene Schalter 118 und Router 120 umfassen, um die Kommunikation über das Netzwerk 106 zu erleichtern.
  • Im Betrieb erfassen die Netzwerkkameras 102 verschiedene Blickfelder und erzeugen Daten, die die Blickfelder darstellen. Bestimmte Anwendungen können einen im Wesentlichen kontinuierlichen Betrieb der Netzwerkkamera 102 erfordern. Die Daten werden zur zentralen Überwachungsstation 104 übertragen, in der ein Benutzer die Bilder, die aus den Daten erzeugt werden und die die Blickfelder darstellen, betrachten kann. Die Daten können auch zum entfernten Benutzer 114 übertragen werden, um Bilder der Blickfelder zu erzeugen. Die Daten können in der entfernten Speichereinheit 116 gespeichert werden und auf diese kann später durch einen Benutzer zugegriffen werden.
  • Die Netzwerkkamera 102 wird nun mit Bezug auf 2 genauer beschrieben. Die Netzwerkkamera 102 umfasst ein Abbildungssystem 202, ein Videoverarbeitungssystem 204, ein Datenspeichersystem 206 (d. h. einen lokalen Datenspeicher), ein Leistungssystem 208 und ein Eingabe/Ausgabe-Schnittstellen- und Steuersystem 210. Die Netzwerkkamera 102 umfasst ein Kameragehäuse; und alles oder Teile der Systeme 202, 204, 206, 208 und 210 können innerhalb des Gehäuses enthalten sein. Das Abbildungssystem 202 kann eine breite Vielfalt von Einheiten zum Erfassen eines Blickfeldes und zum Erzeugen von Videoinformationen, einschließlich digitaler Daten und analoger Signale, umfassen. Das Abbildungssystem 202 kann beispielsweise Informationen gemäß NTSC/PAL-Formaten und Megapixelformaten erzeugen. Das Abbildungssystem 202 kann programmierbare Bildwandler, Bildwandler mit hoher Auflösung, Sensoren für kein/wenig Licht, und spezialisierte Bildwandler, die gegen bestimmte Lichtspektren empfindlicher sind, umfassen. Das Abbildungssystem 202 kann einen skalierbaren Video-Codec wie z. B. MPEG-4-SVC, und andere Videokompressionsfähigkeiten, wie z. B. H.264-Kompression, umfassen. Das Leistungssystem 208 kann irgendein System zum Empfangen und Verteilen von elektrischer Leistung zu verschiedenen Systemen der Netzwerkkamera 102 umfassen. Die Leistung kann Gleichstromleistung, einschließlich Leistung über Ethernet (PoE), oder Wechselstromleistung sein. Das Eingabe/Ausgabe-Schnittstellen- und Steuersystem 210 umfasst verschiedene Hardware- und Software-Konfigurationen, um zahlreiche Arten von Kommunikation zu erleichtern, einschließlich Internet; Ethernet, universeller serieller Bus (USB); drahtlos; asynchroner Übertragungsmodus (ATM); Paket über SONET/SDH (POS); Schwenken, Zoomen, Neigen (PZT); und Audioinformationen. Das Eingabe/Ausgabe-Schnittstellen- und Steuersystem 210 kann in der Hardware und der Software implementiert werden, um einem Benutzer zu ermöglichen, den Betrieb der Netzwerkkamera 102 zu konfigurieren.
  • In einem alternativen Ausführungsbeispiel, wie in 1 dargestellt, kann ein Videoserver 122 anstelle der Netzwerkkamera 102 verwendet werden, in dem mehrere Abbildungssysteme 202, die verschiedene Blickfelder erfassen, mit dem Videoserver 122 verbunden sind. Der Videoserver 122 umfasst innerhalb eines Servergehäuses ein Videoverarbeitungssystem 204, ein Datenspeichersystem 206, ein Leistungssystem 208 und ein Eingabe/Ausgabe-Schnittstellen- und Steuersystem 210. Der Deutlichkeit halber wird auf die Netzwerkkamera 102 in den folgenden Beschreibungen Bezug genommen, aber die folgenden Beschreibungen sind auch auf Situationen anwendbar, in denen mehrere Abbildungssysteme 202 mit dem Videoserver 122 verbunden sind.
  • Inhaltsbewusste Speicherung
  • Erstes Ausführungsbeispiel
  • Ein erstes Ausführungsbeispiel der Netzwerkkamera 102 wird mit Bezug auf 3 genauer beschrieben. Das Videoverarbeitungssystem 204 umfasst eine Maschine 302 auf Regelbasis, eine Videoanalytik 304 und ein Speicherverwaltungssystem 306, von denen einige oder alle in der Software implementiert werden können. Die Videoanalytik 304 umfasst eine Videoanalytiksoftware, die in einem Videoanalytik-Prozessor arbeitet. Obwohl die Videoanalytik und andere Videoverarbeitung, die in den folgenden Ausführungsbeispielen beschrieben werden, vom Videoverarbeitungssystem 204 durchgeführt werden, können Videodaten auch von der Netzwerkkamera 102 zu einem mit dem Netzwerk verbundenen Videoprozessor wie z. B. einem Videoserver (nicht dargestellt) geliefert werden, der alles oder einen Teil der Videoanalyse und der anderen Videoverarbeitung, die nachstehend beschrieben werden, durchführt. Mit anderen Worten, die Videoanalyse und -verarbeitung können über das ganze Netzwerk-Kamerasystem 100 verteilt sein. Das Videoverarbeitungssystem 204 kann auch Videoverschlüsselungsfähigkeiten umfassen, um eine unberechtigte Betrachtung von Videoinformationen zu verhindern. Das Abbildungssystem 202 erfasst ein Blickfeld und erzeugt Videodaten, die das Blickfeld darstellen. Das Abbildungssystem 202 kann programmierbar sein und kann in der Lage sein, mehrere Qualitätsniveaus von Videodaten zu erzeugen, einschließlich Videodaten mit höherer Qualität (HiQ) und Videodaten mit niedrigerer Qualität (LowQ). Ein Qualitätsniveau bezieht sich auf mehrere Videoparameter, einschließlich Auflösung, Bildrate, Bitrate und Kompressionsqualität. HiQ-Videodaten können beispielsweise Video mit D1-Auflösung darstellen, das mit 30 Bildern pro Sekunde (fps) aufgezeichnet wird, und LowQ-Videodaten können Video mit CIF-Auflösung darstellen, das mit 5 fps aufgezeichnet wird. HiQ- und LowQ-Videodaten sind nicht auf die obigen Parameter begrenzt. HiQ-Videodaten können Video mit D1-Auflösung darstellen, das mit einer niedrigeren Bildrate – beispielsweise 15 fps – aufgezeichnet wird. Im Allgemeinen sind HiQ-Videodaten Videodaten, die Video mit höherer Qualität darstellen als LowQ-Videodaten. HiQ-Videodaten sind durch große Speicheranforderungen gekennzeichnet und LowQ-Videodaten sind durch kleine Speicheranforderungen gekennzeichnet. Das Abbildungssystem 202 kann mehr als zwei Qualitätsniveaus von Videodaten erzeugen. Das Abbildungssystem 202 kann in der Lage sein, verschiedene Qualitätsniveaus für verschiedene Teile eines Blickfeldes innerhalb eines Videobildes zu erzeugen. Das Abbildungssystem 202 kann beispielsweise Videodaten mit HiQ-Qualität erzeugen, die eine Person im Blickfeld darstellen, während gleichzeitig LowQ-Videodaten erzeugt werden, die Hintergrundszenenbilder des Blickfeldes darstellen. Als weiteres Beispiel stellt 8 einen Vogel, der an einer Futterröhre sitzt, in hoher Auflösung dar, während die Hintergrundszene in niedriger Auflösung dargestellt ist.
  • Das Abbildungssystem 202 überträgt Videodaten zur Videoanalytik 304. Die Videoanalytik 304 analysiert über die Videoanalytikmaschine die Videodaten, die vom Abbildungssystem 202 erzeugt werden, um zu detektieren, ob ein vordefiniertes interessierendes Ereignis oder Objekt vom Abbildungssystem 202 erfasst wird. Die von der Videoanalytik 304 analysierten Videodaten sind vorzugsweise HiQ-Videodaten. Die Videoanalytik 304 erzeugt Metadaten, die den Inhalt der Videodaten beschreiben. Die von der Videoanalytik 304 erzeugten Metadaten können eine Text- und semantische Beschreibung des Inhalts des Videos sein.
  • Interessierende Ereignisse und Objekte können von einem Benutzer programmiert werden und in einer XML-Definitionsdatei spezifiziert werden. Die Definitionsdatei und die Videoanalytik 304 können periodisch aktualisiert werden und Definitionsdateien können zwischen der Videoanalytik 304 von verschiedenen Netzwerkkameras 102 innerhalb des Netzwerk-Kamerasystems 100 geteilt werden. Die Videoanalytik 304 von verschiedenen Netzwerkkameras 102 kann verschiedene Analysefähigkeiten aufweisen. Mehrere interessierende Ereignisse können definiert werden und mehr als ein interessierendes Ereignis kann zu einem speziellen Zeitpunkt stattfinden. Das Nicht-Auftreten eines Ereignisses lässt auch die Möglichkeit für das Auftreten eines zweiten Ereignisses offen. Die Metadaten können zum Datenspeichersystem 206 und zur entfernten Speichereinheit 116 zur Speicherung geliefert werden. Die Metadaten, die ein beliebiges Bild n darstellen, können Videodaten zugeordnet werden, die das Bild n darstellen. Folglich können die Metadaten durchsuchbar sein, um einem Benutzer zu ermöglichen, große Videoarchive effizient zu durchsuchen und semantisch zu durchstöbern.
  • Ein interessierendes Ereignis, das die Videoanalytik 304 detektiert, kann so einfach wie eine Bewegung im Blickfeld sein. Die Videoanalytik 304 kann auch eine Fleckdetektion (z. B. Detektieren einer Gruppe von sich bewegenden Pixeln als potentielles sich bewegendes Objekt, ohne zu identifizieren, um welchen Typ von Objekt es sich handelt), eine Beleuchtungsänderungseinstellung und eine geometrische Kalibrierung auf der Basis einer Objektgröße im Blickfeld implementieren, um Objekte auf der Basis von Typen zu unterscheiden. Die Videoanalytik 304 kann beispielsweise ein Objekt als Menschen, als Fahrzeug oder als anderen Typ von Objekt klassifizieren können und ein Objekt erkennen können, wenn das Objekt in irgendeinem Teil innerhalb des Blickfeldes der Netzwerkkamera 102 erscheint. Ferner kann die Videoanalytik 304 bestimmte identifizierbare Merkmale eines Objekts, wie beispielsweise menschliche Gesichter und Fahrzeugnummernschilder, erkennen können. Die Videoanalytik 304 kann erkennen können, wenn das Abbildungssystem 202 ein neues Objekt erfasst, und dem neuen Objekt eine eindeutige Objekt-ID zuweisen. Die Videoanalytik 304 kann die Geschwindigkeit und Bahn, mit der sich ein Objekt bewegt, erkennen können. Die Videoanalytik 304 kann Ereignisse, wie z. B. Eindringen in eine Grenze, Objektbewegung in einer speziellen Richtung, Objekte, die sich einander nähern, eine Anzahl von Objekten, die sich in einem festgelegten Bereich befinden, zurückgelassene Objekte und eine Objektentfernung, erkennen können. Die Videoanalytik 304 kann auch spezifische Orte oder Koordinaten innerhalb des Blickfeldes, wo ein interessierendes Ereignis oder Objekt erfasst wird, oder eine Kombination von Objekten und Ereignissen erkennen, wie durch eine Regel definiert.
  • Wenn die Videoanalytik 304 ein interessierendes Ereignis oder Objekt innerhalb der Videodaten detektiert, erzeugt die Videoanalytik 304 Metadaten, die dem interessierenden Ereignis oder Objekt entsprechen, und liefert die Metadaten zur Maschine 302 auf Regelbasis. Die Maschine 302 auf Regelbasis umfasst Regeln, die interessierende Ereignisse oder Objekte, die in den Metadaten spezifiziert sind, zu unternehmenden spezifischen Handlungen zuordnen. Die den Regeln zugeordneten Handlungen können darin bestehen, beispielsweise eines oder mehrere der Folgenden durchzuführen: Speichern von HiQ- oder LowQ-Videodaten im Datenspeichersystem 206, Speichern von HiQ- oder LowQ-Videodaten in der entfernten Speichereinheit 116, Streamen von HiQ- oder LowQ-Videodaten zu einer zentralen Überwachungsstation 104 oder einem entfernten Benutzer 114, Erzeugen und Senden einer kurzen Videoclipdatei des interessierenden Ereignisses zur zentralen Überwachungsstation 104 oder zum entfernten Benutzer 114, Senden eines Alarms (z. B. Anweisungen zum Erzeugen von einer oder beiden einer visuellen Anzeige und eines hörbaren Tons) zur zentralen Überwachungsstation 104 oder zum entfernten Benutzer 114, Speichern von Videodaten im Datenspeichersystem 206 für den Zeitraum X. Ein Benutzer kann beispielsweise die folgende Regel definieren: wenn ein Mensch einen definierten Umfang betritt, Speichern von HiQ-Videodaten, die das Eindringen darstellen, im Datenspeichersystem 206, Alarmieren der zentralen Überwachungsstation 104 über das Eindringen, Erzeugen eines kurzen Videoclips des Eindringens und Senden des Videoclips zur zentralen Überwachungsstation 104, und Speichern von HiQ-Videodaten, die das Eindringen darstellen, in der entfernten Speichereinheit 116. Oder ein Benutzer kann die folgende Regel definieren: wenn kein interessierendes Ereignis oder Objekt erfasst wird, Speichern von LowQ-Videodaten im Datenspeichersystem 206 und Senden von keinen Videodaten zur zentralen Überwachungsstation 104. Da die Videoanalytik 304 verschiedene Objekte und Ereignisse detektieren kann, kann eine breite Vielfalt von Regeln von einem Benutzer definiert werden und jede Regel kann verschiedene Speicherqualitätseinstellungen aufweisen. Da mehrere interessierende Ereignisse gleichzeitig auftreten können, kann auch eine Regel einer Kombination von Ereignissen entsprechen.
  • Das Speicherverwaltungssystem 306 kann die Speicherung von Videodaten im Datenspeichersystem 206 und in der entfernten Speichereinheit 116 steuern. Das Speicherverwaltungssystem 306 wird von den in der Videoanalytik 304 erzeugten Metadaten und den in der Maschine 302 auf Regelbasis definierten Regeln intelligent angesteuert. Das Speicherverwaltungssystem 306 implementiert die durch die Regeln definierten Handlungen. Das Speicherverwaltungssystem 306 kommuniziert beispielsweise mit dem Abbildungssystem 202, um HiQ- und/oder LowQ-Videodaten zu erzeugen, die im Datenspeichersystem 206 und in der entfernten Speichereinheit 116 gespeichert werden sollen. Da die Videoanalytik 304 Orte oder Koordinaten innerhalb des Blickfeldes festlegen kann, an denen ein interessierendes Ereignis oder Objekt erfasst wird, kann das Speicherverwaltungssystem 306 dem Abbildungssystem 202 übermitteln, welche Teile des Blickfeldes mit HiQ-Videodaten (Teile, die Ereignissen oder Objekten entsprechen) und LowQ-Videodaten (restliche Teile) dargestellt werden sollen. 8 stellt beispielsweise eine Szene eines Vogels dar, der an einer Futterröhre sitzt. Die Videoanalytik 304 kann den Vogel und Teile der Futterröhre als wichtigste Merkmale des Bildes oder als interessierende Objekte erkennen. Der Vogel und die Futterröhre als interessierende Objekte werden als HiQ-Bilder angezeigt, während die Hintergrundszene als LowQ-Bild angezeigt wird. Das Abbildungssystem 202 kann auch derart gesteuert werden, dass eine ”Fensteransicht” des interessierenden Ereignisses oder Objekts durch Erzeugen von Videodaten erzeugt wird, in denen nur der Teil des Blickfeldes, der dem Ereignis oder Objekt entspricht, angezeigt wird. Da HiQ- und LowQ-Videodaten auf der Basis des Inhalts intelligent erzeugt werden können, können interessierende Ereignisse oder Objekte erfasst und als HiQ-Videodaten gespeichert werden, während die gesamten Speicheranforderungen durch Erzeugen von LowQ-Videodaten zur Darstellung von Szenen, in denen kein interessierendes Ereignis oder Objekt erfasst wird, verringert werden.
  • In einem alternativen Ausführungsbeispiel erzeugt das Abbildungssystem 202 ein Qualitätsniveau von Videodaten, die im Datenspeichersystem 206 gespeichert werden sollen. Die Netzwerkkamera 102 umfasst einen skalierbaren Video-Codec wie z. B. MPEG-4-SVC. Nachdem die Videodaten durch die Videoanalytik 304 analysiert und im Datenspeichersystem 206 gespeichert sind, können Teile der Videodaten unter Verwendung des skalierbaren Video-Codec verarbeitet werden, um ein zweites Qualitätsniveau zu erzeugen (mehrere Qualitätsniveaus können unter Verwendung des SVC erzeugt werden). Die Netzwerkkamera 102 erzeugt beispielsweise und das Datenspeichersystem 206 speichert HiQ-Videodaten. Einige Zeit später (z. B. Minuten, Stunden, Tage) wird das Qualitätsniveau von Teilen der HiQ-Videodaten, die das Nicht-Auftreten eines interessierenden Ereignisses darstellen, auf LowQ verringert.
  • Das Speicherverwaltungssystem 306 kann auch Speicherverwaltungsrichtlinien implementieren, die auf der Basis des Inhalts vorgeben, wie lange Teile von Videodaten im Datenspeichersystem 206 gespeichert werden. Das Speicherverwaltungssystem 306 kann beispielsweise das Datenspeichersystem 206 derart steuern, dass wichtige Ereignisse für lange Zeiträume zurückbehalten werden, während weniger wichtige Videodaten innerhalb eines kurzen Zeitraums gegen neue Videodaten ausgetauscht werden. Das Speicherverwaltungssystem 306 steuert auch die Übertragung von Videodaten zwischen Unterspeichereinheiten des Datenspeichersystems 206, wie nachstehend beschrieben. Ein Ziel der Speicherverwaltungseinheit 306 besteht darin, die Häufigkeit von Schreiboperationen von einer ersten Unterspeichereinheit in eine zweite Unterspeichereinheit zu minimieren.
  • Da Videodaten, die von der Netzwerkkamera 102 erzeugt werden, im Datenspeichersystem 206 innerhalb des Kameragehäuses der Netzwerkkamera 102 gespeichert werden, können die Videodaten gegen eine Beschädigung oder einen Diebstahl anfälliger sein. Wenn beispielsweise ein Einbrecher die Netzwerkkamera 102 stiehlt, hätte der Einbrecher auch die Videodaten in seinem Besitz. Da die Netzwerkkamera 102 die Videoanalytik 304 und das Datenspeichersystem 206 umfasst, können zahlreiche Merkmale im System 100 implementiert werden, um die Videodaten vor Verlust oder unberechtigter Betrachtung zu sichern, falls die Netzwerkkamera 102 gestohlen wird. Wenn beispielsweise ein interessierendes Ereignis (z. B. die Detektion eines Einbrechers) von der Videoanalytik 304 detektiert wird, können die Videodaten, die das interessierende Ereignis darstellen, sofort zur entfernten Speichereinheit 116 oder zu einer anderen Netzwerkkamera 102 zur redundanten Speicherung gestreamt oder als Videodateien gesandt werden. Kurz nachdem das interessierende Ereignis detektiert wird, können auch ein Alarm und eine Videoclipdatei, die das interessierende Ereignis darstellt, zur zentralen Überwachungsstation 104 oder zum entfernten Benutzer 114 gesandt werden, bevor die Netzwerkkamera 102 manipuliert wird. Um zu verhindern, dass ein Einbrecher Bilder betrachtet, die von der Netzwerkkamera 102 erfasst werden, werden die im Datenspeichersystem 206 gespeicherten Videodaten verschlüsselt, so dass der Einbrecher die Videodaten nicht abspielen kann. Videodaten, die von der Netzwerkkamera 102 gestreamt oder als Videodateien gesandt werden, können auch verschlüsselt werden, um eine unberechtigte Betrachtung zu verhindern.
  • Das Abbildungssystem 202, die Videoanalytik 304, die Maschine 302 auf Regelbasis, das Speicherverwaltungssystem 306 und das Datenspeichersystem 206 wirken zusammen, um ein inhaltsbewusstes Speichersystem herzustellen. Das inhaltsbewusste Speichersystem stellt eine Anzahl von einzigartigen Vorteilen bereit, die in herkömmlichen Kamerasystemen nicht erhältlich sind (selbst jenen Kamerasystemen, die eine gewisse Form von Videoanalytik oder Speicher mit kleiner Kapazität umfassen). Mit dem inhaltsbewussten Speichersystem können die Speicherkapazitätsbedürfnisse durch intelligente Erkennung und Klassifikation des Videoinhalts erheblich verringert werden. Die Speicherkapazitätsbedürfnisse können sogar für Anwendungen, die einen im Wesentlichen kontinuierlichen Betrieb der Netzwerkkamera 102 erfordern, erheblich verringert werden. Wenn beispielsweise ein interessierendes Ereignis erfasst wird, kann das inhaltsbewusste Speichersystem das Ereignis auf einem HiQ-Niveau aufzeichnen. Wenn ein interessierendes Ereignis nicht erfasst wird, kann das inhaltsbewusste Speichersystem die Videodaten auf einem LowQ-Niveau aufzeichnen. Das Qualitätsniveau von gespeicherten Daten kann daher an die Bedeutung des Inhalts angepasst werden.
  • Da LowQ-Videodaten gespeichert werden können, wenn kein interessierendes Ereignis oder Objekt erfasst wird, kann das Datenspeichersystem 206 eine praktische Speicherkapazität, beispielsweise 80 GB, umfassen und immer noch Videodaten speichern können, die sich über lange Zeiträume erstrecken (beispielsweise ein oder zwei Monate). Im Vergleich kann ein typisches System mit D1-Auflösung und 30 fps ohne inhaltsbewusste Speicherung über 360 GB Speicher für einen Monat erfordern. Folglich konnten typische Videokameras keine Massenspeichereinheit umfassen, die Videodaten speichern kann, die sich über einen langen Zeitraum erstrecken. Da die Netzwerkkamera 102 das Datenspeichersystem 206 umfasst, können Videodaten auch trotz eines Netzwerkausfalls oder einer Netzwerkstillstandszeit aufgrund von Systemaufrüstungen oder einer Systemwartung gespeichert werden. Separate Netzwerke müssen nicht mehr für Netzwerkkameras eingerichtet werden; Netzwerkkameras können im gleichen Datennetzwerk installiert werden, das an einem speziellen Ort verwendet wird, was Installationskosten und anhaltende Wartungskosten spart. Da die Netzwerkkamera 102 das Datenspeichersystem 206 umfasst, kann auch die Kapazität der entfernten Speichereinheit 116 erheblich verringert werden und die entfernte Speichereinheit 116 kann hauptsächlich als Sicherungs- oder Archivspeicher für wichtige Ereignisse dienen. Das Datenspeichersystem 206 beseitigt auch den Bedarf, herkömmliche DVRs und NVRs im Netzwerk-Kamerasystem 100 aufzunehmen.
  • Da die Netzwerkkamera 102 das Datenspeichersystem 206 umfasst, können außerdem Netzwerkbandbreiten-Anforderungen erheblich verringert werden, da die Netzwerkkamera 102 nicht kontinuierlich Videodaten über das Netzwerk 106 zur entfernten Speichereinheit 116 liefern muss. Stattdessen kann die Netzwerkkamera 102 eine verwaltete Menge an Videodaten zur entfernten Speichereinheit 116 liefern. Die Netzwerkkamera 102 kann beispielsweise HiQ- oder LowQ-Videodaten über das Netzwerk 106 nur dann liefern, wenn ein interessierendes Ereignis oder Objekt erfasst wird. interessierende Ereignisse oder Objekte können beispielsweise nur zehn Prozent oder weniger der Zeit in einem typischen Kamerasystem erfasst werden. Während der anderen 90% der Zeit kann ein Benutzer wählen, nur LowQ-Videodaten über das Netzwerk 106 zu senden oder überhaupt keine Videodaten zu senden. Für das drahtlose Netzwerk 112 können, da die Netzwerkbandbreiten-Anforderungen geringer sind, mehr drahtlose Netzwerkkameras 102' zum drahtlosen Netzwerk 112 hinzugefügt werden.
  • Da die Videoanalytik 304 detektieren kann, wenn ein interessierendes Ereignis oder Objekt erfasst wird, können die Daten und Metadaten, die zu dem interessierenden Ereignis oder Objekt gehören, automatisch in der entfernten Speichereinheit 116 archiviert werden, um eine zusätzliche Redundanz und Fehlertoleranz vorzusehen. Die Übertragung von Alarminformationen und Videodaten zur zentralen Überwachungsstation 104 oder zum entfernten Benutzer 114 kann auch auf der Basis der Bedeutung des Videoinhalts priorisiert werden.
  • Aufgrund des inhaltsbewussten Speichersystems können Benutzer auch verschiedene interessierende Ereignisse oder Objekte durch Zuweisen von Prioritätswerten kategorisieren. Die Videodaten, die zu den interessierenden Ereignissen oder Objekten gehören, können intelligent im Datenspeichersystem 206 für vorgegebene Zeiträume gespeichert werden, die auf der Basis der Prioritätswerte variieren. Weniger wichtige Ereignisse können beispielsweise nach einem Monat gelöscht werden, aber wichtigere Ereignisse können für drei Monate, sechs Monate oder ein Jahr gespeichert werden. Bei Kombination mit den Fähigkeiten des skalierbaren Video-Codec des Abbildungssystems 202 können die Videodaten auch im Datenspeichersystem 206 beibehalten werden, aber gemäß verschiedenen Auflösungen und Bildraten auf der Basis des Videoinhalts verringert werden, so dass die Videodaten weniger Platz einnehmen.
  • Da die Videoanalytik 304 Metadaten erzeugt, die im Datenspeichersystem 206 und in der entfernten Speichereinheit 116 gespeichert werden können, kann der Zugriff auf die Videodaten, die im Datenspeichersystem 206 und in der entfernten Speichereinheit 116 gespeichert sind, auf der Basis des Inhalts gesteuert werden. Der Zugriff auf Live-Videodaten kann auch gesteuert werden, da Metadaten entsprechend den Videodaten erzeugt werden. Wie in 4 dargestellt, kann das Videoverarbeitungssystem 204 eine Zugriffssteuer-Verwaltungseinheit 402 umfassen, die vorzugsweise in der Software implementiert wird. Gemäß Regeln in der Maschine 302 auf Regelbasis werden verschiedene Inhaltssicherheitsniveaus verschiedenen interessierenden Ereignissen oder Objekten zugewiesen, so dass der Zugriff auf die Videodaten gemäß dem Inhalt gesteuert werden kann. Verschiedenen Benutzern werden auch ein oder mehrere Sicherheitsniveaus zugewiesen – wobei die Sicherheitsniveaus einem oder mehreren der Inhaltssicherheitsniveaus entsprechen. Die Zugriffssteuer-Verwaltungseinheit 402 steuert den Zugriff auf gespeicherte Videodaten derart, dass ein Benutzer nur auf die Videodaten zugreifen kann, die ein Inhaltssicherheitsniveau umfassen, das dem Sicherheitsniveau des Benutzers entspricht. Sicherheitsverwalter können beispielsweise auf Videodaten zugreifen, die als Sicherheitsbrüche oder Bedrohungen gekennzeichnet sind, es kann jedoch verhindert werden, dass sie auf Videodaten zugreifen, die für Geschäfts- und Vermarktungszwecke erfasst wurden. Ebenso kann Vermarktungspersonal auf Videodaten zugreifen, die für ihre Anwendungen identifiziert sind, aber nicht auf Videosicherheitsdaten zugreifen. Richtlinien für die Videoverschlüsselung können auch auf der Basis des Inhalts gesteuert werden.
  • Das inhaltsbewusste Speichersystem kann auch gespeicherte Videodaten intelligent verteilen, um die verfügbare Speicherkapazität zu maximieren. Um ihre Speicherbedürfnisse zu erfüllen, kann beispielsweise eine erste Netzwerkkamera 102 nur eine Hälfte der Kapazität ihres Datenspeichersystems 206 benötigen, während eine zweite Netzwerkkamera 102 mehr Speicherkapazität als die Kapazität ihres Datenspeichersystems 206 erfordern kann. Videodaten von der zweiten Netzwerkkamera 102 können über das Netzwerk 106 zur ersten Netzwerkkamera 102 geliefert werden, damit sie darin gespeichert werden. Da das Datenspeichersystem 206 von einer Netzwerkkamera Daten einer anderen Netzwerkkamera speichern kann, kann die gesamte Speicherkapazität im System 100 maximiert werden und eine redundante Speicherung von wichtigen Daten kann über das ganze System 100 verteilt werden. Das Maximieren der gesamten Speicherkapazität und das Verteilen der redundanten Speicherung von wichtigen Daten machen die wichtigen Daten gegen eine Manipulation oder einen Ausfall unempfindlicher. Außerdem könnte eine Speicherübertragung zu Zeiten des Tages mit niedriger Bandbreite stattfinden.
  • Das inhaltsbewusste Speichersystem ermöglicht auch, dass das Netzwerk-Kamerasystem 100 leicht skalierbar ist. In herkömmlichen Systemen muss, wenn die Anzahl von Kameras zunimmt, die Speicherkapazität durch Hinzufügen von Einheiten zu einer entfernten Speichereinrichtung zunehmen. Überdies muss die Verarbeitungsleistung durch Hinzufügen von Einheiten zu einer Zentralverarbeitungseinrichtung zunehmen. Mit einem inhaltsbewussten Speichersystem erfordern entfernte Speicher- und Verarbeitungseinrichtungen keine Aufrüstungen, wenn Netzwerkkameras 102 zum Netzwerk-Kamerasystem 100 hinzugefügt werden. Stattdessen enthält jede Netzwerkkamera 102 ihre eigene Speicherkapazität (über das Datenspeichersystem 206) und Verarbeitungsleistung (über das Videoverarbeitungssystem 204). Wenn eine Netzwerkkamera 102 zum Netzwerk-Kamerasystem 100 hinzugefügt wird, nehmen folglich die Speicherkapazität und Verarbeitungsleistung gleichzeitig zu.
  • Zweites Ausführungsbeispiel
  • Ein zweites Ausführungsbeispiel einer Kamera 102 wird mit Bezug auf 5 beschrieben und umfasst ein Abbildungssystem 202, ein Videoverarbeitungssystem 204' und ein Datenspeichersystem 206. Das Videoverarbeitungssystem 204' des zweiten Ausführungsbeispiels umfasst eine Videoanalytik 304 und eine Bildverarbeitungseinheit 502. Die Bildverarbeitungseinheit 502 erzeugt Videodaten, die zur zentralen Überwachungsstation 104 übertragen werden sollen und im Datenspeichersystem 206 und in der entfernten Speichereinheit 116 gespeichert werden sollen. Die Bildverarbeitungseinheit 502 kann in der Lage sein, Videodaten mit D1-Auflösung gemäß dem H.264/AVC-Standard mit 30 fps zu komprimieren. Die Bildverarbeitungseinheit 502 kann beispielsweise ein Multimediaanwendungsprozessor Freescale Semiconductor® i.MX27 sein. Die Videoanalytik 304 analysiert Daten, um festzustellen, ob die Daten vorbestimmte Inhaltstypen enthalten. Die Videoanalytik 304 kann in der Lage sein, eine MPEG4/CIF-Codierung durchzuführen. Die Videoanalytik 304 kann auch Videodaten zu einem PAL/NTSC-Monitor (nicht dargestellt) liefern. Die Videoanalytik 304 kann beispielsweise eine digitale Videoentwicklungsplattform DaVinciTM DM6437 von Texas Instruments implementieren. Außerdem können die Bildverarbeitungseinheit 502 und die Videoanalytik 304 über eine Brücke 506 zwischen Prozessoren miteinander kommunizieren.
  • Videodaten, die vom Abbildungssystem 202 erzeugt werden, werden zur Bildverarbeitungseinheit 502 und zur Videoanalytik 304 geliefert. Jedes Videobild, das in den Videodaten dargestellt ist, empfängt einen Zeitstempel, der durch einen Zeitstempelblock 508 aufgebracht wird, der zwischen dem Abbildungssystem 202 und der Bildverarbeitungseinheit 502 und der Videoanalytik 304 angeordnet ist.
  • Die Bildverarbeitungseinheit 502 wird nun mit Bezug auf 6 genauer beschrieben. Die Bildverarbeitungseinheit 502 umfasst einen ersten Codierer 602, einen zweiten Codierer 604, eine Streaming- und Archivsteuereinheit 606, eine Maschine 302 auf Regelbasis, eine Zugriffssteuer-Verwaltungseinheit 402 und ein Speicherverwaltungssystem 306. Die Streaming- und Archivsteuereinheit 606, die Maschine 302 auf Regelbasis, die Zugriffsverwaltungseinheit 402 und die Speicherverwaltungseinheit 306 können in der Software implementiert werden. Der erste und der zweite Codierer 602 und 604 können in der Hardware als anwendungsspezifische integrierte Schaltung oder in der Software implementiert werden. Der erste und der zweite Codierer 602 und 604 empfangen die vom Abbildungssystem 202 erzeugten Videodaten. Der erste und der zweite Codierer 602 und 604 codieren die Videodaten mit zwei verschiedenen Qualitätsniveaus.
  • Wie vorstehend beschrieben, bezieht sich ein Qualitätsniveau auf eine Anzahl von Videoverarbeitungsparametern, einschließlich Auflösung, Bildrate, Bitrate und Videokompressionsqualität. Der erste Codierer 602 codiert die Videodaten mit einem HiQ-Niveau, um HiQ-Videodaten zu erzeugen, und der zweite Codierer 604 codiert die Videodaten mit einem LowQ-Niveau, um LowQ-Videodaten zu erzeugen.
  • Obwohl zwei Codierer in 6 dargestellt sind, kann die Bildverarbeitungseinheit 502 mehr als zwei Codierer umfassen, um mehrere Ströme von Videodaten mit mehreren Qualitätsniveaus zu erzeugen, oder die Qualitätsniveaus der Codierer 602 und 604 können sich auf der Basis des Typs von Ereignis, das von der Videoanalytik 304 detektiert wird, ändern. Vorzugsweise können die Codierer 602 und 604 Videodaten gleichzeitig codieren. Der Codierer 604 codiert beispielsweise die Videodaten kontinuierlich und der Codierer 602 codiert die Videodaten nur, wenn ein interessierendes Ereignis detektiert wird, so dass, wenn ein interessierendes Ereignis detektiert wird, der Codierer 602 das Ereignis mit einem LowQ-Niveau codiert, während der Codierer 604 das Ereignis mit einem HiQ-Niveau codiert. Die kontinuierliche Aufzeichnung von LowQ-Videodaten und die intermittierende Aufzeichnung von HiQ-Videodaten verringern die Speicherbetriebsmittel-Anforderungen beträchtlich. Ein Zeitraum von 24 Stunden kann beispielsweise ungefähr fünf Stunden umfassen, in denen ein interessierendes Ereignis detektiert wird. Wenn die Netzwerkkamera 102 fünf Stunden Video mit D1-Auflösung mit 15 fps unter Verwendung von H.264-Kompression aufgezeichnet hat, würden diese fünf Stunden ungefähr 0,86 GB Speicher erfordern. Wenn die Netzwerkkamera 102 auch 24 Stunden Video mit CIF-Auflösung mit fünf fps unter Verwendung von H.264-Kompression aufgezeichnet hat, würden die 24 Stunden ungefähr 0,4 GB Speicher für insgesamt 1,26 GB/Tag erfordern. Wenn das Datenspeichersystem 206 der Netzwerkkamera 102 80 GB Speicher umfassen würde, könnte das Datenspeichersystem 206 ungefähr zwei Monate Video aufzeichnen. Im Vergleich erfordert eine typische Kamera, die kontinuierlich Video mit D1-Auflösung mit 15 fps unter Verwendung von MPEG-4-Kompression aufzeichnet, ungefähr 5,4 GB Speicher pro Tag. Folglich erfordert ein typisches 16-Kanal-Videosystem ungefähr 5 TB Speicher für einen Zeitraum von zwei Monaten.
  • Die kontinuierliche Aufzeichnung mit LowQ ist erwünscht, falls die Videoanalytik 304 das Auftreten eines interessierenden Ereignisses verpasst. Die LowQ-Videodaten können von einem Benutzer durchgesehen werden, um das von der Videoanalytik 304 verpasste Ereignis zu betrachten. Folglich können LowQ-Videodaten kontinuierlich aufgezeichnet werden, um sicherzustellen, dass nichts verpasst wurde, während HiQ-Videodaten aufgezeichnet werden, wenn wichtige Ereignisse von der Videoanalytik 304 detektiert wurden.
  • Einer oder beide Ströme von HiQ- und LowQ-Videodaten werden zum Datenspeichersystem 206 und zur Streaming- und Archivsteuereinheit 606 in Abhängigkeit vom Videoinhalt und von definierten Regeln der Maschine 302 auf Regelbasis geliefert. Die Streaming- und Archivsteuereinheit 606 erleichtert die Übertragung von Live-HiQ- und -LowQ-Videodaten, Videodaten, die in der Datenspeichereinheit 206 gespeichert sind, Videoclipdateien, die interessierende Ereignisse darstellen, und von Alarmen zur zentralen Überwachungsstation 104, zur entfernten Speichereinheit 116 und zum entfernten Benutzer 114. Nachdem ein interessierendes Ereignis erfasst und im Datenspeichersystem 206 gespeichert ist, können beispielsweise HiQ-Videodaten, die das interessierende Ereignis darstellen und die im Datenspeichersystem 206 gespeichert sind, zur entfernten Speichereinheit 116 über die Streaming- und Archivsteuereinheit 606 für eine redundante Speicherung des interessierenden Ereignisses übertragen werden.
  • Die Maschine 302 auf Regelbasis empfängt Metadaten, die von der Videoanalytik 304 erzeugt werden, und bestimmt aus den Metadaten, ob die HiQ- oder LowQ-Videodaten im Datenspeichersystem 206 gespeichert werden sollen und/oder zur zentralen Überwachungsstation 104, zur entfernten Speichereinheit 116 und zum entfernten Benutzer 114 übertragen werden sollen.
  • Die Zugriffssteuer-Verwaltungseinheit 402 steuert den Zugriff auf Live- und gespeicherte Videodaten. Die Zugriffssteuer-Verwaltungseinheit 402 ermöglicht, dass mehrere Benutzerkonten mit entsprechenden Bewilligungen zum Zugreifen auf Teile von Videodaten auf der Basis des Inhalts der Videodaten erstellt werden.
  • Das Speicherverwaltungssystem 306 wird durch die in der Videoanalytik 304 erzeugten Metadaten und die in der Maschine 302 auf Regelbasis definierten Regeln intelligent angesteuert. Das Speicherverwaltungssystem 306 steuert auch die Übertragung von Videodaten zwischen Unterspeichereinheiten des Datenspeichersystems 206.
  • Im Betrieb erfasst das Abbildungssystem 202 ein Blickfeld und erzeugt Videodaten. Bilder der Videodaten werden im Zeitstempelblock 508 zeitlich gestempelt, so dass die von der Videoanalytik 304 erzeugten Metadaten mit Videodaten synchronisiert werden können, die durch die Bildverarbeitungseinheit 502 erzeugt werden. Die Videoanalytik 304 analysiert die vom Abbildungssystem 202 erzeugten Videodaten und erzeugt Metadaten auf der Basis des Inhalts der Videodaten. Der erste Codierer 602 und der zweite Codierer 604 empfangen auch die durch das Abbildungssystem 202 erzeugten Videodaten und erzeugen HiQ-Videodaten bzw. LowQ-Videodaten.
  • Die Metadaten werden zur Maschine 302 auf Regelbasis über die Brücke 506 zwischen Prozessoren übertragen und die Maschine 302 auf Regelbasis stellt fest, ob eine Regel verletzt wurde (z. B. ob ein interessierendes Ereignis oder Objekt, das von der Videoanalytik 304 detektiert wird, eine Handlung erfordert). Auf der Basis der Metadaten und der Regeln der Maschine 302 auf Regelbasis steuert das Speicherverwaltungssystem 306 den ersten Codierer 602 und den zweiten Codierer 604, um HiQ-Videodaten und/oder LowQ-Videodaten zum Datenspeichersystem 206 zu liefern. Teile der HiQ- und LowQ-Videodaten können in Videoclipdateien segmentiert werden. Das Speicherverwaltungssystem 306 steuert auch, ob HiQ- oder LowQ-Videodaten über die Streaming- und Archivsteuereinheit 606 zur zentralen Datenspeichereinheit 116 gesandt werden sollen.
  • Wenn beispielsweise die Metadaten übermitteln, dass kein interessierendes Objekt oder Ereignis innerhalb des Blickfeldes der Netzwerkkamera 102 erfasst wird, kann eine Regel dem Speicherverwaltungssystem 306 übermitteln, den ersten und den zweiten Codierer 602 und 604 derart zu steuern, dass die LowQ-Videodaten zum Datenspeichersystem 206 geliefert werden und keine Videodaten zur entfernten Speichereinheit 116 geliefert werden. In einem alternativen Beispiel kann, wenn die Metadaten übermitteln, dass ein interessierendes Objekt oder Ereignis innerhalb des Blickfeldes der Netzwerkkamera 102 auftritt, eine Regel dem Speicherverwaltungssystem 306 übermitteln, den ersten und den zweiten Codierer 602 und 604 derart zu steuern, dass HiQ- und LowQ-Videodaten, die das Objekt oder Ereignis darstellen, zum Datenspeichersystem 206 geliefert werden. Da sowohl HiQ- als auch LowQ-Videodaten im Datenspeichersystem 206 gespeichert werden, kann das interessierende Ereignis in einem Modus mit höherer Bandbreite oder niedrigerer Bandbreite wiedergegeben werden. Wenn ein interessierendes Ereignis erfasst wird, kann auch eine Videoclipdatei des interessierendes Ereignisses, die im Datenspeichersystem 206 gespeichert ist, zur zentralen Überwachungsstation 104 über die Streaming- und Archivsteuereinheit 606 übertragen werden. Eine Videoclipdatei kann ein kurzes HiQ-Videosegment des interessierenden Ereignisses sein, das im Datenspeichersystem 206 gespeichert ist. Eine Videoclipdatei kann sieben Sekunden Video darstellen, in dem zwei Sekunden sind, bevor das Ereignis auftritt, und fünf Sekunden sind, nachdem das Ereignis detektiert ist. Die Dauer des Videoclips kann als eine beliebige Länge programmiert werden. Die Videoclipdatei kann mehrere Male wiedergegeben werden, zu anderen Benutzern über E-Mail weitergeleitet werden oder auf einer entnehmbaren Platte gespeichert werden und beispielsweise zum Gesetzvollzug gesandt werden. Wie im ersten Ausführungsbeispiel beschrieben, können Benutzer eine beliebige Kombination von Handlungen definieren, die auf der Basis der Metadaten unternommen werden sollen, wie z. B. Speichern von HiQ-Videodaten im Datenspeichersystem 206 und in der entfernten Speichereinheit 116, während gleichzeitig LowQ-Videodaten zur zentralen Überwachungsstation 104 gestreamt werden. Benutzer können auch eine Regel definieren, dass ein Alarm zur zentralen Überwachungsstation 104 oder zum entfernten Benutzer 114 über E-Mail gesandt wird, sobald ein interessierendes Ereignis oder Objekt detektiert wird. Der entfernte Benutzer 114 kann beispielsweise einen Alarm an einer mobilen Vorrichtung wie z. B. einem Mobiltelefon oder einem persönlichen digitalen Assistenten (PDA) zusammen mit einem Videoclip, der an der mobilen Vorrichtung abgespielt werden kann, empfangen.
  • Obwohl die obigen Ausführungsbeispiele beschrieben wurden, ist die Netzwerkkamera 102 nicht auf diese zwei Ausführungsbeispiele begrenzt. Die Netzwerkkamera 102 kann ein beliebiges Kamerasystem umfassen, das in der Lage ist, den Inhalt von Videodaten zu analysieren, um eine Bewegung oder ein anderes interessierendes Ereignis zu detektieren, und in der Lage ist, mehr als ein Qualitätsniveau von Videodaten zu erzeugen.
  • Datenspeichersystem
  • Das Datenspeichersystem 206 wird mit Bezug auf 7 im Einzelnen beschrieben. Das Datenspeichersystem 206 kann in der Netzwerkkamera 102 enthalten sein oder das Datenspeichersystem 206 kann sich außerhalb der Netzwerkkamera 102 befinden und kann mit der Netzwerkkamera 102 über das Netzwerk 106 kommunizieren. Das Datenspeichersystem 206 dient als Massenspeichereinheit, die mindestens ein GB, vorzugsweise 80 GB oder mehr, Speicherkapazität umfasst. Das Datenspeichersystem 206 umfasst eine Halbleiter-Speicherpuffereinheit 702 und eine Festplattenlaufwerk-Speichereinheit 704.
  • Die Speicherpuffereinheit 702 kann einen nicht-flüchtigen und einen flüchtigen Speicher, wie z. B. NAND-Flash-Speicher und RAM, umfassen. Wenn ein flüchtiger Speicher als Speicherpuffereinheit 702 verwendet wird, kann eine sekundäre Leistungsversorgung in der Netzwerkkamera 102 im Fall eines Leistungsausfalls enthalten sein. In einem bevorzugten Ausführungsbeispiel wird ein GB von NAND-Flash-Speicher verwendet, aber die Speicherpuffereinheit 702 kann eine Speichergröße umfassen, die größer oder kleiner als ein GB ist.
  • Sektoren der Speicherpuffereinheit 702 können für verschiedene Typen von Daten zugewiesen werden, wie durch die Teile 706, 708 und 710 angegeben. Der Teil 706 stellt beispielsweise 50% des Speichers dar, der zum Speichern der jüngsten Videodaten, die vom Abbildungssystem 202 erfasst werden, zugewiesen ist. Der Teil 708 stellt 40% des Speichers dar, der zum Speichern der jüngsten interessierenden Ereignisse oder Objekte, die vom Abbildungssystem 202 erfasst werden, zugewiesen ist. Der Teil 710 stellt 10% des Speichers dar, der zum Speichern von Metadaten, die von der Videoanalytik 304 erzeugt werden, zugewiesen ist. Die Zuweisung von Speicher ist nicht auf das obige Beispiel begrenzt und kann so angepasst werden, dass sie die Bedürfnisse einer speziellen Anwendung erfüllt. Die Teile 706, 708 und 710 können auch periodisch rotiert werden, so dass sie verschiedenen Sektoren der Speicherpuffereinheit 702 entsprechen, um die Betriebslebensdauer der Sektoren der Speicherpuffereinheit 702 zu verlängern.
  • Die Festplattenlaufwerk-Speichereinheit 704 kann ein beliebiger Typ von Massenspeichervorrichtung sein, einschließlich eines Festplattenlaufwerks und einer Halbleiter-Speichervorrichtung mit großer Kapazität. Der Einfachheit halber wird eine Festplattenlaufwerk-Speichereinheit 704 als Festplattenlaufwerk beschrieben, aber viele der nachstehend beschriebenen Merkmale sind auch auf eine Halbleiter-Speichervorrichtung mit großer Kapazität anwendbar. Die Speicherkapazität der Festplattenlaufwerk-Speichereinheit 704 kann eine beliebige Größe sein, vorzugsweise wäre jedoch die Speicherkapazität 80 GB oder mehr. Die Festplattenlaufwerk-Speichereinheit 704 umfasst einen Lese/Schreib-Kopf und eine Speicherplatte.
  • Im Betrieb empfängt während eines ersten Zeitintervalls die Speicherpuffereinheit 702 Videodaten vom Abbildungssystem 202 oder Videoverarbeitungssystem 204' und speichert die Videodaten in den Teilen 706 oder 708, wie durch das Speicherverwaltungssystem 306 angewiesen, gemäß dem Inhalt der Videodaten. Der Speicherpuffereinheit 702 empfängt auch Metadaten, die von der Videoanalytik 304 erzeugt werden, und speichert die Metadaten im Teil 710. Da die Metadaten mit den Videodaten synchronisiert sind, können die Videodaten gemäß dem Inhalt durch Bezugnahme auf die Metadaten schnell durchsucht werden. Für die Mehrheit der Zeit, die Videodaten und Metadaten in der Speicherpuffereinheit 702 gespeichert werden, befindet sich die Festplattenlaufwerk-Speichereinheit 704 in einem heruntergefahrenen Zustand. Ein heruntergefahrener Zustand umfasst mehrere Zustände, wie z. B. einen vollständigen Ausschaltzustand oder einen von mehreren Leerlauf-, Bereitschafts- oder Schlafzuständen, die in Verbindung mit der Technologie des Enhanced Adaptive Battery Life Extender (ABLE)TM von Hitachi beschrieben sind. In einem heruntergefahrenen Zustand kann sich der Lese/Schreib-Kopf beispielsweise in einem ”belasteten” oder aktivierten Zustand befinden, ohne Lese/Schreib-Befehle auszuführen, während sich die Speicherplatte dreht, der Lese/Schreib-Kopf kann sich in einem ”belasteten” oder aktivierten Zustand befinden, während sich die Speicherplatte nicht dreht, der Lese/Schreib-Kopf kann sich in einem ”unbelasteten” oder nicht-aktivierten Zustand befinden, während sich die Speicherplatte dreht, oder der Lese/Schreib-Kopf kann sich in einem ”unbelasteten” oder nicht-aktivierten Zustand befinden, während sich die Speicherplatte nicht dreht. Im Allgemeinen ist ein heruntergefahrener Zustand durch einen Leistungspegel gekennzeichnet, der geringer ist als ein Leistungspegel eines hochgefahrenen Zustandes. Eine gesamte Speicherpuffer-Speicherzeit stellt eine Summe der ersten Zeitintervalle dar.
  • Während eines zweiten Zeitintervalls, das durch das Speicherverwaltungssystem 306 festgelegt wird, wird die Festplattenlaufwerk-Speichereinheit 704 hochgefahren (d. h. der Lese/Schreib-Kopf befindet sich in einem aktivierten Zustand, um Lese/Schreib-Befehle auszuführen, und die Speicherplatte dreht sich) und die Videodaten von einem oder mehreren Teilen 706 und 708 werden von der Speicherpuffereinheit 702 zur Festplattenlaufwerk-Speichereinheit 704 übertragen, damit sie in der Festplattenlaufwerk-Speichereinheit 704 gespeichert werden. Metadaten vom Teil 710 können während des zweiten Zeitintervalls auch zur Festplattenlaufwerk-Speichereinheit 704 übertragen werden. Das Speicherverwaltungssystem 306 bestimmt die Menge an Daten, die von der Speicherpuffereinheit 702 geliefert und in die Festplattenlaufwerk-Speichereinheit 704 geschrieben werden sollen. Während des zweiten Zeitintervalls kann die Speicherpuffereinheit 702 weiterhin Videodaten und Metadaten empfangen und speichern, um eine Unterbrechung in der Speicherung von Videodaten und Metadaten zu verhindern. Am Ende des zweiten Zeitintervalls (z. B. nachdem eine vorbestimmte Menge an Daten der Speicherpuffereinheit 702 in die Festplattenlaufwerk-Speichereinheit 704 geschrieben sind) stoppt die Speicherpuffereinheit 702 das Liefern von Daten zur Festplattenlaufwerk-Speichereinheit 704 und die Festplattenlaufwerk-Speichereinheit 704 wird heruntergefahren. Eine gesamte Festplattenlaufwerk-Speicherzeit stellt eine Summe der zweiten Zeitintervalle dar. Die gesamte Festplattenlaufwerk-Speicherzeit, die für die Übertragung zu und Speichern eines Teils der Videodaten in der Festplattenlaufwerk-Speichereinheit 704 aufgewendet wird, ist wesentlich kürzer als die gesamte Speicherpuffer-Speicherzeit, die für das Speichern der Videodaten in der Speicherpuffereinheit 702 aufgewendet wird.
  • Das Speicherverwaltungssystem 306 kann eine Schreiboperation von der Speicherpuffereinheit 702 in die Festplattenlaufwerk-Speichereinheit 704 zu einem beliebigen Zeitpunkt steuern, wie z. B. wenn eine vorbestimmte Bedingung erfüllt ist. Eine vorbestimmte Bedingung könnte beispielsweise darin bestehen, die Schreiboperation durchzuführen, wenn einer der Teile 706, 708 oder 710 nahe der Kapazität liegt. Oder in mobilen Anwendungen wie z. B. einer Kamera in einem Fahrzeug kann eine Schreiboperation durchgeführt werden, wenn ein Bewegungssensor, ein Beschleunigungsmesser oder ein anderer Sensor, der sich innerhalb des Fahrzeugs befindet, anzeigt, dass das Fahrzeug stationär ist, so dass eine Beschädigung an der Festplattenlaufwerk-Speichereinheit 704 vermieden werden kann, oder um den Bedarf zu beseitigen, ein Festplattenlaufwerk mit ausgedehnter Stoßdämpfung aufzunehmen Der Bewegungssensor, der Beschleunigungsmesser oder der andere Sensor kann innerhalb des Kameragehäuses enthalten sein. Ein Sensor umfasst einen Fahrzeug-Ein/Aus-Schalter. Wenn beispielsweise ein Fahrzeug ausgeschaltet wird, kann die Fahrzeugbatterie das Datenspeichersystem 206 hochgefahren halten, so dass Videodaten von der Speicherpuffereinheit 702 zur Festplattenlaufwerk-Speichereinheit 704 während des ausgeschalteten Zustandes des Fahrzeugs übertragen werden können – idealerweise ist das Fahrzeug während eines ausgeschalteten Zustandes stationär. Die Schreiboperation kann gestoppt werden, wenn alle Daten von einem oder mehreren Teilen 706, 708 und 710 in die Festplattenlaufwerk-Speichereinheit 704 geschrieben wurden oder wenn eine andere Bedingung erfüllt ist, wie z. B. eine Fahrzeugbewegung. Außerdem kann das Speicherverwaltungssystem 306 die Festplattenlaufwerk-Speichereinheit 704 so steuern, dass sie hochgefahren wird, wenn ein Benutzer das Abrufen von Videodaten, die in der Festplattenlaufwerk-Speichereinheit 704 gespeichert sind, anfordert. Die Festplattenlaufwerk-Speichereinheit 704 würde hochgefahren werden, um Videodaten zum Videoverarbeitungssystem 204 (204') zu liefern, so dass die Videodaten zu einem Benutzer über das Netzwerk 106 geliefert werden können.
  • In mobilen Anwendungen kann ein einzelnes Datenspeichersystem 206 mehreren Abbildungssystemen 202 eines Fahrzeugs dienen (z. B. mehreren Kameras an einem Bus) oder eine Festplattenlaufwerk-Speichereinheit 704 kann mehreren Abbildungssystemen 202 dienen, die ihre eigenen Speicherpuffereinheiten 702 umfassen. Wenn das Fahrzeug zu einem Halt kommt, wird die Festplattenlaufwerk-Speichereinheit 704 hochgefahren und Daten werden von der (den) Speicherpuffereinheit(en) 702 schnell übertragen, indem die Kommunikationsgeschwindigkeit zwischen der (den) Speicherpuffereinheit(en) 702 und der Festplattenlaufwerk-Speichereinheit 704 optimiert wird und indem eine Festplattenlaufwerk-Speichereinheit 704 mit einer schnellen Schreibgeschwindigkeit (z. B. ungefähr 665 MBit/s oder mehr) implementiert wird. Wenn ein Fahrzeug mehrere Abbildungssysteme 202 umfasst, kann die Datenübertragung auch schnell bewerkstelligt werden, indem die Bildrate jedes Abbildungssystems 202 verringert wird, ohne die Videoqualität wesentlich zu opfern. Wenn beispielsweise ein Fahrzeug acht Kameras, die mit 7,5 fps arbeiten, enthalten würde, wären die durch die acht Kameras erzeugten Videodaten zu Daten, die von zwei Kameras erzeugt werden, die mit 30 fps arbeiten, äquivalent.
  • Durch Speichern der Videodaten in der Pufferspeichereinehit 702 und durch periodisches Hochfahren der Festplattenlaufwerk-Speichereinheit 704 kann die Betriebslebensdauer der Festplattenlaufwerk-Speichereinheit 704 verlängert werden, da die Festplattenlaufwerk-Speichereinheit 704 nicht ständig hochgefahren ist. Wenn beispielsweise Videodaten mit D1-Auflösung mit 30 fps aufgezeichnet und unter Verwendung von MPEG-4-Kompression komprimiert werden, könnte der Teil 706 mit 500 MB Speicherkapazität ungefähr eine Stunde von Videodaten mit D1-Auflösung aufzeichnen. In Abhängigkeit von der Datenübertragungsrate der Speicherpuffereinheit 702 und der Festplattenlaufwerk-Speichereinheit 704 können 500 MB Daten von der Speicherpuffereinheit 702 zur Festplattenlaufwerk-Speichereinheit 704 in vier Minuten oder weniger übertragen werden. Von einer Stunde kann somit die Festplattenlaufwerk-Speichereinheit 704 für nur vier Minuten hochgefahren werden müssen. Dies stellt ein 1/15-Verhältnis dar. Das hochgefahrene Verhältnis der Festplattenlaufwerk-Speichereinheit 704 ist nicht auf 1/15 begrenzt, sondern kann größer oder geringer sein und kann über die Zeit in Abhängigkeit vom Inhalt der Videodaten variieren. Ein Benutzer kann beispielsweise wählen, Video mit einer niedrigeren als vollen Bildrate zu speichern, wobei die Festplattenlaufwerk-Speichereinheit 704 weniger häufig als einmal pro Stunde hochgefahren werden könnte. Vorzugsweise ist die mittlere hochgefahrene Dauer wesentlich geringer als die mittlere heruntergefahrene Dauer. Zum Vergleich kann ein typisches Festplattenlaufwerk, das kontinuierlich hochgefahren ist, eine Lebensdauer von ungefähr fünf Jahren aufweisen. Durch Hochfahren der Festplattenlaufwerk-Speichereinheit 704 für vier Minuten pro Stunde kann beispielsweise die Lebensdauer der Festplattenlaufwerk-Speichereinheit 704 um mehr als zehnmal die Lebensdauer eines typischen kontinuierlich betriebenen Festplattenlaufwerks verlängert werden. Durch Verringern der Hochfahrstunden der Festplattenlaufwerk-Speichereinheit 704 wird somit die Lebensdauer der Festplattenlaufwerk-Speichereinheit 704 verlängert.
  • Da die Festplattenlaufwerk-Speichereinheit 704 wiederholt hochgefahren und heruntergefahren wird, umfasst ein bevorzugtes Ausführungsbeispiel der Festplattenlaufwerk-Speichereinheit 704 ein verschleißbeständiges Festplattenlaufwerk, in dem die Anzahl von Ein/Aus-Zyklen die Lebensdauer der Festplattenlaufwerk-Speichereinheit 704 nicht beträchtlich verringert. Ein verschleißbeständiges Festplattenlaufwerk umfasst einen Lese/Schreib-Kopf, der während eines oder mehrerer der heruntergefahrenen Zustände von einer Speicherplatte entfernt physikalisch geparkt wird (d. h. ”unbelastet”), so dass der Lese/Schreib-Kopf während eines hochgefahrenen Zustandes oder eines heruntergefahrenen Zustandes nicht mit der Speicherplatte in Kontakt steht. Die Festplattenlaufwerk-Speichereinheit 704 kann beispielsweise die Rampen-Belastungs/Entlastungs-Technologie von Hitachi implementieren, die in Verbindung mit ihrem Festplattenlaufwerk Travelstar® beschrieben ist.
  • In einem herkömmlichen Kontakt-Start-Stopp-(CSS)Festplattenlaufwerk liegt der Lese/Schreib-Kopf während eines ausgeschalteten Zustandes direkt auf der Speicherplatte auf. Wenn das CSS-Festplattenlaufwerk hochgefahren wird, bleiben der Lese/Schreib-Kopf und die Speicherplatte in Kontakt, bis Luft, die durch die sich drehende Speicherplatte erzeugt wird, bewirkt, dass sich der Lese/Schreib-Kopf von der Speicherplatte abhebt. Da der Lese/Schreib-Kopf und die Speicherplatte in Kontakt stehen, während sich die Speicherplatte dreht, unterliegen der Lese/Schreib-Kopf und die Speicherplatte eines CSS-Festplattenlaufwerks einem Verschleiß. Ein CSS-Festplattenlaufwerk kann beispielsweise nur 50000 Ein/Aus-Zyklen vor einem Ausfall standhalten können. Wenn ein CSS-Festplattenlaufwerk einmal pro Stunde einem Ein- und Aus-Zyklus unterzogen werden würde, würde das CSS-Festplattenlaufwerk nur fünf oder sechs Jahre halten.
  • Im Gegensatz dazu kann ein verschleißbeständiges Festplattenlaufwerk beispielsweise 300000 Ein/Aus-Zyklen oder mehr – vorzugsweise 600000 Ein/Aus-Zyklen oder mehr standhalten. Mit anderen Worten, wenn das bevorzugte verschleißbeständige Festplattenlaufwerk einmal pro Stunde einem Ein- und Aus-Zyklus unterzogen wird, würde das Festplattenlaufwerk etwa 60 Jahre oder mehr halten. Durch Implementieren des verschleißbeständigen Festplattenlaufwerks des bevorzugten Ausführungsbeispiels verringert folglich die Anzahl von Ein/Aus-Zyklen die Lebensdauer der Festplattenlaufwerk-Speichereinheit 704 nicht wesentlich. Da die Lebensdauer des Datenspeichersystems 206 relativ lang ist, erfordert das Datenspeichersystem 206 wenig Wartung oder Aufrüstung. Folglich kann eine Netzwerkrandvorrichtung wie z. B. die Netzwerkkamera 102 das Datenspeichersystem 206 praktisch umfassen. Ohne Implementierung der vorstehend beschriebenen Lebensdauerverlängerungsmerkmale würde dagegen ein Netzwerk-Kamerasystem, das eine große Anzahl von Massenspeichereinheiten in Netzwerkrandvorrichtungen bereitstellen würde, große Reparatur- und Wartungskosten erfordern. Dies liegt daran, dass die Massenspeichereinheiten häufig ausfallen würden und an Stellen verteilt wären, die schwierig zu betreuen sind (wie z. B. an Oberseiten von hohen Masten). Mit den vorstehend beschriebenen Lebensdauerverlängerungsmerkmalen können Massenspeichereinheiten in Netzwerkrandvorrichtungen ohne den Bedarf an häufigem Austausch bereitgestellt werden.
  • Für den Fachmann auf dem Gebiet ist es offensichtlich, dass viele Änderungen an den Details der vorstehend beschriebenen Ausführungsbeispiele vorgenommen werden können, ohne von den zugrunde liegenden Prinzipien der Erfindung abzuweichen. Der Schutzbereich der Erfindung sollte daher nur durch die folgenden Ansprüche bestimmt werden.
  • Zusammenfassung
  • Eine Videoanalytik und eine Massenspeichereinheit sind in einem Kameragehäuse einer Videokamera enthalten. Die Videoanalytik analysiert Videodaten, die durch die Videokamera erzeugt werden, und detektiert, ob ein Auftreten eines definierten interessierenden Ereignisses besteht. Videodaten, die in der Massenspeichereinheit gespeichert werden, umfassen Videodaten mit verschiedenen Qualitäten, die das Auftreten und Nicht-Auftreten des detektierten definierten interessierenden Ereignisses in einem Blickfeld der Videokamera darstellen. Das Speichern von Videodaten mit verschiedenen Qualitäten verringert Systemspeicherkapazitäts-Anforderungen. Ein Speicherpuffer und ein Festplattenlaufwerk speichern die Videodaten. Eine gesamte Festplattenlaufwerk-Speicherzeit, die für das Übertragen eines Teils der Videodaten zum Festplattenlaufwerk und Speichern desselben darin aufgewendet wird, ist wesentlich kürzer als eine gesamte Pufferspeicherzeit, die für das Speichern der Videodaten im Speicherpuffer aufgewendet wird. Diese Speicherzeitzuweisung verlängert die Betriebslebensdauer des Festplattenlaufwerks.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • H.264/AVC-Standard [0043]

Claims (36)

  1. Verfahren zum Implementieren einer Videospeicherung in einer Videokamera, die Videodaten erzeugt, die ein Blickfeld einer Szene darstellen, die von der Videokamera beobachtet wird, wobei die Videokamera ein Kameragehäuse umfasst und zur Verbindung mit einem Netzwerk-Kommunikationssystem ausgelegt ist, welches umfasst: Definieren eines interessierenden Ereignisses für die Detektion durch die Analyse der von der Videokamera erzeugten Videodaten; Versehen der Videokamera mit einer Videoanalytik und einer Massenspeichereinheit, wobei die Videoanalytik und die Massenspeichereinheit im Kameragehäuse enthalten sind oder einen Teil davon bilden; Bewirken, dass die Videoanalytik die durch die Videokamera erzeugten Videodaten analysiert und detektiert, ob ein Vorkommnis des interessierenden Ereignisses besteht; und Speichern der Videodaten, die das Blickfeld der Szene darstellen, die von der Videokamera beobachtet wird, in der Massenspeichereinheit, wobei die gespeicherten Videodaten Videodaten mit einer ersten Qualität und Videodaten mit einer zweiten Qualität umfassen, wobei die erste Qualität das Auftreten des interessierenden Ereignisses, das von der Videoanalytik detektiert wird, im Blickfeld darstellt und die zweite Qualität das Nicht-Auftreten des interessierenden Ereignisses, das von der Videoanalytik detektiert wird, im Blickfeld darstellt.
  2. Verfahren nach Anspruch 1, wobei das Speichern der Videodaten, die das Blickfeld darstellen, die selektive Speicherung der Videodaten mit der ersten Qualität und der Videodaten mit der zweiten Qualität umfasst, wenn die Videoanalytik das Auftreten des interessierenden Ereignisses detektiert.
  3. Verfahren nach Anspruch 1, wobei das Speichern der Videodaten, die das Blickfeld darstellen, wenn die Videoanalytik das Nicht-Auftreten des interessierenden Ereignisses detektiert, das Speichern der Videodaten mit der zweiten Qualität, und wenn die Videoanalytik das Auftreten des interessierenden Ereignisses detektiert, das Speichern der Videodaten mit der ersten Qualität und der Videodaten mit der zweiten Qualität umfasst.
  4. Verfahren nach Anspruch 1, wobei das interessierende Ereignis ein erstes interessierendes Ereignis darstellt, wobei das Nicht-Auftreten des ersten interessierenden Ereignisses ein zweites interessierendes Ereignis umfasst, und wobei die Speicherung der Videodaten, die das Blickfeld darstellen, das Speichern der Videodaten in Reaktion auf die Detektion der Vorkommnisse des ersten und des zweiten interessierenden Ereignisses durch den Videobildprozessor umfasst.
  5. Verfahren nach Anspruch 1, wobei die Videodaten mit der ersten Qualität ein höheres Qualitätsniveau aufweisen als jenes der Videodaten mit der zweiten Qualität.
  6. Verfahren nach Anspruch 1, wobei das Netzwerk-Kommunikationssystem eine entfernte Speichereinheit zur Archivspeicherung von Videodaten umfasst, und welches ferner das Liefern der Videodaten mit der ersten Qualität von der Videokamera zur entfernten Speichereinheit umfasst.
  7. Verfahren nach Anspruch 6, wobei die Videokamera eine erste Videokamera des Netzwerk-Kommunikationssystems bildet und das Netzwerk-Kommunikationssystem ferner eine zweite Videokamera umfasst, die die entfernte Speichereinheit enthält.
  8. Verfahren nach Anspruch 1, wobei das Netzwerk-Kommunikationssystem eine zentrale Überwachungsstation umfasst, und das ferner das Senden eines Alarms von der Videokamera zur zentralen Überwachungsstation in Reaktion auf die Detektion eines Vorkommnisses des interessierenden Ereignisses durch die Videoanalytik umfasst.
  9. Verfahren nach Anspruch 1, wobei das Netzwerk-Kommunikationssystem eine zentrale Überwachungsstation umfasst, und welches ferner in Reaktion auf die Detektion eines Vorkommnisses des interessierenden Ereignisses durch die Videoanalytik das Liefern einer Videoclipdatei, die das interessierende Ereignis darstellt, von der Videokamera zur zentralen Überwachungsstation umfasst.
  10. Verfahren nach Anspruch 1, das ferner das Verschlüsseln von mindestens einigen der in der Massenspeichereinheit gespeicherten Videodaten umfasst, um eine unberechtigte Wiedergabe zu verhindern.
  11. Verfahren nach Anspruch 1, wobei das Auftreten und Nicht-Auftreten des interessierenden Ereignisses zwei Ereignisse von mehreren interessierenden Ereignissen darstellen, und das ferner umfasst: Definieren von mehreren Inhaltssicherheitsniveaus, wobei ein oder mehrere der mehreren Inhaltssicherheitsniveaus jedem der mehreren interessierenden Ereignisse zugeordnet werden; und Zuweisen von einem oder mehreren Benutzersicherheitsniveaus zu jedem Benutzer des Netzwerk-Kommunikationssystems, wobei jedes Benutzersicherheitsniveau einem oder mehreren der Inhaltssicherheitsniveaus entspricht, so dass ein Benutzer auf ein Segment von Videodaten zugreifen kann, die ein interessierendes Ereignis darstellen, wenn ein Inhaltssicherheitsniveau, das dem interessierenden Ereignis zugeordnet ist, einem Benutzersicherheitsniveau entspricht, das dem Benutzer zugewiesen ist.
  12. Verfahren nach Anspruch 1, wobei das Auftreten und Nicht-Auftreten des interessierenden Ereignisses zwei Ereignisse von mehreren Ereignissen darstellen, und welches ferner umfasst: Definieren von mehreren Videodaten-Rückhalterichtlinien auf der Basis der mehreren interessierenden Ereignisse, so dass bestimmte oder Kombinationen der mehreren interessierenden Ereignisse in der Massenspeichereinheit für entsprechende Zeitlängen zurückgehalten werden.
  13. Verfahren nach Anspruch 1, wobei das interessierende Ereignis eine Bewegung umfasst, die innerhalb des Blickfeldes der Videokamera detektiert wird.
  14. Verfahren nach Anspruch 1, wobei das interessierende Ereignis eine Bewegung eines Flecks umfasst, die innerhalb des Blickfeldes der Videokamera detektiert wird.
  15. Verfahren nach Anspruch 1, wobei das interessierende Ereignis die Erkennung eines vordefinierten Objekts und die Verfolgung der Bewegung des vordefinierten Objekts umfasst.
  16. Verfahren nach Anspruch 15, wobei die Videoanalytik eine geometrische Kalibrierung verwendet, um das Objekt zu erkennen, wenn sich das Objekt zu verschiedenen Teilen des Blickfeldes bewegt.
  17. Verfahren nach Anspruch 1, wobei die Videoanalytik Beleuchtungs- und Szenenwechsel kompensiert, um genau zu detektieren, ob das interessierende Ereignis erfasst wird.
  18. Verfahren nach Anspruch 1, wobei die Videodaten kontinuierlich mit einer zweiten Bitrate codiert werden und mit einer ersten Bitrate und mit der zweiten Bitrate gleichzeitig codiert werden, wenn das interessierende Ereignis detektiert wird.
  19. Verfahren nach Anspruch 1, wobei die Massenspeichereinheit einen Festplattenlaufwerksspeicher umfasst, wobei die Videokamera ferner mit einem Halbleiterspeicher versehen ist, der als Speicherpuffer für die durch die Videokamera erzeugten Videodaten fungiert, und das ferner umfasst: Betreiben des Festplattenlaufwerksspeichers normalerweise in einem heruntergefahrenen Zustand; Speichern der Videodaten im Speicherpuffer, wenn die Videodaten von der Videokamera erzeugt werden, wobei das Speichern der Videodaten im Speicherpuffer während eines ersten Zeitintervalls stattfindet; Bewirken, dass der Festplattenlaufwerksspeicher in einem hochgefahrenen Zustand arbeitet; Übertragen eines Teils der im Speicherpuffer gespeicherten Videodaten zum Festplattenlaufwerksspeicher im hochgefahrenen Zustand und Speichern desselben darin, wobei das Speichern des Teils der Videodaten im Festplattenlaufwerksspeicher während eines zweiten Zeitintervalls stattfindet, das wesentlich kürzer ist als das erste Zeitintervall; Zurückführen des Festplattenlaufwerksspeichers in den heruntergefahrenen Zustand nach der Vollendung der Übertragung der Videodaten; und wobei für eine gesamte Festplattenlaufwerksspeicherzeit, die eine Summe der zweiten Zeitintervalle darstellt, und eine gesamte Pufferspeicherzeit, die eine Summe der ersten Zeitintervalle darstellt, über eine Betriebslebensdauer des Festplattenlaufwerksspeichers, die gesamte Festplattenlaufwerksspeicherzeit, die für das Übertragen eines Teils der Videodaten zum Festplattenlaufwerksspeicher und Speichern desselben darin aufgewendet wird, wesentlich kürzer ist als die gesamte Pufferspeicherzeit, die für das Speichern der Videodaten im Speicherpuffer aufgewendet wird.
  20. Verfahren zum Verringern von Videodaten-Speicher- und Netzwerkbandbreiten-Anforderungen eines verteilten Netzwerk-Videoüberwachungssystems, das Netzwerk-Kommunikationspfade zwischen Netzwerk-Videoabbildungsvorrichtungen und Netzwerk-Videodatenspeichern umfasst, wobei die Netzwerk-Videoabbildungsvorrichtungen Videodaten erzeugen, die Blickfelder von durch die Videoabbildungsvorrichtungen beobachteten Szenen darstellen, und die Netzwerk-Videodatenspeicher Videoinformationen speichern, die den von den Netzwerk-Videoabbildungsvorrichtungen erzeugten Videodaten entsprechen, das umfasst: Zuordnen eines inhaltsbewussten Videodatenspeichersystems, das zur selektiven Speicherung von Videodaten in der Lage ist, die durch seine zugehörige Netzwerk-Videoabbildungsvorrichtung erzeugt werden, zu jeder von mehreren der Netzwerk-Videoabbildungsvorrichtungen, wobei das inhaltsbewusste Videodatenspeichersystem eine Videoanalytik, die den Inhalt der Videodaten analysiert, und lokale Videodatenspeicher, die Teile der Videodaten in Reaktion auf die Analyse durch die Videoanalytik speichern, umfasst; und Liefern von Videodaten, die den Teilen von Videodaten entsprechen, die in den lokalen Videodatenspeichern gespeichert sind, vom inhaltsbewussten Videodatenspeichersystem von jeder der mehreren Netzwerk-Videoabbildungsvorrichtungen über die NetzwerkKommunikationspfade zu den Netzwerk-Videodatenspeichern, um eine verwaltete Menge von Videodaten bereitzustellen, die mit einem festgelegten Qualitätsniveau die Blickfelder der Szenen darstellen, wobei die verwaltete Menge der Videodaten beträchtlich weniger Netzwerkbandbreite und weniger Datenspeicherbetriebsmittel verbraucht als jene, die durch die Lieferung der Videodaten, die durch die Netzwerk-Videoabbildungsvorrichtungen erzeugt werden, mit dem festgelegten Qualitätsniveau und bei Abwesenheit einer Analyse durch die Videoanalytik zu den Netzwerk-Videospeichern verbraucht werden würden.
  21. Verfahren nach Anspruch 20, wobei jede der Netzwerk-Videoabbildungsvorrichtungen ein Gehäuse umfasst und das inhaltsbewusste Videodatenspeichersystem, das zu jener Netzwerk-Videoabbildungsvorrichtung gehört, innerhalb des Gehäuses enthalten ist oder ein Teil davon ist.
  22. Verfahren zum Verlängern der Betriebslebensdauer eines Festplattenlaufwerksspeichers, während er in Videodaten-Speicheranwendungen in Gebrauch ist, welches umfasst: Bereitstellen eines Halbleiterspeichers, der als Speicherpuffer für Videodaten fungiert, die von einer Videokamera erzeugt werden, wobei die Videodaten eine durch die Videokamera beobachtete Szene darstellen; Vorsehen eines Festplattenlaufwerksspeichers, der normalerweise in einem heruntergefahrenen Zustand arbeitet; Speichern der Videodaten im Speicherpuffer, wenn die Videodaten durch die Videokamera erzeugt werden, wobei das Speichern der Videodaten im Speicherpuffer während eines ersten Zeitintervalls stattfindet; Bewirken, dass der Festplattenlaufwerksspeicher in einem hochgefahrenen Zustand arbeitet; Übertragen eines Teils der im Speicherpuffer gespeicherten Videodaten zum Festplattenlaufwerksspeicher im hochgefahrenen Zustand und Speichern desselben darin, wobei das Speichern des Teils der Videodaten im Festplattenlaufwerksspeicher während eines zweiten Zeitintervalls stattfindet, das wesentlich kürzer ist als das erste Zeitintervall; Zurückführen des Festplattenlaufwerksspeichers in den heruntergefahrenen Zustand nach der Vollendung der Übertragung der Videodaten; und wobei für eine gesamte Festplattenlaufwerksspeicherzeit, die eine Summe der zweiten Zeitintervalle darstellt, und eine gesamte Pufferspeicherzeit, die eine Summe der ersten Zeitintervalle darstellt, über eine Betriebslebensdauer des Festplattenlaufwerksspeichers, die gesamte Festplattenlaufwerksspeicherzeit, die für die Übertragung eines Teils der Videodaten im Festplattenlaufwerksspeicher und das Speichern darin aufgewendet wird, wesentlich kürzer ist als die gesamte Pufferspeicherzeit, die für das Speichern der Videodaten im Speicherpuffer aufgewendet wird.
  23. Verfahren nach Anspruch 22, wobei der Festplattenlaufwerksspeicher einen Lese/Schreib-Kopf umfasst und wobei der hochgefahrene Zustand bei der Aktivierung des Lese/Schreib-Kopfs hergestellt wird und der heruntergefahrene Zustand bei der Nicht-Aktivierung des Lese/Schreib-Kopfs hergestellt wird.
  24. Verfahren nach Anspruch 22, wobei der Festplattenlaufwerksspeicher eine Speicherplatte umfasst und wobei der hochgefahrene Zustand bei einer Drehbewegung der Speicherplatte hergestellt wird und der heruntergefahrene Zustand bei einer Nicht-Drehbewegung der Speicherplatte hergestellt wird.
  25. Verfahren nach Anspruch 22, wobei die Videospeicheranwendungen Videoüberwachung umfassen und wobei die Speicherung von Videodaten im Speicherpuffer und die Übertragung eines Teils der Videodaten zum Festplattenspeicher und die Speicherung desselben darin koordiniert werden, um eine Unterbrechung in der Speicherung der Videodaten, die durch die Videokamera während ihres Betriebs in der Überwachungsanwendung erzeugt werden, zu verhindern.
  26. Verfahren nach Anspruch 22, wobei der Speicherpuffer einen Halbleiter-NAND-Flash-Speicher umfasst.
  27. Verfahren nach Anspruch 22, wobei der Speicherpuffer einen Halbleiter-RAM umfasst und wobei eine sekundäre Leistungsversorgung vorgesehen ist, um den Halbleiter-RAM zu speisen, wenn der Halbleiter-RAM einen Leistungsverlust einer primären Leistungsquelle erleidet.
  28. Verfahren nach Anspruch 22, wobei die Videokamera ein Kameragehäuse umfasst und wobei der Festplattenlaufwerksspeicher in dem Kameragehäuse enthalten ist oder einen Teil davon bildet.
  29. Verfahren nach Anspruch 22, wobei die Videokamera eine Videoanalytik umfasst, die im Kameragehäuse enthalten ist oder einen Teil davon bildet, wobei die Videoanalytik eine Analyse der Videodaten durchführt, so dass ein vorbestimmtes interessierendes Ereignis detektiert wird.
  30. Verfahren nach Anspruch 22, das ferner einen Videoserver mit einem Servergehäuse umfasst, der der Videokamera wirksam zugeordnet ist, um die Videodaten zu erzeugen, die zum Speicherpuffer geliefert werden, und wobei der Festplattenlaufwerksspeicher im Servergehäuse enthalten ist oder einen Teil davon bildet.
  31. Verfahren nach Anspruch 22, wobei die Videokamera eine von mehreren Videokameras eines vernetzten Kamerasystems ist und wobei der Festplattenlaufwerksspeicher einer von mehreren Festplattenlaufwerksspeichern ist, die den mehreren Videokameras der vernetzten Kamerasysteme zugeordnet sind.
  32. Verfahren nach Anspruch 31, wobei der Speicherpuffer einer von mehreren Speicherpuffern ist, die zu den mehreren Videokameras gehören, und die mehreren Videokameras eine erste und eine zweite Videokamera umfassen, und wobei die Videodaten, die im Speicherpuffer gespeichert werden, der zur ersten Videokamera gehört, zum Festplattenlaufwerksspeicher, der zur zweiten Videokamera gehört, übertragen werden und darin gespeichert werden.
  33. Verfahren nach Anspruch 22, wobei die Videokamera eine von mehreren Videokameras eines vernetzten Kamerasystems ist und wobei die durch jede der mehreren Videokameras erzeugten Videodaten im Speicherpuffer während des ersten Zeitintervalls und im Festplattenlaufwerksspeicher während des zweiten Zeitintervalls gespeichert werden.
  34. Verfahren nach Anspruch 22, wobei ein Sensor und die Videokamera, der Speicherpuffer und der Festplattenlaufwerksspeicher in einem Fahrzeug vorgesehen sind, und wobei das zweite Zeitintervall einer Zeit entspricht, in der der Sensor erfasst, dass das Fahrzeug stationär ist.
  35. Verfahren nach Anspruch 34, wobei die Videokamera eine von mehreren Videokameras ist, die im Fahrzeug vorgesehen sind, und die durch jede der mehreren Videokameras erzeugten Videodaten im Speicherpuffer während des ersten Zeitintervalls und im Festplattenlaufwerksspeicher während des zweiten Zeitintervalls gespeichert werden.
  36. Verfahren nach Anspruch 34, wobei die Videokamera eine von mehreren Videokameras ist, die im Fahrzeug vorgesehen sind, und der Speicherpuffer einer von mehreren Speicherpuffern ist, die im Fahrzeug vorgesehen sind, wobei jeder der mehreren Speicherpuffer zu einer oder mehreren der mehreren Videokameras gehört, und wobei der Teil der Videodaten, die in jedem der mehreren Speicherpuffer gespeichert sind, während des zweiten Zeitintervalls zum Festplattenlaufwerksspeicher übertragen und darin gespeichert werden.
DE112009000481.4T 2008-03-03 2009-03-02 Inhaltsbewusste Speicherung von Videodaten Active DE112009000481B4 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US3329008P 2008-03-03 2008-03-03
US61/033,290 2008-03-03
US12/105,893 2008-04-18
US12/105,893 US8427552B2 (en) 2008-03-03 2008-04-18 Extending the operational lifetime of a hard-disk drive used in video data storage applications
US12/105,871 2008-04-18
US12/105,871 US8872940B2 (en) 2008-03-03 2008-04-18 Content aware storage of video data
PCT/US2009/035666 WO2009111377A1 (en) 2008-03-03 2009-03-02 Content aware storage of video data

Publications (2)

Publication Number Publication Date
DE112009000481T5 true DE112009000481T5 (de) 2011-04-28
DE112009000481B4 DE112009000481B4 (de) 2017-06-14

Family

ID=41012886

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112009005545.1T Active DE112009005545B3 (de) 2008-03-03 2009-03-02 Inhaltsbewusste Speicherung von Videodaten
DE112009000481.4T Active DE112009000481B4 (de) 2008-03-03 2009-03-02 Inhaltsbewusste Speicherung von Videodaten

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112009005545.1T Active DE112009005545B3 (de) 2008-03-03 2009-03-02 Inhaltsbewusste Speicherung von Videodaten

Country Status (7)

Country Link
US (4) US8872940B2 (de)
KR (2) KR101651472B1 (de)
CN (3) CN102843538B (de)
DE (2) DE112009005545B3 (de)
GB (2) GB2470677B (de)
TW (2) TWI530193B (de)
WO (1) WO2009111377A1 (de)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020046061A1 (en) 2000-02-11 2002-04-18 Wright Kenneth L. Personal information system
US20080303903A1 (en) * 2003-12-02 2008-12-11 Connexed Technologies Inc. Networked video surveillance system
US8232860B2 (en) 2005-10-21 2012-07-31 Honeywell International Inc. RFID reader for facility access control and authorization
EP2023812B1 (de) 2006-05-19 2016-01-27 The Queen's Medical Center Bewegungsverfolgungssystem für adaptive echtzeitabbildung und -spektroskopie
TW200924534A (en) * 2007-06-04 2009-06-01 Objectvideo Inc Intelligent video network protocol
CN101472146B (zh) * 2007-12-28 2010-11-10 鸿富锦精密工业(深圳)有限公司 视频监控系统及方法
GB2492246B (en) 2008-03-03 2013-04-10 Videoiq Inc Dynamic object classification
US10354689B2 (en) 2008-04-06 2019-07-16 Taser International, Inc. Systems and methods for event recorder logging
US8128503B1 (en) * 2008-05-29 2012-03-06 Livestream LLC Systems, methods and computer software for live video/audio broadcasting
JP4603603B2 (ja) * 2008-07-24 2010-12-22 株式会社日立国際電気 録画転送装置
EP2329424B1 (de) 2008-08-22 2016-12-07 Datcard Systems, Inc. System und verfahren zur verschlüsselung für dicom-volumen
US9141862B2 (en) * 2008-09-26 2015-09-22 Harris Corporation Unattended surveillance device and associated methods
CN102171670A (zh) * 2008-09-30 2011-08-31 惠普开发有限公司 基于nas的多媒体文件分发服务
US8788519B2 (en) 2008-10-24 2014-07-22 John C. Canessa System and methods for metadata management in content addressable storage
JP5203912B2 (ja) 2008-12-12 2013-06-05 キヤノン株式会社 撮像装置及びその制御方法
US8780198B2 (en) * 2009-02-26 2014-07-15 Tko Enterprises, Inc. Image processing sensor systems
US9740921B2 (en) 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
US9277878B2 (en) * 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
EP2408984B1 (de) 2009-03-19 2019-11-27 Honeywell International Inc. Systeme und verfahren zur verwaltung von zugangssteuerungsvorrichtungen
DE102009021974A1 (de) 2009-05-19 2011-03-03 Mobotix Ag Digitale Videokamera
US20120106915A1 (en) * 2009-07-08 2012-05-03 Honeywell International Inc. Systems and methods for managing video data
JP5390322B2 (ja) * 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
WO2011041903A1 (en) * 2009-10-07 2011-04-14 Telewatch Inc. Video analytics with pre-processing at the source end
US9420250B2 (en) * 2009-10-07 2016-08-16 Robert Laganiere Video analytics method and system
US20110113461A1 (en) * 2009-10-07 2011-05-12 Robert Laganiere Video analytics based control of video data storage
US20110102442A1 (en) * 2009-11-04 2011-05-05 Ahmed Rafeek Bin Ahmad Ibrahim Recording Contents of Display Screens
DE102009047365A1 (de) * 2009-12-01 2011-06-09 Robert Bosch Gmbh Verfahren zum Betreiben einer Aufzeichnungsanordnung
JP5424852B2 (ja) * 2009-12-17 2014-02-26 キヤノン株式会社 映像情報処理方法及びその装置
US9280365B2 (en) * 2009-12-17 2016-03-08 Honeywell International Inc. Systems and methods for managing configuration data at disconnected remote devices
US20110169950A1 (en) * 2010-01-12 2011-07-14 Liberty Imaging LLC Architecture for wireless communication and monitoring
US8503539B2 (en) 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
US8930470B2 (en) 2010-04-23 2015-01-06 Datcard Systems, Inc. Event notification in interconnected content-addressable storage systems
US9143739B2 (en) * 2010-05-07 2015-09-22 Iwatchlife, Inc. Video analytics with burst-like transmission of video data
US8830327B2 (en) * 2010-05-13 2014-09-09 Honeywell International Inc. Surveillance system with direct database server storage
US9047531B2 (en) 2010-05-21 2015-06-02 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US8600167B2 (en) 2010-05-21 2013-12-03 Hand Held Products, Inc. System for capturing a document in an image signal
CA2748065A1 (en) 2010-08-04 2012-02-04 Iwatchlife Inc. Method and system for locating an individual
CA2748059A1 (en) 2010-08-04 2012-02-04 Iwatchlife Inc. Method and system for initiating communication via a communication network
CA2748060A1 (en) 2010-08-04 2012-02-04 Iwatchlife Inc. Method and system for making video calls
US20120057640A1 (en) * 2010-09-02 2012-03-08 Fang Shi Video Analytics for Security Systems and Methods
CN102726042B (zh) * 2010-09-02 2016-04-27 英特赛尔美国有限公司 视频处理系统和视频解码系统
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
JPWO2012060105A1 (ja) * 2010-11-05 2014-05-12 日本電気株式会社 情報処理装置
JP5693162B2 (ja) * 2010-11-09 2015-04-01 キヤノン株式会社 画像処理システム、撮像装置、画像処理装置及びそれらの制御方法、プログラム
US8787725B2 (en) 2010-11-11 2014-07-22 Honeywell International Inc. Systems and methods for managing video data
US8902970B1 (en) * 2010-12-01 2014-12-02 Amazon Technologies, Inc. Altering streaming video encoding based on user attention
DE102010053181A1 (de) 2010-12-03 2012-06-06 Mobotix Ag Überwachungskameraanordnung
WO2012078898A2 (en) 2010-12-10 2012-06-14 Datcard Systems, Inc. Secure portable medical information access systems and methods related thereto
DE102011003392A1 (de) * 2011-01-31 2012-08-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Videoaufnahmesystem und Verfahren zur Videoaufnahme
US8628016B2 (en) 2011-06-17 2014-01-14 Hand Held Products, Inc. Terminal operative for storing frame of image data
EP2538672B1 (de) * 2011-06-21 2020-08-12 Axis AB Verfahren zur Konfiguration von vernetzten Kameras
US9894261B2 (en) 2011-06-24 2018-02-13 Honeywell International Inc. Systems and methods for presenting digital video management system information via a user-customizable hierarchical tree interface
US10362273B2 (en) 2011-08-05 2019-07-23 Honeywell International Inc. Systems and methods for managing video data
US9344684B2 (en) 2011-08-05 2016-05-17 Honeywell International Inc. Systems and methods configured to enable content sharing between client terminals of a digital video management system
WO2013020165A2 (en) 2011-08-05 2013-02-14 HONEYWELL INTERNATIONAL INC. Attn: Patent Services Systems and methods for managing video data
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
KR101668930B1 (ko) * 2011-11-14 2016-10-24 인텔 코포레이션 비디오 분석 인코딩
EP2783324A4 (de) * 2011-11-22 2015-09-09 Schneider Electric Buildings Zugangssteuerungsverfahren und -system mit einem intelligenten optischen sensor
US10769913B2 (en) 2011-12-22 2020-09-08 Pelco, Inc. Cloud-based video surveillance management system
EP2826020A4 (de) * 2012-03-15 2016-06-15 Behavioral Recognition Sys Inc Alarmlautstärkennormalisierung in einem videoüberwachungssystem
KR101152315B1 (ko) * 2012-03-19 2012-06-11 (주)리얼허브 네트워크 감시 카메라용 서버 가상화 방법
WO2014057496A2 (en) * 2012-03-26 2014-04-17 Tata Consultancy Services Limited An event triggered location based participatory surveillance
WO2013147908A1 (en) * 2012-03-31 2013-10-03 Intel Corporation Methods and systems for cryptographic access control of video
KR101366502B1 (ko) * 2012-04-23 2014-03-10 주식회사 아이디스 Nvr 장치의 ip 카메라 자동 연결 설정 시스템
CA2822217A1 (en) 2012-08-02 2014-02-02 Iwatchlife Inc. Method and system for anonymous video analytics processing
CN103634552A (zh) * 2012-08-28 2014-03-12 华为技术有限公司 一种监控视频存储方法、系统和中心管理服务器
EP2720172A1 (de) * 2012-10-12 2014-04-16 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Videozugangssystem und Verfahren basierend auf der Erkennung der Aktionsart
EP2915038A4 (de) 2012-10-31 2016-06-29 Outward Inc Lieferung von virtualisierten inhalten
US10462499B2 (en) 2012-10-31 2019-10-29 Outward, Inc. Rendering a modeled scene
US9197861B2 (en) 2012-11-15 2015-11-24 Avo Usa Holding 2 Corporation Multi-dimensional virtual beam detection for video analytics
US9210385B2 (en) * 2012-11-20 2015-12-08 Pelco, Inc. Method and system for metadata extraction from master-slave cameras tracking system
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US20140218515A1 (en) * 2013-02-04 2014-08-07 Systems Engineering Technologies Corporation Immediate action system
US9933921B2 (en) * 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
US20140300758A1 (en) * 2013-04-04 2014-10-09 Bao Tran Video processing systems and methods
US9792951B2 (en) 2013-05-08 2017-10-17 Vieu Labs, Inc. Systems and methods for identifying potentially interesting events in extended recordings
KR20150000230A (ko) * 2013-06-24 2015-01-02 한국전자통신연구원 네트워크 카메라 분산 시스템 및 방법
US9392099B2 (en) * 2013-06-24 2016-07-12 Cellco Partnership Mobile surveillance system
US9742627B2 (en) 2013-06-25 2017-08-22 Idis Co., Ltd. System for automatic connection between NVR and IP camera
US9779480B2 (en) 2013-07-19 2017-10-03 Google Technology Holdings LLC View-driven consumption of frameless media
US9589597B2 (en) 2013-07-19 2017-03-07 Google Technology Holdings LLC Small-screen movie-watching using a viewport
JP6327816B2 (ja) * 2013-09-13 2018-05-23 キヤノン株式会社 送信装置、受信装置、送受信システム、送信装置の制御方法、受信装置の制御方法、送受信システムの制御方法、及びプログラム
US20150082030A1 (en) * 2013-09-18 2015-03-19 Sheng-Fu Chang Security Mechanism for Video Storage System
DE102013110307A1 (de) * 2013-09-18 2015-03-19 Sheng-Fu Chang Sicherheitsmechanismus für ein Videospeichersystem
DE102013110306A1 (de) * 2013-09-18 2015-03-19 Sheng-Fu Chang Videospeichersystem
WO2015061803A1 (en) * 2013-10-25 2015-04-30 Outward, Inc. Rendering a modeled scene
US10523903B2 (en) 2013-10-30 2019-12-31 Honeywell International Inc. Computer implemented systems frameworks and methods configured for enabling review of incident data
US20150130936A1 (en) * 2013-11-08 2015-05-14 Dow Agrosciences Llc Crop monitoring system
DE102013019604B4 (de) * 2013-11-25 2018-06-14 Smart Mobile Labs Gmbh System aus einer Mehrzahl an Kameras und einem Zentralserver sowie Verfahren zum Betrieb des Systems
US10491936B2 (en) 2013-12-18 2019-11-26 Pelco, Inc. Sharing video in a cloud video service
FR3010606A1 (fr) * 2013-12-27 2015-03-13 Thomson Licensing Procede de synchronisation de metadonnees avec un document audiovisuel en utilisant des parties de trames et dispositif de production de telles metadonnees
US20150243325A1 (en) * 2014-02-24 2015-08-27 Lyve Minds, Inc. Automatic generation of compilation videos
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9888266B2 (en) 2014-04-22 2018-02-06 Vivint, Inc. Pushing video to panels and sending metadata tag to cloud
CL2014001085A1 (es) * 2014-04-25 2015-03-27 Cardenas Luis Fernando Alarcon Metodo y sistema de control de un sitio de trabajo, que permite analizar y gestionar las condiciones de trabajo, en que el metodo comprende registrar acciones de trabajo empleando medio de captura, almacenar la informacion en base de datos, consultar informacion almacenada, analizarla clasificando de acuerdo a categorias predefinidas, enlazar informacion y analizar en relacion a categorias, ubicacion temporal y/o eventual, permitir visualizacion de analisis e informacion
US10306125B2 (en) 2014-10-09 2019-05-28 Belkin International, Inc. Video camera with privacy
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9179105B1 (en) * 2014-09-15 2015-11-03 Belkin International, Inc. Control of video camera with privacy feedback
WO2016064893A1 (en) 2014-10-20 2016-04-28 Taser International, Inc. Systems and methods for distributed control
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
US9996749B2 (en) * 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US10192277B2 (en) 2015-07-14 2019-01-29 Axon Enterprise, Inc. Systems and methods for generating an audit trail for auditable devices
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US9769367B2 (en) 2015-08-07 2017-09-19 Google Inc. Speech and computer vision-based control
US9774816B2 (en) * 2015-11-06 2017-09-26 At&T Intellectual Property I, L.P. Methods and apparatus to manage audiovisual recording in a connected vehicle
TWI571804B (zh) * 2015-11-20 2017-02-21 晶睿通訊股份有限公司 可預覽畫面之視訊檔案回放系統及其方法與電腦程式產品
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9836484B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
US9838641B1 (en) 2015-12-30 2017-12-05 Google Llc Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US9836819B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US20170230637A1 (en) * 2016-02-07 2017-08-10 Google Inc. Multiple camera computing system having camera-to-camera communications link
US10133639B2 (en) 2016-02-10 2018-11-20 International Business Machines Corporation Privacy protection of media files for automatic cloud backup systems
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US20170280102A1 (en) * 2016-03-22 2017-09-28 Sensormatic Electronics, LLC Method and system for pooled local storage by surveillance cameras
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
JP6751620B2 (ja) * 2016-08-05 2020-09-09 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR102536518B1 (ko) 2016-09-13 2023-05-24 한화비전 주식회사 저장장치 리빌드 중 녹화가 가능한 감시 카메라 시스템 및 방법
CN107025066A (zh) 2016-09-14 2017-08-08 阿里巴巴集团控股有限公司 在基于闪存的存储介质中写入存储数据的方法和装置
RU2632473C1 (ru) * 2016-09-30 2017-10-05 ООО "Ай Ти Ви групп" Способ обмена данными между ip видеокамерой и сервером (варианты)
WO2018080650A2 (en) * 2016-10-25 2018-05-03 725-1 Corporation Video-based data collection, image capture and analysis configuration
US10354163B2 (en) 2017-06-19 2019-07-16 Honeywell International Inc. Enhanced computer vision using object location information
US10321160B2 (en) 2017-07-13 2019-06-11 International Business Machines Corporation Compressing multiple video files using localized camera meta data
CN116112640A (zh) * 2017-10-18 2023-05-12 北京京东尚科信息技术有限公司 信息传输方法、装置和系统
US20190347915A1 (en) * 2018-05-11 2019-11-14 Ching-Ming Lai Large-scale Video Monitoring and Recording System
RU182656U1 (ru) * 2018-05-29 2018-08-28 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Телекамера для формирования панорамного видеоизображения и распознавания объектов на нем
RU2686154C1 (ru) * 2018-05-29 2019-04-24 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Телекамера и способ для формирования панорамного видеоизображения и распознавания объектов на нем
RU2682315C1 (ru) * 2018-06-19 2019-03-19 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ видеосъемки телекамерой, установленной на наклонно-поворотной платформе
KR102002360B1 (ko) * 2018-09-17 2019-07-23 국방과학연구소 영상 처리용 NoSQL 데이터베이스 구축 방법 및 장치
MY194748A (en) * 2018-12-21 2022-12-15 Mimos Berhad A system and method for video surveillance and monitoring
US11176269B2 (en) 2019-03-08 2021-11-16 International Business Machines Corporation Access control of specific encrypted data segment
US11531701B2 (en) * 2019-04-03 2022-12-20 Samsung Electronics Co., Ltd. Electronic device and control method thereof
CN111428080B (zh) * 2019-04-25 2024-02-27 杭州海康威视数字技术股份有限公司 录像文件的存储方法、搜索方法及装置
US11194789B2 (en) * 2019-06-07 2021-12-07 Sap Se Content agnostic memory pageable storage model
CN111107272A (zh) * 2020-01-02 2020-05-05 广州高博软件科技有限公司 多媒体视频流总结系统及流程
WO2021255635A1 (en) * 2020-06-15 2021-12-23 Cron Systems Pvt. Ltd. System and method for capturing an event of random occurrence and length from a stream of continuous input data
KR20220003376A (ko) 2020-07-01 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 장치
US11558740B2 (en) * 2020-09-23 2023-01-17 T-Mobile Usa, Inc. Dynamic encryption for scheduled message delivery
WO2023018895A1 (en) * 2021-08-11 2023-02-16 Edge AI, LLC Body or car mounted camera system
US11682214B2 (en) 2021-10-05 2023-06-20 Motorola Solutions, Inc. Method, system and computer program product for reducing learning time for a newly installed camera
US20230336625A1 (en) * 2022-04-15 2023-10-19 Arcus Holding A/S Location based video data transmission
CN116506664B (zh) * 2023-06-25 2023-09-15 北京淳中科技股份有限公司 一种视频码流生成方法、装置、电子设备及介质

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289275A (en) * 1991-07-12 1994-02-22 Hochiki Kabushiki Kaisha Surveillance monitor system using image processing for monitoring fires and thefts
EP0752783B1 (de) * 1991-11-21 2003-04-02 Canon Kabushiki Kaisha Informationssignalverarbeitungsvorrichtung
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
US6954859B1 (en) * 1999-10-08 2005-10-11 Axcess, Inc. Networked digital security system and methods
AU3201101A (en) * 2000-02-07 2001-08-14 Intelligent Security Limited Smoke and flame detection
JP2003524340A (ja) * 2000-02-24 2003-08-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 伝送システム
US7468682B2 (en) * 2000-05-18 2008-12-23 Echo Mobile Music Llp Portable recorder/players with power-saving buffers
US7574272B2 (en) * 2000-10-13 2009-08-11 Eric Paul Gibbs System and method for data transfer optimization in a portable audio device
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
GB0028162D0 (en) * 2000-11-20 2001-01-03 Sentec Ltd Distributed image processing technology and services
GB0029880D0 (en) * 2000-12-07 2001-01-24 Sony Uk Ltd Video and audio information processing
JP4536299B2 (ja) * 2001-08-29 2010-09-01 パナソニック株式会社 イベント映像記録・再生システム、イベント管理装置、およびローカル記録装置
KR100471927B1 (ko) * 2001-10-08 2005-03-08 학교법인 한국정보통신학원 웹 기반 영상 데이터 검색 시스템 및 그 방법
US20060165386A1 (en) 2002-01-08 2006-07-27 Cernium, Inc. Object selective video recording
US6658091B1 (en) * 2002-02-01 2003-12-02 @Security Broadband Corp. LIfestyle multimedia security system
US7327396B2 (en) * 2002-04-10 2008-02-05 National Instruments Corporation Smart camera with a plurality of slots for modular expansion capability through a variety of function modules connected to the smart camera
KR20050003451A (ko) * 2002-05-14 2005-01-10 코닌클리케 필립스 일렉트로닉스 엔.브이. 하드 디스크 드라이브 시스템, 이러한 시스템을 사용하는방법 및 장치
US7489802B2 (en) * 2002-09-10 2009-02-10 Zeev Smilansky Miniature autonomous agents for scene interpretation
JP2004172780A (ja) * 2002-11-19 2004-06-17 Hitachi Ltd カメラシステム、カメラ装置及び記録装置
KR100489890B1 (ko) * 2002-11-22 2005-05-17 한국전자통신연구원 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법
AU2003303258A1 (en) * 2002-12-20 2004-07-14 Koninklijke Philips Electronics N.V. Power saving method for portable streaming devices
US20040126038A1 (en) * 2002-12-31 2004-07-01 France Telecom Research And Development Llc Method and system for automated annotation and retrieval of remote digital content
US7817716B2 (en) 2003-05-29 2010-10-19 Lsi Corporation Method and/or apparatus for analyzing the content of a surveillance image
GB2404105A (en) 2003-07-03 2005-01-19 Braddahead Ltd Compressing digital images
US7505673B2 (en) * 2003-09-30 2009-03-17 At&T Intellectual Property I, L.P. Video recorder for detection of occurrences
US20060077256A1 (en) * 2003-11-07 2006-04-13 Silvemail William B High resolution pre-event record
DE602004020271D1 (de) * 2003-12-03 2009-05-07 Koninkl Philips Electronics Nv Energiesparverfahren und -system
US7477285B1 (en) 2003-12-12 2009-01-13 Careview Communication, Inc. Non-intrusive data transmission network for use in an enterprise facility and method for implementing
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US20070296817A1 (en) * 2004-07-09 2007-12-27 Touradj Ebrahimi Smart Video Surveillance System Ensuring Privacy
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
KR100677601B1 (ko) * 2004-11-11 2007-02-02 삼성전자주식회사 메타 데이터를 포함하는 영상 데이터를 기록한 저장매체,그 재생장치 및 메타 데이터를 이용한 검색방법
US20060137018A1 (en) 2004-11-29 2006-06-22 Interdigital Technology Corporation Method and apparatus to provide secured surveillance data to authorized entities
JP2006179137A (ja) * 2004-12-24 2006-07-06 Hitachi Ltd 光ディスク装置
US7751632B2 (en) 2005-02-15 2010-07-06 Panasonic Corporation Intelligent, dynamic, long-term digital surveilance media storage system
US20060224875A1 (en) * 2005-03-11 2006-10-05 Choi Young-Joon Portable digital player
US7574039B2 (en) * 2005-03-24 2009-08-11 Honeywell International Inc. Video based fire detection system
JP4601666B2 (ja) * 2005-03-29 2010-12-22 富士通株式会社 映像検索装置
US7982795B2 (en) * 2005-04-11 2011-07-19 Panayotis B. SPATHARIS Image acquisition and exploitation camera system and methods therefore
US8284254B2 (en) * 2005-08-11 2012-10-09 Sightlogix, Inc. Methods and apparatus for a wide area coordinated surveillance system
AU2006294336B2 (en) * 2005-09-23 2012-05-17 Toronto Microelectronics Inc. A data storage device and method
JP4341616B2 (ja) * 2005-12-02 2009-10-07 ソニー株式会社 ネットワークカメラシステムおよびネットワークカメラ制御プログラム
JP4578396B2 (ja) * 2005-12-08 2010-11-10 株式会社日立超エル・エス・アイ・システムズ 情報処理装置
US20070185989A1 (en) * 2006-02-07 2007-08-09 Thomas Grant Corbett Integrated video surveillance system and associated method of use
US8184154B2 (en) * 2006-02-27 2012-05-22 Texas Instruments Incorporated Video surveillance correlating detected moving objects and RF signals
US20070217761A1 (en) 2006-03-07 2007-09-20 Coban Research And Technologies, Inc. Method for video/audio recording using unrestricted pre-event/post-event buffering with multiple bit and frame rates buffer files
JP4847165B2 (ja) * 2006-03-09 2011-12-28 株式会社日立製作所 映像記録再生方法及び映像記録再生装置
US8451329B2 (en) * 2006-08-14 2013-05-28 Honeywell International Inc. PTZ presets control analytics configuration
US7974522B2 (en) * 2006-09-29 2011-07-05 Hibbard Gary D Systems and methods to improve consumer product reliability and lifetime of a hard disk drive by reducing its activity
US8531521B2 (en) * 2006-10-06 2013-09-10 Sightlogix, Inc. Methods and apparatus related to improved surveillance using a smart camera
WO2008057285A2 (en) * 2006-10-27 2008-05-15 Vidient Systems, Inc. An apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera
US20080136934A1 (en) * 2006-12-12 2008-06-12 Industrial Technology Research Institute Flame Detecting Method And Device
CN100474271C (zh) * 2006-12-15 2009-04-01 华为技术有限公司 一种多级缓冲的存储系统和方法
CN101711393A (zh) * 2007-01-16 2010-05-19 Utc消防及保安公司 基于视频的火灾检测的系统和方法
JP2008269048A (ja) * 2007-04-17 2008-11-06 Matsushita Electric Ind Co Ltd 車両用画像記録装置
US7460149B1 (en) * 2007-05-28 2008-12-02 Kd Secure, Llc Video data storage, search, and retrieval using meta-data and attribute data in a video surveillance system
US20080320036A1 (en) * 2007-06-22 2008-12-25 Winter Gentle E Automatic data collection
US8199196B2 (en) 2007-09-27 2012-06-12 Alcatel Lucent Method and apparatus for controlling video streams
US7382244B1 (en) * 2007-10-04 2008-06-03 Kd Secure Video surveillance, storage, and alerting system having network management, hierarchical data storage, video tip processing, and vehicle plate analysis
US8204273B2 (en) * 2007-11-29 2012-06-19 Cernium Corporation Systems and methods for analysis of video content, event notification, and video content provision
US8170280B2 (en) * 2007-12-03 2012-05-01 Digital Smiths, Inc. Integrated systems and methods for video-based object modeling, recognition, and tracking
US8032110B2 (en) * 2008-01-02 2011-10-04 Chung-Yi Kuo Mobile security device
KR101513215B1 (ko) * 2014-03-28 2015-04-17 주식회사 로보티어 객체 행동패턴 cctv 영상 분석서버

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H.264/AVC-Standard

Also Published As

Publication number Publication date
WO2009111377A1 (en) 2009-09-11
KR101651472B1 (ko) 2016-08-29
KR101759921B1 (ko) 2017-07-21
TW201540077A (zh) 2015-10-16
GB201222862D0 (en) 2013-01-30
US20090219411A1 (en) 2009-09-03
US8427552B2 (en) 2013-04-23
CN104079856A (zh) 2014-10-01
TWI575958B (zh) 2017-03-21
KR20160103162A (ko) 2016-08-31
US8872940B2 (en) 2014-10-28
US20110043631A1 (en) 2011-02-24
TWI530193B (zh) 2016-04-11
GB201014671D0 (en) 2010-10-20
CN102843538B (zh) 2016-11-02
TW200948080A (en) 2009-11-16
CN101971609B (zh) 2014-08-06
US20090219639A1 (en) 2009-09-03
DE112009000481B4 (de) 2017-06-14
GB2495030A (en) 2013-03-27
GB2495030B (en) 2013-05-15
US8736701B2 (en) 2014-05-27
GB2470677B (en) 2013-02-27
CN102843538A (zh) 2012-12-26
US20110050947A1 (en) 2011-03-03
DE112009005545B3 (de) 2022-04-28
GB2470677A (en) 2010-12-01
KR20100129736A (ko) 2010-12-09
CN101971609A (zh) 2011-02-09

Similar Documents

Publication Publication Date Title
DE112009000481B4 (de) Inhaltsbewusste Speicherung von Videodaten
US9756294B2 (en) Content-aware computer networking devices with video analytics for reducing video storage and video communication bandwidth requirements of a video surveillance network camera system
DE10214079B4 (de) WEB-Camming und Bandbreitensteuerung auf Grundlage der Bewegungs- und Audioerkennung
US20170163941A1 (en) Video analytics based control of video data storage
DE112019002375T5 (de) Techniken zum verwalten der speicherzuordnung in einer speichervorrichtung zur verbesserung des betriebs einer kameraanwendung
US9143739B2 (en) Video analytics with burst-like transmission of video data
CA2936217A1 (en) Storage management of data streamed from a video source device
DE102013021710A1 (de) Grafik-Dienstleister und Verfahren zur Datenstromübertragung von bilderzeugtem Inhalt über eine entfernte Grafikverarbeitungsdienstleistung
DE112021000193T5 (de) Audioprivatsphärenschutz für überwachungssysteme
DE602004009176T2 (de) Dienstverwaltung durch verwendung mehrerer dienstort-manager
US11012696B2 (en) Reducing an amount of storage used to store surveillance videos
DE102012200417B4 (de) Bilddatenaufzeichnungsvorrichtung
CN114125371A (zh) 在摄像机设备上借助于神经网络输入的通过降低视频的位率以节省带宽的智能间隔拍摄视频
DE102012201530A1 (de) Cachevorrichtung zum zwischenspeichern
US20080285955A1 (en) Method for low data rate video image storage
DE112021000195T5 (de) Schwachlichtüberwachungssystem mit dual-videostreams
DE102018110568B4 (de) Netzwerkkamera und System
WO2021144004A1 (en) Storing data items
Bajkowski Surveillance nation
DE102004040941A1 (de) Bildgebende Sicherheitsüberwachungsvorrichtung
DE102010008043A1 (de) Vorrichtung und Verfahren zur Bereitstellung einer Mehrzahl von Ausschnitten aus einer Video- und/oder Audio- und/oder Bildaufzeichnung gemäß einer Schnittliste an einem oder mehereren Computer-Schnittsystemen

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

R081 Change of applicant/patentee

Owner name: AVO USA HOLDING 2 CORPORATION, BILLERICA, US

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Effective date: 20150127

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

Effective date: 20150127

R081 Change of applicant/patentee

Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA

Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: AVIGILON PATENT HOLDING 2 CORPORATION, VANCOUVER, CA

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R130 Divisional application to

Ref document number: 112009005545

Country of ref document: DE

R020 Patent grant now final
R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

R081 Change of applicant/patentee

Owner name: MOTOROLA SOLUTIONS, INC., CHICAGO, US

Free format text: FORMER OWNER: AVIGILON ANALYTICS CORPORATION, VANCOUVER, CA

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005225000

Ipc: H04N0023000000