DE60100525T2 - Bildverarbeitung und Überwachungsgerät - Google Patents

Bildverarbeitung und Überwachungsgerät Download PDF

Info

Publication number
DE60100525T2
DE60100525T2 DE60100525T DE60100525T DE60100525T2 DE 60100525 T2 DE60100525 T2 DE 60100525T2 DE 60100525 T DE60100525 T DE 60100525T DE 60100525 T DE60100525 T DE 60100525T DE 60100525 T2 DE60100525 T2 DE 60100525T2
Authority
DE
Germany
Prior art keywords
image
synthesized image
cameras
vehicle
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60100525T
Other languages
English (en)
Other versions
DE60100525D1 (de
Inventor
Shusaku Hirakata-shi Okamoto
Masamichi Hirakata-shi Nakagawa
Hirofumi Kawasaki-shi Ishii
Kunio Kadoma-shi Nobori
Atsushi Nara-shi Morimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=18660766&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60100525(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE60100525D1 publication Critical patent/DE60100525D1/de
Application granted granted Critical
Publication of DE60100525T2 publication Critical patent/DE60100525T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf eine Technik zum Erzeugen eines synthetisierten Bildes aus einer Vielzahl von Bildern, die von Kameras aufgenommen wurden, welche an einem Fahrzeug montiert sind, und insbesondere bezieht sie sich auf eine Technik, die effektiv für ein Überwachungssystem, das als Sicherheitsüberprüfungshilfe während des Fahrens eines Fahrzeugs verwendet werden kann, anwendbar ist.
  • Ein Fahrzeugvideoüberwachungssystem, das in der japanischen Offenlegungsschrift Nr. 11-78692 offenbart ist, ist eines der bekannten Systeme zum Überwachen der Umgebung eines fahrenden Fahrzeugs unter Verwendung von Kameras. In diesem System ist ein Fahrzeug mit einer Vielzahl von Kameras ausgerüstet, die hier und dort an der Fahrzeugkarosserie montiert sind um ein Video seiner Umgebung aufzunehmen. Die jeweiligen von diesen Kameras aufgenommenen Bilder werden umgewandelt und zusammengefügt, wobei eine Kontinuität der Grenzen zwischen ihnen beibehalten wird, so dass ein neu synthetisiertes Bild erzeugt wird und dieses auf dem Bildschirm angezeigt wird.
  • Das Dokument JP-A-10262240 offenbart eine visuelle Erkennungseinrichtung zur Verwendung in einem Fahrzeug gemäß dem Oberbegriff der Patentansprüche 1, 11 und 14. Diese Vorrichtung ist mit Kameras ausgestattet, welche jeweils visuell Felder der linken und rechten Seite des Fahrzeugs aufgreifen. Ein Mittel zum Einstellen des visuellen Feldes setzt eine Richtung eines bemerkenswerten visuellen Feldes in dem visuellen Feld der linken und rechten Seite durch die Kameras fest. Die Vorrichtung extrahiert teilweise ein Bild des bemerkenswerten visuellen Feldes in der gesetzten Richtung aus jedem visuellen Feldbild und ordnet die Bilder der bemerkenswerten visuellen Felder an um ein Anzeigebild zu bilden, das auf einer Anzeigevorrichtung angezeigt wird. Die Richtung des bemerkenswerten visuellen Felds und daher die Anzeige des Bildes auf der Anzeigevorrichtung wird beispielsweise entsprechend einer Annäherungswinkelinformation des Fahrzeugs auf eine Kreuzung (angezeigt durch eine Navigationsinformation) oder entsprechend einer Steuerradwinkelinformation des Fahrzeugs selbst geändert.
  • Ein System zum Überwachen einer Fahrzeugumgebung gemäß der obigen Art wird jedoch normalerweise die Bildverarbeitung unter der Annahme durchführen, dass jede Kamera, einmal montiert, nicht mehr fähig sein sollte, ihre Position oder die Richtung, in die sie ausgerichtet ist, zu ändern. Der Grund hierfür ist, dass es praktisch unmöglich oder zumindest extrem schwierig ist, eine Vielzahl von Bildern für ein synthetisiertes Bild in Echtzeit zu prozessieren und dabei die kontinuierlich sich ändernde Positionen und Richtungen der Kameras zu berücksichtigen. Die Ursache ist, dass es zu viel Zeit beansprucht, diese komplizierte Prozessierung durchzuführen, und dass die Größe und die Fähigkeiten eines solchen Systems begrenzt sind.
  • Andererseits ist es, wenn man die Aerodynamik und das Design eines Fahrzeugs berücksichtigt, höchst wahrscheinlich, dass diese Kameras, die in solch einem Überwachungssystem eingesetzt werden, an verschiedenen beweglichen Teilen des Fahrzeugs montiert werden. Beispielsweise können solche Kameras um die Rückspiegel herum oder auf dem Kofferraum oder der Motorhaube des Fahrzeugs montiert sein.
  • Dann entstehen die folgenden Probleme.
  • Insbesondere, wenn irgendeines der beweglichen Teile, auf denen die Kamera montiert ist, seinen Zustand ändert (beispielsweise sich bewegt), wird das Bild, das von dieser Kamera aufgenommen wird, durch die Änderung beeinflusst, so dass das Bild, das einen integralen Bestandteil des resultierten synthetisierten Bildes darstellt, möglicherweise falsch ausgerichtet ist. Beispielsweise ändert, wenn eine Kamera um einen Außenrückspiegel herum montiert ist, dass Öffnen einer Tür mit dem Spiegel die Richtung, in die die Kamera sieht. Als Folge ist nur ein Teil des synthetisierten Bildes, der dem Bild entspricht, das von der fraglichen Kamera aufgenommen wurde, falsch ausgerichtet und macht daher das Bild auf dem Bildschirm für einen Betrachter unnatürlich.
  • Zusätzlich kann, selbst wenn eine dieser Kameras an einem festen Teil des Fahrzeugs montiert ist, ein ähnliches Phänomen beobachtet werden. Beispielsweise ist, wenn eine bestimmte Kamera das Bild einer sich öffnenden Tür aufnimmt, nur ein Teil des synthetisierten Bildes, der dem Bild, das von dieser Kamera aufgenommen wurde, entspricht, ebenfalls falsch ausgerichtet. Solch eine teilweise falsche Ausrichtung macht das synthetisierte Bild für den Betrachter unnatürlich und sollte eliminiert werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Eine Aufgabe der Erfindung besteht darin, ein synthetisiertes Bild, das durch einen Bildprozessor aus einer Vielzahl von Bildern, die von Kameras an einem Fahrzeug aufgenommen wurden, erzeugt wird, so natürlich wie möglich für einen Betrachter zu machen, selbst wenn irgendeines dieser Bilder durch eine Zustandsänderung eines beweglichen Teils des Fahrzeugs beeinträchtigt ist.
  • Die vorliegende Erfindung besteht aus einem Verfahren gemäß Anspruch 1, einem Überwachungssystem gemäß Anspruch 11 und einem Bildprozessor gemäß Anspruch 14.
  • In der vorliegenden Erfindung werden die Anzeigemodi eines synthetisierten Bildes gemäß eines Zustands eines beweglichen Teils des Fahrzeugs umgeschaltet. Entsprechend wird, selbst wenn das synthetisierte Bild infolge einer Änderung in dem Zustand des beweglichen Fahrzeugteils für einen Betrachter teilweise unnatürlich geworden ist, das unnatürliche Bild nicht angezeigt. Auch ist es durch Umschalten der Anzeigemodi des synthetisierten Bildes möglich den Benutzer schnell und rechtzeitig wissen zu lassen, dass das bewegliche Teil nun beispielsweise in einem Zustand ist, der für den Betrieb des Fahrzeugs ungünstig ist.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung schaltet, wenn eine Änderung im Zustand des beweglichen Teils die Position oder Ausrichtung von mindestens einer der Kameras geändert hat, um das synthetisierte Bild unnatürlich zu machen, der Bildverarbei tungsabschnitt vorzugsweise die Anzeigemodi des synthetisierten Bildes von einem normalen Modus in einen Alarmmodus.
  • In dieser speziellen Ausführungsform kann der Bildverarbeitungsabschnitt das synthetisierte Bild im Alarmmodus erzeugen, ohne dabei das Bild zu verwenden, das von der Kamera aufgenommen wurde, deren Position oder Ausrichtung sich geändert hat.
  • Alternativ kann der Bildverarbeitungsabschnitt in dem Alarmmodus kein synthetisiertes Bild ausgeben.
  • Als eine andere Alternative kann der Bildverarbeitungsabschnitt auch anstelle von oder zusammen mit dem synthetisierten Bild im Alarmmodus eine Wammeldung ausgeben. Dann kann der Benutzer dank der Warnmeldung schnell die Unnatürlichkeit des synthetisierten Bildes wahrnehmen. Auch kann der Benutzer, wenn die angezeigte Wammeldung genau angibt, wie das bewegliche Teil seinen Zustand geändert hat, die gegenwärtige Situation des Fahrzeugs schnell und rechtzeitig erkennen.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung schaltet der Bildverarbeitungsabschnitt, wenn das Bild des beweglichen Teils infolge einer Änderung in dem Zustand des beweglichen Teils einen unterschiedlichen Teil des Bildes, das von mindestens einer der Kameras aufgenommen wurde, einnimmt, um das synthetisierte Bild unnatürlich zu machen, vorzugsweise den Anzeigemodus des synthetisierten Bildes von einem normalen Modus in einen Alarmmodus.
  • In dieser speziellen Ausführungsform kann der Bildverarbeitungsabschnitt das synthetisierte Bild in dem Alarmmodus erzeugen, ohne dabei das Bild, das von der Kamera aufgenommen wurde, und den unterschiedlichen Bereich, den das Bild des beweglichen Teils nun einnimmt, zu verwenden.
  • Alternativ kann der Bildverarbeitungsabschnitt im Alarmmodus kein synthetisiertes Bild ausgeben.
  • Als weitere Alternative kann der Bildverarbeitungsabschnitt anstelle von oder zusammen mit dem synthetisierten Bild in dem Alarmmodus eine Warnmeldung ausgeben. Dann kann der Benutzer dank der Warnmeldung schnell die Unnatürlichkeit des synthetisierten Bildes erfassen. Auch kann der Benutzer, wenn die angezeigte Warnmeldung genau angibt, wie das bewegliche Teil seinen Zustand geändert hat, die gegenwärtige Situation des Fahrzeugs schnell und rechtzeitig erkennen.
  • In noch einer weiteren Ausführungsform kann das bewegliche Teil mindestens die Türen, die Motorhaube und den Kofferraum des Fahrzeugs einschließen. In diesem Fall kann der Bildverarbeitungsabschnitt den Displaymodus des synthetisierten Bildes entsprechend dem Öffnen und Schließen der Türen, der Motorhaube oder des Kofferraums umschalten.
  • Gemäß einer weiteren Ausführungsform kann das bewegliche Teil mindestens die Reifen des Fahrzeugs einschließen. In diesem Fall kann der Bildverarbeitungsabschnitt den Anzeigemodus des synthetisierten Bildes in Übereinstimmung mit einem Lenkwinkel der Räder, an denen die Reifen montiert sind, umschalten.
  • Ein Überwachungssystem gemäß der vorliegenden Erfindung schließt den erfindungsgemäßen Bildprozessor ein. Das System umfasst: eine Vielzahl von Kameras, die an einem Fahrzeug montiert sind, um Bilder von der Umgebung des Fahrzeugs aufzunehmen; eine Anzeigevorrichtung; und einen Bildverarbeitungsabschnitt. Der Bildverarbeitungsabschnitt empfängt die Bilder, die von den Kameras aufgenommen wurden, erzeugt ein synthetisiertes Bild aus diesen Bildern und gibt dann das synthetisierte Bild an die Anzeigevorrichtung aus. Der Bildverarbeitungsabschnitt schaltet den Displaymodus des synthetisierten Bildes in Übereinstimmung mit einem Zustand eines beweglichen Teil des Fahrzeugs um.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das eine Anordnung für ein Überwachungssystem gemäß einer ersten Ausführung der vorliegenden Erfindung illustriert.
  • 2 illustriert eine beispielhafte Anordnung von Kameras und beispielhafte Bilder, die von den Kameras aufgenommen wurden, gemäß der ersten Ausführungsform.
  • 3 illustriert ein beispielhaftes Bild, das infolge einer Zustandsänderung eines beweglichen Teils eines Fahrzeugs teilweise unnatürlich geworden ist.
  • 4A bis 4D illustrieren wie die Displaymodi eines synthetisierten Bildes in der vorliegenden Erfindung umgeschaltet werden können.
  • 5A bis 5D illustrieren Beispiele von Wammeldungsbildern.
  • 6 illustriert schematisch eine beispielhafte Zuordnungstabelle.
  • 7 ist ein Flussdiagramm, das einen Gesamtbildsyntheseablauf illustriert.
  • 8 ist ein Flussdiagramm, das die detaillierten Ablaufschritte von Schritt S20 aus 7 illustriert.
  • 9 ist ein Flussdiagramm, das die detaillierten Ablaufschritte von Schritt S30 aus 7 illustriert.
  • 10 ist ein Blockdiagramm, das eine Anordnung für ein Überwachungssystem gemäß einer zweiten Ausführungsform der vorliegenden Erfindung illustriert.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Im Folgenden werden mit Bezug auf die begleitenden Zeichnungen bevorzugte Ausführungsformen der vorliegenden Erfindung beschrieben.
  • AUSFÜHRUNGSFORM 1
  • 1 ist ein Blockdiagramm, das eine Konfiguration für ein Überwachungssystem gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt. In dem Überwachungssystem, das in 1 gezeigt ist, empfängt ein Bildverarbeitungsabschnitt 2 eine Vielzahl von Kamerabildern, die ein bildgebender Bereich ausgegeben hat, und kombiniert diese Bilder miteinander um ein neues synthetisiertes Bild zu erzeugen, das von einer Anzeigevorrichtung 3 dargestellt werden wird. Das heißt, der Bildverarbeitungsabschnitt 2 ist das Herzstück des erfindungsgemäßen Bildprozessors.
  • Die folgende Tabelle 1 zeigt, wo die Kameras gemäß der ersten Ausführungsform montiert sein können: [Tabelle 1]
    Figure 00070001
  • 2 illustriert diese beispielhafte Kameraanordnung zusammen mit beispielhaften Bildern, die von diesen Kameras in dieser Ausführungsform aufgenommen wurden. In der illustrierten Ausführungsform sind die acht Kameras, wie in Tabelle 1 und 2 gezeigt, montiert. Wenn die Kameraanordnung nach Tabelle 1 und 2 angewendet wird, sind die Positionen und Ausrichtungen der jeweiligen Kameras vorzugsweise so bestimmt, dass die Bilder, die von einem benachbarten Paar von Kameras aufgenommen wurden, einen gewissen Bildteil miteinander teilen, um für den Betrachter blinde Punkte so weit wie möglich zu eliminieren.
  • Der Bildverarbeitungsabschnitt 2 wandelt die acht Kamerabilder aus 2 um und kombiniert sie miteinander, wodurch er ein synthetisiertes Bild des Fahrzeugs, beispielsweise wie senkrecht von oben gesehen, erzeugt. Um das synthetisierte Bild zu erzeugen, werden die Bildumwandlung und die Synthese der umgewandelten Teilbilder (einschließlich Grenzprozessierung) benötigt. In dem System, das in 1 gezeigt ist, umfasst der Bildverarbeitungsabschnitt 2 einen Zuordnungstabellensucher 22. Und um diese Bilder in einem einzigen Prozessschritt zu verarbeiten, verwendet der Bildverarbeitungsabschnitt 2 eine Zuordnungstabelle MPT, die später detailliert beschrieben wird.
  • Ein Zuordnungstabellenauswähler 41 wählt die Art eines anzuzeigenden Bildes und spezifiziert eine der Zuordnungstabellen MPT in Übereinstimmung mit der Art des benötigten Bildes. Diese Auswahl kann entweder manuell oder automatisch in Abhängigkeit von dem Zustand des Fahrzeugs (z. B. Schaltposition, Lenkwinkel oder der Ein/Aus-Zustand von Blinkern) erfolgen. Ein Signal, das die auszuwählende Zuordnungstabelle MPT angibt, wird sowohl an einen Wammeldungsauswähler 26 wie auch an den Zuordnungstabellensucher 22 ausgegeben.
  • In Antwort auf ein Zustandssignal S1, das den gegenwärtigen Zustand eines beweglichen Fahrzeugteils angibt, schaltet ein Anzeigemoduswechsler 23 den Anzeigemodus des synthetisierten Bildes. Wenn beispielsweise eine Änderung in dem Zustand des beweglichen Teils die Position oder Ausrichtung einer der Kameras geändert hat, um das synthetisierte Bild unnatürlich zu machen, schaltet der Wechsler 23 den Displaymodus des synthetisierten Bildes von einem normalen Modus in einem Alarmmodus. In dem Alarmmodus wird das synthetisierte Bild erzeugt, ohne das Bild zu verwenden, das von der fraglichen Kamera, deren Position oder Ausrichtung sich geändert hat, aufgenommen wurde.
  • 3 illustriert ein beispielhaftes Bild, das infolge einer Änderung in dem Zustand eines beweglichen Fahrzeugteils teilweise unnatürlich geworden ist. Wie aus dem synthetisierten Bild der 3 ersichtlich, haben sich die Bilder, die von den Kameras Nr. 1 und 2 aufgenommen wurden, geändert, weil die rechte Tür des Fahrzeugs sich geöffnet hat und ein Teil des synthetisierten Bildes, der den Bildern entspricht, die von diesen Kameras Nr. 1 und 2 aufgenommen wurden, falsch angeordnet ist.
  • Daher werden in der illustrierten Ausführungsform die offenen/geschlossenen Zustände der rechten und linken Türen, des Kofferraums und der Motorhaube, auf denen die Kameras montiert sind, als die Zustände der beweglichen Fahrzeugteile verwendet. Das heißt, das Zustandssignal S1, das beispielsweise die Information "rechte Türe offen" oder "Motorhaube geschlossen" angibt, wird in den Anzeigemoduswechsler 23 eingegeben. Daten über eine Korrespondenz zwischen entsprechenden beweglichen Fahrzeugteilen und den Kameranummern wurden vorher in dem Wechsler 23 gespeichert. Die Daten können beispielsweise wie in der folgenden Tabelle 2 gezeigt aussehen: [Tabelle 2]
    Figure 00090001
  • In Übereinstimmung mit dieser Korrespondenz und der Information, die von dem Zustandssignals S1 gegeben ist, schaltet der Wechsler 23 den Anzeigemodus des synthetisierten Bildes um.
  • 4A bis 4D illustrieren, wie der Anzeigemodus des synthetisierten Bildes in der vorliegenden Erfindung umgeschaltet werden kann. Insbesondere illustriert 4A ein synthetisiertes Bild, das im normalen Modus angezeigt wird. Wie in 4A gezeigt, sind die be weglichen Teile des Fahrzeugs alle geschlossen und ein natürliches Bild wird dargestellt. 4B illustriert ein beispielhaftes synthetisiertes Bild, das im Wammodus angezeigt wird. Das Bild, das in 4B gezeigt ist, illustriert eine Situation, in der die rechte Tür des Fahrzeugs geöffnet ist. In dem synthetisierten Bild, das in 4B gezeigt ist, werden die Bilder, die von den Kameras Nr. 1 und 2, welche an der rechten Tür des Fahrzeugs montiert sind, aufgenommen wurden, nicht für die Bildsynthese verwendet und statt dessen wird ein Teil des synthetisierten Bildes, das diesen fraglichen Bildern entspricht, mit einer vorbestimmten Farbe gefüllt. Alternativ kann dieser Teil auch mit jedem beliebigen Muster gefüllt werden. Die Farben können auch in passenden Zeitabständen geändert werden.
  • In der illustrierten Ausführungsform wird der Displaymodus des synthetisierten Bildes durch ein Überschreiben der Zuordnungsdaten, die in der Zuordnungstabelle MPT gespeichert sind, umgeschaltet.
  • Optional kann die Ausgabe des synthetisierten Bildes selbst in dem Alarmmodus unterbrochen werden oder es kann der Warmeldungswähler 26 eine Warnmeldung entweder allein oder zusammen mit dem synthetisierten Bild ausgeben.
  • 4C illustriert eine solche Situation, in der kein synthetisiertes Bild angezeigt wird, sondern nur eine Warnmeldung, die angibt, dass die rechte Tür offen ist, dargestellt wird. Andererseits illustriert 4D eine weitere solche Situation, in der das synthetisierte Bild, das in 4B gezeigt ist, dargestellt wird, zusammen mit der Warnmeldung, die in 4C gezeigt ist. Auf diese Weise können Kamerabilder, die von irgendeiner Zustandsänderung eines beweglichen Teils beeinträchtigt werden können, aus dem synthetisierten Bild entfernt werden und es kann eine Warnmeldung, die den Benutzer über die Zustandsänderung des beweglichen Teils (z. B. eine Tür ist offen) informiert, wie in 4D gezeigt, dargestellt werden. Dann kann der Benutzer (beispielsweise der Fahrer) des Fahrzeugs den gegenwärtigen Zustands seines oder ihres Autos schneller und früher erkennen.
  • Der Warnmeldungswähler 26 speichert im Voraus diese Warnmeldungen beispielsweise in Bildformaten. Beim Empfangen des Zustandssignals S1, das den gegenwärtigen Zustand eines beweglichen Fahrzeugteils angibt, und des Signals, das von dem Zuordnungstabellenwähler 41 ausgegeben wird, um eine Zuordnungstabelle MPT zu spezifizieren, wählt der Wähler 26 eines der Meldungsbilder, das mit dem synthetisierten Bild kombiniert werden muss. Dann sendet der Wähler 26 das Meldungsbild an einen Videosignalerzeuger 24.
  • Die 5A bis 5D illustrieren Beispiele der Warnmeldungsbilder, die in dem Auswähler 26 gespeichert sind. In den Beispielen, die in den 5A bis 5D illustnert sind, ist die Meldung selbst in Weiß dargestellt (d. h. (255, 255, 255), wenn das Bild in RGB 256 Graustufen dargestellt wird), während der übrige Teil des Bildes in Schwarz dargestellt wird (d. h. (0, 0, 0) in diesem Fall). Jedes Meldungsbild sollte dieselbe Größe wie das synthetisierte Bild haben.
  • Die Inhalte und die Anzeigeposition der Meldung, die in jedem Meldungsbild enthalten sind, können abhängig davon, welche Zuordnungstabelle gewählt wurde, um das synthetisierte Bild zu erzeugen, und welches bewegliche Teil seinen Zustand geändert hat, unterschiedlich sein. Entsprechend sollten vorzugsweise verschiedene Warnmeldungsbilder für alle Arten von vorstellbaren Situationen vorbereitet werden und eines dieser Meldungsbilder sollte vorzugsweise in Abhängigkeit von der jeweiligen Situation ausgewählt werden können.
  • Die folgende Tabelle 3 zeigt den Zusammenhang zwischen den Zuordnungstabellen, die bei der Bildsynthese verwendet werden, verschiedene Zustände der beweglichen Fahrzeugteile und der anzuzeigenden Warnmeldungsbilder: [Tabelle 3]
    Figure 00110001
    Figure 00120001
  • Die zweite Spalte dieser Tabelle 3 zeigt beispielsweise an, dass die Zuordnungstabelle, die nun angewählt ist, verwendet wird, um ein "Blick nach unten"-Bild zu erzeugen, und dass, wenn die rechte Tür, eins der beweglichen Fahrzeugteile, offen ist, das Warnmeldungsbild Nr. 1 ausgewählt werden sollte. 5A illustriert ein beispielhaftes Warnmeldungsbild Nr. 1. In dieser Situation, d. h., wenn die Zuordnungstabelle, die gegenwärtig ausgewählt ist, verwendet wird, um ein "Blick nach unten"-Bild zu erzeugen, und die rechte Tür offen ist, werden die Bilder, die von den Kameras aufgenommen wurden, die an der rechten Tür montiert sind, nicht für die Bildsynthese verwendet. Entsprechend wird die Warnmeldung, die in 5A gezeigt ist und die aussagt "R-Tür offen", in dem Teil des synthetisierten Bildes angeordnet, in dem die Bilder, die von den Kameras aufgenommen wurden, die an der rechten Tür montiert sind, dargestellt werden sollten.
  • Der Warnmeldungsauswähler 26 speichert im Voraus Information wie die, die in Tabelle 3 gezeigt ist. In Antwort auf das Zustandssignal S1, das den gegenwärtigen Zustand des beweglichen Fahrzeugteils angibt, und auf das Signal, das eine der Zuordnungstabellen MPT spezifiziert, wählt der Auswählen 26 eines der Meldungsbilder, das angeordnet werden soll, aus und gibt es aus. Beim Empfangen des Meldungsbildes von dem Auswählen 26 überlagert der Videosignalerzeuger 24 das Meldungsbild dem synthetisierten Bild, das von einem Pixelsynthesizer 21 ausgegeben wird, und zeigt dann das resultierende kombinierte Bild an.
  • Das Meldungsbild kann dem synthetisierten Bild überlagert werden, indem die RGB-Werte aller Pixel des synthetisierten Bildes und des Meldungsbildes wieder abgefragt werden und beispielsweise die größeren ausgegeben werden. Wenn diese Methode auf das Meldungsbild, das in 5A gezeigt ist, angewendet wird, haben die schwarzen Pixelteile des Meldungsbildes RGB-Werte, die kleiner sind als die des synthetisierten Bildes in den entsprechenden Teilen. Demzufolge werden die RGB-Werte des synthetisierten Bildes gewählt. Andererseits werden für die weißen Pixelteile des Meldungsbildes immer die RGB-Werte des Meldungsbildes gewählt werden. Auf diese Weise kann ein kombiniertes Bild gewon nen werden, in dem nur die Meldungsteile dem synthetisierten Bild überlagert sind. In diesem Fall wird der Teil des synthetisierten Bildes, in dem die Kamerabilder nicht existieren sollten, vorzugsweise mit einer dunklen Farbe gefüllt, damit die in Weiß überlagerte Meldung so leicht wie möglich sichtbar wird.
  • Wenn ein kombiniertes Bild mit Hilfe dieser Überlagerungsmethode in einer Situation dargestellt werden soll, in der alle beweglichen Teile geschlossen sind (d.h. in dem normalen Modus), kann auch ein Bild, das mit Schwarz gefüllt ist (0, 0, 0,), wie in 5B gezeigt, als Meldungsbild verwendet werden. Das heißt, das Bild, das in 5B gezeigt ist, kann als Meldungsbild Nr. 7 wie in der untersten Zeile der Tabelle 3 gezeigt, vorbereitet werden. Natürlich kann der Meldungsauswähler 26 auch kein Meldungsbild in dem normalen Modus ausgeben.
  • Wenn eine Anzahl von beweglichen Teilen offen ist, kann auch die folgende Technik verwendet werden. Wenn beispielsweise die Zuordnungstabelle, die nun gewählt ist, dazu dient, ein "Blick nach unten"-Bild zu erzeugen und wenn gegenwärtig die rechten und linken Türen beide offen sind, dann wählt der Meldungsauswähler 26 die zugeordneten Warnmeldungsbilder Nr. 1 und 2, die jeweils in den 5A und 5C gezeigt sind. Dann fragt der Meldungsauswähler 26 die RGB-Werte aller Pixel für die Bilder Nr. 1 und 2 ab und wählt die größeren Werte, und erzeugt dadurch ein neu kombiniertes Meldungsbild, wie es beispielsweise in 5B gezeigt ist, und sendet das Meldungsbild an den Videosignalerzeuger 24.
  • In der vorangegangenen beispielhaften Ausführungsform enthält das Warnmeldungsbild alphabetische Buchstaben. Alternativ kann die Warnmeldung auch ein vereinfachtes Diagramm oder eine Illustration sein. Auch kann, wenn keine Meldungsbilder in dem Alarmmodus gezeigt werden sollen, der Warnmeldungsauswähler 26 selbstverständlich ausgelassen werden.
  • Im Folgenden wird im Detail beschrieben, wie die Zuordnungsdaten neu geschrieben werden.
  • Wie hier verwendet, bedeutet die "Zuordnungstabelle" eine Tabelle, die den Zusammenhang zwischen jedem Pixel, das in einem synthetisierten Bild enthalten ist, und zugehörigen Pixeldaten, die in jedem der Kamerabilder enthalten sind, beschreibt. Die Zuordnungstabelle wird verwendet, um die Erzeugung des synthetisierten Bildes zu beschleunigen.
  • Es kann entweder eine Eins-zu-Eins-Korrespondenz oder eine Vielzahl-zu-Eins-Korrespondenz zwischen den Pixeln, die in jedem Kamerabild enthalten sind, und dem zugeordneten Pixel, das in dem synthetisierten Bild enthalten ist, bestehen. Die Art der Korrespondenz kann abhängig von der Position einer bestimmten Kamera oder der Art des zu erzeugenden synthetisierten Bildes geändert werden. Wenn beispielsweise eine Grenzprozessierung für eine Grenze zwischen einer Vielzahl von Kamerabildern durchgeführt werden soll, muss oft eine Vielzahl-zu-Eins-Konespondenz zwischen den Pixeln, die in einer Vielzahl von Kamerabildern enthalten sind, und einem zugeordneten Pixel in den synthetisierten Bild definiert werden.
  • 6 illustriert schematisch eine beispielhafte Zuordnungstabelle. Die Tabelle, die in 6 gezeigt ist, schließt Zuordnungsdatenstücke ein, die entsprechenden Paaren von Pixelkoordinaten (i, j) des synthetisierten Bildes entsprechen.
  • Beispielsweise ist ein Zuordnungsdatenstück MP1, das mit den Pixelkoordinaten (i1, j1) assoziiert ist, in der Zuordnungstabelle enthalten. Wie aus 6 ersichtlich, gibt dieses Zuordnungsdatenstück MP1 an, dass nur die Pixeldaten an den Koordinaten (12, 45) in dem Bild, das von Kamera Nr. 1 aufgenommen wurde, dem Pixel (i1, j1) des synthetisierten Bildes zugeordnet wurden. Diese Zuordnungstabelle MPT gibt weiterhin eine Notwendigkeitsrate an. Für das Zuordnungsdatenstück MP1 ist dessen Notwendigkeitsrate "1". Daher werden die Pixeldaten an den Koordinaten (12, 45) in dem Bild, das von Kamera Nr. 1 aufgenommen wurde, so, wie sie sind, als der Pixelwert an den Koordinaten (i1, j1) des synthetisierten Bildes verwendet.
  • Ein weiteres Zuordnungsdatenstück MP2, das mit den Pixelkoordinaten (i2, j2) assoziiert ist, ist ebenfalls in dieser Zuordnungstabelle MPT eingeschlossen. Dieses Zuordnungsdatenstück MP2 gibt an, dass die Pixeldaten an den Koordinaten (10, 10) in dem Bild, das von Kamera Nr. 1 aufgenommen wurde, und weitere Pixeldaten an den Koordinaten (56, 80) in dem Bild, das von Kamera Nr. 0 aufgenommen wurde, dem Pixel (i2, j2) des synthetisierten Bildes zugeordnet werden. Verwendet man die Notwendigkeitsraten, kann der Pixelwert bei den Koordinaten (i2, j2) in dem synthetisierten Bild gegeben werden durch
    Pixelwert = {(Pixelwert bei den Koordinaten (56, 80) in dem Bild, das von Kamera Nr. 1 aufgenommen wurde) × 0,5 + (Pixelwert bei den Koordinaten (10, 10) in dem Bild, das von Kamera Nr. 0 aufgenommen wurde) × 0,3}/(0,5 + 0,3)
  • Indem derartige Zuordnungstabellen entweder automatisch über Berechnungen (z. B. geometrische Transformation) oder manuell vorbereitet werden, kann jedes gewünschte synthetisierte Bild, das eine Draufsicht, eine Rückenansicht oder eine Seitenansicht eines Fahrzeugs darstellt, schnell genug erzeugt werden. Außerdem können die Displaymodi des synthetisierten Bildes durch Wechseln der Zuordnungstabellen, die zum Erzeugen des synthetisierten Bildes verwendet werden, leicht umgeschaltet werden. Dieses Displaymodusschalten kann entweder manuell oder automatisch in Übereinstimmung mit dem Zustand eines fahrenden Fahrzeugs durchgeführt werden.
  • Insbesondere können die Zuordnungstabellen in einem ROM, einschließlich eines elektrisch löschbaren und programmierbaren ROM (EEPROM) oder einem RAM gespeichert werden. Die Zuordnungsdaten können dort durch das Einschreiben der Zuordnungsdaten, die von einem Mikroprozessor berechnet wurden, der in dem Bildverarbeitungsabschnitt eingebaut ist, beispielsweise in das ROM oder RAM eingespeichert werden. Alternativ können Zuordnungstabellendaten, die als sog. Firmware erhältlich sind, auf das ROM oder RAM geschrieben werden, indem irgendein Datenübertragungsmedium, einschließlich Telekommunikationsleitungen oder Disklaufwerke, verwendet werden.
  • Als nächstes wird genau beschrieben, wie ein synthetisiertes Bild unter Verwendung der Zuordnungstabelle MPT und des Displaymoduswechslers 23 erzeugt wird.
  • 7 ist ein Flussdiagramm, das einen Gesamtbildsyntheseprozess gemäß dieser Ausführungsform illustriert. Als erstes schaltet in Schritt S11 der bildgebende Bereich 1 Rahmenspeicher 12a, 12b, usw. Ein Zeitsteuerungsgenerator 25 erzeugt ein Zeitsteuerungssignal um eine Sequenz von beweglichen Bildern zu produzieren, die ein synthetisiertes Bild darstellen. In Antwort auf das Zeitsteuerungssignal, das von dem Zeitsteuerungsgenerator 25 ausgegeben wird, um den Beginn der Rahmenbildung anzugeben, schaltet der bildgebende Abschnitt 1 die Rahmenspeicher 12a, 12b usw. Das heißt, der bildgebende Abschnitt 1 wählt neue Kombinationen von Rahmenspeichern, in die die Bilder, die von den Kameras 11 aufgenommen wurden, eingeschrieben werden sollen und von Rahmenspeichern, welche die Bilder, die von dem Bildverarbeitungsabschnitt 2 angegeben werden, eingespeichert werden sollen. Diese Schaltoperation wird durchgeführt, um eine Wechselwirkung zwischen dem Einschreiben und dem Referenzieren zu vermeiden, weil die Pixel, die von dem Bildverarbeitungsabschnitt 2 referenziert werden, zufällig in verschiedenen Kamerabildern angeordnet sind, unabhängig von der Reihenfolge in der die Bilder, die von den Kameras 11 aufgenommen wurden, eingeschrieben wurden.
  • Als nächstes, in Schritt S12, wählt der Zeitsteuerungsgenerator 25 ein zu verarbeitendes Pixel aus dem synthetisierten Bild, das zu dem vorbestimmten Zeitpunkt ausgegeben werden soll.
  • Dann, in Schritt S13, liest der Zuordnungstabellensucher 22 aus der spezifizierten Zuordnungstabelle MPT ein Zuordnungsdatenstück aus, das mit dem Pixel, welches von dem Zeitsteuerungsgenerator gewählt wurde, assoziiert ist, und gibt dann die Daten an den Anzeigemoduswechsler 23 aus. In Antwort auf das Zustandssignal S1 schreibt der Wechsler 23, falls nötig in Schritt S20, die Zuordnungsdaten, die von dem Zustandstabellensucher 22 ausgelesen wurden, erneut ein und gibt dann die aktualisierten Daten an den Pixelsynthesizer 21 aus. Dieser Schritt S20 wird später noch detaillierter beschrieben.
  • Nachfolgend synthetisiert in Schritt S30 der Pixelsynthesizer 21 in Übereinstimmung mit der Zuordnungsdateneingabe den oder die Pixelwerte des oder der zugehörigen Kamerabilder für das Pixel, das von dem Zeitsteuerungsgenerator 25 ausgewählt wurde, zusammen mit den bestehenden und gibt dann das Ergebnis an den Videosignalgenerator 24 aus. Als nächstes, in Schritt S14, transformiert der Videosignalgenerator 24 die Eingabepixelwerte für das synthetisierte Bild in ein Videosignal und gibt das Signal an die Anzeigevorrichtung 3 gleichzeitig mit der Eingabe des Zeitsteuerungssignals von dem Zeitsteuerungsgenerator 25 aus.
  • Danach bestimmt der Zeitsteuerungsgenerator 25 in Schritt S15, ob das Pixel, das soeben verarbeitet wurde, das letzte eines vorgegebenen Rahmen ist oder nicht. Wenn die Antwort JA ist, dann wird davon ausgegangen, dass der gegenwärtige Rahmen erfolgreich verarbeitet worden ist und das Verarbeiten des nächsten Rahmens beginnt. Andernfalls schreitet der Prozess zu Schritt S16 fort, in dem die Auswahl des nächsten Pixels angeordnet wird. Dann führt der Bildverarbeitungsabschnitt 1 die Folge von Prozessschritten S13, S20, S30 und S14 alle wiederum mit dem nächsten Pixel, das von dem Zeitsteuerungsgenerator 25 in Schritt S12 gewählt wurde, aus, und diese Prozessschleife wird solange wiederholt ausgeführt, bis die Antwort auf die Frage des Schritts S15 JA wird, d. h., bis das letzte Pixel des gegenwärtigen Rahmens verarbeitet ist.
  • In der illustrierten Ausführungsform wird die Verarbeitung rahmenbasiert durchgeführt, aber es könnte natürlich auch ein Feld nach dem anderen verarbeitet werden.
  • 8 ist ein Flussdiagramm, das spezifisch darstellt, wie der Anzeigemoduswechsler 23 in Schritt S20 der 7 arbeitet.
  • Zunächst, in Schritt S21, überprüft der Wechsler 23 die Information, die von dem eingegebenen Zustandssignal S1 über den geöffneten/geschlossenen Zustand eines beweglichen Fahrzeugteils (z. B. rechte Tür, linke Tür, Kofferraum oder Motorhaube) gegeben ist. Wenn das bewegliche Teil offen ist (d.h., wenn die Antwort auf die Frage in Schritt S22 JA ist), dann schreitet der Prozess zu Schritt S23 fort, um die Nummern der Kameras, die an dem beweglichen Teil montiert sind, durch Referenz mit der Tabelle (z. B. Tabelle 2), die vorab in dem Wechsler 23 gespeichert wurde, zu erfahren. Andererseits, wenn das bewegliche Teil geschlossen ist (d. h., wenn die Antwort auf die Frage von Schritt S22 NEIN ist), dann springt der Prozess nach Schritt S27, in dem der Wechsler 23 bestimmt, ob alle beweglichen Teile überprüft worden sind oder nicht. Wenn die Antwort JA ist, dann schreitet der Prozess zum nächsten Schritt S28 fort. Andernfalls kehrt der Prozess nach Schritt S21 zurück, in dem der Wechsler 23 den offenen/geschlossenen Zustand eines (oder des) anderen beweglichen Teils überprüft.
  • Nachdem die Nummern der Kameras auf dem fraglichen beweglichen Teil in Schritt S23 bekannt sind, schreitet der Prozess zum nächsten Schritt S25 fort. In Schritt S25 bestimmt der Wechsler 23, ob irgendeine dieser Kameranummern mit einer Kameranummer übereinstimmt, die in den Zuordnungsdaten enthalten ist, oder nicht. Wenn die Antwort JA ist, schreitet der Prozess zum nächsten Schritt S26 fort, in dem die Zuordnungsdaten über die Kamera mit dieser Nummer erneut geschrieben werden, um anzuzeigen, dass die Kamera zeitweise funktionsunfähig ist. In dem Beispiel, das in 8 illustriert ist, werden die Kameranummer und die XY-Koordinaten in "–1" überschrieben. Andererseits, wenn die Antwort auf die Frage in Schritt S25 NEIN ist, dann springt der Prozess nach Schritt S27, in dem der Wechsler 23 bestimmt, ob alle beweglichen Teile überprüft worden sind oder nicht. Wenn die Antwort JA ist, dann schreitet der Prozess zum nächsten Schritt S28 fort. Andernfalls kehrt der Prozess zu Schritt S21 zurück, in dem Wechsler den offen/geschlossen-Zustand eines anderen (oder des anderen) beweglichen Teils überprüft.
  • Wenn alle beweglichen Teile überprüft worden sind (d.h., wenn die Antwort auf die Frage in Schritt S27 JA wird, dann werden die Notwendigkeitsraten der Zuordnungsdaten in Schritt S28 erneut berechnet, um den Prozess zu beenden.
  • Im Folgenden wird detailliert beschrieben, wie der Anzeigemoduswechsler 23 in diesem Schritt S20 arbeitet, in dem das Zuordnungsdatenstück MP2, das in 6 gezeigt ist, in den Wechsler 23 eingegeben wird. In dem folgenden Beispiel wird zu illustrativen Zwecken angenommen, dass nur die rechte Tür eines Fahrzeugs geöffnet ist.
  • Als erstes sagt das Zustandssignal S1 dem Wechsler 23 in den Schritten S21 und S22; dass die rechte Tür des Fahrzeugs offen ist. Daher weiß der Wechsler 23 durch Referenz auf Tabelle 2, die auf ihm gespeichert ist, in Schritt S23, dass die Kameras Nr. 1 und 2 auf der rechten geöffneten Tür montiert sind.
  • Als nächstes bestimmt der Wechsler 23 in Schritt S25 ob die Kamera Nr. "1" oder "2" mit einer der Kameranummern, die in dem Zuordnungsdatenstück MP2 enthalten sind, übereinstimmt oder nicht. In diesem Fall ist die Kamera Nr. "1" in dem Zuordnungsdatenstück MP2 enthalten, so dass in dem letzten Schritt S26 die Daten, die über die Kamera Nr. 1 gespeichert sind, in gesperrte umgeschrieben werden. Andererseits ist die Kamera Nr. "2" nicht in dem Zuordnungsdatenstück MP2 enthalten und es besteht keine Notwendigkeit, die Daten darüber neu zu schreiben.
  • Da in dem illustrierten Beispiel die anderen beweglichen Teile alle geschossen sind, ist die Antwort auf die Frage in dem nächsten Schritt 27 JA. Daher schreitet der Prozess zu dem nächsten Schritt S28 fort, in dem die Notwenigkeitsraten neu berechnet werden. In dem illustrierten Beispiel wird für die deaktivierte Kamera Nr. 1 die Notwendigkeit zu "0" neu berechnet und für die andere Kamera Nr. 0 wird die Notwenigkeit in "1" überschrieben.
  • 9 ist ein Flussdiagramm, das den Pixelsynthetisierungsschritt S30 aus 7 illustriert.
  • Zunächst initialisiert der Synthesizer 21 in Schritt S31 den Wert eines zu synthetisierenden Pixels zu "0".
  • Dann liest in Schritt S32 der Synthesizer die Kameranummer, die X- und Y-Koordinaten und die Notwendigkeitsrate aus dem Zuordnungsdatenstück, das mit dem Pixel assoziiert ist, aus. Wenn die ausgelesene Kameranummer angibt, dass die Kamera nun in Funktion ist (d. h., wenn die Antwort auf die Frage in Schritt S33 JA ist), dann liest der Synthesizer 21 in Schritt S34 den Pixelwert, der durch die X- und Y-Koordinaten definiert ist, aus dem Bild, das in dem Rahmenspeicher für die funktionsfähige Kamera gespeichert ist, aus und behält ihn bei. Andererseits, wenn die ausgelesene Kameranummer angibt, dass die Kamera nun gesperrt ist (d.h., wenn die Antwort auf die Frage in Schritt S33 NEIN ist), dann behält der Synthesizer 21 einen vorbestimmten Pixelwert, der die Inaktivierung angibt (z. B. einen schwarzen Pixelwert) bei und gibt ihn aus (Schritte S35 bzw. 39).
  • Im Fall, dass die Kamera mit dieser Nummer nun funktionsfähig ist, gewichtet der Synthesizer 21 das Pixel, das in Schritt S34 ausgelesen und beibehalten wurde, mit der Notwendigkeitsrate und addiert dann den gewichteten Wert zu dem Pixelwert, der in Schritt S36 synthetisiert wird.
  • Dann, in Schritt S37, bestimmt der Synthesizer 21, ob das gegebene Zuordnungsdatenstück irgendeine weitere Kameranummer einschließt oder nicht. Wenn die Antwort JA ist, dann wird in Schritt S38 angeordnet, dass eine nächste Kameranummer gelesen wird, und der Prozess kehrt zu Schritt S32 zurück, um den Synthesizer 21 die Prozessschritte S32 bis S36 solange wiederholt durchführen zu lassen, bis die Antwort auf die Frage des Schritts S37 NEIN wird. Wenn in Schritt S37 gefunden wird, dass in dem Zuordnungsdatenstück keine weitere Kameranummer mehr übrig ist, schreitet der Prozess zu dem nächsten Schritt S39 fort, in dem der Synthesizer 21 die zu synthetisierenden Pixelwerte ausgibt.
  • Indem die Displaymodi des synthetisierten Bildes auf diese Weise geschaltet werden, wird einem Betrachter kein unnatürliches Bild präsentiert, auch wenn irgendein bewegliches Teil eines Fahrzeugs seinen Zustand geändert hat, um das synthetisierte Bild unnatürlich zu machen.
  • AUSFÜHRUNGSFORM 2
  • 10 ist ein Blockdiagramm, das eine Konfiguration eines Überwachungssystems gemäß einer zweiten Ausführungsform der vorliegenden Erfindung illustriert. In 10 ist jedes Teil, das auch in 1 gezeigt ist, mit demselben Bezugszeichen versehen und die detaillierte Beschreibung desselben wird im Folgenden ausgelassen.
  • Das System, das in 10 gezeigt ist, ist dadurch ausgezeichnet, dass ein Anzeigemoduswechsler 23A veranlasst, dass Kamerabilder selektiv von dem bildgebenden Abschnitt 1 in einen Pixelsynthesizer 21A in Antwort auf das Zustandssignal S1 eingegeben werden, wodurch der Anzeigemodus des synthetisierten Bildes umgeschaltet wird. Das heißt, es sind Schalter 31 zwischen den Ausgangsanschlüssen des bildgebenden Abschnitts 1 und den Eingangsanschlüssen des Pixelsynthesizers 21A vorgesehen. Beim Feststellen des geöffneten Zustands von einem der beweglichen Teile in Übereinstimmung mit der Information, die von dem Zustandssignal S1 gegeben ist, identifiziert der Wechsler 23A eine gesperrte Kamera, die nicht für die Erzeugung eines synthetisierten Bildes verfügbar ist, indem er die darüber gespeicherte Information (z. B. Tabelle 2) referenziert. Dann schaltet der Wechsler 23A entsprechend einen der Schalter 31 AUS, um zu verhindern, dass das Bild, das von der gesperrten Kamera aufgenommen wurde, an den Pixelsynthesizer 21A eingegeben wird.
  • In der zweiten Ausführungsform werden die Bilder auch unter Verwendung einer Zuordnungstabelle, wie in der ersten Ausführungsform, synthetisiert. Die zweite Ausführungsform ist jedoch von der ersten Ausführungsform dann verschieden, dass der Schritt S20 des Wiedereinschreibens der Zuordnungsdaten aus dem Prozessablauf, der in 7 illustriert ist, ausgelassen ist. Das heißt, da die Eingabe eines Bildes, das von irgendeiner inaktivierten Kamera aufgenommen wurde, mechanisch oder elektrisch in der zweiten Ausführungsform verhindert wird, ist es offensichtlich nicht nötig, den Schritt S20 des Wiedereinschreibens der Zuordnungsdaten in Übereinstimmung mit dem Zustand eines beweglichen Teils durchzuführen. Folglich werden in dieser Ausführungsform auch die Schritte S33 und S35, die dem Prozessablauf der 9 gezeigt sind, ausgelassen.
  • Es sollte beachtet werden, dass diese zweite Ausführungsform leicht auf einen Bildverarbeitungsabschnitt, der keine Zuordnungstabellen enthält, anwendbar ist. In der vorliegenden Erfindung ist die Anzeigevorrichtung 3 typischerweise ein Flüssigkristalldisplay, aber sie kann auch jede andere Art von Anzeigevorrichtung sein (z. B. ein Plasmadisplay). Optional kann gemäß der vorliegenden Erfindung auch das Display eines Global Positioning- System (GPS) für Fahrzeuge, d.h. ein sog. "Fahrzeugnavigationssystem", als Anzeigevorrichtung 3 verwendet werden. Die Kameras 11, die in dem bildgebenden Abschnitt 1 enthalten sind, sind weiterhin typischerweise digitale Farb- oder Monochromcamcorder, die jeweils eine Festkörperbildgebungsvorrichtung wie ein CCD oder eine CMOS-Vorrichtung einschließen. Alternativ können die Kameras 11 auch jede andere Art von Bildgebern sein.
  • In der vorangegangenen Beschreibung wurde die vorliegende Erfindung so beschrieben, dass sie in einer Situation angewendet wird, in der eine Änderung in dem Zustand eines beweglichen Teils, wie einer Tür oder einer Motorhaube eines Fahrzeugs, die Position oder Richtung einer Kamera, die an dem beweglichen Teil montiert ist, ändert und dadurch ein resultierendes synthetisiertes Bild unnatürlich macht. Es gibt jedoch auch andere vorstellbare Situationen. Wenn ein bewegliches Teil beispielsweise seinen Zustand geändert hat, dann kann das Bildes beweglichen Teils einen unterschiedlichen Teil des Bildes einnehmen, das von einer Kamera aufgenommen wird, die an einem festen Teil montiert ist, und dadurch das Entstehen des synthetisierten Bildes unnatürlich machen. Insbesondere kann das Bild einer geöffneten Tür unabsichtlich von einer Kamera aufgenommen werden, die an einem festen Teil montiert ist, nicht von der Kamera, die auf dem beweglichen Teil, das sich geöffnet hat, montiert ist.
  • Dann muss anstelle der Tabelle 2 für die Wechsler 23 oder 23A nur eine Tabelle, die eine Korrespondenz zwischen den beweglichen Teilen und den zugeordneten Kameras, die nicht auf diesen beweglichen Teilen montiert sind, sondern durch irgendeine Zustandsänderung der beweglichen Teile beeinflusst werden sollten, vorbereitet werden. Dann können dieselben Effekte wie die der vorangegangenen Ausführungsformen auch durch Durchführen ähnlicher Prozessschritte erreicht werden.
  • Es sollte angemerkt werden, dass die Information, die die Zustandsänderung eines beweglichen Teils darstellt, nicht unbedingt eine digitale (d. h. offen oder geschlossen) sein muss, sondern auch eine analoge sein kann (z. B., wie weit das Teil geöffnet ist). Beispielsweise kann der normale Modus immer noch gewählt werden, wenn eine Türe nur leicht offen ist, aber es sollte in den Alarmmodus umgeschaltet werden, wenn der Winkel den die geöffnete Tür mit dem Fahrzeugkörper bildet, einen vorbestimmten Schwellenwert überschreitet. Es sollte auch angemerkt werden, dass die beweglichen Teile in der vorliegenden Erfindung nicht auf Türen, Motorhaube und Kofferraum beschränkt sind, sondern auch Reifen, Antennen, bewegliche Rückspiegel und Scheinwerfer einschließen können. Wenn beispielsweise die Bewegung eines Reifens das synthetisierte Bild beeinflusst, kann der Anzeigemodus entsprechend dem Lenkwinkel, der von dem Rad, an dem der Reifen montiert ist, gebildet wird, umgeschaltet werden.
  • Weiterhin bedeutet in der vorliegenden Erfindung das "Fahrzeug" jede Art von verschiedenen Fahrzeugtypen, einschließlich Automobile mit normalem Hubraum, leichte Automobile, Lastwagen und Busse. Außerdem können so weit sich das erfinderische Konzept anwenden lässt, auch speziell ausgerüstete Fahrzeuge wie Kranwagen und Bagger, die Fahrzeuge, der vorliegenden Erfindung sein.
  • In der vorangegangenen Beschreibung wurde davon ausgegangen, dass das Überwachungssystem und der Bildprozessor der vorliegenden Erfindung bei Fahrzeugen eingesetzt werden. Die vorliegende Erfindung ist jedoch auch auf jede andere Art von beweglichen Objekten anwendbar, einschließlich Flugzeuge, Boote und Schiffe. Weiterhin können Kameras für das erfindungsgemäße Überwachungssystem auch auf ein unbewegtes Objekt, das überwacht werden soll, beispielsweise Geschäfte, Wohnungen und Ausstellungsräume ausgerichtet werden.
  • Darüber hinaus sind die Positionen und die Anzahl an Kameras, die montiert werden, nicht auf die illustrierten begrenzt.
  • Weiterhin können ein Teil oder alle der Funktionen des erfindungsgemäßen Bildprozessors entweder auf entsprechende Hardware- oder Software-Programme implementiert werden. Es ist auch möglich ein Speicher oder Übertragungsmedium zu verwenden, worauf ein Programm zum Ausführen der erfindungsgemäßen Bildverarbeitung durch einen Computer, entweder teilweise zur Gänze gespeichert ist.
  • Wie oben beschrieben, kann, selbst wenn eine Änderung in dem Zustand eines beweglichen Fahrzeugteils das synthetisierte Bild teilweise unnatürlich gemacht hat, dieser unnatürliche Teil von dem synthetisierten Bild, das dem Betrachter präsentiert wird, gemäß der vorliegenden Erfindung entfernt werden. Zusätzlich ist es durch geeignetes Umschalten des Anzeigemodus des synthetisierten Bildes möglich, einen Benutzer schnell und rechtzeitig wissen zu lassen, dass ein bewegliches Teil gegenwärtig in einem Zustand ist, der beispielsweise für den Betrieb eines Fahrzeugs ungünstig ist.

Claims (14)

  1. Verfahren zum Verarbeiten von Bildem, die von Kameras, welche auf einem Fahrzeug montiert sind, aufgenommen wurden, durch einen Bildverarbeitungsabschnitt, wobei das Verfahren umfasst: Empfangen einer Vielzahl von Bildern, die von den Kameras aufgenommen wurden, um die Umgebung des Fahrzeugs zu überwachen, Erzeugen eines synthetisierten Bildes aus der Vielzahl von Bildern und Ausgeben des synthetisierten Bildes an eine Anzeigevorrichtung, Empfangen eines Zustandssignals, das einen Zustand eines beweglichen Teils des Fahrzeugs angibt, gekennzeichnet durch Umschalten eines Anzeigemodus des synthetisierten Bildes von einem normalen Modus in einem Alarmmodus, wenn das Zustandssignal angibt, dass eine Veränderung in dem Zustand des beweglichen Teils das synthetisierte Bild unnatürlich gemacht hat.
  2. Verfahren nach Anspruch 1, wobei die Änderung in dem Zustand des beweglichen Teils die Position oder die Richtung von mindestens einer der Kameras geändert hat.
  3. Verfahren nach Anspruch 2, wobei in dem Alarmmodus der Bildverarbeitungsabschnitt das synthetisierte Bild erzeugt, ohne dabei das Bild zu verwenden, das von der Kamera aufgenommen wurde, deren Position oder Richtung sich geändert hat.
  4. Verfahren nach Anspruch 1, wobei infolge der Änderung des Zustands des beweglichen Teils das Bild des beweglichen Teils einen anderen Teil des Bildes, das von mindestens einer der Kameras aufgenommen wurde, einnimmt, um das synthetisierte Bild unnatürlich zu machen.
  5. Verfahren nach Anspruch 4, wobei der Bildverarbeitungsabschnitt in dem Alarmmodus das synthetisierte Bild erzeugt, ohne dabei das Bild der Kamera zu verwenden, bei der das Bild des beweglichen Teils einen unterschiedlichen Bereich einnimmt.
  6. Verfahren nach einem der Ansprüche 1–5, wobei der Bildverarbeitungsabschnitt im Alarmmodus das synthetisierte Bild nicht ausgibt.
  7. Verfahren nach einem der Ansprüche 1–6, wobei der Bildverarbeitungsabschnitt im Alarmmodus eine Warnmeldung anstelle von oder zusammen mit dem synthetisierten Bild ausgibt.
  8. Verfahren nach Anspruch 7, wobei der Bildverarbeitungsabschnitt die unterschiedlichen Warnmeldungen entsprechend der Art des beweglichen Teils mit der Änderung ausgibt.
  9. Verfahren nach Anspruch 8, wobei die Warnmeldung den Inhalt einschließt, der das bewegliche Teil mit der Änderung spezifiziert.
  10. Verfahren nach einem der Ansprüche 1–9, wobei das bewegliche Teil mindestens Türen, Kühlerhaube und Kofferraum des Fahrzeugs umfasst, und wobei der Anzeigemodus des synthetisierten Bildes in Übereinstimmung mit dem Öffnen und Schließen der Türen, der Kühlerhaube oder des Kofferraums, wie von dem Zustandssignal angegeben, umgeschaltet wird.
  11. Ein Überwachungssystem, umfassend eine Vielzahl von Kameras, die an einem Fahrzeug montiert sind, um Bilder der Umgebung eines Fahrzeugs aufzunehmen; eine Anzeigevorrichtung; und einen Bildverarbeitungsabschnitt, der die Bilder, die von den Kameras aufgenommen wurden, empfängt, ein synthetisiertes Bild aus den Bildem erzeugt und dann das synthetisierte Bild an die Anzeigevorrichtung ausgibt, gekennzeichnet durch Umschalten eines Anzeigemodus des synthetisierten Bildes von einem normalen Modus in einem Alarmmodus, wenn ein Zustandssignal angibt, dass eine Änderung in dem Zustand des beweglichen Teils das synthetisierte Bild unnatürlich gemacht hat.
  12. Überwachungssystem nach Anspruch 11, wobei die Änderung in dem Zustand des beweglichen Teils die Position, die Richtung oder das aufgenommene Bild von mindestens einer der Kameras geändert hat.
  13. Überwachungssystem nach Anspruch 11, wobei infolge der Änderung in dem Zustand des beweglichen Teils das Bild des beweglichen Teils einen unterschiedlichen Bereich des Bildes einnimmt, das von mindestens einer der Kameras aufgenommen wurde, um das synthetisierte Bild unnatürlich zu machen.
  14. Bildprozessor zum Bearbeiten von Bildern, die von Kameras aufgenommen wurden, die an einem Fahrzeug montiert sind, umfassend einen Bildverarbeitungsabschnitt mit: Mitteln zum Empfangen einer Vielzahl von Bildern, die von den Kameras aufgenommen wurden, um die Umgebung des Fahrzeugs zu überwachen, Mitteln zum Erzeugen eines synthetisierten Bildes aus der Vielzahl von Bildem und zum Ausgeben des synthetisierten Bildes an eine Anzeigevorrichtung, Mitteln zum Empfangen eines Zustandssignals, das den Zustand eines beweglichen Teils des Fahrzeugs angibt, gekennzeichnet durch Mittel zum Umschalten eines Anzeigemodus des synthetisierten Bildes von einem normalen Modus in einen Alarmmodus, wenn das Zustandssignal angibt, dass eine Änderung in dem Zustand des beweglichen Teils das synthetisierte Bild unnatürlich gemacht hat.
DE60100525T 2000-05-26 2001-05-23 Bildverarbeitung und Überwachungsgerät Expired - Lifetime DE60100525T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000155898A JP3599639B2 (ja) 2000-05-26 2000-05-26 画像処理装置
JP2000155898 2000-05-26

Publications (2)

Publication Number Publication Date
DE60100525D1 DE60100525D1 (de) 2003-09-04
DE60100525T2 true DE60100525T2 (de) 2004-03-04

Family

ID=18660766

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60100525T Expired - Lifetime DE60100525T2 (de) 2000-05-26 2001-05-23 Bildverarbeitung und Überwachungsgerät

Country Status (6)

Country Link
US (1) US6912001B2 (de)
EP (1) EP1157890B1 (de)
JP (1) JP3599639B2 (de)
KR (1) KR20010107775A (de)
CN (1) CN1224539C (de)
DE (1) DE60100525T2 (de)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
JP3269056B2 (ja) * 2000-07-04 2002-03-25 松下電器産業株式会社 監視システム
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
JP4512293B2 (ja) * 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP3607994B2 (ja) * 2001-11-12 2005-01-05 トヨタ自動車株式会社 車両用周辺監視装置
US10031885B2 (en) * 2010-02-01 2018-07-24 Netmotion Wireless, Inc. Public wireless network performance management system with mobile device data collection agents
KR200277875Y1 (ko) * 2002-03-11 2002-06-14 이스턴 마스텍 주식회사 자동차의 후방용 감시카메라의 좌우반전 스위칭 장치
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
US20060061008A1 (en) 2004-09-14 2006-03-23 Lee Karner Mounting assembly for vehicle interior mirror
WO2003105099A1 (en) 2002-06-06 2003-12-18 Donnelly Corporation Interior rearview mirror system with compass
AU2003278863A1 (en) 2002-09-20 2004-04-08 Donnelly Corporation Mirror reflective element assembly
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
US20040119822A1 (en) * 2002-12-20 2004-06-24 Custer Robert J. Multiple camera system on single monitor display
JP3800172B2 (ja) * 2002-12-24 2006-07-26 トヨタ自動車株式会社 車両用周辺監視装置
JP3728508B2 (ja) * 2003-02-17 2005-12-21 国立大学法人 東京大学 画像生成装置及び方法
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
JP2005124010A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 撮像装置
JP2005223524A (ja) * 2004-02-04 2005-08-18 Nissan Motor Co Ltd 車両周辺監視装置
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
US7594177B2 (en) * 2004-12-08 2009-09-22 Microsoft Corporation System and method for video browsing using a cluster index
JP2006224873A (ja) * 2005-02-18 2006-08-31 Denso Corp 車両周辺監視装置
US7782374B2 (en) * 2005-03-03 2010-08-24 Nissan Motor Co., Ltd. Processor and processing method for generating a panoramic image for a vehicle
ATE517368T1 (de) 2005-05-16 2011-08-15 Donnelly Corp Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil
JP4679260B2 (ja) * 2005-06-24 2011-04-27 アルパイン株式会社 車両運転支援装置
JP4760831B2 (ja) * 2005-08-02 2011-08-31 日産自動車株式会社 車両周囲監視装置及び車両周囲監視方法
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
US8698894B2 (en) 2006-02-07 2014-04-15 Magna Electronics Inc. Camera mounted at rear of vehicle
US7995048B2 (en) 2006-03-31 2011-08-09 Sharp Kabushiki Kaisha Instrument panel display system for mounting on automobile, and image data output device
JP4656005B2 (ja) * 2006-06-02 2011-03-23 日産自動車株式会社 画像処理システム及び画像処理方法
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP4254887B2 (ja) * 2006-07-06 2009-04-15 日産自動車株式会社 車両用画像表示システム
JP2009080724A (ja) * 2007-09-27 2009-04-16 Panasonic Corp 画像処理装置
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
WO2009141846A1 (ja) * 2008-05-19 2009-11-26 パナソニック株式会社 車両周囲監視装置および車両周囲監視方法
EP2179892A1 (de) * 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
US8237909B2 (en) * 2009-02-06 2012-08-07 Gentex Corporation Vehicular rearview mirror assembly including integrated backlighting for a liquid crystal display (LCD)
US8411245B2 (en) * 2009-02-06 2013-04-02 Gentex Corporation Multi-display mirror system and method for expanded view around a vehicle
JP5223811B2 (ja) * 2009-08-06 2013-06-26 株式会社日本自動車部品総合研究所 画像補正装置、画像補正方法、及びそれらに用いられる変換マップ作成方法
DE102010020203A1 (de) * 2010-05-12 2011-11-17 Volkswagen Ag Verfahren zum Einparken oder Ausparken und zur Vermeidung einer Kollision eines Fahrzeugs sowie entsprechende Assistenzsysteme und Fahrzeug
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
CN102985945B (zh) * 2011-06-02 2016-09-07 松下知识产权经营株式会社 物体检测装置、物体检测方法
DE102011112578A1 (de) 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung für ein Assistenzsystem in einem Fahrzeug zur Durchführung eines autonomen oder teilautonomen Fahrmanövers
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
KR101384332B1 (ko) * 2012-09-06 2014-04-10 현대모비스 주식회사 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템
CN102854897A (zh) * 2012-09-28 2013-01-02 上海元朔信息科技有限公司 一种异常目标发现与跟踪系统及方法
DE102013012808B4 (de) * 2013-08-01 2023-11-23 Connaught Electronics Ltd. Verfahren zum Erzeugen einer Look-Up-Tabelle im Betrieb eines Kamerasystems, Kamerasystem und Kraftfahrzeug
AU2014326772B2 (en) 2013-09-24 2017-07-20 Gentex Corporation Display mirror assembly
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
WO2015143333A1 (en) 2014-03-21 2015-09-24 Gentex Corporation Tri-modal display mirror assembly
KR101894262B1 (ko) 2014-04-01 2018-09-04 젠텍스 코포레이션 자동 디스플레이 미러 어셈블리
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
KR101932547B1 (ko) 2014-10-23 2018-12-27 한화테크윈 주식회사 카메라 시스템 및 이의 영상 정합 방법
WO2016073848A1 (en) 2014-11-07 2016-05-12 Gentex Corporation Full display mirror actuator
EP3218227B1 (de) 2014-11-13 2018-10-24 Gentex Corporation Rückspiegelsystem mit einer anzeige
KR101997815B1 (ko) 2014-12-03 2019-07-08 젠텍스 코포레이션 디스플레이 미러 어셈블리
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
JP2018513810A (ja) 2015-04-20 2018-05-31 ジェンテックス コーポレイション 装飾を備えた後方視認アセンブリ
EP3297870B1 (de) 2015-05-18 2020-02-05 Gentex Corporation Rückblickvorrichtung mit vollanzeige
JP6261542B2 (ja) 2015-06-10 2018-01-17 株式会社デンソーテン 画像処理装置および画像処理方法
WO2016209877A1 (en) 2015-06-22 2016-12-29 Gentex Corporation System and method for processing streamed video images to correct for flicker of amplitude-modulated lights
CN108349435B (zh) 2015-10-30 2021-06-15 金泰克斯公司 切换板
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
EP3368375B1 (de) 2015-10-30 2020-03-04 Gentex Corporation Rückblickvorrichtung
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
JP6752093B2 (ja) * 2016-09-15 2020-09-09 株式会社小糸製作所 カメラモニターシステム
IT201600093818A1 (it) * 2016-09-19 2018-03-19 Iveco Spa Cabina per veicolo industriale provvista di sensori di visione
KR101949438B1 (ko) * 2016-10-05 2019-02-19 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 포함하는 차량
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
KR101954199B1 (ko) * 2016-12-09 2019-05-17 엘지전자 주식회사 차량용 어라운드 뷰 모니터링 장치, 운행 제어 장치 및 차량
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
EP3562710A4 (de) 2016-12-30 2019-11-13 Gentex Corporation Vollanzeigespiegel mit spotterbetrachtung auf anfrage
JP6807771B2 (ja) * 2017-02-20 2021-01-06 株式会社アルファ 車両用監視装置
CN110312641A (zh) 2017-03-17 2019-10-08 金泰克斯公司 双显示倒车摄像系统
JP6939368B2 (ja) * 2017-10-04 2021-09-22 トヨタ自動車株式会社 画像表示装置
KR102441079B1 (ko) * 2017-11-30 2022-09-06 현대자동차주식회사 차량의 디스플레이 제어 장치 및 방법
CN110379206B (zh) * 2019-07-26 2020-11-17 中国标准化研究院 一种车辆行驶异常的预警系统及预警方法
FR3120030A1 (fr) * 2021-02-25 2022-08-26 Psa Automobiles Sa Procédé et dispositif de rétro-vision numérique utilisé par un véhicule pour remplacer des rétroviseurs extérieurs du véhicule

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63146710A (ja) 1986-12-10 1988-06-18 株式会社 ホクエイ 移植機及び播種機等の植付装置
JPS63146710U (de) * 1987-03-17 1988-09-28
JP2696516B2 (ja) * 1987-11-09 1998-01-14 三菱自動車工業株式会社 車輌の安全監視装置
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5430431A (en) * 1994-01-19 1995-07-04 Nelson; Louis J. Vehicle protection system and method
JPH07274161A (ja) * 1994-03-29 1995-10-20 Toshiba Corp 車両後方確認装置
JP3475507B2 (ja) * 1994-08-08 2003-12-08 日産自動車株式会社 車両用周囲モニタ装置
US5680123A (en) * 1996-08-06 1997-10-21 Lee; Gul Nam Vehicle monitoring system
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP3284917B2 (ja) * 1997-03-17 2002-05-27 三菱自動車工業株式会社 車両用周辺視認装置
JPH1155656A (ja) * 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 車両側方監視装置
JPH1178692A (ja) * 1997-09-03 1999-03-23 Nissan Motor Co Ltd 車両用映像提示装置
US6693524B1 (en) * 1998-06-02 2004-02-17 George R. Payne Vehicle backup monitoring and alarm system
EP2259220A3 (de) * 1998-07-31 2012-09-26 Panasonic Corporation Vorrichtung und Verfahren zur Bildanzeige
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system

Also Published As

Publication number Publication date
DE60100525D1 (de) 2003-09-04
US6912001B2 (en) 2005-06-28
EP1157890A1 (de) 2001-11-28
JP2001334870A (ja) 2001-12-04
CN1325802A (zh) 2001-12-12
US20020039136A1 (en) 2002-04-04
KR20010107775A (ko) 2001-12-07
CN1224539C (zh) 2005-10-26
JP3599639B2 (ja) 2004-12-08
EP1157890B1 (de) 2003-07-30

Similar Documents

Publication Publication Date Title
DE60100525T2 (de) Bildverarbeitung und Überwachungsgerät
EP3029929B1 (de) Sichtsystem
DE60218260T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges und Verfahren zur Einstellung derselben
DE102005018773B4 (de) Vorrichtung zur Sicht der Umgebung eines Fahrzeugs
DE102008034594B4 (de) Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
DE60025864T2 (de) Multifunktionales Kamera-System für ein Fahrzeug sowie Verfahren zum Anzeigen von Bildern
DE102005035776A1 (de) Vorrichtung zur visuellen Kontrolle einer Fahrzeugumgebung
DE102006007493B4 (de) Vorrichtung zum Sehen der Peripherie eines Fahrzeuges
DE102004043257B4 (de) Kameraeinheit und Vorrichtung zur Überwachung der Fahrzeugumgebung
DE19923964C2 (de) Umgebungs-Überwachungsgerät für ein Fahrzeug
DE60224248T2 (de) Verfahren und Vorrichting zum Erfassen des rückwärtigen Raumes eines Fahrzeugs
EP3501897A1 (de) Sichtsystem zur erfassung einer fahrzeugumgebung
WO2014094941A1 (de) Kraftfahrzeug mit kamera-monitor-system
DE102008034606A1 (de) Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
WO2013087362A1 (de) Verfahren zur verbesserung der objektdetektion bei multikamerasystemen
DE102009025205A1 (de) Anzeige und Verfahren für eine Umgebungsdarstellung eines Kraftfahrzeug-Surround-View-Systems
DE112006003847T5 (de) Anzeigevorrichtung für das Innere eines Fahrzeugs
EP1803292A1 (de) System für die erfassung und wiedergabe von bildern
DE10297590B4 (de) Fahrunterstützungssystem, Bildausgabevorrichtung und mit Kamera ausgestatteter Stab
EP3106349B1 (de) Sichtsystem für ein nutzfahrzeug zur darstellung von gesetzlich vorgeschriebenen sichtfeldern eines hauptspiegels und eines weitwinkelspiegels
WO2006034924A1 (de) Verfahren zur darstellung eines von einer videokamera aufgenommenen bildes
EP2804785B1 (de) Anzeigesystem für ein fahrzeug
DE102020134814A1 (de) Vorrichtung zum Überwachen von Umgebungen eines Fahrzeugs
DE10243620A1 (de) Verfahren zur Bildverarbeitung der von einem System zur Umfelderfassung eines Fahrzeuges erfassten optischen Signale und System zur Umfelderfassung eines Fahrzeuges
DE102019106297A1 (de) Fahrzeugumgebungsanzeigesystem und Anzeigesteuervorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP