DE69906403T2 - Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets - Google Patents

Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets Download PDF

Info

Publication number
DE69906403T2
DE69906403T2 DE69906403T DE69906403T DE69906403T2 DE 69906403 T2 DE69906403 T2 DE 69906403T2 DE 69906403 T DE69906403 T DE 69906403T DE 69906403 T DE69906403 T DE 69906403T DE 69906403 T2 DE69906403 T2 DE 69906403T2
Authority
DE
Germany
Prior art keywords
image
reduced resolution
saturation
resolution
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69906403T
Other languages
English (en)
Other versions
DE69906403D1 (de
Inventor
Qi He Abingdon Hong
Nicholas Steven Wallingford Holliman
David Wallingford Ezra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE69906403D1 publication Critical patent/DE69906403D1/de
Publication of DE69906403T2 publication Critical patent/DE69906403T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erfassen eines gesichtsähnlichen Gebiets in einem Farbbild. Ein derartiges Verfahren kann in Zusammenhang mit anderen Verfahren zum Erfassen eines Gesichts in einem Bild und zum Erfassen eines Zielbilds verwendet werden, z.B. im Initialisierungsstadium eines Bildnachfahrsystems, das einem autostereoskopischen Display mit Betrachter-Nachfahreigenschaft zugeordnet werden kann. Derartige Verfahren und Vorrichtungen verfügen über große Anwendungsbereiche, z.B. bei Erfassung der Hautfarbe, Gesichtserfassung und -erkennung, Sicherheitsüberwachung, Video- und Bildkompression, Videokonferenzbetrieb, Multimedia-Datenbanksuchvorgängen und Computerspielen.
  • Die Erfindung betrifft auch ein dem Betrachter nachfahrendes Display, z.B. vom autostereoskopischen Typ, das die obige Vorrichtung enthält.
  • Autostereoskopische Displays ermöglichen es einem Betrachter, zwei getrennte Bilder, die ein stereoskopisches Paar bilden, dadurch zu betrachten, dass er derartige Displays betrachtet, wobei die Augen in zwei Betrachtungsfenster blicken. Beispiele derartiger Displays sind in EP 0 602 934 , EP 0 656 555 , EP 0 708 351 , EP 0 726 482 und EP 0 829 743 offenbart. Ein Beispiel eines bekannten Typs eines dem Betrachter nachfahrenden autostereoskopischen Displays ist in der 1 der beigefügten Zeichnungen veranschaulicht.
  • Das Display verfügt über ein Displaysystem 1 in Zusammenwirkung mit einem Nachfahrsystem 2. Das Nachfahrsystem 2 verfügt über einen Nachfahrsensor 3, der ein Sensorsignal an einen Nachfahrprozessor 4 liefert. Der Nachfahrprozessor 4 leitet aus dem Sensorsignal ein Betrachterpositions-Datensignal her, das an einen Displaysteuerungsprozessor 5 des Displaysystems 1 geliefert wird. Der Prozessor 5 setzt das Positionsdatensignal in ein Fenstersteuersignal um, das er an einen Steuermechanismus 6 eines nachgefahrenen 3D-Displays 7 liefert. Die Betrachtungsfenster für die Augen des Betrachters werden demgemäß so gesteuert, dass sie einer Bewegung des Kopfs des Betrachters folgen, um, innerhalb des Arbeitsbereichs, die Augen des Betrachters in geeigneten Betrachtungsfenstern zu halten.
  • Angesichts aller möglichen Typen von Menschen mit unterschiedlichem Alter, Geschlecht, Augenform und Hautfarbe bei verschiedenen Beleuchtungsbedingungen wäre die Erfassung für einen Computer schwierig.
  • Suwa et al. offenbaren in "A Video Quality Improvement Technique for Video Phone and Video Conference Ternminal", IEEE Workshop on Visual Signal Processing and Communications, 21.- 22. September 1993, Melbourne, Australien eine Technik zum Erfassen eines Gesichtsgebiets auf Grundlage eines statistischen Modells der Hautfarbe. Diese Technik geht davon aus, dass die Farbe und die Helligkeit im Gesichtsgebiet innerhalb eines definierten Bereichs liegen und das Gesicht einen vorbestimmten Umfang des Raums innerhalb eines Videovollbilds belegt. Durch Suchen nach einem Farbgebiet, das aus Bildpixeln besteht, dessen Farben innerhalb des Bereichs liegen und dessen Größe innerhalb einer bekannten Größe liegt, kann ein Gesichtsgebiet lokalisiert werden. Jedoch ändert sich der Farbraumbereich für die Hautfarbe abhängig von Änderungen der Belichtungsquelle, der Richtung und der Intensität. Der Farbraum variiert ebenfalls für verschiedene Hautfarben. Demgemäß benötigt diese Technik eine Kalibrierung des Hautfarbraums für jede spezielle Anwendung und jedes spezielle System, so dass sie von beschränkter Anwendbarkeit ist.
  • Swain et al. offenbaren in "Color Indexing", International Journal of Computer Vision, 7 : 1, Seiten 11 bis 32, 1991 die Verwendung von Farbhistogrammen mehrfarbiger Objekte zum Erstellen eines Farbindexes in einer großen Datenbank von Modellen. Dann wird eine als "Histogramm-Rückprojektion" bekannte Technik dazu verwendet, die Position eines bekannten Objekts wie eines Gesichtsgebiets zu lokalisieren, wie es z.B. von Sako et al. in - Real-Time Facial-Feature Tracking based on Matching Techniques and its Applications", Proceedings of 12 IAPR International Conference on Patent Recognition, Jerusalem, 6. – 13. Oktober 1994, Vol. II, Seiten 320 bis 324 offenbart ist. Jedoch erfordert diese Technik die Kenntnis des gewünschten Ziels, wie eines Farbhistogramms eines Gesichts, und sie funktioniert nur dann, wenn ausreichend viele Pixel des Zielbilds von Pixeln anderer Teile des Bilds verschieden sind. Daher ist es erforderlich, für einen kontrolfierten Hintergrund zu sorgen, und es sind zusätzliche Techniken erforderlich, um Beleuchtungsänderungen zu meistern.
  • Chen et al. offenbaren in "Face Detection by Fuzzy Pattern Matching", IEEE (0-8186-7042-8), Seiten 591 bis 596, 1995 eine Technik zum Erfassen eines gesichtsähnlichen Gebiets in einem Eingangsbild unter Verwendung eines Fuzzy-Musteranpassungsverfahrens, das stark auf der Entnahme von Hautfarben unter Verwendung eines Modells beruht, das als "Hautfarben-Verteilungsfunktion" (SKDF = skin colour distribution function) bekannt ist. Bei dieser Technik wird als Erstes das RGB-Signal in einen Farnsworth-Farbraum umgesetzt, wie es von Wyszechi et al. in "Farbscience", John Wiley & Sons Inc., 1982 offenbart ist. Die SCDF wird dadurch erstellt, dass eine große Gruppe von Probenbildern gesammelt wird, die menschliche Gesichter enthalten, und die Hautbereiche in den Bildern durch menschliche Betrachter ausgewählt werden. Dann wird ein Lernprogramm dazu angewandt, die Häufigkeit jeder Farbe im Farbraum, wie sie in den Hautgebieten auftritt, zu untersuchen. Die SCDF wird dann einheitlich erstellt und dazu verwendet, das Ausmaß dazu abzuschätzen, wie gut eine Farbe einer Hautfarbe ähnlich sieht. Wenn einmal ein Gebiet als wahrscheinliches Hauptgebiet entnommen ist, wird es einer weiteren Analyse auf Grundlage vor erstellter Gesichtsformmodelle, von denen jedes 10 × 12 quadratische Zellen enthält, unterzogen. Jedoch besteht ein Problem bei dieser Technik darin, dass sich die SCDF ändern kann, wenn sich die Belichtungsbedingungen ändern.
  • Gemäß einer ersten Erscheinungsform der Erfindung ist Folgendes geschaffen ein Verfahren zum Erfassen eines gesichtsähnlichen Gebiets eines Farbbilds, bei dem die Auflösung des Farbbilds durch Mittelung der Sättigung verringert wird, um ein Bild mit verringerter Auflösung zu erzeugen, und bei dem nach einem Gebiet des Bilds mit verringerter Auflösung gesucht wird (23), das, innerhalb einer vorbestimmten Form, eine im Wesentlichen gleichmäßige Sättigung aufweist, die sich wesentlich von der Sättigung des Teils des Bilds mit verringerter Auflösung unterscheidet, der die vorbestimmte Form umgibt.
  • Das Farbbild kann mehrere Bildelemente aufweisen, und die Auflösung kann so verringert werden, dass sich die vorbestimmte Form über zwei bis drei Elemente im Bild mit verringerter Auflösung erstreckt.
  • Das Farbbild kann ein Rechteckarray von M × N Bildelementen enthalten, das Bild mit verringerter Auflösung kann über (M/m) auf (N/n) Bildelemente verfügen, von denen jedes m auf n Bildelementen des Farbbilds entspricht, und die Sättigung P jedes Bildelements im Bild mit verringerter Auflösung kann wie folgt gegeben sein:
    Figure 00040001
    wobei f(i,j) die Sättigung des Bildelements in der Spalte i und der Zeile j der m auf n Bildelemente ist. Zum Verfahren kann das Abspeichern der Sättigungswerte in einem Speicher gehören.
  • Jedem der Elemente im Bild mit verringerter Auflösung kann ein Gleichmäßigkeitswert dadurch zugeschrieben wird, dass die Sättigung jedes der Elemente des Bilds mit verringerter Auflösung mit der Sättigung mindestens eines benachbarten Elements im Bild mit verringerter Auflösung verglichen wird.
  • Jedem Gleichmäßigkeitswert kann ein erster Wert zugeschrieben werden, wenn
  • (max(P) – min(P))/max(P) ≤ T
  • gilt, wobei max(P) und min(P) der Maximal- bzw. Minimalwert der Sättigungen des Elements im Bild mit verringerter Auflösung und des oder jedes benachbarten Bildelements sind und T ein Schwellenwert ist, und er andernfalls ein zweiter Wert ist, der vom ersten Wert verschieden ist. T kann im Wesentlichen 0,15 entsprechen.
  • Dem benachbarten Element im Bild mit verringerter Auflösung muss kein Gleichmäßigkeitswert zugeschrieben werden, oder es muss nicht jedem benachbarten im Bild mit verringerter Auflösung ein Gleichmäßigkeitswert zugeschrieben werden, und jeder Gleichmäßigkeitswert kann anstelle des entsprechenden Sättigungswerts im Speicher abgeschrieben.
  • Die Auflösung kann so verringert werden, dass sich die vorbestimmte Form über zwei oder drei Elemente im Bild mit verringerter Auflösung erstreckt, und zum Verfahren gehört es ferner, dass die Erfassung eines gesichtsähnlichen Gebiets angezeigt wird, wenn ein Gleichmäßigkeitswert vom ersten Wert entweder einem Element im Bild mit verringerter Auflösung, zwei vertikal oder horizontal benachbarten Elementen (43, 45) im Bild mit verringerter Auflösung oder einem rechteckigen Zwei-auf-zwei-Array von Bildelementen zugeschrieben ist und wenn ein Gleichmäßigkeitswert vom zweiten Werte jedem umgebenden Element im Bild mit verringerter Auflösung zugeschrieben ist.
  • Die Erfassung kann dadurch angezeigt werden, dass ein dritter Wert, der vom ersten und vom zweiten Wert verschieden ist, anstelle des entsprechenden Gleichmäßigkeitswerts im Speicher abgespeichert wird.
  • Zum Verfahren kann es gehören, die Auflösungsverringerung und den Suchvorgang mindestens einmal zu wiederholen, wobei die Elemente im Bild mit verringerter Auflösung in Bezug auf die Farbbildelemente verschoben sind.
  • Die Sättigung kann aus Komponenten für rot, grün und blau wie folgt hergeleitet werden:
  • (max(R,G,B) – min(R,G,B))/max(R,G,B)
  • wobei max(R,G,B) und min(R,G,B) der Maximal- bzw. Minimalwert der Komponenten für rot, grün und blau sind.
  • Zum Verfahren kann es gehören, das Farbbild aufzunehmen. Das Farbbild kann durch eine Videokamera aufgenommen werden, und die Auflösungsverringerung und der Suchvorgang können für verschiedene Videohalbbilder oder -vollbilder von der Videokamera wiederholt werden. Ein erstes Farbbild kann aufgenommen werden, während ein erwarteter Bereich von Positionen eines Gebiets beleuchtet wird, ein zweites Farbbild kann unter Verwendung von Umgebungslicht aufgenommen werden und das zweite Farbbild kann vom ersten Farbbild abgezogen werden, um das Farbbild zu erzeugen.
  • Gemäß einer zweiten Erscheinungsform der Erfindung ist Folgendes geschaffen: eine Vorrichtung zum Erfassen eines gesichtsähnlichen Gebiets eines Farbbilds, gekennzeichnet durch einen Datenprozessor, der so ausgebildet ist, dass er die Auflösung des Farbbilds durch Mittelung der Sättigung verringert, um ein Bild mit verringerter Auflösung zu erzeugen, und er nach einem Gebiet des Bilds mit verringerter Auflösung sucht, das, innerhalb einer vorbestimmten Form, eine im Wesentlichen gleichmäßige Sättigung aufweist, die von der Sättigung des Teils des Bilds mit verringerter Auflösung um die vorbestimmte Form herum deutlich verschieden ist.
  • Gemäß einer dritten Erscheinungsform der Erfindung ist ein dem Betrachter nachfahrendes Display geschaffen, das eine Vorrichtung gemäß der zweiten Erscheinungsform der Erfindung enthält.
  • Es ist bekannt, dass die menschliche Haut die Tendenz einer gleichmäßigen Sättigung zeigt. Das aktuelle Verfahren und die Vorrichtung nutzen diese Eigenschaft, und sie sorgen für ein effizientes Verfahren zum Auffinden von Kandidaten für Gesichter in Farbbildern. Es kann ein größerer Bereich von Belichtungsbedingungen gemeistert werden, ohne dass eine Farbkalibrierung erforderlich ist, so dass diese Technik zuverlässiger und zweckdienlicher als die bekannten Techniken ist. Durch Verringern der Auflösung der Bildsättigung werden Rechenerfordernisse beträchtlich verringert und es kann ein relativ einfaches Verfahren verwendet werden. Durch Mittelung wird die Gleichförmigkeit der Sättigung in einem Gesichtsgebiet erhöht, so dass diese Technik dazu in der Lage ist, Gesichtskandidaten in Bildern von Menschen verschiedenen Alters, Geschlechts und verschiedener Hautfarbe zu erkennen, und sie kann sogar mit Bildern von Trägern von Brillen heller Farbe zurechtkommen. Da diese Technik sehr effizient ist, kann sie in Echtzeit realisiert werden, und sie kann bei billigen kommerziellen Anwendungen verwendet werden.
  • Diese Technik kann im Anfangsstadium 9 verwendet werden, wie es in der 3 der beigefügten Zeichnungen für das in EP 0 877 274 und GB 2 324 428 offenbarte Bildnachfahrsystem dargestellt ist. Ferner kann diese Technik als erster Teil zweistufiger Gesichtserfassungs- und Erkennungstechniken verwendet werden, wie z.B. in US 5 164 992 , US 5 012 522, Turk et al., "Eigen faces for Recognition", Journal 1 of Cognitive Neuroscience, Vo1. 3, No. 1, Seiten 70 bis 81, 1991, Yuille et al., "Feature Extraction from Faces using Deformable Templates", International Journal of Computer Vision, 8(2), Seiten 99 bis 111, 1992 und in Yang et al. "Human Face Detection in Complex Background", Pattern Recognition, Vol. 27, No. 1, Seiten 53 bis 63, 1994. Bei derartigen zweistufigen Techniken lokalisiert die erste Stufe die ungefähre Position des Gesichts, und die zweite Stufe sorgt für eine weitere Analyse jedes Kandidatengesichtsgebiets, um das Vorhandensein eines Gesichts zu bestätigen und genaue Gesichtsmerkmale wie Augen, die Nase und die Lippen zu entnehmen. Die erste Stufe benötigt keine hohe Genauigkeit, und sie kann mit schnellen Algorithmen realisiert werden. Die Anzahl der Bildgebiete, die in der zweiten Stufe zu analysieren sind, ist durch die erste Stufe begrenzt. Dies ist von Vorteil, da die zweite Stufe im Allgemeinen ausgeklügeltere Algorithmen benötigt und so rechenintensiver ist.
  • Die Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen beispielhaft weiter beschrieben.
  • 1 ist ein schematisches Blockdiagramm eines bekannten Typs eines dem Betrachter nachfahrenden autostereoskopischen Displays;
  • 2 ist ein schematisches Blockdiagramm eines den Betrachter nachfahrenden Displays, bei dem die Erfindung angewandt werden kann;
  • 3 ist ein Flussdiagramm zum Veranschaulichen des Betrachternachfahrvorgangs beim Display der 2;
  • 4 veranschaulicht ein typisches Zielbild oder eine Schablone, wie sie durch das durch die 3 veranschaulichte Verfahren erfasst wird;
  • 5 veranschaulicht das Aussehen einer Anzeige während der Schablonenerfassung durch das Display der 2;
  • 6 ist ein Flussdiagramm zum Veranschaulichen eines Verfahrens zum Erfassen gesichtsähnlicher Gebiete, das eine Ausführungsform der Erfindung bildet;
  • 7 ist ein Diagramm zum Veranschaulichen eines Farbsättigungswert(HSV = hue saturation value)-Farbschemas;
  • 8 ist ein Diagramm zum Veranschaulichen einer Bildauflösungsverringerung durch Mittelung beim in der 6 veranschaulichten Verfahren;
  • 9 ist ein Diagramm zum Veranschaulichen der Berechnung von Gleichmäßigkeitswerten beim in der 6 veranschaulichten Verfahren;
  • 10 ist ein Diagramm zum Veranschaulichen von Mustern, wie sie bei der Auswahl von Gesichtskandidaten beim in der 6 veranschaulichten Verfahren verwendet werden;
  • 11 ist ein Diagramm zum Veranschaulichen der Auswirkung verschiedener Positionen eines Gesichts auf das in der 6 veranschaulichte Verfahren;
  • 12 ist ein Diagramm zum Veranschaulichen einer Modifizierung des in der 6 veranschaulichten Verfahrens, um verschiedene Gesichtspositionen zu meistern;
  • 13 ist ein schematisches Blockdiagramm eines dem Betrachter nachfahrenden Displays, bei dem die Erfindung angewandt ist;
  • 14 ist ein Systemblockdiagramms eines Videonachfahrsystems beim Display der 13 zum Ausführen des erfindungsgemäßen Verfahrens.
  • In allen Zeichnungen kennzeichnen gleiche Bezugszahlen gleiche Teile.
  • Die 6 veranschaulicht in Flussdiagrammform ein Verfahren zum automatischen Erfassen und Lokalisieren gesichtsähnlicher Gebiete eines in Pixel unterteilten Farbbilds aus einer Videobildsequenz. Die Videobildsequenz kann in Echtzeit z.B. durch eine Videokamera des oben unter Bezugnahme auf die 2 beschriebenen Typs geliefert werden. Das Verfahren ist dazu in der Lage, als Teil des in der 3 dargestellten Initialisierungsstadiums 9 in Echtzeit zu arbeiten.
  • In einem Schritt 20 wird das jüngste digitale Bild im Rot/Grün/Blau(RGB)-Format erhalten. Z.B. kann es zu diesem Schritt gehören, das jüngste Halbbild von Videodaten von der Videokamera in einem Halbbildspeicher abzuspeichern. In einem Schritt 21 wird das Videobild aus dem RGB-Format in das HSV-Format umgesetzt, um die Sättigung jedes Pixels zu erhalten. In der Praxis reicht es aus, im Schritt 21 nur die Komponente S zu ermitteln, und dies kann dazu verwendet werden, die RGB-Pixeldaten oder eine Komponente derselben im Halbbildspeicher zu überschreiben, um Speichererfordernisse zu minimieren.
  • Das RGB-Format ist ein hardwareorientiertes Farbschema, das sich aus der Art ergibt, gemäß der Kamerasensoren und Display-Leuchtstoffe arbeiten. Das HSV-Format ist eines von mehreren Formaten, die die Farbsättigungsintensität (HSI = hue saturation intensity) und die Farbhelligkeitssättigung (HLS = hue lightness saturation) enthalten, und es steht in engerem Zusammenhang mit den Konzepten der Farbgebung, der Abschattung und des Farbtons. Beim HSV-Format repräsentiert der Farbton die Farbe, wie sie durch die Lichtwellenlänge vorgegeben ist (z.B. Unterscheidung zwischen rot und gelb), die Sättigung repräsentiert den Umfang, gemäß dem die Farbe vorhanden ist (z.B. Unterscheidung zwischen rot und rosa), und die Helligkeit, die Intensität oder der Wert repräsentiert die Lichtmenge (z.B. Unterscheidung zwischen dunkelrot und hellrot oder zwischen dunkelgrau und hellgrau). Der "Raum", in dem diese Werte aufgetragen werden kann, kann als Kreis- oder Sechseckkegel oder Doppelkegel dargestellt werden, wie z.B. in der 7 dargestellt, wobei die Kegelachse dem Fortschreiten auf der Grauskala von schwarz nach weiß entspricht, der Abstand von der Achse die Sättigung re präsentiert und die Richtung oder der Winkel um die Achse den Farbton repräsentiert.
  • Die Farbe der menschlichen Haut wird durch eine Kombination von Blut (rot) und Melanin (gelb, braun) erzeugt. Hautfarben liegen zwischen diesen zwei extremen Farbtönen, und sie sind etwas gesättigt, aber nicht extrem gesättigt. Die Sättigungskomponente des menschlichen Gesichts ist relativ gleichmäßig.
  • Es existieren mehrere Techniken, um Videobilddaten vom RGB-Format in das HSV-, HSI- oder HLS-Format umzusetzen. Es kann jede Technik verwendet werden, die die Sättigungskomponente entnimmt. Z.B. kann die Umsetzung entsprechend dem folgenden Ausdruck für die Sättigungskomponente S ausgeführt werden:
  • S = 0 für max(R,G,B) = 0
  • S = (max(R,G,B) – min(R,G,B))/max(R,G,B) andernfalls
  • Folgend auf den Umsetzungsschritt 21 wird die räumliche Bildauflösung der Sättigungskomponente durch Mittelung in einem Schritt 22 verringert. Wie oben unter Bezugnahme auf die 2 beschrieben, ist der ungefähre Abstand des Gesichts eines Betrachters vom Display bekannt, so dass die ungefähre Größe eines Gesichts in jedem Videobild bekannt ist. Die Auflösung wird so verringert, dass das Gesicht eines erwachsenen Betrachters ungefähr zwei bis drei Pixel in jeder Abmessung belegt, wie es in der 6 dargestellt ist. Nachfolgend wird eine Technik, um dies zu erzielen, detaillierter beschrieben.
  • In einem Schritt 23 werden, im Bild mit verringerter Auflösung aus dem Schritt 22, Bereiche oder "Farbflecke" gleicher Sättigung mit vorbestimmter Größe und Form erfasst, die von einem Bereich von Pixeln mit verringerter Auflösung mit anderer Sättigung umgeben sind. Eine Technik, um dies zu bewerkstelligen, wird ebenfalls nachfolgend detaillierter beschrieben. In einem Schritt 24 wird erfasst, ob ein Gesichtskandidat oder ein gesichtsähnliches Gebiet aufgefunden wurde. Falls nicht, werden die Schritte 20 bis 24 wiederholt. Wenn im Schritt 24 geklärt wird, dass mindestens ein Kandidat aufgefunden wurde, wird die Position des oder jedes im Schritt 23 erfassten gleichmäßigen Farbflecks in einem Schritt 25 ausgegeben.
  • Die 8 veranschaulicht detaillierter den Schritt 22 zum Verringern der Bildauflösung. 30 veranschaulicht die Pixelstruktur eines dem Schritt 20 zugeführten Bilds. Die räumliche Auflösung ist als Rechteckarray von M × N quadratischen oder rechteckigen Pixeln dargestellt. Die räumliche Auflösung wird durch Mittelung verringert, wobei sich ein Array von (M/m) × (N/n) Pixeln ergibt, wie es bei 31 dargestellt ist. Das Array von Pixeln 30 ist effektiv in "Fenster" oder rechteckige Blöcke von Pixeln 32 unterteilt, von denen jeder m × n Pixel der Struktur 30 enthält. Die S-Werte der Pixel sind in der Figur als f(i,j) für 0 ≤ i ≤ m und 0 ≤ j ≤ n dargestellt. Der mittlere Sättigungswert P des Fensters wird wie folgt berechnet:
    Figure 00100001
    Bei der in den Zeichnungen dargestellten Ausführungsform ist die Verringerung der räumlichen Auflösung dergestalt, dass das Gesicht eines erwachsenen Betrachters ungefähr zwei bis drei Pixel verringerter Auflösung in jeder Abmessung belegt.
  • Zum Schritt 23 gehört es, jedem Pixel mit verringerter Auflösung einen Gleichmäßigkeitsstatus oder einen Wert U zuzuweisen und dann Muster von Gleichmäßigkeitswerten zu erfassen, die gesichtsähnliche Gebiete repräsentieren. Der Gleichmäßigkeitswert ist abhängig vom Sättigungswert des Pixels sowie desjenigen seiner Nachbarn 1 oder 0. Die 9 veranschaulicht bei 35 ein Pixel mit einem gemittelten Sättigungswert P0, dessen Gleichmäßigkeit U, wie sie bei 36 in der 9 dargestellt ist, aus P0 und den gemittelten Sättigungswerten P1, P2 und P3 der drei benachbarten Pixe 1 zu berechnen ist. Die Zuweisung von Gleichmäßigkeitswerten beginnt beim oberen linken Pixel 37 und geht von links nach rechts weiter, bis dem vorletzten Pixel 38 der obersten Zeile sein Gleichmäßigkeitswert zugewiesen ist. Dieser Prozess wird dann für jede Zeile der Reihe nach von oben nach unten wiederholt, wobei mit der vorletzten Zeile geendet wird. Durch "Durchscannen" der Pixel auf diese Weise und durch Verwenden benachbarter Pixel rechts und unter dem Pixel, dessen Gleichmäßigkeitswert berechnet wurde, ist es möglich, die mittleren Sättigungswerte P dadurch durch die Gleichmäßigkeitswerte U zu ersetzen, dass ein Überschreiben im Speicher erfolgt, so dass die Speicherkapazität effizient genutzt werden kann und es nicht erforderlich ist, für die Gleichmäßigkeitswerte weitere Speicherkapazität bereitzustellen.
  • Der Gleichmäßigkeitsstatus U wird wie folgt berechnet:
  • U = 1 wenn (fmax – fmin)/fmax ≤ T
  • U = 0 andernfalls
  • wobei T ein vorbestimmter Schwellenwert ist, z.B. mit einem typischen Wert von 0,15, fmax der Maximalwert von P0, P1, P2 und P3 ist und fmin der Minimalwert von P0, P1, P2 und P3 ist.
  • Wenn das Zuschreiben der Gleichmäßiqkeitswerte abgeschlossen ist, enthält das Array 36 ein Muster von Werten 0 und 1, die die Gleichmäßigkeit der Sättigung der Pixel mit verringerter Auflösung repräsentieren. Im Schritt 23 wird dann nach speziellen Mustern von 0 und 1 geschaut, um gesichtsähnliche Gebiete zu erfassen. Die 10 veranschaulicht ein Beispiel von vier Mustern von Gleichmäßigkeitswerten und entsprechenden Pixelsättigungsmustern, die Gesichtskandidaten im Videobild ähnlich sind. Die 10 zeigt bei 40 einen gleichmäßigen Farbfleck, in dem dunkle Gebiete gemittelte Sättigungswerte ausreichender Gleichmäßigkeit, um ein gesichtsähnliches Gebiet anzuzeigen, repräsentieren. Die umgebenden hellen Gebiete oder Quadrate repräsentieren ein Gebiet, das die Pixel mit gleichmäßiger Sättigung umgibt, und sie weisen im Wesentlichen verschiedene Sättigungen auf. Das entsprechende Muster der Gleichmäßiqkeitswerte ist bei 41 dargestellt, und es verfügt über einen Pixelort mit dem Gleichmäßigkeitswert 1, der vollständig durch Pixelorte mit dem Gleichmäßigkeitswert 0 umgeben ist.
  • In ähnlicher Weise zeigt die 10 bei 42 einen anderen gesichtsähnlichen Bereich und bei 43 das entsprechende Muster von Gleichmäßigkeitswerten. In diesem Fall weisen zwei benachbarte Pixelorte den Gleichmäßigkeitswert 1 auf, und sie sind vollständig von Pixelorten mit dem Gleichmäßigkeitswert 0 umgeben. Die 10 zeigt bei 44 ein drittes Muster, dessen Gleichmäßiqkeitswerte bei 45 dargestellt sind, wobei sie dergestalt sind, dass zwei vertikal benachbarte Pixelorte den Gleichmäßigkeitswert 1 aufweisen und sie durch Pixelorte mit dem Gleichmäßigkeitswert 0 umgeben sind.
  • Das unter 46 in der 10 dargestellte vierte Muster verfügt über einen quadratischen Block von vier (zwei auf zwei) Pixelorten mit dem Gleichmäßigkeitswert 1, die vollständig mit Pixelorten mit dem Gleichmäßigkeitswert 0 umgeben sind. So gibt der Schritt 23 immer dann, wenn die unter 41, 43, 45 und 47 in der 10 dargestellten Muster von Gleichmäßigkeitswerten auftreten, an, dass ein gesichtsähnliches Gebiet oder ein Kandidat aufge funden wurde. Der Suchvorgang für diese Muster kann effizient ausgeführt werden. Z.B. werden die Gleichmäßigkeitswerte der Pixelorte der Reihe nach geprüft, wobei z.B. ein Durchscannen von links nach rechts in jeder Zeile und von oben nach unten im Halbbild erfolgt. Immer dann, wenn ein Gleichmäßigkeitswert 1 erfasst wird, werden die benachbarten Pixelorte nach rechts und unter dem aktuellen Pixelort untersucht. Wenn mindestens einer dieser Gleichmäßigkeitswerte ebenfalls 1 ist und der Bereich durch Gleichmäßigkeitswerte 0 umgeben ist, ist ein Muster aufgefunden, das einen möglichen Gesichtskandidaten entspricht. Dann können die entsprechenden Pixelorte markiert werden, z.B. dadurch, dass ihre Gleichmäßigkeitswert durch einen anderen Wert als 1 oder 0 ersetzt werden, z.B. durch den Wert 2. Wenn nicht gerade kein möglicher Gesichtskandidat aufgefunden wurde, werden die Positionen der Kandidaten ausgegeben.
  • Das Aussehen der Muster 40, 42, 44 und 46 kann durch die tatsächliche Position des gesichtsähnlichen Gebiets in Beziehung zur Struktur der Pixel 36 mit verringerter Auflösung beeinflusst sein. Die 11 zeigt ein Beispiel hierfür für ein gesichtsähnliches Gebiet mit einer Größe von zwei auf zwei Pixel mit verringerter Auflösung, wie bei 49 dargestellt. Wenn das durch einen Kreis 50 gekennzeichnete gesichtsähnliche Gebiet näherungsweise in einem Zwei-auf-zwei-Block zentriert wird, wird das Muster 47 von Gleichmäßigkeitswerten erhalten, und die Erfassung ist korrekt. Wenn jedoch das Gesicht im Ausmaß eines halben Pixels sowohl in horizontaler als auch vertikaler Richtung verschoben ist, wie es bei 51 dargestellt ist, kann der zentrale Teil des gesichtsähnlichen Gebiets einen Gleichmäßigkeitswert aufweisen, der von dem des umgebenden Gebiets verschieden ist, wie es bei 51 dargestellt ist. Dies kann zu einem Fehlschlag beim Erfassen eines ernsthaften Kandidaten führen.
  • Um dieses mögliche Problem zu vermeiden, können die Schritte 21 bis 24 für dasselbe Videohalbbild oder für ein oder mehrere aufeinanderfolgende Videohalbbilder von Bilddaten wiederholt werden. Jedoch ändert sich jedesmal dann, wenn die Schritte 21 bis 24 wiederholt werden, die Position des Arrays 31 der Pixel mit verringerter Auflösung in Bezug auf das Array 30 der Farbbildpixel. Dies ist in der 12 veranschaulicht, in der das Gesamtbild bei 52 dargestellt ist und das zur Verringerung der räumlichen Auflösung durch Bildmittelung verwendete Gebiet mit 53 dargestellt ist. Die Mittelung wird auf dieselbe Weise ausgeführt, wie sie in der 8 veranschaulicht ist, jedoch wird der Startort geändert. Insbesondere ist zwar in der 8 der Startort für das erste Pixel die Ecke 54 oben links im qe samten Bild 52, jedoch veranschaulicht die 12 die folgende Mittelung, bei der der Startort von der Ecke oben links um den Wert Sx nach rechts in horizontaler Richtung und Sy nach unten in vertikaler Richtung verschoben ist, wobei Folgendes gilt:
  • 0 < Sx < m und 0 < Sy < n
  • Jedes Bild kann wiederholt so verarbeitet werden, dass alle Kombinationen der Werte von Sx und Sy verwendet werden, so dass m × n Prozesse ausgeführt werden müssen. Jedoch ist es in der Praxis nicht erforderlich, alle Startorte zu verwenden, insbesondere bei Anwendungen, bei denen die Erfassung gesichtsähnlicher Gebiete nicht sehr genau sein muss. Wenn z.B. die Erfassung eines gesichtsähnlichen Gebiets den ersten Schritt eines zweistufigen Prozesses bildet, wie oben angegeben, können die Werte von Sx und Sy aus einem spärlicheren Satz von Kombinationen ausgewählt werden, wie aus
  • Sx = i × (m/k) und Sy = j × (n/1) wobei i, j, k und 1 ganze Zahlen sind, die den folgenden Bedingungen genügen:
    0 ≤ i < k
    0 ≤ j < 1
    1 ≤ k < m
    1 ≤ 1 < n
  • Dies führt zu insgesamt k × l Kombinationen.
  • Wie oben angegeben, können die Schritte 21 bis 24 mit verschiedenen Startorten im selben Bild oder einer Abfolge von Bildern wiederholt werden. Für Echtzeit-Bildverarbeitung kann es erforderich oder bevorzugt sein, die Schritte für die Bilder einer Sequenz zu wiederholen. Das Verfahren kann sehr schnell ausgeführt werden, und es kann abhängig von der Anzahl der im Bild vorhandenen Gesichtskandidaten in Echtzeit mit einer Halbbildrate zwischen 10 und 60 Hz arbeiten. Demgemäß können innerhalb einer kurzen Periode in der Größenordnung einiger weniger Sekunden oder weniger alle möglichen Positionen getestet werden.
  • Das durch die 6 veranschaulichte Verfahren kann mit jeder beliebigen Hardware ausgeführt werden, wie mit derjenigen, die in der 2 veran schaulicht ist. Der oben beschriebene Nachfahrprozessor 4 kann so programmiert werden, dass das Verfahren der 6 als Teil des in der 3 dargestellten Initialisierungsstadiums 9 realisiert wird. Die Datenverarbeitung wird vom Prozessor R4400 und dem zugehörigen Speicher ausgeführt, und der Prozessor 4 verfügt über einen Videodigitalisierer und einen Vollbildspeicher, wie es in der 2 dargestellt ist, um die Sättigungswerte, die gemittelten Sättigungswerte der Pixel mit verringerter Auflösung und die Gleichmäßigkeitswerte zu speichern.
  • Das durch die 6 veranschaulichte Verfahren arbeitet bei gleichmäßiger Beleuchtung einschließlich der Umgebungsbeleuchtung gut, und es ist unter Verwendung einer aktiven Lichtquelle bei Anwendungen mit schlechten Beleuchtungsbedingungen anwendbar. Obwohl für das Verfahren keinerlei spezielle Beleuchtung erforderlich ist und es hinsichtlich Änderungen der Beleuchtung eines Betrachters sehr unanfällig ist, kann während des Anfangsstadiums der 9 eine aktive Lichtquelle verwendet werden, und diese kann dann während dem anschließenden Nachfahren des, Betrachters ausgeschaltet werden, was sehr robust ist und keinerlei spezielle Beleuchtung erfordert.
  • Die 13 zeigt ein Display vom in der 2 dargestellten Typ, das so modifiziert ist, dass für aktive Beleuchtung gesorgt ist. Die aktive Lichtquelle verfügt über eine Blitzlampe 55 mit durch den Prozessor 4 gesteuerter Synchronisierung. Die Blitzlampe 55 ist an einer geeigneten Position, wie über dem Display 7 und benachbart zum Sensor 3, angeordnet, um das Gesicht eines Betrachters zu beleuchten.
  • Die 14 veranschaulicht detaillierter das Videonachfahrsystem 2 und insbesondere den Datenprozessor 4. Der Datenprozessor verfügt über eine zentrale Verarbeitungseinheit (CPU) 56, die mit einem CPU-Bus 57 verbunden ist. Mit dem Bus 57 ist ein Systemspeicher 58 verbunden, der die gesamte Systemsoftware zum Betreiben des Datenprozessors enthält.
  • Die Videokamera 3 ist mit einem Videodigitalisierer 59 verbunden, der mit einem Datenbus 60, über die Synchronisiereinrichtung 55 mit der Blitzlampe, mit der CPU 56 und mit einem wahlweisen Videodisplay 61, falls vorhanden, verbunden ist. Mit dem Datenbus 60 und dem CPU-Bus 57 ist ein Vollbildspeicher 62 verbunden.
  • Für Ausführungsformen ohne Verwendung einer aktiven Beleuchtung muss der Vollbildspeicher nur eine Kapazität eines Halbbilds aufweisen. Im Fall der oben beschriebenen Videokamera 3 mit einer Halbbildauflösung von 640 × 240 Pixeln für ein RGB-Farbsignal von 24 Bits ist eine Kapazität von 640 × 240 × 3 = 460.800 Bytes erforderlich. Für Ausführungsformen unter Verwendung aktiver Beleuchtung verfügt der Vollbildspeicher 62 über eine Kapazität von zwei Halbbildern von Videodaten, d.h. 921.600 Bytes.
  • Im Gebrauch wird die Blitzlampe 55 mit der Videokamera 3 und mit dem Videodigitalisierer 59 synchronisiert, damit sie zum geeigneten Zeitpunkt, wenn ein Bild erfasst wird, ein- oder ausgeschaltet wird.
  • Die Blitzlampe 55 wird dazu verwendet, das Gesicht des Betrachters mit Blitzlicht zu beleuchten, um die Gleichmäßigkeit der Verteilung zu verbessern. Wenn die Blitzlampe 55 viel stärker als das Umgebungslicht ist, ist die Intensität des Gesichts stark durch sie bestimmt. Jedoch besteht bei der Verwendung einer starken Lichtquelle die Tendenz der Erzeugung eines übersättigten Bilds, in dem viele Objekte falsch als gesichtsähnliche Gebiete erfasst werden. Ferner kann die Verwendung eines kräftigen Blitzlichts für den Betrachter unangenehm werden und zu Augenschäden führen.
  • Daher sollte die Blitzlampe 55 von milder Intensität sein. In diesem Fall kann es erforderlich sein, die Effekte des Umgebungslichts zu verringern, um die Zuverlässigkeit bei der Erfassung echter gesichtsähnlicher Gebiete zu verbessern.
  • Das durch die 6 veranschaulichte Verfahren kann so modifiziert werden, dass zwei aufeinanderfolgende Rahmen von Videobilddaten verglichen. werden, von denen der eine bei Beleuchtung mit der Blitzlampe 55 erhalten wird und der andere nur mit Umgebungslicht erhalten wird. Der erste derselben enthält daher den Effekt sowohl des Umgebungslichts als auch der Blitzlampe 55. Dieses erste Bild I(a + f) kann daher so angesehen werden, dass es zwei Komponenten enthält:
  • I(a + f) = I(a) + I(f)
  • wobei I(a) das nur mit Umgebungslicht aufgenommene Bild ist und I(F) das Bild ist, wie es erzeugt worden wäre, wenn die einzige Lichtquelle die Blitzlampe 55 gewesen wäre. Dies kann wie folgt umgeschrieben werden:
  • I(f) = I(a + f) – I(a)
  • Demgemäß kann durch Abziehen der Bildpixeldaten oder der Daten mit verringerter Auflösung im Schritt 21 oder im Schritt 22 der Effekt einer Übersättigung des Hintergrunds durch die Blitzlampe 55 verringert werden. Eine weitere Verringerung kann dadurch erzielt werden, dass dafür gesorgt wird, dass die Blitzlampe 55 ihr Licht stark in das Gebiet lenkt, das wahrscheinlich vom Gesicht des Betrachters belegt ist.

Claims (21)

  1. Verfahren zum Erfassen eines gesichtsähnlichen Gebiets eines Farbbilds, bei dem die Auflösung (22) des Farbbilds durch Mittelung der Sättigung verringert wird, um ein Bild mit verringerter Auflösung zu erzeugen, und bei dem nach einem Gebiet des Bilds mit verringerter Auflösung gesucht wird (23), das, innerhalb einer vorbestimmten Form, eine im Wesentlichen gleichmäßige Sättigung aufweist, die sich wesentlich von der Sättigung desjenigen Teils des Bilds mit verringerter Auflösung unterscheidet, der die vorbestimmte Form umgibt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Farbbild eine Anzahl von Bildelementen enthält und die Auflösung so verringert wird, dass sich die vorbestimmte Form über zwei bis drei Elemente im Bild mit verringerter Auflösung erstreckt.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Farbbild über ein Rechteckarray (30) von M auf N Bildelementen verfügt, das Bild mit verringerter Auflösung (31) über (M/m) auf (N/n) Bildelemente verfügt, von denen jedes m auf n Bildelementen (32) des Farbbilds entspricht, und die Sättigung P jedes Bildelements im Bild mit verringerter Auflösung wie folgt gegeben ist:
    Figure 00170001
    wobei f(i,j) die Sättigung des Bildelements in der Spalte i und der Zeile j der m auf n Bildelemente (32) ist.
  4. Verfahren nach Anspruch 3, gekennzeichnet durch das Abspeichern der Sättigungswerte in einem Speicher (62).
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass jedem der Elemente im Bild mit verringerter Auflösung ein Gleichmäßigkeitswert dadurch zugeschrieben wird, dass die Sättigung jedes der Elemente des Bilds mit verringerter Auflösung mit der Sättigung mindestens eines benachbarten Elements im Bild mit verringerter Auflösung verglichen wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass jedem Gleichmäßigkeitswert ein erster Wert zugeschrieben wird, wenn
  7. (max(P) – min(P))/max(P) ≤ T
  8. gilt, wobei max(P) und min(P) der Max : mal- bzw. Minimalwert der Sättigungen des Elements im Bild mit verringerter Auflösung und des oder jedes benachbarten Bildelements sind und T ein Schwellenwert ist, und er andernfalls ein zweiter Wert ist, der vom ersten Wert verschieden ist.
  9. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass T im Wesentlichen 0,15 entspricht.
  10. Verfahren nach einem der Ansprüche 5 bis 7 in Abhängigkeit vom Anspruch 4, dadurch gekennzeichnet, dass dem benachbarten Element im Bild mit verringerter Auflösung kein Gleichmäßigkeitswert zugeschrieben wird oder nicht jedem benachbarten Element im Bild mit verringerter Auflösung ein Gleichmäßigkeitswert zugeschrieben wird und jeder im Bild mit verringerter Auflösung anstelle der entsprechenden Sättigung im Speicher (62) abgespeichert wird.
  11. Verfahren nach Anspruch 6 oder 7 oder Anspruch 8 in Abhängigkeit vom Anspruch 6, dadurch gekennzeichnet, dass die Auflösung so verringert wird, dass sich die vorbestimmte Form über zwei oder drei Elemente im Bild mit verringerter Auflösung erstreckt, wobei es zum Verfahren ferner gehört, dass die Erfassung eines gesichtsähnlichen Gebiets angezeigt wird, wenn ein Gleichmäßigkeitswert vom ersten Wert entweder einem Element (41) im Bild mit verringerter Auflösung, zwei vertikal oder horizontal benachbarten Elementen (43, 45) im Bild mit verringerter Auflösung oder einem rechteckigen Zwei-auf-zwei-Array von Bildelementen (47) zugeschrieben ist und wenn ein Gleichmäßigkeitswert vom zweiten Werte jedem umgebenden Element im Bild mit verringerter Auflösung zugeschrieben ist.
  12. Verfahren nach Anspruch 9 in Abhängigkeit vom Anspruch 4, dadurch gekennzeichnet, dass die Erfassung dadurch angezeigt wird, dass ein dritter Wert, der vom ersten und vom zweiten wert verschieden ist, anstelle des entsprechenden Gleichmäßigkeitswerts in Speicher (62) abgespeichert wird.
  13. Verfahren nach einem der Ansprüche 2 bis 10, gekennzeichnet durch das Wiederholen der Auflösungsverringerung und des Suchvorgangs mindestens einmal, wobei die Elemente im Bild mit verringerter Auflösung in Bezug auf die Farbbildelemente (52) verschoben sind (53).
  14. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Sättigung aus Komponenten für rot, grün und blau wie folgt hergeleitet wird (21)
  15. (max(R,G,B) – min(R,G,B))/max (R,G,B)
  16. wobei max(R,G,B) und min(R,G,B) der Maximal- bzw. Minimalwert der Komponenten für rot, grün und blau sind.
  17. Verfahren nach einem der vorstehenden Ansprüche, gekennzeichnet durch das Aufnehmen (20) des Farbbilds.
  18. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass das Farbbild durch eine Videokamera (3) aufgenommen wird (20) und die Auflösungsverringerung (22) und der Suchvorgang (23) für verschiedene Videohalbbilder oder -vollbilder von der Videokamera (3) wiederholt werden.
  19. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass ein erstes Farbbild aufgenommen wird, während ein erwarteter Bereich von Positionen eines Gebiets beleuchtet wird, ein zweites Farbbild unter Verwendung von Umgebungslicht aufgenommen wird und das zweite Farbbild vom ersten Farbbild subtrahiert wird, um das Farbbild zu erzeugen.
  20. Vorrichtung zum Erfassen eines gesichtsähnlichen Gebiets eines Farbbilds, gekennzeichnet durch einen Datenprozessor (4, 56 - 62), der so ausgebildet ist, dass er die Auflösung (22) des Farbbilds durch Mittelung der Sättigung verringert, um ein Bild mit verringerter Auflösung zu erzeugen, und er nach einem Gebiet des Bilds mit verringerter Auflösung sucht (23), das, innerhalb einer vorbestimmten Form, eine im Wesentlichen gleichmäßige Sättigung aufweist, die von der Sättigung des Teils des Bilds mit verringerter Auflösung um die vorbestimmte Form herum deutlich verschieden ist.
  21. Dem Betrachter nachfahrendes Display (1, 2), gekennzeichnet durch eine Vorrichtung, wie sie im Anspruch 16 beansprucht ist.
DE69906403T 1998-01-23 1999-01-12 Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets Expired - Fee Related DE69906403T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9801550A GB2333590A (en) 1998-01-23 1998-01-23 Detecting a face-like region
GB9801550 1998-01-23

Publications (2)

Publication Number Publication Date
DE69906403D1 DE69906403D1 (de) 2003-05-08
DE69906403T2 true DE69906403T2 (de) 2004-01-08

Family

ID=10825843

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69906403T Expired - Fee Related DE69906403T2 (de) 1998-01-23 1999-01-12 Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets

Country Status (5)

Country Link
US (1) US6504942B1 (de)
EP (1) EP0932114B1 (de)
JP (1) JP3938257B2 (de)
DE (1) DE69906403T2 (de)
GB (1) GB2333590A (de)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
EP1220182A3 (de) * 2000-12-25 2005-08-17 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Bildern sowie Rechnerprogramm und Programmspeichereinheit
EP1288860A1 (de) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Verfahren zur Verarbeitung digitaler fotografischer Bilddaten, welches ein Verfahren zum automatischen Erkennen von rote-Augen-Defekten umfasst
EP1293933A1 (de) * 2001-09-03 2003-03-19 Agfa-Gevaert AG Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US20040228505A1 (en) * 2003-04-14 2004-11-18 Fuji Photo Film Co., Ltd. Image characteristic portion extraction method, computer readable medium, and data collection and processing device
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8363951B2 (en) * 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
TWI220234B (en) * 2003-10-21 2004-08-11 Ind Tech Res Inst A method to simulate animated images for an object
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
TWI236901B (en) * 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
US7555149B2 (en) * 2005-10-25 2009-06-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting videos using face detection
WO2007062478A1 (en) * 2005-11-30 2007-06-07 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP2007257148A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 画像処理装置及び方法
JP2007264742A (ja) * 2006-03-27 2007-10-11 Fujifilm Corp 顔検出方法おならびにこれを用いた撮影装置
US20120243714A9 (en) * 2006-05-30 2012-09-27 Sonitus Medical, Inc. Microphone placement for oral applications
US7796769B2 (en) 2006-05-30 2010-09-14 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
EP2033142B1 (de) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US7720281B2 (en) * 2006-07-31 2010-05-18 Mavs Lab, Inc. Visual characteristics-based news anchorperson segment detection method
EP2050043A2 (de) * 2006-08-02 2009-04-22 Fotonation Vision Limited Gesichtserkennung mit kombinierten pca-basierten datensätzen
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8291912B2 (en) * 2006-08-22 2012-10-23 Sonitus Medical, Inc. Systems for manufacturing oral-based hearing aid appliances
CA2663017C (en) * 2006-09-08 2014-03-25 Sonitus Medical, Inc. Methods and apparatus for treating tinnitus
US7945075B2 (en) * 2006-12-19 2011-05-17 Seiko Epson Corporation Converting a digital image from color to gray-scale
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2008199486A (ja) * 2007-02-15 2008-08-28 Olympus Imaging Corp 一眼レフレックス型の電子撮像装置
EP2115662B1 (de) 2007-02-28 2010-06-23 Fotonation Vision Limited Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
JP4970557B2 (ja) * 2007-03-05 2012-07-11 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド デジタル画像取込装置における顔検索及び検出
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8270638B2 (en) * 2007-05-29 2012-09-18 Sonitus Medical, Inc. Systems and methods to provide communication, positioning and monitoring of user status
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US20090028352A1 (en) * 2007-07-24 2009-01-29 Petroff Michael L Signal process for the derivation of improved dtm dynamic tinnitus mitigation sound
US20120235632A9 (en) * 2007-08-20 2012-09-20 Sonitus Medical, Inc. Intra-oral charging systems and methods
US8433080B2 (en) * 2007-08-22 2013-04-30 Sonitus Medical, Inc. Bone conduction hearing device with open-ear microphone
US8224013B2 (en) 2007-08-27 2012-07-17 Sonitus Medical, Inc. Headset systems and methods
US7682303B2 (en) 2007-10-02 2010-03-23 Sonitus Medical, Inc. Methods and apparatus for transmitting vibrations
US20090105523A1 (en) * 2007-10-18 2009-04-23 Sonitus Medical, Inc. Systems and methods for compliance monitoring
US8795172B2 (en) * 2007-12-07 2014-08-05 Sonitus Medical, Inc. Systems and methods to provide two-way communications
US8750578B2 (en) * 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user
US8270637B2 (en) 2008-02-15 2012-09-18 Sonitus Medical, Inc. Headset systems and methods
US7974845B2 (en) 2008-02-15 2011-07-05 Sonitus Medical, Inc. Stuttering treatment methods and apparatus
US8023676B2 (en) 2008-03-03 2011-09-20 Sonitus Medical, Inc. Systems and methods to provide communication and monitoring of user status
US20090226020A1 (en) 2008-03-04 2009-09-10 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US8150075B2 (en) 2008-03-04 2012-04-03 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
CN103475837B (zh) 2008-05-19 2017-06-23 日立麦克赛尔株式会社 记录再现装置及方法
WO2010012448A2 (en) * 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
JP5237037B2 (ja) * 2008-10-01 2013-07-17 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
BR112012007264A2 (pt) 2009-10-02 2020-08-11 Sonitus Medical Inc. aparelho intraoral para transmissão de som
US20110150276A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150298A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150299A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150297A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211738A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150296A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110206245A1 (en) * 2009-12-23 2011-08-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9875719B2 (en) * 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150295A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8712110B2 (en) * 2009-12-23 2014-04-29 The Invention Science Fund I, LC Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP5127972B1 (ja) * 2011-09-30 2013-01-23 株式会社東芝 電子機器、電子機器の制御方法
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
CN106030614A (zh) 2014-04-22 2016-10-12 史內普艾德有限公司 基于对一台摄像机所拍摄的图像的处理来控制另一台摄像机的系统和方法
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
JP6573193B2 (ja) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
US10627887B2 (en) 2016-07-01 2020-04-21 Microsoft Technology Licensing, Llc Face detection circuit
CN108280426B (zh) * 2018-01-23 2022-02-25 山东极视角科技有限公司 基于迁移学习的暗光源表情识别方法及装置
CN110719407A (zh) * 2019-10-18 2020-01-21 北京字节跳动网络技术有限公司 图片美化方法、装置、设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2238440B (en) * 1989-11-24 1994-07-27 Olympus Optical Co Methods of detecting endoscope insertion direction
US5345242A (en) * 1990-09-27 1994-09-06 Loral Aerospace Corp. Clutter rejection using connectivity
US5557688A (en) * 1992-11-18 1996-09-17 Fuji Photo Film Co., Ltd. Method of extracting characteristic image data and color data conversion device for image processing apparatus
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
JP3086396B2 (ja) * 1995-03-10 2000-09-11 シャープ株式会社 画像符号化装置及び画像復号装置
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image

Also Published As

Publication number Publication date
EP0932114A2 (de) 1999-07-28
JP3938257B2 (ja) 2007-06-27
EP0932114B1 (de) 2003-04-02
EP0932114A3 (de) 2001-11-14
JPH11288459A (ja) 1999-10-19
GB9801550D0 (en) 1998-03-25
DE69906403D1 (de) 2003-05-08
GB2333590A (en) 1999-07-28
US6504942B1 (en) 2003-01-07

Similar Documents

Publication Publication Date Title
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE69922752T2 (de) Verfahren zum Detektieren eines menschlichen Gesichtes
DE602004005358T2 (de) Objektdetektion in bildern
DE69934068T2 (de) Bestimmung der position von augen durch blitzreflexerkennung und korrektur von defekten in einem aufgenommenen bild
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE69837233T2 (de) Verfahren und Gerät zur Bestimmung der Augenposition in einem Bild
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE69938173T2 (de) Automatische voreingestellte teilnehmerpositionsbestimmung für videokonferenzsysteme
DE602006000400T2 (de) Bildsegmentierungsverfahren und -system
DE60116949T2 (de) Gesichtserfassungsverfahren
EP1413972B1 (de) Prüfung von Bildaufnahmen von Personen
DE60109278T2 (de) Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
WO2009062945A1 (de) Verfahren und vorrichtung zum auffinden und verfolgen von augenpaaren
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE19613614A1 (de) Vorrichtung zur Bearbeitung eines Bildes eines Gesichts
DE60029194T2 (de) Verfahren, Vorrichtung und Speichermedium für Bildverarbeitung
EP1293933A1 (de) Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten
EP1625936A2 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
DE112008000020B4 (de) Vorrichtung und Programm zur Korrektur der Irisfarbe
DE102010016251A1 (de) Erkennungsverfahren für ein bewegliches Objekt und das der Erkennung des beweglichen Objekts zugrunde liegende Befehlseingabeverfahren
DE60303138T2 (de) Vergleichen von mustern
DE69929408T2 (de) Verfahren und Vorrichtung zur Bildqualitätsveränderung
DE102012020301A1 (de) Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter
DE102016006242B4 (de) Anzeigevorrichtung des kopfgetragenen Typs, Steuerverfahren für Anzeigevorrichtung des kopfgetragenen Typs, Bildverarbeitungssystem und Speichermedium

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee