DE60123378T2 - Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen - Google Patents

Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen Download PDF

Info

Publication number
DE60123378T2
DE60123378T2 DE60123378T DE60123378T DE60123378T2 DE 60123378 T2 DE60123378 T2 DE 60123378T2 DE 60123378 T DE60123378 T DE 60123378T DE 60123378 T DE60123378 T DE 60123378T DE 60123378 T2 DE60123378 T2 DE 60123378T2
Authority
DE
Germany
Prior art keywords
iris
pixel
pixels
image
eye positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60123378T
Other languages
English (en)
Other versions
DE60123378D1 (de
Inventor
Shoupu Rochester Chen
Lawrence A. Rochester Ray
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE60123378D1 publication Critical patent/DE60123378D1/de
Application granted granted Critical
Publication of DE60123378T2 publication Critical patent/DE60123378T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Description

  • Die Erfindung bezieht sich auf digitale Bildverarbeitungsverfahren zum Erkennen von Gesichtselementen und insbesondere auf Verfahren zum Erkennen von menschlichen Augen.
  • In der digitalen Bildverarbeitung ist es häufig erwünscht, menschliche Augen in einem Bild erkennen zu können. Diese Information wird zum Beispiel benötigt, um andere Elemente des Bildes, etwa die Sichtrichtung eines Menschen, bestimmen zu können. Außerdem kann diese Information auch anderen Zwecken dienen, zum Beispiel dazu, die Ausrichtung des menschlichen Gesichts im Bild festzustellen.
  • Verfahren zum Erkennen menschlicher Augen in einem digitalen Bild sind dem Fachmann bekannt. Zum Beispiel beschreibt US-A-6 072 892 den Einsatz eines Schwellenwert-Verfahrens zum Erkennen der Position von menschlichen Augen in einem digitalen Bild. Bei diesem Verfahren wird das gesamte Bild in einem Rasterabtastverfahren mittels eines Abtastfensters gescannt. Während des Abtastens des Bildes extrahiert ein Histogramm-Extrahiermechanismus aus dem Fenster ein Intensitäts-Histogramm. Ein Spitzenwert-Detektor ermittelt in jedem Intensitäts-Histogramm drei Spitzenwerte, die die Haut, das Weiß des Auges und das Schwarz der Pupille repräsentieren. Ein Histogramm, das diese drei Spitzenwerte aufweist, deutet auf eine Position in einem Bild hin, die potentiell eine Augenposition sein kann. Aus den potentiellen Positionen wird die Augenposition dadurch bestimmt, dass man den vom Histrogramm erfassten, jeder potentiellen Position zugeordneten Bereich berechnet und die Position auswählt, die dem Histogramm mit dem größten Bereich entspricht.
  • Eines der Probleme dieser Lösung besteht darin, dass das gesamte Bild Pixel für Pixel abgetastet werden muss. Hierzu muss an jedem Pixel des Bildes ein Suchfenster positioniert und an jeder Pixelposition ein Histogramm erstellt werden. Ferner muss der von jedem Histo gramm erfasste Bereich berechnet und gespeichert werden. Natürlich beansprucht dieses Verfahren eine enorme Rechnerleistung und verlangsamt die Verarbeitung der Bilder. Ferner ergibt dieses Verfahren einen hohen Anteil an Fehltreffern.
  • Bekannt sind ferner Verfahren zum Erkennen von menschlichen Augen, die einen abnorm hohen Rotanteil aufweisen. Dieser abnorm hohe Rotanteil wird normalerweise mit einem als "rote Augen"-Effekt bekannten fotografischen Phänomen verbunden. Rote Augen werden normalerweise durch einen Lichtblitz verursacht, der von einer Pupille reflektiert wird. Aus dem gemeinsam abgetretenen Parallelpatent US-A-6 292 574 ist bekannt, Bilder nach Pixeln abzusuchen, die den auf rote Augen hinweisenden hohen Rotgehalt aufweisen. Desgleichen beschreibt die gemeinsam abgetretene US-A-5 432 863 ein benutzerinteraktives Verfahren zum Erkennen von Pixeln in einem Bild, die die Farbmerkmale von roten Augen aufweisen. Es versteht sich, dass diese Verfahren Augen nur erkennen können, wenn tatsächlich rote Augen vorliegen.
  • Es besteht daher ein Bedarf an einem Verfahren, das das genauere und effizientere Bestimmen menschlicher Augen in einem digitalen Bild ermöglicht.
  • Bei einer anderen, in der gemeinsam abgetretenen EP 0899680 mit dem Titel "Verfahren zum automatischen Erkennen von menschlichen Augen in digitalen Bildern" beschriebenen Lösung wird ein Computerprogrammprodukt zum Bestimmen erster und zweiter Objekte bereitgestellt, die jeweils im Wesentlichen dieselben physischen Eigenschaften aufweisen und bei denen das Verhältnis des Abstandes zwischen den ersten und zweiten Objekten und der Größe jedes Objekts im Wesentlichen unveränderlich ist. Gemäß dem dort beschriebenen Verfahren werden in einem Bild potentielle Hautbereiche und vertiefte Bereiche bestimmt. Mittels einer Schablone wird eine Vielzahl von Positionen ermittelt, deren Objekte die gewünschte Übereinstimmung mit der Schablone aufweisen. Durch weitere Überprüfungen wird die Wahrscheinlichkeit des Vorhandenseins potentieller Augenpaare an den durch die Schablonenprüfung ermittelten Positionen festgestellt.
  • Bei einer weiteren, in XP-00893534 mit dem Titel "Erkennen eines Gesichts und Extraktion von Gesichtselementen mittels farb-, form- und symmetriebasierter Kostenfunktionen" beschriebenen Lösung wird ein Verfahren zum Erkennen von menschlichen Gesichtern und zum anschließenden Bestimmen der Position der Augen, der Nase und des Mundes angegeben. In einem ersten Schritt dieses Verfahrens wird die Position eines Gesichts anhand von Farb- und Forminformationen bestimmt. Mittels eines überwachten pixelbasierten Farbklassifizierverfahrens werden alle Pixel markiert, die innerhalb eines bestimmten Abstandes der "Hautfarbe" liegen. Diese Farbklassifizierungs-Matrix wird dann einer Glättung entweder durch morphologische Operationen oder Filtern mittels eines Gibbs-Zufallsfeldmodells unterzogen. Mithilfe aus der räumlichen Kovarianz-Matrix errechneter Eigenwerte und Eigenvektoren wird dann eine Ellipse auf den zu analysierenden Hautbereich angelegt. Anhand des Hausdorff-Abstandes wird ein Vergleich zur Ermittlung der Ähnlichkeit zwischen der Form des Bereichs und der Modell-Ellipse durchgeführt. Dann werden der Mittelpunkt der Augen, die Nasenspitze und der Mittelpunkt des Mundes innerhalb der Gesichts-Segmentierungsmaske mittels symmetriebasierter Kostenfunktionen festgelegt. Dabei nutzen die Kostenfunktionen die den Gesichtsformen eigenen Symmetrien.
  • Es wurden also bereits eine Vielzahl von Verfahren zum Erkennen von Gesichtsmerkmalen vorgeschlagen. Allerdings eignet sich nicht jedes Verfahren zur effizienten Analyse jedes Bildes, so dass der Wunsch nach einem Verfahren für die Auswahl und die effiziente Anwendung eines oder mehrerer dieser Verfahren besteht.
  • Erfindungsgemäß wird dieser Bedarf durch ein digitales Bildverarbeitungsverfahren zum Erkennen von menschlichen Augen in einem digitalen Bild erfüllt. Das Verfahren umfasst die folgenden Schritte: Erkennen von Irispixeln in dem Bild, Anhäufen der Irispixel und Auswählen mindestens eines der folgenden Verfahren zum Identifizieren von Augenpositionen: Anwenden geometrischer Schlussfolgerungen, um unter Verwendung der Irispixelanhäufungen Augenpositionen zu erkennen, Anwenden des Verfahrens der Summation der quadratischen Differenzen, um auf der Grundlage der Irispixelanhäufungen Augenpositionen zu erkennen, und Anwenden des Verfahrens der Summation der quadratischen Differenzen, um anhand der Pixel im Bild Augenpositionen zu erkennen, wobei das angewandte Verfahren auf der Grundlage der Anzahl von Irispixelanhäufungen ausgewählt wird.
  • Die Erfindung wird im Folgenden anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.
  • Es zeigen:
  • 1 ein schematisches Diagramm eines für die Ausführung der Erfindung geeigneten Bildverarbeitungssystems;
  • 2 ein Flussdiagramm des erfindungsgemäßen Verfahrens zum Erkennen von Augen;
  • 3 eine Darstellung der Beziehung zwischen bestimmten geometrischen Parametern und einem ovalen hautfarbigen Bereich in einem Bild;
  • 4 eine Darstellung der bedingten Wahrscheinlichkeit, dass ein gegebenes Pixel ein Irispixel ist, ausgedrückt als Funktion einer bestimmten Rotintensität, sowie der bedingten Wahrscheinlichkeit, dass ein gegebenes Pixel kein Irispixel ist, ausgedrückt als Funktion einer bestimmten Rotintensität I;
  • 5 ein Flussdiagramm des Verfahrens zur Entwicklung eines statistischen Modells der bedingten Wahrscheinlichkeit, dass ein gegebenes Pixel ein Irispixel ist, ausgedrückt als Funktion einer bestimmten Rotinsitätsstufe, sowie eines statistischen Modells der bedingten Wahrscheinlichkeit, dass ein gegebenes Pixel kein Irispixel ist, ausgedrückt als Funktion einer bestimmten Rotintensitätsstufe;
  • 6 eine Darstellung der irisfarbigen Pixelanhäufungen;
  • 7 ein Flussdiagramm des Prozesses der Anwendung der Summation der quadrierten Differenzen zum Erkennen von Augenpositionen mittels Irispixelanhäufungen;
  • 8 eine Augenschablone und ein auf den Mittelpunkt einer Irispixelanhäufung zentriertes Suchfenster; und
  • 9 eine Augenschablone und ein Bild, wie diese bei der Anwendung des Verfahrens der Summation der quadrierten Differenzen zum Erkennen von Augenpositionen mittels Bildpixeln angewandt werden.
  • In 1 ist ein für die Durchführung der Erfindung geeignetes Bildverarbeitungssystem mit einer digitalen Farbbildquelle 10, etwa einem Filmscanner, einer digitalen Kamera oder einer digitalen Bildspeichervorrichtung, zum Beispiel einem CD-Laufwerk mit Bild-CD, dargestellt. Das von der digitalen Bildquelle 10 kommende digitale Bild wird einem Bildprozessor 12, etwa einem programmierten PC oder einer digitalen Bildverarbeitungs-Arbeitsstation, zum Beispiel einer Workstation Sun Sparc 20, zugeführt. Der Bildprozessor 12 ist gegebenenfalls mit einem Kathodenstrahl-Display 14 und einer Bedienerschnittstelle, etwa einer Tastatur 16 und einer Maus 18, verbunden. Ferner ist der Bildprozessor 12 mit einem computerlesbaren Speichermedium 17 verbunden. Der Bildprozessor 12 übermittelt verarbeitete digitale Bilder an ein Ausgabegerät 19. Das Ausgabegerät 19 besteht zum Beispiel aus einem Drucker, einem Langzeit-Bildspeichergerät, einem Anschluss an einen weiteren Prozessor oder einem zum Beispiel mit dem Internet verbundenen Telekommunikationsgerät für Bilder.
  • In 2 wird das erfindungsgemäße Verfahren genauer beschrieben. 2 zeigt ein Flussdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens zum Erkennen von Augen. Gemäß 2 wird ein zu erarbeitendes digitales Farbbild zunächst einem Schritt 200 zum Erkennen von irisfarbigen Pixeln zugeführt. Bei der dargestellten Ausführungsform werden irisfarbige Pixel dadurch erkannt, dass zunächst hautfarbige Bereiche im Bild erkannt werden und die irisfarbigen Pixel dann durch Messen der Rotintensitätsstufen innerhalb der hautfarbigen Bereiche identifiziert werden.
  • Der erste Schritt des Verfahrens zum Erkennen von hautfarbigen Bereichen besteht in dem in 2 als Schritt 201 dargestellten Farbhistogramm-Ausgleich. Im Schritt 201 – Farbhistogramm-Ausgleich – werden die zu verarbeitenden Bilder entgegengenommen, und es wird sichergestellt, dass sich die Bilder in einer Form befinden, die das Erkennen von hautfarbigen Bereichen erlaubt. Dieser Schritt ist deshalb nötig, weil die menschliche Haut in einem Bild wegen spezieller Belichtungsbedingungen, Blitzlichteinwirkung und der Eigenschaften des Films jede beliebige Anzahl unterschiedlicher Farben annehmen kann. Dadurch wird es schwierig, Hautbereiche in solchen Bildern automatisch zu erkennen. Im Farbhisto-gramm-Ausgleich des Schritts 201 wird eine statistische Analyse jedes Bildes durchgeführt. Wenn die statistische Analyse ergibt, dass das Bild gegebenenfalls Hautbereiche enthält, deren Aussehen durch Belichtungsbedingungen verändert wurde, werden diese Bilder so modifiziert, dass hautfarbige Bereiche erkannt werden können.
  • Nach dem Schritt des Farbhistogramm-Ausgleichs wird das Bild im Schritt 203 – Hautfarbenerkennung – nach hautfarbigen Bereichen durchsucht. Zwar gibt es zahlreiche Möglichkeiten, Hautbereiche in einem digitalen Bild zu erkennen, ein bevorzugtes Verfahren zum Erkennen von Hautbereichen in einem digitalen Bild besteht jedoch darin, die hautfarbigen Pixel von anderen Pixeln in einem Bild zu trennen, indem ein Arbeits-Farbraum definiert wird, der einen Farbbereich möglicher Hautfarben enthält, die aus einer großen ausgeglichenen Menge von Bildern zusammengetragen wurden. Ein Pixel wird dann als hautfarbiges Pixel identifiziert, wenn es eine innerhalb des Arbeits-Farbraums liegende Farbe aufweist.
  • Der Schritt 203 zum Erkennen von Hautfarben identifiziert einen im Bild vorkommenden Bereich von hautfarbigen Pixeln. Dieser Bereich kann in unterschiedlicher Weise definiert werden. Bei einer Ausführungsform wird der hautfarbige Bereich durch eine Gruppe von Pixelpositionen definiert, an denen sich im Bild Pixel mit Hautfarben befinden. Bei einer anderen Ausführungsform wird ein modifiziertes Bild erzeugt, das nur hautfarbige Pixel enthält. Bei einer weiteren Ausführungsform definiert der Hautfarben-Erkennungsschritt 203 Grenzen des hautfarbigen Bereichs im Bild. Selbstverständlich können in einem Bild auch mehrere hautfarbige Bereiche identifiziert werden.
  • Im Schritt 204 – Extraktion eines ovalen Bereichs – werden die durch den Hautfarben-Erkennungsschritt 203 erkannten hautfarbigen Bereiche untersucht, um hautfarbige Bereiche zu lokalisieren, die auf ein Gesicht hinweisen könnten. Da das menschliche Gesicht eine ungefähr ovale Form aufweist, werden die hautfarbigen Bereiche auf einen ovalen Hautfarbenbereich untersucht. Wird ein ovaler Hautfarbenbereich gefunden, misst der Schritt 204 – Extraktion eines ovalen Bereichs – die geometrischen Eigenschaften des ovalen Hautfarbenbereichs. Diese Messungen werden im Schritt 204 – Extraktion eines ovalen Bereichs – zur Festlegung von Parametern verwendet, die die Größe des Gesichts und die Position des Gesichts innerhalb des Bildes beschreiben.
  • In 3 ist die Beziehung zwischen den für die Definition eines ovalen Hautfarbenbereichs im Bild angewandten geometrischen Parametern dargestellt. Gemäß der Darstellung in 3 sind dies die Parameter Oval_top 300 (oberer Rand des Ovals), Oval_bottom 302 (unterer Rand des Ovals), Oval_left 304 (linker Rand des Ovals), Oval_right 306 (rechter Rand des Ovals), Oval_center_row 308 (mittlere Reihe des Ovals), und Oval_center_column 310 (mittlere Spalte des Ovals). Diese Parameter werden in späteren Schritten des erfindungsgemäßen Verfahrens zur Verbesserung der Effizienz des Augenerkennungsverfahrens angewandt. Es versteht sich, dass das erfindungsgemäße Verfahren auch auf der Grundlage von Hautfarben-Erkennungsbreichen durchgeführt werden kann, die andere als ovale Formen aufweisen, und dass in Verbindung mit diesen Formen andere geometrische Parameter definiert werden können. Außerdem versteht es sich, dass nicht unbedingt ein ovaler Bereich oder ein andersförmiger Bereich im Bild erkannt werden muss. In einem solchen Fall wird der Hautfarbenbereich auf irisfarbige Pixel untersucht. Außerdem werden in einem solchen Fall weitere den Hautfarbenbereich beschreibende Parameter zur Anwendung im Augenerkennungsprozess definiert.
  • Nach der Extraktion des ovalen Bereichs wird der ovale Hautfarbenbereich auf irisfarbige Pixel untersucht. Dies geschieht im Schritt 206 – Erkennen irisfarbiger Pixel. Durch die Begrenzung der Suche der irisfarbigen Pixel auf die innerhalb des ovalen Hautfarbenbereichs liegenden Pixel wird natürlich die Effizienz des Verfahrens zum Erkennen irisfarbiger Pixel verbessert. Außerdem bestehen natürlich viele Möglichkeiten, Pixel, die einer Iris zugeordnet werden können, im Irispixel-Erkennungsschritt 200 zu erkennen. Zum Beispiel können sie durch einfache Farbschwellenwert-Verfahren, Modellabbildung und andere auf dem Gebiet bekannte Verfahren identifiziert werden.
  • Bei einer bevorzugten Ausführungsform werden Irispixel mittels des im gemeinsam abgetretenen Patent US-A-6 652 458 mit dem Titel "Digitales Bildverarbeitungsverfahren und Computerprogrammprodukt zum Erkennen der menschlichen Iris in einem Bild" beanspruchten und beschriebenen Verfahrens erkannt. Bei dieser Ausführungsform erfolgt im Schritt 206 – Erkennen von irisfarbigen Pixeln – die Bestimmung, ob ein Pixel ein Irispixel ist, durch Messen der Rotintensität des Pixels. Denn es wurde beobachtet, dass eine menschliche Iris im Vergleich zur menschlichen Haut, die eine relativ hohe Rotintensität aufweist, nur eine geringe Rotintensität hat. Allerdings werden bei dieser Ausführungsform irisfarbige Pixel nicht mittels eines einfachen Schwellenwertverfahrens von hautfarbigen Pixeln getrennt. Vielmehr wird anhand der Rotintensitäten der Pixel im ovalen Hautfarbenbereich die Wahrscheinlichkeit bestimmt, dass die einzelnen Pixel jeweils Irispixel sind bzw. dass die einzelnen Pixel keine Irispixel sind. Durch Analyse der Beziehung zwischen der Wahrscheinlichkeit, dass das Pixel ein Irispixel ist, und der Wahrscheinlichkeit, dass das Pixel kein Irispixel ist, wird dann bestimmt, ob das Pixel ein Irispixel ist.
  • Die Bestimmung der Wahrscheinlichkeit, dass ein Pixel mit einer gegebenen Rotintensität ein Irispixel ist, erfolgt anhand eines statischen Irismodells. Desgleichen wird anhand eines statistischen Irismodells die Wahrscheinlichkeit, dass ein gegebenes Pixel kein Irispixel ist, auf Basis der Rotintensitätsstufe des Pixels definiert. Wie in dem Beispiel der 4 dargestellt, die ein Beispiel eines statistischen Modells der bedingten Wahrscheinlichkeit 402, dass ein gegebenes Pixel ein Irispixel ist, als Funktion einer bestimmten Rotintensität sowie ein Beispiel eines statistischen Modells der bedingten Wahrscheinlichkeit 404, dass ein gegebenes Pixel kein Irispixel ist, als Funktion einer bestimmten Rotinsität I darstellt, ist die Beziehung zwischen diesen Modellen nicht linear.
  • Die Wahrscheinlichkeitsanalyse kann in unterschiedlicher Weise durchgeführt werden. Zum Beispiel können die Wahrscheinlichkeiten auf unterschiedliche Weise mit einem Pixel kombiniert werden, das auf der Grundlage der Beziehung zwischen diesen Wahrscheinlichkeiten als Iris- oder Nichtiris-Pixel klassifiziert wird. Bei einer bevorzugten Ausführungsform werden jedoch mittels eines als Bayes-Modell bekannten mathematischen Konstrukts die Wahrscheinlichkeiten so kombiniert, dass sich die bedingte Wahrscheinlichkeit ergibt, dass ein Pixel mit einer gegebenen Rotintensität zu einer Iris gehört.
  • Bei dieser Ausführungsform wird das Bayes-Modell wie folgt angewandt:
    Figure 00080001
    worin P(iris|I) die bedingte Wahrscheinlichkeit ist, dass eine gegebene Pixelintensität zu einer Iris gehört, P(I|iris) die bedingte Wahrscheinlichkeit ist, dass ein gegebenes Irispixel eine bestimmte Intensität I aufweist, P(iris) die Wahrscheinlichkeit des Auftretens einer Iris in dem ovalen Gesichtsbereich wiedergibt, P(I|noniris) die bedingte Wahrscheinlichkeit wiedergibt, dass ein gegebenes Nichtiris-Pixel eine bestimmte Intensität I aufweist, und P(noniris) die Wahrscheinlichkeit des Auftretens eines Nichtiris-Pixels im ovalen Gesichts bereich wiedergibt. Außerdem wendet das Bayes-Modell die Wahrscheinlichkeit des Auftretens eines Irispixels in einem ovalen Gesichtsbereich und die Wahrscheinlichkeit des Auftretens eines Nichtiris-Pixels in dem ovalen Gesichtsbereich an. Mithilfe einer auf dem Bayes-Modell beruhenden Wahrscheinlichkeitsanalyse wird ein Pixel als Irispixel qualifiziert, wenn die bedingte Wahrscheinlichkeit, dass ein Pixel mit einer gegebenen Rotintensität zu einer Iris gehört, größer ist als zum Beispiel 0,05.
  • Bei der vorstehend beschriebenen Ausführungsform werden nur die Pixel geprüft, die sich innerhalb des durch Oval_top 300, Oval_bottom 302, Oval_left 304, und Oval_right 306 definierten ovalen Hautfarbenbereichs befinden. Dadurch, dass die zu prüfenden Pixel auf die im ovalen Hautfarbenbereich befindlichen Pixel beschränkt werden, wird die Anzahl der zu prüfenden Pixel reduziert und die Wahrscheinlichkeit verringert, dass Pixel, die keine Iris darstellen, als solche klassifiziert werden. Es versteht sich, dass die in anderen Ausführungsformen der Erfindung beschriebene Beschränkung der zu prüfenden Pixel auf die Pixel im Hautfarbenbereich ähnliche Vorteile mit sich bringt. Ferner versteht es sich, dass es nicht zwingend nötig ist, Hautfarbenbereiche zu erkennen, und dass die Erfindung auch in der Weise durchgeführt werden kann, dass man die Rotintensität jedes Pixels im Bild misst und anhand der vorstehend beschriebenen Wahrscheinlichkeitsanalyse bestimmt, ob ein Pixel ein Irispixel ist.
  • Das Flussdiagramm der 5 gibt den Bayes-Farbmodell-Lernschritt 226 wieder, mittels dessen das statistische Modell zur Bestimmung, ob das Pixel ein Irispixel ist, und das statistische Modell zur Bestimmung, ob das Pixel ein Nichtiris-Pixel ist, definiert werden. Das Verfahren gemäß Schritt 226 wird vor Anwendung des erfindungsgemäßen Verfahrens zum Erkennen von Irispixeln ausgeführt. Hierzu wird, wie in 5 dargestellt, eine große Probemenge von Gesichts-Frontalbildern gesammelt und untersucht. Dann werden alle im Gesichtsbereich vorhandenen Irispixel und Nichtiris-Pixel – 502 und 504 – identifiziert. Danach werden zunächst die bedingte Wahrscheinlichkeit P(I|iris), dass ein gegebenes Irispixel eine bestimmte Rotintensität I aufweist, sowie die Wahrscheinlichkeit P(iris) 506, dass eine Iris im ovalen Gesichtsbereich vorliegt, und anschließend die bedingte Wahrscheinlichkeit P(I|noniris) berechnet, dass ein gegebenes Nichtiris-Pixel eine bestimmte Rotintensität I aufweist, wonach schließlich die Wahrscheinlichkeit P(noniris) 508 des Vorliegens eines Nichtiris-Pixels im ovalen Gesichtsbereich berechnet wird. Die berechneten statistischen Modelle dienen dem Bayes-Modell dazu, die bedingte Wahrscheinlichkeit P(iris|I) 510 wiederzugeben, dass eine gegebene Pixelintensität zu einer Iris gehört. Bei bestimmten Ausführungsformen kann das Bayes-Modell auch eingesetzt werden, um eine Vergleichstabelle für den Irispixel-Erkennungsschritt 206 zu erzeugen.
  • Nachdem die Position der Irispixel im Bild im Irisfarbpixel-Erkennungsschritt 206 identifiziert wurde, werden die Irisfarbpixel Clustern zugewiesen. Dies geschieht im Irispixel-Clusterbildungsschritt 208. Ein Cluster ist eine nicht leere Gruppe von irisfarbigen Pixeln mit der Eigenschaft, dass sich jedes Pixel im Cluster auch innerhalb eines vorbestimmten Abstands zu einem anderen Pixel des Clusters befindet. Ein solcher vorgegebener Abstand kann zum Beispiel ein Dreißigstel der digitalen Bildhöhe betragen. Der Irispixel-Clusterbildungsschritt 208 gemäß 2 bildet aus den irisfarbigen Pixeln Cluster gemäß dieser Cluster-Definition. Es versteht sich jedoch, dass die Gruppierung der Pixel zu Clustern auch nach anderen Kriterien erfolgen kann.
  • Unter bestimmten Umständen kann die Definition für ein Cluster irisfarbiger Pixel so weit gefasst sein, dass auch ungültige Cluster darunter fallen. In einem solchen in 2 dargestellten Fall wird ein zusätzlicher Schritt 209 zur Validierung der Cluster eingeführt. Ein Cluster kann gegebenenfalls ungültig sein, weil es zu viele irisfarbige Pixel enthält oder weil die geometrische Beziehung der Pixel im Cluster vermuten lässt, dass das Cluster nicht auf eine Iris hinweist. Wenn zum Beispiel das Verhältnis zwischen Höhe und Breite des Clusters bestimmt wird und dieses Verhältnis größer als zwei ist, ist das Cluster ungültig. Ungültige Irispixel-Cluster bleiben bei der weiteren Verarbeitung unberücksichtigt. Daher werden in den folgenden Abschnitten der Beschreibung gültige Irispixel-Cluster einfach als Irispixel-Cluster bezeichnet.
  • Im Schritt 210 wird die Anzahl der Irispixel-Cluster "n" berechnet. Die Anzahl der Irispixel-Cluster "n" dient im Entscheidungsschritt 210 dazu, zwischen zwei Pfaden zum Erkennen von Augen in einem Bild auszuwählen. Wenn die Anzahl der Irispixel "n" kleiner ist als zwei, wird der Prozess mit dem Schritt 224 fortgesetzt, der im Folgenden noch beschrieben wird. Wenn die Anzahl der irisfarbigen Pixel "n" mindestens zwei beträgt, wird der Prozess mit dem Schritt 212 fortgesetzt, in dem die Mittelpunkte der Cluster bestimmt werden. Als Mit telpunkt eines Clusters gilt der Massenmittelpunkt des Clusters. Die Mittelpunktposition des Clusters wird in Bezug auf den Nullpunkt des Bild-Koordinatensystems berechnet. Hierzu befindet sich der Nullpunkt des Bild-Koordinatensystems in der oberen linken Ecke des Bildrandes.
  • Nachdem der Mittelpunkt jedes Irispixel-Clusters lokalisiert ist, wird versucht, durch geometrische Beweisführung Augen auf der Grundlage der geometrischen Beziehung zwischen den Irispixel-Clustern zu erkennen. Wenn, wie in 6 dargestellt, nur zwei Cluster vorhanden sind, wobei eines in der linken Hälfe 604 und eines in der rechten Hälfte 606 liegt, und wenn der horizontale Abstand zwischen den Mittelpunkten der beiden Cluster kleiner ist als der 0,4-fache Wert des Abstandes zwischen Oval_right 306 und Oval_left 304, und wenn der vertikale Abstand zuwischen den Mittelpunkten der beiden Cluster kleiner ist als ein Zehntel des Abstandes zwischen Oval_top 300 und Oval_bottom 302, werden diese Mittelpunktpositionen dieser beiden Cluster als die Augenpositionen behandelt.
  • Es ist ersichtlich, dass diese Analyse sehr schnell durchgeführt werden kann. Wenn diese Analyse erfolgreich ist, ist keine weitere Maßnahme zum Erkennen von Augenpositionen erforderlich. Deshalb wird im Schritt 216 eine Überprüfung des Erkennungsergebnisses durchgeführt um festzustellen, ob Augenpositionen erkannt wurden. Wurden Augenpositionen erkannt, endet der Augenerkennungsprozess. Wurden keine Augenpositionen erkannt, wird der Prozess mit Schritt 218 fortgesetzt.
  • Im Schritt 218 wird das Verfahren der Summation quadrierter Differenzen angewandt, um das Bild nach Augenpositionen zu durchsuchen. Allgemein beinhaltet das Verfahren der Summation quadrierter Differenzen die Berechnung der Summe der quadrierten Differenzen der Intensitätswerte der entsprechenden Pixel in einer Augenschablone und in einem Bildbereich, der dieselbe Größe aufweist wie die Schablone. Bei diesem Verfahren entspricht jedes Pixel der Pixelteilfläche einem entsprechenden Pixel in der Schablone. Zunächst wird die Differenz zwischen der Intensitätsstufe jedes der entsprechenden Pixel berechnet. Dann wird jede Differenz quadriert, und anschließend wird die Summe der quadrierten Differenzen für alle Pixel der Gruppe berechnet. Diese Summation quadrierter Differenzen liefert ein relatives Maß der Übereinstimmung zwischen jeder der gemessenen Pixelgruppen und der Schablone. Werden keine Augenpositionen erkannt – 220 –, wird das Verfahren mit dem Schritt 224 fortgesetzt.
  • Erfindungsgemäß erfolgt die Summation quadrierter Differenzen für jedes Pixel in jedem Fenster jeder Halbregion. Diese Werte werden dann verglichen, und das Cluster mit der relativ kleinsten Summe der quadrierten Differenzwerte wird ausgewählt und als eine Augenposition für die betreffende Halbregion identifiziert. Dieses Verfahren wird für die Cluster der linken und der rechten Halbregionen wie nachstehend beschrieben getrennt durchgeführt.
  • Es ist darauf hinzuweisen, dass gemäß der Beschreibung der Erfindung zwar das Verfahren der Summation quadrierter Differenzen angewandt wird, um die relativ beste Korrelation zwischen der durchschnittlichen Augenschablone und den einzelnen Pixelteilbereichen zu identifizieren, dass aber auch andere Verfahren für diesen Zweck eingesetzt werden können, unter anderem auch das Verfahren der mittleren quadratischen Abweichung.
  • Gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens werden die im Ovalbereich-Erkennungsschritt 204 berechneten Parameter dazu verwendet, die Effizienz der Anwendung des Verfahrens der Summation quadrierter Differenzen zu verbessern, indem die Anzahl der Positionen im Bild, an denen die Summation quadrierter Differenzen berechnet werden muss, verringert wird. Wie in 6 dargestellt, wird bei dieser Ausführungsform der ovale Bereich mittels der mittleren Spalte des Ovals – 310 – in eine linke Region 604 und eine rechte Region 606 unterteilt. Wie ebenfalls in 6 zu erkennen ist, befinden sich die Irispixelcluster 600 und die Mittelpunktposition 620 der Irispixelcluster 600 entweder in der linken oder der rechten Halbregion 604 bzw. 606, die durch die mittlere Spalte 310 des Ovals getrennt sind.
  • Im Schritt 218 wird mittels des Verfahrens der Summation quadrierter Differenzen und der Pixelcluster 600 in der linken Halbregion 604 ein Suchprozess für das linke Auge durchgeführt. Desgleichen wird im Schritt 218 ein Suchprozess für das rechte Auge in der rechten Halbregion anhand des Verfahrens der Summation quadrierter Differenzen und der in der rechten Halbregion 606 befindlichen Irispixelcluster 600 durchgeführt.
  • Im Folgenden wird nun anhand der 7 und 8 das Verfahren für die Auswahl eines Clusters aus den Clustern einer Halbregion beschrieben. Zu Beginn des Augenposition-Suchprozesses wird ein Fenster 800 im Mittelpunkt jedes Clusters 802 der entsprechenden Halbregion zentriert – 70. Der Vorgabewert für die Fenstergröße 800 beträgt ein Zwanzigstel der Größe des Bildes 804. Anschließend erfolgt die Berechnung der Summe der quadrierten Differenzen – 72 – für jedes der Pixel in jedem Fenster 800. Bei 76 wird dann die Position des Pixels mit der kleinsten Summe quadrierter Differenzen in jedem Fenster 800 aufgezeichnet. Wenn für jedes Pixel jedes Fensters der Halbregion 78 eine Summe der quadrierten Differenzen berechnet wurde, wird die Position des Pixels mit der kleinsten Summe quadrierter Differenzen bei 79 aufgezeichnet. Es ist dies die angenommene Augenposition der Halbregion. Dann wird dieser Prozess für die andere Halbregion durchgeführt. Das Verfahren endet, wenn bei diesem Verfahren zwei Augen erkannt werden.
  • Es versteht sich, dass die Summation quadrierter Differenzen im Schritt 218 auch ohne den Schritt der Extraktion eines ovalen hautfarbigen Bereichs erfolgen kann. Bei einer solchen Ausführungsform kann der hautfarbige Bereich in einen linken Halbbereich und einen rechten Halbbereich unterteilt werden. Dann können die Irispixelcluster in Cluster des linken Halbbereichs und Cluster des rechten Halbbereichs unterteilt werden. Abschließend kann das Verfahren der Summation quadrierter Differenzen wie vorstehend beschrieben durchgeführt werden.
  • Wenn jedoch nach Durchführung des Schritts 218 keine Augen erkannt wurden – 220 –, oder wenn weniger als zwei Augenpixel-Cluster im Schritt 209 erkannt wurden, wird das Augenerkennungsverfahren mit dem Schritt 224 fortgesetzt. Der Schritt 224 läuft ähnlich ab wie der Schritt 218. Allerdings wird, wie in 9 dargestellt, das gesamte Bild 900 unterteilt und die Summe der quadrierten Differenzen für jedes Pixel des Bildes 904 im linken Halbbereich 908 bzw. im rechten Halbbereich 910 berechnet.
  • Es versteht sich, dass anstelle des Verfahrens der Summation quadrierter Differenzen auch andere Verfahren zur Bestimmung der relativen Korrelation zwischen einem Teilbereich eines Bildes und einer Augenschablone angewandt werden können. Ein Beispiel eines solchen Verfahrens ist das Verfahren der kleinsten quadratischen Abweichung. Dieses Verfahren ist dem Fachmann bekannt.
  • Aus Vorstehendem ist ersichtlich, dass das erfindungsgemäße Verfahren drei unterschiedliche Prozesse zum Erkennen von Augen in einem Bild vorsieht, die geometrische Beweisführung 212 und 214, die Summation quadrierter Differenzen anhand der Irispixel-Cluster 218 und die Summation quadrierter Differenzen anhand der Bildpixel 224. Außerdem versteht sich, dass die geometrische Beweisführung das einfachste und effizienteste dieser Verfahren darstellt. Denn die geometrische Beweisführung stellt das effizienteste Verarbeitungsverfahren dar und wird nur auf Irispixel-Cluster angewandt. Die Anzahl dieser Cluster ist im Vergleich zur Anzahl der Pixel in einem Bild relativ klein.
  • Dagegen ist die im Schritt 224 erforderliche Anwendung des Verfahrens der Summation quadrierter Differenzen auf jedes der Pixel in einem Bild ein rechentechnisch umfangreicher Schritt, der viele Verarbeitungsschritte und Berechnungen erfordert um festzustellen, ob ein einzelnes Pixel im Bild für eine Augenposition steht. Außerdem muss das Verfahren des Schritts 224 auf alle Nichtiris-Pixel in einem Bild angewandt werden. Bei einem heute üblichen Format werden digitale Bilder mit 2,1 Megapixel-Kameras erfasst. Es wurden aber bereits Kameras mit bis zu 16 Megapixel vorgestellt. Daher ist klar, dass die Anwendung des Schritts 224 zum Erkennen von Augenpositionen in einem Bild buchstäblich Hunderte von Millionen von Arbeitsgängen für die Verarbeitung eines einzigen Bildes erforderlich macht. Dies ist ein zeitaufwändiger und computerintensiver Prozess.
  • Als Zwischenlösung wird im Schritt 218 eine rechentechnisch umfangreiche Summation quadrierter Differenzen durchgeführt, wobei jedoch die Anwendung dieses Verfahrens auf die Pixel in dem um die Irispixel-Cluster herum definierten Fenster beschränkt ist. Dadurch wird die Anzahl der Pixel, auf die das Verfahren der Summation quadrierter Differenzen anzuwenden ist, erheblich verringert, so dass die Anwendung des Verfahrens der Summation quadrierter Differenzen – 220 – weniger computerintensiv wird als das Verfahren der Summation quadrierter Differenzen gemäß Schritt 224.
  • Ferner ist ersichtlich, dass das erfindungsgemäße Verfahren eine Möglichkeit vorsieht, automatisch zwischen diesen Augenerkennungsverfahren auszuwählen und die Verfahren so zu kombinieren, dass die Anzahl der Irispixel-Cluster zur Auswahl des effizientesten Verfahrens für das Erkennen von Augen in einem Bild eingesetzt wird.
  • Der Gegenstand der vorliegenden Erfindung bezieht sich auf die Technologie des Verständnisses digitaler Bilder, d.h. eine Technologie, die digitale Bilder verarbeitet, um für den Menschen verständliche Objekte, Attribute oder Bedingungen zu erkennen und ihnen eine sinnvolle Bedeutung zuzuweisen und die erhaltenen Ergebnisse für die weitere Verarbeitung des digitalen Bildes zu verwenden.
  • Die Aufgabe der Erfindung wird somit durch das vorliegende Verfahren und das beschriebene Computerprogrammprodukt erfüllt.

Claims (8)

  1. Digitales Bildverarbeitungsverfahren zum Erkennen von menschlichen Augen in einem digitalen Bild, Bestimmen potentieller Hautfarbenbereiche in einem Bild, Lokalisieren von Hautfarbenbereichen mit einer Form, die ein Gesicht sein könnte, gekennzeichnet durch die Schritte: Erkennen von Irispixeln in den lokalisierten Bereichen (206); Anhäufen der Irispixel (208); Bestimmen der Anzahl von Irispixelanhäufungen (210); Auswählen mindestens eines der folgenden Verfahren zum Identifizieren von Augenpositionen in einem Bild (210); i) Anwenden geometrischer Schlussfolgerungen, um unter Verwendung der Irispixelanhäufungen (212, 214) Augenpositionen zu erkennen; ii) Anwenden einer Summation einer quadratischen Differenz, um auf der Grundlage der Irispixelanhäufungen (218) Augenpositionen zu erkennen; iii) Anwenden einer Summation einer quadratischen Differenz, um anhand der Pixel im Bild (224) Augenpositionen zu erkennen; worin der Schritt des Anwendens ausgewählt wird auf der Grundlage der Anzahl von Irispixelanhäufungen.
  2. Verfahren nach Anspruch 1, worin der Anwendungsschritt iii) ausgewählt wird, wenn weniger als zwei Irispixelanhäufungen erkannt werden.
  3. Verfahren nach Anspruch 1, worin der Anwendungsschritt i) ausgewählt wird, wenn mindeste zwei Irispixelanhäufungen erkannt werden.
  4. Verfahren nach Anspruch 3, worin das Verfahren i) zuerst angewandt wird und das Verfahren ii) anschließend angewandt wird, wenn das Verfahren i) nicht mindestens zwei Augenpositionen erkennt.
  5. Verfahren nach Anspruch 4, worin das Verfahren ii) angewandt wird und das Verfahren iii) anschließend angewandt wird, wenn das Verfahren ii) nicht mindestens zwei Augenpositionen erkennt.
  6. Digitales Bildverarbeitungsverfahren nach Anspruch 1, worin der Schritt des Auswählens eines Verfahrens zum Erkennen von Augenpositionen auf der Grundlage der Anzahl von Irispixelanhäufungen den Schritt des Auswählens einer Reihe von Augenerkennungsschritten umfasst.
  7. Digitales Bildverarbeitungsverfahren nach Anspruch 1, worin der Schritt des Auswählens eines Verfahrens zum Erkennen von Augenpositionen auf der Grundlage der Anzahl von Irispixelanhäufungen und der zum Ausführen eines jeden Verfahrens erforderlichen Zeit erfolgt.
  8. Digitales Bildverarbeitungsverfahren nach Anspruch 1, worin der Schritt des Auswählens eines Verfahrens zum Erkennen von Augenpositionen auf der Grundlage der Anzahl von Irispixelanhäufungen und der Rechenleistung des ausgewählten Verfahrens erfolgt.
DE60123378T 2000-12-19 2001-12-10 Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen Expired - Lifetime DE60123378T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/740,562 US6792134B2 (en) 2000-12-19 2000-12-19 Multi-mode digital image processing method for detecting eyes
US740562 2000-12-19

Publications (2)

Publication Number Publication Date
DE60123378D1 DE60123378D1 (de) 2006-11-09
DE60123378T2 true DE60123378T2 (de) 2007-08-23

Family

ID=24977058

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60123378T Expired - Lifetime DE60123378T2 (de) 2000-12-19 2001-12-10 Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen

Country Status (4)

Country Link
US (1) US6792134B2 (de)
EP (1) EP1229493B1 (de)
JP (1) JP3999964B2 (de)
DE (1) DE60123378T2 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US6965684B2 (en) * 2000-09-15 2005-11-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
US20030095707A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Computer vision method and system for blob-based analysis using a probabilistic pramework
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US7295686B2 (en) * 2003-09-29 2007-11-13 Primax Electronics Ltd. Method of processing red eye in digital images
US7324664B1 (en) * 2003-10-28 2008-01-29 Hewlett-Packard Development Company, L.P. Method of and system for determining angular orientation of an object
FR2864290B1 (fr) * 2003-12-18 2006-05-26 Sagem Procede et dispositif de reconnaissance d'iris
US7809171B2 (en) * 2005-01-10 2010-10-05 Battelle Memorial Institute Facial feature evaluation based on eye location
JP4516448B2 (ja) * 2005-02-25 2010-08-04 株式会社デンソーアイティーラボラトリ 領域抽出装置及び領域抽出方法
US20070036438A1 (en) * 2005-08-15 2007-02-15 Lexmark International, Inc. Methods and systems for identifying red eye pairs
US7650034B2 (en) * 2005-12-14 2010-01-19 Delphi Technologies, Inc. Method of locating a human eye in a video image
US7646894B2 (en) * 2006-02-14 2010-01-12 Microsoft Corporation Bayesian competitive model integrated with a generative classifier for unspecific person verification
KR101308368B1 (ko) 2006-03-03 2013-09-16 허니웰 인터내셔널 인코포레이티드 홍채 품질 측정을 갖는 홍채 인식 시스템
WO2007103834A1 (en) 2006-03-03 2007-09-13 Honeywell International, Inc. Indexing and database search system
US20080027985A1 (en) * 2006-07-31 2008-01-31 Microsoft Corporation Generating spatial multimedia indices for multimedia corpuses
US7712052B2 (en) 2006-07-31 2010-05-04 Microsoft Corporation Applications of three-dimensional environments constructed from images
US7764849B2 (en) * 2006-07-31 2010-07-27 Microsoft Corporation User interface for navigating through images
JP4322913B2 (ja) * 2006-12-19 2009-09-02 富士通テン株式会社 画像認識装置、画像認識方法および電子制御装置
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8121358B2 (en) * 2009-03-06 2012-02-21 Cyberlink Corp. Method of grouping images by face
US8531478B2 (en) * 2009-03-19 2013-09-10 Cyberlink Corp. Method of browsing photos based on people
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US9378564B2 (en) * 2013-03-01 2016-06-28 Colormodules Inc. Methods for color correcting digital images and devices thereof
CN104091155B (zh) * 2014-07-04 2018-05-01 武汉工程大学 光照鲁棒的虹膜快速定位方法
CN111144413A (zh) * 2019-12-30 2020-05-12 福建天晴数码有限公司 虹膜定位方法及计算机可读存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3026300C2 (de) 1980-07-11 1984-12-20 Chemische Werke Hüls AG, 4370 Marl Verwendung von wasserlöslichen Polymerisaten auf der Basis von 1,3-Butadienpolymerisaten als Bindemittel in Holzschutzmittel enthaltenden wäßrigen Imprägnierungsmitteln für Holz und Holzwerkstoffe
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US5128711A (en) 1989-04-28 1992-07-07 Fuji Photo Film Co., Ltd. Apparatus for recording position information of principal image and method of detecting principal image
US5130789A (en) 1989-12-13 1992-07-14 Eastman Kodak Company Localized image recoloring using ellipsoid boundary function
US5089976A (en) 1990-07-18 1992-02-18 Friends Of The Ucsd Library, Inc. Color normalization process
US5432863A (en) 1993-07-19 1995-07-11 Eastman Kodak Company Automated detection and correction of eye color defects due to flash illumination
JP2937030B2 (ja) * 1994-09-14 1999-08-23 三菱電機株式会社 画像処理装置及び人物状態判定装置
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US5570698A (en) * 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
JP3350296B2 (ja) * 1995-07-28 2002-11-25 三菱電機株式会社 顔画像処理装置
US6463173B1 (en) * 1995-10-30 2002-10-08 Hewlett-Packard Company System and method for histogram-based image contrast enhancement
WO1997021188A1 (en) * 1995-12-04 1997-06-12 David Sarnoff Research Center, Inc. Wide field of view/narrow field of view recognition system and method
JPH09216580A (ja) 1996-02-14 1997-08-19 Yamaha Motor Co Ltd トラックの荷台の床構造体
JP2891159B2 (ja) * 1996-02-14 1999-05-17 日本電気株式会社 多眼画像からの物体検出方式
JP2907120B2 (ja) 1996-05-29 1999-06-21 日本電気株式会社 赤目検出補正装置
US6028960A (en) * 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6108446A (en) * 1997-02-18 2000-08-22 Hoshen; Joseph Method and apparatus for extracting cluster shape features from digital images
EP0858905B1 (de) 1997-02-18 2002-11-27 Canon Kabushiki Kaisha Aufzeichnungsmaterial, Verfahren zu dessen Herstellung und Tintenstrahlgedruckten Bildern unter Verwendung dieses Materials
US6215891B1 (en) * 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
JPH10283472A (ja) * 1997-04-03 1998-10-23 Tec Corp 顔画像特徴点抽出装置及びこの装置を使用した個人認証システム
US6381345B1 (en) * 1997-06-03 2002-04-30 At&T Corp. Method and apparatus for detecting eye location in an image
US6009209A (en) 1997-06-27 1999-12-28 Microsoft Corporation Automated removal of red eye effect from a digital image
JPH1166320A (ja) * 1997-08-12 1999-03-09 Mitsubishi Electric Corp 目画像追跡装置
KR19990016896A (ko) 1997-08-20 1999-03-15 전주범 얼굴영상에서 눈영역 검출방법
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6292574B1 (en) 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection
US6016354A (en) * 1997-10-23 2000-01-18 Hewlett-Packard Company Apparatus and a method for reducing red-eye in a digital image
US6148092A (en) * 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image
JP3549725B2 (ja) * 1998-04-13 2004-08-04 シャープ株式会社 画像処理装置
JP3610234B2 (ja) * 1998-07-17 2005-01-12 株式会社メディア・テクノロジー アイリス情報取得装置およびアイリス識別装置
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
JP2000105830A (ja) * 1998-09-29 2000-04-11 Oki Electric Ind Co Ltd 個人識別装置
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
US6292171B1 (en) * 1999-03-31 2001-09-18 Seiko Epson Corporation Method and apparatus for calibrating a computer-generated projected image

Also Published As

Publication number Publication date
EP1229493A3 (de) 2004-12-15
EP1229493B1 (de) 2006-09-27
US20020114495A1 (en) 2002-08-22
JP3999964B2 (ja) 2007-10-31
US6792134B2 (en) 2004-09-14
EP1229493A2 (de) 2002-08-07
DE60123378D1 (de) 2006-11-09
JP2002208014A (ja) 2002-07-26

Similar Documents

Publication Publication Date Title
DE60123378T2 (de) Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE60307583T2 (de) Auswertung der Schärfe eines Bildes der Iris eines Auges
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
EP1413972B1 (de) Prüfung von Bildaufnahmen von Personen
DE60213032T2 (de) Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE2903855A1 (de) Verfahren zum automatischen markieren von zellen und bestimmung der merkmale von zellen aus zytologischen abstrichpraeparaten
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
DE10392259T5 (de) Objektkorrespondenzidentifikation ohne volle Volumenregistration
DE112008000020B4 (de) Vorrichtung und Programm zur Korrektur der Irisfarbe
DE112019005143T5 (de) System zur co-registrierung medizinischer bilder unter verwendung eines klassifikators
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE60313662T2 (de) Histologische bewertung des nuklearpleomorphismus
EP3931798B1 (de) Schätzung der bewegung einer bildposition
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
DE60026732T2 (de) Zellenreihen-extraktionsverfahren
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition