DE602006000400T2 - Bildsegmentierungsverfahren und -system - Google Patents

Bildsegmentierungsverfahren und -system Download PDF

Info

Publication number
DE602006000400T2
DE602006000400T2 DE602006000400T DE602006000400T DE602006000400T2 DE 602006000400 T2 DE602006000400 T2 DE 602006000400T2 DE 602006000400 T DE602006000400 T DE 602006000400T DE 602006000400 T DE602006000400 T DE 602006000400T DE 602006000400 T2 DE602006000400 T2 DE 602006000400T2
Authority
DE
Germany
Prior art keywords
image
captured image
reference image
foreground
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602006000400T
Other languages
English (en)
Other versions
DE602006000400D1 (de
Inventor
Eran San Francisco STEINBERG
Petronel Bigioi
Peter Corcoran
Yury San Mateo PRILUTSKY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fotonation Ltd
Original Assignee
Fotonation Vision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fotonation Vision Ltd filed Critical Fotonation Vision Ltd
Publication of DE602006000400D1 publication Critical patent/DE602006000400D1/de
Application granted granted Critical
Publication of DE602006000400T2 publication Critical patent/DE602006000400T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/624Red-eye correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Description

  • Die Erfindung betrifft ein Bildsegmentierungsverfahren und -system und insbesondere ein Werkzeug zur Bestimmung von Bereichen, die auf der Grundlage einer Belichtungsanalyse von erfassten und Bezugsbildern den Vordergrund und den Hintergrund anzeigen.
  • Bildsegmentierung umfasst digitale Bildverarbeitung, wobei ein Bild basierend auf einigen vorherbestimmten Kriterien in Bereiche unterteilt wird. Diese Kriterien können kontextuell, numerisch, auf die Form, Größe und/oder Farbe, auf den Gradienten und anderes bezogen sein. Es ist wünschenswert, über ein Verfahren zur Bestimmung des Vordergrundes und des Hintergrundes von digitalen Bildern für zahlreiche Bildverarbeitungsvorgänge zu verfügen. Derartige Vorgänge können Bildverbesserung, Farbkorrektur und/oder Objekt basierte Bildanalyse umfassen. In dem spezifischen Fall der Verarbeitung im Inneren einer Erfassungsvorrichtung ist es wünschenswert, eine derartige Segmentierung rasch auszuführen, während geeignete Berechnungen von relativ geringer Komplexität verwendet werden, zum Beispiel, um Berechnungen in einer Kamera oder in Mobiltelefonen auszuführen, die mit Bilderfassungsfähigkeiten ausgestattet sind.
  • Wenn es verfügbar ist, ist Umgebungslicht, wie beispielsweise Sonnenlicht, insbesondere bei Schnellschusskameras (im Gegensatz zu Studioanordnungen mit mehreren Stroboskopeinheiten), im Allgemeinen räumlich gleichmäßiger beschaffen als Stroboskoplicht, das von der Kamera oder dicht daneben ausgeht. Aufgrund der Tatsache, dass die Stroboskopenergie umgekehrt zum Quadrat der Entfernung ist, ist das Licht auf dem Objekt umso stärker, je näher sich das Objekt befindet. Die Gesamtlichtverteilung variiert zwischen den beiden Bildern, da eine Aufnahme oder ein Teilsatz von Aufnahmen nur mit verfügbarem Umgebungslicht belichtet wird, während ein anderer mit direktem Blitzlicht belichtet wird.
  • US 6,005,959 offenbart ein digitales Bilderfassungssystem gemäß dem Oberbegriff von Anspruch 1.
  • Die vorliegende Erfindung schafft ein digitales Bilderfassungssystem, das gemäß Anspruch 1 gekennzeichnet ist.
  • Bei einem weiteren Gesichtspunkt schafft die Erfindung ein digitales Bildsegmentierungsverfahren, das gemäß Anspruch 25 gekennzeichnet ist.
  • Die vorliegende Erfindung ist besonders vorteilhaft in einer digitalen Bilderfassungsvorrichtung, bei der gewünscht wird, Bildverarbeitung als Teil der Hauptbilderfassungskette anzuwenden, wobei ein Strom von Voransichtsbildern mit relativ niedriger Auflösung zur Verwendung mit einem erfassten Hauptbild zur Verfügung steht.
  • Ein gemäß Hintergrund/Vordergrund segmentiertes Bild, das von der vorliegenden Erfindung geschaffen wird, kann in zahlreichen digitalen Bildverarbeitungsalgorithmen verwendet werden, wie beispielsweise Algorithmen, die die Trennung des Subjekts, das sich gewöhnlich im Vordergrund befindet, vom Hintergrund verbessern. Dieses Verfahren kann dazu verwendet werden, die Feldtiefe zu verbessern, den Hintergrund zu verbessern oder ganz zu entfernen oder Objekte, wie beispielsweise Gesichter oder Menschen, aus einem Bild auszublenden.
  • Durch Verkleinern des Bereichs, der einer Bildverarbeitungsanalyse unterzogen wird, wird die Verarbeitungszeit für viele Echtzeitalgorithmen wesentlich verkürzt.
  • Demnach wird die Zeit zwischen zwei Auslösungen einer digitalen Kamera optimiert. Bei bestimmten Ausführungsformen kann es vorteilhafterweise die Verwendung mehrerer Bildverarbeitungsverfahren ermöglichen, wo zuvor nur ein einziges Verfahren angewendet wurde. Es kann ebenfalls dazu dienen, das Auftreten von falschen Positiven für bestimmte Bildverarbeitungsalgorithmen zu verringern, wenn es wahrscheinlicher ist, dass diese entweder im Hintergrund- oder im Vordergrundbereich eines Bildes auftreten.
  • Die Erfindung kann auf eingebettete Vorrichtungen mit begrenzter Rechenfähigkeit angewendet werden. Sie kann ebenfalls dazu verwendet werden, die Produktivität zu verbessern, insbesondere wenn große Mengen von Bildern verarbeitet werden sollen, wie beispielsweise für sicherheitsbasierte Gesichtserfassung, Drucksysteme mit großem Volumen oder Desktopanalyse einer Sammlung von Bildern. Die Erfindung kann auf Stillbilderfassungsvorrichtungen sowie auf Video- oder Endloserfassungsvorrichtungen mit Stroboskopfähigkeit angewendet werden.
  • Bevorzugte Ausführungsformen werden nun beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, wobei:
  • 1 ein Blockdiagramm einer Kameravorrichtung ist, die gemäß einer bevorzugten Ausführungsform arbeitet.
  • 2(a), 2(b) und 2(c) einen ausführlichen Arbeitsablauf gemäß bevorzugten Ausführungsformen veranschaulichen.
  • 3 ein Diagramm ist, das die Verteilung der Pixelintensität für eine Version eines Bildes mit Blitzlicht und eine Version eines Bildes ohne Blitzlicht veranschaulicht.
  • 4 das Ausrichtverfahren veranschaulicht, das in dem Arbeitsablauf aus 2(a) verwendet wird.
  • AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • 1 zeigt ein Blockdiagramm einer Bilderfassungsvorrichtung 20, die gemäß einer bevorzugten Ausführungsform arbeitet. Die digitale Erfassungsvorrichtung 20, die in der vorliegenden Ausführungsform eine tragbare digitale Kamera ist, umfasst einen Prozessor 120. Es ist ersichtlich, dass viele der in der digitalen Kamera implementierten Verfahren in Software implementiert oder von Software gesteuert sein können, die in einem Mikroprozessor, einer Zentralverarbeitungseinheit, einem Kontroller, einem digitalen Signalprozessor und/oder einem anwendungsspezifischen integrierten Schaltkreis arbeitet, die kollektiv als Block 120 dargestellt sind, der als „Prozessor" bezeichnet ist. Im Allgemeinen werden die Benutzerschnittstelle und die Steuerung von Peripheriekomponenten, wie beispielsweise Tasten und eine Anzeige, von einem Mikrokontroller 122 gesteuert.
  • Der Prozessor 120 leitet als Reaktion auf eine Benutzereingabe bei 122, wie beispielsweise das halbe Herunterdrücken eines Auslösers (Vorerfassungsmodus 32) das digitale Fotografierverfahren ein und steuert es. Die Umgebungslichtbelichtung wird unter Verwendung des Lichtsensors 40 bestimmt, um automatisch zu bestimmen, ob ein Blitzlicht verwendet werden soll. Der Abstand zum Subjekt wird unter Verwendung eines Fokussiermittels 50 bestimmt, das ebenfalls das Bild auf die Bilderfassungskomponente 60 fokussiert. Wenn ein Blitzlicht verwendet werden soll, veranlasst der Prozessor 120, dass das Blitzlicht 70 bei vollständigem Herunterdrücken des Auslösers ein fotografisches Blitzlicht in wesentlicher Übereinstimmung mit der Aufzeichnung des Bildes durch die Bilderfassungskomponente 60 erzeugt.
  • Die Bilderfassungskomponente 60 zeichnet das Bild digital in Farbe auf. Die Bilderfassungskomponente 60 ist Fachleuten bekannt und kann eine CCD (ladungsgekoppelte Vorrichtung) oder CMOS umfassen, um die digitale Aufzeichnung zu ermöglichen. Das Blitzlicht kann als Reaktion auf den Lichtsensor 40 oder eine manuelle Eingabe 72 durch den Benutzer der Kamera selektiv erzeugt werden. Das Bild I(x, y), das von der Bilderfassungskomponente 60 aufgezeichnet wird, wird in der Bildspeicherkomponente 80 gespeichert, die einen Computerspeicher, wie beispielsweise einen dynamischen Direktzugriffsspeicher oder einen nichtflüchtigen Speicher, umfassen kann. Die Kamera ist mit einer Anzeige 100, wie beispielsweise einer LCD-Anzeige, zur Voransicht und Nachansicht von Bildern ausgestattet.
  • Im Fall von Voransichtsbildern P(x, y), die im Vorerfassungsmodus 32 bei halb gedrücktem Auslöser erzeugt werden, kann die Anzeige 100 den Benutzer bei der Gestaltung des Bildes unterstützen sowie dazu verwendet werden, die Fokussierung und Belichtung zu bestimmen. Ein temporärer Speicherplatz 82 wird zur Speicherung eines oder einer Vielzahl der Voransichtsbilder verwendet und kann Teil des Bildspeichermittels 80 oder einer getrennten Komponente sein. Das Voransichtsbild wird im Allgemeinen von der Bilderfassungskomponente 60 erzeugt. Parameter des Voransichtsbildes können zur späteren Verwendung aufgezeichnet werden, wenn die Umgebungsbedingungen an das endgültige Bild angeglichen werden. Alternativ können die Parameter so bestimmt werden, dass sie denen des nachfolgend erfassten Bildes mit voller Auflösung entsprechen. Aus Gründen der Geschwindigkeit und der Speichereffizienz können Voransichtsbilder erzeugt werden, indem ein rohes erfasstes Bild unter Verwendung der Software 124 teilabgetastet wird, die Teil eines allgemeinen Prozessors 120 oder von dedizierter Hardware oder einer Kombination davon sein kann, bevor das Voransichtsbild angezeigt oder gespeichert wird. Die Teilabtastung kann für die Horizontale, die Vertikale oder eine Kombination von Beidem erfolgen. Abhängig von den Einstellungen dieses Hardware-Untersystems kann die Vorerfassungsbildverarbeitung einige vorherbestimmte Testkriterien vor dem Speichern eines Voransichtsbildes erfüllen. Derartige Testkriterien können chronologisch sein – wie beispielsweise das fortlaufende Ersetzen des zuvor gespeicherten Voransichtsbildes durch ein neues erfasstes Voransichtsbild alle 0,5 Sekunden während des Vorerfassungsmodus 32, bis das endgültige Bild mit voller Auflösung I(x, y) durch vollständiges Herunterdrücken des Auslösers erfasst wird. Anspruchsvollere Kriterien können die Analyse des Voransichtsbildinhalts umfassen, zum Beispiel das Testen des Bildes hinsichtlich Veränderungen oder die Erfassung von Gesichtern in dem Bild, bevor entschieden wird, ob das neue Voransichtsbild ein zuvor gespeichertes Bild ersetzen soll. Andere Kriterien können auf Bildanalyse wie beispielsweise Schärfe, Erfassung der Augen oder Metadatenanalyse wie beispielsweise die Belichtungsverhältnisse, ob ein Blitzlicht ausgelöst werden wird und/oder Abstand zu den Subjekten beruhen.
  • Wenn die Testkriterien nicht erfüllt werden, fährt die Kamera damit fort, das nächste Voransichtsbild zu erfassen, ohne das Aktuelle zu speichern. Das Verfahren wird fortgesetzt, bis das endgültige Bild mit voller Auflösung I(x, y) erfasst und durch vollständiges Drücken des Auslösers gespeichert wird.
  • Wenn mehrere Voransichtsbilder gespeichert werden können, wird ein neues Voransichtsbild auf einem chronologischen First-In-First-Out-Stapel (FIFO-Stapel) angeordnet, bis der Benutzer das endgültige Bild aufnimmt. Der Grund für das Speichern mehrerer Voransichtsbilder besteht darin, dass das letzte Bild oder ein beliebiges einzelnes Bild möglicherweise nicht das beste Bezugsbild für den Vergleich mit dem endgültigen Bild mit vollständiger Auflösung ist. Durch Speichern mehrerer Bilder kann ein besseres Bezugsbild erreicht werden und in einer Ausrichtungsphase, die unter Bezugnahme auf die 2(a)2(c) und 4 weiter erläutert wird, kann eine genauere Ausrichtung zwischen der Voransicht und dem endgültigen erfassten Bild erreicht werden. Andere Gründe für das Erfassen mehrerer Bilder bestehen darin, dass ein einzelnes Bild aufgrund von Bewegung, Nichteinstellung des Fokus und/oder Nichteinstellung der Belichtung verschwommen sein kann.
  • Bei einer alternativen Ausführungsform können die mehreren Bilder eine Kombination von Voransichtsbildern, bei denen es sich um Bilder handelt, die vor dem Hauptbild mit voller Auflösung erfasst wurden, und Nachansichtsbildern sein, die ein Bild oder Bilder sind, die nach dem Hauptbild erfasst wurden. Bei einer Ausführungsform können mehrere Voransichtsbilder die Erzeugung eines einzigen Bezugsbildes mit besserer Qualität unterstützen; entweder durch eine höhere Auflösung oder indem verschiedene Abschnitte aus unterschiedlichen Bereichen aus den mehreren Bildern entnommen werden.
  • Ein Segmentierungsfilter 90 analysiert das gespeicherte Bild I(x, y) hinsichtlich der Vordergrund- und Hintergrundeigenschaften, bevor das Bild zusammen mit seinen Vordergrund-Hintergrund-Segmentierungsinformationen 99 zur weiteren Verarbeitung oder zur Anzeige weitergeleitet wird. Der Filter 90 kann einstückig mit der Kamera 20 oder Teil einer externen Verarbeitungsvorrichtung 10, wie beispielsweise eines Desktop-Computers, einer mobilen Vorrichtung, eines Mobiltelefons oder eines Servers, sein. Bei dieser Ausführungsform empfängt der Segmentierungsfilter 90 das erfasste Bild I(x, y) aus dem Speicher 80 für Bilder mit voller Auflösung sowie eins oder einer Vielzahl der Voransichtsbilder P(x, y) aus dem temporären Speicher 82.
  • Das erfasste, segmentierte und/oder weiter verarbeitete Bild I(x, y) kann entweder auf der Bildanzeige 100 angezeigt werden, in einem Dauerspeicher 112, der ein interner oder entfernbarer Speicher, wie beispielsweise eine CF-Karte, eine SD-Karte, ein USB-Dongle oder dergleichen, sein kann, gespeichert werden oder über die Bildausgabekomponente 110, die verdrahtet oder drahtlos sein kann, in eine andere Vorrichtung, wie beispielsweise einen PC, einen Server oder einen Drucker, geladen werden. Die Segmentierungsdaten können ebenfalls entweder im Bildanfangsblock oder als getrennte Datei gespeichert werden 99 oder zu einer anderen Funktion weitergeleitet werden, die diese Informationen für die Bildbearbeitung verwendet.
  • Bei Ausführungsformen, bei denen der Segmentierungsfilter 90 in einer externen Anwendung in einer getrennten Vorrichtung 10, wie beispielsweise einem Desktopcomputer, implementiert ist, kann das endgültige erfasste Bild I(x, y), das zusammen mit einer Darstellung des Voransichtsbildes, das vorübergehend in 82 gespeichert ist, im Block 80 gespeichert ist, vor der Modifizierung auf der Speichervorrichtung 112 gespeichert werden oder zusammen über die Bildausgabekomponente 110 auf die externe Vorrichtung 10 übertragen werden, um später vom Segmentierungsfilter 90 verarbeitet zu werden. Das Voransichtsbild oder mehrere Bilder, die ebenfalls als Sprites bezeichnet werden, können vor der Speicherung vorbearbeitet werden, um die Kompressionsdichte zu verbessern, redundante Daten zwischen Bildern zu entfernen, Daten auszurichten oder hinsichtlich der Farbe zu komprimieren.
  • 2(a)2(b) veranschaulichen einen Arbeitsablauf des Segmentierungsfilters 90 dieser Ausführungsform. Unter Bezugnahme auf 2(a) gibt es zwei Eingabebilder in den Filter, nämlich ein Blitzlichtbild mit voller Auflösung I(x, y), 510, welches dasjenige ist, das durch vollständiges Drücken des Auslösers erfasst wurde, und ein Voransichtsbild P(x, y), 520, welches als Bezugsbild verwendet wird und nominell dieselbe Szene wie das Bild I(x, y) ist, jedoch ohne Blitzlicht aufgenommen. Das Voransichtsbild kann das Ergebnis einer Bildverarbeitung, 522, sein, wobei mehrere Voransichtsbilder berücksichtigt werden und ein einziges Bild erzeugt wird. Verfahren zur Verbesserung der Bildqualität, die auf mehreren Bildern beruhen, sind Fachleuten auf dem Gebiet der Bildverarbeitung bekannt. Die resultierende Ausgabe aus dem Analyseverfahren von 522 ist ein einzelnes Voransichtsbild.
  • Wie oben erläutert, können das Bezugsbild und das endgültige Bild unterschiedliche Auflösungen aufweisen. Das Voransichtsbild 520 besitzt normalerweise, jedoch nicht notwendigerweise, eine niedrigere Auflösung als das Bild mit vollständiger Auflösung 510, das typischerweise durch Abmeldung eines Untersatzes der Bildsensorzellen der Bilderfassungskomponente 60 oder durch Durchschnittsbildung der rohen Sensordaten erzeugt wird.
  • Die Auflösungsdiskrepanz kann zu Unterschieden hinsichtlich des Inhalts oder der Pixelwerte führen, selbst wenn keine Daten in dem Subjektbild geändert wurden. Insbesondere können Kantenbereiche, wenn sie abwärts abgetastet und daraufhin aufwärts abgetastet werden, eine verschwommene oder durchschnittsbildende Wirkung auf die Pixel ausüben. Demnach kann der direkte Vergleich von Bildern mit unterschiedlicher Auflösung, selbst wenn sie ausgerichtet sind, zu falscher Konturgebung führen.
  • Daher müssen die beiden Bilder bezüglich der Pixelauflösung aneinander angepasst werden, 530. Im vorliegenden Kontext soll sich „Pixelauflösung" auf die Größe des Bildes hinsichtlich der Anzahl von Pixeln beziehen, aus denen das betreffende Bild besteht. Ein derartiges Verfahren kann entweder durch Aufwärtsabtastung des Voransichtsbildes, 534, durch Abwärtsabtastung des erfassten Bildes, 532, oder durch eine Kombination davon ausgeführt werden. Fachleuten sind mehrere Verfahren bekannt, die für derartige Abtastverfahren verwendet werden können. Das Ergebnis von Schritt 530 ist ein Paar Bilder I'(x, y) und P'(x, y), die den ursprünglichen Bildern I(x, y) und P(x, y) oder relevanten Bereichen davon bei gleicher Pixelauflösung entsprechen.
  • Wenn die Vordergrund-Hintergrund-Segmentierung nur zum Zweck der Verbesserung der Erfassung von Rote-Augen-Phänomenen, Gesichtern oder anderen Bildeigenschaften erfolgt, kann die Pixelanpassung, wie oben beschrieben, auf diejenigen Bereiche in den Bildern beschränkt werden, die Augen, Gesichter oder andere Eigenschaften enthalten oder vermutlich enthalten, wie es der Fall sein kann, was durch Bildverarbeitungsverfahren bestimmt werden kann. In einem solchen Fall können die nachfolgenden Verarbeitungsschritte, die nun beschrieben werden sollen, einzeln an jedem dieser Bereiche anstatt an den Bildern als Ganzes ausgeführt werden und Bezugnahmen auf das „Bild" oder „Bilder" sind dementsprechend auszulegen.
  • Das System und Verfahren der bevorzugten Ausführungsform umfasst die Segmentierung des Bildes I(x, y) unter Verwendung von Belichtungsdikrepanzen zwischen I'(x, y) und P'(x, y). Es kann ebenfalls vorteilhaft sein, eine Bewegungskompensierung 591 auf eins oder beide Bilder I'(x, y) und P'(x, y) anzuwenden. Dies kann erreicht werden, indem zwei (oder mehrere) Voransichtsbilder 526, 527 verwendet werden, um eine Bewegungsabbildung 580 zu erzeugen, wie in der U.S.-Anmeldung Nr. 10/985,657 und ihrer entsprechenden PCT-Anmeldung beschrieben, sowie indem andere Verfahren zur Bewegungskompensierung verwendet werden, die Fachleuten verständlich sind. Bei Ausführungsformen, die eine Bewegungskompensierung umfassen, werden die Erfassungsparameter für das Hauptbild I(x, y) typischerweise zur Bestimmung verwendet, ob eine Bewegungskompensierung angewendet werden soll. Zusätzlich kann eine Benutzereinstellung bereitgestellt werden, um eine Bewegungskompensierung zu aktivieren oder deaktivieren. Alternativ kann eine Bewegungskompensierung auf einer Pixel-für-Pixel-Basis als Teil der unten beschriebenen Ausrichtung angewendet werden.
  • Eine Bewegungskompensierung kann vor der Erzeugung einer Vordergrund-Hintergrundabbildung verwendet werden, z. B. wenn gewünscht wird, eine globale Bewegung des Bildes zu beseitigen. Jedoch kann es bei bestimmten Ausführungsformen vorteilhaft sein, während der Erzeugung einer Vordergrund-Hintergrundabbildung einen Sekundärbewegungskompensierungsvorgang durchzuführen. Diese Sekundärbewegungskompensierung soll nicht eine globale Bewegung des Bildes beseitigen, sondern kleine örtliche Bewegungen ausgleichen, die in dem Bild auftreten können. Ein gutes Beispiel ist das der Blätter eines Baums oder Busches, die im Wind flattern, während ein Bild aufgenommen wird. Derartige örtliche Bewegungen können Veränderungen der Leuchtdichte verursachen, die ausgeglichen werden sollten, nachdem die anfängliche Vordergrund-Hintergrundabbildung erzeugt 569 und segmentiert 597 worden ist. Danach kann eine örtliche Bewegungskompensierung verwendet werden, um Bereiche zu beseitigen, die eine örtliche Bewegung zeigten, oder um solche Bereiche einer ausführlicheren Analyse zu unterziehen. Dies ist in 2(c) veranschaulicht. Im Fall dieser Ausführungsform sind morphologische Schließung 592 und die Beseitigung von kleinen Bereichen 593 enthalten. Verfahren zu deren Implementierung sind Fachleuten auf dem Gebiet der Bildsegmentierung bekannt.
  • Obwohl das Voransichtsbild und das endgültig erfasste Bild mit voller Auflösung nominell aus derselben Szene bestehen, können sie sich aufgrund der zeitlichen Verschiebung zwischen dem Erfassen der beiden Bilder räumlich unterscheiden. Die Ausrichtung kann aufgrund von Kamerabewegung global oder aufgrund von Objektbewegung lokal oder eine Kombination aus beidem sein. Daher werden die beiden Bilder vorteilhafterweise gemäß einer bevorzugten Ausführungsform ausgerichtet 540. Im Wesentlichen umfasst die Ausrichtung das Umwandeln von mindestens Abschnitten eines der Bilder und in dieser Ausführungsform des Voransichtsbildes P'(x, y), um auf der Grundlage von messbaren Eigenschaften, wie beispielsweise Farb-, Struktur-, Kantenanalyse, eine Höchstkorrelation zwischen den Bildern zu erhalten. Das U.S.-Patent Nr. 6,295,367 offenbart Verfahren zum Erreichen einer Ausrichtung. Das Verfahren kann Bilder ausrichten, die aufgrund von Objekt- und Kamerabewegung anfänglich fehlausgerichtet sind. Es können Daten mit mehrfacher Auflösung zur Musteranpassung verwendet werden. Die Ausrichtung wird ebenfalls unter Bezugnahme auf 4 weiter erörtert.
  • Die Bilder werden daraufhin in Bezug auf die Belichtung und möglicherweise den Farbraum 550 angeglichen. Durch Angleichung wird versucht, das Voransichtsbild und das Blitzlichtbild mit voller Auflösung auf denselben Belichtungsgesamtpegel zu bringen. Die Angleichung kann auf unterschiedliche Arten erreicht werden. Das Ziel besteht darin, sicherzustellen, dass beide Bilder, das Voransichtsbild und das endgültige Bild, dieselben Umgebungsbedingungen oder eine Simulation derselben aufweisen. Insbesondere wird das Voransichtsbild vorzugsweise mit derselben Gesamtbelichtung wie das Blitzlichtbild übertragen. In den meisten Fällen wird, wenn ein Blitzlicht verwendet wird, für das endgültige Bild, selbst in einem Ausfüllblitzlicht-Modus, eine niedrigere Umgebungsbelichtung verwendet, um eine Überbelichtung aufgrund des Blitzlichtes zu verhindern. Mit anderen Worten ist die Gesamtumgebungsbelichtung des Blitzlichtbildes geringer. Mit anderen Worten sollte die Belichtung im Vordergrund konstant bleiben, nachdem das Blitzlicht hinzugefügt worden ist, und demnach besteht ein Bedarf, eine kleinere Blende oder eine kürzere Blendengeschwindigkeit zu verwenden. Die Angleichung kann analytisch erfolgen, indem die Histogramme der Bilder angepasst werden. Wenn die Gesamtumgebungsbelichtung, die als Funktion der Öffnung, Blendengeschwindigkeit und Empfindlichkeit (oder Verstärkung) dargestellt ist, berechnet werden kann und falls die Belichtung unterschiedlich ist, kann alternativ der Pixelwert bis zu Beschneidungsbedingungen basierend auf dem Verhältnis zwischen den beiden modifiziert werden. Es wird darauf hingewiesen, dass die Belichtung möglicherweise nicht in allen Kanälen gleich ist und ebenfalls eine Stufe der Farbkorrektur umfassen kann, die unterschiedliche Belichtungen für die verschiedenen Farbkanäle ausgleicht. Ein Beispiel dafür ist, wenn das Umgebungslicht warm ist, wie beispielsweise Glühlampenlicht, während das endgültige Bild, das Blitzlicht verwendet, in Bezug auf die Gesamtfarbtemperatur eher dem Tageslicht entspricht.
  • Bei einem alternativen Verfahren kann, wenn die endgültige Umgebungsbelichtung bekannt ist, das Voransichtsbild, das als Bezug verwendet wird, mit derselben äquivalenten Belichtung erfasst werden. Dies kann dazu dienen, die Angleichphase zu beseitigen. Es wird darauf hingewiesen, dass in diesem Fall das Voransichtsbild möglicherweise nicht für Umgebungsbedingungen ideal ist, jedoch an das endgültige Blitzlichtbild angeglichen wird.
  • Wie aus 3 ersichtlich, kann ein idealisiertes Bild ohne Blitzlicht einer Szene, die einige Vordergrundobjekte enthält, so angesehen werden, dass es im Allgemeinen eine unimodale Verteilung von Leuchtdichtepegeln für sämtliche Pixel aufweist. Wenn eine Szene gut belichtet ist, neigt die Verteilungsspitze dazu, einen höheren Leuchtdichtepegel aufzuweisen, während die Spitze bei schwach belichteten Szenen dazu neigt, einen geringeren Leuchtdichtepegel aufzuweisen. Bei einer Blitzlichtversion derselben Szene neigen Pixel, die Vordergrundobjekten entsprechen, aufgrund der Nähe zur Blitzlichtquelle dazu, erhöhte Leuchtdichtepegel aufzuweisen. Jedoch neigen Pixel, die Hintergrundobjekten entsprechen, dazu, relativ reduzierte Leuchtdichtepegel aufzuweisen. Demgemäß werden bei einer bevorzugten Ausführungsform die PixelLeuchtdichtepegel für die Blitzlichtversion eines Bildes einer Szene bezüglich der Leuchtdichtepegel abgebildet, die das (Voransicht-)Bild ohne Blitzlicht und die Blitzlichtversion des Bildes der Szene auf denselben Gesamtbelichtungspegel bringen. Diese Abbildung g() kann wie folgt dargestellt werden:
    Figure 00150001
  • Im einfachsten Fall ist die Funktion g() eine Konstante, die im Allgemeinen größer als 1 ist und die Belichtungspegel in einem Voransichtsbild P'(x, y) abbildet, um ein verändertes Bild P''(x, y) zu erzeugen, das denselben Gesamtbelichtungspegel wie die Blitzlichtversion des Bildes I'(x, y) aufweist. (Alternativ könnte das Bild I'(x, y) auf I''(x, y) abgebildet werden.) In der einfachsten Implementierung dieses Falles werden beide Bilder I'(x, y) und P'(x, y) in eine Grauskala umgewandelt und die mittlere Leuchtdichte für jedes Bild wird berechnet. Die Leuchtdichtewerte eines der Bilder werden daraufhin so angepasst, dass die mittleren Leuchtdichtewerte des veränderten Bildes P''(x, y) und des Bildes I'(x, y) übereinstimmen.
  • Jedoch kann die Funktion g() von dem ursprünglichen Belichtungspegel eines Pixels P'(x, y) abhängen, zum Beispiel um eine Farbsättigung oder einen Kontrastverlust zu verhindern. Die Funktion kann ebenfalls von der Position eines Pixels (x, y) in einem Bild abhängen, wobei sie vielleicht dazu neigt, mittiger angeordnete Pixel stärker anzupassen als Pixel, die sich mehr am Rand befinden.
  • Dennoch ist aus 3 ersichtlich, dass die angepasste Blitzlichtversion des Bildes bei einem Pixel-für-Pixel-Vergleich oder sogar bei einem Block basierten Vergleich (wobei jeder Block N×N Pixel in einem regelmäßigen Gitter von M×M Bereichen umfasst) eine bimodale Verteilung zwischen den Belichtungspegeln von Hintergrund- und Vordergrundobjekten aufweist.
  • Bei bevorzugten Ausführungsformen werden während der Angleichung ein oder mehrere Schwellenwerte VH, VL und unter Umständen die Blockgröße n zur späteren Verwendung bei der Bestimmung des Hintergrund- und des Vordergrundbereiches des Bildes I'(x, y) bestimmt. Das Schwellenwertverfahren beruht auf der Feststellung der optimalen Schwellenwerte in einer bimodalen Verteilung und mit dem Vorteil eines unimodalen Bezugsbildes ohne Blitzlicht. Geeignete Verfahren sind in der Literatur beschrieben und Fachleuten auf dem Gebiet der numerischen Klassifizierung bekannt. Dennoch könnte der obere Schwellenwertpegel VH beispielsweise als Übergangsleuchtdichtewert der oberen bimodalen Spitze und der unimodalen Verteilung angesehen werden, während der untere Schwellenwertpegel VL als Übergang der unteren bimodalen Spitze und der unimodalen Verteilung angesehen werden könnte. Es wird darauf hingewiesen, dass die Verteilung der Pixelbelichtungspegel in der Praxis möglicherweise nicht gleichmäßig ist und mehrere Übergangspunkte in den Rohbilddaten vorhanden sein können, weshalb möglicherweise eine gewisse Glättung der Leuchtdichteverteilung durchgeführt werden muss, bevor diese Übergangspunkte und somit die Schwellenwerte ermittelt werden.
  • Nachdem die Schwellenwerte VH, VL ermittelt wurden, wird das Bild mit Hilfe des Segmentierungswerkzeugs verarbeitet, 590, um Pixel oder Bereiche als Hintergrund oder Vordergrund zu kennzeichnen. Bei einer Ausführungsform stellen Pixel, deren Werte sich um weniger als einen Schwellenwert ändern, beispielsweise VH–VL (oder ein anderer empirisch ermittelter Wert) zwischen Versionen mit Blitzlicht I'(x, y) und Versionen ohne Blitzlicht P'(x, y) des Bildes Pixel in Bereichen eines Blitzlichtbildes dar, die eine Grenze zwischen Hintergrund- und Vordergrundobjekten bilden. Wenn diese individuellen Pixel verbunden werden, werden Segmente des Bildes I'(x, y), die im Wesentlichen von verbundenen Grenzpixeln umgeben sind und durchschnittliche Pixelwerte aufweisen, die heller als in dem entsprechenden Segment des Bildes ohne Blitzlicht P''(x, y) sind, als Vordergrund bezeichnet, während Segmente des Bildes, die im Wesentlichen von Grenzpixeln umgeben sind und durchschnittliche Pixelwerte aufweisen, die dunkler als in dem entsprechenden Segment des Bildes ohne Blitzlicht sind, als Hintergrund bezeichnet.
  • Bei einer zweiten Ausführungsform werden Vordergrundpixel in einem Blitzlichtbild anfänglich bei Schritt 596 als solche mit Belichtungspegeln ermittelt, die größer als der obere Belichtungsschwellenwert VH sind, und Hintergrundpixel in einem Blitzlichtbild sind solche mit Belichtungspegeln, die geringer als der untere Belichtungsschwellenwert VL sind.
  • Bei noch einer weiteren Ausführungsform von Schritt 596 werden keine Schwellenwerte verwendet und eine anfängliche Segmentierung wird einfach durch Subtrahieren der lokalen Belichtungswerte für jedes Bild auf einer Pixel-Für-Pixel-Basis oder einer Block-Für-Block-Basis (wobei jeder Block n×n Pixel umfasst) erreicht, um eine Differenzabbildung zu erzeugen. Typischerweise weisen Vordergrundpixel einen höheren (helleren) Wert und Hintergrundpixel einen niedrigeren Wert auf.
  • In allen oben genannten Fällen hat das Segmentierungswerkzeug 590 vorzugsweise sowohl das Voransichtbild P als auch das Blitzlichtbild I durchgesehen und die Differenz der Belichtungspegel für entsprechende Bereiche des Bildes überprüft – entweder Pixel-Für-Pixel oder Block-Für-Block. Bei Blitzlichtbildern, die in Innenräumen gemacht wurden, werden dunkle Bereiche dunkler und helle Bereiche (typischerweise der Vordergrund) werden heller. Bei Bildern von Szenen im Freien wird der Vordergrund jedoch nur geringfügig heller und der Hintergrund bleibt in den meisten Fällen unverändert.
  • Wenn während der Analyse, die von dem Segmentierungswerkzeug 590 unter Verwendung der Leuchtdichtewerte des Voransichtbildes P und des Blitzlichtbildes I durchgeführt wird, der Grad der Abdunklung der Hintergrundbereiche und der Aufhellung der Vordergrundbereiche einen Schwellenwert überschreitet, kann ein Bild als Innenaufnahme klassifiziert werden. Wenn die relative Aufhellung und Abdunklung einen Schwellenwert nicht überschreitet, kann das Bild als Außenaufnahme klassifiziert werden. Es ist ersichtlich, dass diese Klassifizierung vorteilhafterweise den Bildmetadaten zur Verwendung bei der späteren Verarbeitung hinzugefügt werden kann.
  • In einem gesamten Bild neigt die Aufhellung des Vordergrundes dazu, die Abdunklung des Hintergrundes aufzuheben, insbesondere wenn die Gesamtleuchtdichtepegel zwischen Bildern angeglichen wurden. Bei einer bevorzugten Ausführungsform kann die Leuchtdichteänderung als Euklidische Distanz zwischen Voransichtbild und Blitzlichtbild gemessen werden. Die Messung wird vorzugsweise wie folgt vorgenommen:
    • (i) Messung des Leuchtdichtehistogramms lokaler Blöcke von n×n Pixeln jedes Bildes. Diese kann als Durchschnittsleuchtdichte in einem gesamten Block genommen werden;
    • (ii) als nächstes, Berechnen eines absoluten Werts der "Differenz" zwischen dem Voransichtbild und dem Blitzlichtbild; und
    • (iii) daraufhin, Summieren dieser Messung über das gesamte Bild oder im Wesentlichen über das gesamte Bild, um eine "absolute Leuchtdichtedifferenz" zu erhalten.
  • Dieser absolute Leuchtdichtedifferenzwert neigt dazu, bei Innenaufnahmen gut über einem Schwellenwert zu liegen und bei Außenaufnahmen gut unter diesem Schwellenwert zu liegen. Einfach ausgedrückt neigt bei Außenaufnahmen der Vordergrund dazu, weniger hell und der Hintergrund weniger dunkel zu sein, weshalb der Unterschied der lokalen Leuchtdichte zwischen Bildern ohne Blitzlicht und Blitzlichtbildern wesentlich geringer ist. Bei Varianten dieser Implementierung können separate höhere und niedrigere Schwellenwerte verwendet werden. Wenn somit die Differenz unter dem unteren Schwellenwert liegt, wird ein Bild als Außenaufnahme klassifiziert und wenn die Differenz über einem oberen Schwellenwert liegt, ist ein Bild definitiv eine Innenaufnahme.
  • Bei weiteren Variationen der oben genannten Implementierung kann die Klassifizierung an Bereichen des Bildes vorgenommen werden, die lediglich als Vordergrund und/oder Hintergrund bezeichnet wurden. Wenn somit die Gesamtleuchtdichte von Vordergrundbereichen um mehr als einen Schwellenwert zunimmt, könnte ein Bild als Innenaufnahme klassifiziert werden; und/oder wenn die Gesamtleuchtdichte von Hintergrundbereichen um mehr als einen Schwellenwert abnimmt, könnte ein Bild als Innenaufnahme klassifiziert werden. Wenn sich die Gesamtleuchtdichte jeweiliger Vordergrund- und/oder Hintergrundbereiche alternativ um weniger als einen Schwellenwert ändert, könnte das Bild als Außenaufnahme klassifiziert werden.
  • Die Klassifizierungsergebnisse könnten in der Kamera oder woanders für die darauf folgende Nachverarbeitungs-, Sortierungs- und Bildverwaltungsvorgänge gespeichert und verwendet werden.
  • Wenn ein Bild einer Szene als Außenaufnahme klassifiziert ist, kann ein Schema, das nicht auf Blitz basiert, für die Vordergrund-/Hintergrundtrennung verwendet werden, wie beispielsweise in der U.S.-Anmeldung Nr. 60/773,714, eingereicht am 14. Februar 2006 (Ref: FN119) offenbart.
  • Ein Verfahren, mit dem in einer digitalen Kamera des neuesten Stands der Technik vorteilhafterweise eine Block-Für-Block-Durchschnittsbildung erreicht werden kann, besteht in der Verwendung eines Hardware-Teilabtasters 124, falls verfügbar. Dieser kann eine teilabgetastete l/n-Version beider Bilder sehr schnell erzeugen, wobei jedes Pixel jedes Bildes einen Durchschnitt eines n×n-Blocks in dem ursprünglichen Bild darstellt.
  • Bei bestimmten Ausführungsformen kann nach einer anfänglichen Anpassung der Größe zwischen Voransichtbild und Hauptbild vor der Subtraktion der lokalen Belichtungswerte für jedes Bild auf einer Pixel-Für-Pixel-Basis eine weitere Teilabtastung implementiert werden. Nachdem unter Verwendung des kleinsten Paars übereinstimmender Bilder eine anfängliche Vordergrund-/Hintergrundabbildung ermittelt wurde, kann die Abbildung verfeinert werden, indem die Ergebnisse auf das nächst größere Paar teilabgetasteter Bilder angewendet werden, wobei jedes Pixel jetzt einem N×N-Block von Pixeln in dem größeren Paar von Bildern entspricht.
  • Eine Verfeinerung dieser anfänglichen Abbildung kann erreicht werden, indem lediglich an den Grenzbereichen der anfänglichen Vordergrund-/Hintergrundabbildung eine vollständige Pixel-Für-Pixel-Analyse des größeren Paars übereinstimmender Bilder durchgeführt wird. Es wird darauf hingewiesen, dass die Erzeugung mehrerer Sätze übereinstimmender teilabgetasteter Bilder hinsichtlich der Berechnungsressourcen relativ günstig ist, wenn ein Hardware-Teilabtaster verfügbar ist. Bei bestimmten Ausführungsformen kann die Durchführung einer Reihe derartiger Verfeinerungen aufeinander folgender größerer Paare übereinstimmender teilabgetasteter Bilder den Bedarf nach Ausrichtung und Registrierung der Bilder vorteilhafterweise beseitigen. Die Vorteile dieses Verfahrens müssen mit den Anforderungen der vorübergehenden Speicherung einer Reihe von Paaren übereinstimmender teilabgetasteter Bilder von aufeinander folgend abnehmender Größe abgestimmt werden.
  • Jedes Verfahren, das Schwellenwertvergleiche umfasst, kann ebenfalls Operationen benachbarter Pixel berücksichtigen, bei denen der Schwellenwert oder Schwellenwertvergleich von den Werten der umgebenden Pixel abhängt, um Rauschphänomene und leichte Verschiebungen zwischen dem Voransichtbild und dem endgültigen Bild zu beseitigen.
  • Jedoch ist ersichtlich, dass die Ermittlung der Hintergrund-/Vordergrundzugehörigkeit unter Verwendung eines einzelnen Durchgangs einer pixelbasierten oder blockbasierten Analyse allein nicht mit absoluter Genauigkeit erreicht wird. Stellen wir uns beispielsweise eine Person mit einem gestreiften Hemd vor. Es ist möglich, dass die korrigierte Leuchtdichte der dunklen Streifen tatsächlich anzeigt, dass diese Hintergrundpixel sind, obwohl sie sich nahe einer großen Sammlung von Vordergrundpixeln befinden.
  • Demgemäß ist es vorteilhaft, eine zusätzliche Analyse zu integrieren, wodurch die Vordergrundpixel bzw. -blöcke nach der Erzeugung einer anfänglichen Vordergrundabbildung, selbst wenn diese auf einer n×n-Blockbasis anstatt auf einer Pixelbasis durchgeführt wurde, segmentiert und gekennzeichnet werden 597. Dieser Schritt hilft, Phänomene, wie beispielsweise ein gestreiftes Hemd und jene aufgrund von Bildrauschen oder statistischen Sonderfällen in der Vordergrundabbildung zu beseitigen. Es ist ebenfalls vorteilhaft, kleine Segmente zu beseitigen.
  • Somit wird eine endgültige Abbildung (Maske) von Vordergrundpixeln erzeugt, 594. Diese kann nun vergrößert werden, um der Größe des erfassten Hauptbildes zu entsprechen, 599-1, und kann vorteilhafterweise für eine weitere Bildverarbeitung des Hauptbildes verwendet werden, 501. Obwohl nicht gezeigt, kann das System beispielsweise einen Gesichtsdetektor oder einen Rote-Augen-Filter umfassen, und kann in diesem Fall 501 Verfahren zur selektiven Anwendung derselben auf den Vordergrundbereich, der durch die Maske definiert ist, umfassen, wodurch die Ausführungsdauer für derartige Algorithmen verkürzt wird, indem die Analyse der Hintergrundsegmente ausgeschlossen wird. Alternativ ist die U.S.-Patentanmeldung mit der Seriennummer 10/976,336 von Nutzen, bei dem das System eine Komponente zur Identifizierung von Rote-Augen-Kandidatenbereichen 501 umfasst. Diese Komponente kann eine Rote-Augen-Fälschungsanalyse implementieren, indem die Wahrscheinlichkeit erhöht oder verringert wird, dass ein Rote-Augen-Kandidatenbereich abhängig davon, ob der Kandidat im Vordergrund oder Hintergrund des erfassten Bildes erscheint, ein tatsächlicher Rote-Augen-Bereich ist.
  • Wie bereits erwähnt, kann es bei einer bevorzugten Ausführungsform vorteilhaft sein, anfänglich eine aggressive Abwärtsabtastung der Bilder 510, 520 zu verwenden. Dies kann die Notwendigkeit des Ausrichtungsschritts 540 beseitigen und, falls die vorliegende Erfindung rekursiv und selektiv auf einer regionalen Basis angewendet wird, kann ohne erhebliche Zunahme der Berechnungszeit eine Vordergrundmaske in voller Größe erzielt werden.
  • Es wird nochmals auf 2(b) Bezug genommen, bei der angenommen wird, dass während der Größenanpassung 530 aus 2(a) mehrere Paare übereinstimmender Bilder erzeugt werden oder alternativ dynamisch bei jedem Durchgang durch die Schleife aus 2(b) erzeugt werden. Betrachten wir beispielsweise ein Hauptbild mit einer Größe von 1024 × 768 mit einem Voransichtbild einer Größe von 256 × 192. Angenommen, es werden drei Sätze von übereinstimmenden Bildern mit Auflösungen von 1024 × 768 (Voransichtbild wird 4 × vergrößert), 256 × 192 (Hauptbild wird 4 × verkleinert) und mit 64 × 48 (Hauptbild wird 16 × verkleinert und das Voransichtbild wird 4 × verkleinert) erzeugt. Nehmen wir nun an, dass die anfängliche Analyse bis zum Segmentierungswerkzeugschritt 590 an dem 64 × 48 Bild durchgeführt wird, wie in 2(a) beschrieben.
  • Nach Schritt 590 bestimmt ein zusätzlicher Schritt 517, ob die Vergleichsgröße (die Bildgröße, die zur Erzeugung der letzten Wiederholung der Vordergrundabbildung verwendet wird) der Größe des Hauptbildes mit Blitz I(x, y) entspricht. Falls nicht, wird die Vordergrundabbildung auf die nächste Vergleichsgröße 599-2 vergrößert – in diesem Fall 256×192 Pixel. Jedes Pixel in der ursprünglichen Abbildung wird jetzt zu einem 4×4 Pixelblock vergrößert. Die Bereiche, die die Grenze zwischen Vordergrund- und Hintergrundsegmenten – diese waren Pixel mit der niedrigeren Abbildungsauflösung – dieser vergrößerten Abbildung bilden, werden als Nächstes ermittelt 570 und die abwärts abgetasteten Bilder dieser Vergleichsgröße (256 × 192) werden geladen 531. In diesem Fall kann das Verfahren auf das gesamte Bild oder einen Teil des gesamten Bildes mit der höheren Auflösung angewendet werden, da Bereiche innerhalb von Vordergrundsegmenten definitiv als Vordergrundbereiche bestimmt werden. Bei dieser Ausführungsform sind es nur die Grenzbereiche zwischen Hintergrund und Vordergrund, die analysiert werden. Dieselbe Analyse, die auf das Hauptbild angewendet wurde, wird nun auf diese Bereiche angewendet. Sie können ausgerichtet werden 540, bevor sie angeglichen werden 551, und das Segmentierungswerkzeug 590 wird auf jeden 16 × 16 Bereich angewendet. Die Ergebnisse werden mit der bestehenden Vordergrundabbildung 515 vermischt.
  • Wenn die Vordergrundabbildung jetzt dieselbe Größe wie das Hauptbild mit Blitz 517 aufweist, kann es direkt auf das Hauptbild 501 angewendet werden. Wenn es alternativ nach wie vor kleiner ist, wird es auf die nächste Bildvergleichsgröße 599-2 aufwärts abgetastet und es wird ein weiterer Durchlauf durch den Algorithmus durchgeführt.
  • Die segmentierten Daten werden gespeichert, 598, als Segmentierungsmaske, wie in 2(a). Falls erforderlich, muss die Segmentierungsmaske um denselben Faktor aufwärts abgetastet werden, 599, um den das erfasste Bild bei Schritt 532 abwärts abgetastet wurde, um zur ursprünglichen Bildgröße zurückzukehren. Die Aufwärtsabtastung 599 sollte aufwendig genug sein, um die Kanteninformationen am Rand der Maske zu untersuchen, um sicherzustellen, dass die korrekten Bereiche in der aufwärts abgetasteten Abbildung abgedeckt sind. Derartige Verfahren können die Aufwärtsabtastung eines Bildes oder einer Maske umfassen, während die Kanteninformationen beibehalten werden.
  • 4 zeigt den Arbeitsablauf der Ausrichtungsfunktion 540 aus 2(a), bei der die Eingaben die beiden Bilder I'(x, y) und P'(x, y) sind, wie in Bezug auf 2(a) definiert. Die Ausrichtung kann global für das gesamte Bild oder lokal für spezifische Bereiche sein. Eine globale Bewegung kann durch eine Kamerabewegung verursacht werden, während eine kokale Bewegung durch eine Objektbewegung während des Belichtungsintervalls des Bildes verursacht werden kann. Beispielsweise eine einfache lineare Ausrichtung, wie beispielsweise eine Verschiebung in horizontaler Richtung um H Pixel, und/oder in vertikaler Richtung um V Pixel, oder eine Kombination von beidem. Mathematisch kann das verschobene Bild P'(x, y) beschrieben werden als: P''(x, y) = P'(x – H, y – V)
  • Jedoch setzt ein einfacher Translationsvorgang eine Verschiebungsinvarianz voraus, was bei der Ausrichtung des Bildes möglicherweise nicht ausreichend ist. Sogar im Fall der Kamerabewegung kann eine derartige Bewegung eine affine Transformation umfassen, die Rotation und Scherung sowie Translation umfasst.
  • Daher kann Folgendes erforderlich sein: X-Y-Scherung, die eine symmetrische Verschiebung der Objektpunkte in Richtung der Achse ist, um Perspektivenänderungen zu korrigieren; X-Y-Verjüngung, wobei das Objekt verkleinert wird, indem seine Koordinaten in Richtung der Achse verschoben werden, wobei die Verschiebung umso weiter ist, je größer die Größe der Koordinate ist; oder Rotation um einen willkürlichen Punkt.
  • Im Allgemeinen kann das Ausrichtungsverfahren eine affine Transformation umfassen, die als spezielle Klasse projektiver Transformationen definiert ist, die Objekte nicht aus dem affinen Raum R3 zur Unendlichkeitsebene oder umgekehrt bewegen, oder es kann jede Transformation umfassen, die die Kolinearität (d. h. alle Punkte, die anfänglich auf einer Linie liegen, liegen nach der Transformation immer noch auf einer Linie) und Abstandsverhältnisse aufrechterhält (z. B. der Mittelpunkt eines Liniensegments bleibt nach der Transformation der Mittelpunkt).
  • Geometrische Kontraktion, Expansion, Erweiterung, Reflexion, Rotation, Scherung, Ähnlichkeitstransformationen, Spiralähnlichkeiten und Translationen sind ebenso wie ihre Kombinationen alles affine Transformationen. Im Allgemeinen kann die Ausrichtung 540 mit Hilfe einer affinen Transformation erzielt werden, die eine Komposition aus Rotationen, Translationen, Erweiterungen und Scherungen ist, die alle Fachleuten auf dem Gebiet der Bildverarbeitung bekannt sind.
  • Wenn mit Hilfe eines Korrelationsverfahrens ermittelt wird, dass eine globale Transformation ausreicht, wie in Block 542 = JA ermittelt, wird eines der Bilder, und der Einfachheit halber das Voransichtbild, einer affinen Transformation unterzogen, 544, um sich selbst mit dem endgültigen Bild mit voller Auflösung auszurichten. Mathematisch kann diese Transformation wie folgt dargestellt werden: P'' = AP' + q wobei A eine lineare Transformation und q eine Translation sind.
  • In manchen Fällen ist es jedoch möglich, dass eine globale Transformation nicht korrekt funktioniert, insbesondere in Fällen, bei denen sich das Subjekt bewegt hat, wie es beim Fotografieren von beweglichen Objekt auftreten kann. In einem solchen Fall und insbesondere bei Bildern mit mehreren menschlichen Subjekten und wenn sich die Subjekte unabhängig voneinander bewegen, kann das Ausrichtungsverfahren 540 in mehrere lokale Bereiche unterteilt werden, 546, wobei jeder seine eigene affine Transformation aufweist. Im Fall der Verwendung des vorliegenden Verfahrens für die Rote-Augen-Erfassung und -Korrektur wird bevorzugt, die Augen zwischen den Bilden auszurichten. Gemäß dieser Alternative können daher eine oder mehrere lokale Ausrichtungen für Bereiche benachbart zur Umgebung der Augen, wie beispielsweise Gesichter, durchgeführt werden, 548.
  • Erst nachdem die Bilder ausgerichtet wurden, werden die Belichtungswerte zwischen den Bildern angeglichen, wie in 2(a).
  • Die oben beschriebenen bevorzugten Ausführungsformen können modifiziert werden, indem Operationen, Schritte und/oder Komponenten auf vielerlei Weise hinzugefügt oder geändert werden, um vorteilhafte alternative Ausführungsformen zu erzeugen. Beispielsweise kann das Bezugsbild ein Nachansichtbild anstatt ein Voransichtbild sein, d. h. ein Bild, das unmittelbar nachdem das Blitzlichtbild gemacht wurde ohne Blitz gemacht wurde.
  • Alternativ könnte das Bezugsbild das Blitzlichtbild und das erfasste Bild mit voller Auflösung das Bild ohne Blitzlicht sein. Ein Beispiel hierfür ist, wenn die Kamera in einem speziellen Modus eingestellt ist (ähnlich einem Porträtszenenauswahlmodus), so dass das Voransichtbild dasjenige mit Blitz ist, während das endgültige Bild ohne Blitz sein kann. In diesem Fall sind die Rollen der Bilder hinsichtlich der Berechnung der Differenz zwischen den Bildern umgekehrt. Darüber hinaus kann das Bezugsbild entweder ein Voransichtbild oder Nachansichtbild sein.
  • Die hierin beschriebenen bevorzugten Ausführungsformen können eine erweiterte digitale Erfassungstechnologie umfassen, die inhärent digitale Kameras umfasst, die jedoch in andere Vorrichtungen, wie beispielsweise Mobiltelefone, die mit einer Erfassungskomponente oder Spielzeugkameras ausgerüstet sind, integriert sein kann. Die digitale Kamera oder sonstige Bilderfassungsvorrichtung der bevorzugten Ausführungsform weist die Fähigkeit auf, nicht nur Bilddaten sondern auch zusätzliche Daten, die als Metadaten bezeichnet werden, aufzuzeichnen. Der Dateianfangssatz einer Bilddatei, wie beispielsweise JPEG, TIFF, JPEG-2000 usw. kann Erfassungsinformationen umfassen, die das Voransichtbild, eine Gruppe von Voransichtbildern oder ein einzelnes Bild umfassen, das verarbeitet wird, um eine komprimierte Version ausgewählter Bezugsbilder bereitzustellen, und zwar zur Verarbeitung und Segmentierung bei einer späteren Nachverarbeitungsstufe, die in der Erfassungsvorrichtung oder in einer separaten Vorrichtung, wie beispielsweise einem PC, durchgeführt werden kann.
  • Bei diesen Ausführungsformen können die Pixelwerte während der Vergleichsstufen hinsichtlich der Leuchtdichte verglichen werden. Alternativ oder zusätzlich können diese mit anderen Werten, wie beispielsweise der Farbe, verglichen werden. Ein Beispiel eines chromatischen Vergleichs ist eine warme Färbung, wie beispielsweise eine gelbe Tönung, die auf Glühlampenlicht hinweist, oder eine blaue Tönung, die auf Schattenbereiche in einer sonnenbeleuchteten Umgebung hinweist, oder andere Farben, die auf eine Änderung zwischen Umgebungsbeleuchtung und der Blitzbeleuchtung hinweisen. Der Vergleich kann absolut oder relativ sein. In dem absoluten Fall wird der absolute Wert der Differenz aufgezeichnet, ohne zu berücksichtigen, welches der Bilder den größeren Pixelwert aufweist. Im relativen Fall wird nicht nur die Differenz sondern auch die Richtung beibehalten. Die beiden Verfahren können ebenfalls die Einrichtung der Registrierung zwischen den beiden Bilden unterstützen. In dem Fall, in dem sich das Subjekt etwas bewegt, beispielsweise horizontal, kann die relative Differenz eine Umkehrung der Werte auf der linken Seite des Objekts und auf der rechten Seite des Objekts anzeigen.
  • Bei bestimmten Ausführungsformen kann es sich ebenfalls als vorteilhaft herausstellen, eine "Verhältnisabbildung" anstelle einer "Differenzabbildung" zu verwenden. Bei diesen Ausführungsformen wird ein Verhältnis zwischen den Pixelleuchtdichtewerten der beiden Bilder (mit und ohne Blitz) ermittelt. Dieses Verfahren kann in bestimmten Fällen bessere Ergebnisse bieten und kann entweder als Alternative zur einer einfachen Subtraktion verwendet werden, oder es kann bei bestimmten Ausführungsformen vorteilhaft sein, Ausgabebereiche zu kombinieren, die unter Verwendung logischer oder statistischer Verfahren oder einer Kombination davon von beiden Verfahren abgeleitet werden, um eine endgültige Vordergrund-/Hintergrundabbildung zu erzeugen.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebenen Ausführungsformen und Konstruktions- und Funktionsäquivalente davon
    beschränkt, die geändert oder modifiziert werden können ohne vom Bereich der vorliegenden Erfindung abzuweichen, die in den angehängten Ansprüchen dargestellt ist. Darüber hinaus offenbart die veröffentlichte U.S.-Patentanmeldung Nr. 2003/0103159 an Nonaka, Osamu, mit dem Titel "Evaluating the effect of a strobe light in a camera", ein kamerainternes Bildverarbeitungverfahren zur Korrektur von Schattenbereichen in einem Blitzlichtbild.
  • Die Operationen wurden bei Verfahren, die gemäß bevorzugter Ausführungsformen hierin durchgeführt werden können und die möglicherweise weiter oben beschrieben und/oder weiter unten beansprucht wurden, in ausgewählten typografischen Abfolgen beschrieben. Jedoch wurden die Abfolgen aus Gründen der typografischen Angemessenheit ausgewählt und somit geordnet und sollen keine bestimmte Reihenfolge der Durchführung der Operationen suggerieren.

Claims (25)

  1. Digitales Bilderfassungssystem, das keinen fotografischen Film aufweist und Folgendes umfasst: a) eine Vorrichtung (20) zur Erfassung digitaler Bilder, b) eine Blitzeinheit (70) zur Bereitstellung von Beleuchtung während der Bilderfassung, c) eine Segmentierungseinheit (90) zur Ermittlung eines oder mehrerer Bereiche innerhalb mindestens eines Abschnitts eines erfassten Bildes, die auf einen Vordergrundbereich oder einen Hintergrundbereich oder auf einen Hintergrundbereich und einen Vordergrundbereich hinweisen, d) wobei die Ermittlung den Vergleich (596) des erfassten Bildes mit einem Bezugsbild von nominell derselben Szene umfasst, e) wobei das erfasste Bild mit Blitz und das Bezugsbild ohne Blitz gemacht wird oder umgekehrt, dadurch gekennzeichnet, dass f) das erfasste Bild und das Bezugsbild unterschiedliche Pixelauflösungen aufweisen und das System des Weiteren eine Pixelanpassungseinheit umfasst, die vor der Anwendung der Segmentierungseinheit betrieben wird, um die Pixelauflösungen des erfassten Bilds und des Bezugsbilds mindestens hinsichtlich des mindestens einen Abschnitts anzupassen (530).
  2. System nach Anspruch 1, wobei die Pixelanpassungseinheit eine Überabtastung (534) des Bildes mit einer niedrigeren Auflösung oder eine Unterabtastung (532) des Bildes mit einer höheren Auflösung oder beides verwendet.
  3. System nach Anspruch 1, das des Weiteren eine Ausrichtungseinheit umfasst, die vor der Anwendung der Segmentierungseinheit betrieben wird, um die Bereiche des erfassten Bilds und des Bezugsbilds mindestens hinsichtlich des mindestens einen Abschnitts auszurichten (540).
  4. System nach Anspruch 1, das des Weiteren einen Belichtungsausgleicher umfasst, um einen Gesamtbelichtungspegel der Bereiche oder des gesamten erfassten Bilds und Bezugsbilds mindestens hinsichtlich des mindestens einen Abschnitts im Wesentlichen auszugleichen (550).
  5. System nach Anspruch 4, wobei der wesentliche Ausgleich des Gesamtbelichtungspegels der Bereiche oder des gesamten erfassten Bilds und Bezugsbilds die Simulation einer Umgebungsbelichtung des erfassten Bilds auf dem Bezugsbild umfasst.
  6. System nach Anspruch 5, wobei die Simulation der Umgebungsbelichtung des erfassten Bilds auf dem Bezugsbild die digitale Simulation von Apertur, Erfassungsgeschwindigkeit, Farbtransformationen und Verstärkung des erfassten Bilds auf dem Bezugsbild oder einer Kombination davon umfasst.
  7. System nach Anspruch 5, wobei die Simulation der Umgebungsbelichtung des erfassten Bilds die individuelle nicht gleichförmige Manipulation individueller Bereiche oder Farbkanäle oder Kombinationen davon umfasst.
  8. System nach Anspruch 4, wobei der wesentliche Ausgleich des Gesamtbelichtungspegels des erfassten Bilds und des Bezugsbilds die Einstellung einer Umgebungsbelichtung des Bezugsbilds umfasst, so dass sie einer berechneten Belichtung des erfassten Bilds entspricht.
  9. System nach Anspruch 4, wobei die Segmentierungseinheit mindestens hinsichtlich des mindestens einen Abschnitts entsprechende Pixel in dem erfassten Bild und dem Bezugsbild ermittelt, deren Werte sich um weniger als ein vorherbestimmter Schwellenwert (VH–VL) voneinander unterscheiden, und Segmente des erfassten Bilds bestimmt, die von den ermittelten Pixeln als Vordergrund oder Hintergrund eingegrenzt werden, indem Pixelwerte in einem Segment mit Pixelwerten in einem entsprechenden Segment des Bezugsbilds verglichen werden.
  10. System nach Anspruch 4, wobei die Segmentierungseinheit mindestens hinsichtlich des mindestens einen Abschnitts basierend auf einem Vergleich des Gesamtbelichtungspegels des erfassten Bilds und des Bezugsbilds einen oberen und einen unteren Schwellenwert (VH, VL) ermittelt und Pixel des erfassten Bilds als Vordergrund oder Hintergrund abhängig davon bestimmt, ob ihre Werte größer als der obere Schwellenwert oder geringer als der niedrigere Schwellenwert sind.
  11. System nach Anspruch 4, wobei die Segmentierungseinheit mindestens hinsichtlich des mindestens einen Abschnitts ein oder mehrere Segmente des erfassten Bilds als Vordergrund oder Hintergrund bestimmt, indem Pixelwerte des erfassten Bilds und des Bezugsbilds verglichen werden.
  12. System nach Anspruch 4, wobei das Bezugsbild ein Voransichtbild mit einer niedrigeren Pixelauflösung als das erfasste Bild umfasst und das erfasste Bild das Bild umfasst, das mit Blitz gemacht wurde.
  13. System nach Anspruch 1, das des Weiteren ein Gesichtserfassungsmodul umfasst.
  14. System nach Anspruch 1, das des Weiteren ein Rote-Augen-Erfassungsfilter oder ein Rote-Augen-Korrekturfilter oder beides für eine selektive Anwendung auf den Vordergrundbereich umfasst.
  15. System nach Anspruch 14, das des Weiteren ein Wahrscheinlichkeitsmodul umfasst, das die Wahrscheinlichkeit, das ein Rote-Augen-Kandidatenbereich ein tatsächlicher Rote-Augen-Bereich ist, abhängig davon ändert, ob der Kandidat im Vordergrund oder im Hintergrund des erfassten Bilds erscheint.
  16. System nach Anspruch 15, das des Weiteren ein Schärfentiefemodul umfasst, um eine wahrgenommene Schärfentiefe abhängig davon zu verringern, ob ein Kandidatenbereich im Vordergrund oder im Hintergrund des erfassten Bilds erscheint.
  17. System nach Anspruch 1, wobei das Bezugsbild ein Voransichtbild umfasst.
  18. System nach Anspruch 1, wobei das Bezugsbild ein Bild umfasst, das chronologisch nach dem erfassten Bild erfasst wurde.
  19. System nach Anspruch 1, wobei das Bezugsbild eine Kombination aus mehreren Bezugsbildern umfasst.
  20. System nach Anspruch 1, wobei das digitale Bilderfassungssystem eine digitale Kamera umfasst.
  21. System nach Anspruch 1, wobei das digitale Bilderfassungssystem eine Kombination aus einer digitalen Kamera und einer externen Verarbeitungsvorrichtung (10) umfasst.
  22. System nach Anspruch 21, wobei die Segmentierungseinheit innerhalb der externen Verarbeitungsvorrichtung angeordnet ist.
  23. System nach Anspruch 1, wobei das digitale Bilderfassungssystem ein Chargenverarbeitungssystem umfasst, das eine digitale Druckvorrichtung umfasst.
  24. System nach Anspruch 1, wobei das digitale Bilderfassungssystem ein Chargenverarbeitungssystem umfasst, das einen Servercomputer umfasst.
  25. Digitales Bildverarbeitungsverfahren, das Folgende Schritte umfasst: a) Erfassung digitaler Bilder b) Bereitstellung von Beleuchtung während der Bilderfassung, und c) Bildsegmentierung zur Ermittlung eines oder mehrerer Bereiche innerhalb mindestens eines Abschnitts eines erfassten Bildes, die auf einen Vordergrundbereich oder einen Hintergrundbereich oder auf einen Hintergrundbereich und einen Vordergrundbereich hinweisen, d) wobei die Ermittlung den Vergleich des erfassten Bildes mit einem Bezugsbild von nominell derselben Szene umfasst, und e) wobei das erfasste Bild mit Blitz und das Bezugsbild ohne Blitz gemacht wurde oder umgekehrt, dadurch gekennzeichnet, dass f) das erfasste Bild und das Bezugsbild unterschiedliche Pixelauflösungen aufweisen und das Verfahren des Weiteren einen Pixelanpassungsschritt umfasst, der vor dem Bildsegmentierungsschritt ausgeführt wird, um die Pixelauflösungen des erfassten Bilds und des Bezugsbilds mindestens hinsichtlich des mindestens einen Abschnitts anzupassen.
DE602006000400T 2005-08-30 2006-05-29 Bildsegmentierungsverfahren und -system Active DE602006000400T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/217,788 US7606417B2 (en) 2004-08-16 2005-08-30 Foreground/background segmentation in digital images with differential exposure calculations
US217788 2005-08-30
PCT/EP2006/005109 WO2007025578A1 (en) 2005-08-30 2006-05-29 Image segmentation method and system

Publications (2)

Publication Number Publication Date
DE602006000400D1 DE602006000400D1 (de) 2008-02-14
DE602006000400T2 true DE602006000400T2 (de) 2009-01-02

Family

ID=36889106

Family Applications (2)

Application Number Title Priority Date Filing Date
DE602006008009T Active DE602006008009D1 (de) 2005-08-30 2006-05-29 Verfahren und System zur Bildsegmentierung
DE602006000400T Active DE602006000400T2 (de) 2005-08-30 2006-05-29 Bildsegmentierungsverfahren und -system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE602006008009T Active DE602006008009D1 (de) 2005-08-30 2006-05-29 Verfahren und System zur Bildsegmentierung

Country Status (7)

Country Link
US (4) US7606417B2 (de)
EP (2) EP1800259B1 (de)
JP (1) JP4234195B2 (de)
AT (2) ATE437420T1 (de)
DE (2) DE602006008009D1 (de)
IE (1) IES20050822A2 (de)
WO (1) WO2007025578A1 (de)

Families Citing this family (240)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352394B1 (en) * 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7630006B2 (en) * 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7738015B2 (en) * 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
JP4136793B2 (ja) * 2003-05-29 2008-08-20 キヤノン株式会社 撮像装置および撮像装置の制御方法
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7639889B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8989516B2 (en) * 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8170294B2 (en) * 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7587085B2 (en) * 2004-10-28 2009-09-08 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8264576B2 (en) * 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7636486B2 (en) * 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US7680342B2 (en) * 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8417055B2 (en) * 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8698924B2 (en) 2007-03-05 2014-04-15 DigitalOptics Corporation Europe Limited Tone mapping for low-light video frame enhancement
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US9160897B2 (en) * 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US8199222B2 (en) 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7536036B2 (en) * 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US8520093B2 (en) * 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) * 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7295233B2 (en) * 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US7676110B2 (en) * 2003-09-30 2010-03-09 Fotonation Vision Limited Determination of need to service a camera based on detection of blemishes in digital images
US8369650B2 (en) 2003-09-30 2013-02-05 DigitalOptics Corporation Europe Limited Image defect map creation using batches of digital images
US20110102643A1 (en) * 2004-02-04 2011-05-05 Tessera Technologies Ireland Limited Partial Face Detector Red-Eye Filter Method and Apparatus
US20090008554A1 (en) * 2004-10-22 2009-01-08 Northrop Grumman Corporation Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7639888B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
US8995715B2 (en) 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7450756B2 (en) * 2005-04-28 2008-11-11 Hewlett-Packard Development Company, L.P. Method and apparatus for incorporating iris color in red-eye correction
US7546026B2 (en) * 2005-10-25 2009-06-09 Zoran Corporation Camera exposure optimization techniques that take camera and scene motion into account
US7599577B2 (en) * 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US7692696B2 (en) * 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
WO2007095553A2 (en) 2006-02-14 2007-08-23 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
EP1987436B1 (de) * 2006-02-14 2015-12-09 FotoNation Limited Bildunschärfe
WO2007095556A2 (en) * 2006-02-14 2007-08-23 Fotonation Vision Limited Digital image acquisition device with built in dust and sensor mapping capability
IES20060559A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Automatic detection and correction of non-red flash eye defects
KR100657522B1 (ko) * 2006-03-31 2006-12-15 삼성전자주식회사 휴대용 단말기를 이용한 아웃 포커싱 촬영 장치 및 방법
US20110044544A1 (en) * 2006-04-24 2011-02-24 PixArt Imaging Incorporation, R.O.C. Method and system for recognizing objects in an image based on characteristics of the objects
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
IES20070229A2 (en) * 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
KR100809345B1 (ko) * 2006-06-16 2008-03-05 삼성전자주식회사 영상 생성 장치 및 방법
WO2008102205A2 (en) * 2006-08-09 2008-08-28 Fotonation Vision Limited Detection of airborne flash artifacts using preflash image
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7697836B2 (en) 2006-10-25 2010-04-13 Zoran Corporation Control of artificial lighting of a scene to reduce effects of motion in the scene on an image being acquired
KR100846513B1 (ko) * 2007-01-15 2008-07-17 삼성전자주식회사 영상 처리 방법 및 장치
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
ATE472140T1 (de) * 2007-02-28 2010-07-15 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
JP2010520567A (ja) * 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
US8649604B2 (en) * 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US8081838B2 (en) * 2007-03-16 2011-12-20 Massachusetts Institute Of Technology System and method for providing two-scale tone management of an image
US7773118B2 (en) * 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US7808532B2 (en) * 2007-05-29 2010-10-05 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
US7859573B2 (en) * 2007-05-31 2010-12-28 Aptina Imaging Corporation Methods and apparatuses for image exposure correction
US20080309770A1 (en) * 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
US8401083B2 (en) * 2007-09-18 2013-03-19 Ubiquity Holdings, Inc Extreme video compression over a fixed bandwidth channel
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
KR101454609B1 (ko) * 2008-01-18 2014-10-27 디지털옵틱스 코포레이션 유럽 리미티드 이미지 프로세싱 방법 및 장치
US8212864B2 (en) * 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8482620B2 (en) 2008-03-11 2013-07-09 Csr Technology Inc. Image enhancement based on multiple frames and motion estimation
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8520089B2 (en) * 2008-07-30 2013-08-27 DigitalOptics Corporation Europe Limited Eye beautification
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8059892B1 (en) 2008-10-01 2011-11-15 Hewlett-Packard Development Company, L.P. Image enhancement method and apparatus
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
KR101670282B1 (ko) 2009-02-10 2016-10-28 톰슨 라이센싱 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅
US8174611B2 (en) * 2009-03-26 2012-05-08 Texas Instruments Incorporated Digital image segmentation using flash
FR2944884B1 (fr) * 2009-04-27 2011-07-01 St Ericsson Sa St Ericsson Ltd Procede de systeme de correction d'une representation d'une region centrale d'un oeil sur une image photographique dudit oeil prise avec un flash.
WO2010136593A2 (en) * 2009-05-29 2010-12-02 Tessera Technologies Ireland Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8605955B2 (en) * 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
CN101937563B (zh) 2009-07-03 2012-05-30 深圳泰山在线科技有限公司 一种目标检测方法和设备及其使用的图像采集装置
CN101937505B (zh) * 2009-07-03 2013-03-27 深圳泰山在线科技有限公司 一种目标检测方法和设备及其使用的图像采集装置
TWI389559B (zh) * 2009-08-14 2013-03-11 Ind Tech Res Inst 前景影像分離方法
TWI393981B (zh) * 2009-08-21 2013-04-21 Altek Corp Use the flash to assist in detecting focal lengths
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US20110085728A1 (en) * 2009-10-08 2011-04-14 Yuli Gao Detecting near duplicate images
US8294748B2 (en) * 2009-12-11 2012-10-23 DigitalOptics Corporation Europe Limited Panorama imaging using a blending map
KR101282196B1 (ko) * 2009-12-11 2013-07-04 한국전자통신연구원 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20110141226A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging based on a lo-res map
US20110141224A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Using Lo-Res Images
US20110141225A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Based on Low-Res Images
EP2545411B1 (de) 2009-12-11 2014-02-12 DigitalOptics Corporation Europe Limited Panoramabildgebung
US20110141229A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging using super-resolution
US8478071B2 (en) * 2009-12-16 2013-07-02 Nvidia Corporation System and method for constructing a motion-compensated composite image
US8655069B2 (en) * 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8411948B2 (en) * 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8692867B2 (en) 2010-03-05 2014-04-08 DigitalOptics Corporation Europe Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
JP5549300B2 (ja) * 2010-03-23 2014-07-16 カシオ計算機株式会社 撮像装置、撮像方法、屋内外判定装置、屋内外判定方法及びプログラム
US9100581B2 (en) 2010-04-02 2015-08-04 Microsoft Technology Licensing, Llc Time interleaved exposures and multiplexed illumination
US8723912B2 (en) 2010-07-06 2014-05-13 DigitalOptics Corporation Europe Limited Scene background blurring including face modeling
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
EP2426620A1 (de) * 2010-09-02 2012-03-07 Deutsche Telekom AG Erkennung von blitzlichtbeleuchteten Szenen in Videoclips und dazugehörige Rangordnung von Videoclips
US8792728B2 (en) 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
US8970770B2 (en) 2010-09-28 2015-03-03 Fotonation Limited Continuous autofocus based on face detection and tracking
US8488055B2 (en) * 2010-09-30 2013-07-16 Apple Inc. Flash synchronization using image sensor interface timing signal
US8659697B2 (en) 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US8648959B2 (en) 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US8308379B2 (en) 2010-12-01 2012-11-13 Digitaloptics Corporation Three-pole tilt control system for camera module
KR101760345B1 (ko) * 2010-12-23 2017-07-21 삼성전자주식회사 동영상 촬영 방법 및 동영상 촬영 장치
US8600151B2 (en) * 2011-01-03 2013-12-03 Apple Inc. Producing stereoscopic image
US8508652B2 (en) 2011-02-03 2013-08-13 DigitalOptics Corporation Europe Limited Autofocus method
US8587666B2 (en) 2011-02-15 2013-11-19 DigitalOptics Corporation Europe Limited Object detection from image profiles within sequences of acquired digital images
US8705894B2 (en) 2011-02-15 2014-04-22 Digital Optics Corporation Europe Limited Image rotation from local motion estimates
US8587665B2 (en) 2011-02-15 2013-11-19 DigitalOptics Corporation Europe Limited Fast rotation estimation of objects in sequences of acquired digital images
US8982180B2 (en) 2011-03-31 2015-03-17 Fotonation Limited Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
US8947501B2 (en) 2011-03-31 2015-02-03 Fotonation Limited Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
US8896703B2 (en) 2011-03-31 2014-11-25 Fotonation Limited Superresolution enhancment of peripheral regions in nonlinear lens geometries
EP2515526A3 (de) 2011-04-08 2014-12-24 FotoNation Limited Anzeigevorrichtung mit Bildaufnahme und -analysemodul
US20130050395A1 (en) * 2011-08-29 2013-02-28 DigitalOptics Corporation Europe Limited Rich Mobile Video Conferencing Solution for No Light, Low Light and Uneven Light Conditions
US9721160B2 (en) 2011-04-18 2017-08-01 Hewlett-Packard Development Company, L.P. Manually-assisted detection of redeye artifacts
JP5743696B2 (ja) * 2011-05-06 2015-07-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9041954B2 (en) * 2011-06-07 2015-05-26 Hewlett-Packard Development Company, L.P. Implementing consistent behavior across different resolutions of images
CN103765880B (zh) 2011-09-12 2016-05-18 英特尔公司 局部化分割的图像的连网捕捉和三维显示
US8493460B2 (en) 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of differently scaled images
US8493459B2 (en) 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of distorted images
US8970902B2 (en) 2011-09-19 2015-03-03 Hewlett-Packard Development Company, L.P. Red-eye removal systems and method for variable data printing (VDP) workflows
CN103095978A (zh) * 2011-11-03 2013-05-08 华晶科技股份有限公司 产生背景模糊的影像处理方法及其影像撷取装置
TW201320734A (zh) * 2011-11-03 2013-05-16 Altek Corp 產生背景模糊的影像處理方法及其影像擷取裝置
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US20130192242A1 (en) 2012-01-31 2013-08-01 Todd A. Davis Speed sensor probe location in gas turbine engine
WO2013136053A1 (en) 2012-03-10 2013-09-19 Digitaloptics Corporation Miniature camera module with mems-actuated autofocus
US9294667B2 (en) 2012-03-10 2016-03-22 Digitaloptics Corporation MEMS auto focus miniature camera module with fixed and movable lens groups
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US9354486B2 (en) 2012-06-07 2016-05-31 DigitalOptics Corporation MEMS MEMS fast focus camera module
US9001268B2 (en) 2012-08-10 2015-04-07 Nan Chang O-Film Optoelectronics Technology Ltd Auto-focus camera module with flexible printed circuit extension
US9007520B2 (en) 2012-08-10 2015-04-14 Nanchang O-Film Optoelectronics Technology Ltd Camera module with EMI shield
US9242602B2 (en) 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
CN102932582B (zh) 2012-10-26 2015-05-27 华为技术有限公司 实现运动检测的方法及装置
KR101408365B1 (ko) 2012-11-02 2014-06-18 삼성테크윈 주식회사 영상 분석 장치 및 방법
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
WO2014075022A1 (en) * 2012-11-12 2014-05-15 Behavioral Recognition Systems, Inc. Image stabilization techniques for video surveillance systems
US9081264B2 (en) 2012-12-31 2015-07-14 Digitaloptics Corporation Auto-focus camera module with MEMS capacitance estimator
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
CN103116885B (zh) * 2013-01-24 2015-08-12 天津大学 一种使用闪光灯图像的前景区域提取方法
US9305332B2 (en) 2013-03-15 2016-04-05 Samsung Electronics Company, Ltd. Creating details in an image with frequency lifting
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9349188B2 (en) 2013-03-15 2016-05-24 Samsung Electronics Co., Ltd. Creating details in an image with adaptive frequency strength controlled transform
US9536288B2 (en) 2013-03-15 2017-01-03 Samsung Electronics Co., Ltd. Creating details in an image with adaptive frequency lifting
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
CN104243788B (zh) * 2013-06-06 2017-11-21 华为终端(东莞)有限公司 一种获取目标图像的方法及装置
TW201503052A (zh) * 2013-07-04 2015-01-16 Novatek Microelectronics Corp 影像處理裝置及應用其之影像處理方法
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9401027B2 (en) * 2013-10-21 2016-07-26 Nokia Technologies Oy Method and apparatus for scene segmentation from focal stack images
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
IN2013CH05374A (de) * 2013-11-21 2015-05-29 Nokia Corp
KR102161212B1 (ko) * 2013-11-25 2020-09-29 한화테크윈 주식회사 움직임 검출 시스템 및 방법
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
JP6446790B2 (ja) * 2014-02-21 2019-01-09 株式会社リコー 画像処理装置、撮像装置、画像補正方法およびプログラム
KR20150128168A (ko) 2014-05-08 2015-11-18 삼성전자주식회사 화이트 밸런싱 장치 및 이의 구동 방법
US9727967B2 (en) 2014-06-23 2017-08-08 Samsung Electronics Co., Ltd. Methods for determining estimated depth in an image and systems thereof
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
CN104299224B (zh) * 2014-08-21 2017-02-15 华南理工大学 一种基于视频图像背景匹配的财物保护方法
JP6486050B2 (ja) * 2014-09-29 2019-03-20 株式会社Screenホールディングス 検査装置および検査方法
CN105608459B (zh) 2014-10-29 2018-09-14 阿里巴巴集团控股有限公司 商品图片的分割方法及其装置
US9652829B2 (en) 2015-01-22 2017-05-16 Samsung Electronics Co., Ltd. Video super-resolution by fast video segmentation for boundary accuracy control
WO2016169747A1 (en) 2015-04-21 2016-10-27 Fotonation Limited Blurring a digital image
JP6639113B2 (ja) * 2015-06-05 2020-02-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
WO2017061148A1 (ja) * 2015-10-09 2017-04-13 株式会社Ihi 線分検出方法
US11568627B2 (en) 2015-11-18 2023-01-31 Adobe Inc. Utilizing interactive deep learning to select objects in digital visual media
US10192129B2 (en) 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
CN107154924B (zh) * 2016-03-04 2021-01-05 阿里巴巴集团控股有限公司 基于验证码的验证处理方法及装置
KR102579994B1 (ko) * 2016-10-24 2023-09-18 삼성에스디에스 주식회사 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치
TWI610571B (zh) * 2016-10-26 2018-01-01 緯創資通股份有限公司 顯示方法及其系統與電腦可讀取記錄媒體
EP3422278A1 (de) * 2017-06-29 2019-01-02 MTG Co., Ltd. Handelswarenproduktgrössenbestimmungsvorrichtung und handelswarenproduktgrössenbestimmungsverfahren
US10362296B2 (en) 2017-08-17 2019-07-23 Microsoft Technology Licensing, Llc Localized depth map generation
RU2667790C1 (ru) 2017-09-01 2018-09-24 Самсунг Электроникс Ко., Лтд. Способ автоматической регулировки экспозиции для инфракрасной камеры и использующее этот способ вычислительное устройство пользователя
CN107773272A (zh) * 2017-10-31 2018-03-09 飞依诺科技(苏州)有限公司 超声数据的处理方法及系统
CN108363942B (zh) * 2017-12-26 2020-09-25 新智数字科技有限公司 一种基于多特征融合的刀具识别方法、装置以及设备
US10546160B2 (en) 2018-01-05 2020-01-28 Datamax-O'neil Corporation Methods, apparatuses, and systems for providing print quality feedback and controlling print quality of machine-readable indicia
US10803264B2 (en) 2018-01-05 2020-10-13 Datamax-O'neil Corporation Method, apparatus, and system for characterizing an optical system
US10795618B2 (en) 2018-01-05 2020-10-06 Datamax-O'neil Corporation Methods, apparatuses, and systems for verifying printed image and improving print quality
US10834283B2 (en) * 2018-01-05 2020-11-10 Datamax-O'neil Corporation Methods, apparatuses, and systems for detecting printing defects and contaminated components of a printer
US10477220B1 (en) * 2018-04-20 2019-11-12 Sony Corporation Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling
US11244195B2 (en) * 2018-05-01 2022-02-08 Adobe Inc. Iteratively applying neural networks to automatically identify pixels of salient objects portrayed in digital images
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US20190370942A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Red-eye correction techniques
CN108900778A (zh) * 2018-06-27 2018-11-27 努比亚技术有限公司 一种拍摄方法、移动终端及计算机可读存储介质
EP3850424A4 (de) * 2018-09-11 2022-05-25 Profoto Aktiebolag Verfahren, softwareprodukt, kameravorrichtung und system zur bestimmung künstlicher beleuchtung und kameraeinstellungen
EP3850425A4 (de) 2018-09-11 2022-06-08 Profoto Aktiebolag Computerimplementiertes verfahren und system zur koordinierung der aufnahme eines bildes unter verwendung einer kamera und auslösung eines blitzpulses von mindestens einem blitzgerät
RU2726160C1 (ru) * 2019-04-29 2020-07-09 Самсунг Электроникс Ко., Лтд. Повторный синтез изображения, использующий прямое деформирование изображения, дискриминаторы пропусков и основанное на координатах реконструирование
US11282208B2 (en) 2018-12-24 2022-03-22 Adobe Inc. Identifying target objects using scale-diverse segmentation neural networks
EP3918418A4 (de) 2019-02-01 2022-10-26 Profoto Aktiebolag Gehäuse für eine zwischensignalübertragungseinheit und zwischensignalübertragungseinheit
US10742892B1 (en) 2019-02-18 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for capturing and blending multiple images for high-quality flash photography using mobile electronic device
CN110163104B (zh) * 2019-04-18 2023-02-17 创新先进技术有限公司 人脸检测方法、装置和电子设备
US10915725B2 (en) * 2019-07-01 2021-02-09 Thales Dis Usa Inc. Method to generate a slap/fingers foreground mask
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion
US11335004B2 (en) 2020-08-07 2022-05-17 Adobe Inc. Generating refined segmentation masks based on uncertain pixels
US11657529B2 (en) * 2020-10-12 2023-05-23 Black Sesame Technologies Inc. Multiple camera system with flash for depth map generation
US11676279B2 (en) 2020-12-18 2023-06-13 Adobe Inc. Utilizing a segmentation neural network to process initial object segmentations and object user indicators within a digital image to generate improved object segmentations
US11875510B2 (en) 2021-03-12 2024-01-16 Adobe Inc. Generating refined segmentations masks via meticulous object segmentation

Family Cites Families (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4683496A (en) 1985-08-23 1987-07-28 The Analytic Sciences Corporation System for and method of enhancing images using multiband information
US5130935A (en) 1986-03-31 1992-07-14 Canon Kabushiki Kaisha Color image processing apparatus for extracting image data having predetermined color information from among inputted image data and for correcting inputted image data in response to the extracted image data
US5109425A (en) 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
JPH02281879A (ja) 1989-04-24 1990-11-19 Hitachi Ltd デイジタル画像編集装置
US5086314A (en) 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
US5063448A (en) 1989-07-31 1991-11-05 Imageware Research And Development Inc. Apparatus and method for transforming a digitized signal of an image
EP0440786A1 (de) 1989-08-28 1991-08-14 Eastman Kodak Company Auf rechner basierendes verfahren zur rauschverringerung numerischer bilder durch überlagernde ebenennäherung
GB8928058D0 (en) 1989-12-12 1990-02-14 Crosfield Electronics Ltd Digital image generation
US5046118A (en) 1990-02-06 1991-09-03 Eastman Kodak Company Tone-scale generation method and apparatus for digital x-ray images
FR2673793B1 (fr) 1991-03-05 1993-05-07 Thomson Video Equip Procede et dispositif permettant d'obtenir une information de profondeur dans le champ vu par un dispositif de prise de vue.
US5164993A (en) 1991-11-25 1992-11-17 Eastman Kodak Company Method and apparatus for automatic tonescale generation in digital radiographic images
US5345313A (en) 1992-02-25 1994-09-06 Imageware Software, Inc Image editing system for taking a background and inserting part of an image therein
US5329379A (en) 1992-10-22 1994-07-12 International Business Machines Corporation System and method of measuring fidelity of decompressed video signals and images
WO1994026057A1 (en) 1993-04-29 1994-11-10 Scientific Generics Limited Background separation for still and moving images
GB9321372D0 (en) 1993-10-15 1993-12-08 Avt Communications Ltd Video signal processing
US5504846A (en) 1993-12-16 1996-04-02 International Business Machines Corporation Method and apparatus for improved area demarcation in bit mapped image derived from multi-color bit mapped image
US5781650A (en) 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
US5621868A (en) 1994-04-15 1997-04-15 Sony Corporation Generating imitation custom artwork by simulating brush strokes and enhancing edges
US5579063A (en) 1994-10-11 1996-11-26 Magnante; Peter C. Methods and devices for the measurement of the degradation of image quality on the retina of the human eye due to cataract
US5757376A (en) 1994-12-02 1998-05-26 Sony Corporation Method of producing image data and associated recording medium
JPH08223569A (ja) 1995-02-10 1996-08-30 Matsushita Electric Ind Co Ltd デジタル画像伝送方法及び復号化合成装置
EP0727760A3 (de) 1995-02-17 1997-01-29 Ibm System zur Produktgrössenerkennung
US5724456A (en) 1995-03-31 1998-03-03 Polaroid Corporation Brightness adjustment of images using digital scene analysis
US5812787A (en) 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
US6008820A (en) 1995-08-04 1999-12-28 Microsoft Corporation Processor for controlling the display of rendered image layers and method for controlling same
US5999189A (en) 1995-08-04 1999-12-07 Microsoft Corporation Image compression to reduce pixel and texture memory requirements in a real-time image generator
US5990904A (en) 1995-08-04 1999-11-23 Microsoft Corporation Method and system for merging pixel fragments in a graphics rendering system
US5864342A (en) 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
US5880737A (en) 1995-08-04 1999-03-09 Microsoft Corporation Method and system for accessing texture data in environments with high latency in a graphics rendering system
US5844627A (en) 1995-09-11 1998-12-01 Minerya System, Inc. Structure and method for reducing spatial noise
US6122408A (en) 1996-04-30 2000-09-19 Siemens Corporate Research, Inc. Light normalization method for machine vision
US5933546A (en) 1996-05-06 1999-08-03 Nec Research Institute, Inc. Method and apparatus for multi-resolution image searching
US6256058B1 (en) 1996-06-06 2001-07-03 Compaq Computer Corporation Method for simultaneously compositing a panoramic image and determining camera focal length
US5978519A (en) 1996-08-06 1999-11-02 Xerox Corporation Automatic image cropping
US6956573B1 (en) 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
US6184926B1 (en) 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
AUPO525897A0 (en) 1997-02-24 1997-03-20 Redflex Traffic Systems Pty Ltd Digital image processing
US5949914A (en) 1997-03-17 1999-09-07 Space Imaging Lp Enhancing the resolution of multi-spectral image data with panchromatic image data using super resolution pan-sharpening
JPH10285611A (ja) * 1997-03-31 1998-10-23 Sony Corp 画像データ処理装置およびその方法
JPH10285011A (ja) 1997-04-04 1998-10-23 Citizen Watch Co Ltd 出力ドライバ回路
US5878152A (en) 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US6295367B1 (en) 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6018590A (en) 1997-10-07 2000-01-25 Eastman Kodak Company Technique for finding the histogram region of interest based on landmark detection for improved tonescale reproduction of digital radiographic images
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US6407777B1 (en) 1997-10-09 2002-06-18 Deluca Michael Joseph Red-eye filter method and apparatus
US7352394B1 (en) 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US6061476A (en) 1997-11-24 2000-05-09 Cognex Corporation Method and apparatus using image subtraction and dynamic thresholding
US6744471B1 (en) 1997-12-05 2004-06-01 Olympus Optical Co., Ltd Electronic camera that synthesizes two images taken under different exposures
EP2252071A3 (de) 1997-12-05 2017-04-12 Dynamic Digital Depth Research Pty. Ltd. Verbesserte Bildumwandlungs- und Kodierungstechniken
US6069982A (en) 1997-12-23 2000-05-30 Polaroid Corporation Estimation of frequency dependence and grey-level dependence of noise in an image
US6483521B1 (en) 1998-02-02 2002-11-19 Matsushita Electric Industrial Co., Ltd. Image composition method, image composition apparatus, and data recording media
US6850236B2 (en) 1998-02-17 2005-02-01 Sun Microsystems, Inc. Dynamically adjusting a sample-to-pixel filter in response to user input and/or sensor input
US6480300B1 (en) 1998-04-08 2002-11-12 Fuji Photo Film Co., Ltd. Image processing apparatus, image processing method and recording medium on which software for executing the image processing is recorded
JP2000102040A (ja) 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
US6278434B1 (en) 1998-10-07 2001-08-21 Microsoft Corporation Non-square scaling of image data to be mapped to pixel sub-components
JP2000209425A (ja) 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2000175052A (ja) 1998-12-07 2000-06-23 Xerox Corp ピクセルマップ表現の処理方法及び装置
US6546117B1 (en) 1999-06-10 2003-04-08 University Of Washington Video object segmentation using active contour modelling with global relaxation
JP3849834B2 (ja) 1999-02-02 2006-11-22 富士写真フイルム株式会社 オートホワイトバランス制御方法
US6920250B1 (en) 1999-03-04 2005-07-19 Xerox Corporation Additive model for efficient representation of digital documents
US6571003B1 (en) 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP4053185B2 (ja) 1999-06-22 2008-02-27 富士フイルム株式会社 画像処理方法および装置
US6198505B1 (en) 1999-07-19 2001-03-06 Lockheed Martin Corp. High resolution, high speed digital camera
JP3918141B2 (ja) 1999-08-18 2007-05-23 富士フイルム株式会社 画像処理装置及び画像処理方法
US6556704B1 (en) 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
US6631206B1 (en) 1999-08-30 2003-10-07 University Of Washington Image filtering in HSI color space
US6526161B1 (en) 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
US6704456B1 (en) 1999-09-02 2004-03-09 Xerox Corporation Automatic image segmentation in the presence of severe background bleeding
KR100311482B1 (ko) 1999-10-21 2001-10-18 구자홍 보간 영상의 화질 개선을 위한 필터링 제어방법
US6577762B1 (en) 1999-10-26 2003-06-10 Xerox Corporation Background surface thresholding
US7103357B2 (en) * 1999-11-05 2006-09-05 Lightsurf Technologies, Inc. Media spooler system and methodology providing efficient transmission of media content from wireless devices
US6538656B1 (en) 1999-11-09 2003-03-25 Broadcom Corporation Video and graphics system with a data transport processor
US6836273B1 (en) 1999-11-11 2004-12-28 Matsushita Electric Industrial Co., Ltd. Memory management method, image coding method, image decoding method, image display method, memory management apparatus, and memory management program storage medium
JP3306397B2 (ja) 1999-11-25 2002-07-24 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、画像生成方法および記憶媒体
DE19958553A1 (de) 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten
US6804408B1 (en) 1999-12-22 2004-10-12 Eastman Kodak Company Method for enhancing a digital image with noise-dependent control of texture
US7583292B2 (en) 1999-12-28 2009-09-01 Sony Corporation Signal processing device and method, and recording medium
US6683992B2 (en) 1999-12-28 2004-01-27 Matsushita Electric Industrial Co., Ltd. Image decoding apparatus and image coding apparatus
JP2001298659A (ja) 2000-02-08 2001-10-26 Canon Inc 撮像装置、画像処理システム、撮像方法、及び記憶媒体
US6639685B1 (en) 2000-02-25 2003-10-28 General Motors Corporation Image processing method using phase-shifted fringe patterns and curve fitting
US6842196B1 (en) 2000-04-04 2005-01-11 Smith & Nephew, Inc. Method and system for automatic correction of motion artifacts
CA2309002A1 (en) 2000-05-23 2001-11-23 Jonathan Martin Shekter Digital film grain reduction
US6593925B1 (en) 2000-06-22 2003-07-15 Microsoft Corporation Parameterized animation compression methods and arrangements
ATE313218T1 (de) 2000-08-25 2005-12-15 Fuji Photo Film Co Ltd Vorrichtung zur parallaxbildaufnahme und parallaxbildverarbeitung
JP2002077591A (ja) 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
JP3395770B2 (ja) 2000-09-29 2003-04-14 ミノルタ株式会社 デジタルスチルカメラ
JP2002158893A (ja) 2000-11-22 2002-05-31 Minolta Co Ltd 画像補正装置、画像補正方法および記録媒体
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US6952286B2 (en) 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
US6989859B2 (en) 2000-12-22 2006-01-24 Eastman Kodak Company Camera having user interface ambient sensor viewer adaptation compensation and method
JP2004526179A (ja) 2000-12-22 2004-08-26 ヒューレット・パッカード・カンパニー 画像構図評価方法および装置
US20020081003A1 (en) 2000-12-27 2002-06-27 Sobol Robert E. System and method for automatically enhancing graphical images
US6756993B2 (en) 2001-01-17 2004-06-29 The University Of North Carolina At Chapel Hill Methods and apparatus for rendering images using 3D warping techniques
US6670963B2 (en) 2001-01-17 2003-12-30 Tektronix, Inc. Visual attention model
JP2002223355A (ja) 2001-01-25 2002-08-09 Olympus Optical Co Ltd 画像処理装置および画像処理プログラムを記録した記録媒体
JP3920777B2 (ja) 2001-01-31 2007-05-30 三洋電機株式会社 画像処理回路
CA2373707A1 (en) 2001-02-28 2002-08-28 Paul Besl Method and system for processing, compressing, streaming and interactive rendering of 3d color image data
US7215831B2 (en) 2001-04-26 2007-05-08 Georgia Tech Research Corp. Video enhancement using multiple frame techniques
US7715643B2 (en) 2001-06-15 2010-05-11 Sony Corporation Image processing apparatus and method, and image pickup apparatus
US20050058322A1 (en) 2003-09-16 2005-03-17 Farmer Michael E. System or method for identifying a region-of-interest in an image
US6930718B2 (en) * 2001-07-17 2005-08-16 Eastman Kodak Company Revised recapture camera and method
US6577821B2 (en) * 2001-07-17 2003-06-10 Eastman Kodak Company Camera having oversized imager and method
US7650044B2 (en) 2001-07-30 2010-01-19 Cedara Software (Usa) Limited Methods and systems for intensity matching of a plurality of radiographic images
US7262798B2 (en) 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
JP3999505B2 (ja) 2001-11-30 2007-10-31 オリンパス株式会社 カメラ
US7092584B2 (en) 2002-01-04 2006-08-15 Time Warner Entertainment Company Lp Registration of separations
CN100338499C (zh) 2002-02-27 2007-09-19 Cdm光学有限公司 波前编码成像系统的优化图像处理
JP4169522B2 (ja) 2002-03-22 2008-10-22 株式会社リコー 画像処理装置、画像処理プログラム及びこのプログラムを記憶する記憶媒体
US20030184671A1 (en) 2002-03-28 2003-10-02 Robins Mark N. Glare reduction system for image capture devices
US7295702B2 (en) 2002-03-28 2007-11-13 Color Savvy Systems Limited Method for segmenting an image
US7149974B2 (en) 2002-04-03 2006-12-12 Fuji Xerox Co., Ltd. Reduced representations of video sequences
US7081892B2 (en) 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
GB0212367D0 (en) * 2002-05-29 2002-07-10 Eastman Kodak Co Image processing
US7082211B2 (en) 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
US20040208385A1 (en) 2003-04-18 2004-10-21 Medispectra, Inc. Methods and apparatus for visually enhancing images
JP3903870B2 (ja) 2002-07-29 2007-04-11 オムロンエンタテインメント株式会社 写真プリント装置制御方法、写真プリント装置制御プログラム、写真プリント装置制御プログラムを記録した記録媒体、写真プリント装置、および、プリント媒体ユニット
CH695973A5 (de) 2002-08-16 2006-10-31 Alstom Technology Ltd Rotor für eine elektrische Maschine.
WO2004036378A2 (en) 2002-10-15 2004-04-29 Mcintyre David J System and method for simulating visual defects
JP4222013B2 (ja) * 2002-12-02 2009-02-12 カシオ計算機株式会社 画像修正装置、文字認識方法及び画像修正プログラム
EP1441529B1 (de) 2003-01-21 2008-07-23 Canon Kabushiki Kaisha Bildaufnahmegerät und Bildaufnahmesystem
KR100946888B1 (ko) 2003-01-30 2010-03-09 삼성전자주식회사 영상화면 내의 피사체의 기울기 보정 장치 및 방법
US7039222B2 (en) 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7218792B2 (en) * 2003-03-19 2007-05-15 Mitsubishi Electric Research Laboratories, Inc. Stylized imaging using variable controlled illumination
US7359562B2 (en) * 2003-03-19 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Enhancing low quality videos of illuminated scenes
US7103227B2 (en) * 2003-03-19 2006-09-05 Mitsubishi Electric Research Laboratories, Inc. Enhancing low quality images of naturally illuminated scenes
US7206449B2 (en) * 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7295720B2 (en) * 2003-03-19 2007-11-13 Mitsubishi Electric Research Laboratories Non-photorealistic camera
US7102638B2 (en) * 2003-03-19 2006-09-05 Mitsubishi Eletric Research Labs, Inc. Reducing texture details in images
JP4232498B2 (ja) 2003-03-24 2009-03-04 富士ゼロックス株式会社 被写体撮影状態判定装置、画質調整装置、及び画像撮影装置
US7536036B2 (en) 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8199222B2 (en) 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US8989516B2 (en) 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7317815B2 (en) 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8339462B2 (en) 2008-01-28 2012-12-25 DigitalOptics Corporation Europe Limited Methods and apparatuses for addressing chromatic abberations and purple fringing
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
WO2007142621A1 (en) 2006-06-02 2007-12-13 Fotonation Vision Limited Modification of post-viewing parameters for digital images using image region or feature information
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US8417055B2 (en) 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7362368B2 (en) 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7636486B2 (en) 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7587085B2 (en) 2004-10-28 2009-09-08 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US20050017968A1 (en) 2003-07-21 2005-01-27 Stephan Wurmlin Differential stream of point samples for real-time 3D video
US20050140801A1 (en) 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
US20050031224A1 (en) 2003-08-05 2005-02-10 Yury Prilutsky Detecting red eye filter and apparatus using meta-data
US20100053367A1 (en) 2003-08-05 2010-03-04 Fotonation Ireland Limited Partial face tracker for red-eye filter method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7064810B2 (en) 2003-09-15 2006-06-20 Deere & Company Optical range finder with directed attention
US7295233B2 (en) 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US7590305B2 (en) 2003-09-30 2009-09-15 Fotonation Vision Limited Digital camera with built-in lens calibration table
US7308156B2 (en) 2003-09-30 2007-12-11 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on a dust map developed from actual image data
JP4127675B2 (ja) * 2003-12-09 2008-07-30 株式会社リコー 画像処理装置
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
JP4321287B2 (ja) 2004-02-10 2009-08-26 ソニー株式会社 撮影装置および撮影方法、並びに、プログラム
US7317843B2 (en) 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
JP4814217B2 (ja) 2004-04-15 2011-11-16 ドルビー ラボラトリーズ ライセンシング コーポレイション 画像を低ダイナミックレンジから高ダイナミックレンジに変換するシステム及びコンピュータプログラム
US9094615B2 (en) 2004-04-16 2015-07-28 Intheplay, Inc. Automatic event videoing, tracking and content generation
US20050243176A1 (en) * 2004-04-30 2005-11-03 James Wu Method of HDR image processing and manipulation
US7653255B2 (en) 2004-06-02 2010-01-26 Adobe Systems Incorporated Image region of interest encoding
US7015926B2 (en) * 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
US7457477B2 (en) 2004-07-06 2008-11-25 Microsoft Corporation Digital photography with flash/no flash extension
JP2006080632A (ja) * 2004-09-07 2006-03-23 Ricoh Co Ltd デジタルスチルカメラ印刷システムおよびデジタルスチルカメラおよび印刷装置およびデジタルスチルカメラ印刷システムの制御方法およびデジタルスチルカメラ印刷システムのプログラム
JP4418342B2 (ja) 2004-10-13 2010-02-17 オリンパス株式会社 画像処理装置及び電子カメラ
US7639888B2 (en) 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
DE602005004299T2 (de) 2004-11-10 2009-01-02 Fotonation Vision Ltd., Dangan Digitales bilderfassungssystem mit mitteln zur bestimmung der kamerabewegungsunschärfefunktion
JP2006140594A (ja) * 2004-11-10 2006-06-01 Pentax Corp デジタルカメラ
US8050511B2 (en) 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
FI117265B (fi) 2004-12-29 2006-08-15 Nokia Corp Elektroninen laite ja menetelmä elektronisessa laitteessa kuvadatan prosessoimiseksi
US7860332B2 (en) 2005-01-07 2010-12-28 Hewlett-Packard Development Company, L.P. Method and system for determining an indication of focus of an image
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US7774036B2 (en) 2005-06-07 2010-08-10 Oxymap Ehf Automatic registration of images
JP4799101B2 (ja) 2005-09-26 2011-10-26 富士フイルム株式会社 画像処理方法および装置ならびにプログラム
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
WO2007095553A2 (en) 2006-02-14 2007-08-23 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
IES20060559A2 (en) 2006-02-14 2006-11-01 Fotonation Vision Ltd Automatic detection and correction of non-red flash eye defects
EP1987436B1 (de) 2006-02-14 2015-12-09 FotoNation Limited Bildunschärfe
US7864989B2 (en) * 2006-03-31 2011-01-04 Fujifilm Corporation Method and apparatus for adaptive context-aided human classification
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US7515740B2 (en) 2006-08-02 2009-04-07 Fotonation Vision Limited Face recognition with combined PCA-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
ATE472140T1 (de) 2007-02-28 2010-07-15 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
EP2123008A4 (de) 2007-03-05 2011-03-16 Tessera Tech Ireland Ltd Gesichtskategorisierungs- und anmerkungssystem für eine mobiltelefon-kontaktliste
JP2010520567A (ja) 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
WO2009061519A1 (en) 2007-11-07 2009-05-14 Tessera Technologies Hungary Kft. Customized depth of field optical system and compact fast lens architecture
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8208746B2 (en) 2009-06-29 2012-06-26 DigitalOptics Corporation Europe Limited Adaptive PSF estimation technique using a sharp preview and a blurred image

Also Published As

Publication number Publication date
US20100008577A1 (en) 2010-01-14
JP2009506688A (ja) 2009-02-12
US7606417B2 (en) 2009-10-20
ATE437420T1 (de) 2009-08-15
US7912285B2 (en) 2011-03-22
EP1918872A2 (de) 2008-05-07
EP1800259A1 (de) 2007-06-27
WO2007025578A1 (en) 2007-03-08
DE602006000400D1 (de) 2008-02-14
EP1800259B1 (de) 2008-01-02
EP1918872B1 (de) 2009-07-22
ATE382917T1 (de) 2008-01-15
US20110157408A1 (en) 2011-06-30
IES20050822A2 (en) 2006-08-23
EP1918872A3 (de) 2008-07-02
DE602006008009D1 (de) 2009-09-03
US20060039690A1 (en) 2006-02-23
US7796816B2 (en) 2010-09-14
US20100328486A1 (en) 2010-12-30
US8175385B2 (en) 2012-05-08
JP4234195B2 (ja) 2009-03-04

Similar Documents

Publication Publication Date Title
DE602006000400T2 (de) Bildsegmentierungsverfahren und -system
DE102016115292B4 (de) Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging
DE102011078662B4 (de) Erfassen und Erzeugen von Bildern mit hohem Dynamikbereich
CN101416219B (zh) 数字图像中的前景/背景分割
DE102019005938A1 (de) Intelligentes Identifizieren von Ersetzungsbereichen zum Mischen und Ersetzen von Personen in Gruppenporträts
US7796822B2 (en) Foreground/background segmentation in digital images
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69627407T2 (de) Verfahren und Vorrichtung zur Bildabtastung mit Dynamikumfangserweiterung
DE60116949T2 (de) Gesichtserfassungsverfahren
DE602005004299T2 (de) Digitales bilderfassungssystem mit mitteln zur bestimmung der kamerabewegungsunschärfefunktion
DE60306737T2 (de) Verfahren und system zum bestimmen eines bereichs von bedeutung in einem zu archivierenden bild
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE112008001990T5 (de) Belichtungssteuerung für ein Bildgebungssystem
EP2030433B1 (de) Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE69823254T2 (de) Automatische Weissabgleichdetektion und Korrektur eines in einer digitalen Kamera aufgenommenen Bildes
Bhukhanwala et al. Automated global enhancement of digitized photographs
DE102019115034A1 (de) Kamera, system und verfahren zum wählen von kameraeinstellungen
EP1109398B1 (de) Bilderfassungssystem zur Erzeugung eines Dunkel- und Hellbildes
EP1024400A1 (de) Maske und Verfahren zum Ändern eines Helligkeitsprofils einer fotografischen Abbildung beim fotografischen oder digitalen Kopieren
CN114049317A (zh) 一种基于人工智能的ccd设备自动化检验系统及方法
DE102012007838A1 (de) Hochdynamikbereich-Bildaufnahme mit Mehrfachbelichtung
DE112022002910T5 (de) Auf verstärkungslernen basierendes system für die abstimmung von kameraparametern zur verbesserung der analytik
EP1231566B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE10020178B4 (de) Apparat und Verfahren zur Bildbinärisierung sowie Apparat und Verfahren zur Bilderfassung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: TESSERA TECHNOLOGIES IRELAND LIMITED, BALLYBRI, IE

8328 Change in the person/name/address of the agent

Representative=s name: PATENTANWAELTE WALLACH, KOCH & PARTNER, 80339 MUEN

R082 Change of representative

Ref document number: 1800259

Country of ref document: EP

Representative=s name: PATENTANWAELTE WALLACH, KOCH & PARTNER, 80339 MUEN