DE60133160T2 - Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern - Google Patents

Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern Download PDF

Info

Publication number
DE60133160T2
DE60133160T2 DE60133160T DE60133160T DE60133160T2 DE 60133160 T2 DE60133160 T2 DE 60133160T2 DE 60133160 T DE60133160 T DE 60133160T DE 60133160 T DE60133160 T DE 60133160T DE 60133160 T2 DE60133160 T2 DE 60133160T2
Authority
DE
Germany
Prior art keywords
digital image
brightness
value
image
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60133160T
Other languages
English (en)
Other versions
DE60133160D1 (de
Inventor
Edward B. Rochester Gindele
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of DE60133160D1 publication Critical patent/DE60133160D1/de
Application granted granted Critical
Publication of DE60133160T2 publication Critical patent/DE60133160T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Color Image Communication Systems (AREA)

Description

  • Die Erfindung bezieht sich allgemein auf das Gebiet der Bildverarbeitung und insbesondere auf Bildverarbeitungssysteme mit Einstellung der Helligkeitsmerkmale eines Digitalbildes.
  • Viele digitale Bilderzeugungssysteme bestehen aus drei Hauptkomponenten: Einem Mechanismus zum Erzeugen des digitalen Originalbildmaterials, einem Mechanismus für die Verarbeitung der digitalen Bilddaten und einem Mechanismus für die visuelle Darstellung des Bildmaterials. Dabei arbeiten viele digitale Bilderzeugungssysteme mit mehreren Bildverarbeitungsverfahren oder Algorithmen zur Verbesserung der visuellen Qualität der endgültigen Bildwiedergabe. Als Bildverarbeitungsverfahren von besonderem Interesse sind Verfahren zur Einstellung der Gesamtbalance oder Helligkeit der Digitalbilder zu nennen.
  • In dem in Image Technology, April/Mai 1969, erschienenen Zeitungsartikel "Automatic Color Printing Techniques (Automatische Farbdrucktechniken) beschreiben die Autoren J. Hughes und J. K. Bowker ein automatisches Verfahren zum Ausdrucken eines Farbnegativfilms auf fotografischem Papier. Dabei vergleichen Hughes et al. ihr Verfahren mit dem vorherrschenden Verfahren jener Zeit, nämlich dem Verfahren der Großflächen-Transmissionsdichte (LATD). Von dem LATD-Verfahren, bei dem die Farbe des Gesamt-Filmnegativs erfasst wird, wird gesagt, dass es die Farbbalance für natürliche Szenen, die von einer Farbe dominiert sind, nicht präzise vorhersagen kann. LATD-Messungen sind nur zuverlässig, wenn die Szene aus Zufallsstichproben roter, grüner und blauer Objekte besteht. Das von Hughes et al. beschriebene neue Verfahren umfasste die Schritte: Scannen des Filmnegativs mit einem rot-, grün- und blauempfindlichen Zeilenscanner mit angemessener Auflösung der räumlichen Details, Entwickeln von zwei Farbdifferenzsignalen durch Subtraktion des Grün-Signals vom Rot-Signal und des Blau-Signals vom Rot-Signal, Erstellen einer räumlichen Ableitung von den Farbdifferenzsignalen, Berechnen einer mittleren Farbbalance für das Filmnegativ durch Ausschluss solcher Bildregionen, die keine Farbaktivität zeigen, und Belichten des Filmnegativs auf ein fotografisches Papier unter Anwendung der berechneten Farbbalance zur Einstellung der Gesamtfarbbalance des gedruckten Bildes. Die von Hughes und Bowker angewandte Differentiations-Operation beinhaltet den Rechenschritt der Subtraktion benachbarter Signalwerte, d. h. die Erzeugung eines Gradientensignals. Hughes und Bowker erkannten eine Verbindung zwischen Bildbereichen, die eine räumliche Aktivität zeigen, und der Wahrscheinlichkeit, dass diese Bereiche gute Schätzwerte für die Farbbalance darstellen.
  • In US-A-5 016 043 beschreiben Kraft et al. ein Farbausgleichs- und Helligkeitsausgleichsverfahren für optische Fotodrucker. In dieser Beschreibung werden fotografische Original-Filmnegative fotografisch nach Bereichen gescannt, und es werden drei Farbdichten für jeden der gescannten Bereiche bestimmt. Mit einem Scannsystem mit hoher Auflösung werden für jeden gescannten Bereich mehrere fotoelektrische Messwerte erzeugt. Durch Bestimmen der Maxima und Minima aus der Vielzahl der fotoelektrischen Messwerte wird ein Detailkontrastparameter berechnet, der den Detailkontrast des gescannten Bereichs wiedergibt. Die Detailkontrastparameter für jeden der gescannten Bereiche werden ebenso wie die Farbdichten der gescannten Bereiche zur Bestimmung der Belichtungslichtmengen ausgewertet. Diese Belichtungswerte dienen zur Steuerung der Lichtwerte, die durch das fotografische Negativ auf das fotografische Papier gelangen, und geben die mittlere Dichte der Stichprobe des fotografischen Films wieder. Insbesondere werden bei der Korrektur der Dichten gescannte Bereiche mit höherem Detailkontrast stärker berücksichtigt als solche mit niedrigeren Dichtekontrasten, während Farbkorrekturen in exakt entgegen gesetzter Weise vorgenommen werden.
  • In US-A-4 984 013 beschreibt T. Terashita ein Verfahren zur Berechnung der Belichtungslichtmenge für ein fotografisches Farbfilmnegativ mit den Schritten: Fotoelektrisches Scannen des Originalnegativs mit roten, grünen und blauen Farbempfindlichkeiten, Berechnen von Dichtedifferenzwerten für die roten, grünen und blauen Signale benachbarter Pixelwerte, Vergleichen der Farbdichte-Differenzwerte mit einem Schwellenwert, Klassifizieren der Pixel als entweder zu Objekt- oder zu Hintergrundbereichen gehörend in Abhängigkeit von den Farbdifferenzwerten, Berechnen einer Druckbelichtung auf der Grundlage einer für den Objektbereich der Pixel bestimmten statistischen Menge. Alternativ beschreibt das Verfahren die Verwendung eines Farbchrominanzsignals für die Erzeugung der Farbdichte-Differenz werte. Das von Terashita beschriebene Verfahren basiert auf den von Hughes und Bowker beschriebenen Prinzipien und erweitert die Idee, räumliche Ableitungen für die Berechnung der Helligkeitsbalance für die Druckbelichtungssteuerung zu verwenden. Allerdings schlägt das von Terashita beschriebene Verfahren kein Verfahren zur Einstellung der Helligkeit eines Digitalbildes vor. Außerdem macht die auf Farb- und/oder Chrominanzsignalen statt auf Luminanzsignalen beruhende Formel für die Pixel-Klassifizierung das Verfahren rauschempfindlicher.
  • Alle vorstehend beschriebenen Verfahren benutzen entweder den roten, grünen, blauen Bildkanal oder Farbkanaldifferenzen als Basissignal für die Ableitung von Helligkeitsveränderungen. Auch die Verwendung eines von den roten, grünen, blauen Bildkanälen abgeleiteten oder direkt gemessenen Luminanzkanals für die Ableitung von Daten für eine Helligkeitsmodifikation ist seit vielen Jahren auf dem in Rede stehenden Gebiet bekannt und gebräuchlich. Bei all diesen Verfahren ist der Anteil des grünen Lichts immer gleich oder größer als der Anteil des roten Lichts. Zwar sind alle diese Verfahren durchaus praktikabel, die Daten des blauen Bildkanals tragen jedoch zur Vorhersagbarkeit der Helligkeitsdaten nicht in demselben Maße bei wie rote oder grüne Bildkanäle. Ferner kann der rote Bildkanal eine bessere Vorhersagbarkeit bieten als der grüne Bildkanal.
  • Aufgabe der Erfindung: Benötigt wird ein Bildsignal, das vom roten, grünen und blauen Bildkanal abgeleitet wird und den roten Kanal stärker gewichtet als den grünen Kanal und den grünen Kanal stärker als den blauen Kanal, um die bessere Vorhersagbarkeit der Rotkanalinformation für die Ableitung von Helligkeits-Vorhersagedaten zu nutzen.
  • Die Erfindung wird im Folgenden anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläutert.
  • Es zeigen:
  • 1 ein Blockdiagramm der Erzeugung des erfindungsgemäß verwendeten digitalen Rot-Grün-Digitalbildkanals;
  • 2 ein Blockdiagramm eines für die Durchführung der Erfindung geeigneten Bildverarbeitungssystems;
  • 3 ein Blockdiagramm eines für die Durchführung der Erfindung geeigneten Internet-Bildverarbeitungscomputersystems;
  • 4 ein Blockdiagramm eines für die Durchführung der Erfindung geeigneten Kamera-Belichtungssystems;
  • 5 ein Blockdiagramm eines für die Durchführung der Erfindung geeigneten Druck-Belichtungssystems;
  • 6 ein Blockdiagramm der Bildverarbeitung gemäß einer Ausführungsform der Erfindung;
  • 7 ein Blockdiagramm der Bildverarbeitung gemäß einer bevorzugten Ausführungsform der Erfindung;
  • 8 ein Blockdiagramm des Helligkeitstonskalen-Moduls gemäß einer bevorzugten Ausführungsform der Erfindung;
  • 9 ein Bilddiagramm, das das Pixelierungsmodul gemäß der Erfindung beschreibt;
  • 10 ein Blockdiagramm des Tonhelligkeitsmoduls gemäß einer alternativen Ausführungsform der Erfindung;
  • 11 ein Blockdiagramm des Helligkeits-Transformationsmoduls gemäß der Erfindung;
  • 12 ein Blockdiagramm des Szenen-Helligkeitsbalancemoduls gemäß der Erfindung;
  • 13 ein Blockdiagramm des Helligkeits-Vorhersagemoduls gemäß der Erfindung; und
  • 14 ein Beispiel einer Kurve einer Gammafunktion für die Berechnung von Gewichtungsfaktoren gemäß der Erfindung.
  • Ein Digitalbild besteht aus einem oder mehreren Digitalbildkanälen. Jeder Digitalbildkanal besteht aus einer zweidimensionalen Pixelanordnung. Jeder Pixelwert ist abhängig von der Lichtmenge, die ein Bildaufnahmegerät entsprechend der geometrischen Domäne des Pixels empfangt. Bei Farbbildanwendungen besteht ein Digitalbild normalerweise aus digitalen roten, grünen und blauen Bildkanälen. Es sind jedoch auch andere Ausbildungen üblich, etwa mit digitalen Bildkanälen der Farben Cyan, Magenta und Gelb. Bewegte Bilder kann man sich als eine zeitliche Folge von Digitalbildern vorstellen. Für den Fachmann ist klar, dass die Erfindung auf Digitalbilder jeder der vorstehend genannten Anwendungen anwendbar, darauf aber nicht beschränkt ist.
  • Die Erfindung beschreibt einen digitalen Bildkanal als ein zweidimensionales, in Reihen und Spalten angeordnetes Array von Pixelwerten, für den Fachmann ist jedoch ersichtlich, dass die Erfindung mit gleicher Wirkung auch auf Mosaik-Arrays (nicht lineare Arrays) anwendbar ist. Ferner ist für den Fachmann ersichtlich, dass die Erfindung zwar den Austausch der ursprünglichen Pixelwerte durch helligkeitskorrigierte Pixelwerte beschreibt, es aber auch ohne weiteres möglich ist, ein neues Digitalbild mit helligkeitsangepassten Pixelwerten zu erzeugen und die ursprünglichen Pixelwerte beizubehalten.
  • 1 zeigt ein Blockdiagramm eines die Erfindung darstellenden Luminanz-Chrominanz-Moduls 110. Dabei dient ein digitales Originalbild mit digitalen roten, grünen und blauen Bildkanälen (Ziffern 111, 112 bzw. 113) als Eingabe für das Luminanz-Chrominanz-Modul 110. Der Pseudoluminanzsignal-Generator 115 empfangt die digitalen roten, grünen und blauen Bildkanäle und erzeugt daraus einen digitalen Pseudoluminanzbildkanal. Der Chrominanzsignal-Generator 116 empfängt die digitalen roten, grünen und blauen Bildkanäle und erzeugt daraus zwei digitale Chrominanz-Bildkanäle 119. Im Folgenden wird die Funktion des rot-grünen digitalen Bildkanals und der digitalen Chrominanz-Bildkanäle noch im einzelnen beschrieben. Ein wichtiger Aspekt der Erfindung besteht in der Nutzung der digitalen roten und grünen Bildkanäle zum Erzeugen des digitalen Pseudoluminanz-Bildkanals mit nur geringem oder ganz ohne Anteil des blauen digitalen Bildkanals. Bei einer Analyse zum Zweck der Vorhersage der Szenen-Helligkeit ist der digitalen Pseudoluminanz-Bildkanal anderen Kombinationen der digitalen roten, grünen und blauen Bildkanäle, die beträchtliche Anteile des digitalen blauen Bildkanals enthalten, überlegen.
  • Allgemeine Beschreibung einer Anwendung eines digitalen Bilderzeugungssystems
  • Die Erfindung lasst sich hardwaremäßig implementieren. Bezogen auf 2 bezieht sich die folgende Beschreibung auf ein digitales Bilderzeugungssystem mit einer Bilderfassungsvorrichtung 10, einem digitalen Bildprozessor 20, einer Bildausgabevorrichtung 30 und einem allgemeinen Steuercomputer 40. Ferner kann das System einen Monitor 50 umfassen, bestehend etwa aus einer Computerkonsole oder einem Papierdrucker. Außerdem kann das System eine Eingabesteuerung für eine Bedienungsperson, bestehend etwa aus einer Tastatur oder einer Maus, aufweisen. Darüber hinaus kann die Erfindung in der hier vorgesehenen Ausführung als Computerprogramm implementiert und in einem Computerspeicher 45, d. h. auf einem computerlesbaren Speichermedium, zum Beispiel auch auf einem Magnetspeichermedium, etwa einer Magnetplatte (z. B. einer Diskette) oder einem Magnetband, auf einem optischen Speichermedium, etwa einer optischen Platte, einem optischen Band oder in einem maschinenlesbaren Strichcode, auf einem elektronischen Halbleiter-Speichermedium, etwa einem Direktzugriffsspeicher (RAM) oder einem Nurlesespeicher (ROM) oder beliebigen anderen, zur Speicherung eines Computerprogramms verwendeten physischen Vorrichtungen oder Medien gespeichert sein. Bevor nun die Erfindung beschrieben wird, soll zum besseren Verständnis hier festgestellt werden, dass die Erfindung vorzugsweise auf jedem beliebigen bekannten Computersystem, etwa einem PC, einsetzbar ist.
  • Die dargestellten mehreren Erfassungsgeräte 10 sollen zeigen, dass die Erfindung für Digitalbilder der unterschiedlichsten Bilderzeugungsgeräte einsetzbar ist. Zum Beispiel kann 2 etwa ein digitales Fotofinishingsystem, bei dem die Bilderfassungsvorrichtung 10 aus einer herkömmlichen fotografischen Filmkamera zum Aufnehmen einer Szene auf Farbnegativ oder Diafilm besteht, sowie einen Filmscanner zum Scannen des entwickelten Bildes auf dem Film und zum Erzeugen eines Digitalbildes darstellen. Der digitale Bildprozessor 20 ermöglicht die Verarbeitung der Digitalbilder mit dem Ziel, ansprechende Bilder auf dem vorgesehenen Ausgabegerät oder Medium zu erhalten. Die dargestellten mehreren Bildausgabegeräte 30 zeigen, dass die Erfindung auch in Verbindung mit einer Vielzahl von Ausgabegeräten einsetzbar ist, unter anderem auch einem digitalen fotografischen Drucker und Bildschirmdisplays. Der digitale Bildpro zessor 20 verarbeitet das Digitalbild und stellt die Gesamthelligkeit und/oder Tonskala des Digitalbilds so ein, dass ein Bildausgabegerät 30 ein ansprechendes Bild erzeugt. Das Zusammenwirken dieser Verarbeitungsschritte wird weiter unten noch im einzelnen beschrieben.
  • Allgemeine Beschreibung einer Anwendung auf einem internetbasierten digitalen Bilderzeugungssystem
  • Die Erfindung kann mit mehreren Computer realisiert sein, die über ein Computernetzwerk, etwa das für das Internet zugängliche World Wide Web, verbunden sind. Die bei der praktischen Durchführung der Erfindung mitwirkenden Bildverarbeitungsverfahren beinhalten zwei zentrale Elemente: 1) Die Berechnung eines Helligkeitsbalancewerts, der von den im digitalen Ursprungsbild enthaltenen Pixelwerten abgeleitet ist, und 2) die Umwandlung des digitalen Ursprungsbildes anhand des Helligkeitsbalancewerts zur Helligkeitseinstellung des Bildes. Diese zentralen Elemente können einzeln oder auch beide in nur einem Rechner integriert sein, es besteht jedoch auch die Möglichkeit, die Berechnung des Helligkeitsbalancewerts und die aus diesem Wert basierende Umwandlung auf verschiedenen Computer auszuführen.
  • Das in 3 dargestellte Diagramm zeigt die beiden in 2 dargestellten Computersysteme, die hier mittels eines Computernetzwerks 45 verbunden sind. In 3 ist bei einem der Computersysteme ein Bilderfassungssystem 10 mit dem digitalen Bildprozessor 20 verbunden, während bei dem anderen Computersystem ein Bildausgabegerät 30 mit dem digitalen Bildprozessor 20 verbunden ist. Das Bilderfassungsgerät 10 erzeugt ein Digitalbild, das von dem mit ihm verbundenen Bildprozessor 20 empfangen und verarbeitet wird. Im digitalen Bildprozessor 20 wird ein Helligkeitsbalancewert berechnet. Das digitale Ursprungsbild und der Helligkeitsbalancewert werden über das Computernetzwerk 45 einem zweiten Computersystem zugeführt. Der digitale Bildprozessor 20 des zweiten Computersystems empfangt das digitale Ursprungsbild und stellt die Gesamthelligkeit des Digitalbildes mittels des Helligkeitsbalancewerts so ein, dass ein Bildausgabegerät 30 ein ansprechendes Bild erzeugt.
  • In 3 sind zwei Computersysteme dargestellt, die Erfindung kann jedoch auch mit mehr als zwei Systemen ausgeführt werden. Dabei besteht die Möglichkeit, dass ein erstes Computersystem das digitale Ursprungsbild erfasst, ein zweites Computersystem das digitale Ursprungsbild empfängt und den Helligkeitsbalancewert berechnet, ein drittes Computersystem den Hellig keitsbalancewert und das digitale Ursprungsbild empfangt und die Helligkeit des Digitalbildes einstellt und ein viertes Computersystem das helligkeitsangepasste digitale Bild empfängt und eine visuelle Darstellung des verarbeiteten Bildes erzeugt.
  • Der Helligkeitsbalancewert ist ein Beispiel für Bild-Metadaten, d. h. für nicht pixelbezogene Daten eines Digitalbildes. Bild-Metadaten können unter anderem dazu dienen, über die Umstände der Erfassung des Digitalbildes zu informieren, einen Beschreibungstext zum Digitalbild, etwa eine Anmerkung des Fotografen, hinzuzufügen oder Analysedaten zum Digitalbild hinzuzufügen. Erfindungsgemäß wird der Helligkeitsbalancewert als Bild-Metadaten über ein Computernetzwerk übermittelt, damit ein anderes Computersystem die Bild-Metadaten zur Einstellung der Helligkeit des Digitalbildes nutzen kann.
  • Allgemeine Beschreibung einer Anwendung in einem Kamerabelichtungssystem
  • In einem fotografischen Kamerasystem kann die Erfindung als Komponente für die Belichtungssteuerung eingesetzt werden. Beispiele eines fotografischen Kamerasystems sind unter anderem fotografische Filmkameras, digitale Stehbildkameras, Videokameras, digitale Videokameras und Laufbildkameras. In 4 ist ein fotografisches Kamerasystem dargestellt mit einer Blende 11, einer Optik 12, einer Zeitintegrationsvorrichtung 13, einer lichtempfmdlichen Aufzeichnungsvorrichtung 14, einer lichtempfindlichen Überwachungsvorrichtung 15, einer Belichtungssteuervorrichtung 16 und einem digitalen Bildprozessor 20.
  • Die Optik 12 fokussiert die Szenenlichtverteilung auf die lichtempfindliche Aufzeichnungsvorrichtung 14 und erzeugt dadurch in der Brennebene ein Bild der Originalszene. Die lichtempfindliche Aufzeichnungsvorrichtung 14 empfangt das Licht und zeichnet die Intensität der abgebildeten Lichtverteilung auf. Die lichtempfindliche Vorrichtung 14 kann zum Beispiel ein fotografischer Film oder ein elektronisches Halbleiter-CCD-Bildderzeugungsgerät sein. Die Menge des von der lichtempfmdlichen Aufzeichnungsvorrichtung 14 empfangenen Lichts wird durch die Blende 11 und die Zeitintegrationsvorrichtung 13 geregelt. Die Blende 11 regelt die Lichtmenge, indem sie den wirksamen Durchmesser des Lichtdurchgangsbereichs der Optik 12 verändert. Die Zeitintegrationsvorrichtung 13 reguliert die Menge des empfangenen Lichts, indem sie die Zeitdauer verändert, während der das fokussierte Licht auf der lichtempfindlichen Aufzeichnungsvorrichtung 14 bleibt. Bei einer fotografischen Filmkamera besteht die Zeitintegra tionsvorrichtung 13 etwa aus einem Verschluss, der sich während des Bilderzeugungsvorgangs öffnet und im übrigen geschlossen bleibt. Die Belichtungssteuervorrichtung 16 regelt sowohl die Blende 11 als auch die Zeitintegrationsvorrichtung 13. Bei einem fotografischen Filmkamerasystem besteht die lichtempfindliche Überwachungsvorrichtung 15 zum Beispiel aus einer lichtempfindlichen elektronischen Vorrichtung mit einer Vielzahl lichtempfindlicher Elemente mit im Vergleich zu fotografischem Film geringerer räumlicher Auflösungsempfindlichkeit. Ferner umfasst die lichtempfindliche Überwachungsvorrichtung 15 Mittel zum Umwandeln des elektrischen Verhaltens der lichtempfindlichen Elemente in digitale Pixelwerte. Bei einem digitalen Stehbildkamerasystem ist die lichtempfmdliche Überwachungsvorrichtung 15 zum Beispiel ein separates Gerät, ähnlich dem fotografischen Filmkamerasystem, oder die eigentliche lichtempfindliche Aufzeichnungsvorrichtung 14. In beiden Fällen erzeugt die lichtempfmdliche Überwachungsvorrichtung 15 ein digitales Ursprungsbild, das dem digitalen Bildprozessor 20 zugeführt wird.
  • Der Belichtungssteuervorrichtung 16 wird vom digitalen Bildprozessor 20 ein Helligkeitsbalancewert zugeführt. Damit die Belichtungssteuervorrichtung 16 den Helligkeitsbalancewert richtig interpretieren kann, muss das fotografische Kamerasystem kalibriert sein. Die Belichtungssteuervorrichtung kennt den Empfindlichkeitswert Sv der lichtempfmdlichen Aufzeichnungsvorrichtung 14. Die Belichtungssteuervorrichtung 16 regelt den Durchmesser der Blende 11 und die Länge der Belichtungsdauer der Zeitintegrationsvorrichtung 14 entsprechend der folgenden mathematischen Beziehung: Av + Tv = Bv + Svworin der Blendenwert Av durch die Gleichung Av = log2(Fn2)gegeben ist, worin Fn der fotografische Blendenwert F ist, wobei die Zeit Tv durch die Gleichung Tv = log2(τ) gegeben ist, worin τ die geregelte Länge der Belichtungszeit in Sekunden der Zeitintegrationsvorrichtung 13 ist und der Empfindlichkeitswert Sv durch die Gleichung Sv = log2(πs)gegeben ist, worin s der fotografische ISO-Empfindlichkeitswert der fotografischen Aufzeichnungsvorrichtung 14 ist. Der Helligkeitswert Bv ist durch die Formel Bv =C1b + C0 gegeben, worin C1 und C0 numerische Kalibrierkonstanten sind und b den vom digitalen Bildprozessor 20 empfangenen Helligkeitsbalancewert wiedergibt.
  • Die Belichtungssteuervorrichtung kann mehrere Betriebsmodi haben, am günstigsten sind jedoch zwei. Im Blendenmodus Av erlaubt die Belichtungssteuervorrichtung 16 dem Benutzer der Kamera die Einstellung des Blendenwerts Av, während die Belichtungssteuervorrichtung 16 den Zeitwert Tv mittels der Gleichung Tv = Bv + Sv – Aveinstellt. Im Zeitmodus Tv erlaubt die Belichtungssteuervorrichtung 16 dem Benutzer der Kamera die Einstellung des Zeitwerts Tv, während die Belichtungssteuervorrichtung 16 den Blendenwert Av anhand der Gleichung Av = Bv + Sv – Tveinstellt. Die Erfindung kann auch mit komplexen Beziehungen zur Bestimmung der Kamerabelichtung arbeiten.
  • Bei einer alternativen Ausführungsform der Erfindung besteht die lichtempfindliche Überwachungsvorrichtung 15 aus einer Einzelelement-Fotozelle. Zwischen der lichtempfindlichen Überwachungsvorrichtung 15 und der Szenenlichtverteilung befindet sich ein optischer Filter, der die Rot-Grün-Wellenlänge betont. Der Helligkeitsbalancewert wird, wie vorstehend beschrieben, durch die Ausgabe der Einzelelement-Fotozelle erzeugt.
  • Allgemeine Beschreibung einer Anwendung in einem Druckerbelichtungssystem
  • Unter Bezugnahme auf 5 bezieht sich die folgende Beschreibung auf ein optisches Drucksystem. Ein Bild 31 auf fotografischem Film wird in einen Filmscanner 32 eingelegt, der daraus ein digitales Ursprungsbild entsprechend der räumlichen Dichteverteilung des fotografischen Bildes erzeugt. Andere Beispiele eines erfindungsgemäß einsetzbaren fotografischen Bildes sind fotografische Filmnegative, fotografischer Diafilm und Drucke auf Reflexionspapier. Das digitale Ursprungsbild wird einem digitalen Bildprozessor 20 zugeführt, der einen Helligkeitsbalancewert erzeugt. Der digitale Bildprozessor 20 kann, gesteuert von einem Eingabesteuergerät 60, mit einem Computer 40 mit üblicher Steuerung verbunden sein. Auf dem Monitor 50 werden Diagnoseinformationen über das optische Drucksystem angezeigt. Das fotografische Bild wird in ein Fenster 36 eingelegt, das das fotografische Bild während des Belichtens in seiner Position hält. Ein Lampenhaus enthält die Quelle des durch das fotografische Bild 31 hindurch gehenden Lichts und fokussiert dieses mittels einer Optik 12 auf ein fotografisches Material 38. Bei der bevorzugten Ausführungsform der Erfindung besteht das fotografische Material 38 aus fotografischem Papier. Die Erfindung kann aber auch mit anderen fotografischen Materialien praktiziert werden, unter anderem mit fotografischen Filmnegativen oder fotografischem Diafilm. Die Zeitintegrationsvorrichtung 13 öffnet und schließt einen Verschluss für eine variable Zeitdauer, so dass das fokussierte Licht aus dem Lampenhaus 34 das fotografische Material 38 belichten kann. Der Belichtungssteuerung 16 wird vom digitalen Bildprozessor 20 ein Helligkeitsbalancewert zugeführt. Mit Hilfe dieses Helligkeitsbalancewerts regelt die Belichtungssteuerung 16 die Zeitdauer, während der die Zeitintegrationsvorrichtung geöffnet bleibt.
  • Die Belichtungssteuerung 16 muss auf die Intensität des Lampenhauses 34 und die Lichtempfindlichkeit des fotografischen Materials 38 kalibriert werden. Die mathematische Beziehung für die Zeitdauer t, die für eine korrekte Druckbelichtung erforderlich ist, ist durch die Formel
    Figure 00110001
    gegeben, worin D1 D2, D3, und D0 numerische Kalibrierkonstanten sind und b der Helligkeitsbalancewert ist.
  • Bei einer alternativen Ausführungsform der Erfindung wird zum Erfassen des fotografischen Bildes 31 eine Lichtmessvorrichtung 15 mit Einzelelement-Fotozelle verwendet. Zwischen der Fotozelle und dem fotografischen Bild 31 befindet sich ein optischer Filter mit Betonung der Rot-Grün-Wellenlange. Aus der Ausgabe der Einzelelement-Fotozelle leitet sich der Helligkeitsbalancewert wie im Folgenden beschrieben ab.
  • Allgemeine Beschreibung eines digitalen Bildprozessors 20
  • Der in 2 dargestellte digitale Bildprozessor 20 ist in 6 detaillierter wiedergegeben. Allgemein wird erfindungsgemäß ein digitaler Bildprozessor 20 mit in Kaskadenform angeordneten Bildverarbeitungsmodulen verwendet. Der digitale Bildprozessor 20 empfangt das digitale Ursprungsbild und erzeugt daraus ein verarbeitetes digitales Ausgabebild. Jedes der Bildverarbeitungsmodule des digitalen Bildprozessors 20 empfangt ein digitales Bild, modifiziert das digitale Bild oder leitet daraus eine Information für das digitale Bild ab und führt dann dem nächsten Bildverarbeitungsmodul ein digitales Ausgabebild zu. Als erste und letzte Bildverarbeitungsmodule des digitalen Bildprozessors 20 sind zwei Bildverbesserungs-Transformationsmodule 22 dargestellt; damit soll illustriert werden, dass die Erfindung auch in Verbindung mit anderen Bildverarbeitungsmodulen ausführbar ist. Als Beispiele für Bildverbesserungs-Transformationsmodule 22 sind etwa Module zum Schärfen räumlicher Details, zur Rauschbeseitigung, Farbverbesserung und Verbesserung der Tonskala eines digitalen Bildes zu nennen.
  • Bevorzugter digitaler Bildprozessor 20
  • In 7 ist die erfindungsgemäß verwendete Kaskadenkette der Bildverarbeitungsmodule dargestellt. Das von der Erfassungsvorrichtung 10 erzeugte digitale Ursprungsbild wird einem Farbtransformationsmodul 24 zugeführt. Das von dem Farbtransformationsmodul 24 erzeugte digitale Ausgabebild wird einem Logarithmus-Transformationsmodul 26 zugeführt. Das von dem Lorithmus-Transformationsmodul 26 erzeugte digitale Ausgabebild wird einem Helligkeitstonskalenmodul 100 zugeführt. Das von dem Helligkeitstonskalenmodul 100 erzeugte digitale Ausgabebild stellt das in 2 dargestellte, vom digitalen Bildprozessor 20 erzeugte verarbeitete digitale Bild dar.
  • Detailbeschreibung des Farbtransformationsmoduls 24
  • Ein Merkmal des von einem Erfassungsgerät 10 erzeugten Digitalbildes, das Auswirkungen auf die Effektivität der Erfindung haben kann, ist das metrische Farbraumsystem der Erfassungsgeräte, die die digitalen Farbbilder erzeugen. Normalerweise enthält das Erfassungsgerät 10 drei Farbspektralfilter, die die relativen Mengen des von den Lichtwandlerelementen empfangenen farbigen Lichts bestimmen. Je nach den Eigenschaften der Spektralfilter können erfindungsgemäß bessere Ergebnisse erzielt werden, wenn vor Anwendung des Helligkeitstonskalenmoduls 100 eine Farbtransformation auf das digitale Bild angewendet wird. Zwar ist die Anwendung einer Farbtransformation für die Ausführung der Erfindung nicht nötig, die Anwendung einer Farbtransformation entsprechend den spektralen Eigenschaften der Eingabe- und/oder Ausgabegeräte kann aber zu optimalen Ergebnissen führen.
  • Erfindungsgemäß wird als Farbtransformationsverfahren eine Farbtransformation mit 3×4-Matrix durchgeführt. Diese Transformation erzeugt neue Farbpixelwerte durch lineare Kombination der Eingangs-Farbpixelwerte. Das digitale Eingangs-Farbbild besteht aus je einem roten, grünen und blauen digitalen Bildkanal. Jeder digitale Bildkanal enthält dieselbe Anzahl von Pixeln. Es sei angenommen, dass Rij, Gij und Bij sich auf Pixelwerte entsprechend den roten, grünen und blauen digitalen Bildkanälen an der Position der iten Reihe und der jten Spalte beziehen. Es sei ferner angenommen, dass R'ij, G'ij und B'ij sich auf die transformierten Pixelwerte des digitalen Farb-Ausgabebildes beziehen. Die die Eingangs- und Ausgangspixelwerte verknüpfende Transformation mit 3×4-Matrix sieht dann wie folgt aus: R'ij = τ11Rij + τ12Gij + τ13Bij + τ10 G'ij = τ21Rij + τ22Gij + τ23Bij + τ20 B'ij = τ31Rij + τ32Gij + τ33Bij + τ30 worin die Ausdrücke τmn die Koeffizienten der Transformation mit 3×4-Matrix sind. Diese zwölf Zahlen sind für die spektralen Eigenschaften des Erfassungsgeräts 10 und das in 2 dargestellte Ausgabegerät 30 charakteristisch.
  • Für die Durchführung einer Farbtransformation an einem digitalen Bild gibt es verschiedene Verfahren; zum Beispiel kann eine dreidimensionale Vergleichstabelle (LUT) sogar bessere Ergebnisse erzielen, wenn auch mit größerem Rechenaufwand. Setzt man die Werte τ10, τ20 und τ30 auf null, erhält man eine vereinfachte 3×3-Matrix-Gleichung. Für die Zwecke der Erfindung können sowohl eine 3×3-Matrix-Transformation, eine 3×4-Matrix-Transformation als auch eine dreidimensionale LUT als Beispiele für eine Farbtransformation gelten.
  • Detailbeschreibung des Logarithmus-Transformationsprozessors 26
  • Ein Merkmal des von einem Erfassungsgerät 10 erzeugten Digitalbildes, das Auswirkungen auf die Effektivität der Erfindung haben kann, ist die Farbwertdomäne der Erfassungsgeräte, die die digitalen Farbbilder erzeugen. Normalerweise enthält das Erfassungsgerät 10 ein Lichtwandlerelement, das das abgebildete Licht in ein analoges elektrisches Signal umwandelt. Anschließend wird das analoge elektrische Signal mittels eines Analog/Digital-Wandlers in einen Satz digitaler Codewerte umgewandelt. Diese digitalen Codewerte stellen die numerischen Pixelwerte des vom Erfassungsgerät 10 erzeugten digitalen Ausgabebildes dar. Die für ein Erfassungsgerät 10 charakteristische Codewertdomäne beschreibt die mathematische Beziehung zwischen den digitalen Ausgabe-Codewerten und der Eingangsintensität des empfangenen Lichts.
  • Viele Lichtwandlerelemente haben eine lineare Ansprechcharakteristik, d. h. das erzeugte analoge elektrische Signal ist zur Intensität des empfangenen Lichts linear proportional. Auch viele Analog/Digital-Wandler haben eine lineare Ansprechcharakteristik, d. h. die erzeugten digitalen Codewerte sind zur Intensität des empfangenen analogen elektrischen Signals linear proportional. Werden in einem Erfassungsgerät ein lineares Wandlerelement und ein linearer Analog/Digital-Wandler eingesetzt, weisen die erhaltenen Ausgabe-Codewerte eine lineare Beziehung zur Intensität des empfangenen Lichts auf. Somit haben digitale Bilder, die von Erfassungsgeräten erzeugt wurden, die diese lineare Beziehung aufweisen, numerische Pixelwerte, die eine lineare Beziehung zur ursprünglichen Lichtintensität aufweisen. Von solchen digitalen Bildern sagt man dann, dass sie einen linearen Codewertbereich aufweisen.
  • Die Erfindung ist für digitale Bilder, die einen linearen Codewertbereich aufweisen, anwendbar. Bessere Ergebnisse werden erfindungsgemäße jedoch erzielt, wenn das digitale Eingabe bild einen logarithmischem Codewertbereich aufweist, d. h. wenn die numerischen Pixelwerte eine logarithmische Beziehung zur ursprünglichen Lichtintensität aufweisen. Das in 7 dargestellte logarithmische Transformationsmodul 26 dient dazu, die Codewertbereichseigenschaft des in das Helligkeitstonskalenmodul 100 einzugebenden digitalen Bildes zu verändern. Das Logarithmus-Transformationsmodul 26 erzeugt eine Vergleichstabellen-Transformation (LUT), deren numerische Werte eine logarithmische Beziehung zu den LUT-Indizes haben. Es sei angenommen, dass sich pij auf die Pixelwerte bezieht, die einem digitalen Bildkanal an der Position der iten Reihe und der jte Spalte entsprechen. Es sei ferner angenommen, dass p'ij sich auf die mit der LUT-Transformation erzeugten transformierten Pixelwerte des digitalen Ausgabe-Farbbildes beziehen. Die LUT-Transformation sieht dann für die Eingabe- und Ausgabe-Pixelwerte wie folgt aus: p'ij = LUT[pij]worin der []-Ausdruck sich auf den LUT-Indexiervorgang bezieht, d. h. der Ausgabepixelwert p'ij ist durch den numerischen Wert gegeben, der in der LUT an dem durch den Eingabepixelwert pij bezeichneten Index gespeichert ist. Die in der LUT gespeicherten Werte lassen sich durch die folgende mathematische Beziehung errechnen: LUT[k] = Lo + L1log(k + ko)worin die numerischen Konstanten Lo und L1 verwendet werden, um die Skala der Ausgabepixelwerte zu bestimmen, die Konstante ko dazu dient, die Berechnung des Logarithmus für null zu vermeiden.
  • Die vom Logarithmus-Transformationsmodul 26 durchgeführte mathematische Operation ist ein Beispiel einer Transformation mit eindeutiger Funktion, d. h. jeder Eingabewert hat nur einen entsprechenden Ausgabewert. Diese Operation kann als Folge mathematischer Operationen (Addieren, Logarithmisieren, Multiplizieren, Addieren) computer- oder hardwaremäßig implementiert sein. Bei großen digitalen Bildern wird dieselbe Operation jedoch rechnerisch effizienter als LUT-Transformation ausgeführt. Für die Zwecke der Erfindung werden die LUT-Ausführung und die Ausführung als Folge mathematischer Operationen als logarithmische Transformationen bezeichnet.
  • Detailbeschreibung der bevorzugten Ausführungsform des Helligkeitstonskalenmoduls 100
  • In 8 ist das in 7 dargestellte Helligkeitstonskalenmodul 100 detaillierter dargestellt. Das Helligkeitstonskalenmodul 100 analysiert das digitale Ursprungsbild daraufhin, ob es zu dunkel oder zu hell ist, und erzeugt eine entsprechende Helligkeitstonskalenfunktions-LUT und durch Anwenden der Helligkeitstonskalenfunktions-LUT auf das digitale Ursprungsbild ein helligkeitsangepasstes digitales Bild.
  • In 8 werden die Kanäle des digitalen Ursprungsbildes, drei Kanäle entsprechend der roten, grünen und blauen Pixelinformation, im Luminanz-Chrominanz-Modul 110 empfangen. Das Modul erzeugt drei digitale Bildkanäle, einen Digitalbild-Pseudoluminanzkanal und zwei Digitalbild-Chrominanzkanäle. Der Digitalbild-Pseudoluminanzkanal wird dem Pixelierungsmodul 120 zugeführt, das einen pixelierten Digitalbild-Pseudoluminanzk mal erzeugt. Das Helligkeitstransformationsmodul 130 empfangt den pixelierten Digitalbild-Pseudoluminanzkanal und die Kanäle des digitalen Ursprungsbildes und erzeugt helligkeitsangepasste digitale Bildkanäle. Die helligkeitsangepassten digitalen Bildkanäle stellen ein helligkeitsangepasstes Digitalbild dar, das auch als das verarbeitete digitale Bild gemäß 2, 3 und 4 bezeichnet wird.
  • Detailbeschreibung des Luminanz-Chrominanzmoduls 110
  • Die Analysephase des in 8 dargestellten Tonhelligkeitsmoduls nutzt ein Luminanz-Chrominanz-Modul 110 zur Erzeugung eines digitalen Pseudoluminanz-Chrominanz- oder LCC-Bildes, einer Version des digitalen Ursprungsbildes, bestehend aus einem Digitalbild-Pseudoluminanzkanal und zwei Digitalbild-Chrominanzkanälen, die mit GM und IL bezeichnet sind. Das Luminanz-Chrominanz-Modul 110 wandelt die roten, grünen und blauen Pixelwerte mittels einer 3×3-Matrix-Transformation in Pseudoluminanz- und Chrominanz-Pixelwerte um. Es sei angenommen, dass Rij, Gij und Bij sich auf die roten, grünen und blauen Digitalbild-Kanäle an der Position der iten Reihe und jten Spalte beziehen. Es sei ferner angenommen, dass Lij, GMij, und ILij sich auf die transformierten Pseudoluminanz-, ersten Chrominanz- und zweiten Chrominanz-Pixelwerte des digitalen LCC-Ausgabebildes beziehen. Die 3×3-Matrix-Transformation, die die Eingangs- und Ausgangs-Pixelwerte in Beziehung setzt, stellt sich wie folgt dar: Lij = 0,60Rij + 0,40Gij + 0,00Bij GMij = –0,25Rij + 0,50Gij – 0,25Bij ILij = –0,50Rij + 0,50Bij
  • Eine alternative Ausführungsform der Erfindung arbeitet mit der folgenden mathematischen Beziehung: Lij = 0,50Rij + 0,48Gij + 0,02Bij GMij = –0,25Rij + 0,50Gij – 0,25Bij ILij = –0,50Rij + 0,50Bij
  • Der Vorteil der Verwendung eines Pseudoluminanzsignals, das durch einen verringerten blauen Anteil und einen verstärkten roten Kanalanteil charakterisiert ist, besteht in einer besseren Vorhersagbarkeit für die Abschätzung der Szenen-Helligkeit. Versuche mit räumlichen Filtern, die auf Luminanz- oder Pseudoluminanzsignale mit unterschiedlichen Mischungen roter, grüner und blauer Kanalanteile am Pseudoluminanzkanal angewandt wurden, ergaben bessere Ergebnisse, wenn der Anteil der blauen Kanalkomponente auf null verringert wurde. Mit der Verringerung der blauen Kanalkomponente von 0,333 auf 0,0 ergibt sich eine graduelle Auswirkung auf die Szenenhelligkeits-Vorhersageleistung. Auch andere Koeffizienten des blauen Kanalanteils ergeben eine bessere Helligkeits-Vorhersagbarkeit, etwa Koeffizienten im Bereich von 0,0 bis 0,10.
  • Der Standardkoeffizient für den blauen Kanal wird bei vielen Algorithmen auf 0,11 gesetzt, wobei der Rotkoeffizient bei 0,30 und der Grünkoeffizient bei 0,59 liegt. Diese Mischung aus roten, grünen und blauen Kanalanteilen am Luminanzsignal entspricht ungefähr dem Sehverhalten des Menschen. So wurde der blaue Kanalkoeffizient in der Praxis nicht auf unter 0,11 eingestellt. Die Erfindung nutzt Blaukanal-Koeffizienten unter 0,11 und erzielt damit verbesserte Helligkeits-Vorhersageergebnisse. Es wurden bereits Helligkeits-Vorhersageverfahren beschrieben, die andere Bildsignale als das Luminanzsignal, etwa ein Farbdifferenzsignal, verwenden. Neuartig für die Erfindung ist jedoch die Verwendung eines Pseudoluminanz signals, bei dem die roten, grünen und blauen Koeffizienten sämtlich größer oder gleich null, der blaue Kanalkoeffizient aber kleiner als 0,11 ist, für die Zwecke eines Helligkeits-Vorhersageverfahrens. Ebenfalls neuartig für die Erfindung ist die Verwendung eines Pseudoluminanzsignals, bei dem die roten, grünen und blauen Koeffizienten sämtlich größer als oder gleich null sind, ein blauer Kanalkoeffizient kleiner als 0,11 und ein roter Kanalkoeffizient größer als oder gleich dem grünen Kanalkoeffizienten ist.
  • Die bevorzugte Erfindung verwendet einen roten Kanalkoeffizienten von 0,60, einen grünen Kanalkoeffizienten von 0,40 und einen blauen Kanalkoeffizienten von 0,0. Diese Koeffizienten wurden in Versuchen mit einer Bilddatenbank und mit einer Reihe unterschiedlicher, mit räumlichen Filtern arbeitender Helligkeits-Vorhersagemethoden abgeleitet. Die Einzelheiten der Optimierung und der verschiedenen räumlichen Filter werden im Folgenden noch im einzelnen beschrieben. Für den Fachmann ist jedoch ersichtlich, dass die Erfindung auch mit anderen als den vorstehend genannten Koeffizientenwerten mit verbesserter Helligkeits-Vorhersageleistung ausgeführt werden kann.
  • Bei einem geringfügigen Anteil des blauen Kanals am Pseudoluminanz-Digitalbildkanal kann der Chrominanz-Digitalbildkanal auch als gelber Digitalbildkanal ausgelegt werden, da ein gelber Digitalbildkanal ja aus roten und grünen Komponenten zusammengesetzt ist. Aber selbst bei kleinen Anteilen eines blauen Kanals wird das Pseudoluminanzsignal vom gelben Signal unterschieden.
  • Erfindungsgemäß werden die Begriffe Rot, Grün und Blau in Bezug auf das sichtbare Spektrum verwendet. Für den Fachmann ist ersichtlich, dass das dem roten Digitalbildkanal eines digitalen Bildes entsprechende Signal im Wesentlichen aus den längeren Wellenlangen des sichtbaren Spektrums besteht. Diese Beschreibung soll jedoch nicht nahe legen, dass das dem digitalen Bildkanal entsprechende Signal keine Anteile an kurzen und mittleren Wellenlangen des sichtbaren Spektrums enthalten darf. Vielmehr soll damit gesagt werden, dass der Großteil des Anteils des sichtbaren Spektrums am roten Digitalbildkanal aus längeren sichtbaren Wellenlangen besteht. Entsprechend besteht der blaue Digitalbildkanal hauptsächlich aus den kurzen Wellenlängen des sichtbaren Spektrums und der grüne Digitalbildkanal hauptsächlich aus den mittleren Wellenlängen des sichtbaren Spektrums.
  • Für den Fachmann ist ferner ersichtlich, dass die Erfindung auch in der Weise ausgeführt werden kann, dass man vor der Digitalisierung eines Bildes (zum Beispiel eines gescannten fotografischen Filmbildes) ein Pseudoluminanzsignal mittels Spektralfiltern erzeugt.
  • Detailbeschreibung des Pixelierungsmoduls 120
  • Die bevorzugte Ausführungsform der Erfindung für das Helligkeitstonskalenmodul 100 ist in 8 im Detail dargestellt. Dabei werden die drei digitalen Bildkanäle (rot, grün und blau) eines digitalen Ursprungsbildes einem Luminanz-Chrominanz-Modul 110 zugeführt, das daraus ein LCC-Digitalbild mit einem Pseudoluminanz-Digitalbildkanal und zwei Chrominanz-Digitalbildkanälen erzeugt, die mit GM und IL bezeichnet sind. Das LCC-Digitalbild wird im Pixelierungsmodul 120 empfangen, das daraus ein pixeliertes LCC-Digitalbild mit einem pixelierten Pseudoluminanz-Digitalbildkanal, einem pixelierten Digitalbildkanal GM und einem pixelierten Digitalbildkanal IL erzeugt. Das Szenen-Helligkeitsbalancemodul 130 empfangt das pixelierte LCC-Digitalbild und die roten, grünen und blauen Digitalbildkanäle und erzeugt ein helligkeitsangepasstes Digitalbild.
  • In 9 zeigt das Bilddiagramm des Pixelierungsmoduls 120 ein Beispiel eines Ausgangs-Digitalbildkanals mit 2048 vertikalen Pixeln und 3072 horizontalen Pixeln. Für die Erzeugung des pixelierten Ausgabe-Digitalbildkanals werden nicht alle Pixel des Ursprungs-Digitalbildkanals verwendet. Der innere Pixelbereich 122 wird aus den mittleren 56,2% des Bildbereichs ausgewählt. Dies entspricht einem Pixelbereich mit Abmessungen von 75 Prozent der Abmessung des Ursprungs-Digitalbildkanals. Bei dem dargestellten Beispiel weist der innere Pixelbereich 122 2304 Pixel in horizontaler Richtung und 1536 Pixel in vertikaler Richtung auf. Der pixelierte Ausgabe-Digitalbildkanal enthält 36 horizontale und 24 vertikale Pixel. Jedes Pixel des pixelierten Ausgabe-Digitalbildkanals entspricht einem Pixelbereich 124 des Ursprungs-Digitalbildkanals.
  • Es gibt zahlreiche Methoden für die Berechnung eines Pixelwerts aus den in einem Pixelbereich enthaltenen Pixelwerten. Wegen seiner effizienten rechnerischen Lösung wird erfindungsgemäß das Pixel-Mittelungsverfahren bevorzugt. Es sei angenommen, dass pij die einem Pixelbereich entsprechenden Pixelwerte und qmn den für die Position in der mte Reihe und nte Spalte des pixelierten Digitalbildkanals berechneten Pixelwert repräsentieren. Dann ergibt sich der Wert von pij aus
    Figure 00200001
    worin N die Anzahl der im Pixelbereich enthaltenen Pixel wiedergibt. Bei dem in 9 dargestellten Beispiel weist der Pixelbereich 64×64 Pixel auf, so dass sich ein Wert N von 4096 ergibt. Das Pixelierungsverfahren lässt sich auch durch eine Faltung mittels eines räumlichen Filters und einen anschließenden Pixel-Subsampling-Prozess erreichen. Das erfindungsgemäße Verfahren ist rechnerisch effizienter.
  • Detailbeschreibung einer alternativen Ausführungsform des Helligkeitstonskalenmoduls 100
  • Eine alternative Ausführungsform der Erfindung für das Helligkeitstonskalenmodul 100 ist in 10 im Detail dargestellt. Dabei werden die drei digitalen Bildkanäle (rot, grün und blau) eines digitalen Ursprungsbildes einem Luminanz-Chrominanz-Modul 110 zugeführt, das daraus ein LCC-Digitalbild mit einem Pseudoluminanz-Digitalbildkanal und zwei Chrominanz-Digitalbildkanälen erzeugt, die mit GM und IL bezeichnet sind. Das LCC-Digitalbild wird im Pixelierungsmodul 120 empfangen, das daraus ein pixeliertes LCC-Digitalbild mit einem pixelierten Pseudoluminanz-Digitalbildkanal, einem pixelierten Digitalbildkanal GM und einem pixelierten Digitalbildkanal IL erzeugt. Das Szenen-Helligkeitsbalancemodul 130 empfangt das pixelierte LCC-Digitalbild und den Pseudoluminanz-Digitalbildkanal und erzeugt einen helligkeitsangepassten Pseudoluminanz-Digitalbildkanal. Die GM- und IL-Digitalbildkanäle und der helligkeitsangepasste Pseudoluminanz-Digitalbildkanal werden einem RGB-Umsetzer 140 zugeführt, der ein helligkeitsangepasstes Digitalbild erzeugt.
  • Detailbeschreibung des Helligkeitstransformationsmoduls 130
  • Das Helligkeitstransformationsmodul 130 ist im Detail in 11 dargestellt. Das Szenen-Helligkeitsbalancemodul 150 empfangt das pixelierte LCC-Digitalbild und erzeugt einen Helligkeitsbalancewert ψ, d. h. einen der bevorzugten mittleren Helligkeit des Ursprungs- Digitalbildes entsprechenden numerischen Wert. Der Helligkeitsbalancewert ψ und ein Referenz-Grauwert ρ werden dem Tonskalenfunktionsgenerator 160 zugeführt, der eine Helligkeitstonskalenfunktion berechnet. Das Tonskalenfunktions-Anwendungsmodul 170 empfangt einen oder mehrere Ursprungs-Digitalbildkanäle sowie die Helligkeitstonskalenfunktion und wendet die Helligkeitstonskalenfunktion auf den Ursprungs-Digitalbildkanal an. Der verarbeitete Digitalbildkanal wird als ausgeglichener Digitalbildkanal bezeichnet. Die bevorzugte Ausführungsform des Tonskalenfunktions-Anwendungsmoduls 170 empfängt einen roten, grünen und blauen Digitalbildkanal und erzeugt einen ausgeglichenen roten, grünen und blauen Digitalbildkanal.
  • Der Referenz-Grauwert ρ ist eine vom spezifischen Kalibrierverfahren des digitalen Bilderzeugungssystems abhängige numerische Konstante. Sie repräsentiert den Pixelwert, der der bevorzugten Helligkeit eines Digitalbildes entspricht, das keine Helligkeitsanpassung benötigt. Die mit der vorliegenden Erfindung verarbeiteten digitalen Bilder, deren berechneter Helligkeitsbalancewert ψ gleich dem Referenz-Grauwert ρ ist, benötigen somit keine Helligkeitsanpassung. Das beste Verfahren zur Bestimmung des Referenz-Grauwerts ρ besteht darin, die Ausgabegerätesteuerungen so einzustellen, dass das mit einem ordnungsgemäß belichteten Erfassungsgerät erzeugte digitale Bild eine bevorzugte oder optimale Wiedergabe ergibt.
  • Die numerische Differenz zwischen dem Helligkeitsbalancewert ψ und dem Referenz-Grauwert ρ gibt die erforderliche Helligkeitsveränderung oder den Umfang der Helligkeitsanpassung wieder. Dieser so genannte Helligkeits-Änderungswert δ ist durch die Formel δ = ρ – ψgegeben. Die mathematische Formel, die die Pixelwerte pij des Ursprungs-Digitalbildkanals zu den Pixelwerten p'ij des ausgeglichenen Ausgabe-Digitalbildes in Beziehung setzt, ist durch p'ij = pij + δgegeben. Die durch den Tonskalenfunktions-Generator 170 und das Tonskalen-Anwendungsmodul 170 in Kombination durchgeführte Helligkeitseinstellung ist ein Beispiel einer Transformation einer eindeutigen Funktion, d. h. jeder Eingabewert hat nur einen entsprechenden Ausgabewert. Diese Operation kann hardware- oder softwaremäßig als Additions- oder Subtraktions-Operation ausgeführt werden. Bei großen digitalen Bildern ist diese Operation als LUT-Transformation aber rechnerisch effizienter. Die Helligkeitseinstellungs-LUT lässt sich berechnen als LUT[k] = k + δwobei k Werte annimmt, die den gesamten Pixelwertbereich umfassen. Das Tonskalen-Anwendungsmodul 170 wendet die LUT auf die Pixelwerte des Digitalbildkanals gemäß folgender Formel an: p'ij = LUT[pij]worin der []-Ausdruck sich auf den LUT-Indexiervorgang bezieht, d. h. der Ausgabepixelwert p'ij ist durch den numerischen Wert gegeben, der in der LUT an dem durch den Eingabepixelwert pij bezeichneten Index gespeichert ist. Die durch den Tonskalenfunktions-Generator 160 erzeugte LUT stellt eine Ausführung einer Tonskalenfunktion dar. Für den Fachmann ist ersichtlich, dass die Erfindung nicht nur auf lineare Helligkeitstonskalenfunktionen beschränkt ist, sondern sich auch für kompliziertere Tonskalenfunktionen eignet, die sowohl die Helligkeits- als auch die Kontrasteigenschaften eines digitalen Bildes gleichzeitig verändern, d. h. für nicht-lineare Tonskalenfunktionen.
  • Detailbeschreibung des Szenen-Helligkeitsbalancemoduls 150
  • In 12 umfasst das Szenen-Helligkeitsbalancemodul 150 ein oder mehr Helligkeits-Vorhersagemodule 200, die jeweils einen Helligkeits-Vorhersagewert λ erzeugen. Die Helligkeits-Vorhersagewerte der einzelnen Helligkeits-Vorhersagemodule 200 werden bei M Modulen mit 1, 2, ..., M bezeichnet, die erzeugten Helligkeits-Vorhersagewerte mit λ1, λ2, ..., λM. Die Helligkeits-Vorhersagewerte werden durch den Helligkeits-Vorhersagegenerator 205 zu einem einzigen Ausgabe-Helligkeitsbalancewert ψ kombiniert, der dem in 11 dargestellten Tonskalenfunktions-Generator 160 zugeführt wird.
  • Das in 12 dargestellte Diagramm enthält drei Helligkeits-Vorhersagemodule 200, die illustrieren sollen, dass die Erfindung auch andere Helligkeits-Vorhersagemodule verwenden kann. Zwei der Helligkeits-Vorhersagemodule 200 sind in gestrichelten Linien dargestellt, was bedeutet, dass die bevorzugte Ausführungsform der Erfindung nur ein Helligkeits-Vorhersagemodul 200 verwendet. Beispielhafte Verfahren mit anderen Helligkeits-Vorhersagemodulen sind unter anderem die Berechnung des arithmetischen Mittels, des statistischen Mittelwerts, Maximums, Minimums oder des Mittelwerts der Pixelmaxima und Pixelminima. Der vom Helligkeits-Vorhersagegenerator 205 erzeugte Helligkeitsbalancewert ψ wird nach der mathematischen Formel ψ = α0 + λ1 – λ1o berechnet, worin λ1 der durch das Helligkeits-Vorhersagemodul 200 berechnete Helligkeits-Vorhersagewert, λ1o eine numerische Konstante, die so genannte Helligkeitsvorhersagewert-Abweichung, und α0 eine numerische Konstante, die so genannte Helligkeitsbalancewert-Abweichung, ist.
  • Die Helligkeitsvorhersagewert-Abweichung λ1o ist eine numerische Konstante, die die Differenz zwischen dem Referenz-Grauwert ρ und dem erwarteten, durch das Helligkeitsvorhersagemodul 100 erzeugten Wert für λ1 wiedergibt. Das beste Verfahren zur Bestimmung des Wertes für λ1o ist ein Kalibrierverfahren, bei dem eine Datenbank von Digitalbildern erfasst wird, diese Digitalbild-Datenbank verarbeitet wird und Ausdrucke der berechneten Digitalbilder erzeugt werden, wobei eine Gruppe von menschlichen Bewertern der Bildqualität der Druckwiedergaben der Digitalbilder optimieren, und der Wert für λ1o auf der Grundlage der Differenz zwischen den optimierten Druckwiedergaben und den berechneten Druckwiedergaben festgesetzt wird.
  • In 2 wird ein Satz digitaler Testbilder mit einem Erfassungsgerät 10 aufgenommen, mit einem erfindungsgemäßen digitalen Bildprozessor 20 verarbeitet, und von jedem Testbild wird mit einem Bildausgabegerät 30 ein Ausdruck erzeugt. Bei einer Testgruppe von N Testbildern werden die Werte für λ1o und α0 zeitweilig auf null gesetzt. Die einzelnen Digitalbilder werden mit einem digitalen Bildprozessor 20 verarbeitet, und es wird eine Gruppe von Helligkeitsbalancewerten ψ1, ..., ΨN erzeugt. Diese errechneten Werte für ψ werden Algorithmus-Balancewertesatz genannt und mit B1, ,BN bezeichnet. Eine Gruppe menschlicher Bewerter der Bildqualität betrachtet die Ausdrucke und beurteilt sie hinsichtlich der Helligkeit der ein zelnen Ausdrucke. Dann wird jedes digitale Bild mit dem von den einzelnen Bewertern modifizierten Wert für α0 erneut gedruckt, bis insgesamt die beste Helligkeit für die einzelnen Testbilder erreicht wurde. Die Werte der Helligkeitsbalancewerte ψ für die einzelnen Testbilder werden für die einzelnen Bewerter der Bildqualität getrennt aufgezeichnet, und alle ψ-Werte aller Bildqualitäts-Bewerter der Gruppe werden für die einzelnen Testbilder gemittelt. Für die Gruppe von N Testbildern wird ein Satz von N Helligkeitsbalance-Mittelwerten ψ1, ..., ΨN erzeugt. Diese optimierten Werte für ψ werden Ziel-Balancewerte genannt und mit A1, ,AN bezeichnet. Der Wert der Helligkeitsvorhersagewert-Abweichung λ1o wird berechnet, indem man die Differenz zwischen den Zielbalancewerten und den Algorithmus-Balancewerten bestimmt durch die Formel
    Figure 00240001
  • Bei gemäß vorstehender Gleichung eingestelltem Wert für λ1o und auf null eingestellter Helligkeitsbalancewert-Abweichung α0 wird das System auf die Helligkeitspräferenz des durchschnittlichen Bildqualitäts-Bewerters kalibriert. Der tatsächliche Wert für λ1o ist abhängig vom Wert des Referenz-Grauwerts ρ und der Präferenz der Gruppe der menschlichen Bildqualitäts-Bewerter.
  • Die Helligkeitsbalancewert-Abweichung α0 stellt eine Helligkeitspräferenz dar, die jeweils auf unterschiedliche Bilderzeugungsanwendungen oder persönliche Präferenzen eingestellt werden kann. Bei dem vorstehend beschriebenen Kalibrierverfahren für die Helligkeitsvorhersagewert-Abweichung λ1o wird der Wert der Helligkeitsbalancewert-Abweichung α0 auf null gestellt. Wenn jedoch der Benutzer eines erfindungsgemäßen digitalen Bilderzeugungssystems gemäß 2 eine Bildhelligkeit bevorzugt, die von jener Präferenz der Bildqualitäts-Bewerter abweicht, die der Bestimmung des Wertes des Helligkeitsvorhersagewert-Abweichung λ1o, zugrunde gelegt wurde, kann der Benutzer den Wert der Helligkeitsbalancewert-Abweichung α0 verändern. Hierzu kann der Benutzer bei Betrachtung eines auf dem Monitor 50 wiedergegebenen digitalen Bildes oder eines mit einem Bildausgabegerät 30 erzeugten ausgedruckten Bildes eine Änderung des Wertes für α0 über eine Eingabesteuervorrichtung 60 eingeben. Dabei kann die Änderung der Helligkeitsbalancewert-Abweichung α0 entweder ein zeln für jedes vom System verarbeitete digitale Bild oder einmalig für alle digitalen Bilder vorgenommen werden.
  • Gemäß 12 kann eine alternative Ausführungsform der Erfindung mit mehreren Helligkeitsvorhersagemodulen 200 arbeiten. Die mathematische Gleichung, die der Helligkeitsvorhersage-Generator 205 erfindungsgemäß zur Berechnung des Wertes des Helligkeitsbalancewerts ψ aus der Vielzahl von Helligkeitsvorhersagewerten λi anwendet, lautet ψ = α0 + Σiαii – λio)worin λi den Helligkeitsvorhersagewert des iten Helligkeitsvorhersagemoduls 200, λio die entsprechende Helligkeitsvorhersagewert-Abweichung darstellt, αi einen Helligkeitsvorhersage-Koeffizienten entsprechend dem iten Helligkeitsvorhersagewert λi und α0 die Helligkeitsbalancewert-Abweichung wiedergibt. Bei dieser alternativen Ausführungsform der Erfindung werden die Werte der Helligkeitsvorhersagewert-Abweichungen λio mittels desselben Kalibrierverfahren wie bei der bevorzugten Ausführungsform der Erfindung bestimmt. Dabei werden zur Bestimmung jeder Helligkeitsvorhersagewert-Abweichung der entsprechende Helligkeitsvorhersage-Koeffizient auf 1 und die übrigen Helligkeitsvorhersage-Koeffizienten auf 0 gestellt.
  • Die Werte der Helligkeitsvorhersage-Koeffizienten αi werden durch lineare Regression bestimmt. Für einen Satz von N Testbildern wird ein Satz von Helligkeitsvorhersagewerten λi erzeugt, die mit λ1i, ..., λNi bezeichnet werden. Als zweidimensionale Anordnung von Werten wiedergegeben, stellt der Satz von Helligkeitsvorhersagewerten λ1i, ..., λNi eine N×M-Helligkeitsvorhersagematrix [λ] dar. Der Satz von Zielbalancewerten A1, ,AN bildet eine N×1-Matrix [A]. Bei M Helligkeitsvorhersagemodulen 200 bilden die entsprechenden M Helligkeitsvorhersage-Koeffizienten α1, ..., αM eine M×1-Matrix [α]. Somit ist die Matrix-Gleichung, die die Zielbalancewerte, Helligkeitsvorhersagewerte und Helligkeitsvorhersage-Koeffizienten zueinander in Beziehung setzt, durch die Formel [A] = [λ][α] gegeben, worin die Matrizes [A] und [λ] bekannt sind und die Matrix [α] unbekannt ist. Der Wert der Matrix [α] lässt sich durch die folgende mathematische Formel berechnen: [α] = [[λ]t[λ]]–1[λ]t[A]worin die Matrixelemente [λ] gegeben sind durch
    λ11 λ12 ... λ1M
    λ11 λ12 ... λ1M
    ...
    λN1 λN2 ... λNM worin das Element λki den Helligkeitsvorhersagewert für das kte Testbild und das ite Helligkeitsvorhersagemodul 200 und der Ausdruck []t die Matrix-Umsetzoperation und der Ausdruck []–1 die Matrix-Umkehroperation bezeichnet. Die Werte der Helligkeitsvorhersage-Koeffizienten α1, ..., αM sind durch die Elemente der Matrix [α] gegeben. Die Helligkeitsbalancewert-Abweichung α0 ist von der linearen Regression nicht betroffen. Der Wert der Helligkeitsbalancewert-Abweichung α0 ist vom Benutzer wählbar.
  • Eine zweite alternative Ausführungsform der Erfindung verwendet die folgende mathematische Formel zur Berechnung des Helligkeitsbalancewerts ψ durch den Helligkeitsvorhersage-Generator 205: ψ = α0 + Σiαiλi worin die Matrixelemente [λ] gegeben sind durch
    1 λ11 λ12 ... λ1M
    1 λ11 λ12 ... λ1M
    ...
    1 λN1 λN2 ... λNM worin das Element λki den Helligkeitsvorhersagewert für das kte Testbild und das ite Helligkeitsvorhersagemodul 200, α1 einen dem iten Helligkeitsvorhersagewert λ entsprechenden Helligkeitsvorhersage-Koeffizienten und α0 die Helligkeitsbalancewert-Abweichung wiedergibt.
  • Die Werte der Helligkeitsvorhersage-Koeffizienten α1 werden durch die lineare Regressionsgleichung [A] = [λ][α]bestimmt, worin die Matrizes [A] und [λ] bekannt sind und die Matrix [α] unbekannt ist. Der Wert der Matrix [α] lässt sich durch die folgende mathematische Formel berechnen: [α] = [[λ]t[λ]]–1[λ]t[A]worin der Ausdruck []t die Matrix-Umsetzoperation und der Ausdruck []–1 die Matrix-Umkehroperation bezeichnet. Die Werte der Helligkeitsvorhersage-Koeffizienten α1, ..., αM sind durch die Elemente der Matrix [α] gegeben. Die Helligkeitsbalancewert-Abweichung α0 ist von der linearen Regression nicht betroffen. Der Wert der Helligkeitsbalancewert-Abweichung α0 ist vom Benutzer wählbar.
  • Detailbeschreibung des Helligkeitsvorhersagemoduls 200
  • Eine räumliche Gewichtungsmaske wird durch eine zweidimensionale Anordnung numerischer Gewichtungsfaktoren gebildet. Die numerischen Gewichtungsfaktoren einer räumlichen Gewichtungsmaske geben die relative Bedeutung des Pixelortes wieder. Räumliche Gewichtungsmasken dienen in Verbindung mit digitalen Bildkanälen zur Gewichtung der relativen Bedeutung der Pixelwerte des Digitalbildkanals.
  • In 13 erzeugt der Gaußsche Maskengenerator 250 eine Gaußsche Gewichtungsmaske mit denselben räumlichen Dimensionen, die auch der pixelierte Pseudoluminanz-Digitalbildkanal aufweist. Erfindungsgemäß können die Gewichtungsfaktoren auch mehr als zwei mögliche Werte haben. Bei der bevorzugten Ausführungsform der Erfindung liegen die Gewichtungs faktoren der Gaußschen Gewichtungsmaske zwischen 0,0 und 1,0, wobei die fortlaufenden numerischen Werte mit einer zweidimensionalen Gaußschen Formel wie folgt berechnet werden:
    Figure 00280001
    worin ξij den Gaußschen Gewichtungsfaktorwert an der Position der iten Reihe und der jten Spalte, io und jo die vertikalen und horizontalen Indizes des Mittelpunkts der Gaußschen Funktion, σi und σj die vertikalen und horizontalen Werte der Gaußschen Standardabweichung wiedergeben und K eine numerische Konstante ist, die die relative Bedeutung der mittleren Pixelpositionen gegenüber peripheren Pixelpositionen regelt.
  • Die Position des Mittelpunkts der Gaußschen Funktion ist abhängig von der Ausrichtung des entsprechenden verarbeiteten Digitalbildes. Bei nicht bekannter Ausrichtung werden die numerischen Konstanten io auf die Hälfte der vertikalen Dimension der Gaußschen räumlichen Gewichtungsmaske eingestellt. Desgleichen werden die numerischen Konstanten jo auf die Hälfte der horizontalen Dimension der Gaußschen räumlichen Gewichtungsmaske eingestellt. So wird bei dem in 9 dargestellten Digitalbildbeispiel die numerische Konstante io auf 17,5 eingestellt, wobei man von einem Pixelindex zwischen 0 und 35 ausgeht. Desgleichen wird die numerische Konstante jo auf 11,5 eingestellt, wobei man von einem Pixelindex zwischen 0 und 23 ausgeht. Dabei gibt ein Pixelindex von 0 horizontal und 0 vertikal die obere Position der Gaußschen räumlichen Gewichtungsmaske wieder, die der oberen linken Ecke des in 9 dargestellten pixelierten Pseudoluminanz-Digitalbildes entspricht. Bei bekannter Ausrichtung des Digitalbildes wird der Mittelpunkt der Gaußschen Funktion auf eine Position 60% zum unteren Rand der Gaußschen räumlichen Gewichtungsmaske gesetzt. Bei dem vorstehend beschriebenen Beispiel würde der Wert für io auf 17,5 und der Wert für jo auf 13,8 eingestellt.
  • Die bevorzugte Ausführungsform der Erfindung verwendet für den Parameter K einen Wert von 0,25. Damit erreicht man ein Gewichtungsverhältnis der mittleren Pixel zu den peripheren Pixeln von etwa 3 zu 1. Versuche mit vielen Digitalbildern haben gezeigt, dass dieser Wert gute Ergebnisse erbringt. Auch die Werte für σi und σj wurden empirisch durch Versuche mit großen Mengen von Digitalbildern festgelegt. Zwar werden erfindungsgemäß gute Ergebnisse mit einem Wertebereich für σi und σj erzielt, die besten Ergebnisse wurden aber erreicht, wenn σi und σj auf 25 Prozent der entsprechenden Dimension der Gaußschen räumlichen Gewichtungsmaske eingestellt wurden. Bei den beispielhaften Dimensionen mit 24 Reihen und 36 Spalten wird der Wert für σi auf 6,0 und der Wert für σj auf 9,0 gesetzt.
  • In 13 sind die Details des in der erfindungsgemäßen Ausführungsform verwendeten Helligkeitsvorhersagemoduls 200 dargestellt. Der Gradientenrechner 210 empfangt den pixelierten Pseudoluminanz-Digitalbildkanal des pixelierten LCC-Digitalbildes. Für jedes interessierende Pixel im pixelierten Pseudoluminanz-Digitalbildkanal wird mittels der Werte der in einem geringen Pixelbereich um die interessierenden Pixel herum befindlichen Pixel ein Satz von Gradientenpixelwerten entsprechend
    g1, g2, ..., gn
    berechnet. Die bevorzugte Ausführungsform der Erfindung verwendet einen lokalen Pixelumgebungsbereich von 3×3 Pixeln. Für die Zwecke der Erfindung wird ein Gradientenpixelwert mathematisch als der absolute Wert der Differenz zwischen zwei Pixeln definiert. Die Erfindung verwendet Pixeldaten, die durch ein logarithmisches Codewertbereichsverhalten charakterisiert sind. Wenn die Erfindung mit Pixeldaten ausgeführt wird, die durch ein lineares Codewertdomäneverhalten charakterisiert sind, ist die Definition eines Gradientenpixelwerts durch das Verhältnis von zwei Pixelwerten gegeben.
  • Die Berechnung des Gradientenpixelwerts ist ein Maß für die räumliche Aktivität insofern, als die Berechnung sich auf die Pixelmodulation bezieht, oder für die Variabilität des Pixelwertes innerhalb eines kleinen lokalen Bereichs von Pixeln um ein interessierendes Pixel herum. Als Beispiele für andere Maße für räumliche Aktivität sind zum Beispiel die für Pixel im Bereich um ein interessierendes Pixel berechnete Standardabweichung und mittlere Abweichungen zu nennen.
  • Erfindungsgemäß können mehr als ein Verfahren zur Berechnung der räumlichen Aktivität verwendet werden. Zum Beispiel wird das folgende Verfahren von P. A. Dondes und A. Rosenfeld im Zeitungsartikel Pixel classification based an gray level and local business (Pixelklassifizierung nach Graustufe und lokaler Aktivität), IEEE Transactions an Pattern Analysis and Machine Intelligence, Bd. PAMI-4, Nr. 1, Seiten 79–84, 1982 beschrieben. Die Gruppe der Gradientenpixelwerte wird durch Berechnung des absoluten Wertes der Pixeldifferenzen zwischen dem Wert des interessierenden Pixels und der einzelnen Pixel in der örtlichen Pixelumgebung ermittelt. Bei einem mittig um ein interessierendes Pixel e angeordneten 3×3-Pixelbereich
    a b c
    d e f
    g h i
    werden 8 Gradientenpixelwerte berechnet, da in einem 3×3-Pixelbereich 8 Pixel ohne das interessierende Pixel vorhanden sind. Die mathematische Formel für die einzelnen Gradientenpixelwerte lautet somit g1 = |a – e|g2 = |b – e|g3 = |c – e|g4 = |d – e| g5 = |f – e|g6 = |g – e|g7 = |h – e|g8 = |i – e|worin e den Wert des Pixels pij an der Position der iten Reihe und der jten Spalte repräsentiert. Bei einem 5×5-Pixelumgebungsbereich würden 24 Gradientenpixelwerte berechnet. Da für die Berechnung der Gruppe von Gradientenpixelwerten jeweils zwei Pixel zur Bildung einer Differenz erforderlich sind, erzeugen die interessierenden Pixel am äußeren Rand des pixelierten Pseudoluminanz-Digitalbildkanals in der Gruppe der Gradientenpixelwerte weniger Gradientenpixelwerte.
  • Bei einer alternativen Ausführungsform der Erfindung wird die Gruppe von Gradientenpixelwerten dadurch berechnet, dass man die horizontalen und vertikalen Pixeldifferenzen benachbarter Pixel in der vorgegebenen lokalen Pixelumgebung berechnet. Bei einer 3×3-Pixelumgebung werden 6 horizontale und 6 vertikale Gradientenpixelwerte, insgesamt also 12 Gradientenpixelwerte, berechnet. Die mathematische Formel für die einzelnen vertikalen Gradientenpixelwerte lautet somit g1 = |a – d|g2 = |d – g|g3 = |b – e| g4 = |e – h|g5 = |c – f|g6 = |f – i| und für die horizontalen Gradientenpixelwerte g7 = |a – b|g8 = |b – c|g9 = |d – e| g10 = |e – f|g11 = |g – h|g12 = |h – i|
  • Der Satz von Gradientenpixelwerten wird dem Minimum-Detektor 220 zugeführt, der die Gradientenpixelwerte in einer Rangordnung sortiert, d. h. entweder in aufsteigender oder in absteigender Ordnung. Nach dem Sortieren des Satzes der Gradientenpixelwerte wird aus dem Satz eine Rangordnungsstatistik erstellt, zum Beispiel nach dem Minimum, Maximum oder Mittelwert. Die bevorzugte Ausführungsform der Erfindung arbeitet mit der Minimum-Rangordnungsstatistik. Die statistische Rangordnungsmenge nennt man den Rangordnungs-Gradientenpixelwert Gro, der gegeben ist durch Gro = MIN(g1, g2, ..., gn).
  • Die Minimum- und die Maximum-Rangordnungsstatistik sind Sonderfälle, die man erhalten kann, ohne den Satz der Gradientenpixelwerte tatsächlich sortieren zu müssen.
  • Bei einer alternativen Ausführungsform der Erfindung werden zwei Gradientenpixelwerte dadurch errechnet, dass man die Summen der horizontalen und die Summen der vertikalen Pixeldifferenzen benachbarter Pixel innerhalb der vorgegebenen lokalen Pixelumgebung berechnet. Bei einem Umgebungsbereich von 3×3 Pixeln werden ein horizontaler und ein vertikaler Gradientenpixelwert berechnet. Die mathematischen Formeln für die beiden Gradientenpixelwerte lauten g1 = |a – d| + |d – g| + |b – e| + |e – h| + |c – f| + |f – i|und g2 = |a – b| + |b – c| + |d – e| + |e – f| + |g – h| + |h – i|
  • Der berechnete Gradientenpixelwert der Rangordnung Gro ist bei dieser Ausführungsform gegeben durch Gro = MIN(g1, g2).
  • Bei einer alternativen Ausführungsform der Erfindung wird der Gradientenpixelwert Gro der Rangordnung dadurch berechnet, dass man den Minimum- und den Maximum-Pixelwert innerhalb der lokalen Pixelumgebung um ein interessierendes Pixel herum berechnet. Bei einem Pixelbereich um ein interessierendes Pixel e herum von 3×3 Pixeln
    a b c
    d e f
    g h i
    ist der Gradientenpixelwert Gro der Rangordnung gegeben durch Gro = max(a, b, c, d, e, f, g, h, i) – min(a, b, c, d, e, f, g, h, i).
  • Der Gradientenpixelwert Gro der Rangordnung gibt ein Maß für die räumliche Aktivität eines lokalen Bereichs um das interessierende Pixel herum. Der Gradientenpixelwert Gro der Rangordnung wird vom Gradientenmaskengenerator 230 dazu verwendet, einen Gewichtungsfaktor φ zu erzeugen, der als Funktion des Gradientenpixelwertes Gro der Rangordnung nach der Formel φ = γ(Gro)bestimmt wird, worin γ() durch die Gammafunktion als Integration einer Gaußschen Verteilung gegeben ist. Die Funktion γ() ist eine durch die Gleichung
    Figure 00320001
    gegebene Transformation einer eindeutigen Funktion, worin yo einen Mindestgewichtungsfaktor, xmax einen maximalen Abszissenwert der Variablen x, xt einen Übergangsparameter und σx einen Übergangsratenparameter repräsentiert. Erfindungsgemäß können die Gewichtungsfaktoren mehr als zwei Werte annehmen.
  • Ein Beispiel einer Gammafunktion g(x) ist in 14 dargestellt, wobei yo auf 1, xt auf 50, xmax auf 100, und σX auf 10 eingestellt sind. Wie aus der in 14 dargestellten Kurve der Gammafunktion ersichtlich ist, bestimmt der Übergangsparameter xt den Umkehrpunkt bzw. den Punkt der maximalen Steilheit der Gammafunktion. Der Übergangsratenparameter σX bestimmt die Steilheit der Gammafunktion am Umkehrpunkt.
  • Der Gewichtungsfaktor φ wird für jedes Pixel im pixelierten Pseudoluminanz-Digitalbildkanal berechnet. So stellt φij einen für das Pixel an der Position der iten Reihe und der jten Spalte berechneten Gewichtungsfaktor dar. Diese zweidimensionale Anordnung von Gewichtungsfaktoren bildet eine räumliche Gewichtungsmaske. Die durch den Gradientenmaskengenerator 230 erzeugte Gewichtungsmaske wird im Folgenden räumliche Gradientengewichtungsmaske genannt. In der bevorzugten Ausführungsform der Erfindung wird eine räumliche Gradientengewichtungsmaske verwendet, deren Population aus auf die Werte über oder gleich 0 und unter oder gleich 1 beschränkten Gewichtungsfaktoren φ besteht. Für den Fachmann ist ersichtlich, dass die Erfindung auch mit Gewichtungsfaktoren φ außerhalb von 1 arbeiten kann. Insbesondere arbeitet eine schnelle Ausführung der Gewichtungsfaktoren φ mit ganzzahligen Werten zwischen 0 und 4095.
  • Eine alternative Ausführungsart der Erfindung verwendet den in der bevorzugten Ausführungsform beschriebenen statistischen Gradientenpixelwert direkt als Gewichtungsfaktor φ. Bei dieser Ausführungsart lautet die mathematische Formel φ = Gro.
  • Gewichteter Mittelwertrechner 240
  • Der räumlich gewichtete Mittelwertrechner 240 gemäß 13 empfängt die räumliche Gradientengewichtungsmaske vom Gradientenmaskengenerator 230, die räumliche Gaußsche Gewichtungsmaske vom Gaußschen Maskengenerator 250 und den pixelierten Pseudoluminanz-Digitalbildkanal vom Pixeliermodul 120. Der räumlich gewichtete Mittelwertrechner 240 erzeugt durch eine numerische Integrationsgleichung
    Figure 00340001
    einen Helligkeitsvorhersagewert λ, worin i und j die Reihen- und Spaltenpixelindizes, pij den Wert des Pixels des Pseudoluminanz-Digitalbildkanals, φij den Wert des Gradientengewichtungsfaktors und den Wert des räumlichen Gaußschen Gewichtungsfaktors repräsentieren. Der Helligkeitsvorhersagewert λ stellt einen räumlich gewichteten Mittelwert der Pixelwerte dar, der eine gute Schätzung der mittleren Helligkeit des digitalen Bildes darstellt.
  • Der optimale Wert des vom Gradientenmaskengenerator 230 gemäß 13 verwendeten Gradientenschwellenwerts λ wird dadurch bestimmt, dass man die Standardabweichung von Druckfehlern einer Ausführungsart des in 2 dargestellten digitalen Bildprozessors 20 minimiert. Für den Satz von N Testbildern wird ein Satz von mit λ1, ..., λN bezeichneten Helligkeitsvorhersagewerten λj erzeugt, und zwar jeweils ein λ-Wert je Testbild. Der im Kalibrierprozess verwendete Satz von Zielbalancewerten A1, ,AN wird wieder aufgerufen. Durch Subtraktion der Zielbalancewerte von den Helligkeitsvorhersagewerten nach der Formel j = λj – Aj wird ein Satz von Balancefehlerwerten ε1, ,εN erzeugt, worin der Index j das jte Testbild bezeichnet. Dann wird der Gradientenschwellenwert γ solange verändert, bis eine minimale statistische Standardabweichung der Balancefehlerwerte ε1, ,εN gefunden ist.

Claims (10)

  1. Verfahren zum Berechnen eines Helligkeitsbalancewertes für ein Originalbild mit einem Anteil an roten, grünen und blauen Wellenlängen des sichtbaren Wellenlängenspektrums, mit den Schritten: a) Erzeugen eines oder mehrerer Pseudoluminanzwerte anhand des Originalbildes, worin i) der Anteil der roten Wellenlängen am Pseudoluminanzwert größer ist als der Anteil der grünen Wellenlangen oder gleich groß ist; ii) der Anteil der grünen Wellenlängen am Pseudoluminanzwert größer ist als der Anteil der blauen Wellenlängen; iii) der Anteil der roten und grünen Wellenlängen am Pseudoluminanzwert größer ist als null, und iv) der Anteil der blauen Wellenlängen am Pseudoluminanzwert größer ist als null oder gleich null ist; und b) Verwenden der Pseudoluminanzwerte zum Berechnen eines Helligkeitsbalancewertes.
  2. Verfahren nach Anspruch 1 zur Verwendung in einer Belichtungssteuervorrichtung, wobei der Helligkeitsbalancewert sich aus Pseudoluminanzwerten ableitet, die als Ausgang einer lichtempfindlichen Vorrichtung in der Belichtungssteuervorrichtung erzeugt werden durch Anwenden eines Gelb-Orange-Filters über der lichtempfindlichen Vor richtung, und wobei der Helligkeitsbalancewert von der Belichtungssteuervorrichtung zum Einstellen der Belichtung für ein lichtempfindliches Material zur Erzeugung eines fertigen Bildes verwendet wird.
  3. Verfahren nach Anspruch 2, worin die lichtempfindliche Vorrichtung eine einzelne Fotozelle ist.
  4. Verfahren nach Anspruch 2, worin die lichtempfindliche Vorrichtung eine Anordnung aus Fotozellen ist.
  5. Verfahren nach Anspruch 2, worin die Belichtungssteuervorrichtung eine Kamera ist.
  6. Verfahren nach Anspruch 2, worin die Belichtungssteuervorrichtung ein fotografischer Drucker ist.
  7. Verfahren nach Anspruch 1, worin der Helligkeitsbalancewert erhalten wird durch Erzeugen eines digitalen Bildes des Originalbildes und durch Bearbeiten des digitalen Bildes zum Ableiten des Helligkeitsbalancewertes.
  8. Verfahren nach Anspruch 7, worin das Bearbeiten des digitalen Bildes die Schritte umfasst: a) Erzeugen eines Pseudoluminanzwertes für zwei oder mehr Pixel im digitalen Bild zum Erzeugen eines Pseudoluminanz-Digitalbildkanals, und b) Anwenden eines räumlichen Filters auf den Pseudoluminanz-Digitalbildkanal zum Erzeugen des Helligkeitsbalancewertes.
  9. Verfahren nach Anspruch 8 zur Verwendung in einer Belichtungssteuervorrichtung, worin der Helligkeitsbalancewert von einer Belichtungssteuervorrichtung verwendet wird zum Einstellen der Belichtung für ein lichtempfindliches Material zur Erzeugung eines fertigen Bildes.
  10. Verfahren nach Anspruch 8, worin der Helligkeitsbalancewert verwendet wird zum Einstellen der Balance des digitalen Bildes.
DE60133160T 2000-07-20 2001-07-02 Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern Expired - Lifetime DE60133160T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/619,998 US6636646B1 (en) 2000-07-20 2000-07-20 Digital image processing method and for brightness adjustment of digital images
US619998 2000-07-20

Publications (2)

Publication Number Publication Date
DE60133160D1 DE60133160D1 (de) 2008-04-24
DE60133160T2 true DE60133160T2 (de) 2009-04-30

Family

ID=24484164

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60133160T Expired - Lifetime DE60133160T2 (de) 2000-07-20 2001-07-02 Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern

Country Status (4)

Country Link
US (1) US6636646B1 (de)
EP (1) EP1176554B1 (de)
JP (1) JP4478358B2 (de)
DE (1) DE60133160T2 (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19952608A1 (de) * 1999-11-02 2001-05-03 Philips Corp Intellectual Pty Filmabtaster mit Einrichtung zur Scharfstellung
US7289154B2 (en) * 2000-05-10 2007-10-30 Eastman Kodak Company Digital image processing method and apparatus for brightness adjustment of digital images
US7068396B1 (en) * 2000-11-21 2006-06-27 Eastman Kodak Company Method and apparatus for performing tone scale modifications on a sparsely sampled extended dynamic range digital image
FI109391B (fi) * 2000-12-08 2002-07-15 Nokia Corp Menetelmä ja laite tiedonsiirtoon
US6751362B2 (en) * 2001-01-11 2004-06-15 Micron Technology, Inc. Pixel resampling system and method for text
JP2002354327A (ja) * 2001-05-30 2002-12-06 Minolta Co Ltd 画像撮影装置、その操作装置、および画像撮影システム
US20030086002A1 (en) * 2001-11-05 2003-05-08 Eastman Kodak Company Method and system for compositing images
JP4032763B2 (ja) * 2002-02-08 2008-01-16 大成建設株式会社 保護対象物の画像による復元方法及びそのシステム
WO2004013608A2 (en) * 2002-08-02 2004-02-12 Rush-Presbyterian-St. Luke's Medical Center Methods for eliminating false data from comparative data matrices and for quantifying data matrix quality
KR100970621B1 (ko) * 2003-05-26 2010-07-15 엘지전자 주식회사 영상 보정 장치
US7702236B2 (en) 2006-02-14 2010-04-20 Fotonation Vision Limited Digital image acquisition device with built in dust and sensor mapping capability
US7324704B2 (en) * 2003-09-11 2008-01-29 Primax Electronics Ltd. Method of repairing scratches in digital images
US8369650B2 (en) 2003-09-30 2013-02-05 DigitalOptics Corporation Europe Limited Image defect map creation using batches of digital images
US7340109B2 (en) * 2003-09-30 2008-03-04 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images dependent upon changes in extracted parameter values
US7369712B2 (en) * 2003-09-30 2008-05-06 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on multiple occurrences of dust in images
US7424170B2 (en) * 2003-09-30 2008-09-09 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on determining probabilities based on image analysis of single images
US7590305B2 (en) 2003-09-30 2009-09-15 Fotonation Vision Limited Digital camera with built-in lens calibration table
US7272266B2 (en) * 2003-09-30 2007-09-18 Benq Corporation Method for restoring faded photographs and film
US7295233B2 (en) 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US7463296B2 (en) 2004-04-01 2008-12-09 Microsoft Corporation Digital cameras with luminance correction
US7317843B2 (en) * 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
US7702177B2 (en) * 2005-04-25 2010-04-20 Samsung Electronics Co., Ltd. Method and apparatus for adjusting brightness of image
JP2007080466A (ja) * 2005-09-16 2007-03-29 Toshiba Corp 光ヘッド装置及び光ディスク装置
DE102005060893C5 (de) * 2005-12-20 2019-02-28 Manroland Goss Web Systems Gmbh Verfahren zur Ermittlung eines drucktechnischen Messwertes
JP4890974B2 (ja) * 2006-06-29 2012-03-07 キヤノン株式会社 画像処理装置、及び画像処理方法
JP4926568B2 (ja) * 2006-06-29 2012-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4890973B2 (ja) 2006-06-29 2012-03-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
KR100901353B1 (ko) * 2007-05-25 2009-06-05 주식회사 코아로직 영상 처리 장치 및 그 방법
JP5104452B2 (ja) * 2008-03-25 2012-12-19 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
US8213052B2 (en) 2009-07-31 2012-07-03 Eastman Kodak Company Digital image brightness adjustment using range information
US8218823B2 (en) * 2009-08-11 2012-07-10 Eastman Kodak Company Determining main objects using range information
CN102726123B (zh) * 2010-01-15 2015-02-18 皇家飞利浦电子股份有限公司 用于对局部化光贡献进行2d检测的方法和系统
JP5609118B2 (ja) * 2010-01-15 2014-10-22 セイコーエプソン株式会社 印刷制御装置およびプログラム並びにモノクロ画像製造方法
US8614767B2 (en) 2010-09-20 2013-12-24 Canon Kabushiki Kaisha Preview image display compensation based on environmental lighting conditions
CN102081275B (zh) * 2010-12-24 2012-07-25 中国科学院长春光学精密机械与物理研究所 一种基于数字图像的经纬仪全自动实时调光方法
CN102169575B (zh) * 2011-04-22 2012-12-05 艾民 一种非基色单色光图像数据的处理方法及其处理装置
JP6116272B2 (ja) * 2013-02-08 2017-04-19 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
KR101679279B1 (ko) 2015-09-10 2016-11-24 한국과학기술원 카메라 노출 조절 장치 및 방법
WO2017168473A1 (ja) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 文字図形認識装置、文字図形認識方法、及び文字図形認識プログラム
KR101816449B1 (ko) 2016-10-20 2018-01-08 현대자동차주식회사 다시점 카메라의 통합 노출 제어 장치, 그를 포함한 시스템 및 그 방법
KR20200046140A (ko) 2018-10-15 2020-05-07 현대자동차주식회사 차량 및 그 제어방법
US11102488B2 (en) * 2019-05-31 2021-08-24 Ati Technologies Ulc Multi-scale metric-based encoding

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4464676A (en) * 1980-12-15 1984-08-07 National Semiconductor Corporation Digital color modulator
JPH0810940B2 (ja) * 1987-01-09 1996-01-31 ソニー株式会社 輝度信号形成回路
US4984013A (en) 1988-04-26 1991-01-08 Fuji Photo Film Co., Ltd. Method for controlling exposure amount in copying of color originals
DE58905761D1 (de) 1988-09-23 1993-11-04 Gretag Imaging Ag Belichtungssteuerungsverfahren und fotografisches farbkopiergeraet.
JPH05219513A (ja) * 1992-01-27 1993-08-27 Ikegami Tsushinki Co Ltd 固体撮像装置
JPH07135668A (ja) * 1993-11-09 1995-05-23 Fuji Photo Film Co Ltd カラー画像入力装置及びそれに用いるオフセット値検出方法、輝度ピークバランス検出回路並びにホワイトバランス検出方法
JPH099287A (ja) * 1995-06-20 1997-01-10 Matsushita Electric Ind Co Ltd オートホワイトバランス回路
WO1998025403A2 (en) * 1996-12-06 1998-06-11 Koninklijke Philips Electronics N.V. Mixing a graphics signal and a video signal
DE69810490T2 (de) * 1997-01-29 2003-10-30 Thomson Multimedia Inc Fernsehprojektionsgerät mit holographischen bildschirmen mit mitte-bis-rand-variationen
EP0969674A3 (de) * 1998-07-03 2004-01-02 Canon Kabushiki Kaisha Bildaufnahmegerät zur Verarbeitung von Bildsignalen in Blöcken
JP2001178672A (ja) * 1999-12-24 2001-07-03 Fuji Photo Film Co Ltd 蛍光画像表示装置
US7006668B2 (en) * 1999-12-28 2006-02-28 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4433347B2 (ja) * 2000-01-17 2010-03-17 富士フイルム株式会社 蛍光撮像装置
DE10108277A1 (de) * 2001-02-21 2002-08-29 Franz Josef Gasmann Aufnahmegerät, Verfahren zur Rekonstruktion einer Bildinformation und Verfahren zur Kalibrierung einer Bildinformation
US7172553B2 (en) * 2001-05-16 2007-02-06 Olympus Corporation Endoscope system using normal light and fluorescence

Also Published As

Publication number Publication date
EP1176554A1 (de) 2002-01-30
DE60133160D1 (de) 2008-04-24
JP2002125136A (ja) 2002-04-26
EP1176554B1 (de) 2008-03-12
JP4478358B2 (ja) 2010-06-09
US6636646B1 (en) 2003-10-21

Similar Documents

Publication Publication Date Title
DE60133160T2 (de) Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern
DE69937707T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung
DE602005003917T2 (de) Verfahren und Vorrichtung zur Erzeugung von Bildern mit hoher Dynamik aus mehreren Belichtungen
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE60132278T2 (de) Rauschverminderungsverfahren unter Verwendung von Farbinformationen, einer Vorrichtung und eines Programms zur Digital-Bildverarbeitung
DE69913534T2 (de) Verfahren und vorrichtung zur bilderzeugung
DE69733946T2 (de) Farbsensor mit luminanzpriorität
DE60207417T2 (de) Verfahren und vorrichtung zur erzeugung formatierter information, die mit den fehlern zumindest eines geräts einer kette verbunden ist, insbesondere der bildschärfeverzerrung
US7289154B2 (en) Digital image processing method and apparatus for brightness adjustment of digital images
DE60104632T2 (de) Verfahren und System zur Rauschbeseitigung für ein spärlich abgetastetes Bild mit erweitertem Dynamikbereich
DE60222486T2 (de) Bildverarbeitung für digitales Kino
DE69737984T2 (de) Bildverarbeitungsverfahren und -gerät
DE602005002739T2 (de) Fraktal-skr-verfahren zur auswertung der bildqualität
DE60104508T2 (de) Verfahren und vorrichtung zum erzeugen eines bildes geringer auflösung aus einem spärlich abgetasteten bild mit erweitertem dynamikbereich
DE60014956T2 (de) Verfahren und System für die Verwendung von Eichzonen in der Elektronischen Filmentwicklung
DE69633319T2 (de) Bildreproduktionsverfahren und -gerät
DE19855885A1 (de) Bildverarbeitungsverfahren und -vorrichtung
DE60127016T2 (de) Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur
DE102005028472A1 (de) Verfahren und Vorrichtung zum Einstellen eines Weißabgleichs
DE69937706T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
DE112017001458T5 (de) Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung und Steuerverfahren davon
DE4107504A1 (de) Vorrichtung zum herstellen von reproduktionen
DE69927239T2 (de) System und verfahren zur verarbeitung von bildern
DE69937708T2 (de) Digitales Fotofinishingsystem mit digitaler Bildverarbeitung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition