DE60127631T2 - Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger - Google Patents

Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger Download PDF

Info

Publication number
DE60127631T2
DE60127631T2 DE60127631T DE60127631T DE60127631T2 DE 60127631 T2 DE60127631 T2 DE 60127631T2 DE 60127631 T DE60127631 T DE 60127631T DE 60127631 T DE60127631 T DE 60127631T DE 60127631 T2 DE60127631 T2 DE 60127631T2
Authority
DE
Germany
Prior art keywords
tap
class
circuit
pixel
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60127631T
Other languages
English (en)
Other versions
DE60127631D1 (de
Inventor
Tetsujiro Kondo
Hideo Nakaya
Tsutomu Watanabe
Hideki Ohtsuka
Yasuaki Takahashi
Seiji Wada
Takahiro Nagano
Koji Ohta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE60127631D1 publication Critical patent/DE60127631D1/de
Publication of DE60127631T2 publication Critical patent/DE60127631T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Description

  • Diese Erfindung betrifft eine Bildverarbeitungsanordnung und ein Bildverarbeitungsverfahren und ein Aufzeichnungsmedium und insbesondere eine Bildverarbeitungsanordnung und ein Bildverarbeitungsverfahren und ein Aufzeichnungsmedium zur Verarbeitung oder Umsetzung von Bildern.
  • Als eine Technik zur Verbesserung der Qualität wie beispielsweise der Auflösung eines Bildsignals wird beispielsweise eine Klassifikations-adaptive Verarbeitung angewendet, die aus der veröffentlichten Japanischen Patentanmeldung Nr. JP-A-09 74543 und aus der Beschreibung des korrespondierenden US-Patents US-A-5 946 044 hervorgeht.
  • Bei einer Klassifikations-adaptiven Verarbeitung werden von einem Eingabebildsignal ein Klassenabgriff und ein Prädiktionsabgriff für jedes Zielpixel des Eingabebildsignals erhalten. Das Zielpixel wird auf der Basis des Klassenabgriffs in eine von voreingestellten Klassen klassifiziert, und Benutzung eines Prädiktionskoeffizientensatzes, der im Voraus durch Lernen für jede entsprechend der Klassifikation ausgewählten Klasse und des Prädiktionsabgriffs erzeugt wird, wird eine arithmetische Operation ausgeführt. Infolgedessen wird ein Ausgabebildsignal, das eine höhere Qualität als das Eingabebildsignal aufweist, erzeugt.
  • Bei der Klassifikationsadaptivverarbeitung können sich der Klassenabgriff und der Prädiktionsabgriff des Pixels möglicherweise außerhalb des effektiven Bereichs des Bilds befinden. In diesem Fall besteht eine hohe Wahrscheinlichkeit, dass das Pixel außerhalb des effektiven Bereichs keinen normalen Pixelwert aufweist. Deshalb wird bei der konventionellen Klassifikationsadaptivverarbeitung das Pixel mit dem sich außerhalb des effektiven Bereichs des Bilds befindlichen Klassenabgriff und Prädiktionsabgriff wie in 1 gezeigt maskiert und wird infolgedessen nicht benutzt.
  • Als ein Beispiel dieser Klassifikationsadaptivverarbeitung wird ein aufgrund eines Fehlers zum Korrigieren durch einen Fehlerkorrekturcode oder aufgrund eines Paketverlusts fehlendes Pixel durch eine die umgebenden Pixel benutzende Klassifikationsadaptivverarbeitung als ein Klassenabgriff und ein Prädiktionsabgriff wiederhergestellt.
  • In diesem Fall kann auch wie in 1 gezeigt der Pixelwert durch eine die Pixelwerte der um das Zielpixel herum angeordneten Pixel benutzende Klassifikationsadaptivverarbeitung eingestellt werden.
  • Konventionell wird eine Verarbeitung mit der sogenannten Gleichabgriffstruktur unter Benutzung von Pixeln ausgeführt, die relativ ähnliche positionelle Relationen mit dem fehlenden Pixel im ganzen Schirm aufweisen.
  • Wenn die um das fehlende Pixel herum angeordneten Pixel außerhalb des effektiven Bereichs des Bilds sind, ist der eingestellte Pixelwert kein normaler Wert. Deshalb werden die auf den Rändern des resultierenden Bilds angeordneten Pixel wie in 1 gezeigt maskiert und werden infolgedessen nicht benutzt.
  • Überdies wird konventionell ungeachtet der physikalischen Positionen der Pixel auf dem Schirm eine ähnliche Verarbeitung ausgeführt.
  • Wenn das Bild maskiert ist, ist das Bild in der Größe reduziert, und die Auflösung des resultierenden Bilds ist im Wesentlichen erniedrigt. Da überdies die Verarbeitungsinhalte entsprechend den Positionen von Pixeln auf dem Schirm nicht geändert werden und ungeachtet der physikalischen Positionen von Pixeln auf dem Schirm eine ähnliche Verarbeitung ausgeführt wird, wird eine signifikante Verbesserung in der Qualität nicht realisiert.
  • Im Hinblick auf den vorhergehenden Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, ungeachtet der Positionen von Pixeln auf dem Schirm eine konstante Erzeugung eines Bildes hoher Qualität zu ermöglichen.
  • Aus dem US-Patent US-A-5 946 044 (oben zitiert) geht eine Bildverarbeitungsanordnung generell entsprechend dem Oberbegriff des Anspruchs 1 hervor.
  • Die vorliegende Erfindung stellt eine Bildverarbeitungsanordnung nach Anspruch 1, ein Bildverarbeitungsverfahren nach Anspruch 11 und ein Aufzeichnungsmedium nach Anspruch 12 bereit.
  • Die Erfindung wird nun anhand der beigefügten Zeichnungen beispielhaft beschrieben, bei denen:
  • 1 eine Maske von Pixeln darstellt;
  • 2 den Aufbau einer Ausführungsform einer Bildverarbeitungsanordnung gemäß der vorliegenden Erfindung zeigt;
  • 3 einen exemplarischen Aufbau einer Effektivpixelbereichsberechnungsschaltung zeigt;
  • 4 ein Effektivpixelbereichsvertikalkennzeichen VF und ein Effektivpixelbereichshorizontalkennzeichen HF darstellt;
  • 5 Pixel um ein Ziel einer Erzeugung herum darstellt;
  • 6 eine exemplarische Konstruktion eines Abgriffs an einem Rand eines Bilds zeigt;
  • 7 eine exemplarische Konstruktion eines Abgriffs an einem Rand eines Bilds zeigt;
  • 8 ein Blockdiagramm ist, das den Aufbau einer Fehlendpixelerzeugungsschaltung zeigt;
  • 9 ein Flussdiagramm zur Erläuterung der Verarbeitung bei einer Vorverarbeitungsschaltung ist;
  • 10 den Aufbau einer Bewegungsklassenerzeugungsschaltung zeigt;
  • 11 den Aufbau einer Bewegungsdetektierungsschaltung zeigt;
  • 12A und 12B Abgriffe zeigt, die zur Berechnung einer Zeitaktivität benutzt werden;
  • 13 einen Abgriff zeigt, der zur Berechnung einer Raumaktivität benutzt wird;
  • 14 Schwellenwerte für eine Bewegungsunterscheidung darstellt;
  • 15 ein Flussdiagramm zur Erläuterung der Verarbeitung zum Setzen eines Bewegungsklassencodes MCC der Bewegungsunterscheidungsschaltung ist;
  • 16 Pixel darstellt, die zur Unterscheidung durch eine Majoritätsentscheidung des Bewegungsklassencodes MCC benutzt werden;
  • 17 ein Flussdiagramm zur Erläuterung der Verarbeitung zum Setzen des Bewegungsklassencodes MCC der Bewegungsdetektierungsschaltung ist;
  • 18 eine exemplarische Konstruktion eines Abgriffs an einem Rand eines Bilds zeigt;
  • 19 eine exemplarische Konstruktion eines Abgriffs an einem Rand eines Bilds zeigt;
  • 20 Pixel darstellt, die zu einer Interpolationsverarbeitung benutzt werden;
  • 21 ein Pixel darstellt, bei dem sein Pixelwert substituiert ist;
  • 22 ein Blockdiagramm ist, das einen anderen Aufbau der Fehlendpixelerzeugungsschaltung zeigt;
  • 23 den Aufbau einer Ausführungsform einer Bildverarbeitungsanordnung zeigt, die einen Koeffizientensatz erzeugt, der von der Bildverarbeitungsanordnung zum wahlweisen Ausführen eines oder mehrerer Moden von einem Bildverarbeitungsmodus zur Ausführung einer Fehlendpixelerzeugung, einer Bildverarbeitung in Bezug auf eine chromatische Aberration und einem Bildverarbeitungsmodus in Bezug auf die Telopposition benutzt wird;
  • 24 eine chromatische Aberration darstellt;
  • 25A und 25B eine chromatische Aberration darstellen;
  • 26A bis 26C ein Schalten eines Abgriffs darstellen;
  • 27 den Aufbau einer Ausführungsform einer Bildverarbeitungsanordnung zeigt, die einen oder mehrere Moden von einem Bildverarbeitungsmodus zur Ausführung einer Fehlendpixelerzeugung, einem Bildverarbeitungsmodus in Bezug auf eine chromatische Aberration und einem Bildverarbeitungsmodus in Bezug auf eine Telopposition wahlweise ausführt;
  • 28 ein Flussdiagramm zur Erläuterung der mit einer chromatischen Aberration korrespondierenden Abgriffsschaltverarbeitung ist;
  • 29A bis 29D exemplarische Schirme zeigen, bei denen ein Telop oder dgl. angezeigt wird;
  • 30 ein Flussdiagramm zur Erläuterung der mit der Telopposition korrespondierenden Abgriffsschaltverarbeitung ist;
  • 31 ein Aufzeichnungsmedium darstellt.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden nun anhand der Zeichnungen detailliert beschrieben.
  • 2 zeigt den Aufbau einer Ausführungsform einer Bildverarbeitungsanordnung gemäß der vorliegenden Erfindung. Eine Effektivpixelbereichsberechnungsschaltung 11 erzeugt ein Effektivpixelbereichsvertikalkennzeichen VF und ein Effektivpixelbereichshorizontalkennzeichen HF, die auf der Basis eines Vertikalsynchronisierungssignals und eines Horizontalsynchronisierungssignals, die mit dem in eine Fehlendpixelerzeugungsschaltung 12 eingegebenen Bild synchronisiert sind, anzeigen, ob Pixel eines in die Fehlendpixelerzeugungsschaltung 12 eingegebenen Bilds in einem effektiven Pixelbereich angeordnet sind oder nicht, und gibt das Effektivpixelbereichsvertikalkennzeichen VF und das Effektivpixelbereichshorizontalkennzeichen HF an die Fehlendpixelerzeugungsschaltung 12 aus. In der folgenden Beschreibung werden die Pixel auch als Abgriffe bezeichnet, und die Pixelwerte werden auch als Abgriffsdaten bezeichnet.
  • Die Fehlendpixelerzeugungsschaltung 12 erzeugt auf der Basis eines Fehlendkennzeichens LF, das mit dem eingegebenen Bild und jedem Pixel des Bilds und dem von der Effektivpixelbereichsberechnungsschaltung 11 zugeführten Effektivpixelbereichsvertikalkennzeichen VF und dem Effektivpixelbereichshorizontalkennzeichen HF korrespondiert, ein Pixel, das mit einem im eingegebenen Bild enthaltenen fehlenden Pixel korrespondiert. Die Fehlendpixelerzeugungsschaltung 12 substituiert das erzeugte Pixel für das fehlende Pixel und gibt auf diese Weise das erzeugte Pixel aus.
  • 3 zeigt einen exemplarischen Aufbau der Effektivpixelbereichsberechnungsschaltung 11. Eine Vertikalsynchronisierungssignaldetektierungsschaltung 41 erzeugt auf der Basis des eingegebenen Vertikalsynchronisierungssignals Daten, die anzeigen, ob jedes Pixel des Bilds in der vertikalen Richtung des Schirms im effektiven Pixelbereich ist oder nicht, (nachfolgend als Vertikaleffektivpixelbereichsdaten bezeichnet) und führt die Daten einer Effektivbereichsberechnungsschaltung 43 zu. Eine Horizontalsynchronisierungssignaldetektierungsschaltung 42 erzeugt auf der Basis des eingegebenen Horizontalsynchronisierungssignals Daten, die anzeigen, ob jedes Pixel des Bilds in der horizontalen Richtung des Schirms im Effektivpixelbereich ist oder nicht, (nachfolgend als Horizontaleffektivpixelbereichsdaten bezeichnet) und führt die Daten der Effektivbereichsberechnungsschaltung 43 zu.
  • Die Effektivbereichsberechnungsschaltung 43 korrigiert die von der Vertikalsynchronisierungssignaldetektierungsschaltung 41 zugeführten Vertikaleffektivpixelbereichsdaten und gibt die korrigierten Daten an die Fehlendpixelerzeugungsschaltung 12 als ein Effektivpixelbereichsvertikalkennzeichen VF aus.
  • Für das Effektivpixelbereichsvertikalkennzeichen VF wird, wie beispielsweise in 4 gezeigt, im effektiven Bereich der Anzeige der Wert 0 gesetzt und wird außerhalb des effektiven Bereichs der Anzeige der Wert 1 gesetzt.
  • Die Effektivbereichsberechnungsschaltung 43 korrigiert die von der Vertikalsynchronisierungssignaldetektierungsschaltung 42 zugeführten Horizontaleffektivpixelbereichsdaten und gibt die korrigierten Daten an die Fehlendpixelerzeugungsschaltung 12 als ein Effektivpixelbereichshorizontalkennzeichen HF aus.
  • Für das Effektivpixelbereichshorizontalkennzeichen HF wird, wie beispielsweise in 4 gezeigt, im effektiven Bereich der Anzeige der Wert 0 gesetzt und wird außerhalb des effektiven Bereichs der Anzeige der Wert 1 gesetzt.
  • Die Fehlendpixelerzeugungsschaltung 12 kann auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivbereichsberechnungsschaltung 11 zugeführt werden, lernen, ob jedes Pixel des eingegebenen Bilds im effektiven Pixelbereich angeordnet ist oder nicht.
  • Es wird nun die Fehlendpixelerzeugungsschaltung 12 beschrieben. Wenn das in die Fehlendpixelerzeugungsschaltung 12 eingegebene Bild ein verschachteltes Bild ist, wird die Position eines Pixels eines Zielfelds von der Position eines Pixels des Felds unmittelbar vor oder unmittelbar nach dem Zielfeld um 1/2 vertikal verschoben.
  • Die Fehlendpixelerzeugungsschaltung 12 erzeugt einen Pixelwert des fehlenden Pixels wie in 5 gezeigt auf der Basis der Pixelwerte von umgebenden Pixeln im gleichen Feld (Feld k in 5) wie das Zielpixel der Erzeugung, der Pixelwerte von im Feld unmittelbar davor (Feld k-1 in 5) existierenden Pixeln und der Pixelwerte von im Feld, das zwei Felder davor ist, (Feld k-2 in 5) existierenden Pixeln durch eine Klassifikationsadaptivverarbeitung.
  • Wenn das fehlende Pixel als ein Ziel der Erzeugung an einem Rand des Bilds angeordnet ist, wählt die Fehlendpixelerzeugungsschaltung 12 wie in 6 gezeigt nur die im effektiven Bereich des Bilds angeordneten Pixel (das heißt legt die außerhalb des effektiven Bereichs des Bilds angeordneten Pixel ab) auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, und erzeugt auf diese Weise den Pixelwert des fehlenden Pixels auf der Basis der ausgewählten Pixel.
  • Wenn das fehlende Pixel als ein Ziel der Erzeugung an einem Rand des Bilds angeordnet ist, kann die Fehlendpixelerzeugungsschaltung 12 wie in 7 gezeigt auch effektive Pixel als Abgriffe durch adaptives Schalten zu einer Abgriffstruktur, in der die im effektiven Bereich des Bilds angeordneten Pixels adoptiert sind, auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, auswählen und kann infolgedessen den Pixelwert des fehlenden Pixels erzeugen.
  • 8 ist ein Blockdiagramm, das einen exemplarischen Aufbau der Fehlendpixelerzeugungsschaltung 12 zeigt. Der Pixelwert und das ein Fehlen des Pixels anzeigende Fehlendkennzeichen LF, die in die Fehlendpixelerzeugungsschaltung 12 eingegeben werden, werden einer Vorverarbeitungsschaltung 101 und einer Abgriffskonstruierungsschaltung 102-1 zugeführt.
  • Das Effektivpixelbereichsvertikalkennzeichen VF und das Effektivpixelbereichshorizontalkennzeichen HF, die von der Effektivpixelberechnungsschaltung 11 eingegeben werden, werden der Vorverarbeitungsschaltung 101, den Abgriffskonstruierungsschaltungen 102-1 bis 102-5, einer Klassenkombinierungsschaltung 107 und einer Koeffizientenhalteklassencodeauswahlschaltung 109 zugeführt.
  • Die Vorverarbeitungsschaltung 101 setzt auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF das Fehlendkennzeichen LF des außerhalb des effektiven Pixelbereichs angeordneten Pixels. Beispielsweise zeigt ein Fehlendkennzeichen LF von „1" an, dass der Pixelwert fehlt, und zeigt ein Fehlendkennzeichen LF von „0" an, dass der Pixelwert nicht fehlt. Die Vorverarbeitungsschaltung 101 erzeugt den Wert des fehlenden Pixels im effektiven Pixelbereich auf der Basis des mit dem Pixelwert und dem Pixel korrespondierenden Fehlendkennzeichens LF durch Benutzung eines Linearinterpolationsfilters und setzt den erzeugten Wert für das fehlende Pixel. Die Vorverarbeitungsschaltung 101 führt dann den gesetzten Wert den Abgriffskonstruierungsschaltungen 102-1 bis 102-5 zu. Das heißt, wenn ein Pixel oder mehr Pixel fehlen, erhöht die Vorverarbeitungsschaltung 101 die Anzahl von Prädiktionsabgriffen durch die Anzahl von fehlenden Pixeln.
  • Jedoch weist der Klassenabgriff keine fehlenden Pixel auf, und die Klassifikationsverarbeitung benutzt keine Pixelwerte, die von der Vorverarbeitungsschaltung 101 erzeugt sind, was später beschrieben wird.
  • Die Verarbeitung bei der Vorverarbeitungsschaltung 101 wird nun anhand des Flussdiagramms von 9 beschrieben. Beim Schritt S11 entscheidet die Vorverarbeitungsschaltung 101 auf der Basis des Fehlendkennzeichens LF, ob ein Zielpixel fehlt oder nicht. Wenn bestimmt wird, dass das Zielpixel nicht fehlt, geht die Verarbeitung zum Schritt S12, wo der Pixelwert des Zielpixels für das Zielpixel gesetzt wird, und dann endet die Verarbeitung.
  • Wenn beim Schritt S11 bestimmt wird, dass das Zielpixel fehlt, geht die Verarbeitung zum Schritt S13, und die Vorverarbeitungsschaltung 101 entscheidet auf der Basis des Fehlendkennzeichens LF, ob eines der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel fehlt oder nicht. Wenn beim Schritt S13 bestimmt wird, dass keines der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel fehlt, geht die Verarbeitung zum Schritt S14, und die Vorverarbeitungsschaltung 101 setzt den Mittelwert der Pixelwerte der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel als den Pixelwert des Zielpixels. Dann endet die Verarbeitung.
  • Wenn beim Schritt S13 bestimmt wird, dass eines der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel fehlt, geht die Verarbeitung zum Schritt S15, und die Vorverarbeitungsschaltung 101 entscheidet, ob beide der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel fehlen oder nicht. Wenn beim Schritt S15 bestimmt wird, dass eines der dem Zielpixel in der horizontalen Richtung benachbarten zwei Pixel nicht fehlt, geht die Verarbeitung zum Schritt S16, und die Vorverarbeitungsschaltung 101 setzt den Pixelwert des Pixels, das dem Zielpixel horizontal benachbart ist und das nicht fehlt, als den Pixelwert des Zielpixels. Dann endet die Verarbeitung
  • Wenn beim Schritt S15 bestimmt wird, dass beide der dem Zielpixel horizontal benachbarten zwei Pixel fehlen, geht die Verarbeitung zum Schritt S17, und die Vorverarbeitungsschaltung 101 entscheidet auf der Basis des Fehlendkennzeichens LF, ob eines der dem Zielpixel in der vertikalen Richtung benachbarten zwei Pixel fehlt. Wenn beim Schritt ST17 bestimmt wird, dass keines der dem Zielpixel in der vertikalen Richtung benachbarten zwei Pixel fehlt, geht die Verarbeitung zum Schritt S18, und die Vorverarbeitungsschaltung 101 setzt den Mittelwert der Pixelwerte der dem Zielpixel vertikal benachbarten zwei Pixel als den Pixelwert des Zielpixels. Dann endet die Verarbeitung.
  • Wenn beim Schritt S17 bestimmt wird, dass eines der dem Zielpixel in der vertikalen Richtung benachbarten zwei Pixel fehlt, geht die Verarbeitung zum Schritt S19, und die Vorverarbeitungsschaltung 101 entscheidet auf der Basis des Fehlendkennzeichens LF, ob alle dem Zielpixel benachbarten Pixel fehlen oder nicht. Wenn beim Schritt S19 bestimmt wird, dass eines der dem Zielpixel benachbarten Pixel nicht fehlt, geht die Verarbeitung zum Schritt S20, und die Vorverarbeitungsschaltung 101 setzt den Pixelwert des Pixels, das dem Zielpixel benachbart ist und das nicht fehlt, als den Pixelwert des Zielpixels. Dann endet die Verarbeitung.
  • Wenn beim Schritt S19 bestimmt wird, dass alle dem Zielpixel benachbarten Pixel fehlen, geht die Verarbeitung zum Schritt S21, und die Vorverarbeitungsschaltung 101 setzt den Pixelwert des Pixels im vergangenen Rahmen, das von der gleichen Position wie das Zielpixel ist, als den Pixelwert des Zielpixels. Dann endet die Verarbeitung.
  • Wie oben beschrieben linear-interpoliert die Vorverarbeitungsschaltung 101 bei der Verarbeitung im effektiven Pixelbereich den Pixelwert des Zielpixels von den Pixelwerten der umgebenden Pixel. Die Interpolationsverarbeitung durch die Vorverarbeitungsschaltung 101 ermöglicht eine Expansion des Bereichs von Abgriffen, die bei der nachfolgenden Verarbeitung benutzt werden können.
  • Die Abgriffskonstruierungsschaltung 102-1 setzt das Fehlendkennzeichen LF des außerhalb des effektiven Pixelbereichs angeordneten Pixels auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, setzt dann das Fehlendkennzeichen LF des außerhalb des effektiven Pixelbereichs angeordneten Pixels zurück und führt das Fehlendkennzeichen LF einer Bewegungsklassenerzeugungsschaltung 103 als einen Fehlendkennzeichenabgriff SLFT1 zu. Die Abgriffskonstruierungsschaltung 102-1 wählt einen Bewegungsklassenabgriff TD1 aus, der aus den Pixeln im effektiven Pixelbereich besteht, die nicht fehlen, und führt den ausgewählten Bewegungsklassenabgriff TD1 der Bewegungsklassenerzeugungsschaltung 103 zu.
  • Die Bewegungsklassenerzeugungsschaltung 103 erzeugt auf der Basis eines von einer Initialisierungsschaltung 111 zugeführten Parameters und des Fehlendkennzeichenabgriffs SLFT1 und des ausgewählten Bewegungsklassenabgriffs TD1, die von der Abgriffskonstruierungsschaltung 102-1 zugeführt werden, einen Bewegungsklassencode MCC und ein Statisch/Bewegungs-Kennzeichen SMF und gibt den Bewegungsklassencode MCC und das Statisch/Bewegungs-Kennzeichen SMF an die Abgriffskonstruierungsschaltungen 102-2 bis 102-5 und eine Klassenkombinierungsschaltung 107 aus. Der Bewegungsklassencode MCC ist eine 2-Bit-Information, welche die Größe der Bewegung anzeigt, und das Statisch/Bewegungs-Kennzeichen SMF ist eine 1-Bit-Information, welche die Anwesenheit/Abwesenheit von Bewegung anzeigt.
  • 10 zeigt den Aufbau einer Bewegungsklassenerzeugungsschaltung 103. Der Fehlendkennzeichenabgriff SLFT1 und der Bewegungsklassenabgriff TD1, die von der Abgriffskonstruierungsschaltung 102-1 zugeführt werden, werden einer Bewegungsdetektierungsschaltung 151 zugeführt. Die Bewegungsdetektierungsschaltung 151 erzeugt auf der Basis des Fehlendkennzeichenabgriffs SLFT1 und der Bewegungsklassenabgriffs TD1 einen Bewegungsklassencode MCC und gibt den Bewegungsklassencode MCC aus. Die Bewegungsdetektierungsschaltung 151 führt den erzeugten Bewegungsklassencode MCC auch einer Statisch/Bewegungs-Unterscheidungsschaltung 152 zu.
  • Der Aufbau der Bewegungsdetektierungsschaltung 151 wird nun anhand des Blockdiagramms von 11 beschrieben. Eine Zeitaktivitätsberechnungsschaltung 181 berechnet auf der Basis des Fehlendkennzeichenabgriffs SLFT1 und des Bewegungsklassenabgriffs TD1, die von der Abgriffskonstruierungsschaltung 102-1 zugeführt werden, die Zeitaktivität durch Addieren von Absolutwerten von Differenzen der Pixelwerte beispielsweise zwischen 3×3-Pixeln (im Bewegungsklassenabgriff TD1 inkludiert), die im effektiven Bereich sind, nicht fehlen und um das Zielpixel der Erzeugung herum sind, und korrespondierenden 3×3-Pixeln des Rahmens unmittelbar davor (im Bewegungsklassenabgriff TD1 inkludiert), die im effektiven Bereich sind und nicht fehlen. Die Zeitaktivitätsberechnungsschaltung 181 führt dann die Zeitaktivität einer Bewegungsunterscheidungsschaltung 184 zu. Die Zeitaktivitätsberechnungsschaltung 181 berechnet die Zeitaktivität durch Benutzung nur der nicht fehlenden Pixel ohne Benutzung der fehlenden Pixel.
  • 12A zeigt ein Beispiel von 3×3-Pixeln um das Zielpixel der Erzeugung herum, die zur Berechnung der Zeitaktivität benutzt werden. In 12A zeigt „ERROR (Fehler)" ein fehlendes Pixel an. 12B zeigt ein Beispiel von 3×3-Pixeln des Rahmens unmittelbar davor, die mit den in 12A gezeigten Pixeln korrespondieren. L1 bis L3 in den 12A und 12B stellen die jeweiligen Zeilen dar, und die gleiche Zeilennummer zeigt die gleiche Position in der vertikalen Richtung an. H1 bis H3 in den 12A und 12B stellen die horizontalen Positionen der jeweiligen Pixel dar, und die gleiche Nummer zeigt die gleiche Position in der horizontalen Richtung an.
  • Da die fehlenden Pixel nicht benutzt werden, wird die Zeitaktivität im Fall der 12A und 12B durch die folgende Gleichung (1) berechnet: Zeitaktivität = {|(q2) – (p2)| + |(q3) – (p3)| + |(q4) – (p4)| + |(q6) – (p6| + |(q7) – (p7)| + |(q9) – (p9)|}/v (1)
  • In der Gleichung (1) stellt () den Pixelwert eines Pixels dar, stellt || die Funktion zum Finden eines Absolutwertes dar und stellt v die Zahl dar, die durch Subtrahieren der Anzahl fehlender Pixel von der Anzahl von Pixeln eines Rahmens, in welchem das Zielpixel der Erzeugung existiert, erhalten wird.
  • Eine Raumaktivitätsberechnungsschaltung 182 berechnet auf der Basis des Fehlendkennzeichenabgriffs SLFT1 und des Bewegungsklassenabgriffs TD1, die von der Abgriffskonstruierungsschaltung 102-1 zugeführt werden, die Raumaktivität beispielsweise durch Addieren von 1 zur Differenz zwischen dem Maximumwert und dem Minimumwert von 3×3-Pixeln um das Zielpixel der Erzeugung herum und führt die Raumaktivität einer Schwellensetzschaltung 183 zu.
  • 13 zeigt ein Beispiel von 3×3-Pixeln um das fehlende Pixel als das Ziel der Erzeugung herum, die zur Berechnung der Raumaktivität benutzt werden. Die Raumaktivität wird durch die folgende Gleichung (2) berechnet. Raumaktivität = Max(qi) – Min(qi) + 1 (2)
  • In der Gleichung (2) stellt Max(qi) den Maximumwert der Pixelwerte q1 bis q9 dar und stellt min(qi) den Minimumwert der Pixelwerte q1 bis q9 dar.
  • Die Schwellensetzschaltung 183 wählt auf der Basis der von der Raumaktivitätsberechnungsschaltung 182 zugeführten Raumaktivität einen Schwellenwert zur Bewegungsunterscheidung aus, der in der Schwellensetzschaltung 183 im Voraus gespeichert ist, und den ausgewählten Schwellenwert der Bewegungsunterscheidungsschaltung 184 zu. Als der Schwellenwert zur Bewegungsunterscheidung, welcher der Bewegungsunterscheidungsschaltung 184 zugeführt wird, werden abhängig vom Wert der Raumaktivität unterschiedliche Schwellenwerte ausgewählt.
  • Die Bewegungsunterscheidungsschaltung 184 setzt auf der Basis des von der Schwellenwertsetzschaltung 183 zugeführten Schwellenwerts zur Bewegungsunterscheidung und der von der Zeitaktivitätsberechnungsschaltung 181 zugeführten Zeitaktivität einen Bewegungsklassencode MCC und führt den Bewegungsklassencode MCC einer Majoritätsentscheidungsunterscheidungsschaltung 185, einer Verzögerungsschaltung 186 und einem Selektor 187 zu.
  • 14 zeigt Schwellenwerte zur Bewegungsunterscheidung. Als der Schwellenwert zur Bewegungsunterscheidung werden abhängig von der Raumaktivität unterschiedliche Schwellenwerte benutzt. Wenn die Raumaktivität groß ist, wird ein großer Schwellenwert benutzt. Dies deshalb, weil wenn ein Pixelwert mit großer Raumaktivität eine kleine Bewegung macht, die Zeitaktivität einen großen Wert aufweist.
  • Die Verarbeitung zur Einstellung des Bewegungsklassencodes MCC durch die Bewegungsunterscheidungsschaltung 184 wird nun anhand des Flussdiagramms von 15 beschrieben. Beim Schritt S31 entscheidet die Bewegungsunterscheidungsschaltung 184, ob die Zeitaktivität gleich oder kleiner als ein Schwellenwert 1 ist oder nicht. Wenn bestimmt wird, dass die Zeitaktivität gleich oder kleiner als der Schwellenwert 1 ist, geht die Verarbeitung zum Schritt S32, und die Bewegungsunterscheidungsschaltung 184 setzt den Bewegungsklassencode MCC auf 0. Dann endet die Verarbeitung.
  • Wenn beim Schritt S31 bestimmt wird, dass die Zeitaktivität den Schwellenwert 1 überschreitet, geht die Verarbeitung zum Schritt S33, und die Bewegungsunterscheidungsschaltung 184 entscheidet, ob die Zeitaktivität gleich oder kleiner als der Schwellenwert 2 ist oder nicht. Wenn bestimmt wird, dass die Zeitaktivität gleich oder kleiner als der Schwellenwert 2 ist, geht die Verarbeitung zum Schritt S34 und die Bewegungsunterscheidungsschaltung 184 setzt den Bewegungsklassencode MCC auf 1. Dann endet die Verarbeitung.
  • Wenn beim Schritt S33 bestimmt wird, dass die Zeitaktivität den Schwellenwert 2 überschreitet, geht die Verarbeitung zum Schritt S35, und die Bewegungsunterscheidungsschaltung 184 entscheidet, ob die Zeitaktivität gleich oder kleiner als ein Schwellenwert 3 ist oder nicht. Wenn bestimmt wird, dass die Zeitaktivität gleich oder kleiner als der Schwellenwert 3 ist, geht die Verarbeitung zum Schritt S36, und die Bewegungsunterscheidungsschaltung 184 setzt den Bewegungsklassencode MCC auf 2. Dann endet die Verarbeitung.
  • Wenn beim Schritt S35 bestimmt wird, dass die Zeitaktivität den Schwellenwert 3 überschreitet, geht die Verarbeitung zum Schritt S37, und die Bewegungsunterscheidungsschaltung 184 setzt den Bewegungsklassencode MCC auf 3. Dann endet die Verarbeitung.
  • Wie oben beschrieben setzt die Bewegungsunterscheidungsschaltung 184 den Bewegungsklassencode MCC auf der Basis des Schwellenwerts und der Zeitaktivität. Die Majoritätsentscheidungsunterscheidungsschaltung 185 setzt den endgültigen Bewegungsklassencode MCC auf der Basis der Bewegungsklassencodes MCC mehrerer Pixel. Beispielsweise setzt wie in 16 gezeigt die Majoritätsentscheidungsunterscheidungsschaltung 185 den Bewegungsklassencode MCC des Zielpixels auf der Basis der Bewegungsklassencodes MCC von 14 Pixeln um das Zielpixel der Erzeugung herum.
  • Die Verarbeitung zum Setzen des Bewegungsklassencodes MCC durch die Bewegungsdetektierungsschaltung 151 wird nun anhand des Flussdiagramms von 17 beschrieben. Beim Schritt S51 entscheidet die Bewegungsdetektierungsschaltung 151 entsprechend der Einstellung des Parameters aus der Initialisierungsschaltung 111, ob die Unterscheidung durch die Majoritätsentscheidung ausgeführt wird oder nicht. Wenn bestimmt wird, dass die Unterscheidung durch die Majoritätsentscheidung nicht ausgeführt wird, geht die Verarbeitung zum Schritt S52. Der Selektor 187 wählt den Bewegungsklassencode MCC des von der Bewegungsunterscheidungsschaltung 184 ausgegebenen Zielpixels aus und setzt den Bewegungsklassencode MCC des Zielpixels als den endgültigen Bewegungsklassencode MCC. Dann endet die Verarbeitung.
  • Wenn beim Schritt S51 bestimmt wird, dass die Unterscheidung durch Majoritätsentscheidung ausgeführt wird, geht die Verarbeitung zum Schritt S53, und die Majoritätsentscheidungsunterscheidungsschaltung 185 entscheidet, ob die Anzahl von Pixeln, für die von den 14 Pixeln ein Bewegungsklassencode MCC von 3 gesetzt ist, größer als der Schwellenwert 3 ist oder nicht. Wenn bestimmt wird, dass die Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, größer als der Schwellenwert 3 ist, geht die Verarbeitung zum Schritt S54, und die Majoritätsentscheidungsunterscheidungsschaltung 185 setzt den Bewegungsklassencode MCC auf 3. Der Selektor 187 gibt die Ausgabe der Majoritätsentscheidungsunterscheidungsschaltung 185 als den endgültigen Bewegungsklassencode MCC 3 aus, und dann endet die Verarbeitung.
  • Wenn beim Schritt S53 bestimmt wird, dass die Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, gleich oder kleiner als der Schwellenwert 3 ist, geht die Verarbeitung zum Schritt S55, und die Majoritätsentscheidungsunterscheidungsschaltung 185 entscheidet, ob von den 14 Pixeln der Wert der Summe aus der Anzahl von Pixeln, für die der Bewegungsklasencode MCC von 3 gesetzt ist, und der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 2 gesetzt ist, größer als der Schwellenwert 2 ist oder nicht. Wenn bestimmt wird, dass der Wert der Summe der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, und der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 2 gesetzt ist, größer als der Schwellenwert 2 ist, geht die Verarbeitung zum Schritt S56, und die Majoritätsentscheidungsunterscheidungsschaltung 185 setzt den Bewegungsklassencode MCC auf 2. Der Selektor 187 gibt die Ausgabe der Majoritätsentscheidungsunterscheidungsschaltung 185 als den endgültigen Bewegungsklassencode MCC aus, und dann endet die Verarbeitung.
  • Wenn beim Schritt S55 bestimmt wird, dass der Wert der Summe aus der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, und der Anzahl von Pixeln, für der Bewegungsklassencode MCC von 2 gesetzt ist, gleich oder kleiner als der Schwellenwert 2 ist, geht die Verarbeitung zum Schritt S57, und die Majoritätsentscheidungsunterscheidungsschaltung 185 entscheidet, ob von den 14 Pixeln der Wert der Summe aus der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, der Anzahl von der Pixeln, für die der Bewegungsklassencode MCC von 2 gesetzt ist, und der Anzahl von Pixeln, für der Bewegungsklassencode MCC von 1 gesetzt ist, größer als der Schwellenwert 1 ist oder nicht. Wenn bestimmt wird, dass der Wert der Summe aus der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 2 gesetzt ist, und der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 1 gesetzt ist, größer als der Schwellenwert 1 ist, geht die Verarbeitung zum Schritt S58, und die Majoritätsentscheidungsunterscheidungsschaltung 185 setzt den Bewegungsklassencode MCC auf 1. Der Selektor 187 gibt die Ausgabe der Majoritätsentscheidungsunterscheidungsschaltung 185 als den endgültigen Bewegungsklassencode MCC aus, und dann endet die Verarbeitung.
  • Wenn beim Schritt S57 bestimmt wird, dass der Wert der Summe aus der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 3 gesetzt ist, der Anzahl von Pixeln, für der Bewegungsklassencode MCC von 2 gesetzt ist, und der Anzahl von Pixeln, für die der Bewegungsklassencode MCC von 1 gesetzt ist, gleich oder kleiner als der Schwellenwert 1 ist, geht die Verarbeitung zum Schritt S59, und die Majoritätsentscheidungsunterscheidungsschaltung 185 setzt den Bewegungsklassencode MCC auf 0. Der Selektor 187 gibt die Ausgabe der Majoritätsentscheidungsunterscheidungsschaltung 185 als den endgültigen Bewegungsklassencode MCC aus, und dann endet die Verarbeitung.
  • Auf diese Weise setzt die Bewegungsdetektierungsschaltung 151 den endgültigen Bewegungsklassencode MCC auf der Basis der Bewegungsklassencodes MCC mehrerer Pixel und der im Voraus gespeicherten Schwellenwerte.
  • Wie oben beschrieben setzt die Bewegungsklassenerzeugungsschaltung 103 den Bewegungsklassencode MCC von den Pixelwerten mehrerer Pixel und gibt den Bewegungsklassencode MCC an die Statisch/Bewegungs-Unterscheidungsschaltung 152 und die Fehlendpixelerzeugungsschaltung 12 aus.
  • Nach 10 wiederum setzt die Statisch/Bewegungs-Unterscheidungsschaltung 152 das Statisch/Bewegungs-Kennzeichen SMF auf der Basis des Bewegungsklassencodes MCC und gibt das Statisch/Bewegungs-Kennzeichen SMF aus. Wenn beispielsweise der Bewegungsklassencode MCC 0 oder 1 ist, wird das Statisch/Bewegungs-Kennzeichen SMF auf 0 gesetzt. Wenn der Bewegungsklassencode MCC 2 oder 3 ist, wird das Statisch/Bewegungs-Kennzeichen SMF auf 1 gesetzt.
  • Die Abgriffskonstruierungsschaltung 102-2 wählt auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 103 zugeführt werden, und des Fehlendkennzeichens LF einen Allklassenprädiktionsabgriff VET (der die Pixel außerhalb des effektiven Pixelbereichs nicht aufweist) aus, der alle Klassenstrukturen abdeckt. Die Abgriffskonstruierungsschaltung 102-2 führt dann den Allklassenprädiktionsabgriff VET einer Variabelabgriffsauswahlschaltung 108 zu.
  • Die Abgriffskonstruierungsschaltung 102-3 setzt das Fehlendkennzeichen LF der außerhalb des effektiven Pixelbereichs angeordneten Pixel auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, setzt dann das Fehlendkennzeichen LF der außerhalb des effektiven Pixelbereichs angeordneten Pixel zurück und führt das Fehlendkennzeichen LF einer DR-Klassenerzeugungsschaltung 104 als einen Fehlendkennzeichenabgriff SLFT2 zu. Die Abgriffskonstruierungsschaltung 102-3 wählt auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 103 zugeführt werden, und des Fehlendkennzeichens LF einen DR-Klassenabgriff TD2 aus, der im effektiven Pixelbereich ist und nicht fehlt, und führt den ausgewählten DR-Klassenabgriff TD2 der DR-Klassenerzeugungsschaltung 104 zu. Die DR-Klassenerzeugungsschaltung 104 erzeugt auf der Basis des Fehlendkennzeichenabgriffs SLFT2 und des DR-Klassenabgriffs TD2, die von der Abgriffskonstruierungsschaltung 102-3 zugeführt werden, einen DR-Klassencode DRCC, der entsprechend einem dynamischen Bereich, das heißt der Differenz zwischen dem Maximumpixelwert und dem Minimumpixelwert der Pixel, die im DR-Klassenabgriff TD2 inkludiert sind und nicht fehlend sind, entschieden wird. Die DR-Klassenerzeugungsschaltung 104 gibt dann den DR-Klassencode DRCC an die Klassenkombinierungsschaltung 107 aus.
  • Die Abgriffskonstruierungsschaltung 102-4 setzt das Fehlendkennzeichen LF der außerhalb des effektiven Pixelbereichs angeordneten Pixel auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, setzt dann das Fehlendkennzeichen LF der außerhalb des effektiven Pixelbereichs angeordneten Pixel zurück und führt das Fehlendkennzeichen LF einer Raumklassenerzeugungsschaltung 105 als einen Fehlendkennzeichenabgriff SLFT3 zu. Die Abgriffskonstruierungsschaltung 102-4 wählt auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 103 zugeführt werden, und des Fehlendkennzeichens LF einen Raumklassenabgriff TD3, der im effektiven Pixelbereich ist und nicht fehlend ist, aus und führt den ausgewählten Raumklassenabgriff TD3 der Raumklassenerzeugungsschaltung 105 zu. Die Raumklassenerzeugungsschaltung 105 erzeugt auf der Basis des Fehlendkennzeichenabgriffs SLFT3 und des Raumabgriffs TD3, die von der Abgriffskonstruierungsschaltung 102-4 zugeführt werden, einen mit dem Pixelwertmuster korrespondierenden Raumklassencode SCC und gibt den Raumklassencode SCC an die Klassenkombinierungsschaltung 107 aus.
  • Die Abgriffskonstruierungsschaltung 102-5 wählt auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, ein Fehlendkennzeichen LF aus und führt das ausgewählte Fehlendkennzeichen LF einer Fehlendklassenerzeugungsschaltung 106 als einen Fehlendkennzeichenabgriff SLFT4 zu. Die Fehlendklassenerzeugungsschaltung 106 erzeugt auf der Basis des von der Abgriffskonstruierungsschaltung 102-5 zugeführten Fehlendkennzeichenabgriffs SLFT4 einen Fehlendklassencode LCC und gibt den Fehlendklassencode LCC an die Klassenkombinierungsschaltung 107 aus.
  • Die Klassenkombinierungsschaltung 107 kombiniert den Bewegungsklassencode MCC, das Statisch/Bewegungs-Kennzeichen SMF, den DR-Klassencode DRCC, den Raumklassencode SCC und den Fehlendklassencode LCC auf der Basis des Effektivpixelbereichsvertikalkennzeichen VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, und bildet auf diese Weise einen einzelnen endgültigen Klassencode CC. Die Klassenkombinierungsschaltung 107 gibt dann den Klassencode CC an die Koeffizientenhalteklassencodeauswahlschaltung 109 aus.
  • Die Koeffizientenhalteklassencodeauswahlschaltung 109 erzeugt ein Prädiktionsabgriffsauswahlsignal VT auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, einen Koeffizientensatz und eine Prädiktionsstruktur, die von der Initialisierungsschaltung 111 zugeführt werden, und den von der Klassenkombinierungsschaltung 107 zugeführten Klassencode CC und führt das erzeugte Prädiktionsabgriffsauswahlsignal VD der Variabelabgriffsauswahlschaltung 108 zu. Zur gleichen Zeit gibt die Koeffizientenhalteklassecodeauswahlschaltung 109 einen auf der Basis des Klassencodes CC aus dem Koeffizientensatz ausgewählten Prädiktionskoeffizienten W an eine Schätzprädiktionsoperationsschaltung 110 aus. Der von der Initialisierungsschaltung 111 zugeführte Koeffizientensatz wird entsprechend der als ein Resultat einer Klassifikation durch den Klassencode CC gefundenen Klasse im Voraus erzeugt und durch die Initialisierungsschaltung 111 gespeichert.
  • Die Variabelabgriffsauswahlschaltung 108 wählt auf der Basis des von der Abgriffskonstruierungsschaltung 102-2 zugeführten Allklassenprädiktionsabgriffs VET und des von der Koeffizientenhalteklassencodeauswahlschaltung 109 zugeführten Prädiktionsabgriffsauswahlsignals VT einen Prädiktionsabgriff ET aus und führt den ausgewählten Prädiktionsabgriff ET der Schätzprädiktionsoperationsschaltung 110 zu. Beispielsweise wählt die Variabelabgriffsauswahlschaltung 108 von den im Allklassenprädiktionsabgriffs VET inkludierten Abgriffen einen vom Prädiktionsabgriffsauswahlsignal VT bezeichneten Abgriff aus und bezeichnet den ausgewählten Abgriff als einen Prädiktionsabgriff ET.
  • Eine Produktsummenoperationseinheit 121 der Schätzprädiktionsoperationsschaltung 110 berechnet den Pixelwert des fehlenden Pixels auf der Basis des von der Variabelabgriffsauswahlschaltung 108 zugeführten Prädiktionsabgriffs und des von der Koeffezientenhalteklassencodeauswahlschaltung 109 zugeführten Prädiktionskoeffizienten W unter Benutzung einer Linearschätzformel.
  • Die Produktsummenoperationseinheit 121 kann auch den Pixelwert des fehlenden Pixels auf der Basis des Prädiktionskoeffizienten W unter Benutzung einer Nichtlinearschätzformel berechnen.
  • Ein Filter 122 der Schätzprädiktionsoperationsschaltung 110 berechnet den Pixelwert des fehlenden Pixels von dem von der Variabelabgriffsauswahlschaltung 108 zugeführten Prädiktionsabgriff ET.
  • Die Schätzprädiktionsoperationsschaltung 110 wählt und gibt die Ausgabe des Filters 122 oder die Ausgabe der Produktsummenoperationseinheit 121 auf der Basis des von der Initialisierungsschaltung 111 gesetzten Ausgabemodus aus und erzeugt auf diese Weise das mit dem Ausgabemodus korrespondierende Resultat.
  • Auf diese Weise führt die Fehlendpixelerzeugungsschaltung 12 auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF von den Pixeln im effektiven Pixelbereich eine Klassifikation entsprechend dem Dynamikbereich, der Bewegung, dem Fehlen und dem Pixelwertmuster aus und berechnet den Fehlendpixelwert auf der Basis der Pixelwerte der Pixel um das fehlende Pixel herum (welche die Pixelwerte der Pixel außerhalb des effektiven Pixelbereichs nicht aufweisen).
  • Die Fehlendpixelerzeugungsschaltung 12 kann durch Schalten des Ausgabemodus der Schätzprädiktionsoperationsschaltung 110 die Qualität eines eingegebenen Bilds verbessern (beispielsweise bei Grauskalen erhöhen (die Anzahl von Bits von Y-Daten, U-Daten und V-Daten erhöhen), Elimination von Rauschen, Elimination einer Quantisierungsverzerrung (umfassend eine Elimination einer Verzerrung in der Zeitrichtung), Erzeugen einer Auflösung einer Quadrupeldichte usw.), um die oben beschriebene Verarbeitung in Bezug auf alle Pixel auszuführen.
  • Wenn überdies bestimmt wird, dass das fehlende Pixel als ein Ziel von Erzeugung an einem Rand des Bilds angeordnet ist und dass eine vorbestimmte Anzahl von Abgriffen oder mehr fehlt, kann die Fehlendpixelerzeugungsschaltung 12 auf der Basis der Pixelwerte der benachbarten Pixel wie in 20 gezeigt eine Linearinterpolationsverarbeitung ausführen und auf diese Weise anstatt einer Klassifikationsadaptivverarbeitung den Pixelwert des fehlenden Pixels interpolieren.
  • Wenn das fehlende Pixel als ein Ziel der Erzeugung an einem Rand des Bilds angeordnet ist und alle benachbarten Pixel fehlen, kann die Fehlendpixelerzeugungsschaltung 12 einen mit einer vorbestimmten Unbunt- bzw. Trüb- bzw. Mattfarbe (dull color) (beispielsweise grau) korrespondierenden Wert als den Pixelwert des fehlenden Pixels setzen oder kann wie in 21 gezeigt den Pixelwert des Pixels bei der gleichen Position im vergangenen Rahmen setzen.
  • 22 ist ein Blockdiagramm, das einen anderen Aufbau der Fehlendpixelerzeugungsschaltung 12 zeigt, die eine in 20 oder 21 gezeigte Verarbeitung ausführt. Der Pixelwert und das Fehlendkennzeichen LF, die das Fehlen des Pixels als die in die Fehlendpixelerzeugungsschaltung 12 eingegebenen Daten anzeigen, werden einer Vorverarbeitungsschaltung 201 und einer Abgriffskonstruierungsschaltung 202-1 zugeführt. Die Vorverarbeitungsschaltung 201 führt die Verarbeitung ähnlich zu der der Vorverarbeitungsschaltung 101 aus. Die Vorverarbeitungsschaltung 201 erzeugt einen Wert des fehlenden Pixels auf der Basis des eingegebenen Pixelwerts und des Fehlendkennzeichens LF, welches das Fehlen des Pixels anzeigt, durch Benutzung eines Linearinterpolationsfilters, setzt dann den erzeugten Wert als den Pixelwert des fehlenden Pixels und führt den Wert des Abgriffskonstruierungsschaltungen 202-2 bis 202-5 zu.
  • Die Abgriffskonstruierungsschaltung 202-1 führt das Fehlendkennzeichen LF des ausgewählten Pixels einer Bewegungsklassenerzeugungsschaltung 203 als einen Fehlendkennzeichenabgriff SLFT1 zu. Die Abgriffskonstruierungsschaltung 202-1 wählt einen Bewegungsklassenabgriff TD1, der aus Pixeln besteht, die im effektiven Pixelbereich sind und nicht fehlen, aus und führt den ausgewählten Bewegungsklassenabgriff TD1 der Bewegungsklassenerzeugungsschaltung 203 zu.
  • Die Bewegungsklassenerzeugungsschaltung 203 erzeugt auf der Basis eines von einer Initialisierungsschaltung 211 zugeführten Parameters und des Fehlendkennzeichens LF und des ausgewählten Bewegungsklassenabgriffs TD1, die von der Abgriffskonstruierungsschaltung 202-1 zugeführt werden, einen Bewegungsklassencode MCC und ein Statisch/Bewegungs-Kennzeichen SMF und gibt den Bewegungsklassencode MCC und das Statisch/Bewegungs-Kennzeichen SMF an die Abgriffskonstruierungsschaltungen 202-2 bis 202-5 und eine Klassenkombinierungsschaltung 207 aus. Der Bewegungsklassencode MCC ist eine 2-Bit-Information, welche die Größe der Bewegung anzeigt, und das Statisch/Bewegungs-Kennzeichen SMF ist eine 1-Bit-Information, welche die Anwesenheit/Abwesenheit von Bewegung anzeigt. Wenn beispielsweise der Bewegungsklassencode MCC 0 oder 1 ist, wird das Statisch/Bewegungs-Kennzeichen SMF auf 0 gesetzt. Wenn der Bewegungsklassencode MCC 2 oder 3 ist, wird das Statisch/Bewegungs-Kennzeichen SMF auf 1 gesetzt.
  • Die Abgriffskonstruierungsschaltung 202-2 wählt auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 203 zugeführt werden, und des Fehlendkennzeichens LF einen Allklassenprädiktionsabgriff VET (der die Pixel außerhalb des effektiven Pixelbereichs nicht aufweist) aus, der alle Klassenstrukturen abdeckt. Die Abgriffskonstruierungsschaltung 202-2 führt dann den Allklassenprädiktionsabgriff VET einer Variabelabgriffsauswahlschaltung 208 zu.
  • Die Abgriffskonstruierungsschaltung 202-3 führt das ausgewählte Fehlendkennzeichen LF einer DR-Klassenerzeugungsschaltung 204 als einen Fehlendkennzeichenabgriff SLFT2 zu. Die Abgriffskonstruierungsschaltung 202-3 wählt auf Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 203 zugeführt werden, und des Fehlendkennzeichens LF einen DR-Klassenabgriff TD2 aus, der im effektiven Pixelbereich ist und nicht fehlt, und führt den ausgewählten DR-Klassenabgriff TD2 der DR-Klassenerzeugungsschaltung 204 zu. Die DR-Klassenerzeugungsschaltung 204 erzeugt auf der Basis des Fehlendkennzeichenabgriffs SLFT2 und des DR-Klassenabgriffs TD2, die von der Abgriffskonstruierungsschaltung 202-3 zugeführt werden, einen entsprechend einem Dynamikbereich, das heißt der Differenz zwischen dem Maximumpixelwert und dem Minimumpixelwert der nicht fehlenden Pixel entschiedenen DR-Klassencode DRCC. Die DR-Klassenerzeugungsschaltung 204 gibt dann den DR-Klassencode DRCC an die Klassenkombinierungsschaltung 207 aus.
  • Die Abgriffskonstruierungsschaltung 202-4 führt das ausgewählte Fehlendkennzeichen LF einer Raumklassenerzeugungsschaltung 205 als einen Fehlendkennzeichenabgriff SLFT3 zu. Die Abgriffskonstruierungsschaltung 202-4 wählt auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 203 zugeführt werden, und des Fehlendkennzeichens LF einen Raumklassenabgriff TD3, der im effektiven Pixelbereich ist und nicht fehlt, aus und führt den ausgewählten Raumklassenabgriff TD3 der Raumklassenerzeugungsschaltung 205 zu. Die Raumklassenerzeugungsschaltung 205 erzeugt auf der Basis des Fehlendkennzeichenabgriffs SLFT3 und des Raumabgriffs TD3, die von der Abgriffskonstruierungsschaltung 202-4 zugeführt werden, einen mit dem Pixelwertmuster korrespondierenden Raumklassencode SCC und gibt den Raumklassencode SCC an die Klassenkombinierungsschaltung 207 aus.
  • Die Abgriffskonstruierungsschaltung 202-5 wählt ein Fehlendkennzeichen LF aus und führt das ausgewählte Fehlendkennzeichen LF einer Fehlendklassenerzeugungsschaltung 206 als einen Fehlendkennzeichenabgriff SLFT4 zu. Die Fehlendklassenerzeugungsschaltung 206 erzeugt auf der Basis des von der Abgriffskonstruierungsschaltung 202-5 zugeführten Fehlendkennzeichenabgriffs SLFT4 einen Fehlenklassencode LCC und gibt den Fehlendklassencode LCC an die Klassenkombinierungsschaltung 207 aus.
  • Die Klassenkombinierungsschaltung 207 kombiniert den Bewegungsklassencode MCC, das Statisch/Bewegungs-Kennzeichen SMF, den DR-Klassencode DRCC, den Raumklassencode SCC und den Fehlendklassencode LCC, um einen einzelnen endgültigen Klassencode CC zu bilden, und gibt den Klassencode CC an eine Koeffizientenhalteklassencodeauswahlschaltung 209 aus.
  • Die Koeffizientenhalteklassencodeauswahlschaltung 209 erzeugt auf der Basis eines Koeffizientensatzes und einer Prädiktionsstruktur, die von der Initialisierungsschaltung 211 zugeführt werden, und des von der Klassenkombinierungsschaltung 207 zugeführten Klassencodes CC ein Prädiktionsabgriffsauswahlsignal VT und führt das erzeugte Prädiktionsabgriffsauswahlsignal VT der Variabelabgriffsauswahlschaltung 208 zu. Zur gleichen Zeit gibt die Koeffizientenhalteklassencodeauswahlschaltung 209 einen aus dem Koeffizientensatz auf der Basis des Klassencodes CC ausgewählten Prädiktionskoeffizienten W an eine Schätzprädiktionsoperationsschaltung 210 aus.
  • Die Variabelabgriffsauswahlschaltung 208 wählt auf der Basis des von der Abgriffskonstruierungsschaltung 202-2 zugeführten Allklassenprädiktionsabgriff VET und des von der Koeffizientenhalteklassencodeauswahlschaltung 209 zugeführten Prädiktionsabgriffsauswahlsignals VT einen Prädiktionsabgriff ET aus und führt den ausgewählten Prädiktionsabgriff ET der Schätzprädiktionsoperationsschaltung 210 zu.
  • Die Schätzprädiktionsoperationsschaltung 210 berechnet den Pixelwert des fehlenden Pixels unter Benutzung einer Linearschätzformel auf der Basis des von der Variabelabgriffsauswahlschaltung 208 zugeführten Prädiktionsabgriffs ET und des von der Koeffizientenhalteklassencodeauswahlschaltung 209 zugeführten Prädiktionskoeffizienten W und gibt den berechneten Pixelwert an eine Auswahlschaltung 214 aus.
  • Die Schätzoperationsschaltung 210 ist zur Produktsummenoperationseinheit 121 von 8 äquivalent.
  • Eine Substituierungsschaltung 212 setzt auf der Basis des das Fehlen des Pixels anzeigenden Fehlendkennzeichens LF einen mit einer vorbestimmten Unbunt- bzw. Trüb- bzw. Mattfarbe (beispielsweise grau) korrespondierenden Wert als den Pixelwert des fehlenden Pixels und führt den Wert der Auswahlschaltung 214 zu.
  • Eine Linearinterpolationsschaltung 213 führt die Verarbeitung ähnlich zu der der Vorverarbeitungsschaltung 210 aus. Die Linearinterpolationsschaltung 213 erzeugt einen Wert des fehlenden Pixels durch Benutzung eines Linearinterpolationsfilters auf der Basis des eingegebenen Pixelwerts und des Fehlendkennzeichens, welches das Fehlen des Pixels anzeigt, und setzt dann den Wert als den Pixelwert des fehlenden Pixels und führt den Wert der Auswahlschaltung 214 zu.
  • Die Substituierungsschaltung 212 und die Linearinterpolationsschaltung 213 sind zum Filter 122 von 8 äquivalent.
  • Die Auswahlschaltung 214 wählt eine der Ausgaben aus der Schätzprädiktionsschaltung 210, der Substituierungsschaltung 212 und der Linearinterpolationsschaltung 213 auf der Basis des Effektivpixelbereichsvertikalkennzeichens VF und des Effektivpixelbereichshorizontalkennzeichens HF, die von der Effektivpixelbereichsberechnungsschaltung 11 zugeführt werden, aus und gibt die ausgewählte Ausgabe als die Ausgabe der Fehlendpixelerzeugungsschaltung 12 aus.
  • Durch Ausführen der Klassifikationsadaptivverarbeitung entsprechend der Änderungen des Dynamikbereichs, der Bewegung, des Fehlens und des Pixelwerts kann die Fehlendpixelerzeugungsschaltung 12 auf diese Weise den Pixelwert des fehlenden Pixels auf der Basis der Pixelwerte der Pixel um das fehlende Pixel herum berechnen und kann auch das an einem Rand des effektiven Pixelbereichs angeordnete fehlende Pixel interpolieren oder ersetzen und dann das resultierende Pixel ausgeben.
  • Abhängig von der Position des fehlenden Pixels als ein Ziel der Erzeugung relativ zum Rand des Bilds kann die Fehlendpixelerzeugungsschaltung 12 zu der in Bezug auf die 6, 7, 18 bis 21 beschriebene Verarbeitung geeignet schalten.
  • Obgleich bei der obigen Beschreibung der Klassenabgriff keine fehlenden Pixel aufweist, kann der von der Vorverarbeitungsschaltung 101 erzeugte Pixelwert im Klassenabgriff vorhanden sein und kann der von der Vorverarbeitungsschaltung 101 erzeugte Pixelwert zur Klassifizierungsverarbeitung benutzt werden.
  • Wie oben beschrieben kann die Bildverarbeitungsanordnung gemäß der vorliegenden Erfindung ungeachtet der Positionen von Pixeln auf dem Schirm ein Bild höherer Qualität konstant erzeugen. Beispielsweise kann die Bildverarbeitungsanordnung ungeachtet der Position des fehlenden Pixels auf dem Schirm ein fehlendes Pixel mit wenig Fehlern neu erzeugen.
  • Es wird nun eine Bildverarbeitungsanordnung zur Erzeugung eines Koeffizientensatzes im Voraus, der für die beim Beispiel von 2 gezeigte Bildverarbeitungsanordnung benutzt wird, die einen oder mehrere Moden von einem Bildverarbeitungsmodus zur Ausführung einer beim Beispiel von 2 gezeigten Fehlendpixelerzeugung, einem Bildverarbeitungsmodus in Bezug auf eine chromatische Aberration und einem Bildverarbeitungsmodus in Bezug auf die Telopposition ausführt, beschrieben.
  • 23 zeigt den Aufbau einer Ausführungsform der Bildverarbeitungsanordnung zur Erzeugung eines Koeffizientensatzes im Voraus. Ein in die Bildverarbeitungsanordnung eingegebenes Bild wird einem Abwärtsfilter (down filter) 303 und einer Normalgleichungsoperationsschaltung 310 zugeführt.
  • Eine Anzeigepositionsberechnungsschaltung 301 berechnet die Distanz jedes Pixels des Bilds vom Zentrum des Schirms und führt die Distanz jedes Pixels des Bilds vom Zentrum des Schirms anzeigende Positionsinformation Abgriffskonstruierungsschaltungen 304-1 bis 304-N zu.
  • Die Anzeigepositionsberechnungsschaltung 301 kann auch die Position, welche die Distanz jedes Pixels vom Zentrum des Schirms anzeigt, einer Strukturschaltsteuerungsschaltung 302 zuführen.
  • Eine Initialisierungsschaltung 312 führt der Strukturschaltsteuerungsschaltung 302 Bildendeinformation, Aberrationsinformation, Verarbeitungsmodus- und Teloppositionsinformation zu.
  • Wenn der Verarbeitungsmodus die Erzeugung eines fehlenden Pixels anzeigt, führt die Strukturschaltsteuerungsschaltung 302 den Abgriffskonstruierungsschaltungen 304-1 bis 304-N ihrer Reihe nach ein Abgriffsauswahlsignal TS1, ein Abgriffsauswahlsignal TS2 und Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Bildendeinformation korrespondieren. Wenn der Verarbeitungsmodus den Aberrationsmodus anzeigt, führt die Strukturschaltsteuerungsschaltung 302 den Abgriffskonstruierungsschaltungen 304-1 bis 304-N ihrer Reihe nach ein Abgriffsauswahlsignal TS1, ein Abgriffsauswahlsignal TS2 und Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Aberrationsinformation korrespondieren. Wenn der Verarbeitungsmodus den Telopmodus anzeigt, führt die Strukturschaltsteuerungsschaltung 302 den Abgriffskonstruierungsschaltungen 304-1 bis 304-N ihrer Reihe nach ein Abgriffsauswahlsignal TS1, ein Abgriffsauswahlsignal TS2 und Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Teloppositionsinformation korrespondieren.
  • Die Strukturschaltsteuerungsschaltung 302 kann auch mehrere Verarbeitungsmoden der drei Verarbeitungsmoden auswählen.
  • Es wird nun ein Beispiel des Aberrationsmodus beschrieben.
  • Beispielsweise sind das Abgriffsauswahlsignal TS1, das Abgriffsauswahlsignal TS2 und die Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) durch ein mit Rot korrespondierendes Signal, ein mit Grün korrespondierendes Signal bzw. mit Blau korrespondierenden Signalen, das heißt mit RGB korrespondierenden Signalen gebildet.
  • Die Strukturschaltsteuerungsschaltung 302 berechnet auf der Basis der von der Anzeigepositionsberechnungsschaltung 301 zugeführten physikalischen Adresse jedes Pixels auf dem Schirm die Distanz jedes Pixels vom Zentrum des Schirms und erzeugt auf der Basis der berechneten Distanz vom Zentrum des Schirms und der von der Initialisierungsschaltung 312 eingegebenen Aberrationsinformation einen Aberrationsklassencode CCA, der aus einem mit Rot korrespondierenden Klassencode, einem mit Grün korrespondierenden Klassencode und einem mit Blau korrespondierenden Klassencode besteht. Die Strukturschaltsteuerungsschaltung 302 führt den erzeugten Aberrationsklassencode CCA einer Klassenkombinierungsschaltung 307 zu.
  • Die Strukturschaltsteuerungsschaltung 302 speichert die Relation zwischen der physikalischen Adresse jedes Pixels auf dem Schirm und der Distanz jedes Pixels vom Zentrum des Schirms im Voraus und findet die Distanz jedes Pixels vom Zentrum des Schirms auf der Basis der gespeicherten Relation und der von der Anzeigepositionsberechnungsschaltung 301 zugeführten physikalischen Adresse jedes Pixels auf dem Schirm.
  • Alternativ dazu kann die Strukturschaltsteuerungsschaltung 302 auf der Basis der von der Initialisierungsschaltung 312 eingegebenen Aberrationsinformation und der von der Anzeigepositionsberechnungsschaltung 310 zugeführten Distanz vom Zentrum des Schirms einen Aberrationsklassencode CCA erzeugen, der aus einem mit Rot korrespondierenden Klassencode, einem mit Grün korrespondierenden Klassencode und einem mit Blau korrespondierenden Klassencode besteht, und kann den erzeugten Aberrationsklassencode CCA der Klassenkombinierungsschaltung 307 zuführen.
  • Die Strukturschaltsteuerungsschaltung 302 erzeugt den Aberrationsklassencode CCA beispielsweise durch Quantisierung der Größe der Aberration.
  • Es wird nun die chromatische Aberration beschrieben.
  • Wenn beispielsweise wie in 24 gezeigt weißes Licht schräg zur optischen Achse einer Linse eintritt, wird ein im weißen Licht enthaltenes Bild aus blauem Licht bei einer Position näher an der optischen Achse als ein Bild aus gelbem Licht gebildet. Das im weißen Licht enthaltene Bild aus dem gelben Licht wird bei einer Position weiter von der optischen Achse weg als das Bild aus dem blauen Licht und näher an der optischen Achse als ein Bild aus rotem Licht gebildet. Das im weißen Licht enthaltene Bild aus dem roten Licht wird bei einer Position weiter von der optischen Achse weg als das Bild aus dem gelben Licht gebildet. Eine solche Abweichung einer Bild-Bildungsposition zwischen dem Blaulicht-Bild, dem Gelblicht-Bild und dem Rotlicht-Bild wird als chromatische Aberration bezeichnet. Eine große chromatische Aberration bedeutet eine lange Distanz zwischen den Bild-Bildungspositionen des Blaulicht-Bilds, des Gelblicht-Bilds und des Rotlicht-Bilds.
  • Da die Größe der chromatischen Aberration entsprechend der Distanz zwischen der Position des Bilds und dem Zentrum des Schirms zunimmt, weisen die Pixel, wie in 25A gezeigt, auf dem Umfang eines Kreises um das Zentrum des Schirms herum eine chromatische Aberration der gleichen Größe auf.
  • Diese Relation zwischen der Distanz vom Zentrum des Schirms und der Größe der chromatischen Aberration kann in der grafischen Darstellung von 25B gezeigt werden. Das heißt die chromatische Aberration nimmt nicht linear mit der Distanz vom Zentrum des Schirms zu.
  • Das Abwärtsfilter 303 adoptiert die mit der Aberration korrespondierende Verarbeitung oder die Verarbeitung wie beispielsweise eine Jitteraddition oder Rauschenaddition für das eingegebene Bild und führt ein Bild, das einen mit der Aberration korrespondierenden Pixelwert aufweist, oder ein Jitter-addiertes oder Rauschen-addiertes Bild den Abgriffskonstruierungsschaltungen 304-1 bis 304-N zu.
  • Die Abgriffskonstruierungsschaltung 304-1 schaltet auf der Basis der von der Anzeigepositionsberechnungsschaltung 301 zugeführten Positionsinformation und des von der Strukturschaltsteuerungsschaltung 320 zugeführten Abgriffsauswahlsignal TS1 die Abgriffsstruktur für jedes von Rot, Grün und Blau. Die Abgriffskonstruierungsschaltung 304-1 wählt dann in dem vom Abwärtsfilter 303 zugeführten Bild inkludierte Pixel als einen mit jedem von Rot, Grün und Blau korrespondierenden Bewegungsklassenabgriff TD1 aus und führt den ausgewählten Bewegungsklassenabgriff TD1 einer Bewegungsklassenerzeugungsschaltung 305 zu. Der von Abgriffskonstruierungsschaltung 304-1 ausgegebene Bewegungsklassenabgriff TD1 besteht aus einem mit Rot korrespondierenden Abgriff, einem mit Grün korrespondierenden Abgriff und einem mit Blau korrespondierenden Abgriff.
  • Die 26A bis 26C stellen die Abgriffsstrukturen für Rot, Grün bzw. Blau an der Abgriffskonstruierungsschaltung 304-1 dar. Beispielsweise ist der mit Grün korrespondierende Abgriff wie in 26A gezeigt durch einen auf einem Zielpixel als dem Zentrum basierenden Abgriff gebildet.
  • Die Strukturschaltsteuerungsschaltung 302 erzeugt wie in 26B gezeigt Korrekturvektoren für Rot und Blau in Bezug auf Grün auf der Basis der von der Initialisierungsschaltung 312 eingegebenen Aberrationsinformation und führt das die erzeugten Korrekturvektoren aufweisende Abgriffsauswahlsignal TS1 der Abgriffskonstruierungsschaltung 304-1 zu.
  • Die Abgriffskonstruierungsschaltung 304-1 wählt beispielsweise auf der Basis der von der Anzeigepositionsberechnungsschaltung 301 zugeführten, die Distanz jedes Pixels vom Zentrum des Schirms anzeigenden Positionsinformation und des im Abgriffsauswahlsignal TS1 inkludierten Korrektionsvektors für Rot ein Korrektionszielpixel für Rot in Bezug auf das Zielpixel aus und konstruiert den wie in 26C gezeigten Abgriff, der mit dem auf dem Korrektionszielpixel zentrierten Rot korrespondiert. Ähnlich wählt die Abgriffskonstruierungsschaltung 304-1 auf der Basis der von der Anzeigepositionsberechnungsschaltung 301 zugeführten, die Distanz jedes Pixels vom Zentrum des Schirms anzeigenden Positionsinformation und des im Abgriffsauswahlsignal TS1 inkludierten Korrektionsvektor für Blau ein Korrektionszielpixel für Blau in Bezug auf das Zielpixel aus und konstruiert den Abgriff, der mit dem auf das Korrektionszielpixel zentrierten Blau korrespondiert.
  • Die Abgriffskonstruierungsschaltung 304-1 kann auch einen Korrektionsvektor für Rot, einen Korrektionsvektor für Grün und einen Korrektionsvektor für Blau inkludierendes Abgriffsauswahlsignal TS1 in Bezug auf das Zielpixel konstruieren, dann auf der Basis der die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigenden Positionsinformation und des im Abgriffsauswahlsignal TS1 inkludierten Korrektionsvektors für Rot einen Abgriff konstruieren, der mit dem auf ein auf das Korrektionszielpixel für Rot zentrierten Rot korrespondiert, dann auf der Basis der die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigenden Positionsinformation und des im Abgriffsauswahlsignal TS1 inkludierten Korrektionsvektor für Grün einen Abgriff konstruieren, der mit einem auf ein Korrektionszielpixel für Grün zentrierten Grün korrespondiert und auf der Basis der die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigenden Positionsinformation und des im Abgriffsauswahlsignal TS1 inkludierten Korrektionsvektors für Blau einen Abgriff konstruieren, der mit einem auf ein Korrektionszielpixel für Blau zentrierten Blau korrespondiert.
  • Die Bewegungsklassenerzeugungsschaltung 305 erzeugt auf der Basis des von der Initialisierungsschaltung 312 zugeführten Parameters und des von der Abgriffskonstruierungsschaltung 304-1 zugeführten Bewegungsklassenabgriffs TD1 einen Bewegungsklassencode MCC, der einen mit Rot korrespondierenden Bewegungsklassencode, einen mit Grün korrespondierenden Bewegungsklassencode und einen mit Blau korrespondierenden Bewegungsklassencode aufweist, und ein Statisch/Bewegungs-Kennzeichen SMF, das ein mit Rot korrespondierendes Statisch/Bewegungs-Kennzeichen, ein mit Grün korrespondierendes Statisch/Bewegungs-Kennzeichen und ein mit Blau korrespondierendes Statisch/Bewegungs-Kennzeichen aufweist, und gibt den Bewegungsklassencode MCC und das Statisch/Bewegungs-Kennzeichen SMF an die Abgriffskonstruierungsschaltungen 304-2 bis 304-N und die Klassenkombinierungsschaltung 307 aus.
  • Die Abgriffskonstruierungsschaltung 304-2 schaltet die Abgriffsstruktur für jedes von Rot, Grün und Blau auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF für jedes von Rot, Grün und Blau, die von der Bewegungsklassenerzeugungsschaltung 305 zugeführt werden, die Positionsinformation, welche die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigt, und das von der Strukturschaltsteuerungsschaltung 302 zugeführte Abgriffsauswahlsignal TS2. Die Abgriffskonstruierungsschaltung 304-2 wählt einen Allklassenprädiktionsabgriff VET aus, der einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist, und führt den ausgewählten Allklassenprädiktionsabgriff VET einer Variabelabgriffsauswahlschaltung 308 zu.
  • Die Abgriffskonstruierungsschaltung 304-3 schaltet die Abgriffsstruktur für jedes von Rot, Grün und Blau auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF für jedes von Rot, Grün und Blau, die von der Bewegungsklassenerzeugungsschaltung 305 zugeführt werden, die Positionsinformation, welche die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigt, und das von der Strukturschaltsteuerungsschaltung 302 zugeführte Abgriffsauswahlsignal TS3-1 für jedes von Rot, Grün und Blau. Die Abgriffskonstruierungsschaltung 304-3 wählt einen Klassenabgriff TD2-1 aus, der einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist, und führt den ausgewählten Abgriff TD2-1 einer Klassenerzeugungsschaltung 306-1 zu.
  • Die Klassenerzeugungsschaltung 306-1 erzeugt auf der Basis des von der Abgriffskonstruierungsschaltung 304-3 zugeführten Klassenabgriffs TD2-1 einen Klassencode CC1, der einen mit Rot korrespondierenden Klassencode, der einen mit Rot korrespondierenden Klassencode, einen mit Grün korrespondierenden Klassencode und einen mit Blau korrespondierenden Klassencode aufweist, und gibt den erzeugten Klassencode CC1 an die Klassenkombinierungsschaltung 307 aus. Der Klassencode CC1 kann beispielsweise ein Klassencode sein, der mit der im Klassenabgriff TD2-1 inkludierten Differenz zwischen dem Maximumpixelwert und dem Minimumpixelwert korrespondiert.
  • Die Abgriffskonstruierungsschaltungen 304-4 bis 304-N wählen auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 305 zugeführt werden, der Positionsinformation, welche die von der Anzeigepositionsberechnungsschaltung 301 zugeführte Distanz jedes Pixels vom Zentrum des Schirms anzeigt, und der Abgriffsauswahlsignale TS3-2 bis TS3-(N-2), die von der Strukturschaltsteuerungsschaltung 302 zugeführt werden, Klassenabgriffe TD2-2 bis TD2-(N-2) aus, deren jeder einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist. Die Abgriffskonstruierungsschaltungen 304-4 bis 304-N führen die ausgewählten Klassenabgriff TD2-2 bis TD2-(N-2) den jeweiligen Klassenerzeugungsschaltungen 306-2 bis 306-(N-2) zu.
  • Die Klassenerzeugungsschaltungen 306-2 bis 306-(N-2) erzeugen auf der Basis eines der Klassenabgriffe TD2-2 bis TD2-(N-2), die von den Abgriffskonstruierungsschaltungen 304-4 bis 304-N zugeführt werden, einen von Klassencodes CC2 bis CC(N-2), der einen mit Rot korrespondierenden Klassencode, einen mit Grün korrespondierenden Klassencode und einen mit Blau korrespondierenden Klassencode aufweist, und gibt den erzeugten einen der Klassencodes CC2 bis CC(N-2) an die Klassenkombinierungsschaltung 307 aus. Einer der Klassencodes CC2 bis CC(N-2) kann beispielsweise ein mit dem Pixelwertmuster korrespondierenden Klassencode sein.
  • Die Klassenkombinierungsschaltung 307 kombiniert auf der Basis des mit Rot korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Rot korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, den mit Rot korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Rot korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um einen mit Rot korrespondierenden Klassencode zu bilden, der in einem einzelnen endgültigen Klassencode TCC inkludiert ist,.
  • Die Klassenkombinierungsschaltung 307 kombiniert den mit Grün korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Grün korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um auf der Basis des mit Grün korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Grün korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, einen mit Grün korrespondierenden Klassencode, der im einzelnen endgültigen Klassencode TCC inkludiert ist, zu bilden.
  • Die Klassenkombinierungsschaltung 307 kombiniert den mit Blau korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Blau korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um auf der Basis des mit Blau korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Blau korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, einen mit Blau korrespondierenden Klassencode, der im einzelnen endgültigen Klassencode TCC inkludiert ist, zu bilden.
  • Die Klassenkombinierungsschaltung 307 gibt den Klassencode TCC, der den mit Rot korrespondierenden Klassencode, den mit Grün korrespondierenden Klassencode, und den mit Blau korrespondierenden Klassencode aufweist, an die Klassencodeauswahlschaltung 309 aus.
  • Die Klassencodeauswahlschaltung 309 erzeugt auf der Basis des von der Klassenkombinierungsschaltung 307 zugeführten Klassencodes CC ein Prädiktionsabgriffsauswahlsignal VT, das den mit Rot korrespondierenden Abgriff, den mit Grün korrespondierenden Abgriff und den mit Blau korrespondierenden Abgriff aufweist. Die Klassencodeauswahlschaltung 309 führt das erzeugte Prädiktionsabgriffsauswahlsignal VT der Variabelabgriffsauswahlschaltung 308 zu und gibt den Klassencode TCC an die Normalgleichungsoperationsschaltung 310 aus.
  • Die Variabelabgriffsauswahlschaltung 308 wählt auf der Basis des von der Abgriffskonstruierungsschaltung 304-2 zugeführten Allklassenprädiktionsabgriffs VET und des von der Klassencodeauswahlschaltung 309 zugeführten Prädiktionsabgriffsauswahlsignals VT einen Prädiktionsabgriff ET, der den mit Rot korrespondierenden Abgriff, den mit Grün korrespondierenden Abgriff und den mit Blau korrespondierenden Abgriff aufweist, aus und führt den ausgewählten Prädiktionsabgriff ET der Normalgleichungsoperationsschaltung 310 zu. Beim Empfang des Prädiktionsabgriffs ET, der die von der Variabelabgriffsauswahlschaltung 308 zugeführten Lerndaten ist, und des Eingabebilds, das die vom Abwärtsfilter 303 zugeführten Lehrerdaten ist, benutzt die Normalgleichungsoperationsschaltung 310 diese Daten zum Berechnen eines Prädiktionskoeffizienten W zum Minimieren eines Fehlers durch ein Minimumquadratverfahren (minimum square method). Der Prädiktionskoeffizient W weist einen mit Rot korrespondierenden Prädiktionskoeffizienten, einen mit Grün korrespondierenden Prädiktionskoeffizienten und einen mit Blau korrespondierenden Prädiktionskoeffizienten auf.
  • Der von der Normalgleichungsoperationsschaltung 310 berechnete Prädiktionskoeffizient W wird nachfolgend kurz beschrieben.
  • Beispielsweise wird in Betracht gezogen, einen Prädiktionswert E[y] eines Pixelwerts y eines originalen Bilds (äquivalent zu einem eingegebenen Bild (nachfolgend als Lehrerdaten geeignet bezeichnet) unter Benutzung eines Linearkombinationsmodells, das durch eine Linearkombination aus Pixelwerten (nachfolgend als Lerndaten geeignet bezeichnet) x1, x2, ... eines Bilds, denen durch Passieren des Abwärtsfilters 303 Rauschen hinzugefügt ist oder die einen mit einer Aberration korrespondierenden Pixelwerts aufweisen, und vorbestimmten Prädiktionskoeffizienten w1, w2, ... vorgeschrieben ist, zu finden. In diesem Fall kann der Prädiktionswert E[y] durch die folgende Gleichung (3) ausgedrückt werden. E[y] = w1 x1 + w2 x2 + ... (3)
  • Wenn infolgedessen eine Matrix W, die aus einem Satz von Prädiktionskoeffizienten w besteht, eine Matrix X, die aus einem Satz von Lerndaten besteht, und eine Matrix Y', die aus einem Satz von Prädiktionswerten E[y] besteht zur Generalisierung wie folgt definiert werden
    Figure 00310001
    Figure 00320001
    wird die folgende Observationsgleichung erhalten. XW = Y' (4)
  • Dann wird in Betracht gezogen, einen Prädiktionswert E[y] nahe dem Pixelwert y des originalen Bilds durch Adoptieren des Minimumquadratverfahrens für diese Observationsgleichung zu finden. In diesem Fall wird, wenn eine Matrix Y, die aus einem Satz von Pixelwerten y des originaler Bilds besteht, und eine Matrix E, die aus einem Satz von Resten e des Prädiktionswerts E[y] in Bezug auf den nächsten Pixelwert y des originalen Bilds besteht, wie folgt definiert werden,
    Figure 00320002
    aus der Gleichung (4) die folgende Restgleichung XW = Y + E (5)erhalten.
  • In diesem Fall kann ein Prädiktionskoeffizient wi zum Finden des Prädiktionswerts E[y] nahe beim Pixelwert y des originalen Bilds durch Minimieren des folgenden Quadratfehlers gefunden werden.
  • Figure 00320003
  • Wenn deshalb der durch den Prädiktionskoeffizienten wi differenzierte oben beschriebene Quadratfehler 0 ist, ist der die folgende Gleichung erfüllende Prädiktionskoeffizient wi ein Optimumwert zum Finden des Prädiktionswerts E[y] nahe beim Pixelwert y des originalen Bilds.
  • Figure 00320004
  • Infolgedessen stellt zuerst ein Differenzieren der Gleichung (5) durch den Prädiktionskoeffizienten wi die folgende Gleichung bereit.
  • Figure 00330001
  • Aus den Gleichungen (6) und (7) wird die folgende Gleichung (8) erhalten.
  • Figure 00330002
  • Überdies kann bei Berücksichtigung der Relation der Lerndaten x, des Prädiktionskoeffizienten w, der Lehrerdaten y und des Rests e in der Restgleichung (5) aus der Gleichung (8) die folgende Normalgleichung erhalten werden.
  • Figure 00330003
  • Der Optimumprädiktionskoeffizient w kann durch Lösen der Normalgleichung (9) gefunden werden. Beim Lösen der Gleichung (9) ist es möglich, beispielsweise ein Streichverfahren (Gauss-Jordan-Eliminationsverfahren) anzunehmen.
  • Insbesondere sei nun beispielsweise angenommen, dass die in den Lerndaten inkludierten Pixelwerte des Prädiktionsabgriffs ET gleich x1, x2, x3, ... sind und dass die zu findenden Prädiktionskoeffizienten W gleich w1, w2, w3, ... sind. Um den Pixelwert y eines gewissen Pixels der Lehrerdaten durch eine Linearkombination von x1, x2, x3, ... und w1, w2, w3, ... zu finden, müssen die Prädiktionskoeffizienten w1, w2, w3, ... die folgende Gleichung erfüllen. y = w1 x1 + w2 x2 + w3 x3 +...
  • Infolgedessen findet die Normalgleichungsoperationsschaltung 310 die Prädiktionskoeffizienten w1, w2, w3, ... die einen Quadratfehler des Prädiktionswerts w1 x1 + w2 x2 + w3 x3 + ... relativ zum wahren Wert y aus dem Prädiktionsabgriffs der gleichen Klasse und den Pixeln der korrespondierenden Lehrerdaten durch Aufstellen und Lösen der oben beschriebenen Normalgleichung (9) minimieren.
  • Insbesondere findet die Normalgleichungsoperationsschaltung 310 die mit Rot korrespondierenden Prädiktionskoeffizienten w1, w2, w3, ..., die den Quadratfehler des Prädiktionswerts w1 x1 + w2 x2 + w3 x3 + ... relativ zu dem mit Rot korrespondierenden wahren Wert y minimieren, aus dem Prädiktionsabgriff der mit Rot korrespondierenden gleichen Klasse und der Rot-Komponente der korrespondierenden Lehrerdaten durch Aufstellen und Lösen der Normalgleichung.
  • Die Normalgleichungsoperationsschaltung 310 findet den mit Grün korrespondierenden Prädiktionskoeffizienten w1, w2, w3, ..., die den Quadratfehler des Prädiktionswerts w1 x1 + w2 x2 + w3 x3 + ... relativ zu dem mit Grün korrespondierenden wahren Wert y minimieren, aus dem Prädiktionsabgriff der mit Grün korrespondierenden gleichen Klasse und der Grün-Komponente der korrespondierenden Lehrerdaten durch Aufstellen und Lösen der Normalgleichung.
  • Die Normalgleichungsoperationsschaltung 310 findet den mit Blau korrespondierenden Prädiktionskoeffizienten w1, w2, w3, ..., die den Quadratfehler des Prädiktionswerts w1 x1 + w2 x2 + w3 x3 + ... relativ zu dem mit Blau korrespondierenden wahren Wert y minimieren, aus dem Prädiktionsabgriff der mit Blau korrespondierenden gleichen Klasse und der Blau-Komponente der korrespondierenden Lehrerdaten durch Aufstellen und Lösen der Normalgleichung.
  • Deshalb werden durch Ausführen dieser Verarbeitung für jede Klasse die Prädiktionskoeffizienten W, welche den mit Rot korrespondierenden Prädiktionskoeffizienten, den mit Grün korrespondierenden Prädiktionskoeffizienten und den mit Blau korrespondierenden Prädiktionskoeffizienten aufweisen, für jede Klasse erzeugt.
  • Die durch die Normalgleichungsoperationsschaltung 310 gefundenen Prädiktionskoeffizienten W, die den mit Rot korrespondierenden Prädiktionskoeffizienten, den mit Grün korrespondierenden Prädiktionskoeffizienten und den mit Blau korrespondierenden Prädiktionskoeffizienten für jede Klasse aufweisen, werden zusammen mit dem Klassencode TCC einem Koeffizientenspeicher 311 zugeführt. Infolgedessen speichert der Koeffizientenspeicher 311 die Prädiktionskoeffizienten W aus der Normalgleichungsoperationsschaltung 310 bei der mit der durch den Klassencode TCC angezeigten Klasse korrespondierenden Adresse.
  • Wie oben beschrieben kann die in 23 gezeigte Bildverarbeitungsanordnung einen Koeffizientensatz erzeugen, der für die Bildverarbeitungsanordnung benutzt wird, die einen oder mehrere Moden des Bildverarbeitungsmodus zur Ausführung einer Fehlendpixelerzeugung, des Bildverarbeitungsmodus in Bezug auf die chromatische Aberration und den Bildverarbeitungsmodus in Bezug auf die Telopposition wahlweise ausführt.
  • Die in 23 gezeigte Bildverarbeitungsanordnung kann auch einen Koeffizientensatz erzeugen, der für die Bildverarbeitungsanordnung benutzt wird, die eine Bildverarbeitung im Bildverarbeitungsmodus in Bezug auf die chromatische Aberration ausführt, wobei eine Bildaufnahme durch eine Linse, die eine Aberration aufweist, und die gleiche Bildaufnahme durch eine Linse, die eine kleine Aberration aufweist, erhalten werden, wobei das erstere Bild als Lerndaten benutzt wird und das letztere Bild als Lehrerdaten benutzt wird.
  • 27 zeigt den Aufbau einer Ausführungsform der Bildverarbeitungsanordnung gemäß der vorliegenden Erfindung, die einen oder mehrere Moden des Bildverarbeitungsmodus zur Ausführung einer Fehlendpixelerzeugung, des Bildverarbeitungsmodus in Bezug auf die chromatische Aberration und des Bildverarbeitungsmodus in Bezug auf die Telopposition unter Benutzung des durch die in 23 gezeigte Bildverarbeitungsanordnung erzeugten Koeffizientensatzes wahlweise ausführt.
  • Eine Anzeigepositionsberechnungsschaltung 401 berechnet die Distanz jedes Pixels eines eingegebenen Bilds vom Zentrum des Schirms und führt die Positionsinformation, welche die Distanz jedes Pixels vom Zentrum des Schirms anzeigt, Abgriffskonstruierungsschaltungen 403-1 bis 403-N zu.
  • Die Anzeigepositionsberechnungsschaltung 401 kann auch die Positionsinformation, welche die Distanz jedes Pixels des Bilds vom Zentrum des Schirms anzeigt, einer Strukturschaltsteuerungsschaltung 402 zuführen.
  • Eine Initialisierungsschaltung 410 führt Bildendeinformation, Aberrationsinformation, Verarbeitungsmodus- und Teloppositionsinformation der Strukturschaltsteuerungsschaltung 402 zu.
  • Wenn der Verarbeitungsmodus die Erzeugung eines fehlenden Pixels anzeigt, führt die Strukturschaltsteuerungsschaltung 402 den Abtastkonstruierungsschaltungen 403-1 bis 403-N ihrer Reihe nach ein Abtastauswahlsignal TS1, ein Abtastauswahlsignal TS2 und Abtastauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Bildendeinformation korrespondieren. Wenn der Verarbeitungsmodus den Aberrationsmodus anzeigt, führt die Strukturschaltsteuerungsschaltung 402 den Abtastkonstruierungsschaltungen 403-1 bis 403-N ihrer Reihe nach ein Abtastauswahlsignal TS1, ein Abtastauswahlsignal TS2 und Abtastauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Aberrationsinformation korrespondieren. Wenn der Verarbeitungsmodus den Telopmodus anzeigt, führt die Strukturschaltsteuerungsschaltung 402 den Abtastkonstruierungsschaltungen 403-1 bis 403-N ihrer Reihe nach ein Abtastauswahlsignal TS1, ein Abtastauswahlsignal TS2 und Abtastauswahlsignale TS3-1 bis TS3-(N-2) zu, die mit der Teloppositionsinformation korrespondieren.
  • Die Strukturschaltsteuerungsschaltung 402 kann auch mehrere Verarbeitungsmoden der drei Verarbeitungsmoden auswählen.
  • Es wird nun ein Beispiel des Operationsmodus beschrieben.
  • Beispielsweise werden das Abtastauswahlsignal TS1, das Abtastauswahlsignal TS2 und die Abtastauswahlsignale TS3-1 bis TS-(N-2) durch ein mit Rot korrespondierendes Signal, ein mit Grün korrespondierendes Signal und mit Blau korrespondierenden Signalen, das heißt mit RGB korrespondierenden Signalen gebildet.
  • Die Strukturschaltsteuerungsschaltung 402 erzeugt auf der Basis der von der Initialisierungsschaltung 410 eingegebenen Aberrationsinformation einen Aberrationsklassencode CCA, der aus einem mit Rot korrespondierenden Klassencode, einem mit Grün korrespondierenden Klassencode und einem mit Blau korrespondierenden Klassencode besteht, und führt den erzeugten Aberrationsklassencode CCA einer Klassenkombinierungsschaltung 406 zu.
  • Die Abtastkonstruierungsschaltung 403-1 schaltet die Abtaststruktur für jedes von Rot, Grün und Blau auf der Basis der von der Anzeigepositionsberechnungsschaltung 401 zugeführten Positionsinformation und des von der Strukturschaltsteuerungsschaltung 402 zugeführten Abtastauswahlsignals TS1. Die Abtastkonstruierungsschaltung 403-1 wählt dann Pixel, die in dem von einer Vorverarbeitungsschaltung 403 zugeführten Bild inkludiert sind, als einen mit jedem von Rot, Grün und Blau korrespondierenden Bewegungsklassenabgriff TD1 aus und führt den ausgewählten Bewegungsklassenabgriff TD1 einer Bewegungsklassenerzeugungsschaltung 404 zu. Der von Abgriffskonstruierungsschaltung 403-1 ausgegebene Bewegungsklassenabgriff TD1 besteht aus einem mit Rot korrespondierenden Abgriff, einem mit Grün korrespondierenden Abgriff und einem mit Blau korrespondierenden Abgriff.
  • Die Bewegungsklassenerzeugungsschaltung 404 erzeugt auf der Basis des von der Initialisierungsschaltung 410 zugeführten Parameters und des von der Abgriffskonstruierungsschaltung 403-1 zugeführten Bewegungsklassenabgriffs TD1 einen Bewegungsklassencode MCC, der einen mit Rot korrespondierenden Bewegungsklassencode, einem mit Grün korrespondierenden Bewegungsklassencode und einem mit Blau korrespondierenden Bewegungsklassencode aufweist, und ein Statisch/Bewegungs-Kennzeichen SMF, das ein mit Rot korrespondierendes Statisch/Bewegungs-Kennzeichen, ein mit Grün korrespondierendes Statisch/Bewegungs-Kennzeichen und ein mit Blau korrespondierendes Statisch/Bewegungs-Kennzeichen aufweist, und gibt den Bewegungsklassencode MCC und das Statisch/Bewegungs-Kennzeichen SMF an die Abgriffskonstruierungsschaltungen 403-2 bis 403-N und die Klassenkombinierungsschaltung 406 aus.
  • Die Abgriffskonstruierungsschaltung 403-2 schaltet die Abgriffstruktur für jedes von Rot, Grün und Blau auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF für jedes von Rot, Grün und Blau, die von der Bewegungsklassenerzeugungsschaltung 404 zugeführt werden, und des von der Strukturschaltsteuerungsschaltung 402 zugeführten Abgriffsauswahlsignals TS2. Die Abgriffskonstruierungsschaltung 403-2 wählt einen Allklassenprädiktionsabgriff VET, der einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist, aus und führt den ausgewählten Allklassenprädiktionsabgriff VET einer Variabelabgriffsauswahlschaltung 407 zu.
  • Die Abgriffskonstruierungsschaltung 403-3 schaltet die Abgriffstruktur für jedes von Rot, Grün und Blau auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF für jedes von Rot, Grün und Blau, die von der Bewegungsklassenerzeugungsschaltung 404 zugeführt werden, und des von der Strukturschaltsteuerungsschaltung 402 zugeführten Abgriffsauswahlsignals TS3-1 für jedes von Rot, Grün und Blau. Die Abgriffskonstruierungsschaltung 403-3 wählt einen Klassenabgriff TD2-1, der einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist, aus und führt den ausgewählten Klassenabgriff TD2-1 einer Klassenerzeugungsschaltung 405-1 zu.
  • Die Klassenerzeugungsschaltung 405-1 erzeugt auf der Basis des von Abgriffskonstruierungsschaltung 403-3 zugeführten Klassenabgriff TD2-1 einen Klassencode CC1, der einen mit Rot korrespondierenden Klassencode, einen mit Grün korrespondierenden Klassencode und einen mit Blau korrespondierenden Klassencode aufweist, und gibt den erzeugten Klassencode CC1 an die Klassenkombinierungsschaltung 406 aus. Der Klassencode CC1 kann beispielsweise ein mit der Differenz zwischen dem Maximumpixelwert und dem Minimumpixelwert der im Klassenabgriff TD2-1 inkludierten Pixel korrespondierender Code sein.
  • Die Abgriffskonstruierungsschaltungen 403-4 bis 403-N wählen auf der Basis des Bewegungsklassencodes MCC und des Statisch/Bewegungs-Kennzeichens SMF, die von der Bewegungsklassenerzeugungsschaltung 404 zugeführt werden, und der Abgriffsauswahlsignale TS3-2 bis TS3-(N-2), die von der Strukturschaltsteuerungsschaltung 402 zugeführt werden, einen von Klassenabgriffen TD2-2 bis TD2-(N-2), deren jeder einen mit Rot korrespondierenden Abgriff, einen mit Grün korrespondierenden Abgriff und einen mit Blau korrespondierenden Abgriff aufweist, aus und führt den ausgewählten einen der Klassenabgriffe TD2-2 bis TD2-(N-2) Klassenerzeugungsschaltungen 405-2 bis 405-(N-2) zu.
  • Die Klassenerzeugungsschaltungen 405-2 bis 405-(N-2) erzeugen auf der Basis eines der Klassenabgriffe TD2-2 bis TD2-(N-2), die von den Abgriffskonstruierungsschaltungen 403-3 bis 403-N zugeführt werden, einen von Klassencodes CC2 bis CC(N-2), die einen mit Rot korrespondierenden Klassencode, einen mit Grün korrespondierenden Klassencode und einen mit Blau korrespondierenden Klassencode aufweisen, und geben den erzeugten einen der Klassencodes CC2 bis CC(N-2) an die Klassenkombinierungsschaltung 406 aus. Der Klassencode CC2 kann beispielsweise ein mit dem Pixelwertmuster korrespondierender Klassencode sein.
  • Die Klassenkombinierungsschaltung 406 kombiniert auf der Basis des mit Rot korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Rot korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, den mit Rot korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Rot korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um einen mit Rot korrespondierenden Klassencode zu bilden, der in einem einzelnen endgültigen Klassencode TCC inkludiert ist.
  • Die Klassenkombinierungsschaltung 406 kombiniert auf der Basis des mit Grün korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Grün korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, den mit Grün korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Grün korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um einen mit Grün korrespondierenden Klassencode zu bilden, der im einzelnen endgültigen Klassencode TCC inkludiert ist.
  • Die Klassenkombinierungsschaltung 406 kombiniert auf der Basis des mit Blau korrespondierenden Klassencodes, der im Bewegungsklassencode MCC inkludiert ist, und des mit Blau korrespondierenden Statisch/Bewegungs-Kennzeichens, das im Statisch/Bewegungs-Kennzeichen SMF inkludiert ist, den mit Blau korrespondierenden Klassencode, der im Aberrationsklassencode CCA inkludiert ist, und den mit Blau korrespondierenden Klassencode, der in den Klassencodes CC1 bis CC(N-2) inkludiert ist, um einen mit Blau korrespondierenden Klassencode zu bilden, der im einzelnen endgültigen Klassencode TCC inkludiert ist.
  • Die Klassenkombinierungsschaltung 406 gibt den Klassencode TCC, der den mit Rot korrespondierenden Klassencode, den mit Grün korrespondierenden Klassencode und den mit Blau korrespondierenden Klassencode an eine Koeffizientenhalteklassencodeauswahlschaltung 408 aus.
  • Die Koeffizientenhalteklassencodeauswahlschaltung 408 speichert im Voraus ein Prädiktionsabgriffsauswahlsignal VT und einen mit dem Klassencode TCC korrespondierenden Koeffizientensatz, die von einer Initialisierungsschaltung 410 zugeführt werden.
  • Die Koeffizientenhalteklassencodeauswahlschaltung 408 erzeugt auf der Basis des von Klassenkombinierungsschaltung 406 zugeführten Klassencodes TCC das Prädiktionsabtastauswahlsignal VT, das den mit Rot korrespondierenden Abgriff, den mit Grün korrespondierenden Abgriff und den mit Blau korrespondierenden Abgriff aufweist, und führt das erzeugte Prädiktionsabgriffsignal VT der Variabelabgriffsauswahlschaltung 407 zu. Zur gleichen Zeit gibt die Koeffizientenhalteklassencodeauswahlschaltung 408 Prädiktionskoeffizienten W, die aus einem mit dem Klassencode für Rot korrespondierenden Prädiktionskoeffizienten, der im Klassencode TCC inkludiert ist, einem mit dem Klassencode für Grün korrespondierenden Prädiktionskoeffizienten, der im Klassencode TCC inkludiert ist, und einem mit dem Klassencode für Blau korrespondierenden Prädiktionskoeffizienten, der im Klassencode TCC inkludiert ist, besteht, an eine Schätzprädiktionsoperationsschaltung 409 aus.
  • Die Variabelabgriffsauswahlschaltung 407 wählt auf der Basis des von der Abgriffskonstruierungsschaltung 403-2 zugeführten Allklassenprädiktionsabgriffs VET und des von der Koeffizientenhalteklassencodeauswahlschaltung 408 zugeführten Prädiktionsabgriffsauswahlsignals VT einen Prädiktionsabgriff ET, der den mit Rot korrespondierenden Abgriff, den mit Grün korrespondierenden Abgriff und den mit Blau korrespondierenden Abgriff aufweist, aus und führt den ausgewählten Prädiktionsabgriff ET der Schätzprädiktionsoperationsschaltung 409 zu.
  • Eine Produktsummenoperationseinheit 421 der Schätzprädiktionsoperationsschaltung 409 berechnet auf der Basis des mit Rot korrespondierenden Abgriffs, der in dem von der Variabelabgriffsauswahlschaltung 407 zugeführten Prädiktionsabgriff ET inkludiert ist, und des mit Rot korrespondierenden Prädiktionskoeffizienten, der in dem mit der Koeffizientenhalteklassencodeauswahlschaltung 408 zugeführten Prädiktionskoeffizienten W inkludiert ist, unter Benutzung einer Linearschätzformel eine Rot-Komponente des Pixelwerts.
  • Die Produktsummenoperationseinheit 421 der Schätzprädiktionsoperationsschaltung 409 berechnet auf der Basis des mit Grün korrespondierenden Abgriffs, der in dem von der Variabelabgriffsauswahlschaltung 407 zugeführten Prädiktionsabgriff ET inkludiert ist, und des mit Grün korrespondierenden Prädiktionskoeffizienten, der in dem von der Koeffizientenhalteklassencodeauswahlschaltung 408 zugeführten Prädiktionskoeffizienten W inkludiert ist, unter Benutzung einer Linearschätzformel eine Grün-Komponente des Pixelwerts.
  • Die Produktsummenoperationseinheit 421 der Schätzprädiktionsoperationsschaltung 409 berechnet auf der Basis des mit Blau korrespondierenden Abgriffs, der in dem von der Variabelabgriffsauswahlschaltung 407 zugeführten Prädiktionsabgriff ET inkludiert ist, und des mit Blau korrespondierenden Prädiktionskoeffizienten, der in dem von der Koeffizientenhalteklassencodeauswahlschaltung 408 zugeführten Prädiktionskoeffizienten W inkludiert ist, unter Benutzung einer Linearschätzformel eine Blau-Komponente des Pixelwerts.
  • Die Produktsummenoperationseinheit 421 der Schätzprädiktionsoperationsschaltung 409 kann auch den Pixelwert des fehlenden Pixels auf der Basis der Prädiktionskoeffizienten W unter Benutzung einer Nichtlinearschätzformel berechnen.
  • Auf diese Weise kann die in 27 gezeigte Bildverarbeitungsanordnung einen oder mehrere Moden des Bildverarbeitungsmodus zur Ausführung einer Fehlendpixelerzeugung, des Bildverarbeitungsmodus in Bezug auf die chromatische Aberration und des Bildverarbeitungsmodus in Bezug auf die Telopposition wahlweise ausführen und kann ein schärferes Bild als die herkömmliche Anordnung bereitstellen.
  • Es wird nun die mit der chromatischen Aberration korrespondierende Abgriffschaltverarbeitung im Aberrationsmodus in der in 23 gezeigten Bildverarbeitungsanordnung anhand des Flussdiagramms von 28 beschrieben. Beim Schritt S101 erhält die Strukturschaltsteuerungsschaltung 302 eine von der Initialisierungsschaltung 312 zugeführte Aberrationsinformation.
  • Beim Schritt S102 wählt die Strukturschaltsteuerungsschaltung 302 ein Zielpixel aus. Beim Schritt S103 findet die Anzeigepositionsberechnungsschaltung 301 die relative Distanz zwischen dem Zielpixel und dem Zentrum des Schirms. Beim Schritt S104 erzeugt die Strukturschaltsteuerungsschaltung 302 einen Korrektionsvektor für Rot, einen Korrektionsvektor für Grün und einen Korrektionsvektor für Blau und führt ein die Korrektionsvektoren aufweisendes Abgriffsauswahlsignal TS1 der Abgriffskonstruierungsschaltung 304-1, ein die Korrektionsvektoren aufweisendes Abgriffsauswahlsignal TS2, der Abgriffskonstruierungsschaltung 304-2 und die Korrektionsvektoren aufweisende Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) den jeweiligen Abgriffskonstruierungsschaltung 304-3 bis 304-N zu.
  • Beim Schritt S105 schaltet die Abgriffskonstruierungsschaltung 304-1 den Abgriff auf der Basis der Positionsinformation, welche die relative Distanz zwischen dem Zielpixel und dem Zentrum des Schirms anzeigt, und des Korrektionsvektors für Rot, des Korrektionsvektors für Grün und ded Korrektionsvektors für Blau und wählt einen mit jedem von Rot, Grün und Blau korrespondierenden Bewegungsklassenabgriff TD1 aus. Die Abgriffskonstruierungsschaltung 304-2 schaltet den Abgriff auf der Basis der Positionsinformation, welche die relative Distanz zwischen dem Zielpixel und dem Zentrum des Schirms anzeigt, und des Korrektionsvektors für Rot, des Korrektionsvektors für Grün und des Korrektionsvektors für Blau und wählt einen mit jedem von Rot, Grün und Blau korrespondierenden Allklassenprädiktionsabgriff VET aus. Die Abgriffskonstruierungsschaltungen 204-3 bis 204-N schalten den Abgriff auf der Basis der Positionsinformation, welche die relative Distanz zwischen dem Zielpixel und dem Zentrum des Schirms anzeigt, und des Korrektionsvektors für Rot, des Korrektionsvektors für Grün und des Korrektionsvektors für Blau und wählen jeweilige mit jedem von Rot, Grün und Blau korrespondierende DR-Klassenabgriffe TD2-1 bis TD2-(N-2) aus.
  • Beim Schritt S106 entscheidet die Bildverarbeitungsanordnung, ob die Verarbeitung für alle Pixel vollendet ist oder nicht. Wenn bestimmt wird, dass die Verarbeitung nicht für alle Pixel vollendet ist, kehrt die Bildverarbeitungsanordnung zum Schritt S102 zurück und wiederholt die Abgriffsschaltverarbeitung.
  • Wie oben beschrieben kann im Aberrationsmodus die in 23 gezeigte Bildverarbeitungsanordnung den Abgriff entsprechend der Schirmposition in Bezug auf die Aberration schalten.
  • Im Aberrationsmodus schaltet die in 27 gezeigte Bildverarbeitungsanordnung den Abgriff entsprechend der Schirmposition entsprechend der Verarbeitung ähnlich zu der in Bezug auf das Flussdiagramm von 28 beschriebenen Verarbeitung. Deshalb wird die Verarbeitung nicht weiter im Detail beschrieben.
  • Es wird nun eine von der in 23 gezeigten Bildverarbeitungsanordnung und der in 27 gezeigten Bildverarbeitungsanordnung ausgeführte andere Verarbeitung beschrieben.
  • Bei der in 23 gezeigten Bildverarbeitungsanordnung erhält, wenn der Telopmodus durch die Initialisierungsschaltung 312 bezeichnet wird, die Strukturschaltsteuerungsschaltung 302 Teloppositionsinformation, die einen Telopanzeigebereich zur Anzeige eines Telops anzeigt. Die Teloppositionsinformation zeigt die Position und Größe des Telopanzeigebereichs wie beispielsweise obere 30 Zeilen, untere 50 Zeilen oder rechte 100 Pixel an.
  • Die Strukturschaltsteuerungsschaltung 302 kann auch Daten erhalten, die den Telopanzeigebereich vom eingegebenen Bild anzeigen.
  • Die 29A bis 29D zeigen Beispiele des Schirms, bei dem ein Telop oder dgl. angezeigt wird. Beim Beispiel von 29A werden in Telopanzeigebereichen im oberen und unteren Teil des Bildanzeigebereichs ein Bild und korrespondierende Zeichen angezeigt. Da das Bild im Telopanzeigebereich eine große Menge von flachen Teilen und Randteilen aufweist, ist seine Signalcharakteristik von der eines natürlichen Bilds oder dgl. verschieden.
  • Beim Beispiel von 29B werden Zeichen, die in einem Telopanzeigebereich im unteren Teil des Bildanzeigebereichs angezeigt werden, veranlasst, auf dem Bild von der rechten Seite zur linken Seite des Schirms zu laufen.
  • Beim Beispiel von 29C werden in einem Telopanzeigebereich auf dem rechten halben Teil des Schirms angezeigte Zeichen veranlasst, auf dem Bild von der oberen Seite zur unteren Seite des Schirms zu laufen.
  • Beim Beispiel von 29D wird ein durch Computergrafik erzeugtes Bild in einem Rahmenbildanzeigebereich auf den vier Seiten, die den Bildanzeigebereich umgeben, angezeigt.
  • Es wird nun ein exemplarischer Betrieb der Bildverarbeitungsanordnung von 23 im Telopmodus beschrieben.
  • Die Anzeigepositionsberechnungsschaltung 301 berechnet die physikalische Adresse auf dem Schirm jedes Pixels eines eingegebenen Bilds und führt die berechnete physikalische Adresse den Abgriffskonstruierungsschaltungen 304-1 bis 304-N zu.
  • Die Strukturschaltsteuerungsschaltung 302 erzeugt auf der Basis der Teloppositionsinformation ein Abgriffsauswahlsignal TS1, ein Abgriffsauswahlsignal TS2 und Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) und führt das Abgriffsauswahlsignal TS1 der Abgriffskonstruierungsschaltung 304-1, das Abgriffsauswahlsignal TS2 der Abgriffskonstruierungsschaltung 304-2 und die Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) den jeweiligen Abgriffskonstruierungsschaltungen 304-3 bis 304-N zu.
  • Auf der Basis der physikalischen Adresse jedes Pixels auf dem Schirm und des Abgriffsauswahlsignals TS1 wählt die Abgriffskonstruierungsschaltung 304-1 beispielsweise einen Abgriff, der einen breiteren Bereich von Pixeln benutzt, wenn das Zielpixel zum Bildanzeigebereich gehört, und einen Abgriff, der einen engeren Bereich von Pixeln benutzt, wenn das Zielpixel zum Telopanzeigebereich gehört, aus. Infolgedessen wählt die Abgriffskonstruierungsschaltung 304-1 einen Bewegungsklassenabgriff TD1 aus. Beispielsweise kann die Bildverarbeitungsanordnung durch Auswählen eines Abgriffs, der einen breiteren Bereich von Pixeln benutzt, wenn im Bildanzeigebereich ein natürliches Bild angezeigt wird, eine Bildverarbeitung unter Benutzung einer Bildkomponente, die sich über eine große Anzahl von Pixeln sanft ändert, ausführen.
  • Andererseits sind im Telopanzeigebereich, in welchem Zeichen angezeigt werden, die Pixelwert von mit den Zeichen korrespondierenden Pixeln im Wesentlichen der gleiche Wert und sind die Pixelwerte von mit dem Hintergrund korrespondierenden Pixeln im Wesentlichen der gleiche Wert. Beispielsweise sind die Pixelwerte von mit den in weiß angezeigten Zeichen korrespondierenden Pixeln und die Pixelwerte von mit den im Hintergrund schwarz angezeigten Pixeln stark unterschiedlich.
  • Das heißt im Telopanzeigebereich ändert sich der Wert eines Abgriffs quer über die Zeichen und den Hintergrund abrupt. Der Wert eines Abgriffs, der nur aus den Zeichen oder nur dem Hintergrund besteht, ändert sich wenig. Deshalb kann durch Auswählen eines Abgriffs eines engeren Bereichs für den Telopanzeigebereich die Bildverarbeitungsanordnung eine Klassifikation oder adaptive Verarbeitung ausführen, die mit einem Bild mit einem abrupt sich ändernden Pixelwert geeignet korrespondiert.
  • Wenn Zeichen angezeigt werden, um in dem wie in 29B gezeigten Telopanzeigebereich in der horizontalen Richtung des Schirms zu laufen, kann durch Auswählen eines horizontal langen Abgriffs in Bezug auf den Telopanzeigebereich die Bildverarbeitungsanordnung eine Bildverarbeitung effektiver ausführen, die selbst mit wenigen Klassen einen hohen Rauscheneliminationseffekt realisiert. Wenn Zeichen angezeigt werden, um in dem wie in 29C gezeigten Telopanzeigebereich in der vertikalen Richtung des Schirms zu laufen, kann die Bildverarbeitungsanordnung eine Bildverarbeitung durch Auswählen eines vertikal langen Abgriffs in Bezug auf den Telopanzeigebereich effektiver ausführen.
  • Auf diese Weise führt die Bildverarbeitungsanordnung durch Benutzung unterschiedlicher Abgriffstrukturen und Prädiktionskoeffizienten W eine optimale Signalverarbeitung für den Telopanzeigebereich und den Bildanzeigebereich aus.
  • Es wird nun die mit der Telopposition in der in 23 gezeigten Bildverarbeitungsanordnung korrespondierende Abgriffschaltverarbeitung im Telopmodus anhand des Flussdiagramms von 30 beschrieben.
  • Beim Schritt S201 erhält die Strukturschaltsteuerungsschaltung 302 von der Initialisierungsschaltung 312 zugeführte Teloppositionsinformation. Die Strukturschaltsteuerungsschaltung 302 erzeugt ein Abgriffsauswahlsignal TS1, ein Abgriffsauswahlsignal TS2 und Abgriffsauswahlsignale TS3-1 bis TS3-(N-2), die mit der Position des Telops korrespondieren, und führt das Abgriffsauswahlsignal TS1 der Abgriffskonstruierungsschaltung 304-1, das Abgriffsauswahlsignal TS2 der Abgriffskonstruierungsschaltung 304-2 und die Abgriffsauswahlsignale TS3-1 bis TS3-(N-2) den jeweiligen Abgriffskonstruierungsschaltungen 304-3 bis 304-N zu.
  • Beim Schritt S202 wählt die Abgriffskonstruierungsschaltung 304-1 ein Zielpixel aus. Die Abgriffskonstruierungsschaltung 304-2 wählt ein Zielpixel aus. Die Abgriffskonstruierungsschaltungen 304-3 bis 304-N wählen jeweilige Zielpixel aus.
  • Beim Schritt S204 entscheidet die Abgriffskonstruierungsschaltung 304-1 auf der Basis der physikalischen Adresse jedes Pixels auf dem Schirm und des Abgriffsauswahlsignals TS1, ob das Zielpixel ein Pixel im Telop ist oder nicht. Wenn bestimmt wird, dass das Zielpixel ein Pixel im Telop ist, geht die Verarbeitung zum Schritt S204, und die Abgriffskonstruierungsschaltung 304-1 schaltet den Abgriff und wählt einen mit dem Telop korrespondierenden Bewegungsklassenabgriff TD1 aus. Dann geht die Verarbeitung zum Schritt S206.
  • Wenn beim Schritt S203 bestimmt wird, dass das Zielpixel nicht ein Pixel im Telop ist, geht die Verarbeitung zum Schritt S205, und die Abgriffskonstruierungsschaltung 304-1 schaltet den Abgriff und wählt einen mit einem natürlichen Bild korrespondierenden Bewegungsklassenabgriff TD1 aus. Dann geht die Verarbeitung zum Schritt S206.
  • Bei den Schritten S203 bis S205 führen die Abgriffskonstruierungsschaltungen 304-2 bis 304-N die Verarbeitung ähnlich zu der der Abgriffskonstruierungsschaltung 304-1 aus. Deshalb wird die Verarbeitung nicht weiter im Detail beschrieben.
  • Beim Schritt S206 entscheiden die Abgriffskonstruierungsschaltungen 304-1 bis 304-N, ob die Verarbeitung für alle Pixel vollendet ist oder nicht. Wenn bestimmt wird, dass die Verarbeitung für alle Pixel nicht vollendet ist, kehrt die Verarbeitung zum Schritt S202 zurück, um die Abgriffschaltverarbeitung zu wiederholen.
  • Wenn beim Schritt S206 bestimmt wird, dass die Verarbeitung für alle Pixel vollendet ist, endet die Verarbeitung.
  • Auf diese Weise kann im Telopmodus die in 23 gezeigte Pixelverarbeitungsanordnung den Abgriff abhängig davon schalten, ob das Zielpixel zum Telopanzeigebereich gehört oder nicht.
  • Im Telopmodus schaltet die in 27 gezeigte Bildverarbeitungsanordnung den Abgriff entsprechend der Verarbeitung ähnlich zu der in Bezug auf das Flussdiagramm von 30 beschriebenen Verarbeitung abhängig davon, ob das Zielpixel zum Telopanzeigebereich gehört oder nicht. Deshalb wird die Verarbeitung nicht weiter im Detail beschrieben.
  • In Bezug auf das in 29D gezeigte Bild führt die in 23 oder 27 gezeigte Bildverarbeitungsanordnung eine Verarbeitung durch Schalten des Abgriffs des Rahmenbildanzeigebereichs und des Abgriffs des Bildanzeigebereichs aus.
  • Die oben beschriebene Verarbeitungsreihe kann durch Hardware ausgeführt werden oder kann durch Software ausgeführt werden. Wenn die Verarbeitungsreihe durch Software ausgeführt wird, wird ein die Software bildendes Programm von einem Aufzeichnungsmedium auf beispielsweise einem Universal-Personalcomputer installiert, der zur Ausführung unterschiedlicher Funktionen fähig ist, indem ein in der Hardware untergebrachter Computer oder unterschiedlicher Programme installiert werden.
  • 31 stellt ein exemplarisches Aufzeichnungsmedium und einen Computer dar. Eine CPU (central processing unit (zentrale Verarbeitungseinheit)) 501 führt unterschiedliche Anwendungsprogramme und ein OS (operating system (Betriebssystem)) tatsächlich aus. Ein ROM (read-only memory (Nurlesespeicher)) 502 speichert generell grundsätzlich feste Daten der Programme und Operationsparameter, die von der CPU 501 benutzt werden. Ein RAM (random access memory (Direktzugriffsspeicher)) 503 speichert die zur Ausführung durch die CPU 501 benutzten Programme und die sich bei der Ausführung geeignet ändernden Parameter. Diese Einheiten sind durch einen Hostbus 504, der aus einem CPU-Bus oder dgl. gebildet ist, miteinander verbunden.
  • Der Hostbus 504 ist über eine Brücke 505 mit einem externen Bus 506 wie beispielsweise einer PCI (peripheral component interconnect/interface (Peripherkomponenten-Verbindung/Schnittstelle)) verbunden.
  • Eine Tastatur 508 wird vom Benutzer betätigt, wenn der Benutzer unterschiedliche Instruktionen in die CPU 501 eingibt. Eine Maus 509 wird vom Benutzer betätigt, wenn der Benutzer einen Punkt auf dem Schirm einer Anzeige 510 bezeichnet oder auswählt. Die Anzeige 510 ist aus einer Flüssigkristallanzeige oder einer CRT (cathode ray tube (Kathodenstrahlröhre)) gebildet und zeigt unterschiedliche Typen von Information wie Texte und Bilder an. Ein HDD (hard disk drive (Festplattenlaufwerk)) 501 betreibt eine Festplatte, um auf diese Weise die Programme und Information, die von der CPU 501 ausgeführt werden, auf oder von der Festplatte aufzuzeichnen oder wiederzugeben.
  • Ein Laufwerk 512 liest Daten oder ein Programm, die bzw. das auf einer Magnetplatte 551, einer optischen Platte 552, einer magnetooptischen Platte 553 oder einem Halbleiterspeicher 554, die bzw. der darauf geladen ist, aufgezeichnet sind bzw. ist, aus und führt die Daten oder das Programm dem über eine Schnittstelle 507, den externen Bus 506, die Brücke 505 und den Hostbus 504 verbundenen RAM 503 zu.
  • Die Einheiten von der Tastatur 508 bis zum Laufwerk 512 sind mit der Schnittstelle 507 verbunden, und die Schnittstelle 507 ist mit der CPU 501 über den externen Bus 506, die Brücke 505 und den Hostbus 504 verbunden.
  • Die Aufzeichnungsmedien sind nicht nur durch die entfernbaren Medien wie beispielsweise die magnetooptische Platte 551 (einschließlich einer Diskette), die magnetooptische Platte 552 (einschließlich einer CD-ROM (compact disc-read only memory (Kompaktdisk-Nurlesespeicher)) und eine DVD (digital versatile disc (mehrseitige Digitalplatte)), die magnetooptische Platte 553 (einschließlich einer MD (mini-disc (Miniplatte)) und den Halbleiterspeicher 554, auf denen Programme aufgezeichnet sind, die verbreitet werden, um dem Benutzer die Programme zur Ausführung der Verarbeitung entsprechend dem wie in 23 gezeigten Blockdiagramm separat vom Computer bereitzustellen, gebildet, sondern auch durch den ROM 502 und das HDD 511, auf denen die Programme aufgezeichnet sind, die im Computer im Voraus untergebracht und infolgedessen für den Benutzer bereitgestellt sind.
  • Die Programme zur Ausführung der mit dem Blockdiagramm korrespondierenden Verarbeitung für den Benutzer kann auch dem Computer über ein verdrahtetes oder Radio- bzw. Funkkommunikationsmedium zugeführt werden.
  • In dieser Beschreibung umfassen die Schritte, welche die in den Aufzeichnungsmedien gespeicherten Programme beschreiben, die Verarbeitung, die in Zeitreihen entlang der beschriebenen Ordnung ausgeführt wird, und auch die Verarbeitung, die nicht notwendigerweise in Zeitreihen ausgeführt wird, sondern parallel oder individuell ausgeführt wird.
  • Wie oben beschrieben wird bei der Bildverarbeitungsanordnung und dem Bildverarbeitungsverfahren und dem Aufzeichnungsmedium gemäß der vorliegenden Erfindung eine die Position in einem Rahmen anzeigende Positionsinformation eines Zielpixels eines aus mehreren Pixeln bestehenden Eingabebildsignals detektiert und wird die Klasse des Zielpixels von mehreren Klassen entsprechend der Positionsinformation bestimmt. Vom Eingabebildsignal werden mehrere Pixel als Prädiktionsabgriff ausgewählt, und eine arithmetische Verarbeitung auf Basis von im Voraus durch Lernen für jede der Klassen erhaltenen Umsetzungsdaten und des Prädiktionsabgriffs wird ausgeführt und infolgedessen ein Ausgabebildsignal einer höheren Qualität als das Eingabebildsignal ausgegeben. Deshalb kann ungeachtet der Position des Pixels auf dem Schirm ein Bild höherer Qualität konstant erzeugt werden.
  • Überdies wird bei der Bildverarbeitungsanordnung und dem Bildverarbeitungsverfahren und dem Aufzeichnungsmedium gemäß der vorliegenden Erfindung eine die Position in einem Rahmen anzeigende Positionsinformation eines Zielpixels eines aus mehreren Pixeln bestehenden Eingabebildsignals detektiert, und mehrere Pixel, deren positionelle Relationen bezüglich des Zielpixels entsprechend der Positionsinformation variiert wird, werden vom Eingabebildsignal als ein Klassenabgriff ausgewählt. Die Klasse des Zielpixels wird von mehreren Klassen entsprechend dem Klassenabgriff ausgewählt und vom Eingabebildsignal werden mehrere Pixel als ein Prädikationsabgriff ausgewählt. Eine arithmetische Verarbeitung auf Basis von im Voraus durch Lernen für jede der Klassen erhaltenen Konversationsdaten und des Prädikationsabgriffs wird ausgeführt und infolgedessen ein Ausgabebildsignal einer höheren Qualität als das Eingabebildsignal ausgegeben. Deshalb kann ungeachtet der Position des Pixels auf dem Schirm ein Bild höherer Qualität konstant erzeugt werden.
  • Außerdem wird bei der Bildverarbeitungsanordnung und dem Bildverarbeitungsverfahren und dem Aufzeichnungsmedium gemäß der vorliegenden Erfindung eine die Position in einem Rahmen anzeigende Positionsinformation eines Zielpixels eines aus mehreren Pixeln bestehenden Eingabebildsignals detektiert, und mehrere Pixel werden vom Eingabebildsignal als ein Klassenabgriff ausgewählt. Die Klasse des Zielpixels wird von mehreren Klassen entsprechend dem Klassenabgriff bestimmt, und mehrere Pixel, deren positionelle Relationen in Bezug auf das Zielpixel entsprechend der Positionsinformation variiert werden, werden vom Eingabebildsignal als ein Prädikationsabgriff ausgewählt. Eine arithmetische Verarbeitung auf Basis von im Voraus durch Lernen für jede der Klassen erhaltenen Umsetzungsdaten und des Prädikationsabgriffs wird ausgeführt und infolgedessen ein Ausgabebildsignal einer höheren Qualität als das Eingabebildsignals ausgegeben. Deshalb kann ungeachtet der Position des Pixels auf dem Schirm ein Bild höherer Qualität konstant erzeugt werden.
  • Außerdem werden bei der Bildverarbeitungsanordnung und dem Bildverarbeitungsverfahren und dem Aufzeichnungsmedium gemäß der vorliegenden Erfindung von einem Eingabebildsignal für jedes Zielpixel des aus mehreren Pixeln bestehenden Eingabebildsignals mehrere Pixel als ein provisorischer Klassenabgriff ausgewählt, und mehrere Pixel, deren positionellen Relationen mit dem Zielpixel entsprechend der Position des provisorischen Klassenabgriffs in einem Rahmen variiert werden, werden vom Eingabebildsignal als ein wahrer Klassenabgriff ausgewählt. Die Klasse des Zielpixels wird auf der Basis des wahren Klassenabgriffs von mehreren Klassen bestimmt, und mehrere Pixel werden vom Eingabebildsignal als Prädikationsabgriff ausgewählt. Eine arithmetische Verarbeitung auf Basis von im Voraus durch Lernen für jede der Klassen erhaltenen Umsetzungsdaten und des Prädikationsabgriffs wird ausgeführt und infolgedessen ein Ausgabebildsignal einer höheren Qualität als das Eingabebildsignal ausgegeben. Deshalb kann ungeachtet der Position des Pixels auf dem Schirm ein Bild höherer Qualität konstant erzeugt werden.
  • Überdies werden bei der Bildverarbeitungsanordnung und dem Bildverarbeitungsverfahren und dem Aufzeichnungsmedium gemäß der vorliegenden Erfindung von einem Eingabebildsignal für jedes Zielpixel des aus mehreren Pixeln bestehenden Eingabebildsignals mehrere Pixel als ein Klassenabgriff ausgewählt und wird die Klasse des Zielpixels auf der Basis des Klassenabgriffs von mehreren Klassen bestimmt. Für jedes Zielpixel werden vom Eingabebildsignal mehrere Pixel als ein provisorischer Prädikationsabgriff ausgewählt, und mehrere Pixel, deren positionellen Relationen in Bezug auf das Zielpixel entsprechend der Position des provisorischen Prädikationsabgriffs in einem Rahmen variiert werden, werden vom Eingabebildsignal als ein wahrer Prädikationsabgriff ausgewählt. Eine arithmetische Verarbeitung auf Basis von im Voraus durch Lernen für jede der Klassen erhaltenen Umsetzungsdaten und des wahren Prädikationsabgriffs wird ausgeführt und infolgedessen ein Ausgabebildsignal einer höheren Qualität als das Eingabebildsignal ausgegeben. Deshalb kann ungeachtet der Position des Pixels auf dem Schirm ein Bild höherer Qualität konstant erzeugt werden.

Claims (12)

  1. Bildverarbeitungsanordnung, aufweisend: eine Klassenbestimmungseinrichtung (101-107; 201-207; 301-307; 401-406) zur Bestimmung der Klasse eines Zielpixels eines aus mehreren Pixeln aus mehreren Klassen bestehenden Eingabebildsignals, eine Prädiktionsabgriff-Auswahleinrichtung (108; 208; 308; 407) zur Auswahl mehrerer Pixel aus dem Eingabebildsignal als einen Prädiktionsabgriff (ET) und eine Operationseinrichtung (110; 210; 310; 409) zur Ausführung einer arithmetischen Verarbeitung auf Basis von Umsetzungsdaten, die für jede der Klassen und den Prädiktionsabgriff durch Lernen im Voraus erhaltenen werden, und folglich Ausgabe eines Ausgabebildsignals von höherer Qualität als das Eingabebildsignal, dadurch gekennzeichnet, dass eine Positionsdetektierungseinrichtung (11) zum Detektieren einer die Position des Zielpixels in einem Rahmen anzeigenden Positionsinformation bereitgestellt ist und die Klassenbestimmungseinrichtung betriebsfähig ist zur Bestimmung der Klasse des Zielpixels entsprechend der Positionsinformation.
  2. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Klassenbestimmungseinrichtung die Klasse danach bestimmt, welcher von einem effektiven Bereich und einem ungültigen Bereich von der Positionsinformation im Rahmen angezeigt wird.
  3. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Klassenbestimmungseinrichtung die Klasse auf der Basis des von der Positionsinformation angezeigten Abstands vom Zentrum des Rahmens bestimmt.
  4. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Klassenbestimmungseinrichtung die Klasse auf der Basis bestimmt, ob die Positionsinformation eine Koinzidenz mit der Position, bei der ein Telop in den Rahmen eingesetzt ist, anzeigt oder nicht.
  5. Bildverarbeitungsanordnung nach Anspruch 1, mit einer Zielpixelbestimmungseinrichtung zur Bestimmung des Zielpixels entsprechend der Bewegung eines provisorischen Zielpixels des Eingabebildsignals.
  6. Bildverarbeitungsanordnung nach Anspruch 5, mit einer Bewegungsdetektierungseinrichtung (151) zum Detektieren der Bewegung des provisorischen Bildpixels.
  7. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Operationseinrichtung ein Bildsignal, das eine Information über ein in das Eingabebildsignal inkludiertes fehlendes Pixel aufweist, als das Ausgabebildsignal ausgibt.
  8. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Operationseinrichtung ein Bildsignal, das weniger Rauschen als das Eingabebildsignal aufweist, als das Ausgabebildsignal ausgibt.
  9. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Operationseinrichtung ein Bildsignal, das eine höhere Auflösung als das Eingabebildsignal aufweist, als das Ausgabebildsignal ausgibt.
  10. Bildverarbeitungsanordnung nach Anspruch 1, wobei die Operationseinrichtung ein Bildsignal, das weniger Verzerrung aufgrund einer Aberration einer Linse als das Eingabebildsignal aufweist, als das Ausgabebildsignal ausgibt.
  11. Bildverarbeitungsverfahren, aufweisend: einen Klassenbestimmungsschritt zur Bestimmung der Klasse eines Zielpixels eines aus mehreren Pixeln aus mehreren Klassen bestehenden Eingabebildsignals, einen Prädiktionsabgriff-Auswahlschritt zur Auswahl mehrerer Pixel aus dem Eingabebildsignal als einen Peädiktionsabgriff und einen Operationsschritt zur Ausführung einer arithmetischen Verarbeitung auf Basis von Umsetzungsdaten, die für jede der Klassen und den Prädiktionsabgriff durch Lernen im Voraus erhalten werden, und folglich Ausgabe eines Ausgabebildsignals von höherer Qualität als das Eingabebildsignal, gekennzeichnet durch einen Positionsdetektierungsschritt zum Detektieren einer die Position des Zielpixels in einem Rahmen anzeigenden Positionsinformation und den Klassenbestimmungsschritt, der eine Bestimmung der Klasse des Zielpixels entsprechend der Positionsinformation aufweist.
  12. Aufzeichnungsmedium, auf dem ein Programm aufgezeichnet ist, das einen Computer veranlasst, eine Bildverarbeitung auszuführen, wobei das Programm aufweist: einen Klassenbestimmungsschritt zur Bestimmung der Klasse eines Zielpixels eines aus mehreren Pixeln aus mehreren Klassen bestehenden Eingabebildsignals, einen Prädiktionsabgriff-Auswahlschritt zur Auswahl mehrerer Pixel aus dem Eingabebildsignal als einen Prädiktionsabgriff und einen Operationsschritt zur Ausführung einer arithmetischen Verarbeitung auf Basis von Umsetzungsdaten, die für jede der Klassen und den Prädiktionsabgriff durch Lernen im Voraus erhalten werden, und folglich Ausgabe eines Ausgabebildsignals von höherer Qualität als das Eingabebildsignal, gekennzeichnet durch einen Positionsdetektierungsschritt zum Detektieren einer die Position des Zielpixels in einem Rahmen anzeigenden Positionsinformation und den Klassenbestimmungsschritt, der eine Bestimmung der Klasse des Zielpixels entsprechend der Positionsinformation aufweist.
DE60127631T 2000-02-10 2001-02-08 Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger Expired - Lifetime DE60127631T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000033786 2000-02-10
JP2000033786 2000-02-10
PCT/JP2001/000895 WO2001059751A1 (en) 2000-02-10 2001-02-08 Image processing device and method, and recording medium

Publications (2)

Publication Number Publication Date
DE60127631D1 DE60127631D1 (de) 2007-05-16
DE60127631T2 true DE60127631T2 (de) 2007-12-13

Family

ID=18558217

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60127631T Expired - Lifetime DE60127631T2 (de) 2000-02-10 2001-02-08 Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger
DE60140824T Expired - Lifetime DE60140824D1 (de) 2000-02-10 2001-02-08 Anordnung und Verfahren zur Bildverarbeitung, und Aufzeichnungsträger

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60140824T Expired - Lifetime DE60140824D1 (de) 2000-02-10 2001-02-08 Anordnung und Verfahren zur Bildverarbeitung, und Aufzeichnungsträger

Country Status (5)

Country Link
US (1) US6912014B2 (de)
EP (2) EP1197946B1 (de)
KR (1) KR100742850B1 (de)
DE (2) DE60127631T2 (de)
WO (1) WO2001059751A1 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7324709B1 (en) * 2001-07-13 2008-01-29 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
EP1477929B1 (de) * 2002-02-21 2010-04-07 Sony Corporation Signalverarbeitung
JP4611069B2 (ja) * 2004-03-24 2011-01-12 富士フイルム株式会社 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
US9079762B2 (en) 2006-09-22 2015-07-14 Ethicon Endo-Surgery, Inc. Micro-electromechanical device
US7561317B2 (en) * 2006-11-03 2009-07-14 Ethicon Endo-Surgery, Inc. Resonant Fourier scanning
US20080146898A1 (en) * 2006-12-19 2008-06-19 Ethicon Endo-Surgery, Inc. Spectral windows for surgical treatment through intervening fluids
US7713265B2 (en) * 2006-12-22 2010-05-11 Ethicon Endo-Surgery, Inc. Apparatus and method for medically treating a tattoo
US20080151343A1 (en) * 2006-12-22 2008-06-26 Ethicon Endo-Surgery, Inc. Apparatus including a scanned beam imager having an optical dome
US8273015B2 (en) * 2007-01-09 2012-09-25 Ethicon Endo-Surgery, Inc. Methods for imaging the anatomy with an anatomically secured scanner assembly
US8801606B2 (en) 2007-01-09 2014-08-12 Ethicon Endo-Surgery, Inc. Method of in vivo monitoring using an imaging system including scanned beam imaging unit
US7589316B2 (en) * 2007-01-18 2009-09-15 Ethicon Endo-Surgery, Inc. Scanning beam imaging with adjustable detector sensitivity or gain
US20080226029A1 (en) * 2007-03-12 2008-09-18 Weir Michael P Medical device including scanned beam unit for imaging and therapy
US8216214B2 (en) 2007-03-12 2012-07-10 Ethicon Endo-Surgery, Inc. Power modulation of a scanning beam for imaging, therapy, and/or diagnosis
JP2008258836A (ja) * 2007-04-03 2008-10-23 Sony Corp 撮像装置、信号処理回路、信号処理装置、信号処理方法及びコンピュータプログラム
US8626271B2 (en) 2007-04-13 2014-01-07 Ethicon Endo-Surgery, Inc. System and method using fluorescence to examine within a patient's anatomy
US7995045B2 (en) 2007-04-13 2011-08-09 Ethicon Endo-Surgery, Inc. Combined SBI and conventional image processor
US8160678B2 (en) 2007-06-18 2012-04-17 Ethicon Endo-Surgery, Inc. Methods and devices for repairing damaged or diseased tissue using a scanning beam assembly
US7558455B2 (en) * 2007-06-29 2009-07-07 Ethicon Endo-Surgery, Inc Receiver aperture broadening for scanned beam imaging
US7982776B2 (en) * 2007-07-13 2011-07-19 Ethicon Endo-Surgery, Inc. SBI motion artifact removal apparatus and method
US20090021818A1 (en) * 2007-07-20 2009-01-22 Ethicon Endo-Surgery, Inc. Medical scanning assembly with variable image capture and display
US9125552B2 (en) * 2007-07-31 2015-09-08 Ethicon Endo-Surgery, Inc. Optical scanning module and means for attaching the module to medical instruments for introducing the module into the anatomy
US7983739B2 (en) 2007-08-27 2011-07-19 Ethicon Endo-Surgery, Inc. Position tracking and control for a scanning assembly
US7925333B2 (en) 2007-08-28 2011-04-12 Ethicon Endo-Surgery, Inc. Medical device including scanned beam unit with operational control features
US8050520B2 (en) * 2008-03-27 2011-11-01 Ethicon Endo-Surgery, Inc. Method for creating a pixel image from sampled data of a scanned beam imager
US8332014B2 (en) * 2008-04-25 2012-12-11 Ethicon Endo-Surgery, Inc. Scanned beam device and method using same which measures the reflectance of patient tissue
TWI524773B (zh) * 2009-10-23 2016-03-01 財團法人資訊工業策進會 即時偵測一物件之偵測裝置、偵測方法及其電腦程式產品
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2013021635A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体
KR101257946B1 (ko) * 2011-08-08 2013-04-23 연세대학교 산학협력단 영상의 색수차를 제거하는 장치 및 그 방법
GB2526943B (en) * 2011-12-20 2016-04-27 Imagination Tech Ltd Method and apparatus for compressing and decompressing data
KR102134136B1 (ko) * 2018-12-27 2020-07-15 (주)인스페이스 딥러닝 기반 위성영상 해상도 조절방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669522B2 (ja) 1995-03-31 2005-07-06 ソニー株式会社 信号変換装置、信号変換方法、係数学習装置及び係数学習方法
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
JP3859089B2 (ja) 1995-05-31 2006-12-20 ソニー株式会社 信号変換装置及び信号変換方法
US5946044A (en) * 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
JP3669530B2 (ja) 1995-06-30 2005-07-06 ソニー株式会社 画像信号変換装置及び画像信号変換方法
JP3631333B2 (ja) * 1996-08-23 2005-03-23 シャープ株式会社 画像処理装置
US6330344B1 (en) * 1997-02-14 2001-12-11 Sony Corporation Image processing device and method employing motion detection to generate improved quality image from low resolution image
DE69838536T2 (de) * 1997-05-06 2008-07-24 Sony Corp. Bildwandler und bildwandlungsverfahhren
AU1115499A (en) 1997-10-23 1999-05-10 Sony Electronics Inc. Apparatus and method for providing robust error recovery for errors that occur in a lossy transmission environment
JP4147632B2 (ja) * 1998-08-24 2008-09-10 ソニー株式会社 画像情報変換装置、画像情報変換方法、およびテレビジョン受像機
US6646684B1 (en) * 1999-04-23 2003-11-11 Sony Corporation Image conversion device and method
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP4470280B2 (ja) * 2000-05-24 2010-06-02 ソニー株式会社 画像信号処理装置及び画像信号処理方法

Also Published As

Publication number Publication date
EP1686801B1 (de) 2009-12-16
KR100742850B1 (ko) 2007-07-25
EP1197946B1 (de) 2007-04-04
US20030030753A1 (en) 2003-02-13
US6912014B2 (en) 2005-06-28
DE60140824D1 (de) 2010-01-28
EP1686801A3 (de) 2008-07-09
EP1197946A4 (de) 2006-03-22
KR20020000164A (ko) 2002-01-04
EP1197946A1 (de) 2002-04-17
DE60127631D1 (de) 2007-05-16
WO2001059751A1 (en) 2001-08-16
EP1686801A2 (de) 2006-08-02

Similar Documents

Publication Publication Date Title
DE60127631T2 (de) Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger
DE69733978T2 (de) Bilddateninterpolationsgerät
DE602005001967T2 (de) Bildverarbeitungsvorrichtung und -Verfahren, Aufzeichnungsmedium und Programm
US8606042B2 (en) Blending of exposure-bracketed images using weight distribution functions
DE602004002618T2 (de) Verfahren und System zur Kantenhervorhebung
JP3226020B2 (ja) 動きベクトル検出装置
KR100750176B1 (ko) 초정밀화를 이용한 양자화 아티팩트 제거 방법 및 시스템
KR100746839B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 학습 장치, 학습방법, 및 매체
US5754709A (en) Method and apparatus for gradation correction and image edge extraction
EP1662771A2 (de) Datenverarbeitungsvorrichtung und -verfahren, Datenträger und Programm.
JPH04229795A (ja) 動きを補正した映像方式変換装置
DE602005002576T2 (de) Erzeugung einer Bilddatei mit zusätzlichen Informationen zur Weiterverarbeitung aus einer Zeitfolge von Quellbilddaten
JPH0863601A (ja) 領域分割方法および装置
JP2011510547A (ja) 画像処理方法および装置
JPH05225332A (ja) 空間的可変濾波の方法及び装置
JPH02290385A (ja) 動きベクトル導出方法
US20040105015A1 (en) Image processing device and image processing program
JPH0362690A (ja) 動き補正付きテレビジョン信号方式変換器
JP4026491B2 (ja) 画像信号処理装置、画像信号処理方法、並びにプログラムおよび媒体
US20100188582A1 (en) Dynamic noise filter and sigma filtering method
KR20070094796A (ko) 디인터레이싱 방법, 장치 및 시스템
DE3836640A1 (de) Halbtonanzeigeapparat
JP2000339449A (ja) 画像処理装置及び方法
US6438270B1 (en) Methods and systems for image sharpening
US7697775B2 (en) Image signal processing apparatus and method, and program and recording medium used therewith

Legal Events

Date Code Title Description
8364 No opposition during term of opposition