WO2001059751A1 - Image processing device and method, and recording medium - Google Patents

Image processing device and method, and recording medium Download PDF

Info

Publication number
WO2001059751A1
WO2001059751A1 PCT/JP2001/000895 JP0100895W WO0159751A1 WO 2001059751 A1 WO2001059751 A1 WO 2001059751A1 JP 0100895 W JP0100895 W JP 0100895W WO 0159751 A1 WO0159751 A1 WO 0159751A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
class
pixel
input image
pixels
Prior art date
Application number
PCT/JP2001/000895
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Hideo Nakaya
Tsutomu Watanabe
Hideki Ohtsuka
Yasuaki Takahashi
Seiji Wada
Takahiro Nagano
Koji Ohta
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP01902812A priority Critical patent/EP1197946B1/en
Priority to US09/958,394 priority patent/US6912014B2/en
Priority to DE60127631T priority patent/DE60127631T2/de
Publication of WO2001059751A1 publication Critical patent/WO2001059751A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Definitions

  • the present invention relates to an image processing apparatus and method, and a recording medium, and more particularly, to an image processing apparatus and method for processing or converting an image, and a recording medium.
  • the class classification adaptive processing for each pixel of interest of the input image signal, a class map and a predicted map are obtained from the input image signal, and the pixel of interest is classified into one of preset classes based on the cluster map. Then, by performing an operation using a prediction coefficient set and a prediction tab generated by learning in advance for each class selected according to the classified class, an output image signal higher in quality than the input image signal is obtained. Is generated.
  • the class tap / predicted tap may be pixels located outside the effective range of the image. Here, it is highly possible that the pixel value of the pixel outside the effective range does not have a normal value. Therefore, in the conventional classification adaptive processing, if the class gap / the prediction gap is located outside the effective range of the image, the mask is not used as shown in Fig. 1. .
  • pixels that cannot be corrected by error correction codes or are missing due to packet loss, etc. are used as surrounding non-missing pixels as class taps and prediction packets.
  • Perform classification adaptive processing There are some which generate missing pixels.
  • the pixel value can be set by the class classification adaptive processing using the pixel values of the pixels located around the target pixel.
  • a pixel in which the positional relationship with the missing pixel is relatively the same is used, that is, the same processing is performed with a so-called tap structure.
  • the set pixel value will not have a normal value. Therefore, in the generated image, pixels located at the end of such an image are masked and are not used as shown in FIG.
  • the processing content does not change according to the position of the pixel on the screen, and the same processing is executed regardless of the physical position of the pixel on the screen, so that high quality is not achieved much Sometimes.
  • the present invention has been made in view of such a situation, and it is an object of the present invention to always generate a higher quality image regardless of the position of a pixel on a screen. I do.
  • An image processing apparatus includes: a position detection unit configured to detect position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels; and a plurality of classes based on the position information.
  • Class determination means for determining the class of the pixel of interest; prediction tap selection means for selecting a plurality of pixels from the input image signal as prediction tabs; conversion data obtained by learning in advance for each class; and the prediction A computing unit that outputs an output image signal higher in quality than the input image by performing a computation process based on the tab.
  • the image processing method includes: a position detection step for detecting position information indicating a position of a pixel of interest in a frame of a target pixel of an input image signal including a plurality of pixels; A class determination step for determining the class of the pixel of interest; a prediction evening selection step for selecting a plurality of pixels from the input image signal as a prediction evening; a conversion obtained by learning in advance for each class And a calculation step of performing a calculation process based on the prediction tap to output a higher-quality output image signal than the input image.
  • the image processing method includes: a position detection step of detecting position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels; A class determination step for determining the class of the pixel of interest; a selection step for selecting a plurality of pixels from the input image signal as a prediction pixel; a conversion obtained by learning in advance for each class; And performing a calculation process based on the prediction tap to output a higher-quality output image signal than the input image.
  • the program has been recorded.
  • the image processing apparatus includes: a position detecting unit that detects position information indicating a position of a pixel of interest in a frame of an input image signal including a plurality of pixels; and a positional relationship between the pixel of interest and the position information.
  • a cluster group selecting unit that selects a plurality of pixels that are variable according to the input image signal from the input image signal as a class node, and determines the class of the target pixel from the plurality of classes based on the class node.
  • Class determining means Class determining means; predictive tap selecting means for selecting a plurality of pixels from the input image signal as predictive tabs; conversion data obtained by learning in advance for each class; and computation based on the predictive tabs
  • a processing means for outputting an output image signal higher in quality than the input image by performing the processing.
  • the image processing method may further include: a position detection step for detecting position information indicating a position of the target pixel in the frame of the input image signal including a plurality of pixels; and a positional relationship between the target pixel and the target pixel.
  • a recording medium is an input image signal including a plurality of pixels.
  • a position detection step for detecting position information indicating a position of the pixel of interest in the frame; and a plurality of pixels whose positional relationship with the pixel of interest is varied according to the position information.
  • An image processing apparatus includes: a position detection unit that detects position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels; and a plurality of pixels from the input image signal as class taps.
  • a cluster to be selected a soap selecting means, a class determining means for determining a class of the pixel of interest from a plurality of classes based on the class map, and a positional relationship between the pixel of interest.
  • Prediction pixel selection means for selecting a plurality of pixels that can be changed as the prediction pixel from the input image signal, conversion data obtained by learning in advance for each class, and the prediction pixel Computing means for outputting an output image signal higher in quality than the input image by performing an arithmetic process based on the input image.
  • the image processing method includes: a position detection step of detecting position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels; and A step of selecting a class tap to be selected; a step of determining a class of the target pixel from a plurality of classes based on the class tap; a positional relationship with the target pixel is variable according to the position information A plurality of pixels to be calculated as prediction tabs from the input image signal.
  • a prediction tap selection step to be selected by selecting, a conversion data obtained by learning in advance for each class, and an arithmetic process based on the prediction tap, thereby outputting an output image signal higher in quality than the input image. It is characterized by including an operation step.
  • a recording medium includes a position detecting step for detecting position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels, and a method for detecting a plurality of pixels from the input image signal.
  • a program that causes a computer to execute the process is recorded.
  • the image processing apparatus includes: for each pixel of interest of an input image signal including a plurality of pixels, a provisional class node selection unit that selects a plurality of pixels from the input image signal as a provisional class tap; A true class tap selecting means for selecting, from the input image signal, a plurality of pixels whose positional relationship with the pixel of interest is changed according to the position of the temporary cluster in the frame, as the true class tap; A class determining means for determining a class of the pixel of interest from a plurality of classes, a prediction pixel selecting means for selecting a plurality of pixels from the input image signal as a prediction pixel, By performing an arithmetic process based on the conversion data obtained by learning in advance and the prediction step, an output image signal higher in quality than the input image is output. Characterized in that it comprises calculating means for.
  • the image processing method includes a temporary cluster group selection step of selecting a plurality of pixels from the input image signal as temporary class taps for each target pixel of the input image signal including a plurality of pixels;
  • a true class selection step of selecting a plurality of pixels whose positional relationship with the pixel of interest is changed according to the position of the temporary cluster in the frame as a true cluster from the input image signal;
  • a class determining step of determining a class of the pixel of interest from a plurality of classes based on the true class map; a prediction group selecting step of selecting a plurality of pixels as a prediction tab from the input image signal; It is characterized by including conversion data obtained by learning in advance for each class, and an operation step of outputting an output image signal higher in quality than the input image by performing an operation process based on the prediction tap.
  • the recording medium includes: for each pixel of interest of an input image signal composed of a plurality of pixels, a provisional cluster selection step for selecting a plurality of pixels from the input image signal as a provisional cluster; A true cluster group selection step of selecting a plurality of pixels whose positional relationship with the pixel of interest is variable according to the position of the tap in the frame as a true class tap from the input image signal, and based on the true cluster group, A class determination step of determining the class of the pixel of interest from a plurality of classes; a prediction tap selection step of selecting a plurality of pixels from the input image signal as a prediction tap; By performing the arithmetic processing based on the conversion taps and the prediction taps, the input image is higher than the input image.
  • Program for executing image processing in a computer is recorded, characterized in that it comprises a calculation step for outputting the Do output image signal.
  • An image processing apparatus includes: for each pixel of interest of an input image signal composed of a plurality of pixels, a class tap selection unit that selects a plurality of pixels from the input image signal as class taps; Class determining means for determining a class of the pixel of interest from a plurality of classes; and selecting a plurality of pixels from the input image signal as a tentative prediction node for each of the pixel of interest.
  • the image processing method includes: for each attention pixel of an input image signal including a plurality of pixels, selecting a plurality of pixels as a class tap from the input image signal; Multiple classes based on Determining a class of the target pixel from the input image signal, and selecting a plurality of pixels from the input image signal as a temporary prediction tab for the target pixel. Selecting a plurality of pixels whose positional relationship with the target pixel is changed according to the position of the tap in the frame as a true prediction block from the input image signal; And a calculation step of outputting a higher quality output image signal than the input image by performing a calculation process based on the conversion data obtained by learning in advance and the true prediction tap.
  • the recording medium further comprises: a class tap selecting step of selecting a plurality of pixels from the input image signal as class taps for each target pixel of the input image signal including a plurality of pixels; A class determination step of determining a class of the pixel of interest from a plurality of classes; a tentative prediction tab selection step of selecting a plurality of pixels from the input image signal as a tentative prediction tab for each pixel of interest; A true prediction selection, which selects a plurality of pixels whose positional relationship with the attention pixel is changed according to the position of the provisional prediction in the frame as the true prediction from the input image signal By performing the step, the conversion data obtained by learning in advance for each class, and the arithmetic processing based on the true prediction tap, And a computing step of outputting an output image signal higher in quality than the input image.
  • FIG. 1 is a diagram illustrating a pixel mask.
  • FIG. 2 is a diagram illustrating a configuration of an embodiment of an image processing apparatus according to the present invention.
  • FIG. 3 is a diagram illustrating a configuration example of an effective pixel area calculation circuit.
  • FIG. 4 is a diagram illustrating an effective pixel area vertical flag VF and an effective pixel area horizontal flag HF.
  • FIG. 5 is a diagram illustrating peripheral pixels to be created.
  • FIG. 6 is a diagram showing an example of constructing a tap at an end of an image.
  • FIG. 7 is a diagram illustrating an example of constructing a tap at an end of an image.
  • FIG. 8 is a block diagram showing the configuration of the missing pixel creation circuit.
  • FIG. 9 is a flowchart illustrating the processing of the preprocessing circuit.
  • FIG. 10 is a diagram showing a configuration of the motion class generation circuit.
  • FIG. 11 is a diagram illustrating a configuration of the motion detection circuit.
  • FIG. 12 is a diagram showing taps used for calculating time activity.
  • FIG. 13 is a diagram showing taps used for calculating a spatial activity.
  • FIG. 14 is a diagram illustrating a threshold value for motion determination.
  • FIG. 15 is a flowchart illustrating a process of setting a motion class code MCC of the motion determination circuit.
  • FIG. 16 is a diagram illustrating pixels used for majority decision of the motion class code MCC.
  • FIG. 17 is a flowchart illustrating a process of setting a motion class code MCC of the motion detection circuit.
  • FIG. 18 is a diagram illustrating an example of the construction of an evening nip at the end of an image.
  • FIG. 19 is a diagram showing an example of constructing taps at an end of an image.
  • FIG. 20 is a diagram illustrating pixels used for the interpolation processing.
  • FIG. 21 is a diagram illustrating pixels whose pixel values are replaced.
  • FIG. 22 is a block diagram showing another configuration of the missing pixel creating circuit.
  • FIG. 23 is used in an image processing device that selectively performs one or more of the image processing mode that creates missing pixels, the image processing mode that takes into account chromatic aberration, and the image processing mode that takes into account the terror position.
  • FIG. 2 is a diagram illustrating a configuration of an embodiment of an image processing apparatus that generates a coefficient set according to an embodiment.
  • FIG. 24 is a diagram illustrating chromatic aberration.
  • FIG. 25 is a diagram illustrating chromatic aberration.
  • FIG. 26 is a diagram for explaining switching of taps.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of an image processing apparatus that selectively performs one or a plurality of image processing modes in consideration of code positions and telop positions.
  • FIG. 28 is a flowchart illustrating the process of switching the evening light corresponding to the chromatic aberration.
  • FIG. 29 is a diagram illustrating an example of a screen on which a terrorist or the like is displayed.
  • FIG. 30 is a flowchart for explaining the process of switching the evenings corresponding to the position of the terrorist.
  • FIG. 31 is a diagram illustrating a recording medium.
  • FIG. 2 is a diagram illustrating a configuration of an embodiment of an image processing apparatus according to the present invention.
  • the effective pixel area calculation circuit 11 calculates the pixels of the image input to the missing pixel creation circuit 12 based on the vertical synchronization signal and the horizontal synchronization signal synchronized with the image input to the missing pixel creation circuit 12.
  • a valid pixel area vertical flag VF and an effective pixel area horizontal flag HF indicating whether or not the pixel is located in the effective pixel area are output to the missing pixel creation circuit 12 (hereinafter, a pixel is also referred to as a tap).
  • the missing pixel creation circuit 12 includes an input image and a missing flag LF corresponding to each pixel of the image, and an effective pixel area supplied from the effective pixel area calculation circuit 11. Based on the vertical flag VF and the effective pixel area horizontal flag HF, a pixel corresponding to the missing pixel included in the input image is created, and the missing pixel is replaced with the created pixel and output.
  • FIG. 3 is a diagram illustrating an example of the configuration of the effective pixel area calculation circuit 11.
  • the vertical synchronizing signal detecting circuit 41 generates data indicating whether each pixel of the image is within the effective pixel area in the vertical direction of the screen based on the input vertical synchronizing signal (hereinafter referred to as “vertical effective pixel area data”). Is generated and supplied to the effective area calculation circuit 43.
  • the horizontal sync signal detection circuit 42 detects each pixel of the image in the horizontal direction of the screen based on the input horizontal sync signal. Then, a data indicating whether or not the pixel is within the effective pixel area (hereinafter referred to as horizontal effective pixel area data) is generated and supplied to the effective area calculation circuit 43.
  • the effective area calculation circuit 43 corrects the vertical effective pixel area data supplied from the vertical synchronization signal detection circuit 41, and outputs the corrected data to the missing pixel creation circuit 12 as an effective pixel area vertical flag VF.
  • the effective pixel area vertical flag VF for example, as shown in FIG. 4, a value of 0 is set within the effective range of the display, and a value of 1 is set outside the effective range of the display.
  • the effective area calculation circuit 43 corrects the horizontal effective pixel area data supplied from the horizontal synchronization signal detection circuit 42, and outputs the corrected data to the missing pixel creation circuit 12 as an effective pixel area horizontal flag HF.
  • the effective pixel area horizontal flag HF is set to a value of ⁇ within the effective range of the display, and a value of 1 is set outside the effective range of the display.
  • each of the pixels of the input image falls within the effective pixel area. Or not.
  • the missing pixel creation circuit 12 When the image input to the missing pixel creation circuit 12 is an interlace, the position of the pixel of the field of interest is one field before or one field after the field of interest. The pixel is vertically offset by 1/2 from the position of the pixel in the field.
  • the missing pixel creation circuit 12 uses the class classification adaptive processing to obtain pixel values of peripheral pixels in the same field (field k in the figure) as the pixel to be created, as shown in FIG. Based on the pixel value of the pixel existing in the previous field (field k-1 in the figure) and the pixel value of the pixel existing in the field immediately before (field k-1 in the figure), the missing pixel Create pixel values.
  • the missing pixel creation circuit 12 uses the effective pixel area vertical flag supplied from the effective pixel area calculation circuit 11. Based on VF and effective pixel area horizontal flag HF, Select only the pixels to be placed (pixels outside the effective range of the image will be truncated) and create the pixel values of the missing pixels based on the selected pixels.
  • the missing pixel creation circuit 12 uses the effective pixel area vertical flag supplied from the effective pixel area calculation circuit 11. Based on the VF and the effective pixel area horizontal flag HF, the effective pixel is selected as a tap by adaptively switching to the pixel structure that targets pixels located in the effective area of the image. A pixel value may be created.
  • FIG. 8 is a block diagram showing an example of the configuration of the missing pixel creation circuit 12.
  • the pixel value input to the missing pixel creation circuit 12 and the missing flag LF indicating missing pixels are supplied to the preprocessing circuit 101 and the evening construction circuit 102-1.
  • the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF input from the effective pixel area calculation circuit 11 are divided into a pre-processing circuit 101, a tap construction circuit 102-1 to 1102-5, The class synthesis circuit 107 and the coefficient holding class code selection circuit 109 are supplied.
  • the preprocessing circuit 101 sets a missing flag LF of a pixel located outside the effective pixel area based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF. For example, a missing flag LF of "1" indicates that the pixel value is missing, and a missing flag LF of "0" indicates that the pixel value is not missing.
  • the pre-processing circuit 101 generates the value of the missing pixel in the effective pixel area by a linear interpolation filter based on the pixel value and the missing flag LF corresponding to the pixel, and assigns the value to the missing pixel.
  • Set and supply to evening circuit construction circuit 102-5-2 through 102-5 That is, when a pixel is missing, the pre-processing circuit 101 increases the number of prediction maps by the number of missing pixels.
  • the class tap does not include a missing pixel, and the class classification process does not use the pixel value generated by the preprocessing circuit 101.
  • step S11 the preprocessing circuit 101 determines whether or not the target pixel is missing based on the missing flag LF, and if it is determined that the target pixel is not missing, the step proceeds to step S11.
  • the process proceeds to step S12, where the pixel value of the target pixel is set to the target pixel, and the process ends. If it is determined in step SI1 that the target pixel is missing, the process proceeds to step S13, where the preprocessing circuit 101 determines whether the target pixel is adjacent in the horizontal direction based on the missing flag LF. Judge whether one of the two pixels is missing or not.
  • step S13 If it is determined in step S13 that neither of the two pixels adjacent to the target pixel in the horizontal direction is missing, the process proceeds to step S14, where the pre-processing circuit 101 The average value of the pixel values of two pixels adjacent in the horizontal direction is set as the pixel value of the target pixel, and the process ends.
  • step S13 If it is determined in step S13 that one of the two pixels adjacent to the target pixel in the horizontal direction is missing, the process proceeds to step S15, where the preprocessing circuit 101 It is determined whether any two adjacent pixels in the horizontal direction of the pixel are missing. If it is determined in step S15 that one of the two pixels adjacent to the target pixel in the horizontal direction is not missing, the process proceeds to step S16, where the preprocessing circuit 101 sets the target pixel The pixel value of the horizontally adjacent pixel that is not missing is set as the pixel value of the target pixel, and the process ends.
  • step S15 If it is determined in step S15 that any of the pixels horizontally adjacent to the target pixel is missing, the process proceeds to step S17, where the pre-processing circuit 101 determines the missing pixel based on the missing flag LF. Then, it is determined whether or not one of two pixels adjacent to the target pixel in the vertical direction is missing.
  • step S17 If it is determined in step S17 that neither of the two pixels adjacent to the target pixel in the vertical direction is missing, the process proceeds to step S18, where the pre-processing circuit 101 in c Sutedzupu S 1 7 which the sets the average value of the vertical pixel values of two pixels adjacent to the pixel value of the target pixel, the processing is terminated, 2 are adjacent in the vertical direction of the target pixel Tsunoe If it is determined that any of the elements is missing, the process proceeds to step S19, where the preprocessing circuit 101 removes all pixels adjacent to the target pixel based on the missing flag LF. Is determined.
  • step S19 If it is determined in step S19 that any of the pixels adjacent to the target pixel is not missing, the process proceeds to step S20, where the preprocessing circuit 101 determines that the target pixel is adjacent to the target pixel. Then, the pixel value of the non-missing pixel is set to the pixel value of the target pixel, and the process ends.
  • step S19 all pixels adjacent to the target pixel are missing If it is determined that the target pixel has not been processed, the preprocessing circuit 101 sets the pixel value of the pixel of the past frame at the same position as the target pixel to the pixel value of the target pixel, and the process ends. I do.
  • the preprocessing circuit 101 linearly interpolates the pixel value of the processing target pixel in the effective pixel area from the pixel values of the peripheral pixels.
  • the interpolation processing by the pre-processing circuit 101 can expand the range of tabs that can be used in subsequent processing.
  • the tap construction circuit 1 0 2-1 sets the missing flag LF of the pixel located outside the effective pixel area based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF, and locates it outside the effective pixel area.
  • the missing flag LF of the pixel to be reset is reset, and the missing flag LF is supplied to the motion class generation circuit 103 as the missing flag tap SLFT1.
  • the tap construction circuit 102-1 selects a motion cluster element TD 1 composed of non-missing pixels in the effective pixel area, and supplies the selected motion class element TD 1 to the motion class generation circuit 103. I do.
  • the motion class generation circuit 103 includes the parameters supplied from the initialization circuit 111, the missing flag supplied from the type construction circuit 102-1, SLFT1, and the selected motion class data TD. Based on 1, a motion class code MC C and a static motion flag SMF are generated and output to the evening construction circuits 102-2 to 102-5 and the class synthesis circuit 107.
  • the motion class code MCC has two bits of information indicating the amount of motion, and the static flag SMF indicates the presence or absence of motion with one bit.
  • FIG. 10 shows the configuration of the motion class generation circuit 103.
  • the missing flag SLF T1 and the motion cluster map TD1 supplied from the evening construction circuit 102-1 are supplied to the motion detection circuit 151.
  • the motion detection circuit 15 1 generates and outputs a motion class code MC C based on the missing flag SLFT 1 and the motion cluster TD 1, and judges whether the generated motion class code MC C is still or not. Feed to circuit 15 2.
  • the time activity calculation circuit 18 based on the missing flag tap SLFT 1 and the motion class tap TD 1 supplied from the tap construction circuit 10 2-1, for example, determines whether or not the Pixels, centered on the target pixel of creation 3 x 3 pixels (included in the motion class map TD1) and 3 x 3 pixels (movements) in the effective area of the previous frame that are not missing
  • the temporal activity is calculated by adding the absolute value of the difference between the pixel values of the two and the class tap TD 1), and is supplied to the motion determining circuit 184.
  • the time activity calculating circuit 18 1 calculates the time activity using only the non-missing pixels without using the missing pixels.
  • FIG. 12 (A) is a diagram showing an example of a 3 ⁇ 3 pixel centered on the pixel to be created, which is used for calculating the temporal activity.
  • "Era-" indicates a missing pixel.
  • FIG. 12 (B) is a diagram showing an example of a 3 ⁇ 3 pixel of the immediately preceding frame corresponding to the pixel shown in FIG. 12 (A).
  • L1 to L3 shown in FIGS. 12 (A) and 12 (B) denote lines, respectively, and the same numbers of lines indicate the same positions in the vertical direction.
  • H1 to H3 shown in (B) indicate the horizontal positions of the pixels, and the same numbers indicate the same positions in the horizontal direction.
  • Time activity
  • () represents the pixel value of a pixel
  • II represents a function for calculating an absolute value
  • V represents a missing value from the number of pixels in a frame in which a pixel to be created exists. Indicates the number obtained by subtracting the number of pixels.
  • the spatial activity calculation circuit 18 2 is based on the missing flag map SLFT 1 and the motion class tap TD 1 supplied from the type construction circuit 102-1, for example, based on the pixel to be created.
  • the spatial activity is calculated by adding 1 to the difference between the maximum value and the minimum value of the pixel of X3, and is supplied to the threshold value setting circuit 183.
  • FIG. 13 is a diagram showing an example of a 3 ⁇ 3 pixel centered on a missing pixel to be created, which is used for calculating a spatial activity.
  • the spatial activity is calculated by equation (2).
  • Spatial activity Max (qi) -Min (qi) +1 (2)
  • Max (qi) indicates the maximum value of the pixel values of q1 to q9.
  • Min (qi) indicates the minimum value of the pixel values of ql to q9.
  • the value setting circuit 183 selects and selects a motion judgment threshold value stored in advance in the threshold value setting circuit 183 based on the space activity supplied from the space activity calculation circuit 182.
  • the threshold value thus obtained is supplied to the motion determination circuit 18 4.
  • a threshold having a different value is selected depending on the value of the spatial activity.
  • the motion decision circuit 18 4 sets the motion class code MCC based on the motion decision threshold supplied from the threshold setting circuit 18 3 and the time activity supplied from the time activity calculation circuit 18 1, and makes a majority decision.
  • FIG. 14 is a diagram illustrating a threshold value for motion determination. Different values are used for the motion determination threshold depending on the value of the spatial activity. As spatial activity increases, larger thresholds are used. This takes into account that if a pixel with a large spatial activity involves a small amount of movement, the temporal activity will be large.
  • step S31 the motion determination circuit 1884 determines whether or not the time activity is equal to or less than the threshold 1, and when it is determined that the time activity is equal to or less than the threshold 1, the motion determination circuit 1884 determines whether the time activity is equal to or less than the threshold 1. Proceed to 2 to set the motion class code MCC to 0, and the process ends.
  • step S31 If it is determined in step S31 that the time activity exceeds the threshold 1, the process proceeds to step S33, where the motion determination circuit 18 4 determines that the time activity is It is determined whether or not the time activity is equal to or less than the threshold value 2. If it is determined that the time activity is equal to or less than the threshold value 2, the process proceeds to step S34, in which the motion class code MCC is set to 1, and the process ends.
  • step S33 If it is determined in step S33 that the time activity exceeds the threshold value 2, the process proceeds to step S35, where the motion determination circuit 184 determines whether the time activity is equal to or less than the threshold value 3. If it is determined that the time activity is equal to or smaller than the threshold value 3, the process proceeds to step S36, where the motion class code MCC is set to 2, and the process ends.
  • step S35 If it is determined in step S35 that the time activity exceeds the threshold value 3, the process proceeds to step S37, where the motion determination circuit 184 sets 3 to the motion class code MCC, and the process ends.
  • the motion determination circuit 184 sets the motion class code MCC based on the threshold and the time activity.
  • the majority decision circuit 185 sets a final motion class code MCC based on the motion class codes MCC of a plurality of pixels. For example, as shown in FIG. 16, based on the motion class codes MCC of 14 pixels around the target pixel of creation, the majority decision circuit 1885 calculates the motion class code MCC of the target pixel. Set.
  • step S51 the motion detection circuit 151 determines whether or not to execute the majority decision in accordance with the parameter setting from the initialization circuit 111, and determines that the majority decision is not to be performed. If so, the process proceeds to step S52, where the selector 187 selects the motion class code MCC of the target pixel output from the motion determination circuit 184, and finally sets the motion class code MCC of the target pixel. Set as the appropriate motion class code MCC, and the process ends.
  • step S51 when it is determined that the majority decision is to be performed, the process proceeds to step S53, and the majority decision circuit 185 selects the pixel having the motion class code MCC of 3 out of the 14 pixels. Is determined to be greater than or equal to the threshold 3, and if it is determined that the number of pixels for which the motion class code MCC of 3 is set is greater than the threshold 3, the process proceeds to step S54, where the motion class Set code MC C to 3 You.
  • the selector 187 outputs the output of the majority decision circuit 185 as the final motion class code MCC, and the process ends.
  • Step S53 when it is determined that the number of pixels for which the motion class code MCC of 3 is set is equal to or smaller than the threshold value 3, the process proceeds to Step S55, and the majority decision circuit 18 5 1 Is the value obtained by adding the number of pixels having the motion class code MCC of 3 and the number of pixels having the motion class code MCC of 2 out of the 4 pixels greater than the threshold value 2? It is determined that the value obtained by adding the number of pixels with the motion class code MCC of 3 and the number of pixels with the motion class code MCC of 2 is greater than the threshold value 2. If so, proceed to step S56, and set 2 to the motion class code MCC. The selector 187 outputs the output of the majority decision circuit 185 as the final motion class code MCC, and the process ends.
  • step S55 if the value obtained by adding the number of pixels having the motion class code MCC of 3 and the number of pixels having the motion class code MCC of 2 is equal to or less than the threshold value 2, If it is determined, the process proceeds to step S57, where the majority decision circuit 1885 determines the number of pixels having the motion class code MCC of 3, out of the 14 pixels, and the motion class code MC C of 2 It is determined whether the value obtained by adding the number of pixels for which the is set and the number of pixels for which the motion class code MCC of 1 is set is greater than a threshold value 1. The value obtained by adding the number of pixels set, the number of pixels set with the motion class code MCC of 2, and the number of pixels set with the motion class code MCC of 1 is greater than the threshold value 1. If it is determined that the motion class code MCC 1 is set, the selector 187 outputs the output of the majority decision circuit 185 as the final motion class code MCC, and the process ends.
  • step S57 the number of pixels for which the motion class code MCC 3 is set, the number of pixels for which the motion class code MCC 2 is set, and the motion class code MCC 1 are set.
  • the process proceeds to step S59, the majority decision circuit 1 85 sets the motion class code MCC to 0, and the selector 1 87 Then, the output of the majority decision circuit 185 is output as the final motion class code MCC, and the process ends.
  • the motion detection circuit 151 sets the final motion class code MCC based on the motion class codes MCC of a plurality of pixels and the threshold value stored in advance.
  • the motion class generation circuit 103 sets the motion class code MCC from the pixel values of a plurality of pixels, and outputs the motion class code MCC to the static / motion determination circuit 152 and the missing pixel creation circuit 12. Output.
  • the static / dynamic judgment circuit 152 sets and outputs a static / dynamic flag SMF based on the motion class code MCC. For example, when the motion class code MCC is 0 or 1, the static flag SMF is set to 0, and when the motion class code MCC is 2 or 3, the static flag SMF is set to 1.
  • the evening construction circuit 102--2 covers all the class structures. Selects the class prediction layer VET (not including pixels outside the effective pixel area) and supplies it to the variable tap selection circuit 108.
  • the tap construction circuit 1 0 2-3 sets the missing flag LF of the pixel located outside the effective pixel area based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF, and locates it outside the effective pixel area.
  • the missing flag LF of the pixel to be reset is reset, and the missing flag LF is supplied to the DR class generation circuit 104 as the missing flag tap SLFT2.
  • the type building circuit 102-3 Based on the motion class code MCC, the static flag SMF, and the missing flag LF supplied from the motion class generating circuit 103, the type building circuit 102-3 has a missing pixel in the effective pixel area. None Select DR class tap TD 2 and supply selected DR class tap TD 2 to DR class generation circuit 104.
  • the DR class generation circuit 104 is a pixel included in the DR class tap TD 2 based on the missing flag map SLFT 2 and the DR class tap TD 2 supplied from the sunset construction circuit 102-3. And generates a DR class code DR CC determined according to the dynamic range, which is the difference between the maximum pixel value and the minimum pixel value of the pixels that are not missing, and outputs it to the class synthesis circuit 107. .
  • the effective pixel area Based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF supplied from the effective pixel area calculation circuit 11, the effective pixel area Set the missing flag LF for pixels located outside the area, reset the missing flag LF for pixels located outside the effective pixel area, and set the missing flag LF to the missing flag SLFT 3 as the space class generation circuit 1 0 to 5
  • the sunset construction circuit 102-4 Based on the motion class code MCC and the static flag SMF supplied from the motion class generation circuit 103 and the missing flag LF, the sunset construction circuit 102-4 has a missing pixel in the effective pixel area.
  • the unselected space class tap TD3 is selected, and the selected space class tap TD3 is supplied to the space class generation circuit 105.
  • the space class generation circuit 105 generates a space class code SCC corresponding to the pixel value pattern based on the missing flag SLF T3 and the space cluster map TD3 supplied from the tap construction circuit 102-4. Is generated and output to the class synthesis circuit 107.
  • the tap construction circuit 102-5 selects the missing flag LF based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF supplied from the effective pixel area calculation circuit 11, and selects the missing flag LF.
  • the missing flag LF is supplied to the missing class generation circuit 106 as the missing flag SLF T4.
  • the missing class generating circuit 106 generates a missing class code LCC based on the missing flag type SLF T4 supplied from the tab structuring circuit 102-5, and outputs it to the class synthesizing circuit 107.
  • the class synthesis circuit 107 generates a motion class code MCC, a static flag SMF, and a DR based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF supplied from the effective pixel area calculation circuit 11.
  • the class code DR CC, the spatial class code SCC, and the missing class code LCC are integrated into one final class code CC, and the class code CC is output to the coefficient holding class code selection circuit 109.
  • the coefficient holding class code selection circuit 109 includes a coefficient set supplied from the effective pixel area calculation circuit 11, the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF, and the coefficient set supplied from the initialization circuit 11 1.
  • the prediction tap selection signal VT Generates a prediction tap selection signal VT based on the prediction structure and the class code CC supplied from the class synthesis circuit 107, and supplies the generated prediction tap selection signal VT to the variable tap selection circuit 108.
  • the prediction coefficient W selected from the coefficient set based on the class code CC is output to the estimation prediction operation circuit 110.
  • the coefficient set supplied from the initialization circuit 1 1 1 is generated in advance according to the class classified by the class code CC. And stored in the initialization circuit 111.
  • the variable tab selection circuit 108 is a predictive tap selection signal supplied from the all-class prediction tab VET supplied from the tap construction circuit 102-2 and the coefficient holding class code selection circuit 109. Based on V ⁇ , a prediction tap ⁇ ⁇ ⁇ is selected, and the selected prediction tap ⁇ ⁇ ⁇ ⁇ is supplied to the estimated prediction calculation circuit 110. For example, the variable tap selection circuit 108 selects the tap specified by the prediction tap selection signal VT from the types included in the all-class prediction tab VE, and sets the selected tap to the prediction tap selection. I do.
  • the multiply-accumulator 1 2 1 of the estimation prediction operation circuit 110 is supplied from the prediction table ⁇ ⁇ ⁇ supplied from the variable selection circuit 108 and the coefficient holding class code selection circuit 109. Based on the obtained prediction coefficient W, the pixel value of the missing pixel is calculated using a linear estimation formula. Note that the product-sum unit 122 of the estimation prediction operation circuit 110 may calculate the pixel value of the missing pixel based on the prediction coefficient W using a nonlinear estimation formula.
  • the filter 122 of the estimation prediction calculation circuit 110 calculates the pixel value of the missing pixel from the prediction gap ⁇ supplied from the variable gap selection circuit 108.
  • the estimation / prediction calculation circuit 110 selects and outputs the output of the filter 122 or the output of the accumulator 122 based on the output mode set from the initialization circuit 111, and outputs Find the result according to the mode.
  • the missing pixel creation circuit 12 uses the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF to calculate the dynamic range, motion, missing area, pixel value pattern, and the like from the pixels in the effective pixel area. Then, the missing pixel value is calculated based on the pixel values around the missing pixel (not including the pixel values of the pixels outside the effective pixel area).
  • the missing pixel creation circuit 12 switches the output mode of the estimation / prediction calculation circuit 110, executes the above-described processing on all pixels, and improves the image quality of the input image ( For example, increase in gradation (increase in the number of bits of ⁇ data, U data, and V data), removal of noise, removal of quantization distortion (including removal of distortion in the time direction), quadruple density resolution Creation, etc.)
  • the missing pixel to be created is located at the end of the image.
  • the missing pixel creation circuit 12 replaces the class classification adaptive processing with linear interpolation based on the pixel values of adjacent pixels. Processing may be performed to interpolate the pixel value of the missing pixel.
  • the missing pixel creation circuit 12 is used in advance when the missing pixel to be created is located at the end of the image and all the adjacent pixels are missing.
  • the value corresponding to the determined inconspicuous color e.g., equivalent to gray
  • FIG. 22 is a block diagram showing another configuration of the missing pixel creation circuit 12 that executes the processing shown in FIG. 20 or FIG. 21.
  • the pixel value and the missing flag LF indicating the missing pixel, which are input to the missing pixel creating circuit 12, are supplied to the preprocessing circuit 201 and the tab construction circuit 202-1.
  • the preprocessing circuit 201 executes the same processing as the preprocessing circuit 101, and linearly converts the value of the missing pixel based on the input pixel value and the missing flag LF indicating the missing pixel.
  • the value is set to the missing pixel generated by the interpolation filter and supplied to the tap construction circuits 202-2 to 220-5.
  • the type construction circuit 202_1 supplies the missing flag LF of the selected pixel to the motion class generating circuit 203 as a missing flag SLFTT1.
  • the tap construction circuit 202-1 selects the motion class tab TD1 composed of pixels not missing in the effective pixel area, and supplies the selected motion class tap TD1 to the motion class generation circuit 203. I do.
  • the motion class generation circuit 203 receives the parameters supplied from the initialization circuit 211, the missing flag LF supplied from the setup circuit 202-1, and the selected motion class setup TD1. Then, a motion class code MCC and a static / dynamic flag SMF are generated on the basis of the above and output to the evening construction circuit 202-2 to 202-5 and the class synthesis circuit 207.
  • the motion class code MCC has 2-bit information indicating the amount of motion, and the static flag SMF indicates the presence or absence of motion with 1 bit. For example, when the motion class code MCC is 0 or 1, the static flag SMF is set to 0, and when the motion class code MCC is 2 or 3, the static flag SMF is set to 1. You.
  • the tap construction circuit 202-2 performs all-class prediction covering all class structures based on the motion class code MCC, the static motion flag SMF, and the missing flag LF supplied from the motion class generation circuit 103. Select the tap V T (excluding pixels outside the effective pixel area) and supply it to the variable tap selection circuit 208.
  • the tap construction circuit 202-3 supplies the selected missing flag LF to the DR class generating circuit 204 as the missing flag tap SLFT2. Based on the motion class code MCC and the static flag SMF and the missing flag LF supplied from the motion class generating circuit 203, the type constructing circuit 202-3 generates a DR class image in the effective pixel area that is not missing.
  • the web server TD 2 is selected, and the selected DR cluster web TD 2 is supplied to the DR class generation circuit 204.
  • the DR class generation circuit 204 calculates the maximum pixel value and the minimum pixel value of the non-missing pixels based on the missing flag tap SLFT 2 and the DR cluster A DR class code DR CC determined according to the dynamic range which is a difference from the pixel value is generated and output to the class synthesis circuit 207.
  • the tap construction circuit 202-4 supplies the selected missing flag LF to the space class generating circuit 205 as a missing flag type SLFT3.
  • the evening construction circuit 202-4 determines a non-missing space class in the effective pixel area based on the motion class code MC C and the static flag SMF and the missing flag LF supplied from the motion class generating circuit 203. It selects evening TD 3 and supplies the selected space cluster TD 3 to the space class generation circuit 205.
  • the space class generation circuit 205 generates a space class code SCC corresponding to the pixel value pattern based on the missing flag tab SLFT 3 and the space class map TD 3 supplied from the evening construction circuit 202-4. Is generated and output to the class synthesis circuit 207.
  • the tap construction circuit 202-5 selects the missing flag LF and supplies the selected missing flag LF to the missing class generating circuit 206 as the missing flag SLF T4.
  • the missing class generation circuit 206 generates a missing class code LCC based on the missing flag tab SLFT 4 supplied from the evening construction circuit 220-5, and outputs it to the class synthesis circuit 207.
  • the class synthesis circuit 207 integrates the motion class code MCC, the static and dynamic flag SMF, the DR class code DRCC, the spatial class code SCC, and the missing class code LCC into one final class code CC to form a class code.
  • CC is output to the coefficient holding class code selection circuit 209.
  • the coefficient holding class code selection circuit 209 is based on the previously learned coefficient set and prediction structure supplied from the initialization circuit 211, and the class code CC supplied from the class synthesis circuit 207. Generates a prediction tap selection signal VT, supplies the generated prediction tab selection signal VT to the variable tap selection circuit 208, and generates a prediction coefficient W selected based on the class code CC from the coefficient set. Is output to the estimation / prediction calculation circuit 210.
  • variable tab selection circuit 208 is based on the all-class prediction tab VET supplied from the tap construction circuit 202-2 and the prediction tap selection signal VT supplied from the coefficient holding class code selection circuit 209. Then, the prediction tap ⁇ is selected, and the selected prediction tap ⁇ is supplied to the estimated prediction operation circuit 210.
  • the estimation / prediction calculation circuit 210 predicts the prediction data supplied from the variable tab selection circuit 208 and the coefficient holding class code. Based on the prediction coefficient W supplied from the selection circuit 209, the pixel value of the missing pixel is calculated using a linear estimation formula, and is output to the selection circuit 214.
  • the estimation / prediction operation circuit 210 corresponds to the product-sum device 121 in FIG.
  • the replacement circuit 2 1 2 sets a value corresponding to a predetermined color that is hardly conspicuous (for example, corresponding to gray) as the pixel value of the missing pixel based on the missing flag LF indicating the missing pixel. And supplies it to the selection circuit 214.
  • the linear interpolation circuit 2 13 performs the same processing as the pre-processing circuit 201, and linearly converts the value of the missing pixel based on the input pixel value and the missing flag LF indicating the missing pixel. Generated by the interpolation filter, the value is set to the missing pixel, and supplied to the selection circuit 214.
  • the replacement circuit 2 12 and the linear interpolation circuit 2 13 correspond to the filter 1 2 2 in FIG.
  • the selection circuit 2 1 4 is based on the effective pixel area vertical flag VF and the effective pixel area horizontal flag HF supplied from the effective pixel area calculation circuit 11 1. ⁇ Select either the output of the replacement circuit 212 or the output of the linear interpolation circuit 211 and output it as the output of the missing pixel creation circuit 12.
  • the missing pixel creation circuit 12 performs the missing pixel value based on the pixel values of the pixels around the missing pixel by the class classification adaptive processing based on the dynamic range, the movement, the missing, and the change in the pixel value.
  • the missing pixel located at the end of the effective pixel area can be interpolated or replaced and output.
  • the missing pixel creation circuit 12 may appropriately switch the processing described with reference to FIGS. 6 and 7 and FIGS. 18 to 21. It may be.
  • the process of class classification including the pixel value generated by the preprocessing circuit 101 in the cluster is performed by the preprocessing circuit 10. 1 as described above which may c so as to use the generated pixel values, the image processing apparatus according to the present invention, regardless of the position on the screen of the pixel, always generates a higher-quality image For example, regardless of the position of the missing pixel on the screen, the missing pixel can be created with less error.
  • FIG. 23 is a diagram illustrating a configuration of an embodiment of an image processing apparatus for generating a coefficient set in advance.
  • the image input to the image processing apparatus is supplied to the down-filling circuit 303 and the normal equation calculation circuit 310.
  • the display position calculation circuit 310 calculates the distance of each pixel of the image from the center of the screen, and calculates the position information indicating the distance of each pixel of the image from the center of the screen to the tap construction circuit 3044-1 to 30. 4—Supply to N.
  • the display position calculation circuit 301 may supply position information indicating the distance of each pixel of the image from the center of the screen to the structure switching control circuit 302.
  • the initialization circuit 312 supplies the structure switching control circuit 302 with image edge information, aberration information, processing mode, and telop position information.
  • the structure switching control circuit 302 controls the tap selection signal TS1, the tap selection signal TS2, and the tap selection signals TS3-1 to TS3-1 according to the image edge information.
  • (N- 2) is supplied to the tap construction circuit 304-1 to 304 -N, and when the processing mode indicates the aberration mode, the evening selection signal TS 1 corresponding to the aberration information ,
  • the tap selection signal TS2, and the tap selection signals TS3-1 to TS3- (N-2) are supplied to the sunset construction circuit 304-04-1 to 304-N, and processed.
  • the structure switching control circuit 302 may select a plurality of processing modes among the above three processing modes.
  • each of the tap selection signal TS1, the tap selection signal TS2, and the tap selection signals D33-1 to D33- (N-2) are a signal corresponding to red, a signal corresponding to green, and a signal corresponding to blue. It consists of corresponding signals, that is, signals corresponding to RGB.
  • the structure switching control circuit 302 calculates the distance of each pixel from the center of the screen from the physical address on the screen of each pixel supplied from the display position calculation circuit 301, and calculates the calculated distance from the center of the screen, And an aberration class code CCA including a class code corresponding to red, a class code corresponding to green, and a class code corresponding to blue based on the aberration information input from the initialization circuit 312.
  • the structure switching control circuit 302 supplies the generated aberration class code C CA to the class synthesis circuit 307.
  • the structure switching control circuit 302 stores in advance the relationship between the physical address of each pixel on the screen and the distance from the center of the screen, and stores the relationship stored in advance and each of the relationships supplied from the display position calculation circuit 301. From the center of the screen of each pixel, based on the physical address of the pixel on the screen May be obtained.
  • the structure switching control circuit 302 uses the class code corresponding to red.
  • An aberration class code CCA including a class code corresponding to green and a class code corresponding to blue may be generated, and the generated aberration class code CCA may be supplied to the class synthesis circuit 307. .
  • the structure switching control circuit 302 quantizes the amount of aberration to generate an aberration class code C CA.
  • the blue light image included in the white light is shifted along the optical axis with respect to the yellow light image.
  • the yellow light image included in the white light is imaged at a position closer to the optical axis than the blue light image, is closer to the optical axis than the red light image, and is formed as white light.
  • the included red light image forms a position farther from the optical axis than the yellow light image.
  • chromatic aberration Large chromatic aberration means that the distance between the imaging positions of the blue light image, the yellow light image, and the red light image is long.
  • Fig. 25 (B) shows the relationship between the distance from the center of the screen and the magnitude of chromatic aberration. That is, chromatic aberration increases nonlinearly with distance from the center of the screen.
  • the down-fill filter 303 determines whether the input image has a pixel value corresponding to the aberration by applying a process corresponding to the aberration or a process such as the addition of jitter or noise, or , Or an image to which noise has been added is supplied to the tap construction circuits 304-1 to 304 -N.
  • the tap construction circuit 3044-1 is based on the position information supplied from the display position calculation circuit 301 and the tap selection signal TS1 supplied from the structure switching control circuit 302. By switching the tap structure for each of red, green, and blue, the pixels included in the image supplied from the downfill 303 are replaced with the red, green, and blue corresponding motion class maps TD. 1 and supplies the selected motion cluster group TD 1 to the motion class generation circuit 305.
  • the moving class tap TD1 output by the evening block construction circuit 3044-1 comprises a tap corresponding to red, a tap corresponding to green, and a tab corresponding to blue.
  • FIG. 26 is a diagram for explaining a sop structure for each of red, green, and blue in the tap construction circuit 304-1.
  • the tap corresponding to green is constituted by taps centered on the pixel of interest, as shown in FIG. 26 (A).
  • the structure switching control circuit 302 uses, for example, as shown in FIG. A correction vector is generated, and the selection signal TS1 including the generated correction vector is supplied to the tap building circuit 3044-1.
  • the evening construction circuit 3044-1 is included in the location information indicating the distance from the center of the screen of each pixel supplied from the display position calculating circuit 301, and the evening selection signal TS1. Based on the correction vector for red, the correction pixel for red is selected based on the pixel of interest, and taps corresponding to red centered on the correction pixel are selected as shown in Fig. 26 (C). Is configured.
  • the evening construction circuit 3044-1 is included in the position information indicating the distance from the center of the screen of each pixel supplied from the display position calculating circuit 301, and the evening selection signal TS1. Based on the correction vector for blue, the correction pixel for blue is selected with reference to the pixel of interest, and a tap corresponding to blue centered on the correction pixel is configured.
  • the evening selection signal TS1 is configured to include a red correction vector, a green correction vector, and a blue correction vector based on the pixel of interest.
  • the construction circuit 304-1 calculates the position information indicating the distance of each pixel from the center of the screen supplied from the display position calculation circuit 301 and the correction vector for red included in the tap selection signal TS 1.
  • a tap corresponding to red with the correction target pixel corresponding to red as the center is formed, and positional information indicating the distance from the center of the screen of each pixel supplied from the display position calculating circuit 301, and tap Select signal TS 1
  • a tap corresponding to green is formed with the correction target pixel corresponding to green as the center, and the center of the screen of each pixel supplied from the display position calculation circuit 301 is formed.
  • a tab corresponding to blue centered on a corrected pixel of interest corresponding to blue based on position information indicating a distance from the camera and a correction vector for blue included in the evening selection signal TS1. You may do so.
  • the motion class generation circuit 305 uses the parameters supplied from the parameter setting circuit 310 and the motion cluster TD 1 supplied from the evening construction circuit 304-1 to generate the motion corresponding to red.
  • a motion class code MCC comprising a class code, a motion class code corresponding to green, and a motion class code corresponding to blue; a static flag corresponding to red; a static flag corresponding to green; and a static flag corresponding to blue.
  • a static / dynamic flag SMF composed of a dynamic flag is generated, and is output to the setup structuring circuit 304-2 to 304-1 N and the class synthesis circuit 307.
  • the tab construction circuit 304-4-2 is supplied from the motion class code MCC for each of red, green, and blue supplied from the motion class generation circuit 300, the static flag SMF, and the display position calculation circuit 301.
  • the tap structure is switched for each of red, green, and blue based on position information indicating the distance of each pixel from the center of the screen and the tap selection signal TS2 supplied from the structure switching control circuit 302. All the class prediction taps VET including the taps corresponding to, the tabs corresponding to the green color, the ribs, and the sunset corresponding to the blue color are selected and supplied to the variable tap selection circuit 308.
  • the evening-up construction circuit 304-133 is provided with a motion class code MCC for each of red, green, and blue supplied from the motion class generation circuit 303, and a static motion flag SMF for each of red, green, and blue. Position information indicating the distance of each pixel from the center of the screen supplied from the position calculation circuit 301, and tap selection signals TS3-1 for each of red, green, and blue supplied from the structure switching control circuit 302.
  • the tap structure is switched for each of red, green, and blue based on the above, and a cluster TD 2-1 comprising a tap corresponding to red, a tap corresponding to green, and a tap corresponding to blue is selected and selected.
  • the selected class tap TD2-1 is supplied to the class generation circuit 306-1.
  • the class generation circuit 303-6 Based on the class tap TD2-1 supplied from the evening construction circuit 304-4, the class generation circuit 303-6 generates a class code corresponding to red and a class code corresponding to green.
  • a class code CC1 composed of a class code and a class code corresponding to blue is generated, and the generated class code CC1 is output to the class synthesis circuit 307.
  • the class code CC1 can be, for example, a classcode corresponding to the difference between the maximum pixel value and the minimum pixel value of the pixels included in the class tap TD2-1.
  • the tap construction circuits 304-4 to 304-N include a motion class code MCC and a static motion flag SMF supplied from the motion class generation circuit 300, and a screen of each pixel supplied from the display position calculation circuit 310. Based on the position information indicating the distance from the center and the sunset selection signals TS 3-2 to TS 3-(N-2) supplied from the structure switching control circuit 302, each corresponds to red. Select a class map TD2-2—2 through TD2— (N—2) consisting of a tap, a tap corresponding to green, and a tap corresponding to blue, and select the selected class tap TD2-2—2 through TD2. — (N ⁇ 2) is supplied to that of the class generation circuit 306 ⁇ 2 to 306 ⁇ (N ⁇ 2).
  • the class generation circuit 306-2 to 306- (N-2) is one of the cluster maps TD2-2 to TD2- (N-2) supplied from the tap construction circuits 304-14 to 304-N. On the basis of, a class code corresponding to red, a class code corresponding to green, and a class code CC2 to CC (N-2) including a class code corresponding to blue are generated, and The generated class codes CC 2 to CC (N ⁇ 2) are output to the class synthesis circuit 307.
  • One of the class codes C C2 to C C (N ⁇ 2) can be, for example, a class code corresponding to a pixel value pattern.
  • the class synthesis circuit 307 calculates the red color included in the aberration class code CCA based on the class code corresponding to the red color included in the motion class code MCC and the static flag corresponding to the red color included in the static flag SMF.
  • the class code corresponding to the red color included in the class code and the class code CC1 to CC (N-2) is integrated into the final class code corresponding to the red color of one class code TCC.
  • the class synthesis circuit 307 supports the green color included in the aberration class code CCA based on the class code corresponding to the green color included in the motion class code MCC and the static flag corresponding to the green color included in the static motion flag SMF.
  • the class synthesis circuit 307 Based on the class code corresponding to the blue color included in the motion class code MCC and the static flag corresponding to the blue color included in the SMF, the class synthesis circuit 307 converts the blue color included in the aberration class code CCA into The corresponding class code and the class code corresponding to blue included in the class codes CC 1 to CC (N ⁇ 2) are integrated into the final class code corresponding to blue of one class code TCC.
  • the class synthesis circuit 307 outputs to the class selection circuit 309 a class code TCC composed of a class code corresponding to red, a class code corresponding to green, and a class code corresponding to blue.
  • the class code selection circuit 309 Based on the class code TCC supplied from the class synthesizing circuit 307, the class code selection circuit 309 generates a prediction code composed of a tap corresponding to red, a tap corresponding to green, and a tap corresponding to blue. It generates a tap selection signal VT, supplies the generated predicted tap selection signal VT to the variable tap selection circuit 308, and outputs the Clasco FTCC to the normal equation calculation circuit 310.
  • the variable tap selection circuit 304 selects the all-class predictive signal VET supplied from the evening circuit construction circuit 304-2 and the predictive knob signal supplied from the classcode selecting circuit 310. Based on the signal VT, select a prediction tap ⁇ ⁇ ⁇ ⁇ ⁇ consisting of a tap corresponding to red, a tab corresponding to green, and a tap corresponding to blue, and perform a normal equation operation on the selected prediction tap ⁇ ⁇ Supply to circuit 310.
  • the normal equation operation circuit 310 receives the prediction data ⁇ ⁇ ⁇ , which is the learning data supplied from the variable data selection circuit 308, and the input data, which is the teacher data supplied from the down filter 303. When images are received, they are used to calculate a prediction coefficient W that minimizes errors by the least squares method.
  • the prediction coefficient W is composed of a prediction coefficient corresponding to red, a prediction coefficient corresponding to green, and a prediction coefficient corresponding to blue.
  • the predicted value E [y] of the pixel value y of the original image (corresponding to the input image (hereinafter, appropriately referred to as teacher data)) is passed through the down-fill pixel 303.
  • learning data an image having a pixel value corresponding to the aberration Pixel values (hereinafter referred to as learning data, as appropriate) X !, X2,... And predetermined prediction coefficients Wi, W2,.
  • the predicted value E [y] can be expressed by the following equation (3).
  • the prediction coefficient W i for obtaining a prediction value E [y] close to the pixel value y of the original image is a square error
  • the optimal prediction coefficient w can be obtained.
  • equation (9) it is possible to apply, for example, a sweeping-out method (the elimination method of Gauss_Jordan).
  • the pixel value of the prediction tap ET included in the training data is
  • the prediction coefficient W to be obtained is WW 2 , W 3, ", and the linear linear combination of these gives the pixel value y of a certain pixel in the teacher data.
  • the prediction coefficients w l5 W 2, W 3,... That minimize the square error of are obtained by solving the normal equation shown in the above equation (9).
  • the normal equation operation circuit 310 calculates the predicted value W i for the true value y corresponding to red from the prediction tap of the same class corresponding to red and the red component of the corresponding teacher data.
  • the prediction coefficients WW 2, W 3,... Corresponding to red, which minimize the square error of X i + W z X z + W s X s +, are calculated by establishing a normal equation.
  • the normal equation operation circuit 310 calculates the predicted value for the true value y corresponding to green from the prediction tap of the same class corresponding to green and the green component of the corresponding teacher data.
  • the normal equation operation circuit 310 calculates the predicted value for the true value y corresponding to blue from the prediction tap of the same class corresponding to blue and the blue component of the corresponding teacher data.
  • a prediction coefficient w composed of a prediction coefficient corresponding to red, a prediction coefficient corresponding to green, and a prediction coefficient corresponding to blue is generated for each class.
  • the prediction coefficient W for each class which is composed of the prediction coefficient corresponding to red, the prediction coefficient corresponding to green, and the prediction coefficient corresponding to blue, obtained in the normal equation operation circuit 310, together with the class code TCC Supplied to the coefficient memory 3 1 1.
  • the prediction coefficient W from the normal equation operation circuit 310 is stored in the address corresponding to the class indicated by the class code TCC.
  • the image processing apparatus shown in FIG. 23 has one or more of the image processing mode for creating missing pixels, the image processing mode considering chromatic aberration, and the image processing mode considering telop position. It is possible to generate a coefficient set used in an image processing apparatus that performs selective operation.
  • a coefficient set used in an image processing apparatus that performs the processing may be generated.
  • Figure 27 shows an image processing mode that creates missing pixels, an image processing mode that takes chromatic aberration into account, and an image processing that takes into account the terror position, using the coefficient set generated by the image processing device shown in Figure 23.
  • 1 is a diagram illustrating a configuration of an embodiment of an image processing apparatus according to the present invention, which selectively performs one or a plurality of modes.
  • the display position calculation circuit 410 calculates the distance of each pixel of the input image from the center of the screen, and outputs position information indicating the distance of each pixel from the center of the screen to the tab construction circuits 4 0 3 1 1 to 4 0 Supply to 3—N.
  • the display position calculation circuit 401 may supply position information indicating the distance of each pixel of the image from the center of the screen to the structure switching control circuit 402.
  • the initialization circuit 410 supplies the structure switching control circuit 402 with image edge information, aberration information, processing mode, and telop position information.
  • the structure switching control circuit 402 controls the tap selection signal TS1, the tap selection signal TS2, and the tap selection signals TS3-1 to TS3- according to the image edge information.
  • (N-2) is supplied to each of the setup circuits 4 0 3 _ 1 to 4 0 3-N, and when the processing mode indicates the aberration mode, tap selection according to the aberration information
  • Each of the signal TS1, the evening selection signal TS2, and the tap selection signals TS3-1 to TS3- (N-2) is converted into a sunset construction circuit 403-1 to 1400-3.
  • the tap selection signal TS1 the tap selection signal TS2, and the tap selection signals TS3-1 to TS3- (corresponding to the telop position information) N-2) is supplied to each of the tap construction circuits 403-1-to 403-N.
  • the structure switching control circuit 402 may select a plurality of processing modes among the above three processing modes.
  • the aberration mode will be described as an example.
  • each of the tap selection signal TS1, the tap selection signal TS2, and the tap selection signals TS3-1 to TS3- (N-2) is a signal corresponding to red and a signal corresponding to green. It consists of the corresponding signal and the signal corresponding to blue, that is, the signal corresponding to RGB.
  • the structure switching control circuit 402 uses the aberration information input from the initialization circuit 410 to generate an aberration composed of a class code corresponding to red, a class code corresponding to green, and a class code corresponding to blue.
  • a class code CCA is generated, and the generated aberration class code CCA is supplied to the class synthesis circuit 407.
  • the evening-up construction circuit 403-1 Based on the positional information supplied from the display position calculating circuit 401 and the evening selection signal TS1 supplied from the structure switching control circuit 402, the evening-up construction circuit 403-1 receives red, green, and The tap structure is switched for each blue color, and the pixels included in the image supplied from the pre-processing circuit 403 are selected as the red, green, and blue motion class taps TD1 corresponding thereto, and the selected motion class tap TD 1 is supplied to the motion class generation circuit 40.
  • the motion class TD 1 output by the evening circuit 403-1 is composed of a tap corresponding to red, a tap corresponding to green, and a sunset corresponding to blue.
  • the motion class generation circuit 404 generates a motion class code corresponding to red based on the parameters supplied from the initialization circuit 4 11 1 and the motion cluster data TD 1 supplied from the evening construction circuit 403-1.
  • a motion class code MCC composed of a motion class code corresponding to green and a motion class code corresponding to blue, and a static flag corresponding to red, a static flag corresponding to green, and a static flag corresponding to blue And outputs the motion class code MCC and the static flag SMF to the tab construction circuits 403-2 to 403 -N and the class synthesis circuit 407.
  • the tap construction circuit 4 ⁇ 3-2 is provided with a motion class code MCC and a static flag SMF for each of red, green and blue supplied from the motion class generation circuit 404, and a tap selection signal supplied from the structure switching control circuit 402. Based on TS 2, switch the tap structure for each of red, green, and blue, and tap for red and green An all-class prediction tap VET consisting of an evening tap and a sunset corresponding to blue is selected, and the all-class prediction tap VET is supplied to the variable tab selection circuit 407.
  • the evening construction circuit 403-3 includes a motion class code MCC for each of red, green, and blue supplied from the motion class generation circuit 404, a static flag SMF for each of red, green, and blue, and a structure switching control. Based on the tap selection signal TS3-1 for each of red, green, and blue supplied from the circuit 402, the tap structure is switched for each of red, green, and blue, and the tap corresponding to red and green is supported. And a class tap TD2-1 consisting of a tap corresponding to blue and a tap corresponding to blue, and supplies the selected class tap TD2-1 to the class generation circuit 405-1.
  • the class generation circuit 405-1 includes a class code corresponding to red, a class code corresponding to green, and a blue corresponding to blue based on the class tap TD2-1 supplied from the evening construction circuit 403-3.
  • a class code CC 1 composed of a class code is generated, and the generated class code CC 1 is output to the class synthesis circuit 406.
  • the class code C C1 can be a code corresponding to the difference between the maximum pixel value and the minimum pixel value of the pixels included in the class tab TD2-1.
  • Each of the type construction circuits 403-4 to 403-N is composed of a motion class code MCC and a static / dynamic flag SMF supplied from the motion class generation circuit 404, and an evening selection signal supplied from the structure switching control circuit 402.
  • a class sunset consisting of a tap corresponding to red, a sunset corresponding to green, and a sunset corresponding to blue.
  • Each of the class generation circuits 405-2 to 405-(N- 2) is a cluster TD 2-2 to TD 2-( N-2), a class code corresponding to a red color, a class code corresponding to a green color, and a class code CC2 to CC (N-2) including a classcode corresponding to a blue color.
  • One of them is generated, and the generated class codes CC 2 to CC (N ⁇ 2) are output to the class synthesis circuit 406.
  • Class code CC 2 can be, for example, a class code corresponding to a pixel value pattern.
  • the class synthesis circuit 406 generates a class code corresponding to the red color included in the motion class code MCC and a red color included in the static flag SMF.
  • the class code corresponding to the red color included in the aberration class code CCA and the class code corresponding to the red color included in the class codes CC1 to CC (N-2) are finally determined based on the static motion flag corresponding to One class code Merge into the class code corresponding to the red color of the TCC.
  • the class synthesis circuit 406 converts the green color included in the aberration class code CCA based on the class code corresponding to the green color included in the motion class code MCC and the static flag corresponding to the green color included in the static flag SMF.
  • the corresponding class code and the class code corresponding to the green color included in the class codes CC1 to CC (N-2) are integrated into the final class code corresponding to the green color of one class code TCC.
  • the class synthesis circuit 406 generates a blue color included in the aberration class code CCA based on a class code corresponding to blue included in the motion class code MCC and a static flag corresponding to blue included in the static flag SMF.
  • the corresponding class code and the class code corresponding to the blue color included in the class codes CC 1 to CC (N ⁇ 2) are integrated into the final class code corresponding to the blue color of one class code TCC.
  • the class synthesis circuit 406 outputs to the coefficient holding class code selection circuit 408 a class code TCC composed of a class code corresponding to red, a class code corresponding to green, and a class code corresponding to blue.
  • the coefficient holding class code selection circuit 408 stores in advance the prediction tap selection signal VT and the coefficient set corresponding to the class code TCC supplied from the initialization circuit 410.
  • the coefficient holding class code selecting circuit 408 is a prediction tap comprising a tab corresponding to red, a type corresponding to green, and a tab corresponding to blue.
  • a selection signal VT is generated, and the generated prediction tap selection signal VT is supplied to the variable tab selection circuit 407, and the prediction coefficient corresponding to the red class code included in the class code TCC and the class code TCC are generated.
  • a prediction coefficient W consisting of a prediction coefficient corresponding to the included green class code and a prediction coefficient corresponding to the blue class code included in the class code TCC W Is output to the estimation prediction calculation circuit 409.
  • the variable tab selection circuit 4 ⁇ 7 converts the all-class prediction tap VET supplied from the tap construction circuit 400-3 and the prediction tap selection signal V ⁇ supplied from the coefficient holding classcode selection circuit 408. Based on this, a prediction tap ⁇ ⁇ ⁇ ⁇ consisting of a tap corresponding to red, a tap corresponding to green, and a tap corresponding to blue is selected, and the selected prediction tap ⁇ ⁇ is supplied to the estimation prediction calculation circuit 409. I do.
  • the sum-of-products 4 2 1 of the estimation prediction calculation circuit 409 are configured to store the coefficient corresponding to the red color included in the prediction data supplied from the variable selection circuit 407 and the coefficient.
  • the red component of the pixel value is calculated using a linear estimation formula based on the prediction coefficient corresponding to the red included in the prediction coefficient W supplied from the class code selection circuit 408.
  • the multiply-accumulator 4 221 of the estimation prediction operation circuit 409 is configured so that the prediction tap supplied from the variable tap selection circuit 407 ⁇ corresponds to the green included in the prediction tap ⁇ ⁇ , and the coefficient holding class code.
  • the green component of the pixel value is calculated using a linear estimation formula based on the prediction coefficient corresponding to green included in the prediction coefficient W supplied from the selection circuit 408.
  • the multiply-accumulator 421 of the estimation prediction calculation circuit 409 is configured to store the coefficient corresponding to the blue color contained in the prediction signal supplied from the variable selection circuit 407, and to hold the coefficient. Based on the prediction coefficient corresponding to blue contained in the prediction coefficient W supplied from the class code selection circuit 408, the blue component of the pixel value is calculated using a linear estimation formula.
  • the product-sum unit 421 of the estimation prediction operation circuit 409 may calculate the pixel value of the missing pixel based on the prediction coefficient W using a non-linear estimation formula.
  • the image processing apparatus shown in FIG. 27 has one or more of an image processing mode for creating missing pixels, an image processing mode in which chromatic aberration is considered, and an image processing mode in which telop positions are considered.
  • a plurality of images can be selectively executed, and a clearer image can be obtained as compared with the related art.
  • the switching control circuit 302 acquires the aberration information supplied from the initialization circuit 3122.
  • step S102 the structure switching control circuit 302 selects the target pixel c
  • step S103 the display position calculation circuit 301 obtains the relative distance between the target pixel and the center of the screen.
  • step S104 the structure switching control circuit 302 generates a correction vector for red, a correction vector for green, and a correction vector for blue, and outputs the correction vector including the correction vector.
  • the tap selection signal TS1 is supplied to the tap construction circuit 304-4, and the evening selection signal TS2 including the correction vector is supplied to the tap construction circuit 3044-2, and the correction vector is supplied.
  • the tap selection signals TS3-1 to TS3- (N-2) are supplied to the tap construction circuits 304-4-3 to 304-N.
  • step S 105 the evening construction circuit 304-1-1 calculates the position information indicating the relative distance between the pixel of interest and the center of the screen, the correction vector for red, and the correction vector for green.
  • the taps are switched based on the correction vectors for,, and blue, and the corresponding red, green, and blue motion class taps TD1 are selected.
  • the tap construction circuit 3044-2 is based on positional information indicating the relative distance between the pixel of interest and the center of the screen, and a correction vector for red, a correction vector for green, and a correction vector for blue. Toggle the tap to select the red, green, and blue corresponding all-class predictive VET.
  • Each of the tap construction circuits 304-4-3 through 304-4-N has positional information indicating the relative distance between the pixel of interest and the center of the screen, as well as a correction vector for red, a correction vector for green, and blue.
  • the taps are switched based on the correction vector for, and the DR class maps TD2-1 to TD2- (N-2) corresponding to red, green, and blue are selected.
  • step S106 the image processing apparatus determines whether or not processing has been completed for all pixels. If it is determined that processing has not been completed for all pixels, the image processing apparatus proceeds to step S102. Return and repeat the tab switching process.
  • step S106 If it is determined in step S106 that the processing has been completed for all pixels, the processing ends.
  • the image processing apparatus shown in FIG. 23 can switch the tab in accordance with the screen position in the aberration mode in consideration of the aberration.
  • the image processing apparatus shown in FIG. 27 has the configuration shown in FIG. 28 in the aberration mode. —Tap is switched in accordance with the screen position in the same process as described with reference to the chart, so description thereof will be omitted.
  • the structure switching control circuit 302 of the image processing apparatus in FIG. 23 acquires telop position information indicating a telop display area for displaying a terrorist signal.
  • the telop position information indicates, for example, the position and size of the telop display area such as the upper 30 lines, the lower 50 lines, or the right 100 pixels.
  • the structure switching control circuit 302 may acquire data indicating the terror display area from the input image.
  • FIG. 29 is a diagram illustrating an example of a screen on which a telop or the like is displayed.
  • the corresponding characters are displayed in the telop display area above and below the image display area, for example, together with the image.
  • the signal characteristics of the image in the telop display area are different from the signal characteristics of an image such as a natural image because a large amount of flat portions and edge portions are included.
  • the characters displayed in the telop display area in the right half of the screen are displayed so as to flow on the image from the top to the bottom of the screen.
  • an image generated by computer graphics is displayed in the frame image display area surrounding four sides of the image display area.
  • the display position calculation circuit 310 calculates the physical address of each pixel of the input image on the screen and supplies the calculated physical address to the type construction circuits 304-1 to 304 -N.
  • the structure switching control circuit 302 generates a tap selection signal TS1, a tab selection signal TS2, and tap selection signals TS3-1 to TS3- (N-2) based on the telop position information.
  • the tap selection signal TS 1 is supplied to the evening construction circuit 3 0 4—1 and the tap
  • the selection signal TS2 is supplied to the tab construction circuit 304-4-2, and each of the tap selection signals TS3-1 to TS3- (N-2) is applied to the tap construction circuit 304-4-3 to 304-4--. N, supply it to it.
  • the pixel configuration circuit 3044-1 uses a wider range of pixels.
  • the target pixel belongs to the telop display area, for example, a tap using pixels in a narrower range is selected, and a motion class tap TD1 is selected.
  • the image processing device can perform image processing using image components that change gradually over many pixels. Can be performed.
  • the pixel values of the pixels corresponding to the characters are substantially the same, and the pixel values of the pixels corresponding to the background are substantially the same value.
  • the pixel value of a pixel corresponding to a character displayed in white is greatly different from the pixel value of a pixel corresponding to a background displayed in black.
  • the image processing apparatus can execute class classification or adaptive processing appropriately corresponding to an image in which pixel values change rapidly.
  • step S201 the structure switching control circuit 302 acquires the telop position information supplied from the initialization circuit 3122.
  • the structure switching control circuit 302 generates a tap selection signal TS1, a tap selection signal TS2, and a type selection signal TS3-1 to TS3- (N-2) corresponding to the position of the telop,
  • the tap selection signal TS 1 is supplied to the tap construction circuit 3 0 4-1
  • the tap selection signal TS 2 is supplied to the tap construction circuit 3 0 4-2, and the tap selection signals TS 3-1 to TS 3 are supplied.
  • the evening construction circuit 3044-1 selects the pixel of interest.
  • the tap construction circuit 3044-2 selects the pixel of interest.
  • Each of the tap construction circuits 3 04 1 3 to 3 0 4 -N selects the pixel of interest.
  • step S203 the evening construction circuit 3044-1 determines whether or not the target pixel is a pixel in the telob based on the physical address on the screen of each pixel and the tap selection signal TS1. If it is determined that the pixel of interest is a pixel in the telop, the process proceeds to step S204, the tap is switched, and the motion class evening TD1 corresponding to the telop is selected. Proceed to step S206.
  • step S203 If it is determined in step S203 that the pixel of interest is not a pixel in the terrorist, the process proceeds to step S205, where the tap construction circuit 3044-1 switches the tap to correspond to the natural image. Then, a motion class tap TD1 is selected, and the procedure proceeds to step S206.
  • steps S 203 to S 205 the tap construction circuits 304-2 to 304-N execute the same processing as the tap construction circuit 304-1. Description is omitted.
  • step S 206 the evening construction circuits 304-1 to 304-N determine whether or not processing has been completed for all pixels, and has completed processing for all pixels. If it is determined that there is no tap, the process returns to step S202, and the tap switching process is repeated.
  • step S206 it is determined that processing has been completed for all pixels. If so, the process ends.
  • the image processing apparatus having the configuration shown in FIG. 23 can switch the tap in the telop mode in accordance with whether or not the target pixel belongs to the telop display area.
  • the image processing apparatus having the configuration shown in FIG. 27 performs the same processing as described with reference to the flowchart shown in FIG. 30 to determine whether or not the target pixel belongs to the telop display area. Since the setting is switched accordingly, the description is omitted.-The image processing device shown in Fig. 23 or Fig. 27 has a frame image display area even for the image shown in Fig. 29 (D). The process is executed by switching between the sunset and the evening of the image display area.
  • the series of processes described above can be executed by hardware, but can also be executed by software.
  • the programs that make up the software are installed in a dedicated computer or by installing various programs installed in a dedicated hardware. It is installed from a recording medium to, for example, a general-purpose personal computer that can execute various functions.
  • FIG. 31 is a diagram illustrating an example of a recording medium and a computer.
  • the CPU (Central Processing Unit) 501 actually executes various application programs and 0S (Operating System).
  • An R0M (Read-only Memory) 502 generally stores basically fixed data of a program used by the CPU 501 and parameters for calculation.
  • a RAM (Randoffi-Access Memory) 503 stores a program used in the execution of the CPU 501 and parameters that change as appropriate in the execution. These are interconnected by a host bus 504 composed of a CPU bus and the like.
  • the host bus 504 is connected via a bridge 505 to an external bus 506 such as a PCI (Peripheral Component Interconnect / Interface) bus.
  • PCI Peripheral Component Interconnect / Interface
  • the keyboard 508 is operated by the user when inputting various commands to the CPU 501.
  • the mouse 509 is operated by the user when instructing or selecting a point on the screen of the display 5 10.
  • Display 5 10 is a liquid crystal display It consists of a device or a CRT (Cathode Ray Tube) and displays various information in a text image.
  • the HDD (Hard Disk Drive) 5 1 1 drives the hard disks and records or reproduces the programs and information to be executed by the CPU 5 1 on them.
  • the drive 5 1 2 has the attached magnetic disks 5 5 1
  • the data or the program recorded on the optical disk 552, the magneto-optical disk 553 or the semiconductor memory 554 is read, and the data or the program is read into the interface 507, the external bus 506, the bridge 505, And the RAM 503 connected via the host bus 504.
  • the keyboard 508 to the drive 512 are connected to an interface 507, and the interface 507 is connected to an external bus 506, a bridge 505, and a host bus 504. Connected to CPU 501.
  • the recording medium is a magnetic disk 5 on which a program is recorded, which is distributed separately from a computer to provide a user with a program for executing a process corresponding to the block diagram.
  • 5 1 including floppy disk
  • optical disk 5 52 including CD-R0M (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)
  • magneto-optical disk 5 53 MD (Mini- Disc)
  • ROM Read Only Memory
  • the program for executing the process corresponding to the block diagram for the user may be supplied to the computer via a wired or wireless communication medium.
  • steps for describing a program stored in a recording medium are not only performed in chronological order according to the order described, but are not necessarily performed in chronological order. Alternatively, it also includes processes that are individually executed.
  • position information indicating the position of a target pixel in a frame of an input image signal including a plurality of pixels is detected, and the position information is included in the position information.
  • the class of the pixel of interest is determined from the plurality of classes, and a plurality of pixels are selected as prediction taps from the input image signal.
  • position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels is detected, and a positional relationship with the target pixel is determined.
  • a plurality of pixels that are variable according to the position information are selected as cluster clusters from the input image signal, the class of the pixel of interest is determined from the plurality of classes based on the class tap, and the plurality of pixels are predicted from the input image signal. Since the selected data is selected as the tap, and the conversion data obtained by learning in advance for each class and the arithmetic processing based on the prediction tap are performed, an output image signal higher in quality than the input image is output. Regardless of the position of the pixel on the screen, higher quality images can always be generated.
  • position information indicating a position of a target pixel in a frame of an input image signal including a plurality of pixels is detected, and a plurality of pixels are detected from the input image signal.
  • the class of the pixel of interest is determined from the plurality of classes based on the class tap, and the plurality of pixels whose positional relationship with the pixel of interest is varied according to the positional information is determined from the input image signal.
  • the conversion data that is selected as the prediction tap and is obtained by learning in advance for each class, and the calculation processing based on the prediction tap is performed, so that an output image signal higher in quality than the input image is output. Regardless of the position of the pixel on the screen, a higher quality image can always be generated.
  • a plurality of pixels are selected from the input image signal as temporary class taps, A plurality of pixels whose positional relationship with the pixel of interest is changed according to the position of the temporary cluster in the frame are selected as true class taps from the input image signal, and based on the true class tap, a plurality of pixels are selected from the plurality of classes.
  • a class is determined, a plurality of pixels are selected from the input image signal as a prediction tap, and based on the conversion taps and prediction taps obtained by learning in advance for each class.
  • a plurality of pixels are selected from the input image signal as class taps
  • the class of the pixel of interest is determined from the plurality of classes based on the cluster map, and for each pixel of interest, a plurality of pixels are selected from the input image signal as a tentative prediction tap, and the position of the tentative prediction tap in the frame is determined.
  • the output image signal is output at a higher quality than the input image by performing the arithmetic processing based on the input image. High quality images can be generated.

Description

明細 : 画像処理装置及び方法、 並びに記録媒体
技術分野 本発明は、 画像処理装置及び方法、 並びに記録媒体に関し、 特に、 画像を処理 又は変換する画像処理装置及び方法、 並びに記録媒体に関する。
冃景技俯 画像信号を高解像度化等高質化するための技術として、 例えば、 特鬨平 9一 7 4 5 4 3号公報及び対応する米国特許 5 9 4 6 0 4 4号明細書等に閧示されたク ラス分類適応処理がある。
クラス分類適応処理では、 入力画像信号の各注目画素に対して、 入力画像信号 からクラス夕ヅプ及び予測夕ヅプを取得し、 クラスタヅプに基づいて注目画素を 予め設定したクラスのいずれかに分類し、 分類されたクラスに対応して選択され る予め各クラス毎に学習により生成された予測係数セッ トと予測タッブとを用い た演算を行うことで、 入力画像信号より高質な出力画像信号が生成される。 クラス分類適応処理では、 クラスタップゃ予測夕ップが画像の有効範囲の外に 位置する画素となることがある。 ここで、 有効範囲の外の画素の画素値は正常な 値を有していない可能性が高い。 従って、 従来のクラス分類適応処理では、 クラ ス夕ップゃ予測夕ッブが画像の有効範囲の外に位置する場合には、 図 1 に示すよ うにマスクをして使用しないようにしていた。
このクラス分類適応処理の一例として、 誤り訂正符号などによって訂正するこ とができなかったり、 パケッ トロス等により欠落した画素を周辺の欠落していな い画素をクラスタップ及び予測夕ッブとして用いてクラス分類適応処理を行うこ とで欠落した画素を生成するものがある。
この場合にも図 1に示すように、 対象となる画素の周辺に位置する画素の画素 値を利用したクラス分類適応処理により、 その画素値を設定することができる。 従来は、 画面全体において、 欠落した画素との位置関係が相対的に同様の位置 にある画素が利用される、 いわゆるタップ構造が同じ処理が実行される。
欠落した画素の周辺に位置する画素が画像の有効範囲の外に位置する場合、 設 定された画素値は、 正常な値を有しない。 このため、 生成された画像において、 このような画像の端部に位置する画素は、 図 1に示すように、 マスクされ、 利用 されない。
また、 従来は、 画面上の画素の物理的位置にかかわらず同様の処理が実行され るだけであった。
しかしながら、 画像がマスクされると、 画像のサイズが小さくなり、 実質的に、 生成される画像の解像度が低下することとなる。 また、 画素の画面上の位置に対 応して処理内容が変化することはなく、 画素の画面上の物理的位置にかかわらず 同様の処理が実行されるので、 高質化があまり図られないことがある。
発明の開示 本発明はこのような状況に鑑みてなされたものであり、 画素の画面上の位置に かかわらず、 常に、 より高質な画像を生成することができるようにすることを目 的とする。
本発明に係る画像処理装置は、 複数の画素からなる入力画像信号の注目画素の フレーム内における位置を示す位置情報を検出する位置検出手段と、 前記位置情 報に応じて、 複数のクラスから前記注目画素のクラスを決定するクラス決定手段 と、 前記入力画像信号から複数の画素を予測タッブとして選択する予測タップ選 択手段と、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測 タッブに基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信 号を出力する演算手段とを備えることを特徴とする。 また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の注目 画素のフレーム内における位置を示す位置情報を検出する位置検出ステツプと、 前記位置情報に応じて、 複数のクラスから前記注目画素のクラスを決定するクラ ス決定ステツプと、 前記入力画像信号から複数の画素を予測夕ッブとして選択す る予測夕ップ選択ステップと、 前記クラス毎に予め学習により得られた変換デ一 タ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力画像よ り高質な出力画像信号を出力する演算ステツプとを含むことを特徴とする。
また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の注目 画素のフレーム内における位置を示す位置情報を検出する位置検出ステップと、 前記位置情報に応じて、 複数のクラスから前記注目画素のクラスを決定するクラ ス決定ステツプと、 前記入力画像信号から複数の画素を予測夕ップとして選択す る予測夕ッブ選択ステップと、 前記クラス毎に予め学習により得られた変換デ一 タ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力画像よ り高質な出力画像信号を出力する演算ステツプとを含むことを特徴とする画像処 理をコンピュータに実行させるプログラムが記録されている。
本発明に係る画像処理装置は、 複数の画素からなる入力画像信号の注目画素の フレーム内における位置を示す位置情報を検出する位置検出手段と、 前記注目画 素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画 像信号からクラス夕ヅブとして選択するクラスタヅブ選択手段と、 前記クラス夕 ップに基づいて、 複数のクラスから前記注目画素のクラスを決定するクラス決定 手段と、 前記入力画像信号から複数の画素を予測タッブとして選択する予測夕ツ プ選択手段と、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記 予測夕ッブに基づく演算処理を行うことにより、 前記入力画像より高質な出力画 像信号を出力する演算手段とを備えることを特徴とする。
また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の注目 画素のフレーム内における位置を示す位置情報を検出する位置検出ステツプと、 前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号からクラス夕ヅブとして選択するクラス夕ヅプ選択ステップと、 前記クラス夕ップに基づいて、 複数のクラスから前記注目画素のクラスを決定す るクラス決定ステップと、 前記入力画像信号から複数の画素を予測タッブとして 選択する予測タップ選択ステツプと、 前記クラス毎に予め学習により得られた変 換デ一タ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力 画像より高質な出力画像信号を出力する演算ステ、ソブとを含むことを特徴とする < さらに、 本発明に係る記録媒体は、 複数の画素からなる入力画像信号の注目 画素のフレーム内における位置を示す位置情報を検出する位置検出ステツブと、 前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号からクラス夕ップとして選択するクラスタッブ選択ステップと、 前記クラスタッブに基づいて、 複数のクラスから前記注目画素のクラスを決定す るクラス決定ステップと、 前記入力画像信号から複数の画素を予測タップとして 選択する予測夕ップ選択ステツプと、 前記クラス毎に予め学習により得られた変 換データ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力 画像より高質な出力画像信号を出力する演算ステップとを含むことを特徴とする 画像処理をコンビユー夕に実行させるプログラムが記録されている。
本発明に係る画像処理装置は、 複数の画素からなる入力画像信号の注目画素の フレーム内における位置を示す位置情報を検出する位置検出手段と、 前記入力画 像信号から複数の画素をクラスタップとして選択するクラスタ、ソプ選択手段と、 前記クラス夕ップに基づいて、 複数のクラスから前記注目画素のクラスを決定す るクラス決定手段と、 前記注目画素との位置関係が.、 前記位置情報に応じて可変 される複数の画素を、 前記入力画像信号から予測夕ッブとして選択する予測夕ッ プ選択手段と、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記 予測夕ップに基づく演算処理を行うことにより、 前記入力画像より高質な出力画 像信号を出力する演算手段とを備えることを特徴とする。
また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の注目 画素のフレーム内における位置を示す位置情報を検出する位置検出ステップと、 前記入力画像信号から複数の画素をクラスタッブとして選択するクラスタップ選 択ステップと、 前記クラスタップに基づいて、 複数のクラスから前記注目画素の クラスを決定するクラス決定ステップと、 前記注目画素との位置関係が、 前記位 置情報に応じて可変される複数の画素を、 前記入力画像信号から予測タッブとし て選択する予測タップ選択ステツプと、 前記クラス毎に予め学習により得られた 変換データ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入 力画像より高質な出力画像信号を出力する演算ステツプとを含むことを特徴とす る。
さらに、 本発明に係る記録媒体は、 複数の画素からなる入力画像信号の注目画 素のフ レーム内における位置を示す位置情報を検出する位置検出ステツプと、 前 記入力画像信号から複数の画素をクラスタップとして選択するクラスタップ選択 ステップと、 前記クラスタヅブに基づいて、 複数のクラスから前記注目画素のク ラスを決定するクラス決定ステップと、 前記注目画素との位置関係が、 前記位置 情報に応じて可変される複数の画素を、 前記入力画像信号から予測夕ッブとして 選択する予測タップ選択ステツプと、 前記クラス毎に予め学習により得られた 変換デ一夕、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入 力画像より高質な出力画像信号を出力する演算ステツプとを含むことを特徴とす る画像処理をコンピュー夕に実行させるプログラムが記録されている。
本発明に係る画像処理装置は、 複数の画素からなる入力画像信号の各注目画素 に対して、 前記入力画像信号から複数の画素を仮クラスタップとして選択する仮 クラス夕ヅブ選択手段と、 前記仮クラスタヅブのフレーム内における位置に応じ て前記注目画素との位置関係が可変される複数の画素を、 前記入力画像信号から 真クラスタップとして選択する真クラスタップ選択手段と、 前記真クラス夕ヅ プ に基づいて、 複数のクラスから前記注目画素のクラスを決定するクラス決定手段 と、 前記入力画像信号から複数の画素を予測夕ッブとして選択する予測夕ップ選 択手段と、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測 夕ップに基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信 号を出力する演算手段とを備えることを特徴とする。
また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の各注 目画素に対して、 前記入力画像信号から複数の画素を仮クラスタップとして選択 する仮クラスタヅプ選択ステッブと、 前記仮クラスタヅブのフレーム内における 位置に応じて前記注目画素との位置関係が可変される複数の画素を、 前記入力画 像信号から真クラスタッブとして選択する真クラス夕ップ選択ステップと、 前記 真クラス夕ップに基づいて、 複数のクラスから前記注目画素のクラスを決定する クラス決定ステップと、 前記入力画像信号から複数の画素を予測タッブとして選 択する予測夕ップ選択ステツプと、 前記クラス毎に予め学習により得られた変換 データ、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力画 像より高質な出力画像信号を出力する演算ステツプとを含むことを特徴とする。 さらに、 本発明に係る記録媒体は、 複数の画素からなる入力画像信号の各注目 画素に対して、 前記入力画像信号から複数の画素を仮クラスタッブとして選択す る仮クラスタツプ選択ステツプと、 前記仮クラスタップのフレーム内における位 置に応じて前記注目画素との位置関係が可変される複数の画素を、 前記入力画像 信号から真クラスタップとして選択する真クラスタヅプ選択ステツブと、 前記真 クラスタヅプに基づいて、 複数のクラスから前記注目画素のクラスを決定するク ラス決定ステップと、 前記入力画像信号から複数の画素を予測夕ップとして選択 する予測タップ選択ステップと、 前記クラス毎に予め学習により得られた変換デ —夕、 及び、 前記予測タップに基づく演算処理を行うことにより、 前記入力画像 より高質な出力画像信号を出力する演算ステツプとを含むことを特徴とする画像 処理をコンピュータに実行させるプログラムが記録されている。
本発明に係る画像処理装置は、 複数の画素からなる入力画像信号の各注目画素 に対して、 前記入力画像信号から複数の画素をクラスタップとして選択するクラ スタップ選択手段と、 前記クラスタップに基づいて、 複数のクラスから前記注目 画素のクラスを決定するクラス決定手段と、 前記各注目画素に対して、 前記入力 画像信号から複数の画素を仮予測夕ッブとして選択する仮予測夕ップ選択手段と、 前記仮予測タップのフレーム内における位置に応じて前記注目画素との位置関係 が可変される複数の画素を、 前記入力画像信号から真予測夕ッブとして選択する 真予測夕ッブ選択手段と、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記真予測タップに基づく演算処理を行うことにより、 前記入力画像より 高質な出力画像信号を出力する演算手段とを備えることを特徴とする。
また、 本発明に係る画像処理方法は、 複数の画素からなる入力画像信号の各注 目画素に対して、 前記入力画像信号から複数の画素をクラスタップとして選択す るクラスタヅブ選択ステップと、 前記クラスタヅブに基づいて、 複数のクラスか ら前記注目画素のクラスを決定するクラス決定ステップと、 前記各注目画素に対 して、 前記入力画像信号から複数の画素を仮予測タッブとして選択する仮予測タ ヅプ選択ステップと、 前記仮予測タップのフレーム内における位置に応じて前記 注目画素との位置関係が可変される複数の画素を、 前記入力画像信号から真予測 夕ップとして選択する真予測夕ップ選択ステップと、 前記クラス毎に予め学習に より得られた変換データ、 及び、 前記真予測タップに基づく演算処理を行うこと により、 前記入力画像より高質な出力画像信号を出力する演算ステップとを含む ことを特徴とする。
さらに、 本発明に係る記録媒体は、 複数の画素からなる入力画像信号の各注目 画素に対して、 前記入力画像信号から複数の画素をクラスタップとして選択する クラスタップ選択ステップと、 前記クラスタヅブに基づいて、 複数のクラスから 前記注目画素のクラスを決定するクラス决定ステツプと、 前記各注目画素に対し て、 前記入力画像信号から複数の画素を仮予測タッブとして選択する仮予測タッ ブ選択ステツプと、 前記仮予測夕ップのフレーム内における位置に応じて前記注 目画素との位置関係が可変される複数の画素を、 前記入力画像信号から真予測夕 ップとして選択する真予測夕ップ選択ステップと、 前記クラス毎に予め学習によ り得られた変換デ一夕、 及び、 前記真予測タップに基づく演算処理を行うことに より、 前記入力画像より高質な出力画像信号を出力する演算ステップとを含むこ とを特徴とする画像処理をコンピュ一夕に実行させるプログラムが記録されてい る。
図面の簡単な説明 図 1は、 画素のマスクを説明する図である。
図 2は、 本発明に係る画像処理装置の一実施の形態の構成を示す図である。 図 3は、 有効画素領域算出回路の構成例を示す図である。
図 4は、 有効画素領域垂直フラグ V F及び有効画素領域水平フラグ H Fを説明 する図である。 図 5は、 創造の対象となる周辺の画素を説明する図である。
図 6は、 画像の端部におけるタップの構築例を示す図である。
図 7は、 画像の端部におけるタップの構築例を示す図である。
図 8は、 欠落画素創造回路の構成を示すプロック図である。
図 9は、 前処理回路の処理を説明するフローチャートである。
図 1 0は、 動きクラス生成回路の構成を示す図である。
図 1 1は、 動き検出回路の構成を示す図である。
図 1 2は、 時間ァクティビティの算出に使用されるタップを示す図である。 図 1 3は、 空間アクティ ビティの算出に使用されるタップを示す図である。 図 1 4は、 動き判定の閾値を説明する図である。
図 1 5は、 動き判定回路の動きクラスコード M C Cを設定する処理を説明する フローチャートである。
図 1 6は、 動きクラスコード M C Cの多数決判定に利用される画素を説明する 図である。
図 1 7は、 動き検出回路の動きクラスコード M C Cを設定する処理を説明する フローチャートである。
図 1 8は、 画像の端部における夕ップの構築例を示す図である。
図 1 9は、 画像の端部におけるタップの構築例を示す図である。
図 2 0は、 補間の処理に利用される画素を説明する図である。
図 2 1は、 画素値が置換される画素を説明する図である。
図 2 2は、 欠落画素創造回路の他の構成を示すプロック図である。
図 2 3は、 欠落画素創造を行う画像処理モード、 色収差を考慮した画像処理モ 一ド、 テロッブ位置を考慮した画像処理モードの何れか 1つ又は複数を選択的に 行う画像処理装置に利用される係数セッ トを生成する画像処理装置の一実施の形 態の構成を示す図である。
図 2 4は、 色収差を説明する図である。
図 2 5は、 色収差を説明する図である。
図 2 6は、 タップの切換を説明する図である。
図 2 7は、 欠落画素創造を行う画像処理モード、 色収差を考慮した画像処理モ —ド、 テロップ位置を考慮した画像処理モードの何れか 1つ又は複数を選択的に 行う画像処理装置の一実施の形態の構成を示す図である。
図 2 8は、 色収差に対応した夕ップの切換の処理を説明するフローチヤ一卜で ある。
図 2 9は、 テロッブ等が表示されている画面例を示す図である。
図 3 0は、 テロヅブの位置に対応した夕ップの切換の処理を説明するフローチ ヤートである。
図 3 1は、 記録媒体を説明する図である。
発明を実施するための最良の形態 以下、 本発明の実施の形態について図面を参照して詳細に説明する。
図 2は、 本発明に係る画像処理装置の一実施の形態の構成を示す図である。 有 効画素領域算出回路 1 1は、 欠落画素創造回路 1 2に入力される画像に同期した 垂直同期信号、 及び水平同期信号を基に、 欠落画素創造回路 1 2に入力される画 像の画素が有効画素領域に位置するか否かを示す、 有効画素領域垂直フラグ V F 及び有効画素領域水平フラグ H Fを生成して、 欠落画素創造回路 1 2に出力する ( 以下において、 画素は、 タップとも称し、 画素値は、 タップデータとも称する。 欠落画素創造回路 1 2は、 入力された画像及び画像の各画素に対応する欠落フ ラグ L F、 並びに有効画素領域算出回路 1 1から供給された有効画素領域垂直フ ラグ V F及び有効画素領域水平フラグ H Fを基に、 入力された画像に含まれる欠 落画素に対応する画素を創造して、 欠落画素を創造した画素に置き換えて出力す る。
図 3は、 有効画素領域算出回路 1 1の構成の例を示す図である。 垂直同期信号 検出回路 4 1は、 入力された垂直同期信号を基に、 画像の各画素が、 画面の垂直 方向に有効画素領域内であるか否かを示すデータ (以下、 垂直有効画素領域デー 夕と称する) を生成して、 有効領域算出回路 4 3に供給する。 水平同期信号検出 回路 4 2は、 入力された水平同期信号を基に、 画像の各画素が、 画面の水平方向 に有効画素領域内であるか否かを示すデ一夕 (以下、 水平有効画素領域デ一夕と 称する) を生成して、 有効領域算出回路 4 3に供給する。
有効領域算出回路 4 3は、 垂直同期信号検出回路 4 1から供給された垂直有効 画素領域データを補正して、 有効画素領域垂直フラグ V Fとして欠落画素創造回 路 1 2に出力する。
有効画素領域垂直フラグ V Fは、 例えば、 図 4に示すように、 ディスプレイの 有効範囲内において、 0の値が設定され、 ディスプレイの有効範囲外において、 1の値が設定される。
有効領域算出回路 4 3は、 水平同期信号検出回路 4 2から供給された水平有効 画素領域データを補正して、 有効画素領域水平フラグ H Fとして欠落画素創造回 路 1 2に出力する。
有効画素領域水平フラグ H Fは、 例えば、 図 4に示すように、 ディスプレイの 有効範囲内において、 ◦の値が設定され、 ディスプレイの有効範囲外において、 1の値が設定される。
欠落画素創造回路 1 2は、 有効画素領域算出回路 1 1から供給された、 有効画 素領域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 入力された画像 の各画素が有効画素領域内に位置するか否かを知ることができる。
次に、 欠落画素創造回路 1 2について説明する。 欠落画素創造回路 1 2に入力 される画像がィンターレ一スであるとき、 注目しているフィ一ルドの画素の位置 は、 注目しているフィ一ルドの 1つ前又は 1つ後のフィ一ルドの画素の位置に対 して、 垂直方向に 1 / 2ずれた位置にある。
欠落画素創造回路 1 2は、 クラス分類適応処理により、 図 5に示すように、 創 造の対象となる画素と同一のフィールド (図中のフィールド k ) にある周辺の画 素の画素値、 1つ前のフィールド (図中のフィールド k一 1 ) に存在する画素の 画素値、 並びに 2つ前のフィールド (図中のフィールド k一 2 ) に存在する画素 の画素値を基に、 欠落画素の画素値を創造する。
創造の対象となる欠落画素が、 画像の端部に位置する場合、 図 6に示すように、 欠落画素創造回路 1 2は、 有効画素領域算出回路 1 1から供給された有効画素領 域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 画像の有効範囲に位 置する画素のみ (画像の有効範囲外に位置する画素は切り捨てられる) を選択し て、 選択した画素を基に欠落画素の画素値を創造する。
創造の対象となる欠落画素が、 画像の端部に位置する場合、 図 7に示すように、 欠落画素創造回路 1 2は、 有効画素領域算出回路 1 1から供給された有効画素領 域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 画像の有効範囲に位 置する画素を対象とした夕ップ構造に適応的に切り替えることで、 有効な画素を タップとして選択して、 欠落画素の画素値を創造するようにしてもよい。
図 8は、 欠落画素創造回路 1 2の構成の例を示すブロック図である。 欠落画素 創造回路 1 2に入力された画素値及び画素の欠落を示す欠落フラグ L Fは、 前処 理回路 1 0 1及び夕ッブ構築回路 1 0 2— 1 に供給される。
有効画素領域算出回路 1 1から入力された有効画素領域垂直フラグ V F及び有 効画素領域水平フラグ H Fは、 前処理回路 1 0 1、 タツプ構築回路 1 0 2— 1乃 至 1 0 2— 5、 クラス合成回路 1 0 7、 及び係数保持クラスコ一ド選択回路 1 0 9に供給される。
前処理回路 1 0 1は、 有効画素領域垂直フラグ V F及び有効画素領域水平フラ グ H Fを基に、 有効画素領域外に位置する画素の欠落フラグ L Fを設定する。 例 えば、 " 1 " である欠落フラグ L Fは、 その画素値が欠落していることを示 し、 " 0 " である欠落フラグ L Fは、 その画素値が欠落していないことを示す。 前処理回路 1 0 1は、 画素値及び画素に対応する欠落フラグ L Fを基に、 有効画 素領域内の欠落している画素の値を線形補間フィル夕で生成し、 欠落画素にその 値を設定し、 夕 ヅプ構築回路 1 0 2— 2乃至 1 0 2— 5に供給する。 すなわち、 前処理回路 1 0 1は、 画素が欠落しているとき、 欠落している画素の数だけ予測 夕ヅプの数を増やす。
ただし、 後述するように、 クラスタップは、 欠落している画素を含まず、 クラ ス分類の処理は、 前処理回路 1 0 1により生成された画素値を使用しない。
前処理回路 1 0 1の処理を図 9のフローチャートを参照して説明する。 ステヅ プ S 1 1において、 前処理回路 1 0 1は、 欠落フラグ L Fを基に、 対象画素が欠 落しているか否かを判定し、 対象画素が欠落していないと判定された場合、 ステ ッブ S 1 2に進み、 対象画素の画素値を、 対象画素に設定し、 処理は終了する。 ステップ S I 1において、 対象画素が欠落していると判定された場合、 ステツ プ S 1 3に進み、 前処理回路 1 0 1は、 欠落フラグ L Fを基に、 対象画素の水平 方向において隣接している 2つの画素のいずれかが欠落しているか否かを判定す る。 ステップ S 1 3において、 対象画素の水平方向において隣接している 2つの 画素のいずれも欠落していないと判定された場合、 ステップ S 1 4に進み、 前処 理回路 1 0 1は、 対象画素の水平方向において隣接している 2つの画素の画素値 の平均値を対象画素の画素値に設定し、 処理は終了する。
ステップ S 1 3において、 対象画素の水平方向において隣接している 2つの画 素のいずれかが欠落していると判定された場合、 ステップ S 1 5に進み、 前処理 回路 1 0 1は、 対象画素の水平方向において隣接している 2つの画素のいずれも 欠落しているか否かを判定する。 ステップ S 1 5において、 対象画素の水平方向 において隣接している 2つの画素のいずれかが欠落していないと判定された場合、 ステップ S 1 6に進み、 前処理回路 1 0 1は、 対象画素の水平に隣接している、 欠落していない画素の画素値を対象画素の画素値に設定し、 処理は終了する。 ステップ S 1 5において、 対象画素の水平に隣接している画素のいずれも欠落 していると判定された場合、 ステップ S 1 7に進み、 前処理回路 1 0 1は、 欠落 フラグ L Fを基に、 対象画素の垂直方向において隣接している 2つの画素のいず れかが欠落しているか否かを判定する。 ステップ S 1 7において、 対象画素の垂 直方向において隣接している 2つの画素のいずれも欠落していないと判定された 場合、 ステップ S 1 8に進み、 前処理回路 1 0 1は、 対象画素の垂直に隣接して いる 2つの画素の画素値の平均値を対象画素の画素値に設定し、 処理は終了する c ステヅプ S 1 7において、 対象画素の垂直方向において隣接している 2つの画 素のいずれかが欠落していると判定された場合、 ステップ S 1 9に進み、 前処理 回路 1 0 1は、 欠落フラグ L Fを基に、 対象画素に隣接している全ての画素が欠 落しているか否かを判定する。 ステップ S 1 9において、 対象画素に隣接してい るいずれかの画素が欠落していないと判定された場合、 ステツプ S 2 0に進み、 前処理回路 1 0 1は、 対象画素に隣接している、 欠落していない画素の画素値を 対象画素の画素値に設定し、 処理は終了する。
ステップ S 1 9において、 対象画素に隣接している全ての画素が欠落している と判定された場合、 ステップ S 2 1に進み、 前処理回路 1 0 1は、 対象画素と同 じ位置の過去のフレームの画素の画素値を、 対象画素の画素値に設定し、 処理は 終了する。
以上のように、 前処理回路 1 0 1は、 有効画素領域内の処理の対象画素の画素 値を周辺の画素の画素値から線形に補間する。 前処理回路 1 0 1による補間処理 により、 これに続く処理で使用できるタッブの範囲を広げることができる。 タップ構築回路 1 0 2— 1は、 有効画素領域垂直フラグ VF及び有効画素領域 水平フラグ HFを基に、 有効画素領域外に位置する画素の欠落フラグ L Fをセッ ト し、 有効画素領域外に位置する画素の欠落フラグ L Fをリセッ ト して、 欠落フ ラグ L Fを欠落フラグタップ S L F T 1として動きクラス生成回路 1 0 3に供給 する。 タップ構築回路 1 0 2— 1は、 有効画素領域内の欠落していない画素から なる、 動きクラスタヅブ TD 1を選択して、 選択した動きクラス夕ヅブ TD 1を 動きクラス生成回路 1 03に供給する。
動きクラス生成回路 1 03は、 イニシャライズ回路 1 1 1から供給されたパラ メータ、 並びにタヅプ構築回路 1 02— 1から供給された欠落フラグ夕ップ S L FT 1及び選択された動きクラス夕ッブ TD 1を基に、 動きクラスコード MC C 及び静動フラグ SMFを生成し、 夕ッブ構築回路 1 02— 2乃至 1 02— 5及び クラス合成回路 1 0 7に出力する。 動きクラスコード MC Cは、 動きの量を示す 2ビッ 卜の情報を有し、 静動フラグ SMFは、 動きの有り無しを 1 ビッ トで示す 図 1 0は、 動きクラス生成回路 1 03の構成を示す図である。 夕ッブ構築回路 1 0 2 - 1から供給された、 欠落フラグ夕ヅプ S L F T 1及び動きクラスタヅプ TD 1は、 動き検出回路 1 5 1に供給される。 動き検出回路 1 5 1は、 欠落フラ グ夕ッブ S L F T 1及び動きクラスタッブ T D 1を基に、 動きクラスコード MC Cを生成して、 出力するとともに、 生成した動きクラスコード MC Cを静動判定 回路 1 5 2に供給する。
次に、 動き検出回路 1 5 1の構成について、 図 1 1のブロック図を参照して説 明する。 時間ァクティ ビティ算出回路 1 8 1は、 タ ヅプ構築回路 1 0 2— 1から 供給された欠落フラグタップ S L F T 1及び動きクラスタップ TD 1を基に、 例 えば、 欠落していない有効領域内の画素であって、 創造の対象画素を中心とした 3 x 3の画素 (動きクラス夕ヅプ T D 1に含まれる) と、 1つ前のフレームの、 欠落していない有効領域内の画素であって、 対応する位置の 3 X 3の画素 (動き クラスタップ T D 1に含まれる) との、 それそれの画素値の差の絶対値を加算し た時間ァクティビティを算出し、 動き判定回路 1 84に供給する。 時間ァクティ ビティ算出回路 1 8 1は、 欠落している画素を使用せず、 欠落していない画素の みを使用して、 時間アクティビティを算出する。
図 1 2 (A) は、 時間ァクティビティの算出に使用される、 創造の対象画素を 中心とした 3 X 3の画素の例を示す図である。 図 1 2 ( A) において、 " エラ ―" は、 欠落画素を示す。 図 1 2 (B) は、 図 1 2 (A) に示された画素に対応 する、 1つ前のフレームの 3 X 3の画素の例を示す図である。 図 1 2 (A) 及び 図 1 2 (B) に示される L 1乃至 L 3は、 それそれラインを示し、 ラインの同一 の番号は、 垂直方向に同一の位置であることを示す。 図 1 2 (A) 及び図 1 2
(B) に示される H 1乃至 H 3は、 それそれ画素の水平方向の位置を示し、 その 同一の番号は、 水平方向に同一の位置であることを示す。
欠落している画素は使用されないので、 図 1 2 (A) 及び図 1 2 (B) に示さ れる場合において、 時間アクティビティは、 次の式 ( 1 ) で算出される。 時間アクティビティ = { | (q 2) - (p 2) | + | (q 3) - (p 3) |
+ I (q 4) - (p 4) | + | (q 6) - (p 6) | + I (Q 7) - (p 7 ) | + | (q 9 ) - (p 9) | } /v
( 1 ) 式 ( 1 ) において、 () は、 画素の画素値を表し、 I Iは、 絶対値を求める関数 を表し、 Vは、 創造の対象画素が存在するフレームの画素の数から、 欠落してい る画素の数を減じた数を表す。
空間ァクティビティ算出回路 1 8 2は、 タヅプ構築回路 1 02— 1から供給さ れた欠落フラグ夕ヅプ S L F T 1及び動きクラスタップ TD 1を基に、 例えば、 創造の対象画素を中心とした 3 X 3の画素の最大値と最小値との差に 1を加算し た空間ァクティビティを算出し、 閾値設定回路 1 8 3に供給する。 図 1 3は、 空間アクティ ビティの算出に使用される、 創造の対象となる欠落画 素を中心とした 3 X 3の画素の例を示す図である。 空間アクティ ビティは、 式 ( 2 ) で算出される。 空間アクティビティ = M a x ( q i ) - M i n ( q i ) + 1 ( 2 ) 式 ( 2 ) において、 M a x ( q i ) は、 q 1乃至 q 9の画素値の最大値を示す。 M i n ( q i ) は、 q l乃至 q 9の画素値の最小値を示す。
闞値設定回路 1 8 3は、 空間ァクティビティ算出回路 1 8 2から供給された空 間ァクティビティを基に、 閾値設定回路 1 8 3に予め記憶されている動き判定の 閾値を選択し、 選択した閾値を動き判定回路 1 8 4に供給する。 動き判定回路 1 8 4に供給される動き判定の閾値は、 空間アクティビティの値によって、 それそ れ異なる値を有する閾値が選択される。
動き判定回路 1 8 4は、 閾値設定回路 1 8 3から供給された動き判定の閾値、 及び時間アクティビティ算出回路 1 8 1から供給された時間ァクティビティから、 動きクラスコード M C Cを設定し、 多数決判定回路 1 8 5、 遅延回路 1 8 6、 及 びセレクタ 1 8 7に供給する。
図 1 4は、 動き判定の閾値を説明する図である。 動き判定の閾値は、 空間ァク テイビティの値によって、 異なる値が使用される。 空間アクティビティが大きく なれば、 大きな値の閾値が使用される。 これは、 空間アクティビティが大きな画 素が、 少ない動きを伴う場合、 時間アクティ ビティは、 大きな値となることを考 慮したものである。
次に、 動き判定回路 1 8 4の動きクラスコード M C Cを設定する処理を、 図 1 5のフローチヤ一トを参照して説明する。 ステヅプ S 3 1において、 動き判定回 路 1 8 4は、 時間アクティ ビティが、 閾値 1以下であるか否かを判定し、 時間ァ クテイビティが閾値 1以下であると判定された場合、 ステップ S 3 2に進み、 動 きクラスコード M C Cに 0を設定し、 処理は終了する。
ステップ S 3 1において、 時間ァクティビティが閾値 1を越えると判定された 場合、 ステップ S 3 3に進み、 動き判定回路 1 8 4は、 時間ァクティビティが、 閾値 2以下であるか否かを判定し、 時間ァクティ ビティが閾値 2以下であると判 定された場合、 ステップ S 34に進み、 動きクラスコード MC Cに 1を設定し、 処理は終了する。
ステップ S 3 3において、 時間ァクティ ビティが閾値 2を越えると判定された 場合、 ステップ S 3 5に進み、 動き判定回路 1 84は、 時間ァクティ ビティが閾 値 3以下であるか否かを判定し、 時間ァクティ ビティが閾値 3以下であると判定 された場合、 ステップ S 3 6に進み、 動きクラスコード MC Cに 2を設定し、 処 理は終了する。
ステップ S 3 5において、 時間ァクティ ビティが閾値 3を越えると判定された 場合、 ステップ S 3 7に進み、 動き判定回路 1 84は、 動きクラスコード MC C に 3を設定し、 処理は終了する。
以上のように、 動き判定回路 1 84は、 閾値及び時間アクティ ビティを基に、 動きクラスコード MC Cを設定する。
多数決判定回路 1 8 5は、 複数の画素の動きクラスコード MC Cを基に、 最終 的な、 動きクラスコード MC Cを設定する。 例えば、 図 1 6に示すように、 創造 の対象画素の周辺の 1 4個の画素の動きクラスコード MC Cを基に、 多数決判定 回路 1 8 5は、 対象画素の動きクラスコ一ド MC Cを設定する。
動き検出回路 1 5 1の動きクラスコード MC Cを設定する処理を図 1 7のフロ —チャートを参照して説明する。 ステヅブ S 5 1において、 動き検出回路 1 5 1 は、 イニシャライズ回路 1 1 1からのパラメ一夕の設定に対応して、 多数決判定 を実行するか否かを判定し、 多数決判定を実行しないと判定された場合、 ステツ プ S 5 2に進み、 セレクタ 1 8 7は、 動き判定回路 1 84が出力する注目画素の 動きクラスコード MC Cを選択して、 注目画素の動きクラスコード MC Cを最終 的な動きクラスコード MC Cとして設定し、 処理は終了する。
ステップ S 5 1において、 多数決判定を実行すると判定された場合、 ステップ S 53に進み、 多数決判定回路 1 8 5は、 14個の画素のうち、 3の動きクラス コード MC Cが設定されている画素の数が、 閾値 3より大きいか否かを判定し、 3の動きクラスコード MC Cが設定されている画素の数が、 閾値 3より大きいと 判定された場合、 ステップ S 54に進み、 動きクラスコード MC Cに 3を設定す る。 セレクタ 1 8 7は、 多数決判定回路 1 8 5の出力を最終的な動きクラスコ一 ド MC Cとして出力し、 処理は終了する。
ステップ S 5 3において、 3の動きクラスコード MC Cが設定されている画素 の数が、 閾値 3以下であると判定された場合、 ステップ S 5 5に進み、 多数決判 定回路 1 8 5は、 1 4個の画素のうち、 3の動きクラスコード MC Cが設定され ている画素の数と 2の動きクラスコード MC Cが設定されている画素の数を加え た値が、 閾値 2より大きいか否かを判定し、 3の動きクラスコード MC Cが設定 されている画素の数と 2の動きクラスコード MC Cが設定されている画素の数を 加えた値が、 閾値 2より大きいと判定された場合、 ステップ S 5 6に進み、 動き クラスコード MC Cに 2を設定する。 セレクタ 1 8 7は、 多数決判定回路 1 8 5 の出力を最終的な動きクラスコ一ド MC Cとして出力し、 処理は終了する。 ステップ S 5 5において、 3の動きクラスコード MC Cが設定されている画素 の数と 2の動きクラスコード MC Cが設定されている画素の数を加えた値が、 閾 値 2以下であると判定された場合、 ステップ S 57に進み、 多数決判定回路 1 8 5は、 1 4個の画素のうち、 3の動きクラスコード MC Cが設定されている画素 の数、 2の動きクラスコード MC Cが設定されている画素の数、 及び 1の動きク ラスコード MC Cが設定されている画素の数を加えた値が、 閾値 1より大きいか 否かを判定し、 3の動きクラスコード MC Cが設定されている画素の数、 2の動 きクラスコード MC Cが設定されている画素の数、 及び 1の動きクラスコード M C Cが設定されている画素の数を加えた値が、 閾値 1より大きいと判定された場 合、 ステップ S 5 8に進み、 動きクラスコード MC Cに 1を設定し、 セレクタ 1 8 7は、 多数決判定回路 1 8 5の出力を最終的な動きクラスコード MC Cとして 出力し、 処理は終了する。
ステップ S 57において、 3の動きクラスコード MC Cが設定されている画素 の数、 2の動きクラスコード MC Cが設定されている画素の数、 及び 1の動きク ラスコード MC Cが設定されている画素の数を加えた値が、 閾値 1以下であると 判定された場合、 ステップ S 59に進み、 多数決判定回路 1 8 5は、 動きクラス コード MC Cに 0を設定し、 セレクタ 1 8 7は、 多数決判定回路 1 8 5の出力を 最終的な動きクラスコ一ド MC Cとして出力し、 処理は終了する。 このように、 動き検出回路 1 5 1は、 複数の画素の動きクラスコード MC C、 並びに予め記憶している閾値を基に、 最終的な、 動きクラスコード MC Cを設定 する。
以上のように、 動きクラス生成回路 1 0 3は、 複数の画素の画素値から動きク ラスコード MC Cを設定し、 動きクラスコード MC Cを静動判定回路 1 52及び 欠落画素創造回路 1 2に出力する。
図 1 0に戻り、 静動判定回路 1 5 2は、 動きクラスコード MC Cを基に、 静動 フラグ S M Fを設定し、 出力する。 例えば、 動きクラスコード M C Cが 0又は 1 のとき、 静動フラグ SMFは、 0に設定され、 動きクラスコード MC Cが 2又は 3のとき、 静動フラグ SMFは、 1に設定される。
夕ッブ構築回路 1 0 2— 2は、 動きクラス生成回路 1 0 3から供給された動き クラスコード MC C及び静動フラグ SMF、 並びに欠落フラグ L Fを基に、 全て のクラス構造を網羅した全クラス予測夕ッブ VE T (有効画素領域外の画素を含 まない) を選択して、 可変タップ選択回路 1 0 8に供給する。
タップ構築回路 1 0 2— 3は、 有効画素領域垂直フラグ VF及び有効画素領域 水平フラグ HFを基に、 有効画素領域外に位置する画素の欠落フラグ L Fをセッ ト し、 有効画素領域外に位置する画素の欠落フラグ L Fをリセッ ト して、 欠落フ ラグ L Fを欠落フラグタップ S L F T 2として D Rクラス生成回路 1 04に供給 する。 タ ヅプ構築回路 1 0 2— 3は、 動きクラス生成回路 1 0 3から供給された 動きクラスコード MC C及び静動フラグ SMF、 並びに欠落フラグ L Fを基に、 有効画素領域内の欠落していない DRクラス夕ップ TD 2を選択して、 選択した DRクラスタップ TD 2を DRクラス生成回路 1 04に供給する。 DRクラス生 成回路 1 04は、 夕ヅブ構築回路 1 02— 3から供給された欠落フラグ夕ヅプ S L F T 2、 及び DRクラスタップ TD 2を基に、 D Rクラスタップ T D 2に含ま れる画素であって、 欠落していない画素の最大の画素値と最小の画素値との差で あるダイナミヅクレンジに応じて決定される DRクラスコード DR C Cを生成し て、 クラス合成回路 1 07に出力する。
夕ップ構築回路 1 0 2— 4は、 有効画素領域算出回路 1 1から供給された、 有 効画素領域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 有効画素領 域外に位置する画素の欠落フラグ L Fをセッ ト し、 有効画素領域外に位置する画 素の欠落フラグ L Fをリセッ ト して、 欠落フラグ L Fを欠落フラグ夕ップ S L F T 3として空間クラス生成回路 1 0 5に供給する。 夕ヅブ構築回路 1 0 2— 4は、 動きクラス生成回路 1 03から供給された動きクラスコ一ド MC C及び静動フラ グ SMF、 並びに欠落フラグ L Fを基に、 有効画素領域内の欠落していない空間 クラスタップ TD 3を選択して、 選択した空間クラス夕ヅプ TD 3を空間クラス 生成回路 1 05に供給する。 空間クラス生成回路 1 0 5は、 タツプ構築回路 1 0 2— 4から供給された欠落フラグ夕ップ S LF T 3、 及び空間クラスタヅプ TD 3を基に、 画素値パターンに対応する空間クラスコード S C Cを生成して、 クラ ス合成回路 1 0 7に出力する。
タップ構築回路 1 02— 5は、 有効画素領域算出回路 1 1から供給された、 有 効画素領域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 欠落フラグ L Fを選択して、 選択された欠落フラグ L Fを欠落フラグ夕ップ S L F T4とし て欠落クラス生成回路 1 0 6に供給する。 欠落クラス生成回路 1 0 6は、 タッブ 構築回路 1 02— 5から供給された欠落フラグタヅプ S L F T 4を基に、 欠落ク ラスコード L C Cを生成して、 クラス合成回路 1 07に出力する。
クラス合成回路 1 07は、 有効画素領域算出回路 1 1から供給された、 有効画 素領域垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 動きクラスコ一 ド MC C、 静動フラグ SMF、 DRクラスコ一ド DR C C、 空間クラスコード S C C、 及び欠落クラスコード L C Cを、 最終的な 1つのクラスコード C Cに統合 して、 クラスコ一ド C Cを係数保持クラスコ一ド選択回路 1 09に出力する。 係数保持クラスコード選択回路 1 09は、 有効画素領域算出回路 1 1から供給 された、 有効画素領域垂直フラグ VF及び有効画素領域水平フラグ HF、 ィニシ ャライズ回路 1 1 1から供給された係数セッ ト及び予測構造、 並びにクラス合成 回路 1 0 7から供給されたクラスコード C Cを基に、 予測タップ選択信号 VTを 生成して、 生成した予測夕ップ選択信号 VTを可変タップ選択回路 1 0 8に供給 するとともに、 クラスコ一ド C Cを基に係数セッ トから選択された予測係数 Wを 推定予測演算回路 1 1 0に出力する。 イニシャライズ回路 1 1 1から供給される 係数セッ トは、 クラスコード C Cにより分類されるクラスに対応して、 予め生成 され、 イニシャライズ回路 1 1 1に記憶されている。
可変夕ッブ選択回路 1 0 8は、 タツプ構築回路 1 0 2— 2から供給された全ク ラス予測夕ッブ V E T、 及び係数保持クラスコード選択回路 1 0 9から供給され た予測タップ選択信号 V Τを基に、 予測タップ Ε Τを選択して、 選択した予測夕 ップ Ε Τを推定予測演算回路 1 1 0に供給する。 例えば、 可変タップ選択回路 1 0 8は、 全クラス予測タヅブ V E Τに含まれるタヅプから、 予測タップ選択信号 V Tにより指定される夕ッブを選択して、 選択されたタップを予測タップ Ε丁と する。
推定予測演算回路 1 1 0の積和器 1 2 1は、 可変夕ップ選択回路 1 0 8から供 給された予測夕ッブ Ε Τ、 及び係数保持クラスコ一ド選択回路 1 0 9から供給さ れた予測係数 Wを基に、 線形推定式を用いて、 欠落画素の画素値を算出する。 なお、 推定予測演算回路 1 1 0の積和器 1 2 1は、 予測係数 Wを基に、 非線形 推定式を用いて、 欠落画素の画素値を算出するようにしてもよい。
推定予測演算回路 1 1 0のフィルタ 1 2 2は、 可変夕ップ選択回路 1 0 8から 供給された予測夕ップ Ε から、 欠落画素の画素値を算出する。
推定予測演算回路 1 1 0は、 イニシャライズ回路 1 1 1から設定された出力モ —ドを基に、 フィル夕 1 2 2の出力又は積和器 1 2 1の出力を選択して出力し、 出力モードに応じた結果を求める。
このように、 欠落画素創造回路 1 2は、 有効画素領域垂直フラグ V F及び有効 画素領域水平フラグ H Fを基に、 有効画素領域内の画素から、 ダイナミ ックレン ジ、 動き、 欠落、 及び画素値パターンなどによるクラス分類をし、 欠落画素の周 辺の画素値 (有効画素領域外の画素の画素値を含まない) を基に、 欠落画素値を 算出する。
また、 欠落画素創造回路 1 2は、 例えば、 推定予測演算回路 1 1 0の出力モ一 ドを切り換えて、 全ての画素に上記の処理を実行して、 入力された画像の画質を アップさせる (例えば、 階調の増加 (Υデータ、 Uデータ、 及び Vデータのビッ ト数の増加) 、 ノイズの除去、 量子化歪みの除去 (時間方向の歪みの除去を含 む) 、 4倍密度の解像度の創造など) ことができる。
更に、 創造の対象となる欠落画素が、 画像の端部に位置し、 予め決められた数 以上のタップが欠落していると判定された場合、 図 2 0に示すように、 欠落画素 創造回路 1 2は、 クラス分類適応処理に代えて、 隣接する画素の画素値を基に、 線形補間処理を行って、 欠落画素の画素値を補間するようにしてもよい。
また、 図 2 1に示すように、 欠落画素創造回路 1 2は、 創造の対象となる欠落 画素が画像の端部に位置し、 隣接する画素の全てが欠落しているときなどに、 予 め定めた目立ちにくい色に相当する値 (例えば、 灰色などに相当する) を欠落画 素の画素値として設定するようにしてもよいし、 過去のフレームの同じ位置の画 素値を設定してもよい。
図 2 2は、 図 2 0又は図 2 1に示す処理を実行する、 欠落画素創造回路 1 2の 他の構成を示すブロック図である。 欠落画素創造回路 1 2に入力されたデ一夕で ある画素値及び画素の欠落を示す欠落フラグ L Fは、 前処理回路 20 1及びタツ ブ構築回路 2 0 2— 1に供給される。
前処理回路 2 0 1は、 前処理回路 1 0 1と同様の処理を実行し、 入力された画 素値及び画素の欠落を示す欠落フラグ L Fを基に、 欠落している画素の値を線形 補間フィル夕で生成し、 欠落している画素にその値を設定し、 タップ構築回路 2 02— 2乃至 2 02— 5に供給する。
タヅプ構築回路 2 02— 1は、 選択した画素の欠落フラグ L Fを欠落フラグ夕 ヅブ S L F T 1 として、 動きクラス生成回路 2 0 3に供給する。 タップ構築回路 2 02— 1は、 有効画素領域内の欠落していない画素からなる、 動きクラス夕ッ ブ TD 1を選択して、 選択した動きクラスタップ T D 1を動きクラス生成回路 2 03に供給する。
動きクラス生成回路 2 03は、 イニシャライズ回路 2 1 1から供給されたパラ メータ、 並びに夕ヅプ構築回路 2 0 2 - 1から供給された欠落フラグ L F及び選 択された動きクラス夕ップ TD 1を基に、 動きクラスコード MC C及び静動フラ グ SMFを生成し、 夕ッブ構築回路 2 0 2— 2乃至 2 0 2— 5及びクラス合成回 路 2 07に出力する。 動きクラスコード MCCは、 動きの量を示す 2ビッ トの情 報を有し、 静動フラグ SMFは、 動きの有り無しを 1 ビッ トで示す。 例えば、 動 きクラスコード MC Cが 0又は 1のとき、 静動フラグ SMFは、 0に設定され、 動きクラスコード MC Cが 2又は 3のとき、 静動フラグ SMFは、 1に設定され る。
タップ構築回路 2 0 2— 2は、 動きクラス生成回路 1 0 3から供給された動き クラスコード MC C及び静動フラグ SMF、 並びに欠落フラグ L Fを基に、 全て のクラス構造を網羅した全クラス予測夕ップ VE T (有効画素領域外の画素を含 まない) を選択して、 可変タップ選択回路 2 08に供給する。
タップ構築回路 2 0 2— 3は、 選択した欠落フラグ L Fを欠落フラグタップ S L F T 2として DRクラス生成回路 2 04に供給する。 タヅプ構築回路 202 - 3は、 動きクラス生成回路 2 03から供給された動きクラスコード MC C及び静 動フラグ SMF、 並びに欠落フラグ L Fを基に、 有効画素領域内の欠落していな い DRクラス夕ヅブ TD 2を選択して、 選択した DRクラスタヅブ TD 2を DR クラス生成回路 2 04に供給する。 D Rクラス生成回路 2 04は、 タップ構築回 路 2 02— 3から供給された欠落フラグタップ S L F T 2、 及び D Rクラスタ ヅ プ T D 2を基に、 欠落していない画素の最大の画素値と最小の画素値との差であ るダイナミ ヅクレンジに応じて決定される DRクラスコード DR C Cを生成して、 クラス合成回路 2 07に出力する。
タップ構築回路 2 02— 4は、 選択した欠落フラグ L Fを欠落フラグタヅプ S LF T 3として空間クラス生成回路 2 0 5に供給する。 夕ッブ構築回路 202 - 4は、 動きクラス生成回路 203から供給された動きクラスコ一 MC C及び静 動フラグ SMF、 並びに欠落フラグ L Fを基に、 有効画素領域内の欠落していな い空間クラス夕 ヅブ T D 3を選択して、 選択した空間クラスタ ヅブ T D 3を空間 クラス生成回路 2 0 5に供給する。 空間クラス生成回路 2 0 5は、 夕ップ構築回 路 2 02— 4から供給された欠落フラグタッブ S L F T 3、 及び空間クラス夕ヅ プ TD 3を基に、 画素値パターンに対応する空間クラスコード S C Cを生成して、 クラス合成回路 2 07に出力する。
タップ構築回路 2 02— 5は、 欠落フラグ L Fを選択して、 選択された欠落フ ラグ L Fを欠落フラグ夕ヅブ S LF T 4として欠落クラス生成回路 2 0 6に供給 する。 欠落クラス生成回路 20 6は、 夕ップ構築回路 2 02 - 5から供給された 欠落フラグタヅブ S L F T 4を基に、 欠落クラスコード L C Cを生成して、 クラ ス合成回路 20 7に出力する。 クラス合成回路 2 0 7は、 動きクラスコード M C C、 静動フラグ S M F、 D R クラスコード D R C C、 空間クラスコード S C C、 及び欠落クラスコード L C C を、 最終的な 1つのクラスコード C Cに統合して、 クラスコード C Cを係数保持 クラスコ一ド選択回路 2 0 9に出力する。
係数保持クラスコ一ド選択回路 2 0 9は、 イニシャライズ回路 2 1 1から供給 された、 予め学習した係数セッ ト及び予測構造、 並びにクラス合成回路 2 0 7か ら供給されたクラスコード C Cを基に、 予測タップ選択信号 V Tを生成して、 生 成した予測タッブ選択信号 V Tを可変夕ップ選択回路 2 0 8に供給するとともに、 係数セッ トからクラスコード C Cを基に選択された予測係数 Wを推定予測演算回 路 2 1 0に出力する。
可変タッブ選択回路 2 0 8は、 タップ構築回路 2 0 2 - 2から供給された全ク ラス予測タッブ V E T、 及び係数保持クラスコ一ド選択回路 2 0 9から供給され た予測タップ選択信号 V Tを基に、 予測タップ Ε Τを選択して、 選択した予測夕 ップ Ε Τを推定予測演算回路 2 1 0に供給する。
推定予測演算回路 2 1 0は、 イニシャライズ回路 2 1 1から設定された出力モ —ドを基に、 可変タヅブ選択回路 2 0 8から供給された予測夕ヅプ Ε Τ、 及び係 数保持クラスコード選択回路 2 0 9から供給された予測係数 Wを基に、 線形推定 式を用いて、 欠落画素の画素値を算出して、 選択回路 2 1 4に出力する。
推定予測演算回路 2 1 0は、 図 8の積和器 1 2 1に相当する。
置換回路 2 1 2は、 画素の欠落を示す欠落フラグ L Fを基に、 予め定めた目立 ちにくい色に相当する値 (例えば、 灰色などに相当する) を欠落画素の画素値と して設定し、 選択回路 2 1 4に供給する。
線形補間回路 2 1 3は、 前処理回路 2 0 1 と同様の処理を実行し、 入力された 画素値及び画素の欠落を示す欠落フラグ L Fを基に、 欠落している画素の値を線 形補間フィルタで生成し、 欠落している画素にその値を設定し、 選択回路 2 1 4 に供給する。
置換回路 2 1 2及び線形補間回路 2 1 3は、 図 8のフィルタ 1 2 2に相当する。 選択回路 2 1 4は、 有効画素領域算出回路 1 1から供給された、 有効画素領域 垂直フラグ V F及び有効画素領域水平フラグ H Fを基に、 推定予測演算回路 2 1 ◦、 置換回路 2 1 2、 又は線形補間回路 2 1 3のいずれかの出力を選択して、 欠 落画素創造回路 1 2の出力として出力する。
このように、 欠落画素創造回路 1 2は、 ダイナミックレンジ、 動き、 欠落、 及 び画素値の変化などによるクラス分類適応処理により、 欠落画素の周辺の画素の 画素値を基に、 欠落画素値を算出するとともに、 有効画素領域の端部に位置する 欠落画素を補間又は置換して出力することができる。
なお、 創造の対象となる欠落画素の画像の端部に対する位置により、 欠落画素 創造回路 1 2は、 図 6及び図 7並びに図 1 8乃至図 2 1を参照して説明した処理 を適宜切り換えるようにしてもよい。
また、 クラスタップは、 欠落している画素を含まないとして説明したが、 クラ スタヅブに、 前処理回路 1 0 1により生成された画素値を含めて、 クラス分類の 処理は、 前処理回路 1 0 1により生成された画素値を使用するようにしてもよい c 以上のように、 本発明に係る画像処理装置は、 画素の画面上の位置にかかわら ず、 常に、 より高質な画像を生成することができるようになり、 例えば、 欠落画 素の画面上の位置にかかわらず、 欠落画素をより誤差が少なく創造できるように なる。
次に、 図 2の例で示される例の欠落画素創造を行う画像処理モード、 色収差を 考慮した画像処理モード、 テロッブ位置を考慮した画像処理モードの何れか 1つ 又は複数を選択的に行う画像処理装置に利用される係数セッ トを予め生成するた めの画像処理装置について説明する。
図 2 3は、 係数セッ トを予め生成するための画像処理装置の一実施の形態の構 成を示す図である。
画像処理装置に入力された画像は、 ダウンフィル夕 3 0 3及び正規方程式演算 回路 3 1 0に供給される。
表示位置算出回路 3 0 1は、 画像の各画素の画面中央からの距離を算出して、 画像の各画素の画面中央からの距離を示す位置情報をタップ構築回路 3 0 4— 1 乃至 3 0 4— Nに供給する。
なお、 表示位置算出回路 3 0 1は、 画像の各画素の画面中央からの距離を示す 位置情報を構造切換制御回路 3 0 2に供給するようにしてもよい。 イニシャライズ回路 3 1 2は、 構造切換制御回路 30 2に、 画像端情報、 収差 情報、 処理モード及びテロップ位置情報を供給する。
構造切換制御回路 3 0 2は、 処理モードが欠落画素創造を示す時に、 画像端情 報に応じたタツブ選択信号 T S 1、 タツプ選択信号 T S 2、 及びタツプ選択信号 T S 3— 1乃至 T S 3 - (N- 2 ) のそれそれを、 タップ構築回路 3 04— 1乃 至 304— Nのそれそれに供給し、 処理モードが収差モードを示す時に、 収差情 報に応じた夕ップ選択信号 T S 1、 タツプ選択信号 T S 2、 及びタツプ選択信号 T S 3— 1乃至 T S 3— (N- 2 ) のそれそれを、 夕ヅブ構築回路 3 04— 1乃 至 304— Nのそれそれに供給し、 処理モードがテロップモードを示す時に、 テ ロ ヅ プ位置情報に応じたタップ選択信号 T S 1、 タップ選択信号 T S 2、 及び夕 ヅ プ選択信号 T S 3— 1乃至 T S 3— (N- 2 ) のそれそれを、 タップ構築回路 304— 1乃至 3 04— Nのそれぞれに供給する。
また、 構造切換制御回路 30 2は、 上記 3つの処理モードのうちの複数の処理 モ一ドを選択するようにしてもよい。
以下、 収差モードを例に説明する。
例えば、 タップ選択信号 T S 1、 タップ選択信号 T S 2、 及びタップ選択信号 丁 33— 1乃至丁 33— (N— 2 ) のそれぞれは、 赤色に対応する信号、 緑色に 対応する信号、 及び青色に対応する信号、 すなわち、 RGBに対応する信号から 構成されている。
また、 構造切換制御回路 302は、 表示位置算出回路 30 1から供給された各 画素の画面上の物理アドレスから、 各画素の画面中央からの距離を算出し、 算出 された画面中央からの距離、 及びイニシャライズ回路 3 1 2から入力された収差 情報を基に、 赤色に対応するクラスコード、 緑色に対応するクラスコード、 及び 青色に対応するクラスコードから成る収差クラスコード C C Aを生成する。 構造 切換制御回路 302は、 生成した収差クラスコ一ド C C Aをクラス合成回路 30 7に供給する。
構造切換制御回路 3 0 2は、 各画素の画面上の物理ァドレスと画面中央からの 距離との関係を予め記憶し、 予め記憶している関係、 及び表示位置算出回路 30 1から供給された各画素の画面上の物理ァドレスを基に、 各画素の画面中央から の距離を求めるようにしてもよい。
又は、 構造切換制御回路 3 0 2は、 イニシャライズ回路 3 1 2から入力された 収差情報、 及び表示位置算出回路 3 0 1から供給された画面中央からの距離を基 に、 赤色に対応するクラスコード、 緑色に対応するクラスコード、 及び青色に対 応するクラスコ一ドから成る収差クラスコ一ド C C Aを生成して、 生成した収差 クラスコード C C Aをクラス合成回路 3 0 7に供給するようにしてもよい。
例えば、 構造切換制御回路 3 0 2は、 収差量を量子化して収差クラスコード C C Aを生成する。
ここで、 色収差について説明する。
例えば、 図 2 4に示すように、 レンズの光軸に対して、 斜めに白色光が入力さ れたとき、 白色光に含まれる青色光の像は、 黄色光の像に対して光軸に近い位置 に結像し、 白色光に含まれる黄色光の像は、 青色光の像より光軸から遠い位置で あって、 赤色光の像より光軸から近い位置に結像し、 白色光に含まれる赤色光の 像は、 黄色光の像より光軸に遠い位置に結像する。 このような、 青色光の像、 黄 色光の像、 及び赤色光の像の結像位置のずれを色収差と称する。 色収差が大きい とは、 青色光の像、 黄色光の像、 及び赤色光の像の結像位置の距離が長いことを いう。
色収差の大きさは、 画像の位置と画面の中央との距離に対応して増加するので、 図 2 5 ( A ) に示すように、 画面の中央を中心とする円の円周上の画素に含まれ る色収差の大きさは同一となる。
これを、 画面の中央からの距離と色収差の大きさとの関係をグラフで表すと、 図 2 5 ( B ) のようになる。 すなわち、 色収差は、 画面の中央からの距離に対し て、 非線形に増加する。
ダウンフィル夕 3 0 3は、 入力された画像に収差に対応する処理、 又はジッタ 付加若しくはノィズ付加などの処理を適用して、 収差に対応する画素値を有する か、 又はジッ夕が付加されたか、 若しくはノイズが付加された画像を、 タップ構 築回路 3 0 4— 1乃至 3 0 4— Nに供給する。
タップ構築回路 3 0 4— 1は、 表示位置算出回路 3 0 1から供給された位置情 報、 及び構造切換制御回路 3 0 2から供給されたタップ選択信号 T S 1に基づい て、 赤色、 緑色、 及び青色毎にタップ構造を切り換えて、 ダウンフィル夕 3 0 3 から供給された画像に含まれる画素を、 赤色、 緑色、 及び青色のそれそれに対応 する動きクラス夕ヅプ T D 1 として選択し、 選択した動きクラスタヅプ T D 1 を 動きクラス生成回路 3 0 5に供給する。 夕ッブ構築回路 3 0 4— 1が出力する動 きクラスタップ T D 1は、 赤色に対応するタップ、 緑色に対応するタップ、 及び 青色に対応するタッブから構成される。
図 2 6は、 タップ構築回路 3 0 4— 1 における、 赤色、 緑色、 又は青色毎の夕 、ソプ構造を説明する図である。 例えば、 緑色に対応するタップは、 図 2 6 ( A ) に示すように、 注目画素を中心とするタップにより構成される。
構造切換制御回路 3 0 2は、 イニシャライズ回路 3 1 2から入力された収差情 報を基に、 例えば、 図 2 6 ( B ) に示すように、 緑色を基準とした、 赤色及び青 色についての補正べク トルを生成し、 生成した補正べク トルを含む夕ッブ選択信 号 T S 1 をタツプ構築回路 3 0 4 - 1 に供給する。
例えば、 夕ッブ構築回路 3 0 4— 1は、 表示位置算出回路 3 0 1から供給され た各画素の画面中央からの距離を示す位置情報、 及び夕ッブ選択信号 T S 1に含 まれる赤色についての補正ベク トルを基に、 注目画素を基準として、 赤色につい ての補正注目画素を選択し、 図 2 6 ( C ) に示すように、 補正注目画素を中心と した赤色に対応するタップを構成する。 同様に、 夕ッブ構築回路 3 0 4— 1は、 表示位置算出回路 3 0 1から供給された各画素の画面中央からの距離を示す位置 情報、 及び夕ップ選択信号 T S 1 に含まれる青色についての補正べク トルを基に、 注目画素を基準として、 青色についての補正注目画素を選択し、 補正注目画素を 中心とした青色に対応するタップを構成する。
なお、 注目画素を基準とした、 赤色についての補正ベク トル、 緑色についての 補正べク トル、 及び青色についての補正べク トルを含むように夕ップ選択信号 T S 1 を構成し、 夕ップ構築回路 3 0 4— 1は、 表示位置算出回路 3 0 1から供給 された各画素の画面中央からの距離を示す位置情報、 及びタップ選択信号 T S 1 に含まれる赤色についての補正べク トルを基に、 赤色に対応する補正注目画素を 中心とした赤色に対応するタップを構成し、 表示位置算出回路 3 0 1から供給さ れた各画素の画面中央からの距離を示す位置情報、 及びタップ選択信号 T S 1 に 含まれる緑色についての補正べク トルを基に、 緑色に対応する補正注目画素を中 心とした緑色に対応するタップを構成し、 表示位置算出回路 3 0 1 から供給され た各画素の画面中央からの距離を示す位置情報、 及び夕ッブ選択信号 T S 1 に含 まれる青色についての補正べク トルを基に、 青色に対応する補正注目画素を中心 とした青色に対応するタッブを構成するようにしてもよい。
動きクラス生成回路 3 0 5は、 パラメータ設定回路 3 1 2から供給されたパラ メータ、 並びに夕ッブ構築回路 3 0 4 - 1から供給された動きクラスタヅブ T D 1 を基に、 赤色に対応する動きクラスコード、 緑色に対応する動きクラスコード、 及び青色に対応する動きクラスコードから成る動きクラスコード M C C、 及び赤 色に対応する静動フラグ、 緑色に対応する静動フラグ、 及び青色に対応する静動 フラグから成る静動フラグ S M Fを生成し、 夕ヅプ構築回路 3 0 4— 2乃至 3 0 4一 N及びクラス合成回路 3 0 7に出力する。
タッブ構築回路 3 0 4— 2は、 動きクラス生成回路 3 0 5から供給された赤色、 緑色、 及び青色ごとの動きクラスコード M C C並びに静動フラグ S M F、 表示位 置算出回路 3 0 1から供給された各画素の画面中央からの距離を示す位置情報、 並びに構造切換制御回路 3 0 2から供給されたタップ選択信号 T S 2に基づいて、 赤色、 緑色、 及び青色毎にタップ構造を切り換えて、 赤色に対応するタップ、 緑 色に対応するタ、リブ、 及び青色に対応する夕ッブから成る全クラス予測タップ V E Tを選択して、 可変タップ選択回路 3 0 8に供給する。
夕ップ構築回路 3 0 4一 3は、 動きクラス生成回路 3 0 5から供給された赤色、 緑色、 及び青色ごとの動きクラスコード M C C並びに赤色、 緑色、 及び青色ごと の静動フラグ S M F、 表示位置算出回路 3 0 1から供給された各画素の画面中央 からの距離を示す位置情報、 並びに構造切換制御回路 3 0 2から供給された赤色、 緑色、 及び青色ごとのタップ選択信号 T S 3— 1に基づいて、 赤色、 緑色、 及び 青色毎にタップ構造を切り換えて、 赤色に対応するタップ、 緑色に対応するタツ プ、 及び青色に対応するタップから成るクラスタヅブ T D 2— 1 を選択して、 選 択したクラスタップ T D 2— 1 をクラス生成回路 3 0 6 - 1に供給する。
クラス生成回路 3 0 6— 1は、 夕ッブ構築回路 3 0 4 - 3から供給されたクラ スタップ T D 2— 1 を基に、 赤色に対応するクラスコード、 緑色に対応するクラ スコード、 及び青色に対応するクラスコードから成るクラスコード C C 1を生成 して、 生成したクラスコード C C 1をクラス合成回路 3 07に出力する。 クラス コード C C 1は、 例えば、 クラスタップ T D 2— 1に含まれる画素の最大の画素 値と最小の画素値との差に対応するクラスコ一ドとすることができる。
タップ構築回路 304— 4乃至 3 04— Nは、 動きクラス生成回路 3 0 5から 供給された動きクラスコード MC C及び静動フラグ SMF、 表示位置算出回路 3 0 1から供給された各画素の画面中央からの距離を示す位置情報、 並びに構造切 換制御回路 30 2から供給された夕ヅプ選択信号 T S 3— 2乃至 T S 3— (N— 2 ) に基づいて、 それそれ、 赤色に対応するタップ、 緑色に対応するタップ、 及 び青色に対応するタップから成るクラス夕ヅプ T D 2— 2乃至 TD 2— (N— 2 ) を選択して、 選択したクラスタップ TD 2— 2乃至 TD 2— (N— 2) をク ラス生成回路 30 6— 2乃至 30 6— (N- 2 ) のそれそれに供給する。
クラス生成回路 30 6— 2乃至 3 0 6— (N— 2 ) は、 タツプ構築回路 304 一 4乃至 304— Nから供給されたクラスタヅプ T D 2— 2乃至 T D 2— (N— 2) のいずれかを基に、 赤色に対応するクラスコード、 緑色に対応するクラスコ ―ド、 及び青色に対応するクラスコ一ドから成るクラスコード C C 2乃至 C C (N— 2) のいずれか一つを生成して、 生成したクラスコード C C 2乃至 C C (N- 2 ) をクラス合成回路 307に出力する。 クラスコード C C 2乃至 C C (N— 2 ) のいずれかは、 例えば、 画素値パターンに対応するクラスコードとす ることができる。
クラス合成回路 307は、 動きクラスコード MC Cに含まれる赤色に対応する クラスコ一ド及び静動フラグ S MFに含まれる赤色に対応する静動フラグを基に、 収差クラスコ一ド C C Aに含まれる赤色に対応するクラスコード及びクラスコ一 ド C C 1乃至 C C (N- 2 ) に含まれる赤色に対応するクラスコードを、 最終的 な 1つのクラスコード T C Cの赤色に対応するクラスコ一ドに統合する。
クラス合成回路 30 7は、 動きクラスコード MC Cに含まれる緑色に対応する クラスコード及び静動フラグ SMFに含まれる緑色に対応する静動フラグを基に、 収差クラスコード C C Aに含まれる緑色に対応するクラスコ一ド及びクラスコ一 ド C C 1乃至 C C (N- 2 ) に含まれる緑色に対応するクラスコードを、 最終的 な 1つのクラスコード T C Cの緑色に対応するクラスコードに統合する。
クラス合成回路 3 0 7は、 動きクラスコード M C Cに含まれる青色に対応する クラスコ一ド及び静動フラグ S M Fに含まれる青色に対応する静動フラグを基に、 収差クラスコード C C Aに含まれる青色に対応するクラスコ一ド及びクラスコ一 ド C C 1乃至 C C ( N - 2 ) に含まれる青色に対応するクラスコードを、 最終的 な 1つのクラスコード T C Cの青色に対応するクラスコ一ドに統合する。
クラス合成回路 3 0 7は、 赤色に対応するクラスコード、 緑色に対応するクラ スコード、 及び青色に対応するクラスコ一ドから成るクラスコード T C Cをクラ スコ一ド選択回路 3 0 9に出力する。
クラスコード選択回路 3 0 9は、 クラス合成回路 3 0 7から供給されたクラス コード T C Cを基に、 赤色に対応するタップ、 緑色に対応するタップ、 及び青色 に対応する夕ヅプから成る予測夕ップ選択信号 V Tを生成して、 生成した予測夕 ップ選択信号 V Tを可変タップ選択回路 3 0 8に供給するとともに、 クラスコ一 F T C Cを正規方程式演算回路 3 1 0に出力する。
可変タップ選択回路 3 0 8は、 夕ップ構築回路 3 0 4 - 2から供給された全ク ラス予測夕ヅブ V E T、 及びクラスコ一ド選択回路 3 0 9から供給された予測夕 ッブ選択信号 V Tを基に、 赤色に対応するタップ、 緑色に対応するタ ブ、 及び 青色に対応する夕ップから成る予測タップ Ε Τを選択して、 選択した予測夕ップ Ε Τを正規方程式演算回路 3 1 0に供給する。
正規方程式演算回路 3 1 0は、 可変夕ッブ選択回路 3 0 8から供給された学習 データである予測夕ップ Ε Τ、 及びダウンフィルタ 3 0 3から供給された教師デ 一夕である入力画像を受信すると、 それらを用いて、 最小自乗法により、 誤差を 最小する予測係数 Wを算出する。 予測係数 Wは、 赤色に対応する予測係数、 緑色 に対応する予測係数、 及び青色に対応する予測係数から成る。
ここで、 正規方程式演算回路 3 1 0が算出する予測係数 Wについて簡単に説明 する。
例えば、 いま、 元の画像 (入力された画像に相当する (以下、 適宜、 教師デ一 夕と称する) ) の画素値 yの予測値 E [ y ] を、 ダウンフィル夕 3 0 3を通過す ることによって、 ノイズが付加されるか、 収差に対応する画素値を有する画像の 画素値 (以下、 適宜、 学習データと称する) X !, X 2 , · · · と、 所定の予測係 数 W i , W 2 , · · · の線形結合により規定される線形 1次結合モデルにより求め ることを考える。 この場合、 予測値 E [y] は、 次の式 (3) で表すことができ る。
E [y] ; W 1 X 1 + W 2 X 2 + ( 3) そこで、 一般化するために、 予測係数 wの集合でなる行列 W、 学習データの集 合でなる行列 X、 及び予測値 E [y ] の集合でなる行列 Y, を、
Figure imgf000033_0001
Figure imgf000033_0002
で定義すると、 次のような観測方程式が成立する
XW= Υ' (4) そして、 この観測方程式に最小自乗法を適用して、 元の画像の画素値 yに近い 予測値 E [y] を求めることを考える。 この場合、 元の画像の画素値 yの集合で なる行列 Y、 及び元の画像の画素値 yに対する予測値 E [y] の残差 eの集合で なる行列 Eを、
Figure imgf000034_0001
で定義すると、 式 (4 ) から、 次のような残差方程式が成立する。
XW=Y+E ( 5 ) この場合、 元の画像の画素値 yに近い予測値 E [y ] を求めるための予測係数 W iは、 自乗誤差
∑ e
を最小にすることで求めることができる。
従って、 上述の自乗誤差を予測係数 W i で微分したものが 0になる場合、 すな わち、 次式を満たす予測係数 W i が、 元の画像の画素値 yに近い予測値 E [y] を求めるため最適値ということになる。 d e d e d e
e + e + + e = 0 ( 1 , 2 , n) ( 6 ) d w d w: d w そこで、 まず、 式 ( 5 ) を、 予測係数 W i で微分することにより、 次式が成立 する。 d e i d e i d e i
= X i l , = X i , n) ( 7 ) d w d w; 9 W n 式 ( 6 ) 及び (7) より、 式 ( 8) が得られる
∑ e i X i 0 , ∑ e ix 12= 0 ∑ e i x i n = 0 (8) さらに、 式 ( 5) の残差方程式における学習データ x、 予測係数 w、 教師デ一 タ 、 及び残差 eの関係を考慮すると、 式 (8) から、 次のような正規方程式を 得ることができる。
(
(9)
Figure imgf000035_0001
式 (9 ) の正規方程式を解く ことで、 最適な予測係数 wを求めることができる。 なお、 式 (9) を解くに当たっては、 例えば、 掃き出し法 (G au s s _J o r d anの消去法) などを適用することが可能である。
すなわち、 例えば、 いま、 学習データに含まれる予測タップ E Tの画素値を、
X 1 , X 2 , X 3 , ··· とし、 求めるべき予測係数 Wを W W 2 , W 3 , ",とすると き、 これらの線形 1次結合により、 教師データの、 ある画素の画素値 yを求める には、 予測係数 W l 5 W 2 , W 3 , ···は、 次式を満たす必要がある。 y = W l X l + W 2 X 2 + W 3 X 3 + そこで、 正規方程式演算回路 3 1 0では、 同一クラスの予測タップと、 対応す る教師データの画素とから、 真値 yに対する、 予測値 w!x 1+w2x2 + w3x3 + ··· の自乗誤差を最小とする予測係数 wl5 W 2 , W 3 , ··· が、 上述した式 (9 ) に示す正規方程式をたてて解く ことにより求められる。
より具体的には、 正規方程式演算回路 3 1 0は、 赤色に対応する同一クラスの 予測タップと、 対応する教師データの赤色の成分とから、 赤色に対応する真値 y に対する、 予測値 W i X i + W z X z + W s X s + の自乗誤差を最小とする、 赤色 に対応する予測係数 W W 2 , W 3 , ···を、 正規方程式をたてて解くことにより 算出する。
正規方程式演算回路 3 1 0は、 緑色に対応する同一クラスの予測タップと、 対 応する教師データの緑色の成分とから、 緑色に対応する真値 yに対する、 予測値
W l X 1 + W 2 X 2 + W 3 X 3 + "- の自乗誤差を最小とする、 緑色に対応する予測係 数 W i, W 2, W 3 , ··· を、 正規方程式をたてて解くことにより算出する。
正規方程式演算回路 3 1 0は、 青色に対応する同一クラスの予測タップと、 対 応する教師データの青色の成分とから、 青色に対応する真値 yに対する、 予測値
W 1 X l + W 2 X 2 + W 3 X 3 + " - の自乗誤差を最小とする、 青色に対応する予測係 数 W l 5 W 2, W 3 , ··· を、 正規方程式をたてて解くことにより算出する。
従って、 この処理をクラスごとに行うことにより、 各クラスごとに、 赤色に対 応する予測係数、 緑色に対応する予測係数、 及び青色に対応する予測係数から成 る予測係数 wが生成される。
正規方程式演算回路 3 1 0において求められた、 赤色に対応する予測係数、 緑 色に対応する予測係数、 及び青色に対応する予測係数から成る、 クラスごとの予 測係数 Wは、 クラスコード T C Cとともに、 係数メモリ 3 1 1に供給される。 こ れにより、 係数メモリ 3 1 1においては、 正規方程式演算回路 3 1 0からの予測 係数 Wが、 クラスコード T C Cが示すクラスに対応するァドレスに記憶される。 このように、 図 2 3に構成を示す画像処理装置は、 欠落画素創造を行う画像処 理モード、 色収差を考慮した画像処理モード、 テロップ位置を考慮した画像処理 モードの何れか 1つ又は複数を選択的に行う画像処理装置に利用される係数セッ トを生成することができる。 なお、 図 2 3に構成を示す画像処理装置は、 収差のあるレンズを介して、 撮像 された画像、 及び収差のほとんどないレンズを介して、 撮像された同じ画像を取 得し、 収差のあるレンズを介して、 撮像された画像を学習データとし、 収差のほ とんどないレンズを介して、 撮像された同じ画像を教師データとして、 色収差を 考慮した画像処理モ一ドで画像処理を実行する画像処理装置に利用される係数セ ッ トを生成するようにしてもよい。
図 2 7は、 図 2 3に構成を示す画像処理装置が生成した係数セッ トを利用する、 欠落画素創造を行う画像処理モード、 色収差を考慮した画像処理モード、 テロッ ブ位置を考慮した画像処理モ一ドの何れか 1つ又は複数を選択的に行う、 本発明 に係る画像処理装置の一実施の形態の構成を示す図である。
表示位置算出回路 4 0 1は、 入力された画像の各画素の画面中央からの距離を 算出して、 各画素の画面中央からの距離を示す位置情報をタッブ構築回路 4 0 3 一 1乃至 4 0 3—Nに供給する。
なお、 表示位置算出回路 4 0 1は、 画像の各画素の画面中央からの距離を示す 位置情報を構造切換制御回路 4 0 2に供給するようにしてもよい。
イニシャライズ回路 4 1 0は、 構造切換制御回路 4 0 2に、 画像端情報、 収差 情報、 処理モード及びテロップ位置情報を供給する。
構造切換制御回路 4 0 2は、 処理モードが欠落画素創造を示す時に、 画像端情 報に応じたタップ選択信号 T S 1、 タップ選択信号 T S 2、 及びタップ選択信号 T S 3— 1乃至 T S 3— ( N - 2 ) のそれそれを、 夕ヅプ構築回路 4 0 3 _ 1乃 至 4 0 3— Nのそれぞれに供給し、 処理モードが収差モードを示す時に、 収差情 報に応じたタップ選択信号 T S 1、 夕ッブ選択信号 T S 2、 及びタップ選択信号 T S 3— 1乃至 T S 3— (N— 2 ) のそれそれを、 夕ヅプ構築回路 4 0 3— 1乃 至 4 0 3— Nのそれそれに供給し、 処理モードがテロップモードを示す時に、 テ ロップ位置情報に応じたタップ選択信号 T S 1、 タップ選択信号 T S 2、 及びタ ップ選択信号 T S 3— 1乃至 T S 3— ( N - 2 ) のそれそれを、 タップ構築回路 4 0 3— 1乃至 4 0 3— Nのそれそれに供給する。
また、 構造切換制御回路 4 0 2は、 上記 3つの処理モードのうちの複数の処理 モードを選択するようにしてもよい。 以下、 収差モードを例に説明する。
例えば、 収差モー ドのとき、 タップ選択信号 T S 1、 タップ選択信号 T S 2、 及びタップ選択信号 T S 3— 1乃至 T S 3— (N- 2 ) のそれそれは、 赤色に対 応する信号、 緑色に対応する信号、 及び青色に対応する信号、 すなわち、 RGB に対応する信号から構成されている。
また、 構造切換制御回路 40 2は、 イニシャライズ回路 4 1 0から入力された 収差情報を基に、 赤色に対応するクラスコード、 緑色に対応するクラスコード、 及び青色に対応するクラスコ一ドから成る収差クラスコード C C Aを生成して、 生成した収差クラスコード C CAをクラス合成回路 40 7に供給する。
夕ップ構築回路 403— 1は、 表示位置算出回路 40 1から供給された位置情 報、 及び構造切換制御回路 402から供給された夕ップ選択信号 T S 1に基づい て、 赤色、 緑色、 及び青色毎にタップ構造を切り換えて、 前処理回路 403から 供給された画像に含まれる画素を、 赤色、 緑色、 及び青色のそれそれに対応する 動きクラスタップ TD 1として選択し、 選択した動きクラスタップ TD 1を動き クラス生成回路 40 に供給する。 夕ップ構築回路 403— 1が出力する動きク ラス夕ヅブ TD 1は、 赤色に対応するタップ、 緑色に対応するタップ、 及び青色 に対応する夕ッブから構成される。
動きクラス生成回路 404は、 イニシャライズ回路 4 1 1から供給されたパラ メ一夕、 並びに夕ヅブ構築回路 403 - 1から供給された動きクラスタヅブ TD 1を基に、 赤色に対応する動きクラスコード、 緑色に対応する動きクラスコード、 及び青色に対応する動きクラスコ一ドから成る動きクラスコード MC C、 並びに 赤色に対応する静動フラグ、 緑色に対応する静動フラグ、 及び青色に対応する静 動フラグから成る静動フラグ SMFを生成し、 動きクラスコード MC C及び静動 フラグ SMFをタヅブ構築回路 403— 2乃至 4 0 3— N及びクラス合成回路 4 07に出力する。
タップ構築回路 4◦ 3— 2は、 動きクラス生成回路 404から供給された赤色、 緑色、 及び青色ごとの動きクラスコード MC C及び静動フラグ SMF、 構造切換 制御回路 402から供給されたタップ選択信号 T S 2に基づいて、 赤色、 緑色、 及び青色毎にタップ構造を切り換えて、 赤色に対応するタップ、 緑色に対応する 夕ップ、 及び青色に対応する夕ヅ プから成る全クラス予測夕ップ VE Tを選択し て、 全クラス予測タップ VE Tを可変タッブ選択回路 407に供給する。
夕ップ構築回路 403— 3は、 動きクラス生成回路 404から供給された赤色、 緑色、 及び青色ごとの動きクラスコード MC C、 赤色、 緑色、 及び青色ごとの静 動フラグ SMF、 並びに構造切換制御回路 40 2から供給された赤色、 緑色、 及 び青色ごとのタップ選択信号 T S 3— 1に基づいて、 赤色、 緑色、 及び青色毎に タップ構造を切り換えて、 赤色に対応するタップ、 緑色に対応するタップ、 及び 青色に対応する夕ヅプから成るクラスタップ TD 2— 1を選択して、 選択したク ラスタップ TD 2— 1をクラス生成回路 405 - 1に供給する。
クラス生成回路 40 5— 1は、 夕ヅ ブ構築回路 403 - 3から供給されたクラ スタップ T D 2— 1を基に、 赤色に対応するクラスコード、 緑色に対応するクラ スコード、 及び青色に対応するクラスコ一ドから成るクラスコード C C 1を生成 して、 生成したクラスコード C C 1をクラス合成回路 40 6に出力する。 クラス コード C C 1は、 クラス夕ッブ T D 2— 1に含まれる画素の最大の画素値と最小 の画素値との差に対応するコ一ドとすることができる。
タヅプ構築回路 403— 4乃至 40 3— Nのそれそれは、 動きクラス生成回路 404から供給された動きクラスコ一ド MC C及び静動フラグ SMF、 構造切換 制御回路 402から供給された夕ップ選択信号 T S 3— 2乃至 T S 3— (N- 2 ) のいずれかに基づいて、 それそれ、 赤色に対応するタップ、 緑色に対応する 夕ヅブ、 及び青色に対応する夕ヅ プから成るクラス夕ヅプ TD 2— 2乃至 TD 2 - (N— 2) のいずれか 1つを選択して、 選択したクラス夕ヅブ T D 2— 2乃至 T D 2 - (N- 2 ) のいずれかをクラス生成回路 405— 2乃至 40 5— (N— 2 ) のそれそれに供給する。
クラス生成回路 40 5— 2乃至 40 5— (N- 2 ) のそれそれは、 夕ヅブ構築 回路 403— 4乃至 40 3一 Nのいずれかから供給されたクラスタッブ TD 2— 2乃至 TD 2— (N— 2 ) のいずれかを基に、 赤色に対応するクラスコード、 緑 色に対応するクラスコ一ド、 及び青色に対応するクラスコ一ドから成るクラスコ —ド C C 2乃至 C C (N— 2) のいずれか一つを生成して、 生成したクラスコ一 ド C C 2乃至 C C (N- 2 ) をクラス合成回路 40 6に出力する。 クラスコード C C 2は、 例えば、 画素値パターンに対応するクラスコードとすることができる, クラス合成回路 40 6は、 動きクラスコード MC Cに含まれる赤色に対応する クラスコード及び静動フラグ S M Fに含まれる赤色に対応する静動フラグを基に、 収差クラスコード C C Aに含まれる赤色に対応するクラスコ一ド及びクラスコー ド C C 1乃至 C C (N— 2) に含まれる赤色に対応するクラスコードを、 最終的 な 1つのクラスコ一ド T C Cの赤色に対応するクラスコ一ドに統合する。
クラス合成回路 40 6は、 動きクラスコード MC Cに含まれる緑色に対応する クラスコ一ド及び静動フラグ S M Fに含まれる緑色に対応する静動フラグを基に、 収差クラスコード C C Aに含まれる緑色に対応するクラスコ一ド及びクラスコ一 ド C C 1乃至 C C (N— 2 ) に含まれる緑色に対応するクラスコ一ドを、 最終的 な 1つのクラスコード T C Cの緑色に対応するクラスコ一ドに統合する。
クラス合成回路 40 6は、 動きクラスコード MC Cに含まれる青色に対応する クラスコ一ド及び静動フラグ S M Fに含まれる青色に対応する静動フラグを基に、 収差クラスコード C C Aに含まれる青色に対応するクラスコ一ド及びクラスコ一 ド C C 1乃至 C C (N- 2 ) に含まれる青色に対応するクラスコードを、 最終的 な 1つのクラスコ一ド T C Cの青色に対応するクラスコ一ドに統合する。
クラス合成回路 40 6は、 赤色に対応するクラスコード、 緑色に対応するクラ スコード、 及び青色に対応するクラスコ一ドから成るクラスコード T C Cを係数 保持クラスコード選択回路 408に出力する。
係数保持クラスコ一ド選択回路 408は、 イニシャライズ回路 4 1 0から供給 されたクラスコード T C Cに対応する予測タップ選択信号 VT及び係数セッ トを 予め記憶している。
係数保持クラスコ一ド選択回路 408は、 クラス合成回路 40 6から供給され たクラスコード T C Cを基に、 赤色に対応するタヅブ、 緑色に対応するタヅプ、 及び青色に対応する夕ッブから成る予測タップ選択信号 VTを生成して、 生成し た予測タップ選択信号 V Tを可変タッブ選択回路 40 7に供給するとともに、 ク ラスコード T C Cに含まれる赤色のクラスコ一ドに対応する予測係数、 クラスコ 一ド T C Cに含まれる緑色のクラスコードに対応する予測係数、 及びクラスコ一 ド T C Cに含まれる青色のクラスコードに対応する予測係数から成る予測係数 W を推定予測演算回路 4 0 9に出力する。
可変タッブ選択回路 4◦ 7は、 タップ構築回路 4 0 3 - 2から供給された全ク ラス予測タップ V E T、 及び係数保持クラスコ一ド選択回路 4 0 8から供給され た予測タップ選択信号 V Τを基に、 赤色に対応するタップ、 緑色に対応するタツ ブ、 及び青色に対応するタップから成る予測タップ Ε Τを選択して、 選択した予 測タツプ Ε Τを推定予測演算回路 4 0 9に供給する。
推定予測演算回路 4 0 9の積和器 4 2 1は、 可変夕ッブ選択回路 4 0 7から供 給された予測夕ッブ Ε Τに含まれる赤色に対応する夕ップ、 及び係数保持クラス コ一ド選択回路 4 0 8から供給された予測係数 Wに含まれる赤色に対応する予測 係数を基に、 線形推定式を用いて、 画素値の赤色の成分を算出する。
推定予測演算回路 4 0 9の積和器 4 2 1は、 可変タップ選択回路 4 0 7から供 給された予測夕ップ Ε Τに含まれる緑色に対応する夕ップ、 及び係数保持クラス コード選択回路 4 0 8から供給された予測係数 Wに含まれる緑色に対応する予測 係数を基に、 線形推定式を用いて、 画素値の緑色の成分を算出する。
推定予測演算回路 4 0 9の積和器 4 2 1は、 可変夕ップ選択回路 4 0 7から供 給された予測夕ッブ Ε Τに含まれる青色に対応する夕ップ、 及び係数保持クラス コ一ド選択回路 4 0 8から供給された予測係数 Wに含まれる青色に対応する予測 係数を基に、 線形推定式を用いて、 画素値の青色の成分を算出する。
なお、 推定予測演算回路 4 0 9の積和器 4 2 1は、 予測係数 Wを基に、 非線形 推定式を用いて、 欠落画素の画素値を算出するようにしてもよい。
このように、 図 2 7に構成を示す画像処理装置は、 欠落画素創造を行う画像処 理モード、 色収差を考慮した画像処理モード、 テロップ位置を考慮した画像処理 モ一ドの何れか 1つ又は複数を選択的に実行することができ、 従来に比較して、 より鮮明な画像を得ることができるようになる。
図 2 8に示すフローチヤ一トを参照して、 図 2 3に構成を示す画像処理装置に おける、 収差モードにおける、 色収差に対応したタップの切換の処理を説明する ステップ S 1 0 1 において、 構造切換制御回路 3 0 2は、 イニシャライズ回路 3 1 2から供給された収差情報を取得する。
ステップ S 1 0 2において、 構造切換制御回路 3 0 2は、 注目画素を選択する c ステップ S 1 0 3において、 表示位置算出回路 3 0 1は、 注目画素と画面中央と の相対距離を求める。 ステップ S 1 0 4において、 構造切換制御回路 3 0 2は、 赤色についての補正ベク トル、 緑色についての補正ベク トル、 及び青色について の補正べク トルを生成して、 補正べク トルを含む夕ップ選択信号 T S 1 をタップ 構築回路 3 0 4 - 1 に供給し、 補正べク トルを含む夕ップ選択信号 T S 2をタツ プ構築回路 3 0 4 - 2に供給し、 補正べク トルを含む夕ップ選択信号 T S 3 - 1 乃至 T S 3— ( N - 2 ) のそれそれをタツプ構築回路 3 0 4— 3乃至 3 0 4—N のそれそれに供給する。
ステップ S 1 0 5において、 夕ヅプ構築回路 3 0 4— 1は、 注目画素と画面中 央との相対距離を示す位置情報、 並びに赤色についての補正ベク トル、 緑色につ いての補正ベク トル、 及び青色についての補正ベク トルを基に、 タップを切り換 えて、 赤色、 緑色、 及び青色のそれそれに対応する動きクラスタップ T D 1 を選 択する。 タップ構築回路 3 0 4— 2は、 注目画素と画面中央との相対距離を示す 位置情報、 並びに赤色についての補正ベク トル、 緑色についての補正ベク トル、 及び青色についての補正ベク トルを基に、 タップを切り換えて、 赤色、 緑色、 及 び青色のそれそれに対応する全クラス予測夕ッブ V E Tを選択する。 タップ構築 回路 3 0 4— 3乃至 3 0 4— Nのそれそれは、 注目画素と画面中央との相対距離 を示す位置情報、 並びに赤色についての補正ベク トル、 緑色についての補正べク トル、 及び青色についての補正ベク トルを基に、 タップを切り換えて、 赤色、 緑 色、 及び青色のそれそれに対応する D Rクラス夕ヅプ T D 2— 1乃至 T D 2— ( N - 2 ) を選択する。
ステップ S 1 0 6において、 画像処理装置は、 全ての画素について処理を終了 したか否かを判定し、 全ての画素について処理を終了していないと判定された場 合、 ステップ S 1 0 2に戻り、 タヅブの切換の処理を繰り返す。
ステップ S 1 0 6において、 全ての画素について処理を終了したと判定された 場合、 処理は終了する。
このように、 図 2 3に構成を示す画像処理装置は、 収差モードにおいて、 収差 を考慮し、 画面位置に対応してタッブを切り換えることができる。
図 2 7に構成を示す画像処理装置は、 収差モードにおいて、 図 2 8に示すフロ —チャー トを参照して説明した処理と同様の処理で画面位置に対応してタップを 切り換えるので、 その説明は省略する。
次に、 図 2 3に構成を示す画像処理装置、 及び図 2 7に構成を示す画像処理装 置が実行する他の処理について説明する。
図 2 3の画像処理装置の構造切換制御回路 3 0 2は、 イニシャライズ回路 3 1 2からテロップモ一ドが指定されたとき、 テロ 'ソプを表示するテロップ表示領域 を示すテロップ位置情報を取得する。 テロップ位置情報は、 例えば、 上の 3 0ラ イン、 下の 5 0ライン、 又は右側 1 0 0画素などテロッブ表示領域の位置と広さ とを示す。
構造切換制御回路 3 0 2は、 入力された画像からテロッブ表示領域を示すデー 夕を取得するようにしてもよい。
図 2 9は、 テロヅプ等が表示されている画面の例を示す図である。 図 2 9 ( A ) に示す例において、 画像表示領域の上及び下のテロップ表示領域には、 例 えば、 画像とともに、 対応する文字が表示される。 テロップ表示領域の画像の信 号特性は、 平坦部とエッジ部とを大量に含んでいるため、 自然画等の画像の信号 特性と異なる。
図 2 9 ( B ) に示す例において、 画像表示領域の下のテロップ表示領域に表示 される文字は、 画像上を、 画面の右側から左側に向かって流れるように表示され る。
図 2 9 ( C ) に示す例において、 画面の右半分のテロップ表示領域に表示され る文字は、 画像上を、 画面の上側から下側に向かって流れるように表示される。 図 2 9 ( D ) に示す例において、 画像表示領域の 4方を囲む、 枠画像表示領域 には、 例えば、 コンピュータグラフィクスにより生成された画像が表示される。 以下、 テロップモードにおける、 図 2 3の画像処理装置の動作の例を説明する。 表示位置算出回路 3 0 1は、 入力された画像の各画素の画面上の物理ァドレス を算出して、 タヅプ構築回路 3 0 4— 1乃至 3 0 4— Nに供給する。
構造切換制御回路 3 0 2は、 テロップ位置情報を基に、 タップ選択信号 T S 1、 タ ヅブ選択信号 T S 2、 及びタップ選択信号 T S 3— 1乃至 T S 3— ( N— 2 ) を生成し、 タップ選択信号 T S 1を夕ッブ構築回路 3 0 4— 1に供給し、 タップ 選択信号 T S 2をタツブ構築回路 3 0 4— 2に供給し、 タップ選択信号 T S 3— 1乃至 T S 3— ( N - 2 ) のそれそれをタップ構築回路 3 0 4— 3乃至 3 0 4— Nのそれそれに供給する。
夕ップ構築回路 3 0 4— 1は、 各画素の画面上の物理ァドレス及びタッブ選択 信号 T S 1 を基に、 注目画素が画像表示領域に属するとき、 例えば、 より広い範 囲の画素を利用するタップを選択し、 注目画素がテロップ表示領域に属するとき、 例えば、 より狭い範囲の画素を利用するタップを選択し、 動きクラスタップ T D 1 を選択する。 例えば、 画像表示領域に自然画像が表示されるとき、 より広い範 囲のタップを選択することで、 画像処理装置は、 多数の画素に渡って緩やかに変 化する画像の成分を利用した画像処理を実行することができる。
これに対して、 文字が表示されるテロップ表示領域において、 文字に対応する 画素の画素値は、 ほぼ同一の値であり、 背景に対応する画素の画素値は、 ほぼ同 一の値である。 例えば、 白色で表示される文字に対応する画素の画素値と、 黒色 で表示される背景に対応する画素の画素値とは、 大きく異なる。
すなわち、 テロップ表示領域において、 文字と背景とに跨るタップの値は、 急 激に変化する。 文字のみ、 又は背景のみから成る夕ヅブの値は、 ほとんど変化し ない。 従って、 テロップ表示領域について、 より狭い範囲のタップを選択するこ とで、 画像処理装置は、 急激に画素値が変化する画像に適切に対応するクラス分 類又は適応処理を実行することができる。
また、 例えば、 図 2 9 ( B ) に示すようにテロップ表示領域において画面に対 して横方向に流れるように文字が表示されるとき、 画像処理装置は、 テロップ表 示領域について、 横長の夕ヅプを選択することにより、 少ないクラスに分類して もノイズ除去効果の高い、 より効果的な画像処理を実行することができる。 図 2 9 ( C ) に示すようにテロップ表示領域において画面に対して縦方向に流れるよ うに文字が表示されるとき、 画像処理装置は、 テロップ表示領域について、 縦長 の夕ッブを選択することにより、 より効果的な画像処理を実行することができる c このように、 画像処理装置は、 テロップ表示領域と画像表示領域とで、 異なる 夕ップ構造及び予測係数 Wを使用することで、 最適な信号処理を実行する。
次に、 図 2 3に構成を示す画像処理装置による、 テロヅブモードにおける、 テ 口ヅプの位置に対応した夕ップの切換の処理を図 3 0のフローチヤ一トを参照し て説明する。
ステップ S 2 0 1 において、 構造切換制御回路 3 0 2は、 イニシャライズ回路 3 1 2から供給されたテロップ位置情報を取得する。 構造切換制御回路 3 0 2は、 テロップの位置に対応するタップ選択信号 T S 1、 タップ選択信号 T S 2、 及び タ ヅプ選択信号 T S 3— 1乃至 T S 3— ( N - 2 ) を生成し、 タップ選択信号 T S 1 を夕ップ構築回路 3 0 4 - 1 に供給し、 タッブ選択信号 T S 2を夕ップ構築 回路 3 0 4— 2に供給し、 タップ選択信号 T S 3— 1乃至 T S 3— ( N— 2 ) のそれそれをタヅプ構築回路 3 0 4— 3乃至 3 0 4—Nのそれそれに供給する。 ステツプ S 2 0 2において、 夕ップ構築回路 3 0 4— 1は、 注目画素を選択す る。 タップ構築回路 3 0 4— 2は、 注目画素を選択する。 タップ構築回路 3 0 4 一 3乃至 3 0 4— Nのそれそれは、 注目画素を選択する。
ステップ S 2 0 3において、 夕ッブ構築回路 3 0 4— 1は、 各画素の画面上の 物理ァドレス及びタップ選択信号 T S 1 を基に、 注目画素がテロッブ内の画素で あるか否かを判定し、 注目画素がテロップ内の画素であると判定された場合、 ス テツプ S 2 0 4に進み、 タップを切り換えて、 テロップに対応する、 動きクラス 夕ヅブ T D 1を選択し、 手続は、 ステップ S 2 0 6に進む。
ステツプ S 2 0 3において、 注目画素がテロヅプ内の画素でないと判定された 場合、 ステップ S 2 0 5に進み、 タップ構築回路 3 0 4— 1は、 タップを切り換 えて、 自然画像に対応する、 動きクラスタップ T D 1 を選択し、 手続は、 ステツ ブ S 2 0 6に進む。
ステヅプ S 2 0 3乃至ステップ S 2 0 5において、 夕ヅプ構築回路 3 0 4— 2 乃至 3 0 4— Nは、 タップ構築回路 3 0 4— 1 と同様の処理を実行するので、 そ の説明は省略する。
ステップ S 2 0 6において、 夕ヅブ構築回路 3 0 4— 1乃至 3 0 4— Nは、 全 ての画素について処理を終了したか否かを判定し、 全ての画素について処理を終 了していないと判定された場合、 ステップ S 2 0 2に戻り、 タップの切換の処理 を繰り返す。
ステップ S 2 0 6において、 全ての画素について処理を終了したと判定された 場合、 処理は終了する。
このように、 図 2 3に構成を示す画像処理装置は、 テロップモードにおいて、 注目画素がテロップ表示領域に属するか否かに対応してタップを切り換えること ができる。
図 2 7に構成を示す画像処理装置は、 テロップモードにおいて、 図 3 0に示す フローチヤ—トを参照して説明した処理と同様の処理で、 注目画素がテロップ表 示領域に属するか否かに対応して夕ップを切り換えるので、 その説明は省略する - 図 2 3又は図 2 7に構成を示す画像処理装置は、 図 2 9 (D) に示す画像につ いても、 枠画像表示領域の夕ップ及び画像表示領域の夕ップを切り換えて処理を 実行する。
上述した一連の処理は、 ハ一ドウエアにより実行させることもできるが、 ソフ トウヱァにより実行させることもできる。 一連の処理をソフ トウエアにより実行 させる場合には、 そのソフ トウェアを構成するプログラムが、 専用のハ一ドゥエ ァに組み込まれているコンビュ一夕、 又は、 各種のプログラムをインス トールす ることで、 各種の機能を実行することが可能な、 例えば汎用のパーソナルコンビ ユータなどに、 記録媒体からインス トールされる。
図 3 1は、 記録媒体及びコンピュータの例を説明する図である。 CPU(Centr al Processing Unit) 50 1は、 各種アプリケーションプログラムや、 0 S (Oper ating System) を実際に実行する。 R 0 M (Read- only Memory) 502は、 一般的 には、 CPU 50 1が使用するプログラムや演算用のパラメ一夕のうちの基本的 に固定のデータを格納する。 R AM(Randoffi- Access Memory) 503は、 CPU 5 0 1の実行において使用するプログラムや、 その実行において適宜変化するパラ メータを格納する。 これらは CPUバスなどから構成されるホス トバス 504に より相互に接続されている。
ホス トバス 5 04は、 ブリッジ 5 0 5を介して、 P C I (Peripheral Componen t Interconnect/Interface) バスなどの外部バス 5 0 6に接続されている。
キーボード 5 08は、 CPU 5 0 1に各種の指令を入力するとき、 使用者によ り操作される。 マウス 50 9は、 ディスプレイ 5 1 0の画面上のボイン 卜の指示 や選択を行うとき、 使用者により操作される。 ディスプレイ 5 1 0は、 液晶表示 装置又は C R T (Cathode Ray Tube)などから成り、 各種情報をテキス トゃィメ一 ジで表示する。 H D D (Hard Disk Drive) 5 1 1は、 ハードディスクを駆動し、 それらに CPU 5 0 1によって実行するプログラムや情報を記録又は再生させる, ドライブ 5 1 2は、 装着されている磁気ディスク 5 5 1、 光ディスク 5 52、 光磁気ディスク 5 53、 又は半導体メモリ 5 54に記録されているデータ又はプ ログラムを読み出して、 そのデータ又はプログラムを、 インタ一フェース 50 7、 外部バス 506、 ブリ ッジ 50 5、 及びホス トバス 5 04を介して接続されてい る R AM 503に供給する。
これらのキ一ボ一ド 508乃至ドライブ 5 1 2は、 インタ一フェース 507に 接続されており、 インタ一フェース 5 07は、 外部バス 5 06、 ブリ ッジ 50 5、 及びホス トバス 504を介して CPU 50 1に接続されている。
記録媒体は、 図 2 3に示すように、 コンピュータとは別に、 ュ一ザにブロック 図に対応する処理を実行するプログラムを提供するために配布される、 プログラ ムが記録されている磁気ディスク 5 5 1 (フロッピディスクを含む) 、 光デイス ク 5 52 ( C D - R 0 M (Compact Disc-Read Only Memory), DVD (Digital Ve rsatile Disc)を含む) 、 光磁気ディスク 5 53 (MD (Mini-Disc)を含む) 、 若 しくは半導体メモリ 5 54などよりなるリム一バブルメディアにより構成される だけでなく、 コンピュータに予め組み込まれた状態でユーザに提供される、 プロ グラムが記録されている ROM 5 0 2や、 HDD 5 1 1などで構成される。
なお、 ユーザにブロック図に対応する処理を実行するプログラムは、 有線又は 無線の通信媒体を介して、 コンピュータに供給されるようにしてもよい。
また、 本明細書において、 記録媒体に格納されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなく とも、 並列的あるいは個別に実行される処理をも含むもの である。
以上のように、 本発明に係る画像処理装置及び方法、 並びに記録媒体によれば、 複数の画素からなる入力画像信号の注目画素のフレーム内における位置を示す位 置情報が検出され、 位置情報に応じて、 複数のクラスから注目画素のクラスが決 定され、 入力画像信号から複数の画素が予測タップとして選択され、 クラス毎に 予め学習により得られた変換データ、 及び、 予測タップに基づく演算処理を行う ことにより、 入力画像より高質な出力画像信号が出力されるようにしたので、 画 素の画面上の位置にかかわらず、 常に、 より高質な画像を生成することができる ようになる。
また、 本発明に係る画像処理装置及び方法、 並びに記録媒体によれば、 複数の 画素からなる入力画像信号の注目画素のフレーム内における位置を示す位置情報 が検出され、 注目画素との位置関係が、 位置情報に応じて可変される複数の画素 が、 入力画像信号からクラスタヅブとして選択され、 クラスタップに基づいて、 複数のクラスから注目画素のクラスが決定され、 入力画像信号から複数の画素が 予測タップとして選択され、 クラス毎に予め学習により得られた変換データ、 及 び、 予測タップに基づく演算処理を行うことにより、 入力画像より高質な出力画 像信号が出力されるようにしたので、 画素の画面上の位置にかかわらず、 常に、 より高質な画像を生成することができるようになる。
また、 本発明に係る画像処理装置及び方法、 並びに記録媒体によれば、 複数の 画素からなる入力画像信号の注目画素のフレーム内における位置を示す位置情報 が検出され、 入力画像信号から複数の画素がクラスタップとして選択され、 クラ スタップに基づいて、 複数のクラスから注目画素のクラスが決定され、 注目画素 との位置関係が、 位置情報に応じて可変される複数の画素が、 入力画像信号から 予測タップとして選択され、 クラス毎に予め学習により得られた変換データ、 及 び、 予測タップに基づく演算処理を行うことにより、 入力画像より高質な出力画 像信号が出力されるようにしたので、 画素の画面上の位置にかかわらず、 常に、 より高質な画像を生成することができるようになる。
また、 本発明に係る画像処理装置及び方法、 並びに記録媒体によれば、 複数の 画素からなる入力画像信号の各注目画素に対して、 入力画像信号から複数の画素 が仮クラスタップとして選択され、 仮クラスタヅブのフレーム内における位置に 応じて注目画素との位置関係が可変される複数の画素が、 入力画像信号から真ク ラスタップとして選択され、 真クラスタップに基づいて、 複数のクラスから注目 画素のクラスが決定され、 入力画像信号から複数の画素が予測夕ップとして選択 され、 クラス毎に予め学習により得られた変換デ一夕、 及び、 予測タップに基づ く演算処理を行うことにより、 入力画像より高質な出力画像信号が出力されるよ うにしたので、 画素の画面上の位置にかかわらず、 常に、 より高質な画像を生成 することができるようになる。
さらに、 本発明に係る画像処理装置及び方法、 並びに記録媒体によれば、 複数 の画素からなる入力画像信号の各注目画素に対して、 入力画像信号から複数の画 素がクラスタップとして選択され、 クラスタヅプに基づいて、 複数のクラスから 注目画素のクラスが決定され、 各注目画素に対して、 入力画像信号から複数の画 素が仮予測夕ップとして選択され、 仮予測タップのフレーム内における位置に応 じて注目画素との位置関係が可変される複数の画素が、 入力画像信号から真予測 タップとして選択され、 クラス毎に予め学習により得られた変換データ、 及び、 真予測夕ッブに基づく演算処理を行うことにより、 入力画像より高質な出力画像 信号が出力されるようにしたので、 画素の画面上の位置にかかわらず、 常に、 よ り高質な画像を生成することができるようになる。

Claims

請求の範囲
1 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置を 示す位置情報を検出する位置検出手段と、
前記位置情報に応じて、 複数のクラスから前記注目画素のクラスを決定するク ラス決定手段と、
前記入力画像信号から複数の画素を予測夕ッブとして選択する予測夕ッブ選択 手段と、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算手段と
を備えることを特徴とする画像処理装置。
2 . 前記クラス決定手段は、 前記位置情報が前記フレーム中の有効領域と無効 領域のどちらを示すかにより、 クラスを決定することを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記クラス決定手段は、 前記位置情報で示される前記フレームの中心から の距離に基づいて、 前記クラスを決定することを特徴とする請求の範囲第 1項に 記載の画像処理装置。
4 . 前記クラス決定手段は、 前記位置情報が、 前記フレーム内でテロップが挿 入される位置と一致することを示すか否かに基づいて、 前記クラスを決定するこ とを特徴とする請求の範囲第 1項に記載の画像処理装置。
5 . 前記入力画像信号の仮注目画素の動きに応じて、 前記注目画素を決定する 注目画素決定手段をさらに備えることを特徴とする請求の範囲第 1項に記載の画 像処理装置。
6 . 前記仮注目画素の動きを検出する動き検出手段をさらに備えることを特徴 とする請求の範囲第 5項に記載の画像処理装置。
7 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号に含まれる 欠落画素の情報も含む画像信号を出力することを特徴とする請求の範囲第 1項に 記載の画像処理装置。
8 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりノイズ の低減された画像信号を出力することを特徴とする請求の範囲第 1項に記載の画 像処理装置。
9 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より高解像 度の画像信号を出力することを特徴とする請求の範囲第 1項に記載の画像処理装 置。
1 0 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より レン ズの収差による歪みが低減された画像信号を出力することを特徴とする請求の範 囲第 1項に記載の画像処理装置。
1 1 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出ステツプと、
前記位置情報に応じて、 複数のクラスから前記注目画素のクラスを決定するク ラス決定ステツプと、
前記入力画像信号から複数の画素を予測夕ップとして選択する予測夕ップ選択 ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステップと
を含むことを特徴とする画像処理方法。
1 2 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出ステツプと、
前記位置情報に応じて、 複数のクラスから前記注目画素のクラスを決定するク ラス決定ステップと、
前記入力画像信号から複数の画素を予測タツプとして選択する予測タップ選択 ステヅプと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステップと を含むことを特徴とする画像処理をコンピュータに実行させるプログラムが記 録されている記録媒体。
1 3 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出手段と、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号からクラス夕ップとして選択するクラスタップ選択手段と、 前記クラスタツプに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定手段と、
前記入力画像信号から複数の画素を予測タップとして選択する予測タップ選択 手段と、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算手段と
を備えることを特徴とする画像処理装置。
1 4 . 前記クラスタップ選択手段は、 前記位置情報が前記フレーム中の有効領 域と無効領域のどちらを示すかに応じて可変される複数の画素を前記クラス夕ッ プとして選択することを特徴とする請求の範囲第 1 3項に記載の画像処理装置。
1 5 . 前記クラスタップ選択手段は、 前記位置情報で示される前記フレームの 中心からの距離に基づいて可変される複数の画素を前記クラスタッブとして選択 することを特徴とする請求の範囲第 1 3項に記載の画像処理装置。
1 6 . 前記クラスタップ選択手段は、 前記位置情報が、 前記フレーム内でテロ ッブが挿入される位置と一致することを示すか否かに基づいて可変される複数の 画素を前記クラス夕ッブとして選択することを特徴とする請求の範囲第 1 3項に 記載の画像処理装置。
1 7 . 前記入力画像信号の仮注目画素の動きに応じて、 前記注目画素を決定す る注目画素決定手段をさらに備えることを特徴とする請求の範囲第 1 3項に記載 の画像処理装置。
1 8 . 前記仮注目画素の動きを検出する動き検出手段をさらに備えることを特 徴とする請求の範囲第 1 7項に記載の画像処理装置。
1 9 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号に含まれ る欠落画素の情報も含む画像信号を出力することを特徴とする請求の範囲第 1 3 項に記載の画像処理装置。
2 0 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりノィ ズの低減された画像信号を出力することを特徴とする請求の範囲第 1 3項に記載 の画像処理装置。
2 1 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より高解 像度の画像信号を出力することを特徴とする請求の範囲第 1 3項に記載の画像処 理装置。
2 2 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より レン ズの収差による歪みが低減された画像信号を出力することを特徴とする請求の範 囲第 1 3項に記載の画像処理装置。
2 3 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出ステップと、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号からクラス夕ッブとして選択するクラスタッブ選択ステップと、 前記クラスタッブに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステップと、
前記入力画像信号から複数の画素を予測夕ップとして選択する予測タッブ選択 ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステヅプと
を含むことを特徴とする画像処理方法。
2 4 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出ステツプと、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号からクラスタヅプとして選択するクラスタップ選択ステップと、 前記クラスタップに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステップと、
前記入力画像信号から複数の画素を予測タップとして選択する予測夕ップ選択 ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステツブと
を含むことを特徴とする画像処理をコンピュータに実行させるプログラムが記 録されている記録媒体。
2 5 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出手段と、
前記入力画像信号から複数の画素をクラスタッブとして選択するクラスタッブ 選択手段と、
前記クラスタツブに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定手段と、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号から予測夕ップとして選択する予測夕ップ選択手段と、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算手段と
を備えることを特徴とする画像処理装置。
2 6 . 前記予測タップ選択手段は、 前記位置情報が前記フレーム中の有効領域 と無効領域のどちらを示すかに応じて前記位置関係が可変される複数の画素を前 記予測夕ップとして選択することを特徴とする請求の範囲第 2 5項に記載の画像 処理装置。
2 7 . 前記予測タップ選択手段は、 前記位置情報で示される前記フレームの中 心からの距離に基づいて前記位置関係が可変される複数の画素を前記予測タップ として選択することを特徴とする請求の範囲第 2 5項に記載の画像処理装置。
2 8 . 前記予測タップ選択手段は、 前記位置情報が、 前記フレーム内でテロ、ソ ブが挿入される位置と一致することを示すか否かに基づいて前記位置関係が可変 される複数の画素を前記予測タップとして選択することを特徴とする請求の範囲 第 2 5項に記載の画像処理装置。
2 9 . 前記入力画像信号の仮注目画素動きに応じて、 前記注目画素を決定する 注目画素決定手段をさらに備えることを特徴とする請求の範囲第 2 5項に記載の 画像処理装置。
3 0 . 前記仮注目画素の動きを検出する動き検出手段をさらに備えることを特 徴とする請求の範囲第 2 9項に記載の画像処理装置。
3 1 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号に含まれ る欠落画素の情報も含む画像信号を出力することを特徴とする請求の範囲第 2 5 項に記載の画像処理装置。
3 2 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりノィ ズの低減された画像信号を出力することを特徴とする請求の範囲第 2 5項に記載 の画像処理装置。
3 3 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より高解 像度の画像信号を出力することを特徴とする請求の範囲第 2 5項に記載の画像処 理装置。
3 4 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりレン ズの収差による歪みが低減された画像信号を出力することを特徴とする請求の範 囲第 2 5項に記載の画像処理装置。
3 5 . 複数の画素からなる入力画像信号の注目画素のフレ一ム内における位置 を示す位置情報を検出する位置検出ステツブと、
前記入力画像信号から複数の画素をクラス夕ップとして選択するクラスタップ 選択ステツプと、
前記クラス夕ップに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステヅブと、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号から予測夕ッブとして選択する予測タッブ選択ステップと、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに基 づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力す る演算ステップと
を含むことを特徴とする画像処理方法。
3 6 . 複数の画素からなる入力画像信号の注目画素のフレーム内における位置 を示す位置情報を検出する位置検出ステップと、
前記入力画像信号から複数の画素をクラスタップとして選択するクラスタッブ 選択ステヅプと、
前記クラスタップに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステップと、
前記注目画素との位置関係が、 前記位置情報に応じて可変される複数の画素を、 前記入力画像信号から予測夕ップとして選択する予測夕ップ選択ステツプと、 前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに基 づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力す る演算ステップと
を含むことを特徴とする画像処理をコンピュータに実行させるプログラムが記 録されている記録媒体。
3 7 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素を仮クラスタッブとして選択する仮クラスタップ選択手段と、 前記仮クラス夕ップのフレーム内における位置に応じて前記注目画素との位置 関係が可変される複数の画素を、 前記入力画像信号から真クラスタップとして選 択する真クラス夕ッブ選択手段と、
前記真クラスタッブに基づいて、 複数のクラスから前記注目画素のクラスを決 定するクラス決定手段と、
前記入力画像信号から複数の画素を予測夕ップとして選択する予測夕ップ選択 手段と、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算手段と
を備えることを特徴とする画像処理装置。
3 8 . 前記真クラスタップ選択手段は、 前記仮クラスタップの複数の画素それ それが、 前記フレーム中の無効画像領域に位置する際に、 前記無効画像領域に位 置する画素に代えて、 前記フレーム中の有効画像領域の画素を前記真クラス夕ッ ブとして選択することを特徴とする請求の範囲第 3 7項に記載の画像処理装置。
3 9 . 前記真クラスタヅプ選択手段は、 前記仮クラスタップの前記フレームの 中心からの距離に基づいて、 前記真クラスタツブを選択することを特徴とする請 求の範囲第 3 7項に記載の画像処理装置。
4 0 . 前記真クラスタップ選択手段は、 前記仮クラスタ ヅプと、 前記フレーム 内でテロップが挿入される位置を示す位置情報に基づいて、 前記真クラス夕ップ を選択することを特徴とする請求の範囲第 3 7項に記載の画像処理装置。
4 1 . 前記入力画像信号の仮注目画素の動きに応じて、 前記注目画素を決定す る注目画素決定手段をさらに備えることを特徴とする請求の範囲第 3 7項に記載 の画像処理装置。
4 2 . 前記仮注目画素の動きを検出する動き検出手段をさらに備えることを特 徴とする請求の範囲第 4 1項に記載の画像処理装置。
4 3 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号に含まれ る欠落画素の情報も含む画像信号を出力することを特徴とする請求の範囲第 3 7 項に記載の画像処理装置。
4 4 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりノィ ズの低減された画像信号を出力することを特徴とする請求の範囲第 3 7項に記載 の画像処理装置。
4 5 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より高解 像度の画像信号を出力することを特徴とする請求の範囲第 3 7項に記載の画像処 理装置。
4 6 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりレン ズの収差による歪みが低減された画像信号を出力することを特徴とする請求の範 囲第 3 7項に記載の画像処理装置。
4 7 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素を仮クラスタッブとして選択する仮クラスタッブ選択ステツ プと、 前記仮クラスタップのフレーム内における位置に応じて前記注目画素との位置 関係が可変される複数の画素を、 前記入力画像信号から真クラスタップとして選 択する真クラスタツプ選択ステヅプと、
前記真クラスタップに基づいて、 複数のクラスから前記注目画素のクラスを決 定するクラス决定ステツプと、
前記入力画像信号から複数の画素を予測夕ッブとして選択する予測夕ップ選択 ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステツプと
を含むことを特徴とする画像処理方法。
4 8 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素を仮クラスタッブとして選択する仮クラスタップ選択ステツ ブと、
前記仮クラスタップのフレーム内における位置に応じて前記注目画素との位置 関係が可変される複数の画素を、 前記入力画像信号から真クラスタップとして選 択する真クラスタヅブ選択ステヅプと、
前記真クラスタップに基づいて、 複数のクラスから前記注目画素のクラスを決 定するクラス決定ステツプと、
前記入力画像信号から複数の画素を予測タップとして選択する予測タップ選択 ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記予測タップに 基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出力 する演算ステップと
を含むことを特徴とする画像処理をコンビュー夕に実行させるプログラムが記 録されている記録媒体。
4 9 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素をクラスタッブとして選択するクラスタップ選択手段と、 前記クラスタツプに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定手段と、
前記各注目画素に対して、 前記入力画像信号から複数の画素を仮予測タッブと して選択する仮予測夕ップ選択手段と、
前記仮予測タッブのフレーム内における位置に応じて前記注目画素との位置関 係が可変される複数の画素を、 前記入力画像信号から真予測夕ッブとして選択す る真予測タツプ選択手段と、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記真予測タップ に基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出 力する演算手段とを備えることを特徴とする画像処理装置。
5 0 . 前記真予測夕ップ選択手段は、 前記仮予測夕ップの複数の画素それぞれ が、 前記フレーム中の無効画像領域に位置する際に、 前記無効画像領域に位置す る画素に代えて、 前記フレーム中の有効画像領域の画素を前記真予測夕ップとし て選択することを特徴とする請求の範囲第 4 9項に記載の画像処理装置。
5 1 . 前記真予測タップ選択手段は、 前記仮予測タップの前記フレームの中心 からの距離に基づいて、 前記真予測タッブを選択することを特徴とする請求の範 囲第 4 9項に記載の画像処理装置。
5 2 . 前記真予測タップ選択手段は、 前記仮予測タップと、 前記フレーム内で テロップが挿入される位置を示す位置情報に基づいて、 前記真予測タッブを選択 することを特徴とする請求の範囲第 4 9項に記載の画像処理装置。
5 3 . 前記入力画像信号の仮注目画素の動きに応じて、 前記注目画素を決定す る注目画素決定手段をさらに備えることを特徴とする請求の範囲第 4 9項に記載 の画像処理装置。
5 4 . 前記仮注目画素の動きを検出する動き検出手段をさらに備えることを特 徴とする請求の範囲第 5 3項に記載の画像処理装置。
5 5 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号に含まれ る欠落画素の情報も含む画像信号を出力することを特徴とする請求の範囲第 4 9 項に記載の画像処理装置。
5 6 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号よりノィ ズの低減された画像信号を出力することを特徴とする請求の範囲第 4 9項に記載 の画像処理装置。
5 7 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より高解 像度の画像信号を出力することを特徴とする請求の範囲第 4 9項に記載の画像処
5 8 . 前記演算手段は、 前記出力画像信号として、 前記入力画像信号より レン ズの収差による歪みが低減された画像信号を出力することを特徴とする請求の範 囲第 4 9項に記載の画像処理装置。
5 9 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素をクラスタヅプとして選択するクラスタヅブ選択ステップと、 前記クラスタッブに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステヅプと、
前記各注目画素に対して、 前記入力画像信号から複数の画素を仮予測夕ッブと して選択する仮予測夕ップ選択ステップと、
前記仮予測夕ップのフレーム内における位置に応じて前記注目画素との位置関 係が可変される複数の画素を、 前記入力画像信号から真予測タップとして選択す る真予測タップ選択ステップと、
前記クラス毎に予め学習により得られた変換データ、 及び、 前記真予測タップ に基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出 力する演算ステツプと
を含むことを特徴とする画像処理方法。
6 0 . 複数の画素からなる入力画像信号の各注目画素に対して、 前記入力画像 信号から複数の画素をクラス夕ヅブとして選択するクラス夕ヅプ選択ステップと、 前記クラスタツプに基づいて、 複数のクラスから前記注目画素のクラスを決定 するクラス決定ステップと、
前記各注目画素に対して、 前記入力画像信号から複数の画素を仮予測夕ップと して選択する仮予測夕ップ選択ステップと、
前記仮予測タップのフレーム内における位置に応じて前記注目画素との位置関 係が可変される複数の画素を、 前記入力画像信号から真予測夕ップとして選択す る真予測夕ッブ選択ステツプと、 前記クラス毎に予め学習により得られた変換デ一夕、 及び、 前記真予測タップ に基づく演算処理を行うことにより、 前記入力画像より高質な出力画像信号を出 力する演算ステツプと
を含むことを特徴とする画像処理をコンピュ一夕に実行させるプログラムが記 録されている記録媒体。
PCT/JP2001/000895 2000-02-10 2001-02-08 Image processing device and method, and recording medium WO2001059751A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP01902812A EP1197946B1 (en) 2000-02-10 2001-02-08 Image processing device and method, and recording medium
US09/958,394 US6912014B2 (en) 2000-02-10 2001-02-08 Image processing device and method, and recording medium
DE60127631T DE60127631T2 (de) 2000-02-10 2001-02-08 Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000033786 2000-02-10
JP2000-33786 2000-02-10

Publications (1)

Publication Number Publication Date
WO2001059751A1 true WO2001059751A1 (en) 2001-08-16

Family

ID=18558217

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/000895 WO2001059751A1 (en) 2000-02-10 2001-02-08 Image processing device and method, and recording medium

Country Status (5)

Country Link
US (1) US6912014B2 (ja)
EP (2) EP1197946B1 (ja)
KR (1) KR100742850B1 (ja)
DE (2) DE60127631T2 (ja)
WO (1) WO2001059751A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7324709B1 (en) * 2001-07-13 2008-01-29 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
WO2003071479A1 (fr) * 2002-02-21 2003-08-28 Sony Corporation Processeur de signaux
JP4611069B2 (ja) * 2004-03-24 2011-01-12 富士フイルム株式会社 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
US9079762B2 (en) 2006-09-22 2015-07-14 Ethicon Endo-Surgery, Inc. Micro-electromechanical device
US7561317B2 (en) * 2006-11-03 2009-07-14 Ethicon Endo-Surgery, Inc. Resonant Fourier scanning
US20080146898A1 (en) * 2006-12-19 2008-06-19 Ethicon Endo-Surgery, Inc. Spectral windows for surgical treatment through intervening fluids
US7713265B2 (en) * 2006-12-22 2010-05-11 Ethicon Endo-Surgery, Inc. Apparatus and method for medically treating a tattoo
US20080151343A1 (en) * 2006-12-22 2008-06-26 Ethicon Endo-Surgery, Inc. Apparatus including a scanned beam imager having an optical dome
US8801606B2 (en) 2007-01-09 2014-08-12 Ethicon Endo-Surgery, Inc. Method of in vivo monitoring using an imaging system including scanned beam imaging unit
US8273015B2 (en) * 2007-01-09 2012-09-25 Ethicon Endo-Surgery, Inc. Methods for imaging the anatomy with an anatomically secured scanner assembly
US7589316B2 (en) * 2007-01-18 2009-09-15 Ethicon Endo-Surgery, Inc. Scanning beam imaging with adjustable detector sensitivity or gain
US20080226029A1 (en) * 2007-03-12 2008-09-18 Weir Michael P Medical device including scanned beam unit for imaging and therapy
US8216214B2 (en) 2007-03-12 2012-07-10 Ethicon Endo-Surgery, Inc. Power modulation of a scanning beam for imaging, therapy, and/or diagnosis
JP2008258836A (ja) * 2007-04-03 2008-10-23 Sony Corp 撮像装置、信号処理回路、信号処理装置、信号処理方法及びコンピュータプログラム
US7995045B2 (en) 2007-04-13 2011-08-09 Ethicon Endo-Surgery, Inc. Combined SBI and conventional image processor
US8626271B2 (en) 2007-04-13 2014-01-07 Ethicon Endo-Surgery, Inc. System and method using fluorescence to examine within a patient's anatomy
US8160678B2 (en) 2007-06-18 2012-04-17 Ethicon Endo-Surgery, Inc. Methods and devices for repairing damaged or diseased tissue using a scanning beam assembly
US7558455B2 (en) * 2007-06-29 2009-07-07 Ethicon Endo-Surgery, Inc Receiver aperture broadening for scanned beam imaging
US7982776B2 (en) * 2007-07-13 2011-07-19 Ethicon Endo-Surgery, Inc. SBI motion artifact removal apparatus and method
US20090021818A1 (en) * 2007-07-20 2009-01-22 Ethicon Endo-Surgery, Inc. Medical scanning assembly with variable image capture and display
US9125552B2 (en) * 2007-07-31 2015-09-08 Ethicon Endo-Surgery, Inc. Optical scanning module and means for attaching the module to medical instruments for introducing the module into the anatomy
US7983739B2 (en) 2007-08-27 2011-07-19 Ethicon Endo-Surgery, Inc. Position tracking and control for a scanning assembly
US7925333B2 (en) 2007-08-28 2011-04-12 Ethicon Endo-Surgery, Inc. Medical device including scanned beam unit with operational control features
US8050520B2 (en) * 2008-03-27 2011-11-01 Ethicon Endo-Surgery, Inc. Method for creating a pixel image from sampled data of a scanned beam imager
US8332014B2 (en) * 2008-04-25 2012-12-11 Ethicon Endo-Surgery, Inc. Scanned beam device and method using same which measures the reflectance of patient tissue
TWI524773B (zh) * 2009-10-23 2016-03-01 財團法人資訊工業策進會 即時偵測一物件之偵測裝置、偵測方法及其電腦程式產品
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2013021635A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体
KR101257946B1 (ko) * 2011-08-08 2013-04-23 연세대학교 산학협력단 영상의 색수차를 제거하는 장치 및 그 방법
GB2526943B (en) 2011-12-20 2016-04-27 Imagination Tech Ltd Method and apparatus for compressing and decompressing data
KR102134136B1 (ko) * 2018-12-27 2020-07-15 (주)인스페이스 딥러닝 기반 위성영상 해상도 조절방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275118A (ja) * 1995-03-31 1996-10-18 Sony Corp 信号変換装置及び信号変換方法
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3859089B2 (ja) 1995-05-31 2006-12-20 ソニー株式会社 信号変換装置及び信号変換方法
US5946044A (en) * 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
JP3669530B2 (ja) 1995-06-30 2005-07-06 ソニー株式会社 画像信号変換装置及び画像信号変換方法
JP3631333B2 (ja) * 1996-08-23 2005-03-23 シャープ株式会社 画像処理装置
US6330344B1 (en) * 1997-02-14 2001-12-11 Sony Corporation Image processing device and method employing motion detection to generate improved quality image from low resolution image
IL127910A (en) * 1997-05-06 2003-01-12 Sony Corp Image converter and image converting method
CN1219255C (zh) 1997-10-23 2005-09-14 索尼电子有限公司 差错恢复的设备与方法
JP4147632B2 (ja) * 1998-08-24 2008-09-10 ソニー株式会社 画像情報変換装置、画像情報変換方法、およびテレビジョン受像機
DE60041114D1 (de) * 1999-04-23 2009-01-29 Sony Corp Bildumwandlungsvorrichtung und -verfahren
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP4470280B2 (ja) * 2000-05-24 2010-06-02 ソニー株式会社 画像信号処理装置及び画像信号処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275118A (ja) * 1995-03-31 1996-10-18 Sony Corp 信号変換装置及び信号変換方法
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1197946A4 *

Also Published As

Publication number Publication date
EP1686801A3 (en) 2008-07-09
DE60127631T2 (de) 2007-12-13
DE60140824D1 (de) 2010-01-28
KR100742850B1 (ko) 2007-07-25
EP1197946B1 (en) 2007-04-04
EP1197946A1 (en) 2002-04-17
EP1686801A2 (en) 2006-08-02
US6912014B2 (en) 2005-06-28
US20030030753A1 (en) 2003-02-13
DE60127631D1 (de) 2007-05-16
KR20020000164A (ko) 2002-01-04
EP1686801B1 (en) 2009-12-16
EP1197946A4 (en) 2006-03-22

Similar Documents

Publication Publication Date Title
WO2001059751A1 (en) Image processing device and method, and recording medium
US20100202711A1 (en) Image processing apparatus, image processing method, and program
JP2014194706A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4696388B2 (ja) 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置、係数データ生成装置、並びに情報記録媒体
JPWO2009119347A1 (ja) 処理システム、画像処理方法および画像処理用プログラム
JP4650683B2 (ja) 画像処理装置および方法、プログラム並びに記録媒体
JP4470280B2 (ja) 画像信号処理装置及び画像信号処理方法
KR20060045430A (ko) 계수 데이터의 생성 장치 및 생성 방법, 계수종 데이터의생성 장치 및 생성 방법, 정보 신호 처리 장치, 및프로그램 및 그것을 기록한 매체
JP4623345B2 (ja) 画像処理装置および方法、並びに記録媒体
JP2005159830A (ja) 信号処理装置および方法、記録媒体、並びにプログラム
WO2001097510A1 (en) Image processing system, image processing method, program, and recording medium
JP4507639B2 (ja) 画像信号処理装置
JP4655213B2 (ja) 画像処理装置および方法、プログラム並びに記録媒体
JP2000348019A (ja) データ処理装置およびデータ処理方法、並びに媒体
JP4650684B2 (ja) 画像処理装置および方法、プログラム並びに記録媒体
JPH0851598A (ja) 画像情報変換装置
JP2007251690A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JP4441860B2 (ja) 情報信号の処理装置および処理方法、並びにプログラムおよびそれを記録した媒体
JP4595162B2 (ja) 画像信号処理装置及び画像信号処理方法
JP2005004770A (ja) グループ化による映画映像検出方法及び装置
JP4200403B2 (ja) 画像符号化装置および方法、画像復号装置および方法、画像伝送システムおよび方法、並びに記録媒体
JP4200401B2 (ja) 画像変換装置および方法、並びに記録媒体
JP3777596B2 (ja) 画像情報変換装置および方法、係数算出装置および方法、記憶装置、記録媒体、並びにプログラム
JP2006020347A (ja) 係数生成装置および方法
JP4055487B2 (ja) 画像信号の処理装置および処理方法、それに使用される係数種データの生成装置および生成方法、係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001902812

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017012927

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09958394

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001902812

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2001902812

Country of ref document: EP