WO1995029462A1 - Method and device for encoding image signal and image signal decoding device - Google Patents

Method and device for encoding image signal and image signal decoding device Download PDF

Info

Publication number
WO1995029462A1
WO1995029462A1 PCT/JP1995/000781 JP9500781W WO9529462A1 WO 1995029462 A1 WO1995029462 A1 WO 1995029462A1 JP 9500781 W JP9500781 W JP 9500781W WO 9529462 A1 WO9529462 A1 WO 9529462A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
encoding
signal
component
edge
Prior art date
Application number
PCT/JP1995/000781
Other languages
English (en)
French (fr)
Inventor
Touradj Ebrahimi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1019950705943A priority Critical patent/KR960703481A/ko
Priority to US08/557,132 priority patent/US5835237A/en
Priority to CA002164627A priority patent/CA2164627A1/en
Priority to EP95916022A priority patent/EP0706155A4/en
Publication of WO1995029462A1 publication Critical patent/WO1995029462A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Definitions

  • the present invention relates to an image signal encoding method and apparatus, and an image signal decoding apparatus.
  • the present invention relates to an image signal encoding method and apparatus, and an image signal decoding method and apparatus, and in particular, decomposes an image signal into a plurality of components in consideration of the visual importance of an image, and encodes and decodes each. It can be applied to what you do. Further, the present invention relates to an edge detection method and apparatus suitable for the above decomposition.
  • transform coding has been widely used in the field of image compression.
  • frequency domain distortion for example in the region containing the edges, produces by-products of less desirable processing such as ringing.
  • the solution to alleviate this problem is to classify different regions of the image (usually consisting of square blocks) and apply a different quantization method to each of the classifications.
  • the classification criteria described above are very important, and usually a measure of activity based on the AC value of the transform coefficient for each region (book) is used. This classification based on the activity of the A C values of the transform coefficients is preferred in distinguishing between smooth regions and other regions with higher frequency components. However, this method does not work well in separating regions containing edges from regions with activities such as textures.
  • the frequency domain distortion is not visible in the texture, but when edges are present, It is clearly visible mainly for ringing. Therefore, a good classification must be able to properly classify the region containing the edges and the texture region so that a more efficient coding method can be applied to each classification result in the subsequent stage.
  • a more sophisticated activity detection method based on the AC value is conceivable.
  • such an activity detection method has a problem that the system complexity becomes very high when an efficient method is required. Disclosure of the invention
  • the present invention has been made in view of the above points, and has an image signal encoding method and apparatus and an image signal decoding method capable of improving the visual image quality of a restored image with a higher compression ratio than before. And a device.
  • a local luminance component which is a smooth element of an input image signal
  • a luminance edge component which is an outline element of the input image signal
  • a texture component comprising components other than the local luminance component and the luminance edge component of the input image signal is encoded using a third encoding method.
  • first encoding means for encoding a local luminance component, which is a smooth element of the input image signal, using a first encoding method to generate a first encoded signal
  • a second encoding unit that encodes a luminance edge component that is a contour element of the image signal using a second encoding method by chain encoding to generate a second encoded signal
  • Third encoding means for encoding a texture component comprising components other than the local luminance component and the luminance edge component using a third encoding method to generate a third encoded signal is provided. I made it.
  • a first encoded signal generated by encoding a local luminance component, which is a smooth element of an input image signal including at least a luminance component, using a first encoding method, It is generated by encoding the luminance edge component, which is the contour element of the input image signal, using the second encoding method by chain encoding.
  • a third encoded signal generated by encoding a second encoded signal and a texture component including components other than the local luminance component and the luminance edge component of the input image signal using a third encoding method.
  • An image signal decoding method for reconstructing an image signal by using the first encoded signal and the second encoded signal, wherein the first encoded signal is decoded to generate a reconstructed local luminance, and the second encoded signal is decoded. Generating a reconstructed edge, reconstructing an edge image based on the reconstructed local luminance component and the reconstructed edge component, decoding the third coded signal to generate a reconstructed texture, The original image signal is reconstructed by adding the image and the reconstructed texture.
  • a first encoded signal generated by encoding a local luminance component which is a smooth element of an input image signal including at least a luminance component, using a first encoding method
  • a second encoded signal generated by encoding a luminance edge component that is a contour element of the input image signal using a second encoding method by chain encoding and
  • An image signal is reconstructed using a third encoded signal generated by encoding a texture component including a local luminance component and a component other than the luminance edge component using the third encoding method.
  • first decoding means for decoding the first coded signal to generate a reconstructed local luminance, and decoding the second coded signal to generate a reconstructed edge Second Encoding means; means for reconstructing an edge image based on the reconstructed local luminance component and reconstructed edge component; and third means for decoding the third coded signal to generate a reconstructed texture.
  • Decoding means, and adding means for adding the edge image and the reconstructed texture to reconstruct the original image signal are provided.
  • the edge of the input image signal is detected.
  • the step of differentiating the input image signal is compared with the adaptively controlled threshold value and a component that is equal to or larger than the threshold value is extracted from the differential result.
  • an edge detection for detecting an edge of an input image signal is performed.
  • differentiating means for differentiating the input image signal means for comparing a differentiation result obtained by the differentiating means with a threshold value which is adaptively controlled, and extracting a component equal to or larger than the threshold value from the differentiation result,
  • a means for detecting a change point from the extracted components and a means for determining a singular point based on the change point are provided.
  • the image signal is decomposed into local luminance information consisting of smooth elements, edge information consisting of contour elements, and texture information consisting of elements other than smooth elements and contour elements, and different encoding is performed according to the visual importance. By doing so, encoding can be performed with a higher compression ratio than before and in consideration of the visual image quality of the restored image.
  • the edge information is detected in consideration of the reconstruction.
  • the encoded local luminance information is decoded to generate reconstructed local luminance
  • the encoded edge information is decoded to generate reconstructed edge information
  • the reconstructed local luminance and the reconstructed edge information are added.
  • FIG. 1 is a block diagram showing an embodiment of an image signal encoding apparatus according to the present invention.
  • FIG. 2 is a block diagram showing an embodiment of an image signal decoding apparatus according to the present invention.
  • FIG. 3 is a block diagram showing a local luminance generation and encoding processing unit in the image signal encoding device of FIG.
  • FIG. 4 is a block diagram showing an edge information detection and encoding processing unit in the image signal encoding device of FIG.
  • FIG. 5 is a schematic diagram showing a bitstream structure of an edge information element encoded by the edge information detection and encoding processing unit of FIG.
  • FIG. 6 is a schematic diagram for explaining the chain coded information of the pixel when coding is performed by the edge information detection and coding processing unit of FIG.
  • Fig. 7 shows the local luminance decoding and reconstruction processing unit in the image signal decoding device of Fig. 2.
  • FIG. 7 shows the local luminance decoding and reconstruction processing unit in the image signal decoding device of Fig. 2.
  • FIG. 8 is a block diagram showing an edge information decoding and reconstruction processing unit in the image signal decoding device of FIG.
  • FIG. 9 is a block diagram for explaining a schematic configuration of a color image signal encoding apparatus according to the present invention.
  • FIG. 10 is a block diagram for explaining a reconstructed signal by singularity detection as edge detection.
  • FIGS. 11 ( ⁇ ) to 11 ( ⁇ ) are schematic diagrams for explaining edges having the same discontinuity which causes erroneous detection in edge detection.
  • FIGS. 12 ( ⁇ ) to 12 (D) are signal waveform diagrams for explaining the operation of detecting an abnormal point for a typical discontinuity as edge detection.
  • FIG. 13 is a block diagram showing an embodiment of a singularity detection device as an edge detection device.
  • FIGS. 14 ( ⁇ ) to 14 (F) are signal waveform diagrams for explaining operations of singularity detection and reconstruction at a step edge including noise.
  • FIGS. 15 ( ⁇ ) to 15 (D) are signal waveform diagrams for explaining the importance of the adaptive threshold for detecting a singular point.
  • FIGS. 16 ( ⁇ ) to 16 (D) are signal waveform diagrams for explaining change detection for detecting a singular point and elimination and replacement of a redundant point.
  • FIGS. 17 ( ⁇ ) to 17 (D) are signal waveform diagrams for explaining the operation of detecting a singular point at a step edge including noise.
  • FIGS. 18 ( ⁇ ) to 18 (D) are signal waveform diagrams for explaining the operation of singularity detection and reconstruction by the conventional Canny method at a step edge including noise.
  • Figure I9 is a block diagram showing the configuration of a 2-D edge detection device to which the singularity detection method is applied.
  • FIG. 20 is a diagram illustrating an example of a transmission bitstream obtained by the image signal encoding device of FIG. 1.
  • Figure 21 shows a 3 CC simulation.
  • FIG. 21 (A) shows an image signal of an original image.
  • FIG. 21 (B) shows the reconstructed local luminance element.
  • FIG. 21 (C) shows edge information.
  • FIG. 21 (D) shows the edge information after the post-processing.
  • FIG. 21 (E) shows the reconstructed edge image.
  • Figure 21 (F) shows the texture elements.
  • FIG. 22 shows a comparison between 3 C C and J P EG.
  • FIG. 22 (A) shows a decoded image by 3CC.
  • FIG. 22 (B) shows a decoded image based on J PEG.
  • FIG. 22 (C) shows an image obtained by enlarging the shoulder region of the image decoded by 3CC.
  • Fig. 2 2 (A) shows a decoded image by 3CC.
  • FIG. 22 (B) shows a decoded image based on J PEG.
  • FIG. 22 (C) shows an image obtained by enlarging the shoulder region of the image decoded by 3CC.
  • Fig. 2 2 (A) shows a decoded image by 3CC.
  • FIG. 22 (B) shows a decoded image based on J PEG.
  • FIG. 22 (C) shows an image obtained by enlarging the shoulder region of the image decoded by 3CC.
  • Fig. 2 2 (A) shows a decoded image
  • FIG. 22 (F) shows an error image of a decoded image by J PEG.
  • FIG. 23 shows singularity detection and reconstruction of the embodiment.
  • Figure 23 (A) shows the original image.
  • Figure 23 (B) shows the singularities obtained by the new edge detector.
  • Figure 23 (C) shows the data reconstructed from the singular points after 30 iterations using the diffusion process, and the amplitudes of the singular points for the original image.
  • Figure 24 shows singularity detection and reconstruction by Canny edge detection.
  • Figure 24 (A) shows the original image.
  • Figure 24 (B) shows the singularities obtained by the Canny edge detector.
  • Figure 24 (C) shows the data reconstructed from the singular points after 30 iterations using the diffusion process and the amplitudes of the singular points for the original image.
  • a color image is compressed using a three-element coding method (hereinafter referred to as 3 CC (3 Component Coding)) in consideration of the visual relevance of the image information to be coded. Therefore, the image information is decomposed into three different elements: local brightness consisting of smooth elements, edge information consisting of contours, and texture information consisting of other elements. Since the visual importance of these elements increases from the latter to the former, the distortion allowed in each element varies according to this visual importance. Furthermore, different encoding methods are applied to the encoding of each element according to their different characteristics.
  • 3 CC Three Component Coding
  • This 3CC is a good coding method for appropriately classifying image regions. This method is very efficient in terms of computational complexity, and can be seen by conventional activity detection methods based on the AC values of the coefficients.
  • the basic concept of this 3C is simple and very general (X. Ran and N. Farvard in. Low bitrate image coding using a three component image mode l. Technicali Report TR 92 -75 , University of Maryl and, 1992.).
  • the original image is first decomposed into three different elements: local luminance, edge information, and texture information.
  • local luminance There are several ways to extract each of these elements, each with different results.
  • the particular encoding method and the bit rate available between the different elements are particularly important for the overall quality of the decoded image .
  • the wedge amplitude is less important than the wedge position. Therefore, simply and coarsely quantizing the amplitude information is enough to obtain a visually pleasing image.
  • edge position information must be as precise as possible.
  • 3CC can operate more properly in a wider range of applications (generic coding). For example, in applications with constantly low bit rates, storing edge information rather than texture information can restore a more visually pleasing image. This is because, unlike conventional coding methods, the contour information is not seriously affected. In addition, both local brightness and edge information can be decoded at any resolution without the need for sophisticated processing. Therefore, when texture information is encoded using multi-resolution, multi-resolution encoding can be easily realized. In this embodiment, the above-mentioned 3 CC is further improved, and a new 3 CC that can realize high-efficiency transmission with a simple configuration is proposed. (2) New 3 CC video signal encoding and decoding system
  • reference numeral 1 denotes an image signal encoding apparatus using 3 CC as a whole.
  • encoding of a luminance signal among image signals will be described.
  • the encoding of the color signal in the image signal is the same as the encoding of the luminance signal, but has a slightly different portion.
  • An image signal encoding device for encoding this color signal will be described later.
  • the image signal encoding device 1 includes a local luminance generation and encoding processing unit 2, an edge information detection and encoding processing unit 3, an edge information decoding and reconstruction processing unit 4, a subtraction processing unit 5, and a texture information encoding process. It consists of Part 6.
  • the luminance signal S 1 of the input image signal is input to the local luminance generation and encoding processing unit 2, the edge information detection and encoding processing unit 3, and the subtraction processing unit 5.
  • reference numeral 10 denotes an image signal decoding apparatus using 3 CC as a whole, and a local luminance element S 2, an edge information element S 4, and a texture information element S 7 coded by 3 CC are input, respectively. It comprises a local luminance decoding and reconstruction processing unit 11, an edge information decoding and reconstruction processing unit 12, a texture information decoding processing unit 13, and an addition processing unit 14.
  • the local luminance generation and encoding processing unit 2 of the image signal encoding device 1 includes, as shown in FIG. 3, a low-pass filter 2A, a down-sampling unit 2B, a uniform quantization unit 2C, and a PCM encoding unit. Consists of 2D.
  • the local luminance generation and coding processing unit 2 first, the original luminance signal S1 is filtered by a Gaussian n-pass filter 2A to obtain local luminance, and then the downsampled by a downsampling unit 2B. Downsample by an appropriate factor. Note that the local luminance output from the low-pass filter 2A is also supplied to the edge information decoding and reconstruction processing unit 4.
  • the edge detection and encoding processing unit 3 includes a pre-processing unit 3A, an edge detection processing unit 3B, a post-processing unit 3C, and a contour encoding processing unit 3D.
  • the first preprocessor 3A is executed to reduce the influence of noise and texture information on the quality of the edge detection stage.
  • This stage may include a simpler one-pass filter as well as a more advanced spatial barrier filter that has a stronger effect in the textured area and a weaker or no effect in the edge.
  • Next Wejji detection processing section 3 B for the new method of image reconstruction from c Ejji detection and edge information is important step along with reconstruction of the Wejji image will be described later.
  • the new edge detection processing described later is used at this level.
  • all other existing processing methods for reconstructing images from edge information can also be used at this stage.
  • the post-processing unit 3C eliminates isolated or less relevant edges, and reconnects contours that have been separated from each other due to noise.
  • a threshold value is set for the degree of strength in accepting or rejecting the related edge information, and the bit rate of the edge information is controlled.
  • the position information of those edges is encoded together with their amplitudes in the contour encoding unit 3D and sent to the decoding side.
  • the amplitude of the edge is generally less important than the position of the edge.
  • the brightness of the image signal does not vary significantly with its edges. Therefore, the same amplitude is assigned to all pixels belonging to the same contour.
  • this amplitude is the average value of the amplitudes of all the pixels in the contour.
  • the position of the contour is coded using a chain coding algorithm.
  • the structure of the bitstream for encoding edge information is, as shown in Fig. 5, following the image height and image width, each contour is the average of all the pixels in that chain. It starts with the bits that define the amplitude, followed by the chain length.
  • the coordinates of the first pixel in the chain are given by the absolute values of the vertical and horizontal axes, and the subsequent pixels in the chain, as shown in Fig. 6, are relative to the immediately preceding pixel. It is sequentially encoded according to the position.
  • the white pixels in the figure are Indicates the pixel to be coded, and the black pixel indicates the pixel to be currently coded.
  • Bit ⁇ — Wn is used to indicate the coordinates of the new pixel relative to the previous pixel.
  • the structure for encoding the edge information is not completely dependent on the size of the image, so reducing or enlarging the edge coast is very simple when decoding the bitstream. It can be obtained by changing the coordinates. Reconstruction of the edge information also results in a sub-resolution dependent on the fractal coding technique.
  • texture information is extracted as follows. First, in the edge information decoding and reconstruction processing unit 4, the edge information element S4, which is encoded edge information, is decoded. Further, the edge information decoding and reconstruction processing unit 4 reconstructs a locally decoded image from the decoded edge information and the local luminance supplied from the low-pass filter 2A by using a spreading process. The details of the diffusion process are described in S. Carlson. Sketch basea coding of gray level images. Signal Processing, 15 (1): 57-83, 1988 and the like. The locally decoded image obtained here is similar to the input image S 1 to some extent.
  • a difference between the input image S1 and the locally decoded image is obtained by the subtraction processing unit 5, and this difference is used as texture information.
  • Representative texture areas in the image belong to this texture information, but undetected edges of less relevant contours can also be sent through this texture information.
  • Any conventional technique can be used for encoding the texture information in the texture information encoding unit 6.
  • the texture information encoded by the texture information encoding unit 6 is output as a texture information element S7. Since the perceptual importance of texture information is low, higher compression of texture information is possible.
  • the local luminance element S 2, edge information element S 4, and texture information element S 7 obtained in this way are identified by a multiplexing circuit (not shown), for example, for identifying each element for each frame.
  • the header is added and multiplexed, and transmitted, for example, as a bit stream as shown in FIG.
  • the details of the edge information element portion in FIG. 20 are as shown in FIG. 5 as described above.
  • the local luminance decoding and reconstruction processing unit 11 of the image signal decoding device 1Q includes a PCM decoding unit 11A, an upsampling unit 11B, and a low-pass filter 1 as shown in FIG. Consists of 1C.
  • the local luminance element S 2, the edge information element S 4, and the texture information element S 7 separated from the transmission bitstream by a separation circuit (not shown) are supplied to the image signal decoding apparatus 10.
  • the local luminance element S2 is decoded by the PCM decoding unit 11A and input to the upsampling unit 11B.
  • This processing of the upsampling unit 11B is equivalent to zooming the subsampled luminance information.
  • the zoom or upsampling factor is equal to the downsampling factor on the encoding side.
  • luminance signals of different resolutions can be converted by changing the characteristics of the low-pass filter 11C and the up-conversion parameter that is an up-sampling coefficient. Therefore, the luminance component is somewhat independent of the resolution of the original image.
  • the edge information decoding and reconstruction processing unit 12 is configured as shown in FIG. First, the edge element S4 is supplied to the contour decoding unit 12A, where the chain encoding is decomposed. Subsequently, the edge image reconstructing unit 12B restores the edge image S11 using the decoded edge information and the reconstructed local luminance S10. As described above, the reconstruction of the edge information depends on the edge information extraction technology. In this technique, a diffusion process is used similarly to the edge information decoding and reconstruction processing unit 4 on the encoding side, and an edge image is restored based on local luminance, contour position, and amplitude. This edge image corresponds to a locally decoded image on the decoding side.
  • the edge information can be decoded at a desired resolution by a simple coordinate change. Further, the texture information element S7 is supplied to the texture information decoding unit 13, where the decoding corresponding to the texture information encoding unit 6 is performed, and is output as decoded texture information S12. .
  • the edge image S 11 and the decoded texture information S 12 are 14 and thus a reconstructed image S 13 can be obtained.
  • the color image signal encoding apparatus 20 using 3 CCs is composed of the luminance 3 CC encoding apparatus 1 for the luminance signal and the color 3 CC encoding apparatus for the color signals described above. It is configured by combining 2 1. Since the correlation between the luminance signal S 1 and the chrominance signal S 20 is high, the edge position information of these signals is regarded as the same. Therefore, there is no need to send special chain coding information for the color signal S 20.
  • the amplitude of the color signal for each channel is calculated and sent to the image signal decoding device. Further, when the color signal is in a color image format having a lower resolution, the coordinate information is changed to decode the edge information S 21 of the luminance signal at the resolution of the color signal S 20.
  • FIGS. 21 and 22 show the processing of the image signal encoding apparatus 1 using such a 3CC, taking a representative image as an example.
  • the image signal S of the original image is
  • Fig. 22 shows the results of 3CC encoding, in which texture elements are encoded using the JPEG algorithm, in comparison with the results of encoding the entire image using the JPEG algorithm.
  • the image quality in the case of 3 C C is excellent around the contour area.
  • the reconstruction error is concentrated at the top of the contour region, where it remains invisible. The latter is a by-product of the processing that is noticeable in the case of the JPEG algorithm, which is more widespread, especially in the case of moving images.
  • the image signal is processed according to different visual importance levels, such as local luminance information composed of smooth elements, edge information composed of contour elements, and texture information composed of elements other than smooth elements and contour elements.
  • the local luminance information is encoded by an encoding method that saves all the information
  • the edge information is encoded by an encoding method using chain information and constant amplitude information
  • the texture information is encoded by the local luminance information and edge information.
  • edge information that expresses special points is a very important component in feature extraction and image understanding.
  • FIG. 10 shows a singularity detection process and a reconstruction process for decomposing a signal into its singularities and using only the singularities to obtain almost the same as the original signal.
  • the purpose of the first block in this figure is to detect singularities.
  • a first derivative or second derivative element is used for this edge detector.
  • the problem of edge detection has also been studied, and several edge detectors have been proposed.UFCanny.A computational approach to edge detection.IEEE Trans, on PAMI, 8 (6): 679-698, November 1986., D. Marr and EC Hildreth. Theory of edge detection.In Pro Roy. Soc. London B, volume 207, ages 187-217, 1980.) 0
  • the Canny and Marr-Hildreth edge detectors are the most common edge detectors using first derivative and second scatter, respectively. Most other edge detectors B are variations of these two types of edge detectors. However, these edge detectors are designed to optimize the detection problem based on the condition related to feature extraction only, without considering the problem of reconstructing signals from singular points. For example, assume various types of edges shown in FIGS. 11 (A), (B), (C), (D), and (E). By the way, in Fig. 1 I, sharp edges are used as edges. (Fig. 11 (A)), smooth edges (Fig. 11 (B)), very smooth edges (Fig. 11 (C)), high contrast (Fig. 11 (D)) However, a low contrast (Fig. 11 (E)) is assumed. In the conventional edge detection method, the positions of all these edges are detected as being the same. Thus, simple location information cannot adequately characterize these discontinuity features. In this embodiment, a new edge detection method for edge detection more suitable for signal reconstruction will be described.
  • the second block in FIG. 10 shows a reconstruction processing unit from a singular point.
  • singularity detection SGMallat and S. Zhong. Characterization of signals from multiscale edges. IEEE Trans, on PAMI, 14 (7): 710-732, 199 2 ⁇ , SGMallat and S. Zhong.Singularity detection and processing with wa velets.IEEE Trans, on Information Theory, 38 (2): 617-643, 1992.
  • S. Carlss on. Sketch based coding of gray level images.
  • Signal Processing, 15 (1): 57-83, 1988 the method proposed in S. Carlsson. Sketch based coding of gray level images.
  • Signal Processing, 15 (1): 57-83, 1988 that is, the singularity of signals using the diffusion process Use the method of signal reconstruction from a point. This method is very efficient in terms of computational complexity compared to other methods.
  • the edge points correspond to the local maximum value of the first derivative, as shown in Fig. 12 (B). As shown in, the edge point is located at the intersection of the second derivative.
  • the dominant point proposed in this embodiment can be used to define an outline of the signal around the discontinuity (for example, a simple linear interpolation). This is not possible in the case of a singular point detected by an edge detection device using.
  • FIG. 13 shows the configuration of the singularity detection device 30 of the present embodiment.
  • Figures 14 (A), (B), (C), (D), (E), and (F) show the case where this singularity detection technique is applied to the original signal consisting of step edges including noise. Show. In this figure, the step edge containing noise in the original signal (Fig. 14 (A)), the signal smoothed using a Gaussian low-pass filter (Fig. 14 (B)), the gradient function and the adaptive function are shown.
  • the threshold value (Fig. 14 (C)) the candidate point as a singular point (Fig.
  • Fig. 14 (D) shows the dominant point obtained by the algorithm of this embodiment
  • Fig. 14 (E) The reconstruction results after repeating the diffusion process 100 times using dominant points
  • the noise reduction processing unit 31 improves the detection quality based on the primary differentiation.
  • a Gaussian low-pass filter is used to reduce the influence of noise on the first-order differentiation processing in the first-order differentiation processing unit 32.
  • the strength of the one-pass filter depends on the amount of noise in the original data.
  • other noise reduction operators such as a median filter or a morphological filter, can also be used.
  • Fig. 14 ( ⁇ ) shows the result of this stage in which the smoothing was performed on the step edge of the original signal including the noise shown in Fig. 14 ( ⁇ ).
  • the force channel (0.250.5.0.25) is used as a one-pass filter.
  • the following primary differential processing section 32 is applied to the processing result of the noise reduction processing section 31 in the first stage. All kernels that approximate the first derivative can be used at this stage.
  • the procedure presented here uses a symmetric kernel (-1 0 +1) to avoid drift in detecting discontinuities. The results of these two steps correspond to gradient detection.
  • the threshold generation processing section 33 applies threshold processing.
  • the value of the threshold depends on the amount of noise present in the gradient and the local amplitude of the gradient. Therefore, the adaptive threshold method shown below is used to correctly select the threshold value based on the local behavior of the signal.
  • the threshold value depends on two parameters, that is, the noise present in the signal and the local amplitude of the gradient, as described above.
  • Equation (1) a (k) is the result of the average filter operation performed on the absolute value of the signal gradient, and the kernel at that time is (a - vessel, A + iaoa ⁇ - ⁇ , a fertiliz).
  • is the minimum threshold that depends on the amount of noise present in the data.
  • Figure 14 (C) shows the slope and the fitted threshold using equation (1). What is the value of w in this scenario?
  • the threshold is constant If it is set to 10), the positions of the feature points will no longer be accurate because all points in the sharp transition exceed this value.
  • FIG. 17 (D) shows an example of the result.
  • the redundant point elimination and replacement processing unit 36 uses the following simple procedure to reduce the number of points under the above-mentioned conditions, while reducing the number of dominant point detection products. Quality can be improved.
  • Candidate points generated as a result of change detection are inspected using a sliding window of size D. If there are at least two candidate points in the window, the amplitudes of each of these two candidate points in the original signal are compared. If the difference does not exceed the threshold T, both candidate points are removed and a new candidate point is created at an intermediate position between them.
  • the result of the dominant point detection is shown in Figure 17 (D).
  • FIG. 16 shows an example in which the above processing is viewed at the sample level.
  • the original signal is a signal as shown in FIG. 16 ( ⁇ )
  • the sample shown in the upper part of FIG. 16 ( ⁇ ) is extracted by the adaptive threshold processing unit 34 as a candidate point.
  • the sample shown in the upper part of FIG. 16 (C) is detected by the change detection processing unit 35 as a change point.
  • the redundant point removal and replacement processing unit 36 removes redundant points from the detected change points by replacement, and outputs the sample shown in the upper part of FIG. 16 (D) as a dominant point.
  • the sample of the original signal corresponding to the position of the dominant point obtained in this way is regarded as a singular point.
  • the contour encoding unit 3D in FIG. 4 the position information of this singular point and its amplitude are chained. Encoded.
  • Figure 18 (A), ( ⁇ ), (C), and (D) show signal reconstruction using Canny-style singularity detection applied to a step wedge containing noise as a comparison.
  • Step edges with noise Fig. 18 (A)
  • Gaussian lowpass filters Filter Fig. 18 (B)
  • the absolute value of the first derivative and the edge position as the maximum value Fig. 18 (C)
  • the diffusion process using the edge position This is the result of reconstruction after 100 repetitions (Fig. 18 (D)).
  • Fig. 18 (D) As a result of the reconstruction by this simulation, comparing Fig. 18 (D) and that shown in Fig. 14 (D), Fig. 14 (D) has a shape closer to the original signal.
  • this edge detection device far exceeds the conventional device.
  • FIG. 19 shows a 2-D edge detection device 40 that extends the above-described singularity detection and reconstruction to a 2-D signal. That is, the 2-D edge detection device 40 is configured by applying independent 1-D singularity detection procedures along two axes. Each sub-block in the 2-D edge detection device 40 has the same configuration as the singularity detection device described above with reference to FIG. Therefore, two singularity detection devices 41 and 42 are independently applied to the 2-D signal in both the horizontal and vertical directions. The output of each branch is a binary signal equal to 1 at the singular point. Therefore, the final result is obtained from the OR of the outputs of the two branches in the OR circuit 43.
  • Figure 23 shows the test images used in this simulation and the results of the 2-D version of the new technology described in the previous section.
  • the reconstructed image is obtained using a diffusion process. All parameter values are the same as the simulation parameter values in Fig. 14.
  • Fig. 24 shows the result of the reconstructed signal when the same simulation was executed twice using the Canny edge detector (with the same parameter values).
  • this edge detection technique far outperforms conventional Canny edge detectors in performance.
  • Fig. 23 shows the result of reconstructing the image from the extraordinary points obtained by the singularity detection device in the grayscale image, and the original image (Fig. 23 (A)) was obtained by the new edge detection device.
  • the singular point Fig.
  • Figure 24 shows the result of reconstructing the image from the singular points obtained by the Canny edge detection device in the grayscale image.
  • the original image (Fig. 24 (A)) and the result obtained by the Canny edge detection device are respectively shown.
  • an image signal is divided into local luminance information composed of smooth elements, edge information composed of contour elements, and elements other than the smooth elements and contour elements according to different visual importance.
  • the local luminance information is encoded by an encoding method that stores all of the information
  • the edge information is encoded by an encoding method using chain information and constant amplitude information.
  • Encoding and decoding are performed using an encoding method with a higher compression ratio than that of the information and edge information, so that the encoding is performed with a higher compression ratio than before and in consideration of the visual quality of the restored image.
  • the coded local luminance information is decoded to generate a reconstructed local luminance
  • the encoded edge information is decoded
  • an edge image is generated according to the reconstructed local luminance.
  • the decoded texture information is decoded, and the edge image and the decoded texture information are added to generate a reconstructed image, so that the encoded data can be reliably decoded in consideration of the visual image quality of the restored image.
  • an image signal decoding device that can be converted.
  • the image signal encoding method and apparatus and the image signal decoding method and apparatus of the present invention can be used for a TV telephone system, a TV conference system, and the like that require transmission at a relatively low bit rate.

Description

明 細 書 発明の名称
画像信号符号化方法及び装置並びに画像信号復号化装置 技術分野
本発明は画像信号符号化方法及び装置並びに画像信号復号化方法及び装置に関 し、 特に画像の視覚的重要度を考慮して画像信号を複数の成分に分解し、 それぞ れ符号化し復号化するものに適用し得る。 更に、 本発明は、 上記の分解の際に好 適なエッジ検出方法及び装置に関する。 技術背景
従来、 変換符号化は画像圧縮の分野において広く使用されている。 これらの技 術の成功は、 そのエネルギー圧縮特性とあいまって、 圧縮に起因する歪みが空間 領域では間接的に現れる、 つまり周波数領域の要素を介して現れるという事実に 存在する。 これは一般的により心地よい歪みをもたらす。 しかし、 例えばエッジ を含む領域における周波数領域歪みは、 リ ンギングのようなより好ましくない処 理の副産物を発生する。 この問題を軽減する解決方法は、 画像の異なる領域 (通 常、 正方形のブロックでなる) を分類し、 分類した各々に対して異なる量子化法 を適用することである。
上述した分類の基準は非常に重要であり、 通常各々の領域 (ブ αック) の変換 係数の A C値に基づくアクティ ビティの尺度が使用される。 この変換係数の A C 値のアクティビティに基づく分類は、 円滑な領域とより高い周波数成分を有する その他の領域とを区別する上で好ましい。 しかしこの方法は、 エッジを含む領域 と、 テクスチャのようなアクティ ビティを有する領域を分離する上では正しく動 作しない。
一般に周波数領域歪みはテクスチャ内には見えないが、 エツジが存在すると、 主にリ ンギングのためにはっき り見えるようになる。 従って良い分類というもの は、 より効率的な符号化方法を後続段階でそれぞれの分類結果に適用できるよう に、 エッジが含まれる領域とテクスチャ領域とを適切に分類できるものでなけれ ばならない。 この条件を満たすためには、 A C値に基づく より高度なァクテイ ビ ティ検出方法が考えられる。 ところがこのようなァクティ ビティ検出方法は、 効 率的な方式を求める場合は、 システムの複雑さが非常に高く なる問題があった。 発明の開示
本発明は以上の点を考慮してなされたもので、 従来に比較して高い圧縮率でか つ復元画像の視覚的画質を向上し得る画像信号符号化方法及び装置並びに画像信 号復号化方法及び装置を提案しょうとするものである。
かかる課題を解決するため本発明においては、 入力画像信号の円滑要素でなる 局所輝度成分を第 1 の符号化方法を用いて符号化し、 上記入力画像信号の輪郭要 素でなる輝度エツジ成分をチエイ ン符号化による第 2の符号化方法を用いて符号 化し、 上記入力画像信号の上記局所輝度成分及び上記輝度ヱッジ成分以外の成分 でなるテクスチャ成分を第 3の符号化方法を用いて符号化する。
また、 本発明においては、 入力画像信号の円滑要素でなる局所輝度成分を第 1 の符号化方法を用いて符号化して第 1 の符号化信号を生成する第 1 の符号化手段 と、 上記入力画像信号の輪郭要素でなる輝度エツジ成分をチエイ ン符号化による 第 2の符号化方法を用いて符号化して第 2の符号化信号を生成する第 2の符号化 手段と、 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ成分以外の成 分でなるテクスチャ成分を第 3の符号化方法を用いて符号化して第 3の符号化信 号を生成する第 3の符号化手段とを設けるようにした。
また、 本発明においては、 少なく とも輝度成分を含む入力画像信号の円滑要素 でなる局所輝度成分を第 1 の符号化方法を用いて符号化することにより生成され た第 1 の符号化信号と、 上記入力画像信号の輪郭要素でなる輝度エッジ成分をチ エイ ン符号化による第 2の符号化方法を用いて符号化することにより生成された 第 2の符号化信号と、 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ 成分以外の成分でなるテクスチャ成分を第 3の符号化方法を用いて符号化するこ とにより生成された第 3の符号化信号とを用いて画像信号を再構成する画像信号 復号化方法において、 上記第 1 の符号化信号を復号化して再構成局所輝度を生成 し、 上記第 2の符号化信号を復号化して再構成エッジを生成し、 上記再構成局所 輝度成分及び再構成エッジ成分に基づいて、 エッジ画像を再構成し、 上記第 3の 符号化信号を復号化して再構成テクスチャを生成し、 上記エツジ画像と上記再構 成テクスチャを加算して、 元の画像信号を再構成する。
また、 本発明においては、 少なく とも輝度成分を含む入力画像信号の円滑要素 でなる局所輝度成分を第 1 の符号化方法を用いて符号化することにより生成され た第 1 の符号化信号と、 上記入力画像信号の輪郭要素でなる輝度エツジ成分をチ エイ ン符号化による第 2の符号化方法を用いて符号化することにより生成された 第 2の符号化信号と、 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ 成分以外の成分でなるテクスチャ成分を第 3の符号化方法を用いて符号化するこ とにより生成された第 3の符号化信号とを用いて画像信号を再構成する画像信号 復号化装置において、 上記第 1 の符号化信号を復号化して再構成局所輝度を生成 する第 1 の復号化手段と、 上記第 2の符号化信号を復号化して再構成エッジを生 成する第 2の復号化手段と、 上記再構成局所輝度成分及び再構成エツジ成分に基 づいて、 エッジ画像を再構成する手段と、 上記第 3の符号化信号を復号化して再 構成テクスチャを生成する第 3の復号化手段と、 上記エツジ画像と上記再構成テ クスチヤを加算して、 元の画像信号を再構成する加算手段とを設けるようにした また、 本発明においては、 入力画像信号のエッジを検出するためのエッジ検出 方法において、 上記入力画像信号を微分する工程と、 上記微分する工程による微 分結果と適応的に制御される閾値とを比較して、 上記微分結果から上記閾値以上 の成分を取り出す工程と、 上記取り出された成分から変化点を検出する工程と、 上記変化点に基づいて特異点を決定する工程とを設けるようにした。
また、 本発明においては、 入力画像信号のエッジを検出するためのエッジ検出 装置において、 上記入力画像信号を微分する微分手段と、 上記微分手段による微 分結果と適応的に制御される閾値とを比較して、 上記微分結果から上記閾値以上 の成分を取り出す手段と、 上記取り出された成分から変化点を検出する手段と、 上記変化点に基づいて特異点を決定する手段とを設けるようにした。
画像信号を、 円滑要素でなる局所輝度情報と、 輪郭要素でなるエッジ情報と、 円滑要素及び輪郭要素以外の要素でなるテクスチャ情報に分解し、 それぞれ視覚 的重要度に応じて異なる符号化を行うようにしたことにより、 従来に比較して高 い圧縮率でかつ復元画像の視覚的画質を考慮して符号化し得る。 また、 上記のェ ッジ情報は、 再構成を考慮して検出される。
また符号化された局所輝度情報を復号化して再構成局所輝度を発生し、 符号化 されたエツジ情報を復号化して再構成エツジ情報を発生し、 これらの再構成局所 輝度及び再構成ェッジ情報に基づいて発生されたエツジ画像と復号化されたテク スチヤ情報を加算して、 元の画像を再構成するようにしたことにより、 復元画像 の視覚的画質を考慮した符号化データを確実に復号化し得る。 図面の簡単な説明
図 1 は本発明による画像信号符号化装置の一実施例を示すブ ック図である。 図 2は本発明による画像信号復号化装置の一実施例を示すブ nック図である。 図 3は図 1 の画像信号符号化装置における局所輝度発生及び符号化処理部を示 すブロック図である。
図 4は図 1 の画像信号符号化装置におけるエッジ情報検出及び符号化処理部を 示すプロック図である。
図 5は図 4のエツジ情報検出及び符号化処理部で符号化したエツジ情報要素の ビッ トス ト リーム構造を示す略線図である。
図 6は図 4のエツジ情報検出及び符号化処理部で符号化する際の画素のチエイ ン符号化情報の説明に供する略線図である。
図 7 は図 2の画像信号復号化装置における局所輝度復号化及び再構成処理部を 示すブ σック図である。
図 8は図 2の画像信号復号化装置におけるエツジ情報復号化及び再構成処理部 を示すプロック図である。
図 9は本発明による力ラー画像信号符号化装置の概略構成の説明に供するブ口 ック図である。
図 1 0はエッジ検出として特異点検出による再構成信号の説明に供するブ σッ ク図である。
図 1 1 (Α) 乃至 1 1 (Ε) はエッジ検出の際誤検出の原因となる不連続性が 同一のエツジの説明に供する略線図である。
図 1 2 (Α) 乃至 1 2 (D) はエッジ検出として代表的な不連続性に対する特 異点検出の動作の説明に供する信号波形図である。
図 1 3はエッジ検出装置として特異点検出装置の一実施例を示すブ口ック図で ある。
図 1 4 (Α) 乃至 1 4 (F) はノ イズを含むステップエッジでの特異点検出及 び再構成の動作の説明に供する信号波形図である。
図 1 5 (Α) 乃至 1 5 (D) は特異点検出のための適応スレショルドの重要性 の説明に供する信号波形図である。
図 1 6 (Α) 乃至 1 6 (D) は特異点検出のための変化検出及び冗長点の除去 及び置換の説明に供する信号波形図である。
図 1 7 ( Α) 乃至 1 7 (D) はノ イズを含むステップエッジでの特異点検出の 動作の説明に供する信号波形図である。
図 1 8 (Α) 乃至 1 8 (D) はノイズを含むステップエッジでの従来の Canny 方式による特異点検出及び再構成の動作の説明に供する信号波形図である。 図 I 9は特異点検出方法を適用した 2— Dエツジ検出装置の構成を示すブ πッ ク図である。
図 2 0は図 1 の画像信号符号化装置によって得られた伝送ビッ トス ト リ ームの —例を示す図である。 図 2 1 は、 3 C Cのシ ミ ュレー ショ ンを示す。 図 2 1 ( A) は、 原画像の画像 信号を示す。 図 2 1 (B) は、 再構成された局所輝度要素を示す。 図 2 1 (C ) は、 エッジ情報を示す。 図 2 1 (D) は、 後処理後のエッジ情報を示す。 図 2 1 (E) は、 再構成されたエッジ画像を示す。 図 2 1 ( F) は、 テクスチャ要素を 示す。
図 2 2は、 3 C Cと J P E Gとの比較を示す。 図 2 2 ( A) は、 3 C Cによる 復号化画像を示す。 図 2 2 (B) は、 J P E Gによる復号化画像を示す。 図 2 2 (C) は、 3 C Cによる復号化画像の肩の領域を拡大した画像を示す。 図 2 2 (
D) は、 J P E Gによる復号化画像の肩の領域を拡大した画像を示す。 図 2 2 (
E) は、 3 C Cによる復号化画像のエラー画像を示す。 図 2 2 ( F ) は、 J P E Gによる復号化画像のエラ一画像を示す。
図 2 3は実施例の特異点検出及び再構成を示す。 図 2 3 (A) は、 元の画像を 示す。 図 2 3 (B) は、 新しいエッジ検出装置によって得られた特異点を示す。 図 2 3 (C) は、 拡散プロセスを使用し 30回繰り返した後の特異点から再構成さ れたデータと、 元の画像に対する特異点のそれぞれの振幅である。
図 2 4は Canny エッジ検出による特異点検出及び再構成を示す。 図 2 4 (A) は、 元の画像を示す。 図 2 4 (B) は、 Canny エッジ検出装置によって得られた 特異点を示す。 図 2 4 (C) は、 拡散プ セスを使用し 30回繰り返した後の特異 点から再構成されたデータと、 元の画像に対する特異点のそれぞれの振幅である。 発明を実施するための最良の形態
以下図面について本発明の一実施例を詳述する。
( 1 ) 3要素符号化及び復号化方法の原理
この実施例では、 3要素符号化方法 (以下、 3 C C (3 Component Coding) と 呼ぶ) を用いて、 符号化する画像情報の視覚的関連性を考慮に入れてカラー画像 を圧縮する。 従って画像情報は 3つの異なる要素、 つま り円滑要素でなる局所輝 度、 輪郭でなるエッジ情報、 その他の要素でなるテクスチャ情報に分解される。 これらの要素の視覚的重要度は後者から前者に向かって大き く なるので、 各々の 要素において許容される歪は、 この視覚的重要度に応じて変化する。 さらにそれ らの異なる特性に応じて、 異なる符号化方法を各要素の符号化に適用する。
この 3 C Cは、 画像の領域を適切に分類する上で良い符号化方法だといえる。 この方法は計算上の複雑さにおいて非常に効率的であり、 係数の A C値に基づく 従来のァクティ ビティ検出方法にとってわかることが可能である。 この 3 Cじの 基本概念は、 単純で非常に一般的である (X. Ran and N. Farvard in. Low b i trate image coding us ing a three component image mode l . Techn i ca l Report TR 92 -75, Universi ty of Maryl and, 1992. )。
3 C Cの符号化方法では、 まず原画像を 3つの異なる要素、 つまり局所輝度、 エッジ情報、 テクスチャ情報に分解する。 これらの要素の各々を抽出する方法は、 いくつかあってそれぞれ異なる結果を発生する。 各々の要素を抽出するための方 法の他に、 特定の符号化方法及び異なる要素間で使用可能なビッ ト レー トが、 復 号化された画像の全体的品質に対して特に重要である。 例えばェッジの振幅はェ ッジの位置ほど重要ではない。 従って振幅情報を単純かつ粗く量子化しても、 視 覚的に心地よい画像を得る上では十分である。 他方エッジの位置情報は、 可能な 限り精密でなければならない。
また 3 C Cのもう一つの特長は、 より幅広いアプリケーション (ジエネ リ ック 符号化) において、 より適切に動作できることである。 例えば菲常に低いビッ ト レー トのアプリケーションでは、 テクスチャ情報ではなく エッジ情報を保存する ことにより、 より視覚的に心地よい画像を復元することができる。 なぜなら従来 の符号化方法と異なり、 輪郭の情報が深刻な影響を受けないからである。 さらに 局所輝度とエッジ情報の両方は、 高度な処理を必要とすることなく、 任意の解像 度で復号化できる。 従って、 多解像度を使用してテクスチャ情報を符号化した場 合、 多解像度符号化を容易に実現できる。 本実施例では、 上述の 3 C Cを更に改 良し、 簡単な構成で高効率の伝送を実現できる新たな 3 C Cを提案する。 ( 2 ) 新たな 3 C Cによる画像信号符号化装置及び画像信号復号化装置
図 1 において、 1 は全体として 3 C Cによる画像信号符号化装置を示し、 ここ では画像信号のうち輝度信号の符号化について述べる。 画像信号のうち色信号の 符号化は、 輝度信号の符号化と同様であるが、 わずかに相違している部分がある, この色信号の符号化を行う画像信号符号化装置については後述する。
この画像信号符号化装置 1 は、 局所輝度発生及び符号化処理部 2、 エッジ情報 検出及び符号化処理部 3、 ヱッジ情報復号化及び再構成処理部 4、 減算処理部 5 及びテクスチャ情報符号化処理部 6 より構成されている。 このうち入力される画 像信号の輝度信号 S 1 は、 ·局所輝度発生及び符号化処理部 2、 エッジ情報検出及 び符号化処理部 3及び減算処理部 5にそれぞれ入力される。
一方図 2において、 1 0は全体として 3 C Cによる画像信号復号化装置を示し、 3 C Cによって符号化された局所輝度要素 S 2、 エッジ情報要素 S 4及びテクス チヤ情報要素 S 7が、 それぞれ入力される局所輝度復号化及び再構成処理部 1 1、 エッジ情報復号化及び再構成処理部 1 2、 テクスチャ情報復号化処理部 1 3及び 加算処理部 1 4より構成されている。
ここで画像信号符号化装置 1 の局所輝度発生及び符号化処理部 2は、 図 3に示 すように、 ーパスフィルタ 2 A、 ダウンサンプリ ング部 2 B、 均等量子化部 2 C . P C M符号化部 2 Dより構成されている。 この局所輝度発生及び符号化処理 部 2においては、 局所輝度を得るためまず元の輝度信号 S 1 をガウス型の n—パ スフィルタ 2 Aでフィルタ リ ングし、 そしてダウンサンプリ ング部 2 Bで適当な 係数でダウンサンプリ ングする。 尚、 ローバスフィルタ 2 Aから出力された局所 輝度は、 エッジ情報復号化及び再構成処理部 4にも供給される。
この局所輝度は重要な要素なので、 均等量子化部 2 Cで結果として発生する係 数が均等に量子化され、 そして P C M符号化部 2 Dで Nビッ ト Z係数 (Nは一般 的には 8〜12ビッ ト) で符号化される。 この段階の結果は、 変換方法の符号化の D C値に対応する。 このようにして、 局所輝度発生及び符号化処理部 2において、 輝度信号 S 1 の局所輝度が符号化され、 局所輝度要素 S 2 として送出される。 ェ ッジ検出及び符号化処理部 3は、 図 4に示すように、 前処理部 3 A、 エッジ検出 処理部 3 B、 後処理部 3 C及び輪郭符号化処理部 3 Dより構成されている。 最初 の前処理部 3 Aは、 ェッジ検出段階の品質に対するノ ィズとテクスチャ情報の影 響を低減するために実行される。 この段階には、 テクスチャ領域においてより強 い効果を有し、 エツジにおいて弱い効果かあるいは効果を有しないより高度な空 間バリ アン トフィルタのみならず、 簡単な 一パスフィルタを含ませても良い。 次のヱッジ検出処理部 3 Bは、 ヱッジ画像の再構成と共に重要なステップである c ェッジ検出とエツジ情報からの画像再構成に関する新たな方法については、 後述 する。 後述する新たなエッジ検出処理は、 このレベルで使用される。 ただし、 ェ ッジ情報から画像を再構成するためのその他のすべての既存の処理方法も、 この 段階で使用できる。 さらに後処理部 3 Cでは、 孤立した又はより関連性の低いェ ッジを排除し、 そしてノィズのために互いに分離されてしまった輪郭を再び接続 する。 またこの後処理部 3 Cでは、 関連するヱッジ情報の受付け又は拒否におけ る強さの度合にしきい値を設け、 ェッジ情報のビッ ト レー トを制御する。
最も関連性の高いエツジが選択されると、 輪郭符号化部 3 Dにおいて、 それら のエツジの位置情報が、 それらの振幅と共に符号化されて復号化側に送られる。 人間の視覚特性からエツジの振幅は、 エツジの位置よりは一般的に重要ではない さらに画像信号の輝度は、 そのエッジと共に大き く変化しない。 従って同一の輪 郭に属する全ての画素に対して、 同一の振幅が割り当てられる。 ここでこの振幅 は、 輪郭内の全ての画素の振幅の平均値である。 輪郭の位置はチェイ ン符号化ァ ルゴリズムを使用して符号化される。 実際上エツジ情報を符号化するためのビッ トス ト リームの構造は、 図 5に示すように、 画像高及び画像幅に続いて、 各々の 輪郭が、 その 1 チエイ ン内の全ての画素の平均振幅を定義するビッ トで始まり、 チエイ ン長がこれに続く。
さらに各チエイ ンにおいて、 最初の画素のチエイ ン内の座標は縦軸及び横軸の 絶対値で与えられるが、 チエイ ン内の後続の画素は、 図 6に示すように、 直前の 画素に対する相対位置に従って順次符号化される。 なお図中で白い画素は、 直前 に符号化された画素を示し、 黒い画素は現在符号化すべき画素を示す。 ビッ トヮ — ド W nは、 前回の画素に対する新しい画素の座標を示すために使用される。 ェ ッジ情報を符^化する構造は、 画像のサイズに完全には依存しないので、 そのェ ッジ惰報の縮小あるいは拡大はビッ トス ト リ一ムを復号化するときに非常に簡単 な座標変更で得ることができる。 エッジ情報の再構成は、 同様にフラクタル符号 化技術に依存する準解像度となる。
局所輝度とエツジ情報で表現されないその他の情報は、 テクスチャ情報として 定義される。 具体的には、 テクスチャ情報は以下のようにして取り出される。 ま ずエツジ情報復号化及び再構成処理部 4において、 符号化されたエツジ情報であ るエッジ情報要素 S 4が復号化される。 更に、 エッジ情報復号化及び再構成処理 部 4は、 この復号化されたエッジ情報とローパスフィルタ 2 Aより供給された局 所輝度から、 拡散プロセスを用いて局所復号化画像を再構成する。 拡散プロセス の詳細については、 S. Car l sson. Sketch basea cod ing of grey l eve l images. S i gna l Process ing, 15 ( 1 ) : 57 - 83, 1988等に記載されている。 ここで得られた局所 復号化画像は、 入力画像 S 1 にある程度似通ったものとなる。 続いて、 減算処理 部 5によって、 入力画像 S 1 と局所復号化画像との差分がとられ、 この差分がテ クスチヤ情報となる。 画像内の代表的なテクスチャ領域はこのテクスチャ情報に 属するが、 より関連性の低い輪郭の未検出エツジもこのテクスチャ情報を通じて 送ることができる。 テクスチャ情報符号化部 6におけるテクスチャ情報の符号化 には、 どの従来技術も使用することができる。 テクスチャ情報符号化部 6におい て符号化されたテクスチャ情報は、 テクスチャ情報要素 S 7 として出力される。 テクスチャ情報の知覚的な重要度は低いので、 テクスチャ情報はより高い圧縮が 可能である。 多解像度データ構造を有する符号化方法を使用してテクスチャ情報 を符号化する場合、 局所輝度及びエツジ情報は実質的に解像度に非依存であると 言えるので、 3 C Cは多解像度の性格を持つようになる。 このようにして得られ た局所輝度要素 S 2、 エツジ情報要素 S 4、 テクスチャ情報要素 S 7は、 図示さ ぬ多重化回路によって、 例えば 1 フレーム毎にそれぞれの要素を識別するための へッダが付加されるとともに多重化され、 例えば、 図 2 0に示すようなビッ トス ト リームと して伝送される。 尚、 図 2 0中のエツジ情報要素部分の詳細は、 上述 したように図 5に示したものとなる。
次に、 画像信号復号化装置 1 Qの局所輝度復号化及び再構成処理部 1 1 は、 図 7に示すように P C M復号化部 1 1 A、 アップサンプリ ング部 1 1 B及びローバ スフィルタ 1 1 Cより構成されている。 この画像信号復号化装置 1 0には、 伝送 ビッ トス ト リームから図示せぬ分離回路によって、 分離された局所輝度要素 S 2 、 エッジ情報要素 S 4、 テクスチャ情報要素 S 7が供給される。 実際上局所輝度要 素 S 2は P C M復号化部 1 1 Aによって復号化され、 アップサンプリ ング部 1 1 Bに入力される。 このアップサンプリ ング部 1 1 Bの処理は、 サブサンプリ ング された輝度情報をズームすることに等しい。 ズーム係数すなわちアップサンプリ ング係数は、 符号化側におけるダウンサンプリ ング係数に等しい。 但し任意の解 像度の場合、 続く ローパスフィルタ 1 1 Cの特性やアップサンプリ ング係数でな るアップ変換パラメータを変更することにより、 異なる解像度の輝度信号に変換 できる。 従って輝度要素は原画像の解像度にある意味非依存である。
またエッジ情報復号化及び再構成処理部 1 2は、 図 8に示すように構成されて いる。 まず、 エッジ要素 S 4は、 輪郭復号化部 1 2 Aに供給され、 ここでチエイ ン符号化が解かれる。 続いて、 エッジ画像再構成部 1 2 Bでは、 復号化されたェ ッジ情報と再構成された局所輝度 S 1 0を用いてエッジ画像 S 1 1 を復元する。 上述したようにエッジ情報の再構成は、 エッジ情報抽出技術に依存する。 この技 術では、 符号化側のエツジ情報復号化及び再構成処理部 4 と同様に拡散プ Dセス が使用され、 局所輝度、 輪郭位置及び振幅によりエッジ画像が復元される。 この エッジ画像は、 復号化側の局所復号化画像に相当する。 局所輝度情報と同様に、 エッジ情報は簡単な座標変更により、 所望の解像度で復号化できる。 また、 テク スチヤ情報要素 S 7は、 テクスチヤ情報復号化部 1 3に供給され、 ここでテクス チヤ情報符号部 6に対応する復号化が行われ、 復号化テクスチャ情報 S 1 2 とし て出力される。 エツジ画像 S 1 1 と復号化テクスチャ情報 S 1 2は、 加算処理部 1 4において加算され、 かく して再構成画像 S 1 3を得ることができる。
ここで上述の 3 C Cによる画像信号の符号化及び復号化は、 輝度信号について 述べたが、 色信号の処理は次の点を除いて輝度信号の場合と同じである。 すなわ ち、 図 9に示すように、 3 C Cによるカラ一画像信号符号化装置 2 0は、 上述し た輝度信号についての輝度 3 C C符号化装置 1 と色信号についての色 3 C C符号 化装置 2 1 を組み合わせて構成されている。 輝度信号 S 1 と色信号 S 2 0 との間 の相関関係は高いので、 これらの信号のエツジ位置情報は同一とみなされる。 従って色信号 S 2 0に関して、 特別なチエイ ン符号化情報を送る必要はない。 但し各々のチユイ ンに対する色信号の振幅は計算されて画像信号復号化装置に送 られる。 さらに色信号がより低い解像度を有するカラー画像形式の場合、 座標変 更が行われて輝度信号のエッジ情報 S 2 1 を、 色信号 S 2 0の解像度で復号化す るようになされている。
このような 3 C Cによる画像信号符号化装置 1 の処理を、 代表的な画像を例に して図 2 1及び図 2 2に示す。 図 2 1 においては、 それぞれ原画像の画像信号 S
1 (図 2 1 (A) ) 、 再構成された局所輝度要素 S 2 (図 2 1 (B) ) 、 エッジ 情報 (図 2 1 (C) ) 、 後処理後のエツジ情報 S 4 (図 2 1 (D) ) 、 再構成さ れたエツジ画像 S 5 (図 2 1 (E) ) 、 そしてテクスチヤ要素 S 7 (図 2 1 ( F ) ) を示す。 なお画像中、 白は高エネルギー部分を示し、 黒は低エネルギー部分 を示す。
また図 2 2は、 テクスチャ要素については J P E Gァルゴリズ厶を使用して符 号化する 3 C Cの符号化結果を、 画像全体を J P E Gアルゴリズムで符号化した 符号化結果と比較して示す。 これらのシユ ミ レーシヨンは、 同じ 12 : 1 の圧縮率 で同一の画像に対して試験した。 図 2 2においては、 それぞれ 3 C Cによる復号 化画像 (図 2 2 (A) ) 、 J P E Gによる復号化画像 (図 2 2 (B) ) 、 3 C C による復号化画像の肩の領域を拡大した画像 (図 2 2 (C) ) 、 J P E Gによる 復号化画像の肩の領域を拡大した画像 (図 2 2 (D) ) 、 3 C Cによる復号化画 像のエラー画像 (図 2 2 (E) ) 、 J P E Gによる復号化画像のエラー画像 (図 2 2 ( F ) ) を示す。 なお画像中、 白は高エネルギー部分を示し、 黒は低ェネル ギ一部分を示す。
実験における画像内の肩の拡大部分に示されているように、 3 C Cの場合にお ける画像の品質は、 輪郭領域の周囲において優れている。 これら両技術における 再構成の誤差のエネルギーを観察すると、 再構成の誤差は輪郭領域の上端に集中 し、 そこで目にみえない状態に留まる。 後者は J P E Gアルゴリズムの場合、 よ り広がり特に動画像の場合、 目につく処理の副産物となる。
以上の構成によれば、 画像信号をそれぞれ異なる視覚的重要度に応じて、 円滑 要素でなる局所輝度情報と、 輪郭要素でなるエッジ情報と、 円滑要素及び輪郭要 素以外の要素でなるテクスチャ情報に分解し、 局所輝度情報について当該情報を 全て保存する符号化方法で符号化すると共に、 エツジ情報について連鎖情報と定 振幅情報による符号化方法で符号化し、 テクスチャ情報について局所輝度情報及 びエツジ情報に比較して高い圧縮率の符号化方法で符号化するようにしたことに より、 従来に比較して高い圧縮率でかつ復元画像の視覚的画質を向上し得る。
( 3 ) エツジ検出処理
ここでエツジ検出及び符号化処理部 3における画像信号からのエツジ検出の処 理方法及びそのエツジ情報からの画像再構成方法について述べる。 画像信号等の 信号の不連続性は、 自然信号と合成信号の非常に重要な特徴であり、 そしてこれ らの信号によって運ばれる情報の重要な部分は、 これらの信号の特異点に存在す る。 信号の特異点から信号を表現する方法に関しては、 いくつかの試みが報告さ れている。
特にゼロ交差又は最大値すなわちエツジ検出による信号表現に関しては、 詳細 な研究力く行われている (R. Humme l and R. Moniot. Reconstruct ions f rom zero c ross ings in sca le space. IEEE Trans, on ASSP, 37 (12): 2111-2130, 1989. 、 S. G. a i l at. Zero-cross ings of a wave let transform. IEEE Trans, on Inf ormat ion Theory, 37 (4) : 1019- 1033, 1991·、 S. G. Mal l at and S. Zhong. Character izat i 95/29462 on of signals from multiscale edges. IEEE Trans, on PAMI, 14(7) :710-732, 1 992.、 S. G. Mai lat and S. Zhong. Singularity detection and processing with wavelets. IEEE Trans, on Information Theory, 38 (2): 617-643, 1992. ) 0
画像の場合、 人間の視覚系の研究により、 特徴抽出と画像理解においては、 特 異点を表現するエツジ情報が非常に重要な構成要素であることが分かっている。
(D.Marr. Vision. W. H. Freeman and Company, ew York, 1983.、 M. Kunt, A. Ikono mopoulos, and M. Kocher. Second generation image coding techniques. Proce e clings of the IEEE, 73 (4): 549-575, April 1985.、 M. Kunt, M. Bernard, and R. Le onardi. Recent results in hi h compression image coding. IEEE Trans, on C ircuits and Systems, 34 (11): 1306-1336, November 1987.)。 さらに信号の特異点 から信号を再構成することは、 例えば画像信号の符号化ゃコ ンビュ一タビジョン、 さらには信号解析等の応用分野で非常に有用である。
図 1 0は信号をその特異点に分解して、 そして特異点だけを使用して元の信号 とほぼ同じものを得るための特異点検出処理及び再構成処理を示す。 この図の最 初のブロックの目的は、 特異点の検出である。 一般的には、 1次微分又は 2次微 分要素がこのエツジ検出装置のために使用される。 エツジ検出の問題点も研究さ れており、 いくつかのエッジ検出装置が提案されている U.F.Canny.A computat ional approach to edge detection. IEEE Trans, on PAMI, 8 (6) :679-698, Novem ber 1986. 、 D.Marr and E. C. Hi ldreth. Theory of edge detection. In Pro Roy. Soc. London B, volume 207, ages 187-217, 1980. ) 0
Canny 及び Marr- Hi ldreth のエッジ検出装置は、 それぞれ 1次微分及び 2次撒 分を使用した最も一般的なエツジ検出装置である。 その他の大部分のエツジ検出 装 Bは、 これらの 2種類のエッジ検出装置を変化させたものである。 しかしこれ らのエツジ検出装置は、 特異点から信号を再構成する問題を考慮することなく、 特徴抽出だけに関する条件に基づく検出問題を最適化するように設計されている。 例えば、 図 1 1 (A) , (B) , (C) , (D) , (E) に示されているさま ざまな種類のエッジを想定する。 因に図 1 I においては、 エッジとして鋭いエツ ジ (図 1 1 (A) ) 、 滑らかなエッジ (図 1 1 (B) ) 、 非常に滑らかなエッジ (図 1 1 (C) ) 、 高いコ ン ト ラス ト (図 1 1 (D) ) 、 低いコ ン ト ラス ト (図 1 1 (E) ) を想定している。 従来のエッジ検出方法では、 これらの全てのエツ ジの位置が同じものとして検出される。 従って単純な位置情報では、 これらの不 連続性の特徴を十分に特徴づけることはできない。 本実施例では、 信号再構成に より適したエツジ検出のための新たなエツジ検出方法を示す。
また図 1 0の 2番目のブロックは特異点からの再構成処理部を示す。 この再構 成に関しては、 いくつかのアプローチが提案されているが、 それぞれ特異点検出 に使用される方法に依存している (S.G.Mallat and S. Zhong. Characterization of signals from multiscale edges. IEEE Trans, on PAMI, 14(7) :710-732, 199 2·、 S.G.Mallat and S. Zhong. Singularity detection and processing with wa velets. IEEE Trans, on Information Theory, 38 (2): 617-643, 1992. 、 S. Carlss on. Sketch based coding of grey level images. Signal Processing, 15 (1) :57 - 83, 1988·)。 本実施例では、 S. Car lsson. Sketch based coding of grey level images. Signal Processing, 15 (1) : 57- 83, 1988で提案されている方法、 つまり拡 散プ nセスを使用した信号の特異点から信号の再構成を行う方法を使用する。 こ の方法は、 他の方法に比較して計算の複雑さにおいて非常に効率的である。
ここでは、 新しいエッジ検出方法の主要部分の概要を説明する。 説明を簡単に するため 1次元信号 ( 1ー0信号) の場合に限定する。 しかしこの理由は η > 1 の n次元信号 (n— D信号) の場合に一般化することができる。 次のセク ショ ン において、 2次元信号 ( 2— D信号) の場合の例を示してより一層明確にする。 このエッジ検出方法をより良く説明するため、 図 1 2 (A) 、 (B) 、 (C) 、 (D) を用いて代表的な不連続性を有する信号であるノィズを含むステップエツ ジに適用した手順の結果を、 各段階の終了時に示す。 尚、 図は、 原信号 (図 1 2 (A) ) 、 1次微分の絶対値信号 (図 1 2 (B) ) 、 2次微分の信号 (図 1 2 ( C) ) 、 本実施例のド ミ ナン トポイ ン トを示す信号 (図 1 2 (D) ) をそれぞれ 示す。 上述したように、 この技術の最終目標は、 信号再構成の見地から、 信号内の際 立つ点 (本実施例ではこの点を ド ミ ナン ト ポイ ン ト と呼ぶ) を検出して、 その特 異性をできるだけ精密に特徴化することである。 1次微分に基づく方法の場合、 図 1 2 (B) に示すように、 エッジ点は 1次微分の局所最大値に対応するが、 2 次微分にに基づく方法では、 図 1 2 (C) に示すように、 エッジ点は 2次微分の ゼ口交差点に位置する。
これらの方法は不連続性の位置を正しく検出することができるが、 鋭さの程度 など、 不連続性の性質を完全に記述することはできない。 この目的のためには、 図 1 2 (D) に示されているような、 その他の点 (すなわち ドミ ナン トポイ ン ト ) がより適切であろう。 本実施例で提案する ドミナン トポイ ン トは、 不連続性の 周辺の信号 (例えば、 単純な直線補間) の概略を定義するために使用できるが、 これは、 従来の 1次微分や 2次微分を用いたエツジ検出装置で検出された特異点 の場合は不可能である。
図 1 3は、 本実施例の特異点検出装置 3 0の構成を示し、 ノ イズ低減処理部 3 1、 1次微分処理部 3 2、 スレショルド発生処理部 3 3、 適応スレショルド処理 部 3 4、 変化検出処理部 3 5、 冗長点除去及び置換処理部 3 6より構成されてい る。 なお図 1 4 (A) 、 (B) 、 (C) 、 (D) 、 (E) 、 (F) は、 この特異 点検出技術を、 ノィズを含むステップエツジでなる原信号に適用した場合を示す。 この図では、 それぞれ原信号中でノ イズを含むステップエッジ (図 1 4 (A) ) 、 ガウス型ローパスフィルタを使用して平滑化された信号 (図 1 4 (B) ) 、 勾配 関数と適応スレショルドの値 (図 1 4 (C) ) 、 特異点としての候補点 (図 1 4 (D) ) 、 本実施例のアルゴリ ズムによって得られた ドミ ナン トポイ ン ト (図 1 4 (E) ) 、 ドミ ナン トポイ ン トを使用して拡散プロセスを 100 回繰り返した後 の再構成結果 (図 1 4 (F) ) を示す。 実際上ノイズ低減処理部 3 1 は、 1次微 分に基づく検出品質を改善する。 ここでは 1次微分処理部 3 2における 1次微分 処理に対するノィズの影響を減らすため、 ガウス型ローパスフィルタを使用して いる。 なお 一パスフィルタの強さの程度は、 元のデータに存在するノ ィズの量に依 存する。 この段階では、 例えば中央値フィルタや形態素フィルタ等の他のノ イズ 低減作用素も使用できる。 ここで図 1 4 ( Β ) には、 図 1 4 ( Α ) に示されてい るノ ィズを含む原信号のステップヱッジに対して、 平滑化が実行されたこの段階 の結果を示す。 この例では力一ネル ( 0. 25 0. 5 0. 25) が 一パスフィルタ と し て使用されている。
続く 1次微分処理部 3 2は、 第 1段階のノィズ低減処理部 3 1 の処理結果に適 用される。 1次微分に近似する全てのカーネルを、 この段階で使用することがで きる。 こ こに示す手順では、 不連続性の位置検出のドリ フ トを回避するため、 対 称的なカーネル (-1 0 +1 ) を使用している。 これらの 2つの段階の結果は、 勾 配検出に相当する。
ノイズから優位点を正確に抽出するため、 ス レショル ド発生処理部 3 3におい て、 ス レショル ドの処理が適用される。 ス レショル ドの値は、 勾配内に存在する ノィズの量や勾配の局所振幅に依存する。 従って以下に示すような適応ス レショ ル ド法を使用して、 信号の局所挙動に基づいて、 ス レショル ドの値を正しく選択 する。 また適応ス レショル ド処理部 3 4において、 上述したようにス レショル ド の値は、 2つのバラメータ、 つま り信号に存在するノ イズと勾配の局所振幅とに 依存する。
実際上各点において、 次式
Θ ( k ) = m a X ( a ( k ) , ε ) ( 1 ) を用いてスレショルドの値が決定される。 ここで、 作用素 m a x ( , ) は、 次 式
Figure imgf000019_0001
…… ( 2 ) で定義される最大作用素である。 なお ( 1 ) 式で a ( k ) は信号の勾配の絶対値 に対して実行された平均フィ ルタ動作の結果であり、 その時のカーネルは、 ( a -„, a +i a o a κ-ι , a„ ) である。 また ε はデータに存在するノ ィ ズの量に依存するスレショルドの最小値である。 図 1 4 (C ) は、 ( 1 ) 式を使 用した勾配と適合ス レショル ドを示す。 このシユミ レ一シヨ ンにおける wの値は.
8に等しく なるように選択され、 そしてカーネル内の係数のすべては 1 / (2w +
1 ) に当てはめられる。 このシユミ レ一シヨンにおいては εの値は 1 0に等しい c ここで、 図 1 5 (A) 、 (Β) 、 (C) 、 (D) を用いて鋭いそして局所化さ れた遷移を特徴化する上で、 適合スレショルド法の重要性を指摘する。 この図で は、 それぞれ原信号 (図 1 5 (Α) ) 、 勾配と適応スレショル ド (図 1 5 (Β) ) 、 変化点 (図 1 5 ( C) ) 、 冗長点の除去及び置換後のド ミ ナン トポイ ン ト ( 図 1 5 (D) ) を示す。 一定のスレショルドを選択したとき、 高いスレショルド の場合 (例えば、 図 1 5 (Β) においてスレショルドをコ ンスタ ン ト に 4 0に設 定した場合) は、 信号を特徴化するための重要な点のいくつかは検出されてない 力 (つまり遷移の最大点は、 4 0 より小さい値となるため検出されない) 、 小さ すぎるスレショルドの場合 (例えば、 図 1 5 (Β) においてスレショルドをコ ン スタン トに 1 0に設定した場合) 、 鋭い遷移部分のすべての点がこの値を越えて しまうため特徴点の位置はもはや正確なものではなく なつてしまう。
本実施例における ドミナン トポイ ン トの検出においては、 スレショルド以上の 勾配値を持つ全てのサンブルが、 不連続性を特徴化するための候補として考慮さ れる。 これらの点はデータ内の不連続性を特徴化できるが、 そこにはいまだある 程度の冗長度が存在する。 以下に示す処理の目標は、 十分に良好な近似を用いれ ば不連続性を特徴化することができると考えられるサンプルをドミナン トポイ ン トとして抽出することである。 その他のすべての候補は廃棄される。 この段階は 変化検出処理部 3 5及び冗長点除去及び置換処理部 3 6に分けられる。 尚、 図 1
7 (A) 、 (B) 、 (C) 、 (D) は原信号にノ イズを含むステップエッジに適 用された特異点検出の動作を示し、 それぞれ原信号 (図 1 7 (A) ) 、 候補点 ( 図 1 7 (B) ) 、 変化検出の結果 (図 1 7 (C) ) 、 冗長点の除去及び置換結果
(図 1 7 (D) ) である。 まず変化検出処理部 3 5においては、 図 1 7 ( B ) に示すような候補点に対し. ある候補点の近傍に候補点が存在する場合、 その候補点は変化点ではないと判断 し、 その候補点が除去される。 この状態において、 鋭い不連続性は 2つの連続し たステップエッジとして検出される。 図 1 7 ( C ) はその結果の例を示す。 次に 冗長点除去及び置換処理部 3 6では、 下記の簡単な手順を使用することにより、 上記のような条件のもとで点の数を減らす一方で、 ド ミ ナン トポイ ン ト検出の品 質を改善することができる。
変更検出の結果発生する候補点は、 サイズ Dのスライディ ングウイ ンドウを使 用して検査される。 ウィ ン ドウの中に少なく とも 2つの候補点が存在すれば、 元 の信号におけるこれら 2つの候補点それぞれの振幅が比較される。 その差がある スレショルド Tを超えない場合、 両方の候補点が除去され、 それらの中間位置に 新しい候補点が作成される。 ド ミ ナン トポイ ン トの検出の結果が図 1 7 ( D ) に 示されている。 この例でのスレショルド値は、 T = 10が選択されており、 スライ ディ ングウイ ンドウのサイズは D = 4である。
図 1 6は、 上述した処理をサンプルレベルでみた場合の例を示している。 原信 号が図 1 6 ( Α ) に示すような信号である場合、 適応スレショルド処理部 3 4 に よって、 図 1 6 ( Β ) の上部に示すサンプルが候補点として抽出される。 次に変 化検出処理部 3 5によって、 図 1 6 ( C ) の上部に示すサンプルが変化点として 検出される。 次に冗長点除去及び置換処理部 3 6は、 検出された変化点から置換 によって冗長点を除去し、 図 1 6 ( D ) の上部に示すサンプルをド ミ ナン トボイ ン トとして出力する。 このようにして得られた ドミナン トポイ ン トの位置に対応 する原信号のサンプルが特異点とされ、 図 4の輪郭符号化部 3 Dでは、 この特異 点の位置情報と、 その振幅がチェイ ン符号化される。
ここでこのエッジ検出装置の性能と従来のエツジ検出装置の性能を比較する。 図 1 8 ( A ) 、 (Β ) 、 (C ) 、 (D ) は、 比較としてノ イズを含むステップェ ッジに適用された、 Canny 方式による特異点検出を使用した信号の再構成を示し、 それぞれノ イズを含むステップエッジ (図 1 8 ( A ) ) 、 ガウス型ロ ーパスフィ ルタを使用した平滑化信号 (図 1 8 ( B ) ) 、 1次微分の絶対値とその最大値と してエッジ位置 (図 1 8 ( C ) ) 、 そのエッジ位置を使用した拡散プ セスによ る 100 回繰り返した後の再構成の結果 (図 1 8 ( D ) ) である。 このシユミ レー シヨンによる再構成の結果図 1 8 ( D ) と図 1 4 ( D ) に示されているそれとを 比較すると、 図 1 4 ( D ) の方が原信号に近い形状をしており、 不連続性から信 号を再構成する観点からは、 このエツジ検出装置が従来の装置をはるかに陵駕し ていることがわかる。
ここで図 1 9において、 上述した特異点検出及び再構成を 2— D信号に拡張し た 2 — Dエツジ検出装蘆 4 0を示す。 すなわちこの 2— Dエツジ検出装置 4 0で は、 2つの軸に沿ってそれぞれ独立した 1 — D特異点検出手順を適用することに よって構成されている。 この 2— Dエッジ検出装置 4 0で各々の副ブロックは、 図 1 3 について上述した特異点検出装置と同じ構成である。 従って 2つの特異点 検出装置 4 1、 4 2が、 水平と垂直の両方向において独立して 2— D信号に適用 されている。 各々の分岐の出力は特異点において 1 に等しい 2値信号である。 従 つて最終結果は、 オア回路 4 3で 2つの分岐の出力の論理和より得る。
図 2 3は、 本シュミ レ一ションに使用された試験画像と、 前セク ションで説明 した新技術の 2— D版の結果を示す。 再構成された画像は拡散ブ nセスを使用し て得る。 全てのパラメータの値は、 図 1 4のシユミ レーションのパラメータの値 と同一である。 比較のため、 同一のシユミ レーシヨンが、 Canny エッジ検出装置 を使用して 2回実行した (パラメータの値は同一) 、 再構成された信号の結果を 図 2 4に示す。 同図からわかるように、 信号再構成の観点からは、 このヱッジ検 出技術は、 性能において従来の Canny エッジ検出装置をはるかに上回っている。 なお図 2 3はグレースケール画像における特異点検出装置によって得られた特 異点から画像を再構成した結果を示し、 それぞれ元の画像 (図 2 3 ( A ) ) 、 新 しいエッジ検出装置によって得られた特異点 (図 2 3 ( B ) ) 、 拡散プロセスを 使用し 30回繰り返した後の特異点から再構成されたデータと、 元の画像に対する 特異点のそれぞれの振幅 (図 2 3 ( C ) ) である。 また図 2 4はグレースケール画像における C anny エッジ検出装置によって得ら れた特異点から画像を再構成した結果を示し、 それぞれ元の画像 (図 2 4 ( A ) ) 、 Canny エッジ検出装置によって得られた特異点 (図 2 4 ( B ) ) 、 拡散プ n セスを使用し 30回繰り返した後の特異点から再構成されたデータ と、 元の画像に 対する特異点のそれぞれの振幅 (図 2 4 ( C ) ) である。
上述のように本発明によれば、 画像信号をそれぞれ異なる視覚的重要度に応じ て、 円滑要素でなる局所輝度情報と、 輪郭要素でなるエッジ情報と、 円滑要素及 び輪郭要素以外の要素でなるテクスチャ情報に分解し、 局所輝度情報について当 該情報を全て保存する符号化方法で符号化すると共に、 エツジ情報について連鎖 情報と定振幅情報による符号化方法で符号化し、 テクスチャ情報について局所輝 度情報及びエッジ情報に比較して高い圧縮率の符号化方法で符号化し、 復号化す るようにしたことにより、 従来に比較して高い圧縮率でかつ復元画像の視覚的画 質を考慮して符号化し得る画像信号符号化方法及び装置を実現できる。
また符号化された局所輝度情報を復号化して再構成した再構成局所輝度を発生 し、 符号化されたエツジ情報を復号化すると共に再構成局所輝度に応じてエツジ 画像を発生し、 符号化されたテクスチャ情報を復号化し、 エッジ画像と復号化さ れたテクスチヤ情報を加算して、 再構成画像を発生するようにしたことにより、 復元画像の視覚的画質を考慮した符号化データを確実に復号化し得る画像信号復 号化装置を実現できる。 産業上の利用可能性
本発明の画像信号符号化方法及び装置並びに画像信号復号化方法並びに装置は、 比較的低ビッ ト レ一 トでの伝送が要求される T V電話システムや、 T V会議シス テム等に利用できる。

Claims

請 求 の 範 囲
1 . 少なく とも輝度成分を含む入力画像信号を符号化する画像信号符号化方法 において、
入力画像信号の円滑要素でなる局所輝度成分を第 1 の符号化方法を用いて符号 化して第 1 の符号化信号を生成し、
上記入力画像信号の輪郭要素でなる輝度エツジ成分をチエイ ン符号化による第
2の符号化方法を用いて符号化して第 2の符号化信号を生成し、
上記入力画像信号の上記局所輝度成分及び上記輝度エツジ成分以外の成分でな るテクスチャ成分を第 3の符号化方法を用いて符号化して第 3の符号化信号を生 成する
ことを特徴とする画像信号符号化方法。
2 . 上記テクスチャ成分は、 上記入力画像信号と、 上記局所輝度成分及び上記 第 2の符号化信号を復号化した信号に基づいて生成された局所復号化画像との差 分でなる
ことを特徴とする請求の範囲第 1項に記載の画像信号符号化方法。
3 . 上記第 1 の符号化方法は、
上記入力画像信号をロ ーパスフィルタを用いて平滑化する工程と、
上記平滑化された信号をダウンサンプリ ングする工程と、
上記ダウンサンプリ ングされた信号を量子化する工程と、
上記量子化された信号を P C M符号化する工程と
を含むこと特徴とする請求の範囲第 1項に記載の画像信号符号化方法。
4 . 上記入力画像信号は色差成分を含み、 上記輝度エッジ成分のエッジ情報に基 づいて、 上記色差成分を符号化する
ことを特徴とする請求の範囲第 1項に記載の画像信号符号化方法。
5 . 上記第 2の符号化信号の単一のチエイ ン内の振幅情報は単一の振幅で表さ れる ことを特徴とする請求の範囲第】 項に記載の画像信号符号化方法。
6 . 上記第 3の符号化方法の圧縮率は、 上記第 1 の符号化方法より高い ことを特徴とする請求の範囲第 1項に記載の画像信号符号化方法。
7 . 上記第 2の符号化方法は、
上記入力画像信号を微分する工程と、
上記微分する工程による微分結果と適応的に制御される閾値とを比較して、 上 記微分結果から上記闞値以上の成分を取り出す工程と、
上記取り出された成分から変化点を検出する工程と、
上記変化点に基づいて特異点を決定する工程と
を含み、
上記チェィ ン符号化は、 上記特異点に対して行われる
ことを特徴とする請求の範囲第 1項に記載の画像信号符号化方法。
8 . 上記特異点を決定する工程は、 上記変化点のうちの冗長な点を新たな点に 置き換える工程を含む
ことを特徴とする請求の範囲第 7項に記載の画像信号符号化方法。
9 . 少なく とも輝度成分を含む入力画像信号を符号化する画像信号符号化装置 において、
入力画像信号の円滑要素でなる局所輝度成分を第 1 の符号化方法を用いて符号 化して第 1 の符号化信号を生成する第 1 の符号化手段と、
上記入力画像信号の輪郭要素でなる輝度エツジ成分をチエイ ン符号化による第 2の符号化方法を用いて符号化して第 2の符号化信号を生成する第 2の符号化手 段と、
上記入力画像信号の上記局所輝度成分及び上記輝度ヱッジ成分以外の成分でな るテクスチャ成分を第 3の符号化方法を用いて符号化して第 3の符号化信号を生 成する第 3の符号化手段と
を有することを特徴とする画像信号符号化装置。
1 0 . 上記テクスチャ成分は、 上記入力画像信号と、 上記局所輝度成分及び上 記第 2の符号化信号を復号化した信号に基づいて生成された局所復号化画像との 差分でなる
ことを特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 1 . 上記第 1 の符号化手段は、
上記入力画像信号を平滑化する ーパスフィルタと、
上記平滑化された信号をダウンサンプリ ングする手段と、
上記ダウンサンプリ ングされた信号を量子化する手段と、
上記量子化された信号を P C M符号化する手段と
を含むこと特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 2 . 上記入力画像信号は色差成分を含み、 上記輝度エッジ成分のエッジ情報 に基づいて、 上記色差成分を符号化する手段を
有することを特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 3 . 上記第 2の符号化信号の単一のチェイ ン内の振幅情報は単一の振幅で表 される
ことを特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 . 上記第 3の符号化方法の圧縮率は、 上記第 1 の符号化方法より高い ことを特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 5 . 上記第 2の符号化手段は、
上記入力画像信号を微分する微分手段と、
上記微分手段による微分結果と適応的に制御される閾値とを比較して、 上記微 分結果から上記閾値以上の成分を取り出す手段と、
上記取り出された成分から変化点を検出する手段と、
上記変化点に基づいて特異点を決定する手段と
を含み、
上記チェイ ン符号化は、 上記特異点に対して行われる
ことを特徴とする請求の範囲第 9項に記載の画像信号符号化装置。
1 6 . 上記特異点を決定する手段は、 上記変化点のうちの冗長な点を新たな点 に置き換える
ことを特徴とする請求の範囲第 1 5項に記載の画像信号符号化装置。
1 7 . 少なく とも輝度成分を含む入力画像信号の円滑要素でなる局所輝度成分 を第 1 の符号化方法を用いて符号化することにより生成された第 1 の符号化信号 と、 上記入力画像信号の輪郭要素でなる輝度エッジ成分をチ イ ン符号化による 第 2の符号化方法を用いて符号化することにより生成された第 2の符号化信号と- 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ成分以外の成分でなる テクスチャ成分を第 3の符号化方法を用いて符号化することにより生成された第 3の符号化信号とを用いて画像信号を再構成する画像信号復号化方法において、 上記第 1 の符号化信号を復号化して再構成局所輝度を生成し、
上記第 2の符号化信号を復号化して再構成エツジを生成し、
上記再構成局所輝度成分及び再構成エツジ成分に基づいて、 エツジ画像を再構 成し、
上記第 3の符号化信号を復号化して再構成テクスチャを生成し、
上記エツジ画像と上記再構成テクスチャを加算して、 元の画像信号を再構成す る
ことを特徴とする画像信号復号化方法。
1 8 . 上記第 1 の符号化信号を復号化する工程は、
上記第 1 の符号化信号を P C M復号化する工程と、
上記 P C M復号化された信号をアップサンプリ ングする工程と、
上記アップサンプリ ングされた信号を口一パスフィルタを用いてフィルタ リ ン グする工程を含む
ことを特徴とする請求の範囲第 1 7項に記載の画像信号復号化方法。
1 9 . 少なく とも輝度成分を含む入力画像信号の円滑要素でなる局所輝度成分 を第 1 の符号化方法を用いて符号化することにより生成された第 1 の符号化信号 と、 上記入力画像信号の輪郭要素でなる輝度エッジ成分をチエイ ン符号化による 第 2の符号化方法を用いて符号化することにより生成された第 2の符号化信号と、 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ成分以外の成分でなる テクスチャ成分を第 3の符号化方法を用いて符号化することにより生成された第 3の符号化信号とを用いて画像信号を再構成する画像信号復号化装置において、 上記第 1 の符号化信号を復号化して再構成局所輝度を生成する第 1 の復号化手 段と、
上記第 2の符号化信号を復号化して再構成エツジを生成する第 2の復号化手段 と、
上記再構成局所輝度成分及び再構成エツジ成分に基づいて、 エ ツジ画像を再構 成する手段と、 '
上記第 3の符号化信号を復号化して再構成テクスチャを生成する第 3の復号化 手段と、
上記エツジ画像と上記再構成テクスチャを加算して、 元の画像信号を再構成す る加算手段と
を有することを特徴とする画像信号復号化装置。
2 0 . 上記第 1 の復号化手段は、
上記第 1 の符号化信号を P C M復号化する手段と、
上記? C M復号化された信号をアップサンプリ ングする手段と、
上記アップサンプリ ングされた信号を口一パスフィルタを用いてフィルタ リ ン グする手段とを含む
ことを特徴とする請求の範囲第 1 9項に記載の画像信号復号化装置。
2 1 . 符号化された画像信号を伝送する画像信号伝送方法において、
少なく とも輝度成分を含む入力画像信号の円滑要素でなる局所輝度成分を第 1 の符号化方法を用いて符号化することにより生成された第 1 の符号化信号を伝送 し、
上記入力画像信号の輪郭要素でなる輝度エツジ成分をチエイ ン符号化による第 2の符号化方法を用いて符号化することにより生成された第 2の符号化信号を伝 送し、 上記入力画像信号の上記局所輝度成分及び上記輝度エツジ成分以外の成分でな るテクスチャ成分を第 3の符号化方法を用いて符号化することにより生成された 第 3の符号化信号を伝送する
ことを特徴とする画像信号伝送方法。
2 2 . 上記第 2の符号化信号の単一のチエイ ン内の振幅情報は単一の振幅で表 される
ことを特徴とする請求の範囲第 2 1項に記載の画像信号伝送方法。
2 3 . 上記第 2の符号化信号の単一のチエイ ンは、 更に当該チェィ ンの長さ、 当該チエイ ンの先頭画素の座標情報、 及び連鎖して続く画素の相対位置情報を含 む
ことを特徴とする請求の範囲第 2 1項に記載の画像信号伝送方法。
2 4 . 入力画像信号のエッジを検出するためのエッジ検出方法において、 上記入力画像信号を微分する工程と、
上記微分する工程による微分結果と適応的に制御される閾値とを比較して、 上 記微分結果から上記閾値以上の成分を取り出す工程と、
上記取り出された成分から変化点を検出する工程と、
上記変化点に基づいて特異点を決定する工程と
を有することを特徴とするエッジ検出方法。
2 5 . 上記特異点を決定する工程は、 上記変化点のうちの冗長な点を新たな点 に置き換える工程を含む
ことを特徴とする請求の範囲第 2 4項に記載のエツジ検出方法。
2 6 . 入力画像信号のエッジを検出するためのエッジ検出装置において、 上記入力画像信号を微分する微分手段と、
上記微分手段による微分結果と適応的に制御される閾値とを比較して、 上記傲 分結果から上記閾値以上の成分を取り出す手段と、
上記取り出された成分から変化点を検出する手段と、
上記変化点に基づいて特異点を決定する手段と を有することを特徴とするエツジ検出装置。
2 7 . 上記特異点を決定する手段は、 上記変化点のうちの冗長な点を新たな点 に置き換える
ことを特徴とする請求の範囲第 2 6項に記載のエツジ検出装置。
PCT/JP1995/000781 1994-04-22 1995-04-20 Method and device for encoding image signal and image signal decoding device WO1995029462A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1019950705943A KR960703481A (ko) 1994-04-22 1995-04-20 비디오 신호 코딩 방법 및 장치와 비디오 신호 디코딩 장치(Method and device for encoding image signal and image signal decoding device)
US08/557,132 US5835237A (en) 1994-04-22 1995-04-20 Video signal coding method and apparatus thereof, and video signal decoding apparatus
CA002164627A CA2164627A1 (en) 1994-04-22 1995-04-20 Method and device for encoding image signal and image signal decoding device
EP95916022A EP0706155A4 (en) 1994-04-22 1995-04-20 METHODS AND APPARATUS FOR ENCODING / DECODING IMAGE SIGNALS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP6/107943 1994-04-22
JP10794394 1994-04-22

Publications (1)

Publication Number Publication Date
WO1995029462A1 true WO1995029462A1 (en) 1995-11-02

Family

ID=14471988

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/000781 WO1995029462A1 (en) 1994-04-22 1995-04-20 Method and device for encoding image signal and image signal decoding device

Country Status (6)

Country Link
US (1) US5835237A (ja)
EP (1) EP0706155A4 (ja)
KR (1) KR960703481A (ja)
CN (1) CN1127562A (ja)
CA (1) CA2164627A1 (ja)
WO (1) WO1995029462A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004353A1 (en) * 2000-12-15 2004-01-08 Multivia Co., Ltd. System of coding and decoding multimedia data
JP2006217406A (ja) * 2005-02-04 2006-08-17 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法
JP2011501308A (ja) * 2007-10-26 2011-01-06 コンセホ スペリオール デ インヴェスティガシオーネス シエンティフィカス フィンガープリントにおける特異点の分析のための方法およびシステム

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3836145B2 (ja) * 1995-10-18 2006-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 領域ベーステクスチュアコード化及びデコード方法、及び対応するシステム
KR100209412B1 (ko) * 1996-05-10 1999-07-15 전주범 비디오 신호의 유호 색차 성분 부호화 방법
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
FR2755527B1 (fr) * 1996-11-07 1999-01-08 Thomson Multimedia Sa Procede de prediction compensee en mouvement et codeur utilisant un tel procede
US6453069B1 (en) 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
WO1999021285A1 (en) * 1997-10-23 1999-04-29 Sony Electronics, Inc. Apparatus and method for recovery of lost/damaged data in a bitstream of data based on compatibility
DE69939055D1 (de) * 1998-03-05 2008-08-21 Matsushita Electric Ind Co Ltd Verfahren zur bildkodierung, verfahren zur bildkodierung/-dekodierung, bildkodierer, oder vorrichtung zur bildaufzeichnung/-wiedergabe
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
JP2000036967A (ja) * 1998-07-21 2000-02-02 Sony Corp 画像処理システムおよびカメラシステム
US7137711B1 (en) 2000-03-21 2006-11-21 Leonard Reiffel Multi-user retro reflector data input
WO2001084475A1 (en) 2000-05-03 2001-11-08 Leonard Reiffel Dual mode data imaging product
US7034803B1 (en) 2000-08-18 2006-04-25 Leonard Reiffel Cursor display privacy product
AU2001283375A1 (en) * 2000-08-18 2002-03-04 Leonard Reiffel Annotating imaged data product
JP2002094994A (ja) * 2000-09-19 2002-03-29 Nec Corp 動画再生処理装置および動画再生処理方法
JP4294319B2 (ja) * 2000-12-15 2009-07-08 ライフェル レナード 画像表示によるコード化データ源追跡装置
JP4103592B2 (ja) * 2000-12-15 2008-06-18 ライフェル レナード 複数の画像化装置、複数のデータ源、及び複数の用途に対応したコード化データ源データ入力装置
JP4081373B2 (ja) * 2000-12-15 2008-04-23 ライフェル レナード 画像によるコード化データ源変換装置
EP1368787A1 (en) * 2001-02-28 2003-12-10 PTS Corporation Dynamic chain-based thresholding
EP1390909A4 (en) * 2001-04-19 2004-12-29 Leonard Reiffel DATA ACQUISITION FROM AN ENCODED DATA SOURCE, BY COMBINED IMAGING
US20040135766A1 (en) * 2001-08-15 2004-07-15 Leonard Reiffel Imaged toggled data input product
WO2003021970A1 (en) * 2001-09-04 2003-03-13 Faroudja Cognition Systems, Inc. Low bandwidth video compression
KR100555419B1 (ko) * 2003-05-23 2006-02-24 엘지전자 주식회사 동영상 코딩 방법
US20060291797A1 (en) * 2003-05-27 2006-12-28 Leonard Reiffel Multi-imager multi-source multi-use coded data source data input product
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7602851B2 (en) 2003-07-18 2009-10-13 Microsoft Corporation Intelligent differential quantization of video coding
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US8218624B2 (en) 2003-07-18 2012-07-10 Microsoft Corporation Fractional quantization step sizes for high bit rates
US7580584B2 (en) 2003-07-18 2009-08-25 Microsoft Corporation Adaptive multiple quantization
ES2389899T3 (es) * 2004-03-11 2012-11-02 Istituto Superiore Mario Boella Sulle Tecnologie Dell'informazione E Delle Telecomunicazioni Método y aparato para la codificación y decodificación de imágenes basadas en bordes
US7801383B2 (en) 2004-05-15 2010-09-21 Microsoft Corporation Embedded scalar quantizers with arbitrary dead-zone ratios
JP4530277B2 (ja) * 2005-02-25 2010-08-25 株式会社リコー 画像再生装置、画像再生方法、プログラムおよび記録媒体
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
JP2006340005A (ja) * 2005-06-01 2006-12-14 Sony Corp ディジタル信号処理装置とディジタル信号処理方法およびプログラム。
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US7724947B2 (en) * 2006-09-20 2010-05-25 Qualcomm Incorporated Removal of background image from whiteboard, blackboard, or document images
US8218908B2 (en) * 2006-11-02 2012-07-10 Canon Kabushiki Kaisha Mixed content image compression with two edge data representations
US8311347B2 (en) * 2006-11-10 2012-11-13 Microsoft Corporation Image compression based on parameter-assisted inpainting
JP4999865B2 (ja) * 2006-12-28 2012-08-15 日本電信電話株式会社 映像処理方法および装置、映像処理プログラム並びにプログラムを記録した記憶媒体
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8331438B2 (en) 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
KR101291196B1 (ko) * 2008-01-25 2013-07-31 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
JP5640238B2 (ja) * 2008-02-28 2014-12-17 株式会社通信放送国際研究所 特異点信号処理システムおよびそのプログラム
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
CN101854536A (zh) 2009-04-01 2010-10-06 深圳市融创天下科技发展有限公司 一种视频编解码的图像视觉效果提升方法
US20150003511A1 (en) * 2010-11-26 2015-01-01 Christopher Carmichael WEAV Video Super Compression System
JP5810031B2 (ja) * 2012-04-27 2015-11-11 株式会社日立ハイテクノロジーズ 半導体回路パターン計測装置及び方法
CN103428486B (zh) * 2012-05-24 2017-06-09 富士通株式会社 图像压缩方法和装置
US8907973B2 (en) * 2012-10-22 2014-12-09 Stmicroelectronics International N.V. Content adaptive image restoration, scaling and enhancement for high definition display
CN103067703A (zh) * 2012-12-11 2013-04-24 渭南高新区晨星专利技术咨询有限公司 减小传输带宽的网络视频通信系统和方法
US8917940B2 (en) * 2013-04-26 2014-12-23 Mitutoyo Corporation Edge measurement video tool with robust edge discrimination margin
JP6883219B2 (ja) * 2016-04-22 2021-06-09 ソニーグループ株式会社 符号化装置及び符号化方法、並びに、システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62106589A (ja) * 1985-11-02 1987-05-18 Oki Electric Ind Co Ltd パタ−ンのエツジ位置検出方法
JPS63115468A (ja) * 1986-11-04 1988-05-20 Nippon Telegr & Teleph Corp <Ntt> 輪郭・階調の分離・補間符号化装置
JPH03164876A (ja) * 1989-11-22 1991-07-16 Fujitsu Ltd テクスチャ特徴を用いた画像処理方式

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1333916A (en) * 1970-11-18 1973-10-17 Emi Ltd Pattern recognition devices
US4631574A (en) * 1984-06-29 1986-12-23 At&T Bell Laboratories Compatible high-definition television with extended aspect ratio
US4743959A (en) * 1986-09-17 1988-05-10 Frederiksen Jeffrey E High resolution color video image acquisition and compression system
JP2596744B2 (ja) * 1987-04-16 1997-04-02 富士写真フイルム株式会社 放射線照射野認識方法
US4974071A (en) * 1987-04-28 1990-11-27 Canon Kabushiki Kaisha Color image data encoding apparatus having improved resolution/efficiency characteristics
JP2691101B2 (ja) * 1992-03-05 1997-12-17 インターナショナル・ビジネス・マシーンズ・コーポレイション 手書き入力方法及び入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62106589A (ja) * 1985-11-02 1987-05-18 Oki Electric Ind Co Ltd パタ−ンのエツジ位置検出方法
JPS63115468A (ja) * 1986-11-04 1988-05-20 Nippon Telegr & Teleph Corp <Ntt> 輪郭・階調の分離・補間符号化装置
JPH03164876A (ja) * 1989-11-22 1991-07-16 Fujitsu Ltd テクスチャ特徴を用いた画像処理方式

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Proceedings, IEEE International Conference on Acoustics, Speech and Signal Processing No. 3 (1992), p. III. 201 - III. 204. *
Proceedings, IEEE International Conference on Acoustics, Speech and Signal Processing No. 4 (1990), p. 2089 - 2092. *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004353A1 (en) * 2000-12-15 2004-01-08 Multivia Co., Ltd. System of coding and decoding multimedia data
JP2006217406A (ja) * 2005-02-04 2006-08-17 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法
JP2011501308A (ja) * 2007-10-26 2011-01-06 コンセホ スペリオール デ インヴェスティガシオーネス シエンティフィカス フィンガープリントにおける特異点の分析のための方法およびシステム

Also Published As

Publication number Publication date
EP0706155A4 (en) 1997-06-11
US5835237A (en) 1998-11-10
CA2164627A1 (en) 1995-11-02
CN1127562A (zh) 1996-07-24
EP0706155A1 (en) 1996-04-10
KR960703481A (ko) 1996-08-17

Similar Documents

Publication Publication Date Title
WO1995029462A1 (en) Method and device for encoding image signal and image signal decoding device
US8223837B2 (en) Learning-based image compression
US9106892B2 (en) Image compression based on parameter-assisted inpainting
WO2008056178A2 (en) Reduction of blocking artefacts in image decompression systems
Hsung et al. Application of singularity detection for the deblocking of JPEG decoded images
Niu et al. Edge-based perceptual image coding
JP3081412B2 (ja) 画像信号復号器
Mahalakshmi et al. Adaptive wavelet packet decomposition for efficient image denoising by using neighsure shrink method
Abd-Elhafiez Image compression algorithm using a fast curvelet transform
Kumar Wavelet Sub-band block coding based lossless High-Speed Compression of Compound Image
Fahmy et al. Texture characterization for joint compression and classification based on human perception in the wavelet domain
Kim et al. The block-based preprocessing system for the coding performance improvement
Ade et al. RoI based near lossless hybrid image compression technique
Guaragnella et al. Bidimensional Empirical Mode Decomposition for multiresolution image coding
KR0171747B1 (ko) 세그먼트 기반 부호기 및 복호기
Mohammed et al. New approaches for DCT-Based image compression using region of interest scheme
Zhang et al. A novel ica-based image/video processing method
Chelali et al. Audiovisual Compression Techniques Using DCT-DWT and LPC Codec for Audiovisual Human Machines Interfaces
Du et al. Post-processing for restoring edges and removing artifacts of low bit rates wavelet-based image
Du et al. A new algorithm for removing compression artifacts of wavelet-based image
AUNG Edge-Adaptive Jpeg Image Compression Using MATLAB
Bao et al. PCA neural network for JPEG image enhancement
Du et al. New algorithm for preserving edges and removing compression artifacts in low bit-rates wavelet based image
Mohammed et al. Non-embedded image coding techniques based on pixels classification
Raja et al. Evaluating Multiscale Transform Based Image Compression Using Encoding Techniques

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 95190337.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB NL

WWE Wipo information: entry into national phase

Ref document number: 2164627

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1995916022

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1995916022

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08557132

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2164627

Country of ref document: CA

Kind code of ref document: A

WWW Wipo information: withdrawn in national office

Ref document number: 1995916022

Country of ref document: EP