WO2007048844A1 - Method for processing a representaitve source image of at least one object, processing device, corresponding distance map and a computer software product - Google Patents

Method for processing a representaitve source image of at least one object, processing device, corresponding distance map and a computer software product Download PDF

Info

Publication number
WO2007048844A1
WO2007048844A1 PCT/EP2006/067876 EP2006067876W WO2007048844A1 WO 2007048844 A1 WO2007048844 A1 WO 2007048844A1 EP 2006067876 W EP2006067876 W EP 2006067876W WO 2007048844 A1 WO2007048844 A1 WO 2007048844A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
source image
distance map
distance
Prior art date
Application number
PCT/EP2006/067876
Other languages
French (fr)
Inventor
Sylvain Le Gallou
Christophe Garcia
Gaspard Breton
Renaud Seguier
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Publication of WO2007048844A1 publication Critical patent/WO2007048844A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • a method of processing a source image representative of at least one object, processing device, distance map and corresponding computer program product is a method of processing a source image representative of at least one object, processing device, distance map and corresponding computer program product.
  • the field of the invention is that of image processing and image sequences, such as video sequences.
  • the invention relates to the processing of images to improve their quality, especially when an image to be treated does not have a uniform illumination.
  • the invention finds particular, but not exclusively, applications in the field of video coding for video telephony, the animation of synthetic faces, the visual recognition of speech, the analysis of expressions and emotions, or the tracking and face recognition.
  • the invention applies for example to the recognition of deformable objects such as faces, requiring a fine analysis of gestures and expressions of faces, in an image or a sequence of images.
  • AAM Active Models of Appearance
  • an appearance model composed of a shape (set of interrelated points of interest) and a texture (grayscale components a shape)
  • a base of learning composed of images of objects similar to the object to be recognized (possibly extracted from learning video sequences).
  • the points of interest of the objects are annotated, and the modes of joint variations between the positions of the points and the content of the image are automatically learned from a principal components analysis, noted ACP later. .
  • ACP principal components analysis
  • An active appearance model can thus be used to generate a set of plausible representations, in terms of shape and texture of the learned objects.
  • This appearance model is used in particular to search for visual objects in images by jointly using the shape and texture information, through an optimization process on the model parameters, in order to best adjust the model on the area. image containing the object.
  • a major disadvantage of the prior art technique based on the active appearance models is that it does not take into account lighting conditions to generate an active appearance pattern, or to search for an object in a picture.
  • this technique of the prior art does not take into account non-homogeneous illumination in the images, that is to say, variations of the illumination conditions within the same image, or variations in the conditions of illumination.
  • illumination between the image to be treated and a basic model which may especially come from over-lighting, under-lighting, or side lighting.
  • deformable appearance model methods lies in their low robustness to variable illumination conditions, the statistical models created by PCA being linear and therefore not robust to overall image variations, and particularly to lighting variations.
  • an object of the invention is to provide an image processing technique for improving the quality of processing when said image does not have a uniform illumination.
  • the object of the invention is to provide such a treatment technique that is robust to variations in lighting conditions.
  • Another object of the invention is to provide such a technique having improved performance over prior art techniques for recognizing objects in an image, in which the illumination conditions can vary greatly.
  • Yet another object of the invention is to propose such a technique that is compatible with existing techniques based on deformable models or artificial neural networks.
  • the invention also aims to provide such a technique that is simple to implement and inexpensive to implement. 4. Presentation of the invention
  • such a method comprises: a step of constructing a distance map associating with each pixel of the source image the smallest distance from the pixel to one of the contours of the object (s), to from an outline image obtained during a preliminary step of searching for at least one contour of the object (s), - a step of replacing said source image by said distance map at the input of a chain treatment ; a step of processing the distance map in said processing chain.
  • the invention is based on a completely new and inventive approach to the processing of a source image, based on the construction of a distance map associated with the source image, and the treatment not directly of the image. source of texture, but of the distance map associated with the source image.
  • the distance map replaces the source image during the processing step. This substitution makes it possible in particular to improve the quality of the processing, in particular when the source image does not have a homogeneous illumination.
  • the processing step may in particular be implemented by a conventional processing chain.
  • a distance map thus constructed can be used directly at the input of a processing chain corresponding to an artificial neural network, or at the input of a processing chain implementing active models of appearance.
  • the invention makes it possible to take into account the distance relationships between the different contours composing an object, instead of directly taking into account the value of the colors or gray levels of the source image, as proposed by the prior techniques.
  • the images to be processed according to the invention are thus more robust in the face of illumination.
  • the step of constructing a distance map can implement a calculation of a Euclidean distance between at least one pixel of the source image and each of the pixels of the contour image, and an allocation of the smaller distance calculated at said pixel, delivering an image of distances.
  • the step of constructing a distance map can also implement a normalization of the image of distances, and a reversal of the normalized image, delivering the distance map.
  • the processing step may implement recognition of the object in the source image.
  • the invention thus makes it possible to recognize more reliably than the techniques of the prior art an object in an image, whatever the illumination conditions.
  • the object is a deformable object.
  • deformable object is understood to mean an object whose densest contours are the most informative: for example a face, a tire, etc.
  • the step of processing the distance map can include sub-stages of: matching of a deformable model, representative of the object, to the distance map; recognition of the object in the source image, by adjustment of the deformable model.
  • the deformable model can be generated by implementing the following steps: constructing a learning base comprising at least two basic images representative of an object similar to said deformable object; associating with each of the basic images of a distance map obtained by associating with each pixel of the base image the smallest distance of the pixel with one of the outlines of the similar object in the base image; generation of the deformable model from the distance maps.
  • the invention also relates to a device for processing a source image representative of at least one object.
  • such a device comprises: means for constructing a distance map associating with each pixel of the source image the smallest distance from the pixel to one of the contours of said at least one object, from an outline image previously derived from means for searching at least one contour of said at least one object, means for replacing the source image by the distance map at the input of a processing chain; means for processing the distance map in the processing chain.
  • Such a device can in particular implement the treatment method as described above.
  • the construction means and the processing means can be implemented in two distinct entities, a first delivering the distance maps associated with the images entering in said first entity, and a second comprising a conventional processing chain.
  • a distance map thus constructed can be used directly at the input of a processing chain corresponding to a network of artificial neurons, or input of a processing chain implementing active models of appearance.
  • the invention also relates to a distance map associated with a source image representative of at least one object.
  • a distance map associates with each pixel of the source image the smallest distance from the pixel to one of the contours of said at least one object, from an outline image obtained during a preliminary step of searching for at least one contour of said at least one object.
  • the invention relates to a computer program product downloadable from a communication network and / or stored on a computer readable medium and / or executable by a microprocessor, comprising program code instructions for the implementation of the method treatment as described above. 5.
  • FIGS. and IB illustrate the construction of a distance map from a source image according to the invention
  • FIGS. 2A to 2D show an example of application of the invention to the recognition of a face in a source image, from a distance map as presented in relation with FIG. 1B
  • FIGS. 3A and 3B illustrate the evolution of the texture and the evolution of the shape during the adjustment of a model on a face
  • Figure 4 illustrates the performance of the invention
  • FIG. 5 presents a simplified diagram of the structure of the processing device according to the invention
  • FIG. 6A illustrates the general principle of the processing method according to the invention
  • FIG. 6B illustrates its application to the recognition of objects in a picture. 6. Description of an embodiment of the invention
  • the general principle of the invention is based on the implementation of a pre-treatment applied to an image, in particular to improve the quality of the image processing, when the image does not have a uniform illumination. In other words, the invention provides a robust pre-treatment to lighting variations.
  • This pretreatment is based in particular on the calculation of a distance map from a source image and on the substitution of the calculated distance map to the source image for processing directly on the distance map.
  • the invention proposes a method of processing a source image 53 representative of at least one object, comprising: a card construction step 61 of distances associating with each pixel of the source image the smallest distance from the pixel to one of the contours of the object or objects of the image, delivering a distance map 62, a step of replacing the source image by the distance map at the input of a processing chain; a processing step 63 of the distance card 62 in the processing chain, delivering a processed image 54.
  • the invention thus proposes to replace the texture images, composed of pixels, with distance maps, at the input of a processing chain implementing, for example, Active Appearance Models or artificial neural networks.
  • the distance maps correspond more precisely to images comprising the information of distance between the different contours of the objects (for example the eyes, the nose and the mouth for a face) found in the source images (texture images).
  • the processing is not carried out directly on the texture of the image, taking into account the value of the colors or gray levels of the source image, but on the distance map.
  • the distance maps make it possible to overcome at least in part the effects of light variations which make the use of Active Models of Appearance unstable, for example, when the illumination is arbitrary.
  • the invention particularly relates to the use of this pre-processing for recognition applications of a deformable object in an image. 6.2 Creating a distance map
  • grayscale source image illustrating for example a face.
  • a conversion of the color image into a greyscale image is first performed by calculating the luminance component L of the Hue Saturation luminance code. and Luminance ") of the color space.
  • a color image can be considered as the combination of three gray-scale images, each represented by a matrix comprising the values of the pixels, a first image R corresponding to the red level, and a second corresponding image V at the level of green, and finally a third image B corresponding to the blue level of the color image.
  • the first step of constructing a distance map associated with the source image is based on a known technique of histogram equalization of the source image.
  • an image of size (M, N) is conventionally defined by a size matrix (M, N) comprising the gray levels of the pixels of the image, namely an integer value ranging from 0 for black to 255 for the white.
  • a histogram making it possible to represent the distribution of the intensities of the pixels of an image, that is to say the number of pixels for each luminous intensity. More precisely, a statistical graph representing the gray level (for example, going from black to white) is conventionally constructed in abscissa, and the number of pixels in ordinates. Thus, the histogram of an image in 256 gray levels (from 0 to 255) is represented by a graph having 256 values on the abscissa, and the number of pixels per value of gray level in the image on the ordinates.
  • a histogram equalization corresponding to a transformation of the histogram of the image to obtain a lighter, darker, or more normalized image.
  • the source image is divided into 64 blocks by dividing the horizontal and vertical axes at 8, and the histogram shape is modified by following the Rayleigh distribution of the parameter. distribution ⁇ equal to 2, to obtain an equalized image. It is recalled that the probability function of
  • the second step of constructing a distance map is based on the smoothing of the equalized image obtained.
  • a low-pass filter makes it possible in particular to attenuate the noise of the image, and thus to smooth the image. More precisely, the application of a filter on an area of the image implements a convolution product allowing, for each pixel of the zone to which it applies, to modify its value as a function of the values of the neighboring pixels. , assigned coefficients.
  • a filter is represented by a matrix whose center corresponds to the pixel concerned.
  • the values of the matrix coefficients define the properties of the filter: high-pass, low-pass, band-pass, directional, etc.
  • the equalized image is smoothed by means of an averaging filter F:
  • the filtering is implemented by positioning the center of the filter successively at each pixel of the image and by averaging the neighboring pixels weighted by the coefficients of the filter.
  • the first two steps of histogram equalization and smoothing are optional, but make it possible to improve the quality of the treatment.
  • the third step of constructing a distance map is based on the application, in the smoothed image, of an edge extractor, making it possible to obtain a contour image of the source image.
  • edges are characterized by discontinuities of gray levels on one side and the other contours. These discontinuities can in particular be detected by calculating the gradient of the image.
  • filters having particular coefficients make it possible to obtain a good estimate of the directional derivatives of the image with respect to an axis. Then, keeping only the pixels having a gradient greater than a predetermined threshold (thresholding operation), only the strongest discontinuities are preserved, which corresponds to the contours of the most relevant objects.
  • the value 0 is assigned to the pixels having a value greater than the predetermined threshold, and the value 1 to the pixels having a value lower than said threshold.
  • a binary image of contours is thus created, making it possible to visualize the contours in black on a white background image.
  • a threshold block by block inside the image In order not to reduce the number of contours by imposing a threshold that is too high, and not to recover a non-significant number of contours by imposing a threshold that is too low, it is determined, according to the invention, a threshold block by block inside the image.
  • the smoothed image is divided into at least two blocks of pixels, each block is assigned a threshold, determined according to the content of the block, and, for each of the blocks, the value is compared. pixels of the block at the corresponding threshold of this block and we keep only the pixels having a gradient greater than this threshold.
  • the low contrast areas are not taken into account, since the calculated gradient is too low, while it is possible that important contours are there. Choosing a block-by-block threshold in the image therefore makes it possible to adapt to the different contrasts of the image.
  • the contour extraction phase is performed by means of a Sobel filter on the 64 blocks of the image, according to this particular embodiment of the invention.
  • the magnitude B image is defined by the sum of the matrices I x and I y , whose values have been previously squared.
  • the effective value of the noise is estimated by the square root of the average of B.
  • the threshold is defined as 75% of this value.
  • the value of 0 is assigned to the pixels of the magnitude B image having a value greater than the threshold thus defined, corresponding to a black outline, and the value 1 to the pixels having a value lower than this threshold. A binary image of outlines is thus obtained, as illustrated in FIG.
  • the fourth step is based on the construction of the distance map, from the binary contour image, associating with each pixel of the contour image the distance to its nearest contour in the outline image.
  • the invention is based on the construction of a distance map, such that the distance map replaces the source image during image processing, so as to improve the quality of the processing when the source image does not have uniform illumination.
  • a distance map is constructed from a contour binary image, in which the pixels representative of the contours for example bear a value equal to 0 (black), and the pixels representative of the background of the image. have a value equal to 1 (white).
  • the coordinates of the pixels representative of the contours are stored in a table of contours.
  • this image of distances I D is normalized between 0 and 255 in order to be able to display it.
  • each pixel of the image of distances I D is modified from the following relation, to define a normalized image I N : n - 9 ⁇ S P ⁇ Pmm PN ⁇ 2: " '
  • P mm , p max respectively denote the minimum value and the maximum value reached by the pixels of the distance image I D.
  • the invention thus makes it possible to take into account the distance relationships between the different contours composing an object.
  • the invention does not directly take into account the value of the colors or gray levels of the source image to process this image.
  • the invention thus makes it possible to overcome, at least in part, the effects of light variations, by delivering a robust image in the face of illumination.
  • Applications of distance maps to the recognition of objects in an image As indicated above and as illustrated in connection with FIG. 6B, the invention particularly relates to the use of distance maps for applications in the recognition of at least one object in an image.
  • the processing step 63 implements recognition of a face in the source image 53.
  • a distance map 62 associated with the source image 53 is constructed.
  • a learning base is constructed from a set of representative facial images 55 associated with one or more persons. This learning base is notably composed of distance maps associated with each of the images of said set, and makes it possible to construct a deformable model 65.
  • the deformable model 65 is matched to the distance map 62 associated with the source image 53, then a face recognition in the source image 53, by adjustment of the deformable model 65 .
  • the processing step 63 finally delivers a processed image 54, in which the shape and texture of the face present in the source image 53 are found.
  • An object may in particular be represented by a point of interest. It is thus recalled that a distance map can be substituted for a source image during the image processing (the construction of a distance map corresponding to a pre-treatment robust to illumination), and thus be used in input of a processing chain, for example implemented by active models of appearance or networks of artificial neurons, replacing the original texture images, also called source images.
  • the information contained in these distance maps is fundamental since it concerns the information of distances between the different contours of the objects found in the source images, thus allowing to free, or at least reduce, effects related to light variations that make the use of active appearance models unstable.
  • AAM Active Appearance Model
  • the learning base obtained is therefore composed of a set of faces characterized by their shape and their texture.
  • the learning base is constructed not from faces directly extracted from each of the images of a set of images, but from distance maps associated with each of the images of said set.
  • the images of said set are transformed into a distance map, as previously described.
  • the textures composing the shapes are retrieved. These textures correspond in particular to the pixels, and their corresponding gray levels, of distance maps.
  • the creation of the deformable model is then implemented according to a conventional technique.
  • the shapes (faces) are aligned by means of a Procrustean transformation, making it possible to bring back all the forms of the learning base in the same orientation and in the same ratio of size as the average form x moy , corresponding to the average of all forms of the learning base.
  • This will include using a Principal Component Analysis (PCA), the creation of a form of statistical model: x ⁇ x Avg ⁇ ⁇ " ⁇ ⁇ x ⁇ x X 1 with the synthesized form; x moy is the average shape; ⁇ x matrix of the main eigenvectors of the ACP and b x the vector controlling the synthesized form.
  • PCA Principal Component Analysis
  • the parameters c and t thus make it possible to represent the objects learned in the learning base. In particular, these parameters can be automatically adjusted to recognize a new unknown object in a new source image.
  • each image of the learning base contains an object synthesized by a certain value of the appearance parameter c.
  • C 0 be the value of the appearance parameter c in image i of the learning base.
  • segmentation phase allows, in turn, the implementation of the search for a particular texture and shape (whose modes of variation were learned in the first phase of learning) in new images.
  • the algorithm for searching an object in a new image can for example take the following form: 1 - Generate g m and x from the parameters c and t, initially equal to 0;
  • a representation of g t through the model is synthesized in g m .
  • the appearance parameter c which characterizes the model, allows the end of the algorithm to obtain a representation of the shape x and the texture g m of the object present in the image. This method of MAAs can therefore be useful both in synthesis and in analysis.
  • a distance map associated with a source image is created, comprising a new face to be recognized.
  • the deformable model is then related to the distance map associated with the source image, as illustrated in FIG. 2B, from the parameters of appearance c and pose t. This generates a shape x and a texture g m from the parameters c and t (initially equal to 0), by adjusting the deformable model to the recognized object.
  • FIGS. 3A and 3B notably illustrate this adjustment on two examples of face search, one showing only the evolution of the texture (FIG. 3A), and the other showing only the evolution of the shape (FIG. Figure 3B). It can be seen in particular in these figures that after several iterations of the preceding steps, the model is best adjusted to the shape and / or the texture. Finally, we see that the algorithm of the AAM remains unchanged that is carried out a recognition of an object in an image according to a conventional technique, or according to the invention. Indeed, in both situations, only the images taken into account during the creation of the learning base and during the different segmentation phase. The invention thus proposes to substitute a distance map for an image
  • FIG. 4 shows the error curve obtained by implementing the image processing method according to the invention applied to face recognition in an image (curve 41) and the error curve obtained in FIG. implementing a conventional method of face recognition in an image (curve 42).
  • CMU Carnegie Mellon University's "Robotics Institute”
  • 8 faces were selected among the 68 of the PIE base. Of these 8 faces, 4 are used during the AAM learning phase, and 4 during the segmentation phase. In other words, 4 faces are "learned” to form the learning base, and 4 other faces are "not learned” and considered as objects to be recognized.
  • a particular illumination corresponding to a front illumination is considered.
  • the other 20 illuminations of these faces are used during the segmentation phase.
  • the illuminations 2 to 8 correspond to more or less strong lights and more or less high on the left side of the face.
  • the illuminations 16 to 22 correspond to lighting more or less strong and more or less high on the right side of the face.
  • the illuminations 9 to 15 correspond to a lighting on the face face.
  • the errors are expressed as a ratio of the distance between the eyes with respect to a point, that is, an error of 1 corresponds to an error made in each point of the model equal to the distance between the two eyes.
  • Each point of the curves of figure 4 corresponds to the average of the errors made by the model during the search of face in the 8 images of different faces under the same given illumination.
  • the error curve 41 is below the error curve 42. It is thus noted that the invention (curve 41), based on the use of distance maps, makes it possible to find the characteristic features of the faces. It can be noted that in this example, only 4 images of correctly lit faces were learned by the model.
  • the technique according to the invention is independent of the direction of illumination (side lighting). Indeed, the curve 41 remains stable and undergoes only a few variations in the course of the various illuminations, while the curve 42 increases significantly to the illuminations 2 to 8 and 16 to 22, that is to say when the lights are on the side.
  • Such a device comprises a memory M 51, and a processing unit 50 equipped with a ⁇ P processor, driven by a computer program Pg 52.
  • the processing unit 50 receives as input a source image 53 representative of at least an object.
  • the processor ⁇ P then builds, according to the instructions of the program Pg 52, a distance map associating with each pixel of the source image 53 the smallest distance of the pixel to one of the contours of the object or objects, and carries out a processing of the distance map.
  • the processing unit 50 thus outputs a processed image 54.
  • the unit processing unit 50 may also receive as input a set of representative facial images 55 associated with one or more persons.
  • the processor ⁇ P then builds, according to the instructions of the program Pg 52, a distance map associated with each of the images of said set, to generate a learning base, and builds a deformable model from the learning base.
  • the ⁇ P processor matches the model to the distance map associated with the source image 53 and adjusts this model.
  • the processing unit 50 outputs a processed image 54, in which the shape and texture of the face present in the source image 53 are found.

Abstract

The invention relates to a method for processing a representative source image (53) of at least one object consisting in building (61) a distance map by associating the smallest distance from the pixel to the outlines of said at least one object to each pixel of the source image (53) according to the outline image obtained at a preliminary stage of searching for at least one outline of said at least one object, in superseding said source image by the distance map at the input of a processing chain, and in processing (63) the distance map (62) in said processing chain.

Description

Procédé de traitement d'une image source représentative d'au moins un objet, dispositif de traitement, carte de distances et produit programme d'ordinateur correspondants.A method of processing a source image representative of at least one object, processing device, distance map and corresponding computer program product.
1. Domaine de l'invention Le domaine de l'invention est celui du traitement des images et des séquences d'images, telles que les séquences vidéos.FIELD OF THE INVENTION The field of the invention is that of image processing and image sequences, such as video sequences.
Plus précisément, l'invention concerne le traitement des images en vu d'améliorer leur qualité, notamment lorsqu'une image à traiter ne présente pas un éclairage homogène. L'invention trouve notamment, mais non exclusivement, des applications dans le domaine du codage vidéo pour la visiophonie, l'animation de visages synthétiques, la reconnaissance visuelle de la parole, l'analyse d'expressions et d'émotions, ou encore le suivi et la reconnaissance de visages.More specifically, the invention relates to the processing of images to improve their quality, especially when an image to be treated does not have a uniform illumination. The invention finds particular, but not exclusively, applications in the field of video coding for video telephony, the animation of synthetic faces, the visual recognition of speech, the analysis of expressions and emotions, or the tracking and face recognition.
Ainsi, l'invention s'applique par exemple à la reconnaissance d'objets déformables tels que les visages, nécessitant une analyse fine de la gestuelle et des expressions des visages, dans une image ou une séquence d'images.Thus, the invention applies for example to the recognition of deformable objects such as faces, requiring a fine analysis of gestures and expressions of faces, in an image or a sequence of images.
2. Art antérieur2. Prior Art
On connaît à ce jour plusieurs techniques de traitement des images. Ces techniques sont par exemple appliquées à la reconnaissance d'objets dans une image ou une séquence d'images. Par exemple, dans le cadre d'une application à la reconnaissance d'objets, T.F.To date, several image processing techniques are known. These techniques are for example applied to the recognition of objects in an image or a sequence of images. For example, in the context of an object recognition application, T.F.
Cootes, G. J. Edwards, et C. J. Taylor ont présenté dans le document « Active Appearance Models » (Proceedings of the European Conférence on Computer Vision 1998, Vol. 2, p.484-498, 1998) une technique basée sur des Modèles Actifs d'Apparence, appelés par la suite AAM, permettant notamment de synthétiser de manière réaliste la forme et la texture d'objets visuels en vue d'une reconstruction.Cootes, GJ Edwards, and CJ Taylor presented in the document "Active Appearance Models" (1998, Vol.4, p.484-498, 1998) a technique based on Active Models of Appearance, hereafter called AAM, which can realistically synthesize the shape and texture of visual objects for reconstruction.
Selon cette technique, un modèle d'apparence, composé d'une forme (ensemble de points d'intérêt reliés entre eux) et d'une texture (niveaux de gris composants une forme), est généré à partir d'une base d'apprentissage composée d'images d'objets similaires à l'objet à reconnaître (éventuellement extraites de séquences vidéo d'apprentissage). Pour ce faire, les points d'intérêt des objets sont annotés, et les modes de variations conjointes entre les positions des points et le contenu de l'image sont appris automatiquement à partir d'une analyse en composantes principales, notée ACP par la suite. Ces modèles permettent notamment de repérer automatiquement et de manière robuste des points d'intérêt dans des images de visage.According to this technique, an appearance model, composed of a shape (set of interrelated points of interest) and a texture (grayscale components a shape), is generated from a base of learning composed of images of objects similar to the object to be recognized (possibly extracted from learning video sequences). To do this, the points of interest of the objects are annotated, and the modes of joint variations between the positions of the points and the content of the image are automatically learned from a principal components analysis, noted ACP later. . These models allow in particular to automatically and robustly identify points of interest in face images.
Un modèle d'apparence actif peut ainsi être utilisé pour générer un ensemble de représentations plausibles, en termes de forme et de texture des objets appris. Ce modèle d'apparence est notamment utilisé pour rechercher des objets visuels dans des images en utilisant conjointement les informations de forme et de texture, via un processus d'optimisation sur les paramètres du modèle, de façon à ajuster au mieux le modèle sur la zone d'image contenant l'objet.An active appearance model can thus be used to generate a set of plausible representations, in terms of shape and texture of the learned objects. This appearance model is used in particular to search for visual objects in images by jointly using the shape and texture information, through an optimization process on the model parameters, in order to best adjust the model on the area. image containing the object.
Malheureusement, on ne connaît pas à ce jour de technique permettant d'améliorer la qualité du traitement lorsqu'une image ne présente pas un éclairage homogène.Unfortunately, there is no known technique to improve the quality of treatment when an image does not have a uniform illumination.
Ainsi, un inconvénient majeur de la technique de l'art antérieur basée sur les modèles actifs d'apparence est qu'elle ne tient pas compte des conditions d'éclairage pour générer un modèle actif d'apparence, ou pour rechercher un objet dans une image.Thus, a major disadvantage of the prior art technique based on the active appearance models is that it does not take into account lighting conditions to generate an active appearance pattern, or to search for an object in a picture.
Autrement dit, cette technique de l'art antérieur ne tient pas compte des éclairages non homogène dans les images, c'est-à-dire des variations des conditions d'illumination au sein d'une même image, ou des variations des conditions d'illumination entre l'image à traiter et un modèle de base, pouvant notamment provenir d'un sur-éclairage, d'un sous- éclairage, ou d'un éclairage latéral.In other words, this technique of the prior art does not take into account non-homogeneous illumination in the images, that is to say, variations of the illumination conditions within the same image, or variations in the conditions of illumination. illumination between the image to be treated and a basic model, which may especially come from over-lighting, under-lighting, or side lighting.
Par conséquent, la construction des modèles d'apparence dans des conditions normales d'éclairage ne permet pas une recherche de forme et de texture fiable dans des illuminations différentes. Il est donc délicat d'effectuer une reconnaissance fiable d'un objet dans une image, en particulier lorsque l'image présente des zones d'ombre.Therefore, the construction of appearance models under normal lighting conditions does not allow a search for shape and reliable texture in different illuminations. It is therefore difficult to make a reliable recognition of an object in an image, especially when the image has shadows.
Ainsi, l'inconvénient majeur des méthodes de modèles d'apparence déformable réside dans leur faible robustesse face aux conditions d'illumination variables, les modèles statistiques créés par ACP étant linéaires et donc peu robustes aux variations globales de l'image, et notamment aux variations d'éclairage.Thus, the major disadvantage of deformable appearance model methods lies in their low robustness to variable illumination conditions, the statistical models created by PCA being linear and therefore not robust to overall image variations, and particularly to lighting variations.
Dans un souci de simplification et d'illustration, on a présenté ici les inconvénients de l'art antérieur en relation avec l'application particulière à la reconnaissance d'objets dans une image. Il est clair cependant que cette discussion peut être transposée à d'autres applications nécessitant un traitement de l'image pour en améliorer la qualité lorsque l'image ne présente pas un éclairage homogène.For the sake of simplification and illustration, the disadvantages of the prior art have been presented here in relation to the particular application to the recognition of objects in an image. It is clear however that this discussion can be transposed to other applications requiring image processing to improve the quality when the image does not have a uniform illumination.
3. Objectifs de l'invention L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur.3. Objectives of the invention The invention particularly aims to overcome these disadvantages of the prior art.
Plus précisément, un objectif de l'invention est de fournir une technique de traitement d'une image permettant d'améliorer la qualité du traitement lorsque ladite image ne présente pas un éclairage homogène.More specifically, an object of the invention is to provide an image processing technique for improving the quality of processing when said image does not have a uniform illumination.
Autrement dit, l'invention a pour objectif de fournir une telle technique de traitement qui soit robuste aux variations des conditions d'éclairage.In other words, the object of the invention is to provide such a treatment technique that is robust to variations in lighting conditions.
Un autre objectif de l'invention est de proposer une telle technique présentant des performances accrues par rapport aux techniques de l'art antérieur pour la reconnaissance d'objets dans une image, dans laquelle les conditions d'illumination peuvent varier fortement.Another object of the invention is to provide such a technique having improved performance over prior art techniques for recognizing objects in an image, in which the illumination conditions can vary greatly.
Encore un autre objectif de l'invention est de proposer une telle technique qui soit compatible avec les techniques existantes à base de modèles déformables ou de réseaux de neurones artificiels. L'invention a encore pour objectif de fournir une telle technique qui soit simple à mettre en œuvre et peu coûteuse à implémenter. 4. Exposé de l'inventionYet another object of the invention is to propose such a technique that is compatible with existing techniques based on deformable models or artificial neural networks. The invention also aims to provide such a technique that is simple to implement and inexpensive to implement. 4. Presentation of the invention
Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un procédé de traitement d'une image source représentative d'au moins un objet. Selon l'invention, un tel procédé comprend : une étape de construction d'une carte de distances associant à chaque pixel de l'image source la plus petite distance du pixel à l'un des contours du ou des objet(s), à partir d'une image de contours obtenue lors d'une étape préalable de recherche d'au moins un contour du ou des objet(s), - une étape de remplacement de ladite image source par ladite carte de distances en entrée d'une chaîne de traitement ; une étape de traitement de la carte de distances dans ladite chaîne de traitement.These objectives, as well as others that will appear later, are achieved using a method of processing a source image representative of at least one object. According to the invention, such a method comprises: a step of constructing a distance map associating with each pixel of the source image the smallest distance from the pixel to one of the contours of the object (s), to from an outline image obtained during a preliminary step of searching for at least one contour of the object (s), - a step of replacing said source image by said distance map at the input of a chain treatment ; a step of processing the distance map in said processing chain.
Ainsi, l'invention repose sur une approche tout à fait nouvelle et inventive du traitement d'une image source, basée sur la construction d'une carte de distances associée à l'image source, et le traitement non pas directement de l'image source de texture, mais de la carte de distances associée à l'image source. Autrement dit, la carte de distances se substitue à l'image source lors de l'étape de traitement. Cette substitution permet notamment d'améliorer la qualité du traitement, en particulier lorsque l'image source ne présente pas un éclairage homogène.Thus, the invention is based on a completely new and inventive approach to the processing of a source image, based on the construction of a distance map associated with the source image, and the treatment not directly of the image. source of texture, but of the distance map associated with the source image. In other words, the distance map replaces the source image during the processing step. This substitution makes it possible in particular to improve the quality of the processing, in particular when the source image does not have a homogeneous illumination.
L'étape de traitement peut notamment être mise en œuvre par une chaîne de traitement classique. Par exemple, une carte de distance ainsi construite peut être utilisée directement en entrée d'une chaîne de traitement correspondant à un réseau de neurones artificiels, ou en entrée d'une chaîne de traitement mettant en œuvre des modèles actifs d'apparence.The processing step may in particular be implemented by a conventional processing chain. For example, a distance map thus constructed can be used directly at the input of a processing chain corresponding to an artificial neural network, or at the input of a processing chain implementing active models of appearance.
Ainsi, l'invention permet de prendre en compte les relations de distance entre les différents contours composant un objet, au lieu de prendre directement en compte la valeur des couleurs ou niveaux de gris de l'image source, comme proposé par les techniques antérieures. Les images à traiter selon l'invention se trouvent donc plus robustes face à l'illumination.Thus, the invention makes it possible to take into account the distance relationships between the different contours composing an object, instead of directly taking into account the value of the colors or gray levels of the source image, as proposed by the prior techniques. The images to be processed according to the invention are thus more robust in the face of illumination.
Notamment, l'étape de construction d'une carte de distances peut mettre en œuvre un calcul d'une distance euclidienne entre au moins un pixel de l'image source et chacun des pixels de l'image de contours, et une attribution de la plus petite distance calculée audit pixel, délivrant une image de distances.In particular, the step of constructing a distance map can implement a calculation of a Euclidean distance between at least one pixel of the source image and each of the pixels of the contour image, and an allocation of the smaller distance calculated at said pixel, delivering an image of distances.
L'étape de construction d'une carte de distances peut également mettre en œuvre une normalisation de l'image de distances, et une inversion de l'image normalisée, délivrant la carte de distances.The step of constructing a distance map can also implement a normalization of the image of distances, and a reversal of the normalized image, delivering the distance map.
Ainsi, plus les pixels de la carte de distance sont sombres, plus ils sont éloignés des contours, et plus les pixels sont clairs, plus ils sont proches d'un contour.Thus, the darker the pixels of the distance map, the farther away they are from the contours, and the clearer the pixels, the closer they are to an outline.
En particulier, l'étape de traitement peut mettre en œuvre une reconnaissance de l'objet dans l'image source. L'invention permet ainsi de reconnaître de manière plus fiable que les techniques de l'art antérieur un objet dans une image, quelles que soient les conditions d'illuminations.In particular, the processing step may implement recognition of the object in the source image. The invention thus makes it possible to recognize more reliably than the techniques of the prior art an object in an image, whatever the illumination conditions.
Selon un mode de réalisation particulier de l'invention, l'objet est un objet déformable. On entend notamment par objet déformable un objet dont les contours les plus denses sont les plus informatifs : par exemple un visage, un pneu, etc.According to a particular embodiment of the invention, the object is a deformable object. In particular, deformable object is understood to mean an object whose densest contours are the most informative: for example a face, a tire, etc.
Selon ce mode de réalisation, l'étape de traitement de la carte de distances peut comprendre des sous-étapes de : appariement d'un modèle déformable, représentatif de l'objet, à la carte de distances ; reconnaissance de l'objet dans l'image source, par ajustement du modèle déformable.According to this embodiment, the step of processing the distance map can include sub-stages of: matching of a deformable model, representative of the object, to the distance map; recognition of the object in the source image, by adjustment of the deformable model.
Notamment, le modèle déformable peut être généré par mise en œuvre des étapes suivantes : construction d'une base d'apprentissage comprenant au moins deux images de base représentatives d'un objet similaire audit objet déformable ; - association à chacune des images de base d'une carte de distances obtenue en associant à chaque pixel de l'image de base la plus petite distance du pixel à l'un des contours de l'objet similaire dans l'image de base ; génération du modèle déformable à partir des cartes de distance. L'invention concerne également un dispositif de traitement d'une image source représentative d'au moins un objet.In particular, the deformable model can be generated by implementing the following steps: constructing a learning base comprising at least two basic images representative of an object similar to said deformable object; associating with each of the basic images of a distance map obtained by associating with each pixel of the base image the smallest distance of the pixel with one of the outlines of the similar object in the base image; generation of the deformable model from the distance maps. The invention also relates to a device for processing a source image representative of at least one object.
Selon l'invention, un tel dispositif comprend : des moyens de construction d'une carte de distances associant à chaque pixel de l'image source la plus petite distance du pixel à l'un des contours dudit au moins un objet, à partir d'une image de contours préalablement issue de moyens de recherche d'au moins un contour dudit au moins un objet, des moyens de remplacement de l'image source par la carte de distances en entrée d'une chaîne de traitement ; des moyens de traitement de la carte de distances dans la chaîne de traitement.According to the invention, such a device comprises: means for constructing a distance map associating with each pixel of the source image the smallest distance from the pixel to one of the contours of said at least one object, from an outline image previously derived from means for searching at least one contour of said at least one object, means for replacing the source image by the distance map at the input of a processing chain; means for processing the distance map in the processing chain.
Un tel dispositif peut notamment mettre en œuvre le procédé de traitement tel que décrit précédemment.Such a device can in particular implement the treatment method as described above.
En particulier, comme indiqué précédemment, les moyens de construction et les moyens de traitement peuvent être implémentés dans deux entités distinctes, une première délivrant les cartes de distances associées aux images entrant dans ladite première entité, et une seconde comprenant une chaîne de traitement classique. Par exemple, une carte de distance ainsi construite peut être utilisée directement en entrée d'une chaîne de traitement correspondant à un réseau de neurones artificiels, ou en entrée d'une chaîne de traitement mettant en œuvre des modèles actifs d'apparence.In particular, as indicated above, the construction means and the processing means can be implemented in two distinct entities, a first delivering the distance maps associated with the images entering in said first entity, and a second comprising a conventional processing chain. For example, a distance map thus constructed can be used directly at the input of a processing chain corresponding to a network of artificial neurons, or input of a processing chain implementing active models of appearance.
L'invention concerne encore une carte de distances associée à une image source représentative d'au moins un objet. Selon l'invention, une telle carte de distances associe à chaque pixel de l'image source la plus petite distance du pixel à l'un des contours dudit au moins un objet, à partir d'une image de contours obtenue lors d'une étape préalable de recherche d'au moins un contour dudit au moins un objet.The invention also relates to a distance map associated with a source image representative of at least one object. According to the invention, such a distance map associates with each pixel of the source image the smallest distance from the pixel to one of the contours of said at least one object, from an outline image obtained during a preliminary step of searching for at least one contour of said at least one object.
Finalement, l'invention concerne un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, comprenant des instructions de code de programme pour la mise en œuvre du procédé de traitement tel que décrit précédemment. 5. Liste des figuresFinally, the invention relates to a computer program product downloadable from a communication network and / or stored on a computer readable medium and / or executable by a microprocessor, comprising program code instructions for the implementation of the method treatment as described above. 5. List of figures
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : les figures IA et IB illustrent la construction d'une carte de distances à partir d'une image source, selon l'invention ; les figures 2 A à 2D présentent un exemple d'application de l'invention à la reconnaissance d'un visage dans une image source, à partir d'une carte de distances telle que présentée en relation avec la figure IB ; les figures 3 A et 3B illustrent l'évolution de la texture et l'évolution de la forme lors de l'ajustement d'un modèle sur un visage ; la figure 4 illustre les performances de l'invention ; - la figure 5 présente un schéma simplifié de la structure du dispositif de traitement selon l'invention la figure 6A illustre le principe général du procédé de traitement selon l'invention, et la figure 6B illustre son application à la reconnaissance d'objets dans une image. 6. Description d'un mode de réalisation de l'inventionOther characteristics and advantages of the invention will emerge more clearly on reading the following description of a particular embodiment, given as a simple illustrative and nonlimiting example, and the appended drawings, among which: FIGS. and IB illustrate the construction of a distance map from a source image according to the invention; FIGS. 2A to 2D show an example of application of the invention to the recognition of a face in a source image, from a distance map as presented in relation with FIG. 1B; FIGS. 3A and 3B illustrate the evolution of the texture and the evolution of the shape during the adjustment of a model on a face; Figure 4 illustrates the performance of the invention; FIG. 5 presents a simplified diagram of the structure of the processing device according to the invention; FIG. 6A illustrates the general principle of the processing method according to the invention, and FIG. 6B illustrates its application to the recognition of objects in a picture. 6. Description of an embodiment of the invention
6.1 Principe général Le principe général de l'invention repose sur la mise en œuvre d'un pré-traitement appliqué à une image, permettant notamment d'améliorer la qualité du traitement de l'image, lorsque l'image ne présente pas un éclairage homogène. Autrement dit, l'invention propose un pré-traitement robuste aux variations d'éclairage.6.1 General principle The general principle of the invention is based on the implementation of a pre-treatment applied to an image, in particular to improve the quality of the image processing, when the image does not have a uniform illumination. In other words, the invention provides a robust pre-treatment to lighting variations.
Ce pré-traitement repose notamment sur le calcul d'une carte de distances à partir d'une image source et sur la substitution de la carte de distances ainsi calculée à l'image source pour effectuer le traitement directement sur la carte de distances.This pretreatment is based in particular on the calculation of a distance map from a source image and on the substitution of the calculated distance map to the source image for processing directly on the distance map.
En d'autres termes, et comme illustré en relation avec la figure 6A, l'invention propose un procédé de traitement d'une image source 53 représentative d'au moins un objet, comprenant : - une étape de construction 61 d'une carte de distances associant à chaque pixel de l'image source la plus petite distance du pixel à l'un des contours du ou des objets de l'image, délivrant une carte de distances 62, une étape de remplacement de l'image source par la carte de distances en entrée d'une chaîne de traitement ; - une étape de traitement 63 de la carte de distances 62 dans la chaîne de traitement, délivrant une image traitée 54.In other words, and as illustrated in relation to FIG. 6A, the invention proposes a method of processing a source image 53 representative of at least one object, comprising: a card construction step 61 of distances associating with each pixel of the source image the smallest distance from the pixel to one of the contours of the object or objects of the image, delivering a distance map 62, a step of replacing the source image by the distance map at the input of a processing chain; a processing step 63 of the distance card 62 in the processing chain, delivering a processed image 54.
L'invention propose ainsi de remplacer les images de textures, composées de pixels, par des cartes de distances, en entrée d'une chaîne de traitement mettant par exemple en œuvre des Modèles Actifs d'Apparence ou des réseaux de neurones artificiels. Les cartes de distances correspondent plus précisément à des images comprenant les informations de distance entre les différents contours des objets (par exemple les yeux, le nez et la bouche pour un visage) se trouvant dans les images source (images de texture). Selon l'invention, on n'effectue donc pas le traitement directement sur la texture de l'image, en prenant en compte la valeur des couleurs ou niveaux de gris de l'image source, mais sur la carte de distances. Pour cette raison, les cartes de distances permettent de s'affranchir au moins en partie des effets de variations lumineuses qui rendent par exemple instable l'utilisation de Modèles Actifs d'Apparence lorsque l'illumination est quelconque. L'invention concerne notamment l'utilisation de ce pré-traitement pour des applications de reconnaissance d'un objet déformable dans une image. 6.2 Création d'une carte de distanceThe invention thus proposes to replace the texture images, composed of pixels, with distance maps, at the input of a processing chain implementing, for example, Active Appearance Models or artificial neural networks. The distance maps correspond more precisely to images comprising the information of distance between the different contours of the objects (for example the eyes, the nose and the mouth for a face) found in the source images (texture images). According to the invention, therefore, the processing is not carried out directly on the texture of the image, taking into account the value of the colors or gray levels of the source image, but on the distance map. For this reason, the distance maps make it possible to overcome at least in part the effects of light variations which make the use of Active Models of Appearance unstable, for example, when the illumination is arbitrary. The invention particularly relates to the use of this pre-processing for recognition applications of a deformable object in an image. 6.2 Creating a distance map
On présente ci- après, en relation avec les figures IA et IB, les étapes mises en œuvre pour la construction d'une carte de distances à partir d'une image source, encore appelée image de texture originale.In the following, with reference to FIGS. 1A and 1B, the steps implemented for the construction of a distance map from a source image, called the original texture image.
Pour ce faire, on considère une image source en niveaux de gris, illustrant par exemple un visage.To do this, we consider a grayscale source image, illustrating for example a face.
On considère notamment que si l'image source est en couleur, on met préalablement en œuvre une conversion de l'image en couleur en image en niveaux de gris, en calculant la composante luminance L du codage Teinte Saturation Luminance (an anglais « Hue Saturation and Luminance ») de l'espace des couleurs.In particular, it is considered that if the source image is in color, a conversion of the color image into a greyscale image is first performed by calculating the luminance component L of the Hue Saturation luminance code. and Luminance ") of the color space.
On rappelle à cet effet qu'une image couleur peut être considérée comme la combinaison de trois images de niveaux de gris, représentées chacune par une matrice comprenant les valeurs des pixels, une première image R correspondant au niveau de rouge, une deuxième image V correspondant au niveau de vert, et enfin une troisième image B correspondant au niveau de bleu de l'image couleur. Ainsi, la transformation d'une image en couleur vers une image en niveaux de gris met en œuvre la relation L =To this end, it is recalled that a color image can be considered as the combination of three gray-scale images, each represented by a matrix comprising the values of the pixels, a first image R corresponding to the red level, and a second corresponding image V at the level of green, and finally a third image B corresponding to the blue level of the color image. Thus, the transformation of a color image to a grayscale image implements the relationship L =
0.2989*R + 0.5870*V + 0.1140*B, avec L la nouvelle image en niveaux de gris (luminance).0.2989 * R + 0.5870 * V + 0.1140 * B, with L the new image in grayscale (luminance).
A. Egalisation d'histogrammeA. Histogram equalization
La première étape de construction d'une carte de distances associée à l'image source repose sur une technique connue d'égalisation d'histogramme de l'image source.The first step of constructing a distance map associated with the source image is based on a known technique of histogram equalization of the source image.
On rappelle ci-après le principe de l'égalisation d'histogramme d'une image. Pour mémoire, une image de taille (M, N) est classiquement définie par une matrice de taille (M, N) comportant les niveaux de gris des pixels de l'image, à savoir une valeur entière variant de 0 pour le noir à 255 pour le blanc.The principle of the histogram equalization of an image is recalled below. For the record, an image of size (M, N) is conventionally defined by a size matrix (M, N) comprising the gray levels of the pixels of the image, namely an integer value ranging from 0 for black to 255 for the white.
On peut ainsi construire un histogramme permettant de représenter la distribution des intensités des pixels d'une image, c'est-à-dire le nombre de pixels pour chaque intensité lumineuse. Plus précisément, on construit classiquement un graphique statistique représentant le niveau de gris (par exemple en allant du noir au blanc) en abscisse, et le nombre de pixels en ordonnées. Ainsi, l'histogramme d'une image en 256 niveaux de gris (de 0 à 255) est représenté par un graphique possédant 256 valeurs en abscisses, et le nombre de pixels par valeur de niveau de gris dans l'image en ordonnées. Afin d'améliorer le contraste de l'image, une égalisation d'histogramme, correspondant à une transformation de l'histogramme de l'image pour obtenir une image plus claire, plus sombre, ou plus normalisée, est nécessaire. On peut notamment rendre cette égalisation adaptative en l'effectuant par blocs. On rappelle que lorsque qu'une image est divisée en blocs, on ne considère que des parties de cette matrice.It is thus possible to construct a histogram making it possible to represent the distribution of the intensities of the pixels of an image, that is to say the number of pixels for each luminous intensity. More precisely, a statistical graph representing the gray level (for example, going from black to white) is conventionally constructed in abscissa, and the number of pixels in ordinates. Thus, the histogram of an image in 256 gray levels (from 0 to 255) is represented by a graph having 256 values on the abscissa, and the number of pixels per value of gray level in the image on the ordinates. In order to improve the contrast of the image, a histogram equalization, corresponding to a transformation of the histogram of the image to obtain a lighter, darker, or more normalized image, is necessary. We can notably make this adaptive equalization by performing it in blocks. Remember that when an image is divided into blocks, only parts of this matrix are considered.
Une telle technique d'égalisation d'histogramme adaptative est notamment proposée par K. Zuiderveld dans son document « Contrast Limited Adaptive Histogram Equalization » (Graphics Gems IV, p.474-485, 1994).Such an adaptive histogram equalization technique is especially proposed by K. Zuiderveld in his document "Contrast Limited Adaptive Histogram Equalization" (Graphics Gems IV, p.474-485, 1994).
Par exemple, selon un mode de réalisation particulier de l'invention, on divise l'image source en 64 blocs en divisant les axes horizontaux et verticaux en 8, et on modifie la forme d'histogramme en suivant la distribution de Rayleigh de paramètre de distribution α égal à 2, pour obtenir une image égalisée. On rappelle que la fonction de probabilité deFor example, according to a particular embodiment of the invention, the source image is divided into 64 blocks by dividing the horizontal and vertical axes at 8, and the histogram shape is modified by following the Rayleigh distribution of the parameter. distribution α equal to 2, to obtain an equalized image. It is recalled that the probability function of
2 2 la distribution de Rayleigh (de variable aléatoire r) est P(r) = {r I a ) e~r a .2 2 the Rayleigh distribution (of random variable r) is P (r) = {r I a) e ~ ra .
B. LissageB. Smoothing
La deuxième étape de construction d'une carte de distances repose sur le lissage de l'image égalisée obtenue.The second step of constructing a distance map is based on the smoothing of the equalized image obtained.
L'utilisation d'un filtre passe-bas permet notamment d'atténuer le bruit de l'image, et donc de lisser l'image. Plus précisément, l'application d'un filtre sur une zone de l'image met en œuvre un produit de convolution permettant, pour chaque pixel de la zone à laquelle il s'applique, de modifier sa valeur en fonction des valeurs des pixels avoisinants, affectées de coefficients.The use of a low-pass filter makes it possible in particular to attenuate the noise of the image, and thus to smooth the image. More precisely, the application of a filter on an area of the image implements a convolution product allowing, for each pixel of the zone to which it applies, to modify its value as a function of the values of the neighboring pixels. , assigned coefficients.
Classiquement, un filtre est représenté par une matrice dont le centre correspond au pixel concerné. Les valeurs des coefficients de la matrice définissent les propriétés du filtre : passe-haut, passe-bas, passe-bande, directionnel, etc ..Classically, a filter is represented by a matrix whose center corresponds to the pixel concerned. The values of the matrix coefficients define the properties of the filter: high-pass, low-pass, band-pass, directional, etc.
Par exemple, selon ce mode de réalisation particulier de l'invention, on lisse l'image égalisée grâce à un filtre moyenneur F :For example, according to this particular embodiment of the invention, the equalized image is smoothed by means of an averaging filter F:
Figure imgf000010_0001
Plus précisément, le filtrage est mis en œuvre en positionnant le centre du filtre successivement à chaque pixel de l'image et en faisant une moyenne des pixels voisins pondérée par les coefficients du filtre.
Figure imgf000010_0001
More specifically, the filtering is implemented by positioning the center of the filter successively at each pixel of the image and by averaging the neighboring pixels weighted by the coefficients of the filter.
On peut notamment remarquer que les deux premières étapes d'égalisation d'histogramme et de lissage sont facultatives, mais permettent d'améliorer la qualité du traitement.In particular, it may be noted that the first two steps of histogram equalization and smoothing are optional, but make it possible to improve the quality of the treatment.
C. Extraction des contours La troisième étape de construction d'une carte de distances repose sur l'application, à l'image lissée, d'un extracteur de contours, permettant d'obtenir une image de contours de l'image source.C. Extraction of contours The third step of constructing a distance map is based on the application, in the smoothed image, of an edge extractor, making it possible to obtain a contour image of the source image.
On rappelle que l'extraction de contours est une phase de détection des pourtours d'objets dans l'image. Ces pourtours sont caractérisés par des discontinuités de niveaux de gris d'un côté et de l'autre des contours. Ces discontinuités peuvent notamment être détectées par le calcul du gradient de l'image. De plus, des filtres possédant des coefficients particuliers permettent d'obtenir une bonne estimation des dérivées directionnelles de l'image par rapport à un axe. Ensuite, en ne gardant que les pixels possédant un gradient supérieur à un seuil prédéterminé (opération de seuillage), seules les discontinuités les plus fortes sont conservées, ce qui correspond aux contours d'objets les plus pertinents.It is recalled that the extraction of outlines is a phase of detection of the edges of objects in the image. These edges are characterized by discontinuities of gray levels on one side and the other contours. These discontinuities can in particular be detected by calculating the gradient of the image. In addition, filters having particular coefficients make it possible to obtain a good estimate of the directional derivatives of the image with respect to an axis. Then, keeping only the pixels having a gradient greater than a predetermined threshold (thresholding operation), only the strongest discontinuities are preserved, which corresponds to the contours of the most relevant objects.
Au cours de l'opération d'extraction de contours, on assigne par exemple la valeur 0 aux pixels présentant une valeur supérieure au seuil prédéterminé, et la valeur 1 aux pixels présentant une valeur inférieure audit seuil. On créé ainsi une image binaire de contours, permettant de visualiser les contours en noirs sur une image à fond blanc.During the contour extraction operation, for example, the value 0 is assigned to the pixels having a value greater than the predetermined threshold, and the value 1 to the pixels having a value lower than said threshold. A binary image of contours is thus created, making it possible to visualize the contours in black on a white background image.
En particulier, afin de ne pas réduire le nombre de contours en imposant un seuil trop élevé, et de ne pas récupérer un nombre non significatif de contours en imposant un seuil trop bas, on détermine, selon l'invention, un seuil bloc par bloc à l'intérieur de l'image. Autrement dit, on met en œuvre un découpage de l'image lissée en au moins deux blocs de pixels, on attribue à chacun des blocs un seuil, déterminé en fonction du contenu du bloc, et, pour chacun des blocs, on compare la valeur des pixels du bloc au seuil correspondant de ce bloc et on ne garde que les pixels possédant un gradient supérieur à ce seuil. En effet, en fixant un seuil pour toute l'image, les zones à faible contraste ne sont pas prises en compte, puisque le gradient calculé est trop faible, alors qu'il est possible que des contours importants s'y trouvent. Le choix d'un seuil bloc par bloc dans l'image permet donc de s'adapter aux différents contrastes de l'image.In particular, in order not to reduce the number of contours by imposing a threshold that is too high, and not to recover a non-significant number of contours by imposing a threshold that is too low, it is determined, according to the invention, a threshold block by block inside the image. In other words, the smoothed image is divided into at least two blocks of pixels, each block is assigned a threshold, determined according to the content of the block, and, for each of the blocks, the value is compared. pixels of the block at the corresponding threshold of this block and we keep only the pixels having a gradient greater than this threshold. Indeed, by setting a threshold for the whole image, the low contrast areas are not taken into account, since the calculated gradient is too low, while it is possible that important contours are there. Choosing a block-by-block threshold in the image therefore makes it possible to adapt to the different contrasts of the image.
Par exemple, en revenant à l'exemple décrit précédemment, la phase d'extraction de contours est réalisée au moyen d'un filtre de Sobel sur les 64 blocs de l'image, selon ce mode de réalisation particulier de l'invention.For example, returning to the example described above, the contour extraction phase is performed by means of a Sobel filter on the 64 blocks of the image, according to this particular embodiment of the invention.
En effet, on peut approximer les gradients directionnels au moyen de filtres de Sobel de direction horizontale
Figure imgf000012_0001
Indeed, we can approximate the directional gradients by means of filters of Sobel of horizontal direction
Figure imgf000012_0001
En appliquant ces deux filtres sur l'image lissée, on obtient deux images de gradient Ix et Iy. Le calcul d'une magnitude permet ensuite de ne considérer qu'une image de gradients, à laquelle on peut attribuer des seuils par blocs, afin de récupérer les contours des objets dans l'image.By applying these two filters on the smoothed image, two gradient images I x and I y are obtained. The calculation of a magnitude then makes it possible to consider only an image of gradients, to which blocks can be assigned, in order to recover the contours of the objects in the image.
L'image de magnitude B est définie par la somme des matrices Ix et Iy, dont les valeurs ont été préalablement élevées au carré. On considère notamment que la valeur efficace du bruit est estimée par la racine carrée de la moyenne de B. On définit ainsi par exemple le seuil comme correspondant à 75% de cette valeur. Finalement, comme indiqué précédemment, on attribue la valeur 0 aux pixels de l'image de magnitude B présentant une valeur supérieure au seuil ainsi défini, correspondant à un contour noir, et la valeur 1 aux pixels présentant une valeur inférieure à ce seuil. On obtient ainsi une image binaire de contours, telle qu'illustrée en figure IA.The magnitude B image is defined by the sum of the matrices I x and I y , whose values have been previously squared. In particular, it is considered that the effective value of the noise is estimated by the square root of the average of B. For example, the threshold is defined as 75% of this value. Finally, as indicated above, the value of 0 is assigned to the pixels of the magnitude B image having a value greater than the threshold thus defined, corresponding to a black outline, and the value 1 to the pixels having a value lower than this threshold. A binary image of outlines is thus obtained, as illustrated in FIG.
D. Carte de distances La quatrième étape repose sur la construction même de la carte de distances, à partir de l'image binaire de contours, en associant à chaque pixel de l'image de contours la distance à son plus proche contour se trouvant dans l'image de contours.D. Distance Map The fourth step is based on the construction of the distance map, from the binary contour image, associating with each pixel of the contour image the distance to its nearest contour in the outline image.
Comme indiqué précédemment, l'invention repose sur la construction d'une carte de distances, telle que la carte de distances se substitue à l'image source lors d'un traitement de l'image, de façon à améliorer la qualité du traitement lorsque l'image source ne présente pas un éclairage homogène.As indicated above, the invention is based on the construction of a distance map, such that the distance map replaces the source image during image processing, so as to improve the quality of the processing when the source image does not have uniform illumination.
Selon l'invention, on construit une carte de distances à partir d'une image binaire de contours, dans laquelle les pixels représentatifs des contours portent par exemple une valeur égale à 0 (noir), et les pixels représentatifs du fond de l'image portent une valeur égale à 1 (blanc).According to the invention, a distance map is constructed from a contour binary image, in which the pixels representative of the contours for example bear a value equal to 0 (black), and the pixels representative of the background of the image. have a value equal to 1 (white).
Selon un mode de réalisation particulier de l'invention, on stocke dans un tableau de contours les coordonnées des pixels représentatifs des contours. On note {x tableau> y tableau ) ^es coordonnées des pixels stockés dans le tableau.According to a particular embodiment of the invention, the coordinates of the pixels representative of the contours are stored in a table of contours. {X table Note> Table y) ^ es coordinates of the pixels in the array.
On calcule ensuite, pour chacun des pixels de l'image de contours
Figure imgf000012_0002
) , la distance euclidienne De entre ce pixel et chaque pixel {x tableau ^ 'tableau ) du tableau de contours : De - -^[ X pixel Λ tableau ) + [y pixel y tableau )
Then, for each pixel of the contour image, one calculates
Figure imgf000012_0002
), the Euclidean distance D e between this pixel and each pixel {x table ^ ' table ) of the outline table: D e - - ^ [ X pixel Λ table) + [y pixel y table]
On assigne enfin à chaque pixel \ x pixel ->y pixel ) de l'image de contours la plus petite de la distance euclidienne De obtenue, délivrant ainsi une image de distances ID.Finally, it assigns each pixel \ x p i xel -> y p i xel) of the image contours the smallest Euclidean distance D e obtained, thereby outputting an image distances I D.
Selon ce mode de réalisation particulier de l'invention, on normalise cette image de distances ID entre 0 et 255 pour pouvoir la visualiser.According to this particular embodiment of the invention, this image of distances I D is normalized between 0 and 255 in order to be able to display it.
Pour ce faire, on modifie par exemple chaque pixel de l'image de distances ID à partir de la relation suivante, pour définir une image normalisée IN : n - 9^S P ~ Pmm P N ~ 2:" ' To do this, for example, each pixel of the image of distances I D is modified from the following relation, to define a normalized image I N : n - 9 ^ S P ~ Pmm PN ~ 2: "'
Pmax Pmm où : pN désigne la nouvelle valeur du pixel de l'image normalisée IN ; p désigne la valeur du pixel de l'image de distances ID ;Pmax Pmm where: p N denotes the new value of the pixel of the normalized image I N ; p denotes the value of the pixel of the image of distances I D ;
Pmm,pmax désignent respectivement la valeur minimale et la valeur maximale atteinte par les pixels de l'image de distances ID.P mm , p max respectively denote the minimum value and the maximum value reached by the pixels of the distance image I D.
A ce stade, plus un pixel est foncé (valeur proche de 0) plus il est proche d'un contour, et plus un pixel est clair (valeur proche de 255), plus il est éloigné d'un contour. Finalement, pour améliorer le confort visuel, il est possible d'inverser l'image normalisée IN pour générer la carte de distances :At this point, the more a pixel is dark (value close to 0) the closer it is to a contour, and the more a pixel is clear (value close to 255), the farther it is from an edge. Finally, to improve the visual comfort, it is possible to invert the normalized image I N to generate the distance map:
Carte de Distances = 255 - IN.Map of Distances = 255 - I N.
Cette dernière opération permet notamment d'inverser l'échelle des niveaux de gris, ce qui donne une meilleure fluidité visuelle : les pixels sombres deviennent clairs et les pixels clairs deviennent sombres.This last operation makes it possible in particular to invert the scale of the gray levels, which gives a better visual fluidity: the dark pixels become clear and the light pixels become dark.
Dans la carte de distance ainsi créée, telle qu'illustrée en relation avec la figure IB par exemple, on constate que plus un pixel est sombre, plus il est éloigné des contours, et plus un pixel est clair, plus il est proche d'un contour.In the distance map thus created, as illustrated in relation to FIG. 1B for example, it can be seen that the more a pixel is dark, the farther away it is from the outlines, and the brighter a pixel is, the closer it is to an outline.
L'invention permet ainsi de prendre en compte les relations de distance entre les différents contours composant un objet.The invention thus makes it possible to take into account the distance relationships between the different contours composing an object.
Ainsi, selon l'invention, on ne prend pas directement en compte la valeur des couleurs ou niveaux de gris de l'image source pour traiter cette image. L'invention permet ainsi de s'affranchir, au moins en partie, des effets de variations lumineuses, en délivrant une image robuste face à l'illumination. 6.3 Applications des cartes de distances à la reconnaissance d'objets dans une image. Comme indiqué précédemment et comme illustré en relation avec la figure 6B, l'invention concerne notamment l'utilisation des cartes de distances pour des applications à la reconnaissance d'au moins un objet dans une image.Thus, according to the invention, it does not directly take into account the value of the colors or gray levels of the source image to process this image. The invention thus makes it possible to overcome, at least in part, the effects of light variations, by delivering a robust image in the face of illumination. 6.3 Applications of distance maps to the recognition of objects in an image. As indicated above and as illustrated in connection with FIG. 6B, the invention particularly relates to the use of distance maps for applications in the recognition of at least one object in an image.
Ainsi, dans le cadre d'une application à la reconnaissance de visage, par exemple, l'étape de traitement 63 met en œuvre une reconnaissance d'un visage dans l'image source 53.Thus, in the context of an application to face recognition, for example, the processing step 63 implements recognition of a face in the source image 53.
Plus précisément, et comme indiqué précédemment, une carte de distances 62 associée à l'image source 53 est construite. Par ailleurs, au cours d'une étape 64, une base d'apprentissage est construite à partir d'un ensemble d'images 55 représentatives de visage associés à une ou plusieurs personnes. Cette base d'apprentissage est notamment composée des cartes de distances associées à chacune des images dudit ensemble, et permet de construire un modèle déformable 65.More specifically, and as indicated above, a distance map 62 associated with the source image 53 is constructed. On the other hand, in a step 64, a learning base is constructed from a set of representative facial images 55 associated with one or more persons. This learning base is notably composed of distance maps associated with each of the images of said set, and makes it possible to construct a deformable model 65.
Au cours de l'étape de traitement 63, on réalise un appariement du modèle déformable 65 à la carte de distances 62 associée à l'image source 53, puis une reconnaissance du visage dans l'image source 53, par ajustement du modèle déformable 65.During the processing step 63, the deformable model 65 is matched to the distance map 62 associated with the source image 53, then a face recognition in the source image 53, by adjustment of the deformable model 65 .
L'étape de traitement 63 délivre finalement une image 54 traitée, dans laquelle la forme et la texture du visage présent dans l'image source 53 sont retrouvées.The processing step 63 finally delivers a processed image 54, in which the shape and texture of the face present in the source image 53 are found.
Un objet peut notamment être représenté par un point d'intérêt. On rappelle ainsi qu'une carte de distances peut se substituer à une image source lors du traitement de l'image (la construction d'une carte de distances correspondant à un pré-traitement robuste à l'illumination), et donc être utilisée en entrée d'une chaîne de traitement, par exemple mise en œuvre par des modèles actifs d'apparence ou des réseaux de neurones artificiels, en remplacement des images de texture originales, encore appelées images sources.An object may in particular be represented by a point of interest. It is thus recalled that a distance map can be substituted for a source image during the image processing (the construction of a distance map corresponding to a pre-treatment robust to illumination), and thus be used in input of a processing chain, for example implemented by active models of appearance or networks of artificial neurons, replacing the original texture images, also called source images.
On rappelle notamment que selon l'invention, l'information contenue dans ces cartes de distances est fondamentale puisqu'il s'agit de l'information de distances entre les différents contours des objets se trouvant dans les images sources, permettant ainsi de s'affranchir, ou à tout le moins de réduire, des effets liés aux variations lumineuses qui rendent instables l'utilisation des modèles actifs d'apparence.It is recalled in particular that according to the invention, the information contained in these distance maps is fundamental since it concerns the information of distances between the different contours of the objects found in the source images, thus allowing to free, or at least reduce, effects related to light variations that make the use of active appearance models unstable.
On décrit ci-après de manière détaillée l'utilisation des cartes de distances dans la méthode des modèles actifs d'apparence (AAM), pour la reconnaissance de visages. On rappelle que cette technique se décompose classiquement en trois étapes principales : une phase d'apprentissage, permettant de créer un modèle ainsi qu'un paramètre permettant de le déformer ; - une phase de création de matrices d'expériences, permettant, grâce à un certain nombre d'expériences, de donner une relation entre la modification du paramètre d'apparence du modèle et l'ajustement du modèle sur des images ; une phase de segmentation, permettant d'ajuster le modèle sur de nouvelles images.The use of distance maps in the Active Appearance Model (AAM) method for face recognition is described in detail below. It should be noted that this technique is classically broken down into three main stages: a learning phase, which makes it possible to create a model as well as a parameter enabling it to be deformed; - a phase of creation of matrices of experiments, allowing, thanks to a certain number of experiments, to give a relation between the modification of the parameter of appearance of the model and the adjustment of the model on images; a phase of segmentation, allowing to adjust the model on new images.
A. Phase d'apprentissageA. Learning phase
On rappelle que la phase d'apprentissage permet de créer un modèle déformable à la fois en forme et en texture.Remember that the learning phase creates a deformable model both in shape and texture.
Classiquement, on construit une base d'apprentissage, composée par exemple de visages, à partir d'un ensemble d'images, desquelles on extrait différentes formes et textures de visages. Selon cet exemple, la base d'apprentissage obtenue est donc composée d'un ensemble de visages caractérisés par leur forme et leur texture.Classically, we build a learning base, composed for example of faces, from a set of images, from which we extract different shapes and textures of faces. According to this example, the learning base obtained is therefore composed of a set of faces characterized by their shape and their texture.
Selon l'invention, la base d'apprentissage est construite non pas à partir de visages directement extraits de chacune des images d'un ensemble d'images, mais à partir de cartes de distances associées à chacune des images dudit ensemble.According to the invention, the learning base is constructed not from faces directly extracted from each of the images of a set of images, but from distance maps associated with each of the images of said set.
Ainsi, au cours d'une première étape, les images dudit ensemble sont transformées en carte de distances, comme décrit précédemment.Thus, in a first step, the images of said set are transformed into a distance map, as previously described.
Puis en utilisant les annotations Sourcils, Yeux, Nez, Bouche et Contours du visage définissant les formes, les textures composant les formes sont récupérées. Ces textures correspondent notamment aux pixels, et à leurs niveaux de gris correspondant, des cartes de distances.Then using the Eyebrows, Eyes, Nose, Mouth and Face Contours annotations defining the shapes, the textures composing the shapes are retrieved. These textures correspond in particular to the pixels, and their corresponding gray levels, of distance maps.
La création du modèle déformable est alors mise en œuvre selon une technique classique.The creation of the deformable model is then implemented according to a conventional technique.
Tout d'abord, les formes (visages) sont alignées au moyen d'une transformation Procrustéenne, permettant de ramener toutes les formes de la base d'apprentissage dans une même orientation et dans un même rapport de taille que la forme moyenne xmoy , correspondant à la moyenne de toutes les formes de la base d'apprentissage. Ceci permet notamment, à l'aide d'une Analyse en Composante Principale (ACP), la création d'un modèle statistique de forme : xι ~ xmoy ~"~ Ψ x ' ^x avec X1 la forme synthétisée ; x moy la forme moyenne ; φx la matrice des principaux vecteurs propres de l'ACP ; et bx le vecteur contrôlant la forme synthétisée.First, the shapes (faces) are aligned by means of a Procrustean transformation, making it possible to bring back all the forms of the learning base in the same orientation and in the same ratio of size as the average form x moy , corresponding to the average of all forms of the learning base. This will include using a Principal Component Analysis (PCA), the creation of a form of statistical model: x ~ x Avg ι ~ "~ Ψ x ^ x X 1 with the synthesized form; x moy is the average shape; φ x matrix of the main eigenvectors of the ACP and b x the vector controlling the synthesized form.
Ensuite, toutes les textures de la base d'apprentissage sont déformées pour être appliquées sur la forme moyenne xmoy . Une ACP est alors appliquée sur cet ensemble de textures alignées sur la forme moyenne, afin de créer un modèle statistique en texture :
Figure imgf000016_0001
- bg avec gt la texture synthétisée ; gmoy la texture moyenne ; φg la matrice des principaux vecteurs propres de l'ACP ; et bg le vecteur contrôlant la texture synthétisée.
Then, all the textures of the learning base are deformed to be applied on the average form x moy . A PCA is then applied on this set of textures aligned on the average shape, in order to create a statistical model in texture:
Figure imgf000016_0001
- b g with g t the synthesized texture; g average medium texture; φ g the matrix of the principal eigenvectors of the PCA; and b g the vector controlling the synthesized texture.
Après avoir pondéré le vecteur bx par un poids Wx =
Figure imgf000016_0002
, (avec λx et λp les valeurs propres des ACP de forme et de texture) pour le rendre du même ordre de grandeur que le vecteur bg , ces vecteurs sont concaténés.
After weighting the vector b x by a weight W x =
Figure imgf000016_0002
, (with λ x and λ p the eigenvalues of the ACP of shape and texture) to make it of the same order of magnitude as the vector b g , these vectors are concatenated.
Une nouvelle ACP est alors pratiquée sur la concaténation de Wx bx et de bg , délivrant un modèle statistique d'apparence : b = [wx -bxbg ~\ = φ- c avec φ la matrice des principaux vecteurs propres de l'ACP ; et c le vecteur contrôlant conjointement la forme et la texture du modèle, appelé paramètre d'apparence. En effet, c contrôle les paramètres bx et bg , qui eux- mêmes contrôlent respectivement la forme et texture.A new PCA is then performed on the concatenation of W x b x and b g , delivering a statistical model of appearance: b = [w x -b x b g ~ \ = φ- c with φ the matrix of the principal eigenvectors of PCA; and c the vector jointly controlling the shape and texture of the model, called the appearance parameter. Indeed, c controls the parameters b x and b g , which themselves control the shape and texture respectively.
Par ailleurs, afin de reconstruire au mieux les formes et textures recherchées, il est préférable d'introduire un paramètre de pose t. Ce paramètre permet de contrôler la position, l'échelle, l'orientation de l'objet reconstruit : t = [Sx Sy Tx Ty] avec Sx = s - cos(0) - 1 ;
Figure imgf000016_0003
; où s désigne le rapport d'homothétie et θ l'angle de la rotation ; et Tx et Ty les translations en x et y.
Moreover, in order to reconstruct the desired shapes and textures, it is preferable to introduce a setting parameter t. This parameter allows to control the position, the scale, the orientation of the reconstructed object: t = [Sx Sy Tx Ty] with Sx = s - cos (0) - 1;
Figure imgf000016_0003
; where s denotes the ratio of homothety and θ the angle of rotation; and Tx and Ty the translations in x and y.
Les paramètres c et t permettent donc de représenter les objets appris dans la base d'apprentissage. On pourra notamment ajuster automatiquement ces paramètres afin de reconnaître un nouvel objet inconnu dans une nouvelle image source. B. Phase de création des matrices d'expérienceThe parameters c and t thus make it possible to represent the objects learned in the learning base. In particular, these parameters can be automatically adjusted to recognize a new unknown object in a new source image. B. Creation phase of the experiment matrices
On rappelle que la phase de création des matrices dites « d'expérience » donne une relation entre la position et la forme du modèle déformable, et sa manière d'évoluer, afin d'ajuster au mieux le modèle déformable sur la forme recherchée dans l'image.It is recalled that the phase of creation of so-called "experimental" matrices gives a relation between the position and the shape of the deformable model, and its way of evolving, in order to better adjust the deformable model on the form sought in the 'picture.
En effet, grâce aux étapes précédentes, chaque image de la base d'apprentissage contient un objet synthétisé par une certaine valeur du paramètre d'apparence c.Indeed, thanks to the previous steps, each image of the learning base contains an object synthesized by a certain value of the appearance parameter c.
Notons C0 la valeur du paramètre d'apparence c dans l'image i de la base d'apprentissage. En modifiant le paramètre C0 d'un écart δc, et en modifiant le paramètre de pose t (position, échelle et rotation) d'un temps δt, on synthétise une nouvelle forme xm et une nouvelle texture gm . Considérons maintenant la texture g,- de l'image i originale se trouvant à l'intérieur de la forme xm . La différence de pixels gt - gm , notée δg, et une régression linéaire à multiples variables sur un certain nombre d'expériences (modification des images de la base d'apprentissage de δc et de δt), donnent une relation entre δc et δg, puis entre δt et δg : δc = Rc - δg et δt = Rt δg avec Rc et Rt les matrices d'expérience. C. Phase de segmentationLet C 0 be the value of the appearance parameter c in image i of the learning base. By modifying the parameter C 0 by a difference δc, and by modifying the pose parameter t (position, scale and rotation) by a time δt, a new form x m and a new texture g m are synthesized. Consider now the texture g, - of the original image i lying inside the form x m . The difference in pixels g t - g m , denoted δg, and a linear regression with multiple variables on a certain number of experiments (modification of the images of the learning base of δc and δt), give a relation between δc and δg, then between δt and δg: δc = R c - δg and δt = R t δg with R c and R t the experimental matrices. C. Segmentation phase
On rappelle que la phase de segmentation permet, quant à elle, la mise en œuvre de la recherche d'une texture et d'une forme particulière (dont les modes de variations ont été appris dans la première phase d'apprentissage) dans de nouvelles images.It is recalled that the segmentation phase allows, in turn, the implementation of the search for a particular texture and shape (whose modes of variation were learned in the first phase of learning) in new images.
On rappelle notamment que la modification des paramètres c et t permet d'ajuster le modèle déformable sur l'objet à retrouver dans une nouvelle image.It is recalled in particular that the modification of the parameters c and t makes it possible to adjust the deformable model on the object to be found in a new image.
L'algorithme de recherche d'un objet dans une nouvelle image, notée image source, peut par exemple prendre la forme suivante : 1 - Générer gm et x à partir des paramètres c et t, initialement égaux à 0 ;The algorithm for searching an object in a new image, denoted source image, can for example take the following form: 1 - Generate g m and x from the parameters c and t, initially equal to 0;
2 - Calculer gt , correspondant à la texture se trouvant dans la forme x de l'image source ; 3 - Evaluer δg0 = gt - gm et l'erreur E0 = \δgo\ ;2 - Calculate g t , corresponding to the texture in the x-shape of the source image; 3 - Evaluate δg 0 = g t - g m and the error E 0 = \ δg o \;
4 - Prédire δt0 = RtQ δg et δc0 = RCQ δg ;4 - Predicting .delta.t R 0 = tQ .DELTA.G and .DELTA.C 0 = R CQ .DELTA.G;
5 - Trouver le premier coefficient d'atténuation k tel que E, < E0 , avec k e {1.5,0.5,0.25,0.125,0.0625} , avec Ej =
Figure imgf000018_0001
, où gmj est la texture créée par c ,- = c - k - δc0 et gt: est la texture de l'image se trouvant sous xt: (forme créée par Cj et modifiée de δt0 ) ; 6- Tant que l'erreur E.- n'est pas stable, recommencer à l'étape 1 avec c = C; et t = δt0 .
5 - Find the first attenuation coefficient k such that E, <E 0 , with ke {1.5,0.5,0.25,0.125,0.0625}, with E j =
Figure imgf000018_0001
, where g mj is the texture created by c, - = c - k - δc 0 and g t : is the texture of the image under x t : (shape created by C j and modified by δt 0 ); 6- As long as error E.- is not stable, start again at step 1 with c = C; and t = δt 0 .
Lorsque l'algorithme a convergé, une représentation de gt à travers le modèle est synthétisée dans gm . En effet, le paramètre d'apparence c, qui caractérise le modèle, permet à la fin de l'algorithme d'obtenir une représentation de la forme x et de la texture gm de l'objet présent dans l'image. Cette méthode des AAM peut donc être utile à la fois en synthèse et en analyse.When the algorithm converged, a representation of g t through the model is synthesized in g m . Indeed, the appearance parameter c, which characterizes the model, allows the end of the algorithm to obtain a representation of the shape x and the texture g m of the object present in the image. This method of MAAs can therefore be useful both in synthesis and in analysis.
On présente un exemple de l'application de cette technique à la reconnaissance d'un visage en relation avec les figures 2A à 2D.An example of the application of this technique to the recognition of a face in relation to FIGS. 2A to 2D is presented.
Selon l'invention, et comme illustré en relation avec la figure 2A, on crée une carte de distances associée à une image source, comprenant un nouveau visage à reconnaître.According to the invention, and as illustrated in relation with FIG. 2A, a distance map associated with a source image is created, comprising a new face to be recognized.
On apparie alors le modèle déformable, tel que défini précédemment, à la carte de distances associée à l'image source, comme illustré en figure 2B, à partir des paramètres d'apparence c et de pose t. On génère ainsi une forme x et une texture gm à partir des paramètres c et t (initialement égaux à 0), en ajustant le modèle déformable à l'objet reconnu.The deformable model, as defined above, is then related to the distance map associated with the source image, as illustrated in FIG. 2B, from the parameters of appearance c and pose t. This generates a shape x and a texture g m from the parameters c and t (initially equal to 0), by adjusting the deformable model to the recognized object.
Une fois la forme x déterminée, c'est-à-dire l'objet reconnu comme illustré en figure 2C, il reste à déterminer la texture gt se trouvant dans la forme x de l'image source, comme illustré en figure 2D.Once the shape x determined, that is to say the object recognized as illustrated in Figure 2C, it remains to determine the texture g t is in the form x of the source image, as shown in Figure 2D.
Classiquement, on réitère ces différentes étapes afin d'ajuster au mieux le modèle déformable sur l'objet à reconnaître.Classically, these different steps are reiterated in order to better adjust the deformable model on the object to be recognized.
Les figures 3A et 3B illustrent notamment cet ajustement sur deux exemples de recherche de visage, l'une en ne montrant que l'évolution de la texture (figure 3A), et l'autre en ne montrant que l'évolution de la forme (figure 3B). On constate notamment sur ces figures qu'après plusieurs itérations des étapes précédentes, le modèle est ajusté au mieux à la forme et/ou à la texture. Finalement, on constate que l'algorithme des AAM reste inchangé que l'on effectue une reconnaissance d'un objet dans une image selon une technique classique, ou selon l'invention. En effet, dans les deux situations, seules les images prises en compte lors de la création de la base d'apprentissage et lors de la phase de segmentation différent. L'invention propose ainsi de substituer une carte de distances à une imageFIGS. 3A and 3B notably illustrate this adjustment on two examples of face search, one showing only the evolution of the texture (FIG. 3A), and the other showing only the evolution of the shape (FIG. Figure 3B). It can be seen in particular in these figures that after several iterations of the preceding steps, the model is best adjusted to the shape and / or the texture. Finally, we see that the algorithm of the AAM remains unchanged that is carried out a recognition of an object in an image according to a conventional technique, or according to the invention. Indeed, in both situations, only the images taken into account during the creation of the learning base and during the different segmentation phase. The invention thus proposes to substitute a distance map for an image
« classique », de façon à améliorer le traitement de l'image, notamment lorsque celle-ci ne présente pas un éclairage homogène."Classic", so as to improve the image processing, especially when it does not have a uniform illumination.
6.4 Performances6.4 Performance
On présente désormais, en relation avec la figure 4, les performances de l'invention.We now present, in connection with Figure 4, the performance of the invention.
Plus précisément, la figure 4 présente la courbe d'erreur obtenue en mettant en œuvre le procédé de traitement d'une image selon l'invention appliqué à la reconnaissance de visage dans une image (courbe 41) et la courbe d'erreur obtenue en mettant en œuvre un procédé classique de reconnaissance de visage dans une image (courbe 42). On utilise pour comparer ces performances une base de données du centre de recherche « Robotics Institute » de l'Université Carnegie Mellon (CMU), la base « PIE », notamment présentée par T. Sim, S. Baker, et M. Bsat dans le document « The CMU Pose, Illumination, and Expression Database » (Proceedings of the fifth IEEE International Conférence on Automatic Face and Gesture Récognition, 2002). Cette base contient 68 visages pris sous des angles différents et sous 21 illuminations différentes pour chaque angle de vue. Plus précisément, pour réaliser ces courbes d'erreur, 8 visages ont été sélectionnés parmi les 68 de la base PIE. Parmi ces 8 visages, 4 sont utilisés lors de la phase d'apprentissage des AAM, et 4 lors de la phase de segmentation. Autrement dit, 4 visages sont « appris » pour former la base d'apprentissage, et 4 autres visages sont « non appris » et considérés comme des objets à reconnaître.More precisely, FIG. 4 shows the error curve obtained by implementing the image processing method according to the invention applied to face recognition in an image (curve 41) and the error curve obtained in FIG. implementing a conventional method of face recognition in an image (curve 42). To compare these performances, a database from Carnegie Mellon University's "Robotics Institute" (CMU) research center, the "PIE" database, presented by T. Sim, S. Baker, and M. Bsat in the CMU Pose, Illumination, and Expression Database (Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition, 2002). This base contains 68 faces taken from different angles and under 21 different illuminations for each angle of view. More precisely, to make these error curves, 8 faces were selected among the 68 of the PIE base. Of these 8 faces, 4 are used during the AAM learning phase, and 4 during the segmentation phase. In other words, 4 faces are "learned" to form the learning base, and 4 other faces are "not learned" and considered as objects to be recognized.
On considère notamment, pour chacun des 4 visages utilisés lors de la phase d'apprentissage, une illumination particulière correspondant à une illumination de face. Les 20 autres illuminations de ces visages sont utilisées lors de la phase de segmentation.In particular, for each of the 4 faces used during the learning phase, a particular illumination corresponding to a front illumination is considered. The other 20 illuminations of these faces are used during the segmentation phase.
On observe ainsi, sur cette figure 4, l'erreur moyenne obtenue, en abscisse, en fonction d'un numéro d'illumination donné, en ordonnée.Thus, in this FIG. 4, the average error obtained on the abscissa as a function of a given illumination number is plotted on the ordinate.
Plus précisément, les illuminations 2 à 8 correspondent à des éclairages plus ou moins forts et plus ou moins hauts sur le côté gauche du visage. Les illuminations 16 à 22 correspondent à des éclairages plus ou moins forts et plus ou moins hauts sur le côté droit du visage. Finalement, les illuminations 9 à 15 correspondent à un éclairage sur le visage de face.Specifically, the illuminations 2 to 8 correspond to more or less strong lights and more or less high on the left side of the face. The illuminations 16 to 22 correspond to lighting more or less strong and more or less high on the right side of the face. Finally, the illuminations 9 to 15 correspond to a lighting on the face face.
Les erreurs sont exprimées en rapport de la distance entre les yeux par rapport à un point, c'est-à-dire qu'une erreur de 1 correspond à une erreur commise en chaque point du modèle égale à la distance entre les deux yeux. Chaque point des courbes de la figure 4 correspond à la moyenne des erreurs commises par le modèle lors de la recherche de visage dans les 8 images de visages différents sous une même illumination donnée.The errors are expressed as a ratio of the distance between the eyes with respect to a point, that is, an error of 1 corresponds to an error made in each point of the model equal to the distance between the two eyes. Each point of the curves of figure 4 corresponds to the average of the errors made by the model during the search of face in the 8 images of different faces under the same given illumination.
On constate tout d'abord que la courbe d'erreur 41 se situe en dessous de la courbe d'erreur 42. On remarque ainsi que l'invention (courbe 41), basée sur l'utilisation de cartes de distances, permet de trouver les traits caractéristiques des visages. On peut notamment remarquer que dans cet exemple, seules 4 images de visages correctement éclairés ont été apprises par le modèle.It is first noted that the error curve 41 is below the error curve 42. It is thus noted that the invention (curve 41), based on the use of distance maps, makes it possible to find the characteristic features of the faces. It can be noted that in this example, only 4 images of correctly lit faces were learned by the model.
En revanche, la méthode classique (courbe 42) commet des erreurs lors de cette recherche de traits caractéristiques dès lors que l'éclairage n'est plus homogène (éclairages de côté gauche : illuminations 2 à 8, et éclairages de côté droit : illuminations 16 à 22).On the other hand, the classical method (curve 42) makes errors in this search for characteristic features as soon as the illumination is no longer uniform (left-hand illumination: illuminations 2 to 8, and right-hand illumination: illuminations 16 to 22).
On constate également que la technique selon l'invention est indépendante du sens de l'illumination (éclairages de côté). En effet, la courbe 41 reste stable et ne subit que quelques variations aux cours des différentes illuminations, tandis que la courbe 42 augmente nettement aux illuminations 2 à 8 et 16 à 22, c'est à dire lorsque les éclairages sont de côté.It is also noted that the technique according to the invention is independent of the direction of illumination (side lighting). Indeed, the curve 41 remains stable and undergoes only a few variations in the course of the various illuminations, while the curve 42 increases significantly to the illuminations 2 to 8 and 16 to 22, that is to say when the lights are on the side.
6.5 Dispositif de traitement6.5 Treatment device
On présente finalement en relation avec la figure 5 la structure du dispositif de traitement selon l'invention. Un tel dispositif comprend une mémoire M 51, et une unité de traitement 50 équipée d'un processeur μP, piloté par un programme d'ordinateur Pg 52. L'unité de traitement 50 reçoit en entrée une image source 53 représentative d'au moins un objet. Le processeur μP construit alors, selon les instructions du programme Pg 52, une carte de distances associant à chaque pixel de l'image source 53 la plus petite distance du pixel à l'un des contours du ou des objets, et réalise un traitement de la carte de distances.Finally, the structure of the treatment device according to the invention is presented in relation to FIG. Such a device comprises a memory M 51, and a processing unit 50 equipped with a μP processor, driven by a computer program Pg 52. The processing unit 50 receives as input a source image 53 representative of at least an object. The processor μP then builds, according to the instructions of the program Pg 52, a distance map associating with each pixel of the source image 53 the smallest distance of the pixel to one of the contours of the object or objects, and carries out a processing of the distance map.
L'unité de traitement 50 délivre ainsi en sortie une image 54 traitée.The processing unit 50 thus outputs a processed image 54.
Dans le cadre d'une application à la reconnaissance de visage, par exemple, l'unité de traitement 50 peut également recevoir en entrée un ensemble d'images 55 représentatives de visage associés à une ou plusieurs personnes.In the context of an application to face recognition, for example, the unit processing unit 50 may also receive as input a set of representative facial images 55 associated with one or more persons.
Le processeur μP construit alors, selon les instructions du programme Pg 52, une carte de distances associée à chacune des images dudit ensemble, pour générer une base d'apprentissage, et construit un modèle déformable à partir de la base d'apprentissage.The processor μP then builds, according to the instructions of the program Pg 52, a distance map associated with each of the images of said set, to generate a learning base, and builds a deformable model from the learning base.
Lors du traitement de l'image source 53, le processeur μP apparie le modèle à la carte de distances associée à l'image source 53 et ajuste ce modèle.During the processing of the source image 53, the μP processor matches the model to the distance map associated with the source image 53 and adjusts this model.
Finalement, l'unité de traitement 50 délivre en sortie une image 54 traitée, dans laquelle la forme et la texture du visage présent dans l'image source 53 sont retrouvées. Finally, the processing unit 50 outputs a processed image 54, in which the shape and texture of the face present in the source image 53 are found.

Claims

REVENDICATIONS
1. Procédé de traitement d'une image source (53) représentative d'au moins un objet, caractérisé en ce qu'il comprend : une étape de construction (61) d'une carte de distances associant à chaque pixel de ladite image source (53) la plus petite distance dudit pixel à l'un des contours dudit au moins un objet, à partir d'une image de contours obtenue lors d'une étape préalable de recherche d'au moins un contour dudit au moins un objet, une étape de remplacement de ladite image source par ladite carte de distances en entrée d'une chaîne de traitement ; une étape de traitement (63) de ladite carte de distances (62) dans ladite chaîne de traitement.A method for processing a source image (53) representative of at least one object, characterized in that it comprises: a step of constructing (61) a distance map associating with each pixel of said source image (53) the smallest distance from said pixel to one of the contours of said at least one object, from an outline image obtained during a preliminary step of searching for at least one contour of said at least one object, a step of replacing said source image by said distance map at the input of a processing chain; a processing step (63) of said distance map (62) in said processing chain.
2. Procédé de traitement d'une image source selon la revendication 1, caractérisé en ce que ladite étape de construction (61) d'une carte de distances met en œuvre un calcul d'une distance euclidienne entre au moins un pixel de ladite image source (53) et chacun des pixels de ladite image de contours, et une attribution de la plus petite distance calculée audit pixel, délivrant une image de distances.2. Process for processing a source image according to claim 1, characterized in that said step of constructing (61) a distance map implements a calculation of a Euclidean distance between at least one pixel of said image. source (53) and each of the pixels of said contour image, and an assignment of the smallest calculated distance to said pixel, delivering an image of distances.
3. Procédé de traitement d'une image source selon la revendication 2, caractérisé en ce que ladite étape de construction (61) d'une carte de distances met également en œuvre une normalisation de ladite image de distances, et une inversion de ladite image normalisée, délivrant ladite carte de distances (62).A method for processing a source image according to claim 2, characterized in that said step of constructing (61) a distance map also implements a normalization of said image of distances, and an inversion of said image standardized, delivering said distance map (62).
4. Procédé de traitement d'une image source selon l'une quelconque des revendications 1 à 3, caractérisé en ce que ladite étape de traitement (63) met en œuvre une reconnaissance dudit objet dans ladite image source (53). 4. Process for processing a source image according to any one of claims 1 to 3, characterized in that said processing step (63) implements a recognition of said object in said source image (53).
5. Procédé de traitement d'une image source selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ledit objet est un objet déformable. 5. Process for processing a source image according to any one of claims 1 to 4, characterized in that said object is a deformable object.
6. Procédé de traitement d'une image source selon la revendication 5, caractérisé en ce que ladite étape de traitement (63) de ladite carte de distances comprend des sous-étapes de : - appariement d'un modèle déformable, représentatif dudit objet, à ladite carte de distances ; reconnaissance dudit objet dans ladite image source, par ajustement dudit modèle déformable.6. Process for processing a source image according to claim 5, characterized in that said step of processing (63) said distance map comprises substeps of: - matching a deformable model, representative of said object, to said distance map; recognizing said object in said source image, by adjustment of said deformable model.
7. Procédé de traitement d'une image source selon la revendication 6, caractérisé en ce que ledit modèle déformable est généré par mise en œuvre des étapes suivantes : construction d'une base d'apprentissage comprenant au moins deux images de base représentatives d'un objet similaire audit objet déformable ; association à chacune desdites images de base d'une carte de distances obtenue en associant à chaque pixel de ladite image de base la plus petite distance dudit pixel à l'un des contours dudit objet similaire dans ladite image de base ; - génération dudit modèle déformable à partir desdites cartes de distance.7. Process for processing a source image according to claim 6, characterized in that said deformable model is generated by implementation of the following steps: construction of a learning base comprising at least two basic images representative of an object similar to said deformable object; associating with each of said base images a distance map obtained by associating with each pixel of said base image the smallest distance from said pixel to one of the contours of said similar object in said base image; generating said deformable model from said distance maps.
8. Procédé de traitement d'une image source selon l'une quelconque des revendications 1 à 7, caractérisé en ce que ladite chaîne de traitement met en œuvre un élément appartenant au groupe comprenant : un modèle actif d'apparence ; - un réseau de neurones artificiels.The method for processing a source image according to any one of claims 1 to 7, characterized in that said processing chain implements an element belonging to the group comprising: an active model of appearance; a network of artificial neurons.
9. Procédé de traitement d'une image source selon l'une quelconque des revendications 1 à 8, caractérisé en ce que ledit objet est un visage.9. Process for processing a source image according to any one of claims 1 to 8, characterized in that said object is a face.
10. Dispositif de traitement d'une image source représentative d'au moins un objet, caractérisé en ce qu'il comprend : - des moyens de construction d'une carte de distances associant à chaque pixel de ladite image source la plus petite distance dudit pixel à l'un des contours dudit au moins un objet, à partir d'une image de contours préalablement issue de moyens de recherche d'au moins un contour dudit au moins un objet, - des moyens de remplacement de ladite image source par ladite carte de distances en entrée d'une chaîne de traitement ; des moyens de traitement de ladite carte de distances dans ladite chaîne de traitement.10. Device for processing a source image representative of at least one object, characterized in that it comprises: means for constructing a distance map associating with each pixel of said source image the smallest distance of said pixel at one of the contours of said at least one object, from a contour image previously derived from means for searching for at least one contour of said at least one object, means for replacing said source image with said distance map at the input of a processing chain; means for processing said distance map in said processing chain.
11. Carte de distances associée à une image source représentative d'au moins un objet, caractérisé en ce que ladite carte de distances associe à chaque pixel de ladite image source la plus petite distance dudit pixel à l'un des contours dudit au moins un objet, à partir d'une image de contours obtenue lors d'une étape préalable de recherche d'au moins un contour dudit au moins un objet.A distance map associated with a source image representative of at least one object, characterized in that said distance map associates with each pixel of said source image the smallest distance from said pixel to one of the contours of said at least one object. object, from an outline image obtained during a preliminary step of searching for at least one contour said at least one object.
12. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, caractérisé en ce qu'il comprend des instructions de code de programme pour la mise en œuvre de l'une au moins des revendications 1 à 9. 12. Computer program product downloadable from a communication network and / or stored on a computer readable medium and / or executable by a microprocessor, characterized in that it comprises program code instructions for the implementation of at least one of claims 1 to 9.
PCT/EP2006/067876 2005-10-28 2006-10-27 Method for processing a representaitve source image of at least one object, processing device, corresponding distance map and a computer software product WO2007048844A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0511032 2005-10-28
FR0511032 2005-10-28

Publications (1)

Publication Number Publication Date
WO2007048844A1 true WO2007048844A1 (en) 2007-05-03

Family

ID=36293589

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/067876 WO2007048844A1 (en) 2005-10-28 2006-10-27 Method for processing a representaitve source image of at least one object, processing device, corresponding distance map and a computer software product

Country Status (1)

Country Link
WO (1) WO2007048844A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185320B1 (en) * 1995-03-03 2001-02-06 Arch Development Corporation Method and system for detection of lesions in medical images
US20020097912A1 (en) * 2000-12-12 2002-07-25 Ron Kimmel Method of computing sub-pixel euclidean distance maps

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185320B1 (en) * 1995-03-03 2001-02-06 Arch Development Corporation Method and system for detection of lesions in medical images
US20020097912A1 (en) * 2000-12-12 2002-07-25 Ron Kimmel Method of computing sub-pixel euclidean distance maps

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DEGUCHI K: "Shape reconstruction from endoscope image by its shadings", 1996 IEEE/SICE/RSJ INTERNATIONAL CONFERENCE ON MULTISENSOR FUSION AND INTEGRATION FOR INTELLIGENT SYSTEMS (CAT. NO.96TH8242) IEEE NEW YORK, NY, USA, 1996, pages 321 - 328, XP002381538, ISBN: 0-7803-3700-X *
MARQUES F ET AL: "Object matching based on partition information", PROCEEDINGS 2002 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (CAT. NO.02CH37396) IEEE PISCATAWAY, NJ, USA, vol. 2, 2002, pages II - 829, XP002381537, ISBN: 0-7803-7622-6 *
RON KIMMEL ET AL: "Multivalued Distance Maps for Motion Planning on Surfaces with Moving Obstacles", IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION, IEEE INC, NEW YORK, US, vol. 14, no. 3, June 1998 (1998-06-01), XP011053296, ISSN: 1042-296X *
SALERNO O ET AL: "Object recognition based on binary partition trees", 24 October 2004, IMAGE PROCESSING, 2004. ICIP '04. 2004 INTERNATIONAL CONFERENCE ON SINGAPORE 24-27 OCT. 2004, PISCATAWAY, NJ, USA,IEEE, PAGE(S) 929-932, ISBN: 0-7803-8554-3, XP010785156 *

Similar Documents

Publication Publication Date Title
Liang et al. Single underwater image enhancement by attenuation map guided color correction and detail preserved dehazing
Shih et al. Style transfer for headshot portraits
Goyal et al. Fast and enhanced algorithm for exemplar based image inpainting
EP1482724B1 (en) Image processing method for digital images with exposure correction by recognition of skin areas of the subject.
US20090003661A1 (en) Separating a Directional Lighting Variability In Statistical Face Modelling Based On Texture Space Decomposition
EP2076886A1 (en) Method and device for the virtual simulation of a sequence of video images
WO2003007243A2 (en) Method and system for modifying a digital image taking into account its noise
FR2981254A1 (en) METHOD OF SIMULATING A VARIABLE COLORIMETRY HAIR AND DEVICE FOR IMPLEMENTING THE METHOD
Heusch et al. Lighting normalization algorithms for face verification
Swami et al. Candy: Conditional adversarial networks based fully end-to-end system for single image haze removal
FR3088467A1 (en) METHOD FOR CLASSIFYING A REPRESENTATIVE INPUT IMAGE OF A BIOMETRIC TRAIT USING A CONVOLUTIONAL NEURON NETWORK
CN111539246A (en) Cross-spectrum face recognition method and device, electronic equipment and storage medium thereof
Swami et al. Candy: Conditional adversarial networks based end-to-end system for single image haze removal
Zhao et al. Deep pyramid generative adversarial network with local and nonlocal similarity features for natural motion image deblurring
Agaian et al. New haze removal scheme and novel measure of enhancement
EP3608835B1 (en) Method for processing images of fingerprints
KR102466061B1 (en) Apparatus for denoising using hierarchical generative adversarial network and method thereof
EP4162448A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
WO2007048844A1 (en) Method for processing a representaitve source image of at least one object, processing device, corresponding distance map and a computer software product
CN114202460A (en) Super-resolution high-definition reconstruction method, system and equipment facing different damage images
FR3127602A1 (en) method for generating an augmented image and associated device
EP3929809A1 (en) Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network
Cheng et al. Multiple Training Stage Image Enhancement Enrolled with CCRGAN Pseudo Templates for Large Area Dry Fingerprint Recognition
Parihar et al. UndarkGAN: Low-light Image Enhancement with Cycle-consistent Adversarial Networks
FR2986641A1 (en) Method for detecting face in image or video sequence, involves selecting respective object portions from two sets of object portions based on histograms, and reconstructing image representing object from selected object portions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06819171

Country of ref document: EP

Kind code of ref document: A1