WO2010146289A2 - System and method for locating a photographic image - Google Patents

System and method for locating a photographic image Download PDF

Info

Publication number
WO2010146289A2
WO2010146289A2 PCT/FR2010/051169 FR2010051169W WO2010146289A2 WO 2010146289 A2 WO2010146289 A2 WO 2010146289A2 FR 2010051169 W FR2010051169 W FR 2010051169W WO 2010146289 A2 WO2010146289 A2 WO 2010146289A2
Authority
WO
WIPO (PCT)
Prior art keywords
imager
photographic image
reflector
locating
target
Prior art date
Application number
PCT/FR2010/051169
Other languages
French (fr)
Other versions
WO2010146289A3 (en
Inventor
Livio De Luca
Matthieu Deveau
Original Assignee
Centre National De La Recherche Scientifique - Cnrs -
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National De La Recherche Scientifique - Cnrs - filed Critical Centre National De La Recherche Scientifique - Cnrs -
Publication of WO2010146289A2 publication Critical patent/WO2010146289A2/en
Publication of WO2010146289A3 publication Critical patent/WO2010146289A3/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction

Definitions

  • the present invention relates to a system and method for locating a photographic image for modeling a 3-dimensional scene, as well as an associated tagging device.
  • Modeling from photographs consists of taking several shots from different angles of a building or scene using a camera, calculating the positions and orientations of the points of view of the different shots , to point out the various structuring elements of this building on the various shots, and to reconstruct a three-dimensional model of this building or this scene in a virtual space, from the positions pointed on the various shots.
  • the score comes in two distinct stages: - the calculation of the positions and orientations of the points of view of the different shots; and
  • the pointing is done by a technician who manually selects pixels from shots using a pointer of a computer. This score requires several hours of work.
  • the object of the invention is in particular to reduce or eliminate the long and tedious step of pointing related to the calculation of the positions and orientations of the pictures.
  • the subject of the invention is a photographic image-locating system for modeling a 3-dimensional scene, the system comprising:
  • a marked device comprising a first imager and at least two targets distinct from each other; the first imager being able to image a scene to generate the photographic image to be located;
  • a locating device comprising a second imager able to image at least one target positioned at a known distance to generate a reference vignette, said second imager being able to image the device identified for generating a photographic registration image, said shooting of the identified device being simultaneous with the shooting of the scene;
  • a calculation unit capable of angularly locating the photographic image to be located in relation to a reference frame from the reference vignette and from the photographic marker image.
  • the location system comprises one or more of the following characteristics:
  • a measurement unit capable of measuring the position of the device identified with respect to the reference frame, said position measurement being simultaneous with the shooting of the scene; and wherein the computing unit is adapted to position the photographic image to be located from the measured position; said measuring unit comprising
  • a transmitter / receiver able to emit a beam towards a reflector and to receive the beam reflected by the reflector; and a reflector adapted to reflect the beam from the transmitter / receiver; the transmitter / receiver belonging to the tracking device, the reflector belonging to the device identified; the position of the device identified with respect to a reference corresponding to the position of the reflector relative to a reference frame;
  • the invention also relates to a device identified for a photographic image locating system described above, said identified device comprising a first imager and at least two targets distinct from each other; the first imager being able to image a scene to generate the photographic image to locate.
  • the invention also relates to a method for locating at least one photographic image for modeling a 3-dimensional scene from a photographic image locating system; said locating system comprising a marked device comprising a first imager and at least two targets distinct from each other, and a locating device comprising a second imager and a calculating unit, characterized in that the method comprises the steps following: obtaining at least part of a photographic image, hereinafter referred to as a reference vignette, representing at least one target positioned at a known distance;
  • the method comprises one or more of the following characteristics:
  • the method further comprises the steps of:
  • the step of obtaining the reference vignette is performed by shooting the target positioned at a distance known by the second imager;
  • the method further comprises the following steps: sampling of the reference sticker as a function of the known distance and the distance between the reflector and the second imager; and
  • the method further comprises a step of determining the possible positions of each target in a virtual space, said possible positions being the points of intersection between a virtual sphere and a virtual line, said virtual sphere being centered on the position of the reflector, said virtual sphere having a radius equal to the distance between each target and the reflector; said virtual straight line passing through a perspective point of the registration photographic image and by the position of the centroid of each target in the registration photographic image; the method further comprises a step of determining the positions of the targets in the virtual space by similarity between, on the one hand, the possible positions of the targets and, on the other hand, the distances and the angles between each target and the target. reflector;
  • the method comprises the following steps:
  • the subject of the invention is also a computer program, characterized in that it comprises instructions for implementing the method for locating at least one photographic image for modeling a 3-dimensional scene from a system photographic image localization, when these instructions are executed by a processor.
  • FIG. 1 is a schematic view of the locating system according to the invention
  • FIG. 2 is a diagram of the steps of the method according to the invention
  • Figures 3 and 4 are diagrams showing certain steps of the method according to the invention.
  • the locating system 2 comprises a device marked 4 and a tracking device 6.
  • the support 8 is for example formed by a ring 16 on the outer periphery of which the targets 12 ! are fixed.
  • the ring 16 is further provided with a bar 18 carrying the first imager 10.
  • the support 8 has a different shape.
  • the first imager 10 is able to photograph a building or a scene
  • the six H 1 targets are spherical in shape. Each target has a different color.
  • the targets have different shapes.
  • the device 4 identified has only two targets distinct from each other.
  • the tracking device 6 comprises a second camera, hereinafter referred to as the second imager 26, capable of photographing the device marked 4 at the moment when the first imager 10 takes the scene 20 for photography. generating a photographic image hereinafter called a registration photographic image 30.
  • the locating system 2 further comprises a measurement unit 7 and a calculation unit 9.
  • the measurement unit 7 is able to measure the position of the device identified with respect to a fixed reference. It comprises a transmitter / receiver 24 integrated in the marking device 6 and a reflector 14 fixed on the inner periphery of the ring 16 of the device identified.
  • the transmitter / receiver 24 is able to emit a laser beam towards the reflector 14 and to receive the beam reflected by the reflector 14.
  • the transmitter / receiver 24 and reflector 14 is for example constituted by a rangefinder.
  • the reflector 14 is a prism
  • the rangefinder is provided with a prism optical tracking system.
  • the transmitter / receiver assembly 24, reflector 14 and second imager 26 is preferably constituted by a total station. In this case, the positions measured by the transmitter / receiver of the total station are corrected to define positions with respect to the center of view of the second imager 26. In the remainder of the description, it will be considered that the transmitter / transmitter assembly receiver 24, reflector 14 and second imager 26 is constituted by a total station and that the positions measured by the transmitter / receiver are corrected to define positions with respect to the center of view of the second imager 26.
  • the transmitter / receiver 24 is able to emit an ultrasound beam.
  • a reference frame 25 is conventionally chosen at the center of view of the second imager 26.
  • a reference frame 27 is conventionally selected at the center of the reflector 14.
  • a reference frame 28 is conventionally chosen at the center of view of the first imager 10.
  • the rotation matrix R is representative of the rotation between the reference 27 of the reflector 14 and the reference 28 of the first imager 10.
  • the rotation matrix R ' is representative of the rotation between the reference 25 of the second imager 26 and the reference 27 of the Reflector 14.
  • the matrix Rg is representative of the rotation between the reference frame 25 of the second imager 26 and the reference frame 28 of the first imager 10 or, in other words, the orientation of the first imager 10, with respect to the reference frame 25.
  • Rg R. R '.
  • the translation matrix T is representative of the translation between the reference 27 of the reflector 14 and the reference 28 of the first imager 10.
  • the translation matrix T ' is representative of the translation between the reference frame 25 of the second imager 26 and the reference 27 of the Reflector 14.
  • the calculation unit 9 comprises a memory 32 able to store a computer program and initial data, and a processor 34 able to execute this computer program from the initial data and data provided by the measurement unit. 7, the first imager 10 and the second imager 26.
  • the computing unit 9, the first imager 10 and the second imager 26 comprise unrepresented communication means.
  • the initial data comprise the distances and the angles between the targets Yl x and the reflector 14, the distances and the angles between the reflector 14 and the first imager 10, as well as a reference vignette, as explained hereinafter.
  • the locating method according to the invention begins with a step 36 during which a target is taken in photography at a known distance do. This target is called the first target ⁇ 2 ⁇ below.
  • a portion of the photographic image photographed in step 36 is extracted and stored in the memory 32.
  • This image portion represents the first target 1 ⁇ .
  • This portion of the image is shown schematically in FIG. 3 and will be called hereinafter reference vignette 39.
  • the distances and the angles between the reflector 14, and more precisely the reference 27 of the reflector, and the first imager 10, or more precisely the reference 28 of the first imager, are measured and recorded in the memory 32.
  • the processor 34 calculates the rotation matrix R and the corresponding translation matrix T and stores them in the memory 32.
  • the distances and the angles between the targets Yl x and the reflector 14 are measured and recorded in the memory 32.
  • the distances and the angles between the targets Yl 1 and the reflector 14 define the geometric model of the device identified.
  • Steps 36 to 42 can be done in the laboratory.
  • the first imager 10 takes a photograph of the scene 20 or the building to be photographed, and generates a photographic image to be located 22.
  • the second imager 26 takes a photograph of the device marked 4 to generate a registration photographic image 30 and the measurement unit 7 measures the distance to the identified device 4 and, in particular, to the reflector 14 and the angles aiming the laser beam in the reference frame 25 of the second imager. step
  • the processor 34 uses the distance between the second imager 26 and the reflector 14 measured during step 44.
  • the first resampling factor fi is given by the formula below:
  • - D is the distance between the second imager 26 and the reflector 14.
  • - C is the distance between the first target 12 1 and the second imager 26 when shooting in step 36.
  • the first resampling factor fi is applied to the reference vignette 39, the latter is resized so that the first target 12 1 has an apparent dimension equivalent to the dimension it would have if it had been photographed at a distance. D.
  • the second resampling factor f 2 is given by the formula below:
  • the reference vignette 39 is resized so that the first target 12i has an apparent size equivalent to the dimension it would have if it had been photographed at a distance equal to D + R.
  • the third resampling factor f 3 is given by the formula below: (D - R)
  • the third resampling factor f 3 is applied to the reference vignette 39, the latter is resized so that the first target 12 1 has an apparent dimension equivalent to the dimension it would have if it had been photographed at a distance DR.
  • a set of correlation scores is computed between the registration photographic image 30 and the first job thumbnail 45.
  • the registration photographic image 30 is partitioned into a plurality of portions. image 51 of the same size as the first work vignette 45.
  • a correlation score is for example calculated according to the formula mentioned below:
  • - I 45 a vector representative of the ordered values of gray n x n pixels 45 of the working vignette
  • - I 51 is a vector representative of ordered gray values x n 5 ⁇ of the image portion 51
  • V (/ 5 ) is the variance of the gray values of the vector I 45 .
  • V (/ 5 / ) is the variance of the gray values of the vector I 51 .
  • - n is the total number of pixels in the work vignette ⁇ ⁇ 5 is the average of the gray values of the pixels x n A5 , M 51 is the average of the gray values of the pixels XJ 5 .
  • Correlation scores are also calculated between the registering photographic image 30 and the second 47 and third 49 job thumbnails to obtain three sets of correlation scores.
  • Each set of correlation scores corresponds to the correlation scores calculated with a different work vignette.
  • These three sets of correlation scores may for example be represented by three images 53, 55, 57 in three dimensions as illustrated in FIG.
  • the processor 34 searches among these three sets of correlation scores, the highest value of the correlation score, as well as the position (x 15 V 1 ) in one of the images 53, 55, 57 , corresponding to this value
  • a contour detecting process is performed in a subset of the photographic image tracking 30 centered on the position (x l5 V 1) determined in step 50.
  • a circle is estimated on the contour detected during step 52, and the position (x, y) of the center of this circle is determined.
  • This position (x, y,) is comparable to the position of the center of the detected target.
  • This target is any one of the six targets of the support 8 and will be referenced hereinafter target 12.
  • a shape corresponding to the shape of the target is estimated on the detected contour and the position of the center of gravity of this shape is determined.
  • the target 12 of the support 8 corresponding to the target detected during steps 46 to 54 is recognized with respect to its color.
  • Steps 46 to 56 make it possible to determine the positions of the targets in the registration photographic image 30 from the reference sticker 39.
  • the position of the reflector 14 is sought in a virtual space created by the processor 34, from the distance and angles measured by the measurement unit 7 during the step 44.
  • a virtual sphere 59 illustrated in FIG. 4 is generated around the position of the reflector 14.
  • the radius of the virtual sphere 59 is equal to the distance between the reflector 14 and the determined target 12. This distance was recorded in the memory 32 during the step 42.
  • a virtual straight line 61 passing through the aiming center 63 of the second imager, also called perspective point of the photographic locating image 30, and by the position (x, y) of the center of the target 12 , is defined.
  • the points of intersection between the virtual line 59 and the virtual sphere 61 define two positional hypotheses of the target 12, in the virtual space.
  • step 62 the correlation score having the second highest value is searched and steps 52 to 60 are repeated for this second correlation score.
  • Steps 52 to 62 are repeated a number of times corresponding to the number of targets on the device 4 identified.
  • the real positions of the targets are chosen from among all the hypotheses of position of targets by similarity with the geometric model of the device spotted. 4 stored in memory 32.
  • a rotation matrix R 'and a translation matrix T' are established between the reference frame 25 of the second imager and the reference frame 27 of the reflector by means of the position of the targets determined during the process. step 64.
  • the matrix Rg representative of the orientation of the first imager 10 and the matrix Tg representative of the position of the first imager 10 relative to the reference frame 25, are determined from the matrices R and T calculated during of step 40, and matrices R 'and T' established during step 66, and by applying the formulas below:
  • Rg R.
  • R 'Tg T + T'
  • the photographic image to be located 22 is located in the virtual space by implementing the matrices Rg and Tg in 3D modeling software of the type:
  • the photographic image to be located 22 is located in the virtual space using the matrix Rg and the matrix Tg.
  • the 3D modeling of the scene is carried out by pointing the structuring elements onto the photographic image. to locate, by automatic detection of structuring elements on the photographic image 22 and / or by the exploitation of any other morphological information on the surface to be modeled (one or more positioned and oriented images), a scatter point cloud obtained by scanning laser, an already existing 3D model) ..
  • the rotation matrix Rg and the translation matrix Tg must be calculated for each new position of the device identified.
  • the photographic images to be located are localized with respect to a cloud of points representative of the scene to be modeled obtained by laser scanning scanning.
  • the device identified is mounted on a drone or hot-air balloon to take aerial photographs.
  • the images to be located are localized with respect to a 3D model of the environment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method and system for locating (2) a photographic image (22) for modeling a three-dimensional scene. The system (2) comprises: a referenced device (4) including a first imager (10) and targets (121, 122), the first imager (10) being capable of imaging a scene (20) for generating the photographic image to be located (22); a referencing device (6) including a second imager (26) capable of imaging a target (121) for generating a reference tag, said second imager (26) being capable of imaging the referenced device (4) for generating a photographic referencing image (30); and a computing unit (9) capable of angularly locating the photographic image to be located (22) from the reference tag and the photographic reference image (30).

Description

Système et procédé de localisation d'image photographique System and method for photographic image localization
La présente invention concerne un système et un procédé de localisation d'image photographique pour modéliser une scène en 3 dimensions, ainsi qu'un dispositif repéré associé.The present invention relates to a system and method for locating a photographic image for modeling a 3-dimensional scene, as well as an associated tagging device.
La modélisation à partir de photographies consiste à prendre plusieurs prises de vues selon différents angles d'un bâtiment ou d'une scène à l'aide d'un appareil photographique, à calculer les positions et orientations des points de vue des différentes prises de vue, à pointer les différents éléments structurants de ce bâtiment sur les différentes prises de vues, et à reconstruire une maquette tridimensionnelle de ce bâtiment ou de cette scène dans un espace virtuel, à partir des positions pointées sur les différentes prises de vues.Modeling from photographs consists of taking several shots from different angles of a building or scene using a camera, calculating the positions and orientations of the points of view of the different shots , to point out the various structuring elements of this building on the various shots, and to reconstruct a three-dimensional model of this building or this scene in a virtual space, from the positions pointed on the various shots.
Dans ce processus, le pointage intervient dans deux étapes distinctes : - le calcul des positions et orientations des points de vue des différentes prises de vue ; etIn this process, the score comes in two distinct stages: - the calculation of the positions and orientations of the points of view of the different shots; and
- la saisie des éléments structurants du bâtiment.- the seizure of structural elements of the building.
Le pointage est réalisé par un technicien qui sélectionne manuellement des pixels des prises de vues à l'aide d'un pointeur d'un ordinateur. Ce pointage requiert plusieurs heures de travail.The pointing is done by a technician who manually selects pixels from shots using a pointer of a computer. This score requires several hours of work.
L'invention a notamment pour but de réduire ou de supprimer l'étape longue et fastidieuse de pointage liée au calcul des positions et orientations des clichés.The object of the invention is in particular to reduce or eliminate the long and tedious step of pointing related to the calculation of the positions and orientations of the pictures.
A cet effet, l'invention a pour objet un système de localisation d'image photographique pour modéliser une scène en 3 dimensions, le système comportant :For this purpose, the subject of the invention is a photographic image-locating system for modeling a 3-dimensional scene, the system comprising:
- un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer l'image photographique à localiser ;a marked device comprising a first imager and at least two targets distinct from each other; the first imager being able to image a scene to generate the photographic image to be located;
- un dispositif de repérage comportant un deuxième imageur propre à imager au moins une cible positionnée à une distance connue pour générer une vignette de référence, ledit deuxième imageur étant apte à imager le dispositif repéré pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ; eta locating device comprising a second imager able to image at least one target positioned at a known distance to generate a reference vignette, said second imager being able to image the device identified for generating a photographic registration image, said shooting of the identified device being simultaneous with the shooting of the scene; and
- une unité de calcul apte à localiser angulairement l'image photographique à localiser par rapport à un référentiel à partir de la vignette de référence et de l'image photographique de repérage.a calculation unit capable of angularly locating the photographic image to be located in relation to a reference frame from the reference vignette and from the photographic marker image.
Suivant des modes particuliers de réalisation, le système de localisation comporte l'une ou plusieurs des caractéristiques suivantes :According to particular embodiments, the location system comprises one or more of the following characteristics:
- une unité de mesure apte à mesurer la position du dispositif repéré par rapport au référentiel, ladite mesure de position étant simultanée à la prise de vue de la scène ; et dans lequel l'unité de calcul est apte à positionner l'image photographique à localiser à partir de la position mesurée ; ladite unité de mesure comprenanta measurement unit capable of measuring the position of the device identified with respect to the reference frame, said position measurement being simultaneous with the shooting of the scene; and wherein the computing unit is adapted to position the photographic image to be located from the measured position; said measuring unit comprising
- un émetteur/récepteur apte à émettre un faisceau vers un réflecteur et à réceptionner le faisceau réfléchi par le réflecteur ; et un réflecteur apte à réfléchir le faisceau provenant de l' émetteur/récepteur ; l' émetteur/récepteur appartenant au dispositif de repérage, le réflecteur appartenant au dispositif repéré ; la position du dispositif repéré par rapport à un référentiel correspondant à la position du réflecteur par rapport à un référentiel ;a transmitter / receiver able to emit a beam towards a reflector and to receive the beam reflected by the reflector; and a reflector adapted to reflect the beam from the transmitter / receiver; the transmitter / receiver belonging to the tracking device, the reflector belonging to the device identified; the position of the device identified with respect to a reference corresponding to the position of the reflector relative to a reference frame;
- des cibles de couleurs différentes.- targets of different colors.
L'invention a également pour objet un dispositif repéré pour un système de localisation d'image photographique décrit ci-dessus, ledit dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer l'image photographique à localiser.The invention also relates to a device identified for a photographic image locating system described above, said identified device comprising a first imager and at least two targets distinct from each other; the first imager being able to image a scene to generate the photographic image to locate.
L'invention a également pour objet un procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique ; ledit système de localisation comportant un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre, et un dispositif de repérage comportant un deuxième imageur et une unité de calcul, caractérisé en ce que le procédé comporte les étapes suivantes : - obtention d'au moins une partie d'une image photographique, ci-après appelée vignette de référence, représentant au moins une cible positionnée à une distance connue ;The invention also relates to a method for locating at least one photographic image for modeling a 3-dimensional scene from a photographic image locating system; said locating system comprising a marked device comprising a first imager and at least two targets distinct from each other, and a locating device comprising a second imager and a calculating unit, characterized in that the method comprises the steps following: obtaining at least part of a photographic image, hereinafter referred to as a reference vignette, representing at least one target positioned at a known distance;
- prise de vue d'une scène par le premier imageur pour générer l'image photographique à localiser ;- shooting a scene by the first imager to generate the photographic image to locate;
- prise de vue du dispositif repéré par le deuxième imageur pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ;- Shooting of the device identified by the second imager to generate a registration photographic image, said shooting of the identified device being simultaneous with the shooting of the scene;
- localisation angulaire de l'image photographique à localiser par rapport à un référentiel à partir de la vignette de référence et de l'image photographique de repérage.angular location of the photographic image to be located relative to a reference frame from the reference vignette and the photographic marker image.
Suivant des modes particuliers de réalisation, le procédé comporte l'une ou plusieurs des caractéristiques suivantes :According to particular embodiments, the method comprises one or more of the following characteristics:
- à partir du système de localisation décrit ci-dessus comprenant en outre une unité de mesure comportant un émetteur/récepteur intégré au dispositif de repérage et un réflecteur fixé au dispositif repéré ; le procédé comprend en outre les étapes suivantes :- from the location system described above further comprising a measurement unit comprising a transmitter / receiver integrated in the tracking device and a reflector attached to the device identified; the method further comprises the steps of:
- mesure de la distance et des angles entre le réflecteur et le deuxième imageur par l'unité de mesure, ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène ; et - positionnement de l'image photographique à localiser à partir de ladite mesure de distance et d'angles et de l'image photographique de repérage ;measuring the distance and angles between the reflector and the second imager by the measurement unit, said measurement of distance and angles being simultaneous with the shooting of the scene; and positioning the photographic image to be located from said distance and angle measurement and the registration photographic image;
- l'étape d'obtention de la vignette de référence est réalisée par prise de vue de la cible positionnée à une distance connue par le deuxième imageur ;the step of obtaining the reference vignette is performed by shooting the target positioned at a distance known by the second imager;
- le procédé comporte en outre les étapes suivantes : - échantillonnage de la vignette de référence en fonction de la distance connue et de la distance entre le réflecteur et le deuxième imageur ; etthe method further comprises the following steps: sampling of the reference sticker as a function of the known distance and the distance between the reflector and the second imager; and
- détermination de la position des cibles dans l'image photographique de repérage à partir de la vignette de référence échantillonnée ;determining the position of the targets in the registration photographic image from the sampled reference vignette;
- à partir du système de localisation décrit ci-dessus comprenant en outre une mémoire stockant les distances et les angles entre chaque cible et le réflecteur, le procédé comporte en outre une étape de détermination des positions possibles de chaque cible dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère virtuelle et une droite virtuelle, ladite sphère virtuelle étant centrée sur la position du réflecteur, ladite sphère virtuelle ayant un rayon égal à la distance entre chaque cible et le réflecteur ; ladite droite virtuelle passant par un point perspectif de l'image photographique de repérage et par la position du barycentre de chaque cible dans l'image photographique de repérage ; - le procédé comporte en outre une étape de détermination des positions des cibles dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles et, d'autre part, les distances et les angles entre chaque cible et le réflecteur ;from the location system described above further comprising a memory storing distances and angles between each target and the reflector, the method further comprises a step of determining the possible positions of each target in a virtual space, said possible positions being the points of intersection between a virtual sphere and a virtual line, said virtual sphere being centered on the position of the reflector, said virtual sphere having a radius equal to the distance between each target and the reflector; said virtual straight line passing through a perspective point of the registration photographic image and by the position of the centroid of each target in the registration photographic image; the method further comprises a step of determining the positions of the targets in the virtual space by similarity between, on the one hand, the possible positions of the targets and, on the other hand, the distances and the angles between each target and the target. reflector;
- à partir du système de localisation décrit ci-dessus, dans lequel la mémoire stocke les distances et les angles entre le réflecteur et le premier imageur, le procédé comporte les étapes suivantes :from the location system described above, in which the memory stores the distances and the angles between the reflector and the first imager, the method comprises the following steps:
- calcul d'une matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur et d'une matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; etcalculating a rotation matrix representative of the rotation between the reflector and the first imager and a translational matrix representative of the translation between the reflector and the first imager; and
- établissement d'une matrice représentative de l'orientation du premier imageur par rapport au référentiel, et de la matrice représentative de la position premier imageur par rapport au référentiel, à partir des positions des cibles, de la matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur, et de la matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; et - localisation angulaire de l'image photographique à localiser par rapport au référentiel à partir de la matrice représentative de l'orientation du dispositif repéré par rapport au référentiel, et de la matrice représentative de la position du dispositif repéré par rapport au référentiel.establishing a matrix representative of the orientation of the first imager relative to the reference frame, and of the matrix representative of the first imager position relative to the reference frame, from the positions of the targets, of the rotation matrix representative of the rotation. between the reflector and the first imager, and the translational matrix representative of the translation between the reflector and the first imager; and angular location of the photographic image to be located with respect to the reference frame from the matrix representative of the orientation of the device identified with respect to the reference frame, and of the matrix representative of the position of the device identified with respect to the reference frame.
Enfin, l'invention a également pour objet un programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en œuvre le procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique, lorsque ces instructions sont exécutées par un processeur.Finally, the subject of the invention is also a computer program, characterized in that it comprises instructions for implementing the method for locating at least one photographic image for modeling a 3-dimensional scene from a system photographic image localization, when these instructions are executed by a processor.
L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins, sur lesquels : la figure 1 est une vue schématique du système de localisation selon l'invention ; la figure 2 est un diagramme des étapes du procédé selon l'invention ; et les figures 3 et 4 sont des schémas représentant certaines étapes du procédé selon l'invention.The invention will be better understood on reading the description which follows, given solely by way of example and with reference to the drawings, in which: Figure 1 is a schematic view of the locating system according to the invention; FIG. 2 is a diagram of the steps of the method according to the invention; and Figures 3 and 4 are diagrams showing certain steps of the method according to the invention.
En référence à la figure 1 , le système de localisation 2 comprend un dispositif repéré 4 et un dispositif de repérage 6.With reference to FIG. 1, the locating system 2 comprises a device marked 4 and a tracking device 6.
Selon le mode de réalisation illustré sur la figure 1, le dispositif repéré 4 comporte un support 8, un appareil photographique ci-après appelé premier imageur 10 et six cibles 12! avec i = 1,...6 portés par le support 8.According to the embodiment illustrated in FIG. 1, the device marked 4 comprises a support 8, a camera hereinafter called first imager 10 and six targets 12 ! with i = 1, ... 6 carried by the support 8.
Le support 8 est par exemple formé par un anneau 16 sur le pourtour extérieur duquel les cibles 12! sont fixées. L'anneau 16 est en outre muni d'une barre 18 portant le premier imageur 10.The support 8 is for example formed by a ring 16 on the outer periphery of which the targets 12 ! are fixed. The ring 16 is further provided with a bar 18 carrying the first imager 10.
En variante, le support 8 présente une forme différente.In a variant, the support 8 has a different shape.
Le premier imageur 10 est apte à prendre en photographie un bâtiment ou une scèneThe first imager 10 is able to photograph a building or a scene
20 pour générer une image photographique à localiser 22.20 to generate a photographic image to be located 22.
Les six cibles H1 sont de forme sphérique. Chaque cible présente une couleur différente.The six H 1 targets are spherical in shape. Each target has a different color.
En variante, les cibles présentent des formes différentes.Alternatively, the targets have different shapes.
En variante, le dispositif repéré 4 comporte uniquement deux cibles distinctes l'une de l'autre.Alternatively, the device 4 identified has only two targets distinct from each other.
Le dispositif de repérage 6 comprend un deuxième appareil photographique, ci- après appelé deuxième imageur 26, propre à prendre en photographie le dispositif repéré 4 au moment où le premier imageur 10 prend en photographie la scène 20 pour générer une image photographique ci-après appelée image photographique de repérage 30.The tracking device 6 comprises a second camera, hereinafter referred to as the second imager 26, capable of photographing the device marked 4 at the moment when the first imager 10 takes the scene 20 for photography. generating a photographic image hereinafter called a registration photographic image 30.
Le système de localisation 2 comporte en outre une unité de mesure 7 et une unité de calcul 9.The locating system 2 further comprises a measurement unit 7 and a calculation unit 9.
L'unité de mesure 7 est apte à mesurer la position du dispositif repéré par rapport à un repère fixe. Elle comprend un émetteur/récepteur 24 intégré au dispositif de repérage 6 et un réflecteur 14 fixé sur le pourtour intérieur de l'anneau 16 du dispositif repéré.The measurement unit 7 is able to measure the position of the device identified with respect to a fixed reference. It comprises a transmitter / receiver 24 integrated in the marking device 6 and a reflector 14 fixed on the inner periphery of the ring 16 of the device identified.
L'émetteur/récepteur 24 est apte à émettre un faisceau laser vers le réflecteur 14 et à réceptionner le faisceau réfléchi par le réflecteur 14.The transmitter / receiver 24 is able to emit a laser beam towards the reflector 14 and to receive the beam reflected by the reflector 14.
L'ensemble émetteur/récepteur 24 et réflecteur 14 est par exemple constitué par un télémètre. Dans ce cas, le réflecteur 14 est un prisme, et le télémètre est muni d'un système de suivi optique du prisme.The transmitter / receiver 24 and reflector 14 is for example constituted by a rangefinder. In this case, the reflector 14 is a prism, and the rangefinder is provided with a prism optical tracking system.
L'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est de préférence constitué par une station totale. Dans ce cas, les positions mesurées par l' émetteur/récepteur de la station totale sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26. Dans la suite de la description, il sera considéré que l'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est constitué par une station totale et que les positions mesurées par l' émetteur/récepteur sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26.The transmitter / receiver assembly 24, reflector 14 and second imager 26 is preferably constituted by a total station. In this case, the positions measured by the transmitter / receiver of the total station are corrected to define positions with respect to the center of view of the second imager 26. In the remainder of the description, it will be considered that the transmitter / transmitter assembly receiver 24, reflector 14 and second imager 26 is constituted by a total station and that the positions measured by the transmitter / receiver are corrected to define positions with respect to the center of view of the second imager 26.
En variante, l' émetteur/récepteur 24 est apte à émettre un faisceau ultrason.In a variant, the transmitter / receiver 24 is able to emit an ultrasound beam.
Un référentiel 25 est choisi conventionnellement au centre de visée du deuxième imageur 26. Un référentiel 27 est choisi conventionnellement au centre du réflecteur 14. Un référentiel 28 est choisi conventionnellement au centre de visée du premier imageur 10. Pour les besoins de l'invention, les matrices de rotation R, R' et Rg, et les matrices de translation T, T' et Tg sont établies.A reference frame 25 is conventionally chosen at the center of view of the second imager 26. A reference frame 27 is conventionally selected at the center of the reflector 14. A reference frame 28 is conventionally chosen at the center of view of the first imager 10. For the purposes of the invention, the rotation matrices R, R 'and Rg, and the translation matrices T, T' and Tg are established.
La matrice de rotation R est représentative de la rotation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de rotation R' est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. Enfin, la matrice Rg est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 28 du premier imageur 10 ou, autrement dit, l'orientation du premier imageur 10, par rapport au référentiel 25. En pratique, Rg = R . R' .The rotation matrix R is representative of the rotation between the reference 27 of the reflector 14 and the reference 28 of the first imager 10. The rotation matrix R 'is representative of the rotation between the reference 25 of the second imager 26 and the reference 27 of the Reflector 14. Finally, the matrix Rg is representative of the rotation between the reference frame 25 of the second imager 26 and the reference frame 28 of the first imager 10 or, in other words, the orientation of the first imager 10, with respect to the reference frame 25. In practice , Rg = R. R '.
La matrice de translation T est représentative de la translation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de translation T' est représentative de la translation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. La matrice de translation Tg est représentative de la translation entre le référentiel 25 du deuxième imageur et le référentiel 28 du premier imageur 10 ou, autrement dit, de la position du premier imageur 10, par rapport au référentiel 25. En pratique, Tg = T + T'.The translation matrix T is representative of the translation between the reference 27 of the reflector 14 and the reference 28 of the first imager 10. The translation matrix T 'is representative of the translation between the reference frame 25 of the second imager 26 and the reference 27 of the Reflector 14. The translation matrix Tg is representative of the translation between the reference frame 25 of the second imager and the reference frame 28 of the first imager 10 or, in other words, the position of the first imager 10, with respect to the reference frame 25. In practice, Tg = T + T '.
L'unité de calcul 9 comporte une mémoire 32 propre à stocker un programme d'ordinateur et des données initiales, et un processeur 34 apte à exécuter ce programme d'ordinateur à partir des données initiales et des données fournies par l'unité de mesure 7, le premier imageur 10 et le deuxième imageur 26. A cet effet, l'unité de calcul 9, le premier imageur 10 et le deuxième imageur 26 comprennent des moyens de communication non représentés.The calculation unit 9 comprises a memory 32 able to store a computer program and initial data, and a processor 34 able to execute this computer program from the initial data and data provided by the measurement unit. 7, the first imager 10 and the second imager 26. For this purpose, the computing unit 9, the first imager 10 and the second imager 26 comprise unrepresented communication means.
Les données initiales comportent les distances et les angles entre les cibles Ylx et le réflecteur 14, les distances et les angles entre le réflecteur 14 et le premier imageur 10, ainsi qu'une vignette de référence, comme explicité ci-après. En référence à la figure 2, le procédé de localisation selon l'invention débute par une étape 36 au cours de laquelle une cible est prise en photographie à une distance connue do. Cette cible est appelée première cible \2\ ci-après.The initial data comprise the distances and the angles between the targets Yl x and the reflector 14, the distances and the angles between the reflector 14 and the first imager 10, as well as a reference vignette, as explained hereinafter. Referring to Figure 2, the locating method according to the invention begins with a step 36 during which a target is taken in photography at a known distance do. This target is called the first target \ 2 \ below.
Au cours d'une étape 38, une portion de l'image photographique photographiée au cours de l'étape 36, est extraite et enregistrée dans la mémoire 32. Cette portion d'image représente la première cible \1\. Cette portion d'image est représentée schématiquement sur la figure 3 et sera appelée ci-après vignette de référence 39.In a step 38, a portion of the photographic image photographed in step 36 is extracted and stored in the memory 32. This image portion represents the first target 1 \ . This portion of the image is shown schematically in FIG. 3 and will be called hereinafter reference vignette 39.
Au cours d'une étape 40, les distances et les angles entre le réflecteur 14, et plus précisément le référentiel 27 du réflecteur, et le premier imageur 10, ou plus précisément le référentiel 28 du premier imageur, sont mesurés et enregistrés dans la mémoire 32. Le processeur 34 calcule la matrice de rotation R et la matrice de translation T correspondantes et les enregistre dans la mémoire 32.During a step 40, the distances and the angles between the reflector 14, and more precisely the reference 27 of the reflector, and the first imager 10, or more precisely the reference 28 of the first imager, are measured and recorded in the memory 32. The processor 34 calculates the rotation matrix R and the corresponding translation matrix T and stores them in the memory 32.
Au cours d'une étape 42, les distances et les angles entre les cibles Ylx et le réflecteur 14 sont mesurés et enregistrés dans la mémoire 32.During a step 42, the distances and the angles between the targets Yl x and the reflector 14 are measured and recorded in the memory 32.
Les distances et les angles entre les cibles Yl1 et le réflecteur 14 définissent le modèle géométrique du dispositif repéré.The distances and the angles between the targets Yl 1 and the reflector 14 define the geometric model of the device identified.
Les étapes 36 à 42 peuvent être effectuées en laboratoire.Steps 36 to 42 can be done in the laboratory.
Au cours d'une étape 44, le premier imageur 10 prend en photographie la scène 20 ou le bâtiment à photographier, et génère une image photographique à localiser 22.During a step 44, the first imager 10 takes a photograph of the scene 20 or the building to be photographed, and generates a photographic image to be located 22.
Simultanément, le deuxième imageur 26 prend une photographie du dispositif repéré 4 pour générer une image photographique de repérage 30 et l'unité de mesure 7 mesure la distance jusqu'au dispositif repéré 4 et, en particulier, jusqu'au réflecteur 14 et les angles de visée du faisceau laser dans le référentiel 25 du deuxième imageur. L'étapeSimultaneously, the second imager 26 takes a photograph of the device marked 4 to generate a registration photographic image 30 and the measurement unit 7 measures the distance to the identified device 4 and, in particular, to the reflector 14 and the angles aiming the laser beam in the reference frame 25 of the second imager. step
44 est réalisée sur site. En référence à la figure 3, le processeur 34 génère au cours d'une étape 46, une première 45, une deuxième 47 et une troisième 49 vignettes de travail par échantillonnage de la vignette de référence 39 avec trois facteurs de ré-échantillonnage différents. A cet effet, le processeur 34 utilise la distance entre le deuxième imageur 26 et le réflecteur 14 mesurée au cours de l'étape 44.44 is performed on site. With reference to FIG. 3, the processor 34 generates during a step 46, a first 45, a second 47 and a third 49 working vignettes by sampling of the reference vignette 39 with three different resampling factors. For this purpose, the processor 34 uses the distance between the second imager 26 and the reflector 14 measured during step 44.
Le premier facteur de ré-échantillonnage fi est donné par la formule ci-dessous :The first resampling factor fi is given by the formula below:
Dans laquelle : - D est la distance entre le deuxième imageur 26 et le réflecteur 14.In which: - D is the distance between the second imager 26 and the reflector 14.
- do est la distance entre la première cible 121 et le deuxième imageur 26 lors de la prise de vue effectuée au cours de l'étape 36.- C is the distance between the first target 12 1 and the second imager 26 when shooting in step 36.
Lorsque le premier facteur de ré-échantillonnage fi est appliqué à la vignette de référence 39, celle-ci est redimensionnée pour que la première cible 121 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D.When the first resampling factor fi is applied to the reference vignette 39, the latter is resized so that the first target 12 1 has an apparent dimension equivalent to the dimension it would have if it had been photographed at a distance. D.
Le deuxième facteur de ré-échantillonnage f2 est donné par la formule ci-dessous :The second resampling factor f 2 is given by the formula below:
(D + R)(D + R)
Λ =" dn dans laquelle R est la distance entre le réflecteur 14 et la cible Yl1 la plus éloignée du réflecteur 14.Λ = " d n where R is the distance between the reflector 14 and the target Yl 1 farthest from the reflector 14.
Lorsque le deuxième facteur de ré-échantillonnage f2 est appliqué à la vignette de référence 39, la vignette de référence 39 est redimensionnée pour que la première cible 12i ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance égale à D+R.When the second resampling factor f 2 is applied to the reference vignette 39, the reference vignette 39 is resized so that the first target 12i has an apparent size equivalent to the dimension it would have if it had been photographed at a distance equal to D + R.
Le troisième facteur de ré-échantillonnage f3 est donné par la formule ci-dessous : (D - R)The third resampling factor f 3 is given by the formula below: (D - R)
Z3 = dn Z 3 = d n
Lorsque le troisième facteur de ré-échantillonnage f3 est appliqué à la vignette de référence 39, cette dernière est redimensionnée de manière à ce que la première cible 121 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D-R.When the third resampling factor f 3 is applied to the reference vignette 39, the latter is resized so that the first target 12 1 has an apparent dimension equivalent to the dimension it would have if it had been photographed at a distance DR.
Au cours d'une étape 48, un ensemble de scores de corrélation est calculé entre l'image photographique de repérage 30 et la première vignette de travail 45. A cet effet, l'image photographique de repérage 30 est partitionnée en plusieurs portions d'image 51 de même dimension que la première vignette de travail 45.In a step 48, a set of correlation scores is computed between the registration photographic image 30 and the first job thumbnail 45. For this purpose, the registration photographic image 30 is partitioned into a plurality of portions. image 51 of the same size as the first work vignette 45.
Un score de corrélation est par exemple calculé selon la formule mentionnée ci- dessous :
Figure imgf000012_0001
A correlation score is for example calculated according to the formula mentioned below:
Figure imgf000012_0001
Dans laquelle :In which :
- r est le score de corrélation,- r is the correlation score,
- I45 un vecteur ordonné représentatif des valeurs de gris xn 45 de n pixels de la vignette de travail, - I51 est un vecteur ordonné représentatif des valeurs de gris xn de la portion d'image 51,- I 45 a vector representative of the ordered values of gray n x n pixels 45 of the working vignette, - I 51 is a vector representative of ordered gray values x n of the image portion 51,
- V(/5) est la variance des valeurs de gris du vecteur I45,V (/ 5 ) is the variance of the gray values of the vector I 45 ,
- V(/5/) est la variance des valeurs de gris du vecteur I51 ,V (/ 5 / ) is the variance of the gray values of the vector I 51 ,
- Cov(/5, 151) est la covariance de /5et I51,
Figure imgf000012_0002
- Cov (/ 5 , 1 51 ) is the covariance of / 5 and I 51 ,
Figure imgf000012_0002
Dans laquelle :In which :
- n est le nombre total de pixels dans la vignette de travail Λ^5est la moyenne des valeurs de gris des pixels xn A5 , M51 est la moyenne des valeurs de gris des pixels XJ5 .- n is the total number of pixels in the work vignette Λ ^ 5 is the average of the gray values of the pixels x n A5 , M 51 is the average of the gray values of the pixels XJ 5 .
Des scores de corrélation sont également calculés entre l'image photographique de repérage 30 et la deuxième 47 et la troisième 49 vignettes de travail pour obtenir trois ensembles de scores de corrélation. Chaque ensemble de scores de corrélation correspond aux scores de corrélation calculés avec une vignette de travail différente. Ces trois ensembles de scores de corrélation peuvent par exemple être représentés par trois images 53, 55, 57 en trois dimensions comme illustré sur la figure 3.Correlation scores are also calculated between the registering photographic image 30 and the second 47 and third 49 job thumbnails to obtain three sets of correlation scores. Each set of correlation scores corresponds to the correlation scores calculated with a different work vignette. These three sets of correlation scores may for example be represented by three images 53, 55, 57 in three dimensions as illustrated in FIG.
Au cours d'une étape 50, le processeur 34 recherche parmi ces trois ensembles de scores de corrélation, la valeur la plus élevée du score de corrélation, ainsi que la position (xl5 V1) dans une des images 53, 55, 57, correspondant à cette valeurDuring a step 50, the processor 34 searches among these three sets of correlation scores, the highest value of the correlation score, as well as the position (x 15 V 1 ) in one of the images 53, 55, 57 , corresponding to this value
Au cours d'une étape 52, un procédé de détection de contour est réalisé dans un sous-ensemble de l'image photographique de repérage 30 centré sur la position (xl5 V1) déterminée au cours de l'étape 50.During a step 52, a contour detecting process is performed in a subset of the photographic image tracking 30 centered on the position (x l5 V 1) determined in step 50.
Au cours d'une étape 54, un cercle est estimé sur le contour détecté au cours de l'étape 52, et la position (x,, y,) du centre de ce cercle est déterminée. Cette position (x,, y,) est assimilable à la position du centre de la cible détectée. Cette cible est l'une quelconque des six cibles du support 8 et sera référencée ci-après cible 12,.During a step 54, a circle is estimated on the contour detected during step 52, and the position (x, y) of the center of this circle is determined. This position (x, y,) is comparable to the position of the center of the detected target. This target is any one of the six targets of the support 8 and will be referenced hereinafter target 12.
En variante, lorsque la cible 12, n'est pas sphérique, une forme correspondant à la forme de la cible est estimée sur le contour détecté et la position du barycentre de cette forme est déterminée.In a variant, when the target 12 is not spherical, a shape corresponding to the shape of the target is estimated on the detected contour and the position of the center of gravity of this shape is determined.
Au cours d'une étape 56, la cible 12, du support 8 correspondante à la cible détectée au cours des étapes 46 à 54, est reconnue par rapport à sa couleur.During a step 56, the target 12 of the support 8 corresponding to the target detected during steps 46 to 54 is recognized with respect to its color.
Les étapes 46 à 56 permettent de déterminer les positions des cibles dans l'image photographique de repérage 30 à partir de la vignette de référence 39. Au cours d'une étape 58, la position du réflecteur 14 est recherchée dans un espace virtuel créé par le processeur 34, à partir de la distance et des angles mesurés par l'unité de mesure 7 au cours de l'étape 44.Steps 46 to 56 make it possible to determine the positions of the targets in the registration photographic image 30 from the reference sticker 39. During a step 58, the position of the reflector 14 is sought in a virtual space created by the processor 34, from the distance and angles measured by the measurement unit 7 during the step 44.
Une sphère virtuelle 59 illustrée sur la figure 4 est générée autour de la position du réflecteur 14. Le rayon de la sphère virtuelle 59 est égal à la distance entre le réflecteur 14 et la cible déterminée 12,. Cette distance a été enregistrée dans la mémoire 32 au cours de l'étape 42.A virtual sphere 59 illustrated in FIG. 4 is generated around the position of the reflector 14. The radius of the virtual sphere 59 is equal to the distance between the reflector 14 and the determined target 12. This distance was recorded in the memory 32 during the step 42.
Au cours d'une étape 60, une droite virtuelle 61 passant par le centre de visée 63 du deuxième imageur, aussi appelé point perspectif de l'image photographique de repérage 30, et par la position (x,, y,) du centre de la cible 12,, est définie. Les points d'intersection entre la droite virtuelle 59 et la sphère virtuelle 61 définissent deux hypothèses de position de la cible 12, dans l'espace virtuel.During a step 60, a virtual straight line 61 passing through the aiming center 63 of the second imager, also called perspective point of the photographic locating image 30, and by the position (x, y) of the center of the target 12 ,, is defined. The points of intersection between the virtual line 59 and the virtual sphere 61 define two positional hypotheses of the target 12, in the virtual space.
Au cours d'une étape 62, le score de corrélation ayant la deuxième valeur la plus élevée, est recherché et les étapes 52 à 60 sont répétées pour ce deuxième score de corrélation.During a step 62, the correlation score having the second highest value is searched and steps 52 to 60 are repeated for this second correlation score.
Les étapes 52 à 62 sont répétées un nombre de fois correspondant au nombre de cibles sur le dispositif repéré 4.Steps 52 to 62 are repeated a number of times corresponding to the number of targets on the device 4 identified.
Lorsque ces étapes ont été répétées a fois avec a égal au nombre de cibles, au cours d'une étape 64, les positions réelles des cibles sont choisies parmi l'ensemble des hypothèses de position de cibles par similitude avec le modèle géométrique du dispositif repéré 4 enregistré dans la mémoire 32.When these steps have been repeated a times with a equal to the number of targets, during a step 64, the real positions of the targets are chosen from among all the hypotheses of position of targets by similarity with the geometric model of the device spotted. 4 stored in memory 32.
Au cours d'une étape 66, une matrice de rotation R' et une matrice de translation T' sont établies entre le référentiel 25 du deuxième imageur et le référentiel 27 du réflecteur à l'aide de la position des cibles déterminées au cours de l'étape 64. Au cours d'une étape 68, la matrice Rg représentative de l'orientation du premier imageur 10 et la matrice Tg représentative de la position du premier imageur 10 par rapport au référentiel 25, sont déterminées à partir des matrices R et T calculées au cours de l'étape 40, et des matrices R' et T' établies au cours de l'étape 66, et par application des formules ci-dessous :During a step 66, a rotation matrix R 'and a translation matrix T' are established between the reference frame 25 of the second imager and the reference frame 27 of the reflector by means of the position of the targets determined during the process. step 64. During a step 68, the matrix Rg representative of the orientation of the first imager 10 and the matrix Tg representative of the position of the first imager 10 relative to the reference frame 25, are determined from the matrices R and T calculated during of step 40, and matrices R 'and T' established during step 66, and by applying the formulas below:
Rg = R . R' Tg = T + T'Rg = R. R 'Tg = T + T'
Au cours d'une étape 70, l'image photographique à localiser 22 est localisée dans l'espace virtuel par mise en œuvre des matrices Rg et Tg dans des logiciels de modélisation 3D de type :During a step 70, the photographic image to be located 22 is located in the virtual space by implementing the matrices Rg and Tg in 3D modeling software of the type:
- « NUBES » développé par M. Livio De Luca, du laboratoire GAMSAU, et disponible à l'adresse internet suivante : http://www.map.archi.fr/nubes/introduction/projet.htm ;- "NUBES" developed by Mr. Livio De Luca, from the GAMSAU laboratory, and available at the following Internet address: http://www.map.archi.fr/nubes/introduction/projet.htm;
- « MicMac » développé par M. Marc Pierrot-Deseilligny de l'IGN et Yves Egels, de l' ENSG et disponible à l'adresse internet suivante : http://www.micmac.ign.fr/ ;- "MicMac" developed by Mr. Marc Pierrot-Deseilligny of IGN and Yves Egels, ENSG and available at the following internet address: http://www.micmac.ign.fr/;
- « ImageModeler » de la société Realviz - Autodesk ;- ImageModeler from Realviz - Autodesk;
- « Photomodeler » de la société Eos System Inc. ; et- "Photomodeler" from Eos System Inc.; and
- « Socet Set » de la société BAE Systems.- "Socet Set" by BAE Systems.
En variante, l'image photographique à localiser 22 est localisée dans l'espace virtuel à l'aide de la matrice Rg et de la matrice Tg. La modélisation 3D de la scène est réalisée par pointage des éléments structurants sur l'image photographique 22 à localiser, par détection automatique des éléments structurant sur l'image photographique 22 et/ou par l'exploitation de toute autre information morphologique sur la surface à modéliser (une ou plusieurs images positionnées et orientées, un nuage de points obtenu par numérisation par balayage laser, un modèle 3D déjà existant).. La matrice de rotation Rg et la matrice de translation Tg doivent être calculées pour chaque nouvelle position du dispositif repéré.In a variant, the photographic image to be located 22 is located in the virtual space using the matrix Rg and the matrix Tg. The 3D modeling of the scene is carried out by pointing the structuring elements onto the photographic image. to locate, by automatic detection of structuring elements on the photographic image 22 and / or by the exploitation of any other morphological information on the surface to be modeled (one or more positioned and oriented images), a scatter point cloud obtained by scanning laser, an already existing 3D model) .. The rotation matrix Rg and the translation matrix Tg must be calculated for each new position of the device identified.
En variante, les images photographiques à localiser sont localisées par rapport à un nuage de points représentatif de la scène à modéliser obtenu par une numérisation par balayage laser.In a variant, the photographic images to be located are localized with respect to a cloud of points representative of the scene to be modeled obtained by laser scanning scanning.
En variante, le dispositif repéré est monté sur un drone ou une montgolfière pour prendre des prises de vues aériennes.In a variant, the device identified is mounted on a drone or hot-air balloon to take aerial photographs.
En variante, les images à localiser sont localisées par rapport à une maquette 3D de 1 ' environnement. In a variant, the images to be located are localized with respect to a 3D model of the environment.

Claims

REVENDICATIONS
1.- Système de localisation (2) d'image photographique (22) pour modéliser une scène en 3 dimensions, caractérisé en ce que le système (2) comporte : - un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (12i, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22) ;1. A photographic image locating system (22) for modeling a scene in three dimensions, characterized in that the system (2) comprises: - a marked device (4) comprising a first imager (10) and at least two targets (12i, 12 2 ) distinct from one another; the first imager (10) being able to image a scene (20) to generate the photographic image to be located (22);
- un dispositif de repérage (6) comportant un deuxième imageur (26) propre à imager au moins une cible (12i) positionnée à une distance connue (do) pour générer une vignette de référence (39), ledit deuxième imageur (26) étant apte à imager le dispositif repéré (4) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ; eta locating device (6) comprising a second imager (26) able to image at least one target (12i) positioned at a known distance (do) to generate a reference vignette (39), said second imager (26) being capable of imaging the device identified (4) to generate a registration photographic image (30), said shooting of the identified device (4) being simultaneous with the shooting of the scene (20); and
- une unité de calcul (9) apte à localiser angulairement l'image photographique à localiser (22) par rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).a calculation unit (9) capable of angularly locating the photographic image to be located (22) with respect to a reference frame (25) from the reference vignette (39) and the registration photographic image (30) .
2.- Système de localisation (2) selon la revendication 1, qui comprend une unité de mesure (7) apte à mesurer la position du dispositif repéré (4) par rapport au référentiel2. Location system (2) according to claim 1, which comprises a measuring unit (7) capable of measuring the position of the device (4) identified with respect to the reference system.
(25), ladite mesure de position étant simultanée à la prise de vue de la scène (20) ; et dans lequel l'unité de calcul (9) est apte à positionner l'image photographique à localiser (22) à partir de la position mesurée.(25), said position measurement being simultaneous with the shooting of the scene (20); and wherein the computing unit (9) is adapted to position the photographic image to be located (22) from the measured position.
3.- Système de localisation (2) selon la revendication 2, dans lequel l'unité de mesure (7) comprend : - un émetteur/récepteur (24) apte à émettre un faisceau vers un réflecteur (14) et à réceptionner le faisceau réfléchi par le réflecteur (14) ; et un réflecteur (14) apte à réfléchir le faisceau provenant de l' émetteur/récepteur (24) ; l' émetteur/récepteur (24) appartenant au dispositif de repérage (6), le réflecteur (14) appartenant au dispositif repéré (4) ; la position du dispositif repéré (4) par rapport à un référentiel (25) correspondant à la position du réflecteur (14) par rapport à un référentiel (25). 3.- locating system (2) according to claim 2, wherein the measuring unit (7) comprises: - a transmitter / receiver (24) adapted to emit a beam to a reflector (14) and to receive the beam reflected by the reflector (14); and a reflector (14) adapted to reflect the beam from the transmitter / receiver (24); the transmitter / receiver (24) belonging to the tracking device (6), the reflector (14) belonging to the identified device (4); the position of the device marked (4) with respect to a reference frame (25) corresponding to the position of the reflector (14) relative to a reference frame (25).
4.- Système de localisation (2) selon l'une quelconque des revendications 1 à 3, dans lequel les cibles (12ls 122) sont de couleurs différentes.4. Location system (2) according to any one of claims 1 to 3, wherein the targets (12 ls 12 2 ) are of different colors.
5.- Dispositif repéré (4) pour un système de localisation (2) d'image photographique (22) selon l'une quelconque des revendications 1 à 4, caractérisé en ce que le dispositif repéré (4) comprend un premier imageur (10) et au moins deux cibles5.- Spotted device (4) for a photographic image locating system (2) according to any one of claims 1 to 4, characterized in that the device identified (4) comprises a first imager (10). ) and at least two targets
(12i, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22).(12i, 12 2 ) distinct from each other; the first imager (10) being able to image a scene (20) to generate the photographic image to be located (22).
6.- Procédé de localisation d'au moins une image photographique (22) pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique (2) ; ledit système de localisation (2) comportant un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (12ls 122) distinctes l'une de l'autre, et un dispositif de repérage (6) comportant un deuxième imageur (26) et une unité de calcul (9), caractérisé en ce que le procédé comporte les étapes suivantes :A method of locating at least one photographic image (22) to model a 3-dimensional scene from a photographic image locating system (2); said locating system (2) comprising a marked device (4) comprising a first imager (10) and at least two targets (12 ls 12 2 ) distinct from each other, and a locating device (6) comprising a second imager (26) and a computing unit (9), characterized in that the method comprises the following steps:
- obtention (36) d'au moins une partie d'une image photographique, ci-après appelée vignette de référence (39), représentant au moins une cible (12i) positionnée à une distance connue (do) ;- obtaining (36) at least a portion of a photographic image, hereinafter referred to as a reference vignette (39), representing at least one target (12i) positioned at a known distance (do);
- prise de vue (44) d'une scène (20) par le premier imageur (10) pour générer l'image photographique à localiser (22) ;- Shooting (44) a scene (20) by the first imager (10) to generate the photographic image to be located (22);
- prise de vue (44) du dispositif repéré (4) par le deuxième imageur (26) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ;- Shooting (44) of the device identified (4) by the second imager (26) to generate a registration photographic image (30), said shooting of the identified device (4) being simultaneous with the shooting of the stage (20);
- localisation (70) angulaire de l'image photographique à localiser (22) par rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).angular localization (70) of the photographic image to be located (22) relative to a reference frame (25) from the reference vignette (39) and the registration photographic image (30).
7.- Procédé de localisation selon la revendication 6, à partir du système de localisation (2) comprenant une unité de mesure (7) comportant un émetteur/récepteur (24) intégré au dispositif de repérage (6) et un réflecteur (14) fixé au dispositif repéré (4) ; et dans lequel le procédé comprend en outre les étapes suivantes : - mesure (44) de la distance et des angles entre le réflecteur (14) et le deuxième imageur (26) par l'unité de mesure (7), ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène (20) ; et7.- locating method according to claim 6, from the locating system (2) comprising a measurement unit (7) comprising a transmitter / receiver (24) integrated in the tracking device (6) and a reflector (14). attached to the identified device (4); and wherein the method further comprises the steps of: measuring (44) the distance and angles between the reflector (14) and the second imager (26) by the measuring unit (7), said distance and angle measurement being simultaneous with the shooting of the scene (20); and
- positionnement (70) de l'image photographique à localiser (22) à partir de ladite mesure de distance et d'angles, et de l'image photographique de repérage (30).- positioning (70) the photographic image to be located (22) from said distance and angle measurement, and the registration photographic image (30).
8.- Procédé de localisation selon l'une quelconque des revendications 6 et 7, dans lequel l'étape d'obtention (36) de la vignette de référence (39) est réalisée par prise de vue (36) de la cible (12i) positionnée à une distance connue (do) par le deuxième imageur (26).8. A locating method according to any one of claims 6 and 7, wherein the step of obtaining (36) the reference vignette (39) is performed by shooting (36) of the target (12i ) positioned at a known distance (do) by the second imager (26).
9.- Procédé de localisation selon l'une quelconque des revendications 7 et 8, qui comporte en outre les étapes suivantes :9. A locating method according to any one of claims 7 and 8, which further comprises the following steps:
- échantillonnage (46) de la vignette de référence (39) en fonction de la distance connue (do) et de la distance entre le réflecteur (14) et le deuxième imageur (26) ; et- sampling (46) of the reference tile (39) according to the known distance (do) and the distance between the reflector (14) and the second imager (26); and
- détermination (48, 50, 52, 54, 56) de la position des cibles (12ls 122) dans l'image photographique de repérage (30) à partir de la vignette de référence (39) échantillonnée.- determining (48, 50, 52, 54, 56) the position of the targets (12 ls 12 2 ) in the registering photographic image (30) from the sampled reference vignette (39).
10.- Procédé de localisation selon la revendication 9, à partir du système de localisation (2) qui comprend en outre une mémoire (32) stockant les distances et les angles entre chaque cible (12ls 122) et le réflecteur (14), le procédé comportant une étape de détermination (58, 60, 62) des positions possibles de chaque cible (12^ 122) dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère virtuelle (59) et une droite virtuelle (61), ladite sphère virtuelle (59) étant centrée sur la position du réflecteur (14), ladite sphère virtuelle (59) ayant un rayon égal à la distance entre chaque cible (12^ 122) et le réflecteur (14) ; ladite droite virtuelle (61) passant par un point perspectif (63) de l'image photographique de repérage (22) et par la position du barycentre de chaque cible (12^ 122) dans l'image photographique de repérage (30).10. A locating method according to claim 9, from the location system (2) which further comprises a memory (32) storing distances and angles between each target (12 ls 12 2 ) and the reflector (14). , the method comprising a step of determining (58, 60, 62) possible positions of each target (12 ^ 12 2 ) in a virtual space, said possible positions being the points of intersection between a virtual sphere (59) and a virtual right (61), said virtual sphere (59) being centered on the position of the reflector (14), said virtual sphere (59) having a radius equal to the distance between each target (12 ^ 12 2 ) and the reflector (14) ); said virtual straight line (61) passing through a perspective point (63) of the registration photographic image (22) and by the position of the centroid of each target (12 ^ 12 2 ) in the registration photographic image (30).
11.- Procédé de localisation selon la revendication 10, dans lequel le procédé comporte en outre une étape de détermination (64) des positions des cibles (12ls 122) dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles (12i, 122) et, d'autre part, les distances et les angles entre chaque cible (12^ 122) et le réflecteur (14).11. A locating method according to claim 10, wherein the method further comprises a step of determining (64) the positions of the targets (12 ls 12 2 ) in the virtual space by similarity between, on the one hand, the possible positions of the targets (12i, 12 2 ) and, secondly, the distances and angles between each target (12 ^ 12 2 ) and the reflector (14).
12.- Procédé de localisation selon la revendication 11, à partir du système de localisation (2) dans lequel la mémoire (32) stocke les distances et les angles entre le réflecteur (14) et le premier imageur (10), dans lequel le procédé comporte les étapes suivantes :12. A locating method according to claim 11, from the location system (2) wherein the memory (32) stores the distances and angles between the reflector (14) and the first imager (10), wherein the method comprises the following steps:
- calcul (40) d'une matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10) et d'une matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; etcalculation (40) of a rotation matrix (R) representative of the rotation between the reflector (14) and the first imager (10) and of a translational matrix (T) representative of the translation between the reflector (14); ) and the first imager (10); and
- établissement (66, 68) d'une matrice (Rg) représentative de l'orientation du premier imageur (10) par rapport au référentiel (25), et d'une matrice (Tg) représentative de la position premier imageur (10) par rapport au référentiel (25), à partir des positions des cibles (12ls 122), de la matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10), et de la matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; etsetting (66, 68) a matrix (Rg) representative of the orientation of the first imager (10) relative to the reference frame (25), and a matrix (Tg) representative of the first imager position (10) relative to the reference frame (25), from the positions of the targets (12 ls 12 2 ), the rotation matrix (R) representative of the rotation between the reflector (14) and the first imager (10), and the translation matrix (T) representative of the translation between the reflector (14) and the first imager (10); and
- localisation (70) angulaire de l'image photographique à localiser (22) par rapport au référentiel (25) à partir de la matrice (Rg) représentative de l'orientation du dispositif repéré (4) par rapport au référentiel (25), et de la matrice (Tg) représentative de la position du dispositif repéré (4) par rapport au référentiel (25).angular localization (70) of the photographic image to be located (22) relative to the reference frame (25) from the matrix (Rg) representative of the orientation of the device identified (4) with respect to the reference frame (25), and the matrix (Tg) representative of the position of the device identified (4) with respect to the reference system (25).
13. Programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en œuvre le procédé selon l'une quelconque des revendications 6 à 12, lorsqu'elles sont exécutées par un processeur. 13. Computer program, characterized in that it comprises instructions for implementing the method according to any one of claims 6 to 12, when they are executed by a processor.
PCT/FR2010/051169 2009-06-16 2010-06-11 System and method for locating a photographic image WO2010146289A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0954054 2009-06-16
FR0954054A FR2946765A1 (en) 2009-06-16 2009-06-16 SYSTEM AND METHOD FOR LOCATING PHOTOGRAPHIC IMAGE.

Publications (2)

Publication Number Publication Date
WO2010146289A2 true WO2010146289A2 (en) 2010-12-23
WO2010146289A3 WO2010146289A3 (en) 2011-04-28

Family

ID=41694602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2010/051169 WO2010146289A2 (en) 2009-06-16 2010-06-11 System and method for locating a photographic image

Country Status (2)

Country Link
FR (1) FR2946765A1 (en)
WO (1) WO2010146289A2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2718519B1 (en) * 1994-04-12 1996-04-26 Thomson Csf Aiming device for weapon, and equipped weapon.
US5889550A (en) * 1996-06-10 1999-03-30 Adaptive Optics Associates, Inc. Camera tracking system
AU2834899A (en) * 1998-02-18 1999-09-06 Gmd-Forschungszentrum Informationstechnik Gmbh Camera tracking system for a virtual television or video studio
JP4794708B2 (en) * 1999-02-04 2011-10-19 オリンパス株式会社 3D position and orientation sensing device
US20060165310A1 (en) * 2004-10-27 2006-07-27 Mack Newton E Method and apparatus for a virtual scene previewing system
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US8265376B2 (en) * 2008-07-21 2012-09-11 Cognitens Ltd. Method and system for providing a digital model of an object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Also Published As

Publication number Publication date
FR2946765A1 (en) 2010-12-17
WO2010146289A3 (en) 2011-04-28

Similar Documents

Publication Publication Date Title
CA2275957C (en) Method for calibrating the initial position and the orientation of one or several mobile cameras
CN100339679C (en) Surveying instrument
EP0863413B1 (en) Method and apparatus for locating an object in space
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
EP2272047B1 (en) 3d imaging system
FR2846432A1 (en) CODED TARGET AND PHOTOGRAMMETER METHOD USING SUCH TARGETS
EP0958527B1 (en) Method and device for mapping radiation sources
WO2018109421A1 (en) Method of measuring a part of the body using digital photographs, and implementation of such a method for manufacturing customized shoes
WO2021185217A1 (en) Calibration method based on multi-laser distance measurement and angle measurement
EP2111605B1 (en) Method and device for creating at least two key images corresponding to a three-dimensional object
FR3034553A1 (en) METHOD FOR DETERMINING A DIRECTION OF AN OBJECT FROM AN IMAGE OF THE OBJECT
CA2891159A1 (en) Treatment process for local information
JP4419570B2 (en) 3D image photographing apparatus and method
CN111739050B (en) Zynq-based aircraft navigation system for attitude measurement and celestial body centroid extraction
FR2910648A1 (en) Object's e.g. building, geometrical data capturing method for e.g. online sale application, involves capturing images representing object, from two different view points, and measuring distance between one of view points and point of object
WO2010146289A2 (en) System and method for locating a photographic image
FR3033913A1 (en) METHOD AND SYSTEM FOR RECOGNIZING OBJECTS BY ANALYZING DIGITAL IMAGE SIGNALS OF A SCENE
EP0508905A1 (en) Method for selfguidance of missile towards a target by means of range measurements
WO2021009431A1 (en) Method for determining extrinsic calibration parameters for a measuring system
TW202227894A (en) Bullet casing illumination module and forensic analysis system using the same
EP3018625B1 (en) Method for calibrating a sight system
WO2018229358A1 (en) Method and device for constructing a three-dimensional image
FR2992414A1 (en) METHOD FOR ESTABLISHING A GEOLOCALIZED RECOVERY PLAN, COMPUTER PROGRAM PRODUCT AND CORRESPONDING STORAGE MEDIUM
EP3757943B1 (en) Method and device for passive telemetry by image processing and use of three-dimensional models
FR2946446A1 (en) METHOD AND DEVICE FOR TRACKING REAL-TIME OBJECTS IN A SEQUENCE OF IMAGES IN THE PRESENCE OF OPTICAL FLOU

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10737994

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10737994

Country of ref document: EP

Kind code of ref document: A2