DE19800447A1 - Kamera, insbesondere zum fotogrammetrischen Vermessen - Google Patents

Kamera, insbesondere zum fotogrammetrischen Vermessen

Info

Publication number
DE19800447A1
DE19800447A1 DE19800447A DE19800447A DE19800447A1 DE 19800447 A1 DE19800447 A1 DE 19800447A1 DE 19800447 A DE19800447 A DE 19800447A DE 19800447 A DE19800447 A DE 19800447A DE 19800447 A1 DE19800447 A1 DE 19800447A1
Authority
DE
Germany
Prior art keywords
camera
data
dimensional
coordinate system
storage medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19800447A
Other languages
English (en)
Inventor
Atsumi Kaneko
Toshihiro Nakayama
Atsushi Kida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Publication of DE19800447A1 publication Critical patent/DE19800447A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Description

Die Erfindung betrifft eine Kamera, insbesondere zum fotogrammetrischen Ver­ messen. Ferner betrifft sie ein Speichermedium zum Speichern von durch eine Kamera erzeugten, eine Aufnahme definierenden Bilddaten.
Die Erfindung bezieht sich auf eine Kamera, die beim fotogrammetrischen Ver­ messen verwendet wird, bei dem auf Grundlage mehrerer, an verschiedenen Aufnahmepositionen fotografierter Aufnahmen eine Vermessungskarte erstellt wird.
Beispielsweise wird die Fotogrammetrie am Ort eines Verkehrsunfalls eingesetzt. Der Unfallort wird von einer Kamera aus mindestens zwei verschiedenen Auf­ nahmepositionen fotografiert. Auf Grundlage der an den verschiedenen Aufnah­ mepositionen fotografierten Aufnahmen wird anschließend eine Vermessungskar­ te des Unfallortes erstellt.
Hierzu wird in jeder Aufnahme zunächst ein zweidimensionales Koordinatensy­ stem definiert, mit dem zweidimensionale Positionen von in jeder Aufnahme ent­ haltenen Objekten bestimmt werden. Anschließend wird auf Grundlage der zwei zweidimensionalen Koordinatensysteme ein dreidimensionales Koordinatensy­ stem definiert, mit dem dreidimensionale Positionen der aufgezeichneten Objekte angegeben werden. Indem die Objekte auf eine der drei von dem dreidimensio­ nalen Koordinatensystem definierten Ebenen projiziert auf ein Blatt Papier so auf­ gezeichnet werden, kann eine Vermessungskarte des Unfallortes erstellt werden.
Bevor genau skalierte Abstände und Längen auf der Vermessungskarte repro­ duziert werden können, muß gemeinsam mit den Objekten ein Standardmaßstab in den Aufnahmen fotografiert worden sein. Des weiteren muß in den Aufnahme eine Referenzebene definiert sein, in der die Vermessungskarte liegen soll.
Um den Standardmaßstab und die Referenzebene zu definieren, werden übli­ cherweise drei zueinander identische, kegelförmige Markierungen an geeigneten Positionen um den Unfallort herum angeordnet. Ferner wird der Abstand zwischen zwei Spitzen der kegelförmigen Markierungen beispielsweise mit Hilfe eines Maßbandes gemessen und als Standardmaßstab gesetzt. Die durch die drei Spitzen der kegelförmigen Markierungen definierte Ebene wird als Referenz­ ebene verwendet.
Bevor die dreidimensionalen Positionen der Objekte durch Verwendung des dreidimensionalen Koordinatensystems bestimmt werden können, sollte zunächst aus dem dreidimensionalen Koordinatensystem eine relative Lagebeziehung zwischen den Aufnahmepositionen bestimmt werden. Hierzu muß mit einem sehr umständlichen und verwickelten Verfahren gearbeitet werden, mit dem die relative Lagebeziehung zwischen den Aufnahmepositionen berechnet werden kann. Aus diesem Grund wird üblicherweise die relative Lagebeziehung zwischen den Auf­ nahmepositionen mit Hilfe eines Computers bestimmt, der wiederholt Näherungs­ rechnungen ausführt. Allerdings ist bei Einsatz eines iterativen Verfahrens die Erstellungszeit einer Vermessungskarte sehr lang.
Es ist daher Aufgabe der Erfindung, eine Kamera bzw. ein Speichermedium be­ reitzustellen, durch deren bzw. durch dessen Einsatz die Erstellungszeit für eine Vermessungskarte verkürzt ist.
Diese Aufgabe wird durch eine Kamera mit den Merkmalen des Patentanspruchs 1 bzw. durch ein Speichermedium mit den Merkmalen des Patentanspruchs 12 gelöst. Vorteilhafte Weiterbildungen ergeben sich aus den jeweils zugeordneten Unteransprüchen.
Bei der Erfindung ist die Kamera mit einer Positionserfassungseinrichtung aus­ gestattet, mit der die relative Lagebeziehung zwischen den verschiedenen Auf­ nahmepositionen erfaßt wird.
Weitere Vorteile der vorliegenden Erfindung werden aus der nachfolgenden Be­ schreibung unter Bezugnahme auf die Zeichnungen besser verständlich. Darin zeigen:
Fig. 1 eine schematische perspektivische Darstellung einer erfindungsge­ mäßen elektronischen Standbild-Videokamera,
Fig. 2 ein Blockschaltbild der Standbild-Videokamera nach Fig. 1,
Fig. 3 ein Ablaufdiagramm einer Sensorsteuerroutine, die von einer im Blockschaltbild nach Fig. 2 enthaltenen Sensorsteuerschaltung ausgeführt wird,
Fig. 4 ein Ablaufdiagramm einer von der Sensorsteuerschaltung nach Fig. 2 ausgeführten Unterbrechungsroutine,
Fig. 5 ein Ablaufdiagramm einer von der Standbild-Videokamera nach Fig. 1 und 2 ausgeführten Aufnahmeroutine,
Fig. 6 eine konzeptionelle schematische Darstellung eines Formatbeispiels einer IC-Speicherkarte, die in die Standbild-Videokamera nach Fig. 1 und 2 eingelegt werden kann,
Fig. 7 eine konzeptionelle perspektivische Darstellung einer fotogramme­ trischen Meßeinrichtung, die die Standbild-Videokamera nach Fig. 1 und 2 verwendet,
Fig. 8 eine konzeptionelle Darstellung einer aus einer ersten Position der Meßeinrichtung nach Fig. 7 fotografierten Aufnahme,
Fig. 9 eine konzeptionelle Darstellung einer aus einer zweiten Position der Meßeinrichtungen nach Fig. 7 fotografierten weiteren Aufnahme,
Fig. 10 eine konzeptionelle Darstellung der relativen Lagebeziehung zwi­ schen einem Standardmaßstab und der ersten bzw. zweiten Auf­ nahme der Fig. 8 bzw. 9
Fig. 11 ein Blockschaltbild eines Computersystems, in dem die erfindungs­ gemäße fotogrammetrische Messung durchgeführt wird,
Fig. 12 ein Ablaufdiagramm einer fotogrammetrischen Meßroutine zur Er­ zeugung einer Vermessungskarte auf Grundlage der in den Fig. 8 und 9 dargestellten ersten und zweiten Aufnahme,
Fig. 13 eine konzeptionelle perspektivische Darstellung eines dreidimen­ sionalen Koordinatensystems zur Erzeugung der Vermessungskarte,
Fig. 14 ein Ablaufdiagramm einer Abwandlung der Aufnahmeroutine nach Fig. 5,
Fig. 15 ein Ablaufdiagramm, in dem der verbleibende Restschnitt der ab­ gewandelten Aufnahmeroutine nach Fig. 15 gezeigt ist, und
Fig. 16 Teil eines Ablaufdiagramms, das eine Abwandlung der fotogramme­ trischen Meßroutine nach Fig. 12 zeigt.
Fig. 1 zeigt das Äußere einer erfindungsgemäßen elektronischen Standbild-Vi­ deokamera. Die Standbild-Videokamera hat einen Kamerakörper 10, eine etwa mittig an einer Vorderseite des Kamerakörpers 10 angeordnete Aufnahmeoptik 12, eine an der Vorderseite des Kamerakörpers 10, rechtsseitig der Kameraoptik 12, über dieser angeordnete elektronische Blitzeinheit 14 und an der Vorderseite einen, bezogen auf die Aufnahmeoptik 12, der elektronischen Blitzeinheit 14 gegenüberliegend angeordneten Auslöser 16.
Des weiteren hat die Kamera auf der Oberseite ihres Kamerakörpers 10 einen mittig angeordneten Sucher 18, ein seitlich der einen Seite des Suchers 18 ange­ ordnetes LCD-Feld 20 (LCD= Liquid Cristal Display) sowie einen seitlich der an­ deren Seite des Suchers 18 angeordneten Hauptschalterknopf 24. Ferner hat der Kamerakörper 10 einen an seiner Seitenwand ausgebildeten länglichen Schlitz 26, durch den ein Aufzeichnungsträger wie beispielsweise eine IC-Speicherkarte 28 in die Kamera eingelegt oder aus ihr entnommen werden kann. Zum Auswer­ fen bzw. Ausgeben der IC-Speicherkarte 28 aus dem länglichen Schlitz 26 der Kamera dient ein Ausgabeknopf 30.
Obwohl in Fig. 1 nicht dargestellt, ist in der Rückwand des Kamerakörpers 10 ein LCD-Bildschirm 62 eingelassen (vgl. Fig. 2), auf dem eine Aufnahme reproduziert und betrachtet werden kann.
Fig. 2 zeigt ein Blockschaltbild der erfindungsgemäßen Videokamera. Die Video­ kamera hat eine Steuereinheit 32 mit einem Mikrocomputer bzw. Mikroprozessor, einem ROM-Speicher, einem RAM-Speicher und dergleichen, die die Videoka­ mera insgesamt steuert.
Die Aufnahmeoptik 12 hat mehrere Linsengruppen und eine zwischen diesen angeordnete Blende 34. Hinter der Aufnahmeoptik 12 ist ein Festkörper-Bildsen­ sor 36 angeordnet, der als Vorrichtung zum fotoelektrischen Umwandeln der Lichtstrahlen dient und der vorzugsweise ein CCD-Bildsensor (CCD = charge­ coupled device) ist. Zwischen der Aufnahmeoptik 12 und dem CCD-Bildsensor 36 ist ein Schnellklappspiegel 38 angeordnet, über dem seinerseits eine Einstell­ scheibe 40 gehalten ist, die Bestandteil des optischen Systems des Suchers 18 ist.
Der Schnellklappspiegel 38 kann von einer Spiegelantriebsschaltung 42 zwischen einer abgesenkten Stellung, d. h. der mit durchgezogenen Linien in Fig. 2 gezeigten geneigten Stellung, und einer hochgeklappten Stellung bewegt werden, d. h. der mit gestrichelten Linien in Fig. 2 gezeigten, horizontalen Stellung. Die Spiegelantriebsschaltung 42 wird durch eine Belichtungssteuerung 44 gesteuert, mit der ein Belichtungssensor 46 verbunden ist. Die Belichtungssteuerung 44 wird von der Steuereinheit 32 auf Grundlage des Ausgangssignals des Belichtungssensors 46 betätigt.
Der Schnellklappspiegel 38 ist üblicherweise in der abgesenkten bzw. geneigten Stellung angeordnet, um die durch die Aufnahmeoptik 12 einfallenden Lichtstrah­ len in Richtung des optischen Systems des Suchers 18 abzulenken, damit der Fotograf das zu fotografierende Objekt im Sucher 18 betrachten kann. Sobald fotografiert wird, schwenkt die Spiegelantriebsschaltung 42 den Schnellklapp­ spiegel 38 nach oben in die hochgeklappte Stellung, damit die durch die Auf­ nahmeoptik 12 einfallenden Lichtstrahlen auf die lichtempfangende Fläche des CCD-Bildsensors 36 gerichtet sind. Dadurch wird durch die Aufnahmeoptik 12 eine optische Abbildung auf die lichtempfangende Fläche des CCD-Bildsensors 36 projiziert.
Dabei ist zu bemerken, daß, obwohl in Fig. 2 nicht gezeigt eine gleichfalls von der Belichtungssteuerung 44 angesteuerte Blendenstellschaltung vorgesehen ist, mit der die Blende 34 verstellt wird.
Der CCD-Bildsensor 36 hat eine elektronische Verschlußfunktion, mit der eine Belichtungszeit, d. h. eine für die elektrische Ladungsspeicherung erforderliche Zeit, auf Grundlage eines Ausgangssignals des Belichtungssensors 46 reguliert wird. Nachdem die Belichtungszeit abgelaufen ist, wird der Schnellklappspiegel 38 von seiner hochgeklappten in seine abgesenkte Stellung zurückbewegt. Wäh­ rend der Belichtungsdauer wandelt der CCD-Bildsensor 36 die optische Abbil­ dung in elektrische Pixelsignale um. Die umgewandelten elektrischen Pixelsignale werden aus dem CCD-Bildsensor 36 von einer CCD-Steuerschaltung 48 gelesen, die von der Steuereinheit 32 betätigt wird.
Die aus dem CCD-Bildsensor 36 ausgelesenen Pixelsignale werden von einem Verstärker 50 verstärkt und anschließend durch einen Analog-Digital-Wandler 52 in digitale Pixelsignale umgewandelt. Die digitalen Pixelsignale werden von einer von der Steuereinheit 32 überwachten Bildverarbeitungsschaltung 54 einer Schattenkorrektur, einer Gammakorrektur und dergleichen unterzogen, und an­ schließend zeitweise in einem Speicher 56 gespeichert, der eine ausreichende Speicherkapazität zum Abspeichern eines aus den digitalen Pixelsignalen beste­ henden Bildfeldes hat, das von dem CCD-Bildsensor 36 ausgegeben wird.
Die von dem Speicher 56 ausgegebenen Pixelsignale werden einer Speicherkar­ ten-Steuerschaltung 58 zugeführt, durch die die eingespeisten digitalen Pixelsi­ gnale als Pixeldaten-Bildfeld auf der IC-Speicherkarte 28 abgespeichert werden. Darüber hinaus kann das aus Pixelsignalen bestehende Bildfeld von dem Spei­ cher 56 an einen Farbcodierer 60 ausgegeben werden, der auf Grundlage der Pixelsignale des Bildfeldes Farbvideosignale erzeugt, die anschließend in den, wie zuvor bereits erläutert, in der Rückwand des Kamerakörpers 10 vorgesehe­ nen LCD-Bildschirm 62 eingespeist werden, auf dem die fotografierte Aufnahme reproduziert und beobachtet werden kann.
In diesem Ausführungsbeispiel ist die Videokamera mit einem Positionserfas­ sungssystem ausgestattet, mit dem eine Relativbewegung der Videokamera ermit­ telt werden kann. Das Positionserfassungssystem hat einen magnetischen Azi­ mut-Sensor 64, einen ersten Drehwinkel-Sensor 66, einen zweiten Drehwinkel- Sensor 68 sowie einen ersten, zweiten und dritten Beschleunigungs-Sensor 70, 72 bzw. 74. Die Sensoren 64 bis 74 sind mit der Steuereinheit 32 über eine zwi­ schengeschaltete Sensorsteuerschaltung 76 verbunden. Die Sensorsteuerschal­ tung 76 hat einen Microcomputer oder Microprozessor, einen ROM-Speicher, ei­ nen RAM-Speicher und dergleichen, um die Sensoren 64 bis 74 anzusteuern.
Das Positionserfassungssystem ist mit einem dreidimensionalen χ-ψ-ω-Koordina­ tensystem verknüpft, wie es in Fig. 1 gezeigt ist. Obwohl das dreidimensionale χ- ψ-ω-Koordinatensystem aus Übersichtlichkeitsgründen von der Kamera getrennt dargestellt ist, ist es vorzugsweise so in der Videokamera definiert, daß sein Ur­ sprung am hinteren Hauptpunkt der Aufnahmeoptik 12 der Videokamera ange­ ordnet ist. Die ψ-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems verläuft vertikal. Die χ- und ω-Achsen verlaufen ausgehend vom Ursprung horizontal und senkrecht zueinander.
Der magnetische Azimut-Sensor 64 ermittelt die Winkelbewegung der Kamera um die ψ-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems. Genauer gesagt werden die Winkelbewegung der Videokamera um die ψ-Achse als absolute Winkeldaten bezogen auf eine durch den Erdmagnetismus definierte Richtung mit Hilfe des Azimut-Sensors 64 ermittelt. Der erste und der zweite Drehwinkel-Sen­ sor 66 und 68 ermitteln die Winkelbewegung der Videokamera um die χ-Achse bzw. ω-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems. Die Sensor­ steuerschaltung 76 berechnet die dreidimensionalen Winkeldaten der Videoka­ mera auf Grundlage der von den Sensoren 64, 66 und 68 ermittelten dreidimen­ sionalen Winkelbewegung. Kurz gesagt werden die dreidimensionalen Winkel der optischen Achse der Aufnahmeoptik 12 der Videokamera von den Sensoren 64 66 und 68 bezogen auf die vertikale ψ-Achse des dreidimensionalen χ-ψ-ω- Koordinatensystems bestimmt.
Des weiteren ermitteln der erste, zweite und dritte Beschleunigungssensor 70, 72 bzw. 74 jeweils die Beschleunigung der Videokamera entlang der ψ-, χ- und ω- Achsen des dreidimensionalen χ-ψ-ω-Koordinatensystems. Mit den erfaßten Be­ schleunigungen werden die Translationsbewegungen der Videokamera entlang der ψ-, χ- und ω-Achsen des dreidimensionalen χ-ψ-ω-Koordinatensystems dar­ gestellt. Die Sensorsteuerschaltung 76 berechnet dreidimensionale Translati­ onsbewegungen und ermittelt auf deren Grundlage die dreidimensionalen Positi­ onsdaten der Videokamera.
Die Sensorsteuerschaltung 76 wird von der Steuereinheit 32 überwacht und steu­ ert jeden Sensor 64 bis 74 an. Die Sensorsteuerschaltung 76 ist mit einem Da­ tenspeicher 78 ausgestattet, der zeitweise die von den Sensoren 64, 66 und 68 ermittelten dreidimensionalen Winkeldaten und die von den Sensoren 70, 72 und 74 erfaßten dreidimensionalen Positionsdaten abspeichert.
Im Idealfall sollte jeder der Sensoren 64 bis 74 in der Videokamera am Ursprung des dreidimensionalen χ-ψ-ω-Koordinatensystems angeordnet sein, d. h. am hin­ teren Hauptpunkt der Aufnahmeoptik 12 der Videokamera. Tatsächlich ist es aber nicht möglich, jeden der Sensoren 64 bis 74 am hinteren Hauptpunkt der Aufnah­ meoptik 12 anzuordnen.
Demzufolge muß jeder der Sensoren 64 bis 74 vom hinteren Hauptpunkt der Auf­ nahmeoptik 12 versetzt angeordnet sein. Dadurch müssen auch die dreidimen­ sionalen Winkeldaten und die dreidimensionalen Positionsdaten durch Versatzda­ ten entsprechend korrigiert werden, die basierend auf dem Versatz jedes Sensors vom hinteren Hauptpunkt der Aufnahmeoptik 12 vorprogrammiert sind. Der Datenspeicher 78 wird gleichfalls zum Abspeichern der Versatzdaten verwendet.
Wie Fig. 2 zeigt, ist die Videokamera mit einem Hauptschalter 80 ausgestattet, der mit dem Hauptschalterknopf 24 (vgl. Fig. 1) derart verbunden ist, daß er durch Drücken des Hauptschalterknopfes 24 an- oder ausgeschaltet wird. Darüber hin­ aus hat die Videokamera einen Belichtungssensorschalter 82 und einen Auslöse­ schalter 78, die beide mit dem Auslöser 16 (vgl. Fig. 1) verbunden sind. Genauer gesagt wird der Belichtungssensorschalter 82 angeschaltet, wenn der Auslöser 16 halb gedrückt ist. Wird der Auslöser 16 vollständig gedrückt, wird der Auslö­ seschalter 84 angeschaltet. Ferner ist zu bemerken, daß der Hauptschalter 80 und der Auslöseschalter 84 mit der Sensorsteuerschaltung 76 verbunden sind, um die Sensoren 64 bis 74 zu betätigen, wie später detailliert beschrieben wird.
Die elektronische Blitzeinheit 14 wird, wie Fig. 2 zeigt, von einer von der Steuer­ einheit 32 überwachten Blitzsteuerschaltung 86 elektrisch erregt. Sofern erfor­ derlich, wird die elektronische Blitzeinheit 14 betätigt, sobald der Auslöser 16 vollständig gedrückt wird. Darüber hinaus ist das LCD-Feld 20 mit der Steuerein­ heit 32 verbunden, um verschiedene Einstellungen der Videokamera, geeignete Mitteilungen und dergleichen anzuzeigen.
Fig. 3 zeigt ein Ablaufdiagramm einer von der Sensorsteuerschaltung 76 ausge­ führten Sensorsteuerroutine, die durch Drücken des Hauptschalterknopfes 24 eingeleitet wird, der den Hauptschalter 80 anschaltet. Dabei ist zu bemerken, daß das Drücken des Hauptschalterknopfes 24 und das damit verbundene Einschal­ ten des Hauptschalters 80 vorzugsweise erst durchgeführt wird, nachdem die Kamera auf einem Stativ befestigt worden ist, das an einer für die fotogrammetri­ sche Vermessung des erwünschten Bereiches geeigneten Stelle positioniert ist.
In Schritt 301 wird der Datenspeicher 78 teilweise initialisiert, d. h. ein Bereich des Datenspeichers 78 zum Abspeichern der dreidimensionalen Winkeldaten und der dreidimensionalen Positionsdaten der Videokamera gelöscht.
In Schritt 302 werden von den Sensoren 64, 66 und 68 die Winkeldaten ermittelt, die von den Winkelbewegungen der Videokamera um die ψ-, χ- bzw. ω-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems abgeleitet werden. Ferner werden von den Sensoren 70, 72 und 74 die Beschleunigungsdaten ermittelt, die von den Beschleunigungsbewegungen der Videokamera entlang der ψ-, χ- bzw. ω-Achse des dreidimensionalen χ-ψ-ω-Koordinatensystems abgeleitet werden. Bei­ spielsweise werden die Winkeldaten und die Beschleunigungsdaten nacheinan­ der mit einem zeitlichen Abstand von 1 ms erfaßt.
In Schritt 303 werden die anfänglich von den Sensoren 64, 66 und 68 ermittelten Winkeldaten als Anfangsdaten in den RAM-Speicher der Sensorsteuerschaltung 76 abgespeichert.
In Schritt 304 wird ein in der Sensorsteuerschaltung 76 enthaltenes Steuerglied eingeschaltet. Anschließend fährt die Steuerung mit Schritt 305 fort, bei dem durch Integration der von den Sensoren 70, 72 und 74 ermittelten Beschleuni­ gungsdaten dreidimensionale Translationsbewegungsdaten berechnet werden. In Schritt 306 wird bestimmt, ob das Zeitglied einen Wert von 10 ms erreicht hat oder nicht. Sind die 10 ms noch nicht abgelaufen, kehrt die Steuerung zu Schritt 305 zurück. Die Berechnung wird also auf Grundlage der erfaßten Beschleuni­ gungsdaten in Zeitabständen von 1 ms durchgeführt, bis 10 ms abgelaufen sind.
Sobald die 10 ms abgelaufen sind, fährt die Steuerung ausgehend von Schritt 306 mit Schritt 207 fort, bei dem dreidimensionalen Positionsdaten auf Grundlage der berechneten Translationsbewegungsdaten berechnet werden. Anschließend werden in Schritt 308 die dreidimensionalen Winkeldaten auf Grundlage der zu Anfang eingegebenen Winkeldaten berechnet, diese im RAM-Speicher der Sensorsteuerschaltung 76 abgespeichert und nach Ablauf der 10 ms die neuesten Winkeldaten erfaßt.
In Schritt 309 werden die dreidimensionalen Positionsdaten und Winkeldaten auf Grundlage der zuvor im Datenspeicher 78 abgespeicherten Versatzdaten korri­ giert. Danach werden in Schritt 310 die korrigierten Positionsdaten PD und die korrigierten Winkeldaten AD im Datenspeicher 78 abgespeichert. Anschließend kehrt die Steuerung ausgehend von Schritt 310 zu Schritt 304 zurück. Die dreidi­ mensionalen Positionsdaten PD und die dreidimensionalen Winkeldaten AD werden also alle 10 ms neu bestimmt.
Fig. 4 zeigt ein Ablaufdiagramm einer von der Sensorsteuerschaltung 76 ausge­ führten Unterbrechungsroutine. Die Unterbrechungsroutine wird durch ein von der Steuereinheit 32 an die Sensorsteuerschaltung 76 abgegebenes Unterbre­ chungssignal eingeleitet.
Sobald ein vorgegebenes Unterbrechungssignal von der Steuereinheit 32 an die Sensorsteuerschaltung 76 ausgegeben wird, wird in Schritt 401 die Eingabe wei­ terer Unterbrechungssignale an die Sensorsteuerschaltung 76 verhindert. Dies geschieht, weil die Steuereinheit 32 einen gemeinsamen Ausgang hat, aus dem an verschiedene in der Videokamera enthaltene Steuerschaltungen Unterbre­ chungssignale ausgegeben werden. Deshalb muß die Sensorsteuerschaltung 76 vor der Eingabe anderer Unterbrechungssignale geschützt werden, nachdem das notwendige Unterbrechungssignal von der Steuereinheit 32 an die Sensorsteu­ erschaltung 76 einmal eingegeben worden ist.
In Schritt 402 werden die Positionsdaten PD und die Winkeldaten AD von der Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen und in die Steu­ ereinheit 32 eingegeben.
Anschließend wird in Schritt 403 eine erneute Eingabe eines Unterbrechungssi­ gnals in die Sensorsteuerschaltung 76 wieder ermöglicht, damit sie während der nächsten Aufnahme von der Steuereinheit 32 unterbrochen werden kann.
Fig. 5 zeigt ein Ablaufdiagramm einer von der Steuereinheit 32 durchgeführten Aufnahmeroutine. Die Aufnahmeroutine wird initiiert, indem der Hauptschalter 80 angeschaltet wird.
In Schritt 501 wird ein Anfangstestprogramm ausgeführt, das ermittelt, ob ver­ schiedene Funktionen der Kamera ordnungsgemäß durchgeführt werden können oder nicht. Sobald eine der Funktionen der Kamera nicht betriebsbereit ist, wird im LCD-Feld 20 eine Warnungsmitteilung angezeigt, daß die Kamera nicht ordnungsgemäß arbeitet.
Anschließend wird in Schritt 502 bestimmt, ob der Auslöser 16 zum Einschalten des Belichtungssensorschalters 82 halb gedrückt ist oder nicht. Das Bestimmen, ob der Auslöser 16 halb gedrückt ist, wird in Zeitabständen von beispielsweise 1 ms wiederholt.
Sobald bestätigt wird, daß der Auslöser 16 halb gedrückt worden ist, fährt die Steuerung mit Schritt 503 fort, bei dem die Belichtungszeit bzw. die für die elek­ trische Ladungsspeicherung erforderliche Dauer auf Grundlage des vom Belich­ tungssensor 46 erzeugten Ausgangssignals bestimmt wird.
Danach wird in Schritt 504 bestimmt, ob der Auslöser 16 vollständig gedrückt wurde oder nicht. Wurde der Auslöser 16, nachdem er zuvor halb gedrückt wor­ den war, nicht vollständig gedrückt, kehrt die Steuerung von Schritt 504 zu Schritt 502 zurück. Dabei ist zu bemerken, daß in Zeitabständen von beispielsweise 1 ms wiederholt überprüft wird, ob der Auslöser 16 vollständig gedrückt worden ist.
Sobald bestätigt wird, daß der Auslöser 16 vollständig gedrückt wurde, wobei der Auslöseschalter 84 angeschaltet wurde, fährt die Steuerung ausgehend von Schritt 504 mit Schritt 505 fort, bei dem der Auslöser 16 deaktiviert wird.
Anschließend wird in Schritt 506 die Aufnahmefunktion ausgeführt. Bei der Auf­ nahmefunktion wird die Größe der Blende 34 durch die von der Belichtungssteu­ erschaltung 44 gesteuerte Blendenstellschaltung auf Grundlage des Ausgangs­ signals des Belichtungssensors 46 eingestellt und anschließend der Schnell­ klappspiegel 48 von der abgesenkten Stellung in die hochgeklappte Stellung nach oben geschwenkt. Dadurch wird die lichtempfangende Fläche des CCD- Bildsensors 36 den durch die Aufnahmeoptik 12 einfallenden Lichtstrahlen aus­ gesetzt. Genauer gesagt wird eine von der Aufnahmeoptik 12 erfaßte optische Abbildung fokussiert und auf die lichtempfangende Fläche des CCD-Bildsensors 46 projiziert, der die optische Abbildung in ein aus elektrischen Pixelsignalen be­ stehendes Bildfeld umwandelt.
In Schritt 507 werden die Positionsdaten PD und die Winkeldaten AD über die Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen. Hierzu gibt die Steuereinheit 32 ein Unterbrechungssignal ab, damit die Positionsdaten PD und die Winkeldaten AD in die Sensorsteuereinheit 76 eingelesen werden, wie oben beschrieben wurde.
In Schritt 508 wird bestimmt, ob die Belichtungszeit zum Umwandeln der opti­ schen Abbildung in elektrische Pixelsignale durch den CCD-Bildsensor 36, d. h. die für die elektrische Ladungsspeicherung erforderliche Zeit, abgelaufen ist oder nicht. Sobald die Belichtungszeit abgelaufen ist, wird der Schnellklappspiegel 48 von der hochgeklappten Stellung wieder in die abgesenkte Stellung zurückge­ schwenkt.
In Schritt 509 werden die Pixelsignale des Bildfeldes aus dem CCD-Bildsensor 36 ausgelesen, von dem Verstärker 50 verstärkt, durch den Analog-Digital-Wandler 52 in die digitale Pixelsignale umgewandelt und von der Bildverarbeitungsschal­ tung 54 weiterverarbeitet, bevor sie zeitweise im Speicher 56 abgespeichert wer­ den.
In Schritt 510 werden die Pixelsignale von dem Speicher 56 in die Speicherkar­ ten-Steuerschaltung 58 eingelesen, mit der die ausgegebenen Pixelsignale als Pixeldaten des Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden. Gleichzeitig werden die Positionsdaten PD und die Winkeldaten AD mit der Nummer des Bildfeldes und weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert.
Wie konzeptionell in Fig. 6 gezeigt, ist der Speicherbereich der IC-Speicherkarte 28 so formatiert, daß er in ein Kopffeld und in ein Bilddatenspeicherfeld unterglie­ dert ist. Die das Bildfeld bildenden Pixeldaten werden in dem Bilddatenspeicher­ feld abgespeichert. Die Positionsdaten PD, die Winkeldaten AD, die Nummer des Bildfeldes sowie weitere Informationsdaten wie die Aufnahmebedingungen, Datum und Uhrzeit der Aufnahme oder ähnliches werden im Kopffeld abgespei­ chert. Darüber hinaus kann der Speicherbereich der IC-Speicherkarte 28 auch ein Reservefeld umfassen, wie Fig. 6 zeigt.
Nachdem die Pixeldaten, die Positionsdaten PD, die Winkeldaten AD, die Num­ mer des Bildfeldes sowie die weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert worden sind, fährt die Steuerung mit Schritt 511 fort, bei dem der Auslöser 16 wieder aktiviert wird. Anschließend kehrt die Steuerung zu Schritt 502 zurück und wartet auf die nächste Aufnahme.
Fig. 7 zeigt konzeptionell eine fotogrammetrische Meßeinrichtung, bei der eine er­ findungsgemäße Videokamera verwendet wird. In dieser Darstellung ist ein würfelförmiges Objekt OB an einer Stelle positioniert, die fotogrammetrisch ver­ messen werden soll. Seitlich des zu vermessenden, würfelförmigen Objektes OB ist ein Standard-Maßstab SC angeordnet. Der Standard-Maßstab SC und das würfelförmige Objekt OB werden aus zwei verschiedenen Richtungen von der Vi­ deokamera CA fotografiert. Wie Fig. 7 zeigt, wird der Standard-Maßstab SC und das würfelförmige Objekt OB zunächst aus einer mit durchgezogener Linie dar­ gestellten ersten Position M1 von der Videokamera CA fotografiert. Anschließend werden sie aus einer zweiten Position M2 von der Videokamera CA fotografiert (in gestrichelten Linien dargestellt). Bei der ersten Position M1 ist die optische Achse der Videokamera CA mit dem Bezugszeichen O1 bezeichnet. An der zweiten Position M2 ist die optische Achse der Videokamera CA durch das Be­ zugszeichen O2 angegeben.
Dabei ist zu bemerken, daß sowohl die erste als auch die zweite Position M1 und M2 jeweils als der hintere Hauptpunkt der Aufnahmeoptik 12 der Videokamera CA definiert sein können.
Bei dem in Fig. 7 dargestellten Ausführungsbeispiel hat der Standard-Maßstab SC die Form einer gleichseitigen dreieckigen Platte mit drei Referenzpunkten P1, P2 und P3, die nahe der Eckpunkte der gleichseitigen dreieckigen Platte derart angeordnet sind, daß durch die Referenzpunkte P1, P2 und P3 ein gleichseitiges Dreieck definiert ist, wie es durch die schraffierte Fläche in Fig. 7 dargestellt ist. Die schraffierte Fläche dient als Referenzebene. Die Seitenkanten des durch die Referenzpunkte P1, P2 und P3 definierten gleichseitigen Dreiecks haben jeweils eine vorgegebene Länge L, die als Standardmeßlänge verwendet wird.
Dabei ist zu bemerken, daß anstelle des Standard-Maßstabes SC drei zueinander identische, kegelförmige Markierungen an geeigneten Stellen angeordnet sein können. In diesem Fall wird zuvor der Abstand zwischen zwei Spitzen der kegelförmigen Markierungen beispielsweise mit einem Maßband gemessen und der Wert als Standardmeßlänge gesetzt. Ferner wird als Referenzebene die durch die drei Spitzen der kegelförmigen Markierungen definierte Ebene verwen­ det.
Fig. 8 zeigt eine durch die an der ersten Position M1 angeordnete Videokamera CA fotografierte erste Aufnahme. Wie aus der Darstellung ersichtlich, ist in der ersten Aufnahme ein rechtwinkliges x1-y1 Koordinatensystem definiert, dessen Ursprung c1 im fotografischen Mittelpunkt der ersten Aufnahme angeordnet ist. In diesem x1-y1-Koordinatensystem werden die Referenzpunkte P1, P2 und P3 durch die Punkte p11(px11, py11), p12(px12, py12) bzw. p13(px13, py13) darge­ stellt.
Fig. 9 zeigt eine durch die Videokamera CA in der zweiten Position M2 fotogra­ fierte zweite Aufnahme. Aus dieser Darstellung ist ersichtlich, daß in der zweiten Aufnahme ein rechtwinkliges x2-y2-Koordinatensystem definiert ist, dessen Ur­ sprung c2 im fotografischen Mittelpunkt der zweiten Aufnahme angeordnet ist. In diesem x2-y2-Koordinatensystem werden die Referenzpunkte P1, P2 und P3 durch die Punkte p21(px21, py21), p22(px22, py22) bzw. p23(px23, py23) darge­ stellt.
In Fig. 10 ist die dreidimensionale relative Lagebeziehung zwischen dem Stan­ dard-Maßstab SC, der Videokamera CA und der ersten und zweiten Aufnahme dargestellt. In diesem Fall wird der Standard-Maßstab SC auf Grundlage der an der ersten Position M1 gemachten ersten Aufnahme und der an der zweiten Position M2 gemachten zweiten Aufnahme reproduziert, wobei jedoch die Abmes­ sung des Standard-Maßstabes SC einen Relativwert hat. Deshalb ist die Länge der Seitenkanten des durch die Referenzpunkte P1, P2 und P3 definierten gleich­ schenkligen Dreiecks durch die Angabe L' angezeigt.
Um die dreidimensionalen Koordinaten des würfelförmigen Objekts OB berechnen zu können, ist es erforderlich, ein dreidimensionales X-Y-Z-Koordinatensystem zu definieren, wie es Fig. 10 zeigt, bei dem die in der ersten und zweiten Aufnahme abgespeicherten Referenzpunkte P1, P2 und P3 des Standard-Maßstabes SC bezüglich dieses zweiten dreidimensionalen Koordinatensystems lagemäßig bestimmt werden müssen.
Wie in Fig. 10 gezeigt, liegt der Ursprung des dreidimensionalen X-Y-Z-Koordi­ natensystems an der ersten Position M1. Die erste Position M1 wird also durch die Ursprungskoordinaten 0, 0 und 0 des dreidimensionalen X-Y-Z-Koordinaten­ systems repräsentiert. Ferner fällt die Z-Achse des dreidimensionalen X-Y-Z- Koordinatensystems mit der optischen Achse O1 der an der ersten Position M1 angeordneten Videokamera CA zusammen, und wird durch die Winkelkoordina­ ten 0, 0 und 0 angegeben. Die zweite Position M2 wird durch die Koordinaten X0, Y0 und Z0 und die optische Achse O2 der an der zweiten Position M2 angeord­ neten Videokamera CA durch die Winkelkoordinaten α0, β0 und γ0 repräsentiert. Die optische Achse O2 der Videokamera 14 definiert also Winkel α0, β0 und γ0 mit der X-Achse, Y-Achse bzw. Z-Achse des dreidimensionalen X-Y-Z-Koordina­ tensystems.
Die Referenzpunkte P1, P2 und P3 des Standard-Maßstabes CA werden durch die Koordinaten PXj, PYj und PZj der Punkte Pj (wobei j = 1, 2, 3) dargestellt. Wie in Fig. 10 gezeigt, liegen jeder Referenzpunkt P1(PX1, PY1, PZ1), P2(PX2, PY2, PZ2) bzw. P3(PX3, PY3, PZ3), der auf der ersten Aufnahme aufgenommene Bildpunkt p11(px11 py11), p12(px12, py12) bzw. p13(px13, py13) des entspre­ chenden Referenzpunktes sowie der hintere Hauptpunkt (M1) der Videokamera CA zueinander ausgerichtet auf einer gemeinsamen Geraden. In gleicher Weise liegen jeweils der Referenzpunkt P1(PX1, PY1, PZ1), P2(PX2, PY2, PZ2) bzw. P3(PX3, PY3, PZ3), der auf der zweiten Aufnahme aufgenommene Bildpunkt p21 (px21, py21), p22(px22, py22) bzw. p23(px23, py23) des entsprechenden Referenzpunktes sowie der hintere Hauptpunkt (M2) der Videokamera CA zuein­ ander ausgerichtet auf einer gemeinsamen Geraden.
Folglich können die Koordinaten PXj, PYj und PZj der Punkte Pj durch die folgen­ den Kollinear-Gleichungen bestimmt werden:
Dabei ist zu bemerken, daß in diesen Gleichungen die Angabe C der Brennweite der Videokamera CA entspricht, die als Abstand zwischen dem hinteren Haupt­ punkt (M1) und dem fotografischen Mittelpunkt (c1) der ersten Aufnahme sowie als Abstand zwischen dem hinteren Hauptpunkt (M2) und dem fotografischen Mittelpunkt (c2) der zweiten Aufnahme definiert ist. Ferner entspricht die Angabe i der jeweiligen Aufnahme und die Angabe j dem jeweiligen Referenzpunkt P1, P2 bzw. P3 des Standard-Maßstabes SC.
Wie zuvor bereits erläutert, werden, wenn die erste Aufnahme von der an der er­ sten Position M1 angeordneten Videokamera CA fotografiert worden ist, Bildpi­ xeldaten der ersten Aufnahme gemeinsam mit den Positionsdaten PD, den Win­ keldaten AD, der Nummer des Bildfeldes und weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert. In diesem Fall können die in dem dreidimen­ sionalen χ-ψ-ω-Koordinatensystem ermittelten Positionsdaten PD durch die Ko­ ordinate X1, Y1 und Z1 dargestellt werden. Die aus dem dreidimensionalen χ-ψ-ω- Koordinatensystem ermittelten Winkeldaten AD können mit den Winkelkoordi­ naten α1, β1 und γ1 repräsentiert werden.
In gleicher Weise werden, wenn die zweite Aufnahme von der an der zweiten Position M2 angeordneten Videokamera CA fotografiert worden ist, Bildpixeldaten der zweiten Aufnahme gemeinsam mit den Positionsdaten PD, den Winkeldaten AD, der Nummer des Bildfeldes und weiteren Informationsdaten auf der IC- Speicherkarte 28 abgespeichert. In diesem Fall werden die aus dem dreidimen­ sionalen χ-ψ-ω-Koordinatensystem ermittelten Positionsdaten PD durch die Ko­ ordinaten X2, Y2 und Z2 dargestellt. Die Winkeldaten AD, die sich gleichfalls aus dem dreidimensionalen χ-ψ-ω-Koordinatensystem ergeben haben, können mit den dreidimensionalen Winkelkoordinaten α2, β2 und γ2 repräsentiert werden.
Fig. 11 zeigt ein Blockschaltbild eines Computersystems, das auf Grundlage der auf der IC-Speicherkarte 28 abgespeicherten Bildpixeldaten, Winkeldaten AD und Positionsdaten PD die oben beschriebene fotogrammetrische Vermessung durchführt.
Das Computersystem nach Fig. 11 hat einen Computer 90, in dem ein fotogram­ metrisches Vermessungsprogramm installiert ist, sowie einen mit dem Computer 90 verbundenen IC-Speicherkartenleser 92. Der IC-Speicherkartenleser 92 ist mit einem Schlitz zur Aufnahme der IC-Speicherkarte 28 ausgestattet und hat ein IC- Speicherkartenlaufwerk 94 zum Einlesen des aus Bildpixeldaten bestehenden Bildfeldes, der Winkeldaten AD, der Positionsdaten PD sowie der weiteren Infor­ mationsdaten. Das Computersystem hat ferner einen Bildschirm 96 zur Darstel­ lung einer fotografierten Aufnahme auf Grundlage der von der IC-Speicherkarte 28 eingelesenen Bildpixeldaten des Bildfeldes. Ferner hat das Computersystem eine Tastatur 98 zur Eingabe verschiedener Befehle und Daten in den Computer 90 sowie eine Maus 100 zum Bewegen eines auf dem Bildschirm 96 dargestellten Cursors.
Fig. 12 zeigt ein Ablaufdiagramm der in dem Computer 90 der Fig. 11 auszufüh­ renden fotogrammetrischen Meßroutine, bei der auf Grundlage der in den Fig. 8 und 9 gezeigten ersten und zweiten Aufnahmen eine Vermessungskarte erstellt wird. Bevor die Routine ausgeführt wird, werden die erste und die zweite Aufnah­ me durch Eingabe der Bildfeldnummern mit Hilfe der Tastatur 98 ausgewählt, de­ ren aus Bildpixeldaten bestehende Bildfelder von der IC-Speicherkarte 28 einge­ lesen. Anschließend werden die erste und zweite Aufnahme gleichzeitig auf dem Bildschirm 96 reproduziert und angezeigt, wie in den Fig. 8 und 9 dargestellt.
In Schritt 1201 werden auf Grundlage der aus dem dreidimensionalen χ-ψ-ω-Ko­ ordinatensystem abgeleiteten und an der ersten Position M1 erhaltenen Positi­ onsdatenkoordinaten X1, Y1 und Z1 sowie der Winkeldatenkoordinaten α1, β1 und γ1 sowie der aus dem χ-ψ-ω-Koordinatensystem abgeleiteten und an der zweiten Position M2 erhaltenen Positionsdatenkoordinaten X2, Y2 und Z2 sowie Winkeldatenkoordinaten α2, β2 und γ2 die nachfolgenden Berechnungen durch­ geführt:
X0←X2-X1
X0←Y2-Y1
Z0←Z2-Z1
α0←α21
β0←β21
γ0←γ21.
Geht man nun davon aus, daß die erste Position M1 im Ursprung des dreidimen­ sionalen X-Y-Z-Koordinatensystems angeordnet ist und die optische Achse O1 der Videokamera mit der Z-Achse des dreidimensionalen X-Y-Z-Koordinatensy­ stems (vgl. Fig. 10) zusammenfällt, können die Koordinaten X0, Y0 und Z0 der zweiten Position M2 sowie die Winkelkoordinaten α0, β0 und γ0 der optischen Achse O2 der Videokamera auf Grundlage der aus dem dreidimensionalen χ-ψ-ω- Koordinatensystem abgeleiteten Werten berechnet werden.
In Schritt 1202 werden die berechneten Ergebnisse, d. h. die Koordinaten X0, Y0 und Z0 der zweiten Position M2 und die Winkelkoordinaten α, β und γ der opti­ schen Achse O2 im RAM-Speicher des Computers 90 zeitweise abgespeichert. Anschließend werden in Schritt 1203 die jeweiligen Referenzpunkte Pij(pxij, pyij) nacheinander durch den mit der Maus 100 verfahrbaren Cursor auf der auf dem Bildschirm 96 dargestellten ersten und zweiten Aufnahme bestimmt. Genauer ge­ sagt werden die Koordinaten der zwei Punkte P11(px11, py11) und P21(px21, py21), der zwei Punkte P12(px12, py12) und P22(px22, py22) sowie der zwei Punkte P13(px13, py13) und P23(px23, py23) im RAM-Speicher des Computers 90 zeitweise abgespeichert.
Nachdem die Referenzpunkte Pij(pxij, pyij) bestimmt worden sind, wird in Schritt 1204 der Zähler k auf Eins gesetzt. Anschließend wird in Schritt 1205 ein geeig­ neter Punkt Q1(k=1) des würfelförmigen Objekts OB ausgewählt (vgl. Fig. 7) und Bildpunkte qik (vgl. Fig. 8 und 9) des Punktes Q1, die in der ersten und zweiten Aufnahme auf dem Bildschirm 96 dargestellt sind, durch den von der Maus 100 bewegten Cursor bestimmt. Genauer gesagt werden die Koordinaten der zwei Punkte q11(qx11, qy11) und q21(qx21, qy21) des Bildpunktes Q1 im RAM-Spei­ cher des Computers 90 zeitweise abgespeichert.
In Schritt 1206 werden die oben beschriebenen Kollinear-Gleichungen auf Grundlage der im RAM-Speicher abgespeicherten Koordinaten gelöst und die Koordinaten PXj, PYj und PZj der Referenzpunkte P1, P2 und P3 sowie die Ko­ ordinaten QX1, QY1 und QZ1 des Objektpunktes Q1 bestimmt.
In Schritt 1207 wird ein Koeffizient m wie folgt berechnet:
m←L/L'.
Dabei ist zu bemerken, daß die Angabe L der wirklichen Länge zwischen den Referenzpunkten P1, P2 und P3 und die Angabe L' der durch die Ermittlung der Koordinaten PXj, PYj und PZj der Punkte Pj erhaltenen relativen Länge entspricht.
In Schritt 1208 wird durch Verwendung des Koeffizienten m eine Skalierung zwi­ schen den ermittelten Punkten Pj(PXj, PYj, PZj) und dem Punkt Q1 (QX1, QY1, QZ1) bestimmt, um eine genaue räumliche Beziehung zwischen diesen zu ermit­ teln. Anschließend wird in Schritt 1209 das dreidimensionale X-Y-Z-Koordina­ tensystem in ein dreidimensionales X'-Y'-Z'-Koordinatensystem transformiert, das so definiert ist, wie es in Fig. 13 gezeigt ist.
Wie aus Fig. 13 ersichtlich, liegt der Ursprung des dreidimensionalen X'-Y'-Z'- Koordinatensystems im Referenzpunkt P1, wobei deren X'-Achse durch die Refe­ renzpunkte P1 und P2 definiert ist. Des weiteren definieren die X'- und die Z'- Achse des Koordinatensystems eine Ebene Ps, die die durch die Referenzpunkte P1, P2 und P3 definierte schraffierte dreieckige Fläche bzw. Referenzfläche enthält. Dabei ist zu bemerken, daß bei dem in Fig. 13 gezeigten Beispiel, obwohl der Ursprung des dreidimensionalen X'-Y'-Z'-Koordinatensystems mit dem Referenzpunkt P1 zusammenfällt, der Ursprung an jeder Position in der Ebene Ps angeordnet sein kann.
In Schritt 1210 wird die X'-Z'-Ebene, in der die Referenzpunkte P1, P2 und P3 sowie der Objektpunkt Q1 aufgezeichnet sind, als Vermessungskarte auf dem Bildschirm 96 dargestellt. Anschließend wird in Schritt 1211 bestimmt, ob ein weiterer Satz Punkte q1k und q2k am würfelförmigen Objekt OB ermittelt werden soll oder nicht. Wenn ein weiterer Satz Punkte q1k und q2k bestimmt werden soll, d. h., eine bis dahin nicht ausreichende Anzahl von Punkten q1k und q2k bestimmt wurde, die für die Erzeugung einer genauen Vermessungskarte nötig sind, fährt die Steuerung ausgehend von Schritt 1211 mit Schritt 1212 fort, bei dem der Zäh­ ler k um Eins erhöht wird. Anschließend wird die Routine mit den Schritten 1205 bis 1210 wiederholt.
Wenn in Schritt 1211 kein weiterer Satz Punkte q1k und q2k ermittelt werden soll, d. h. wenn ausreichend Sätze von Punkten q1k und q2k bestimmt worden sind, die für die Erzeugung einer annehmbaren Vermessungskarte erforderlich sind, ist die Routine abgeschlossen.
Die Fig. 14 und 15 zeigen ein Ablaufdiagramm einer von der Steuereinheit 32 durchgeführten weiteren Aufnahmeroutine. Diese Routine wird gleichfalls initiiert, indem der Hauptschalterknopf 24 gedrückt wird, der den Hauptschalter 80 an­ schaltet.
In Schritt 1401 wird ein Anfangstestprogramm ausgeführt, das ermittelt, ob ver­ schiedene Funktionen der Kamera ordnungsgemäß durchgeführt werden können oder nicht. Sobald eine der Funktionen der Kamera nicht betriebsbereit ist, wird im LCD-Feld 20 eine Warnungsmitteilung angezeigt, daß die Videokamera nicht ordnungsgemäß arbeitet.
Anschließend wird in Schritt 1402 ein Zähler n auf Null gesetzt. Danach wird in Schritt 1403 bestimmt, ob der Auslöser 16 zum Einschalten des Belichtungssen­ sorschalters 82 halb gedrückt worden ist oder nicht. Das Bestimmen, ob der Auslöser 16 halb gedrückt worden ist, wird in Zeitabständen von beispielsweise 1 ms wiederholt.
Sobald bestätigt wird, daß der Auslöser 16 halb gedrückt worden ist, fährt die Steuerung mit Schritt 1404 fort, bei dem die Belichtungszeit bzw. die für die elek­ trische Ladungsspeicherung erforderliche Dauer auf Grundlage des vom Belich­ tungssensor 46 erzeugten Ausgangssignals bestimmt wird.
Danach wird in Schritt 1405 bestimmt, ob der Auslöser 16 vollständig gedrückt wurde oder nicht. Wurde der Auslöser 16, nachdem er halb gedrückt worden war, nicht vollständig gedrückt, kehrt die Steuerung ausgehend von Schritt 1405 zu Schritt 1403 zurück. Dabei ist zu bemerken, daß in Zeitabständen von beispiels­ weise 1 ms wiederholt überprüft wird, ob der Auslöser 16 vollständig gedrückt wurde.
Sobald bestätigt wird, daß der Auslöser 16 vollständig gedrückt wurde, wobei der Auslöseschalter 84 angeschaltet wurde, fährt die Steuerung ausgehend von Schritt 1405 mit Schritt 1406 fort, bei dem der Auslöser 16 deaktiviert wird.
Anschließend wird in Schritt 1407 die Aufnahmefunktion ausgeführt. Bei der Auf­ nahmefunktion wird die Größe der Blende 34 durch die von der Belichtungssteue­ rung 44 gesteuerte Blendenstellschaltung auf Grundlage des Ausgangssignals des Belichtungssensors 46 eingestellt und anschließend der Schnellklappspiegel 38 von der abgesenkten Stellung in die hochgeklappte Stellung nach oben geschwenkt. Dadurch wird die lichtempfangende Fläche des CCD-Bildsensors 36 den durch die Aufnahmeoptik 12 einfallenden Lichtstrahlen ausgesetzt. Genauer gesagt wird eine von der Aufnahmeoptik 12 erfaßte optische Abbildung fokussiert und auf die lichtempfangende Fläche des CCD-Bildsensors 36 projiziert, wobei die optische Abbildung in ein aus elektrischen Pixelsignalen bestehendes Bildfeld umgewandelt wird.
In Schritt 1408 werden die Positionsdaten PD und die Winkeldaten AD über die Sensorsteuerschaltung 76 aus dem Datenspeicher 78 gelesen. Hierzu gibt die Steuereinheit 32, wie bereits beschrieben, ein Unterbrechungssignal aus, wo­ durch die Positionsdaten PD und die Winkeldaten AD in die Sensorsteuerschal­ tung 76 eingelesen werden. Danach werden in Schritt 1409 die Positionsdaten PD in die Positionsdaten PDn und die Winkeldaten AD in die Winkeldaten ADn um­ gewandelt.
In Schritt 1410 wird bestimmt, ob die vorgegebene Belichtungszeit zum Umwan­ deln der optischen Abbildung in elektrische Pixelsignale durch den CCD-Bildsen­ sor 36, d. h. die für die elektrische Ladungsspeicherung erforderliche Zeit abge­ laufen ist oder nicht. Sobald die Belichtungszeit abgelaufen ist, wird der Schnell­ klappspiegel 38 von der hochgeklappten Stellung wieder in die abgesenkte Stel­ lung zurückgeschwenkt.
In Schritt 1411 werden die Pixelsignale des Bildfeldes aus dem CCD-Bildsensor 36 ausgelesen, von dem Verstärker 50 verstärkt, durch den Analog-Digital- Wandler 52 in digitale Pixelsignale umgewandelt und von der Bildverarbeitungs­ schaltung 54 verarbeitet, bevor sie im Speicher 56 zeitweise abgespeichert wer­ den.
In Schritt 1412 wird bestimmt, ob der Wert des Zählers n den numerischen Wert Null übersteigt oder nicht. Da in Schritt 1402 der Zähler n auf Null gesetzt worden ist, fährt in diesem Betriebszustand die Steuerung mit Schritt 1413 fort, bei dem die Pixelsignale von dem Speicher 56 an die Speicherkarten-Steuerschaltung 58 abgegeben werden, mit der die ausgegebenen Pixelsignale als Pixeldaten des Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden. Gleichzeitig werden mit der Nummer des Bildfeldes und weiteren Informationsdaten die Positionsdaten PDn und die Winkeldaten ADn auf der IC-Speicherkarte 28 abgespeichert. Wie in Fig. 6 gezeigt, werden die Pixeldaten des Bildfeldes im Bilddatenspeicherfeld der IC-Speicherkarte 28 abgespeichert. Die Positionsdaten PDn, die Winkeldaten ADn, die Nummer des Bildfeldes und die weiteren Informationsdaten werden im Kopffeld der IC-Speicherkarte 28 abgespeichert.
Nachdem die Pixeldaten, die Positionsdaten PDn, die Winkeldaten ADn, die Nummer des Bildfeldes und die weiteren Informationsdaten auf der IC-Speicher­ karte 28 abgespeichert worden sind, fährt die Steuerung mit Schritt 1414 fort, bei dem der Auslöser 16 wieder aktiviert wird. Anschließend wird in Schritt 1415 der Wert des Zählers n um Eins erhöht. Danach kehrt die Steuerung zu Schritt 1403 zurück und wartet auf die nächste Aufnahme.
Wenn eine nächste Aufnahme ausgeführt wird, ohne daß der Hauptschalter 28 ausgeschaltet wurde, fährt die Steuerung ausgehend von Schritt 1412 direkt mit Schritt 1416 fort (n = 1), bei dem die nachfolgenden Berechnungen durchgeführt werden:
ΔPD←PDn-PDn-1
ΔAD←ADn-ADn-1.
Wie aus den zuvor genannten Erläuterungen ersichtlich, stellen bei der in Fig. 10 gezeigten fotogrammetrischen Vermessung die Differenzpositionsdaten ΔPD die Koordinaten X0, Y0 und Z0 der Position M2 und die Differenzwinkeldaten ΔAD die Winkelkoordinaten α0, β0 und γ0 der optischen Achse O2 dar.
In Schritt 1417 werden die Pixelsignale von dem Speicher 56 an die Speicherkar­ ten-Steuerschaltung 58 weitergegeben, mit der die ausgegebenen Pixelsignale als Pixeldaten des Bildfeldes auf der IC-Speicherkarte 28 abgespeichert werden. Gleichzeitig werden die Positionsdaten PDn, die Differenzpositionsdaten ΔPD, die Winkeldaten ADn und die Differenzwinkeldaten ΔAD gemeinsam mit der Nummer des Bildfeldes und weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert. Dabei ist zu bemerken, daß die Differenzpositionsdaten ΔPD und die Differenzwinkeldaten ΔAD im Reservefeld der IC-Speicherkarte 28 (vgl. Fig. 6) abgespeichert werden können.
Wenn also bei der in den Fig. 14 und 15 gezeigten Aufnahmeroutine eine Reihe Aufnahmen nacheinander durchgeführt wird, ohne den Hauptschalter 80 auszu­ schalten, enthält das bei jeder Aufnahme erhaltene, aus Pixeldaten bestehende Bildfeld relative Positionsdaten ΔPD und relative Winkeldaten ΔAD, die sich aus dem unmittelbar vorher aufgenommenen Bildfeld ableiten.
Bei der in Fig. 12 gezeigten fotogrammetrischen Meßroutine werden zwei aufein­ ander folgende Aufnahmen als ein aus erster und zweiter Aufnahme (vgl. Fig. 8 und 9) bestehender Satz ausgewählt. In diesem Fall sind die in Schritt 1201 der Meßroutine nach Fig. 12 durchgeführten Berechnungen unnötig.
Fig. 16 zeigt eine Abwandlung der fotogrammetrischen Meßroutine nach Fig. 12, die die auf der IC-Speicherkarte 28 abgespeicherte Daten verwendet, welche sich bei Verwendung der Aufnahmeroutine nach den Fig. 14 und 15 ergeben haben.
In Schritt 1601 wird bestimmt, ob zwei nacheinander fotografierte Aufnahmen ausgewählt worden sind, die der ersten bzw. zweiten Aufnahme nach Fig. 8 bzw. 9 entsprechen. Wurde ein Satz zweier nacheinander fotografierter Aufnahmen ausgewählt, fährt die Steuerung mit Schritt 1602 fort. In Schritt 1602 werden die Differenzpositionsdaten ΔPD und die Differenzwinkeldaten ΔAD, die sich auf die letztere der beiden nacheinander fotografierten Aufnahmen bezieht, als Koordi­ naten X0, Y0 und Z0 der Position M2 und als Winkelkoordinaten α0 β0 und γ0 der optischen Achse O2 im RAM-Speicher des Computers 90 zeitweise abge­ speichert.
Wenn dagegen kein Satz zweier nacheinander fotografierter Aufnahmen ausge­ wählt worden ist, fährt die Steuerung ausgehend von Schritt 1601 mit Schritt 1603 fort, bei dem in gleicher Weise wie in Schritt 1201 nach Fig. 12 die Berechnungen durchgeführt werden. Anschließend werden in Schritt 1604 dieselben Funktionen wie in Schritt 1201 durchgeführt.
Bei einer Abwandlung der in Fig. 16 dargestellten fotogrammetrischen Meßroutine werden die Differenzpositionsdaten ΔPD bzw. die Koordinatendaten X0, Y0 und Z0 der Position M2 sowie die Differenzwinkeldaten ΔAD bzw. die Winkelko­ ordinaten α0 β0 und γ0 der optischen Achse O2 unmittelbar aus der IC-Spei­ cherkarte 28 ausgelesen, sobald ein Satz zwei aufeinanderfolgend fotografierter Aufnahmen ausgewählt worden ist, so daß die Schritte 1603 und 1604 nicht aus­ geführt werden müssen. Dadurch kann das fotogrammetrische Meßverfahren weiter vereinfacht werden.
Bei der in den Fig. 14 und 15 gezeigten zweiten Ausführungsform kann, obwohl die Positionsdaten PDn, die Differenzpositionsdaten ΔPD, die Winkeldaten ADn und die Differenzwinkeldaten ΔAD gemeinsam mit den Nummern der Bildfelder und weiteren Informationsdaten auf der IC-Speicherkarte 28 abgespeichert wer­ den, auf das Abspeichern der Positionsdaten PDn und der Winkeldaten ADn ver­ zichtet werden, wodurch Speicherkapazität der IC-Speicherkarte 28 gespart wer­ den kann.
Aus den vorher erfolgten Erläuterungen ist ersichtlich, daß mit einem die foto­ grammetrische Meßroutine ausführenden Computer sehr schnell eine Vermes­ sungskarte erstellt werden kann, da die erfindungsgemäße Kamera mit einem Positionserfassungssystem ausgestattet ist, mit dem relative Lagebeziehungen zwischen unterschiedlichen Positionen während des Fotografierens bestimmbar sind.

Claims (17)

1. Kamera, insbesondere zum fotogrammetrischen Vermessen, gekennzeich­ net durch eine Positionserfassungseinrichtung (64 bis 78) zum Ermitteln einer dreidimensionalen relativen Lagebeziehung zwischen verschiedenen Aufnahmepositionen (M1, M2) der Kamera (CA).
2. Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Positionser­ fassungseinrichtung (64 bis 78) ein nahe der Kamera (CA) definiertes drei­ dimensionales Koordinatensystem verwendet, auf das sich die ermittelten relativen Lagebeziehungen zwischen den unterschiedlichen Aufnahmeposi­ tionen (M1, M2) bezieht.
3. Kamera nach Anspruch 2, dadurch gekennzeichnet, daß der Ursprung des dreidimensionalen Koordinatensystems am hinteren Hauptpunkt (M1, M2) einer Aufnahmeoptik (12) der Kamera (CA) angeordnet ist.
4. Kamera nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß das dreidi­ mensionale Koordinatensystem eine vertikale erste Achse (ψ) sowie zwei sich vom Ursprung des Koordinatensystems horizontal erstreckende Achsen (χ, ω) hat, die rechtwinklig zueinander verlaufen.
5. Kamera nach Anspruch 1, 2, 3 oder 4, dadurch gekennzeichnet, daß die Positionserfassungseinrichtung für jede der drei Achsen eines dreidimensio­ nalen Koordinatensystems einen Drehwinkel-Sensor (64, 66, 68) zum Erfas­ sen von Drehbewegungen um die jeweilige Achse (χ, ψ, ω) sowie einen Beschleunigungssensor (70, 72 bzw. 74) zum Erfassen von Translationsbe­ wegungen entlang der jeweiligen Achse (χ, ψ, ω) hat.
6. Kamera nach Anspruch 5, dadurch gekennzeichnet, daß der die Drehbe­ wegung um die erste Achse (ψ) erfassende Drehwinkel-Sensor ein magne­ tisch arbeitender Azimut-Sensor (64) ist.
7. Kamera nach Anspruch 5 oder 6, dadurch gekennzeichnet, daß die Positi­ onserfassungseinrichtung mindestens eine Recheneinheit (76) hat, die auf Grundlage der von den Drehwinkel-Sensoren (64, 66, 68) ermittelten Dreh­ bewegungen sich auf die verschiedenen Aufnahmepositionen (M1, M2) be­ ziehende Winkeldaten (AD) und auf Grundlage der von den Beschleuni­ gungs-Sensoren (70, 72, 74) ermittelten Translationsbewegungen sich auf die verschiedenen Aufnahmepositionen (M1, M2) beziehende Translations­ daten berechnet.
8. Kamera nach Anspruch 7, dadurch gekennzeichnet, daß die Recheneinheit (76) auf Grundlage der Translationsdaten sich auf die verschiedenen Auf­ nahmepositionen (M1 und M2) beziehende Positionsdaten (PD) berechnet.
9. Kamera nach Anspruch 8, gekennzeichnet durch ein austauschbares Spei­ chermedium (28), auf dem von der Kamera aufgenommene, eine Aufnahme definierende Bilddaten gemeinsam mit den Positionsdaten (PD) und den Winkeldaten (AD) abgespeichert werden.
10. Kamera nach Anspruch 8 oder 9, dadurch gekennzeichnet, daß die Positi­ onserfassungseinrichtung eine Recheneinheit (76) hat, die eine Winkeldif­ ferenz (ΔAD) zweier Winkeldaten (AD) nacheinander an verschiedenen Positionen (M1, M2) fotografierter Aufnahmen, sowie eine Positionsdifferenz (ΔPD) zweier Positionsdaten (PD) der zwei nacheinander fotografierten Auf­ nahmen berechnet.
11. Kamera nach Anspruch 10, gekennzeichnet durch ein austauschbares Speichermedium (28), auf dem von der Kamera (CA) aufgenommene, die Aufnahmen definierende Bilddaten gemeinsam mit der Winkeldifferenz (ΔAD) und der Positionsdifferenz (ΔPD) abgespeichert werden.
12. Speichermedium zum Speichern von durch eine Kamera (CA) erzeugten, ei­ ne Aufnahme definierenden Bilddaten, dadurch gekennzeichnet, daß ge­ meinsam mit den Bilddaten dreidimensionale Lagedaten (AD, ΔAD, PD, ΔPD) auf dem Speichermedium (28) abspeicherbar sind, mit denen die Posi­ tion (M1 bzw. M2) der Kamera (CA) während der Aufnahme angegeben werden.
13. Speichermedium nach Anspruch 12, dadurch gekennzeichnet, daß sich die Lagedaten (AD, ΔAD, PD, ΔPD) auf ein nahe der Kamera (CA) definiertes dreidimensionales Koordinatensystem (χ, ψ ω) beziehen.
14. Speichermedium nach Anspruch 13, dadurch gekennzeichnet, daß der Ur­ sprung des Koordinatensystems (χ, ψ, ω) in der Kamera (CA), vorzugsweise am hinteren Hauptpunkt (M1 bzw. M2) einer Aufnahmeoptik (12) der Kamera (CA) angeordnet ist.
15. Speichermedium nach Anspruch 14, dadurch gekennzeichnet, daß das dreidimensionale Koordinatensystem eine vertikale erste Achse (ψ) sowie zwei sich vom Ursprung des Koordinatensystems horizontal erstreckende Achsen (χ, ω) hat, die rechtwinklig zueinander verlaufen.
16. Speichermedium nach einem der Ansprüche 12 bis 15, dadurch gekenn­ zeichnet, daß die dreidimensionalen Lagedaten relative dreidimensionale Winkeldaten (AD) und relative dreidimensionale Positionsdaten (PD) ver­ schiedener Aufnahmepositionen (M1 und M2) der Kamera (CA) sind.
17. Speichermedium nach einem der Ansprüche 12 bis 16, dadurch gekenn­ zeichnet, daß als Lagedaten eine Winkeldifferenz (ΔAD) von zwei relativen dreidimensionalen Winkeldaten (AD) nacheinander an verschiedenen Posi­ tionen (M1 und M2) fotografierter Aufnahmen sowie eine Positionsdifferenz (ΔPD) von zwei relativen dreidimensionalen Positionsdaten (PD) der zwei nacheinander fotografierten Aufnahmen dienen.
DE19800447A 1997-01-08 1998-01-08 Kamera, insbesondere zum fotogrammetrischen Vermessen Withdrawn DE19800447A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP1313897 1997-01-08
JP26806697 1997-09-12

Publications (1)

Publication Number Publication Date
DE19800447A1 true DE19800447A1 (de) 1998-07-09

Family

ID=26348867

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19800447A Withdrawn DE19800447A1 (de) 1997-01-08 1998-01-08 Kamera, insbesondere zum fotogrammetrischen Vermessen

Country Status (2)

Country Link
US (1) US6600511B1 (de)
DE (1) DE19800447A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999063306A1 (en) * 1998-05-29 1999-12-09 Central Research Laboratories Limited Method and apparatus for automated measurement
DE19836303A1 (de) * 1998-08-11 2000-02-17 Dimension 3D Systems Gmbh Kamerakalibrierung für multiokulare Aufnahmen
EP1291617A1 (de) * 2001-09-06 2003-03-12 DaimlerChrysler AG Verfahren und Anordnung zum Bestimmen der Position und Ausrichtung einer Bildaufnahme-Einrichtung beim optischen Vermessen von Objekten
DE10125710B4 (de) * 2000-05-25 2005-02-10 Pentax Corp. Zielobjekt für ein fotogrammetrisches, analytisches Meßsystem
WO2007000491A1 (en) * 2005-06-29 2007-01-04 Nokia Corporation Method, device, and program product for visually indicating a selected object, using a device equipped with camera

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000010141A (ja) * 1998-06-26 2000-01-14 Ricoh Co Ltd 手振れ補正機能付きデジタルカメラ
US6912293B1 (en) 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US7053937B1 (en) * 1999-05-21 2006-05-30 Pentax Corporation Three-dimensional image capturing device and recording medium
US7893963B2 (en) * 2000-03-27 2011-02-22 Eastman Kodak Company Digital camera which estimates and corrects small camera rotations
JP4427891B2 (ja) * 2000-10-27 2010-03-10 コニカミノルタホールディングス株式会社 画像管理装置、デジタル撮像装置および画像生成装置
US7098997B2 (en) * 2002-06-26 2006-08-29 Pentax Corporation Surveying system
US7075634B2 (en) * 2002-06-28 2006-07-11 Pentax Corporation Surveying system
US20080255840A1 (en) * 2007-04-16 2008-10-16 Microsoft Corporation Video Nametags
US8526632B2 (en) * 2007-06-28 2013-09-03 Microsoft Corporation Microphone array for a camera speakerphone
US8330787B2 (en) 2007-06-29 2012-12-11 Microsoft Corporation Capture device movement compensation for speaker indexing
JP5485889B2 (ja) * 2007-08-17 2014-05-07 レニショウ パブリック リミテッド カンパニー 位相解析測定を行う装置および方法
FI123049B (fi) * 2007-09-03 2012-10-15 Mapvision Ltd Oy Tallentava konenäköjärjestelmä
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US8897543B1 (en) * 2012-05-18 2014-11-25 Google Inc. Bundle adjustment based on image capture intervals
US9467814B2 (en) * 2012-12-28 2016-10-11 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider
US9544737B2 (en) * 2012-12-28 2017-01-10 Trimble Inc. Performing data collection based on external raw observables using a mobile data collection platform
US9462446B2 (en) * 2012-12-28 2016-10-04 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset
US9538336B2 (en) * 2012-12-28 2017-01-03 Trimble Inc. Performing data collection based on internal raw observables using a mobile data collection platform
US10951859B2 (en) 2018-05-30 2021-03-16 Microsoft Technology Licensing, Llc Videoconferencing device and method
RU2740445C2 (ru) * 2018-09-14 2021-01-14 Общество с ограниченной ответственностью "НАВИГАТОРСПАС" Способ конвертации преобразования перевода 2D-изображений в формат 3D

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335072A (en) 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
JP3021556B2 (ja) * 1990-06-20 2000-03-15 ソニー株式会社 映像情報処理装置とその方法
JP3391405B2 (ja) * 1992-05-29 2003-03-31 株式会社エフ・エフ・シー カメラ映像内の物体同定方法
JP3230605B2 (ja) 1992-06-03 2001-11-19 オリンパス光学工業株式会社 カメラ
JPH0667293A (ja) 1992-08-14 1994-03-11 Olympus Optical Co Ltd カメラ
US5764291A (en) * 1994-09-30 1998-06-09 Apple Computer, Inc. Apparatus and method for orientation-dependent camera exposure and focus setting optimization
WO1996024216A1 (en) * 1995-01-31 1996-08-08 Transcenic, Inc. Spatial referenced photography
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JPH08285588A (ja) * 1995-04-13 1996-11-01 Mitsui Constr Co Ltd 撮影装置及びこれを用いた飛行撮影装置
JPH08336069A (ja) * 1995-04-13 1996-12-17 Eastman Kodak Co 電子スチルカメラ
JPH08285585A (ja) 1995-04-13 1996-11-01 Mitsui Constr Co Ltd 写真測量用カメラユニット
US5794078A (en) * 1995-09-11 1998-08-11 Nikon Corporation Image movement correction of camera
US6282362B1 (en) * 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
JPH09187038A (ja) * 1995-12-27 1997-07-15 Canon Inc 3次元形状抽出装置
JP3426459B2 (ja) * 1997-02-03 2003-07-14 ペンタックス株式会社 写真測量システムおよび写真測量方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999063306A1 (en) * 1998-05-29 1999-12-09 Central Research Laboratories Limited Method and apparatus for automated measurement
DE19836303A1 (de) * 1998-08-11 2000-02-17 Dimension 3D Systems Gmbh Kamerakalibrierung für multiokulare Aufnahmen
DE10125710B4 (de) * 2000-05-25 2005-02-10 Pentax Corp. Zielobjekt für ein fotogrammetrisches, analytisches Meßsystem
EP1291617A1 (de) * 2001-09-06 2003-03-12 DaimlerChrysler AG Verfahren und Anordnung zum Bestimmen der Position und Ausrichtung einer Bildaufnahme-Einrichtung beim optischen Vermessen von Objekten
WO2007000491A1 (en) * 2005-06-29 2007-01-04 Nokia Corporation Method, device, and program product for visually indicating a selected object, using a device equipped with camera

Also Published As

Publication number Publication date
US6600511B1 (en) 2003-07-29

Similar Documents

Publication Publication Date Title
DE19804205B4 (de) Fotogrammetrisches Meßverfahren und fotogrammetrische Meßeinrichtung
DE19800447A1 (de) Kamera, insbesondere zum fotogrammetrischen Vermessen
DE19800336A1 (de) Kamera mit Abstandsmessungs-Sensoreinheit
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE60034166T2 (de) Automatische Vermessungsgerät und Verfahren zum dreidimensionalen Messen
DE69906873T2 (de) Gerät zum Erzeugen orthogonal projizierter Bilder
DE19922321C2 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
DE4113537C2 (de) Vorrichtung zur automatischen Scharfeinstellung
DE60306301T2 (de) Verfahren und Gerät zur Erfassung, Geolokalisierung und Vermessung schräg aufgenommener Bilder
DE3433412C3 (de) Eingänge eines Rechners zum Berechnen einer optimalen Gegenstandsebene, die durch zu den ausgewählten Bildpunkten optisch konjugierte Gegenstandspunkte definiert ist, und zum Berechnen der Soll-Einstellung des Objektiv- und/oder Bildträgers einzugeben
EP1158271B1 (de) Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
WO2013178609A1 (de) Verfahren und handhaltbares entfernungsmessgerät zur indirekten entfernungsmessung mittels bildgestützter winkelbestimmungsfunktion
WO2006012859A2 (de) Verfahren zum fokussieren des aufnahmeobjektivs einer laufbild- oder videokamera
EP2044573A1 (de) Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera
DE60206320T2 (de) Vorrichtung und Verfahren zur perspektivischen Projektionbilderzeugung
DE3920160A1 (de) Anordnung zur bildverarbeitung
WO2003091660A1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE3921983A1 (de) Verbundkamera mit automatischer parallaxenkorrektur
CH563013A5 (de)
DE3712958C1 (en) Method and device for photographically measuring a three-dimensional object
WO1998008053A1 (de) Stereokamera für die photogrammetrie
EP3486606A1 (de) Stereokamera und stereophotogrammetrisches verfahren

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G01C 1102

8130 Withdrawal