DE69733014T2 - Integriertes system zum abbilden und modellieren von dreidimensionalen objekten - Google Patents

Integriertes system zum abbilden und modellieren von dreidimensionalen objekten Download PDF

Info

Publication number
DE69733014T2
DE69733014T2 DE69733014T DE69733014T DE69733014T2 DE 69733014 T2 DE69733014 T2 DE 69733014T2 DE 69733014 T DE69733014 T DE 69733014T DE 69733014 T DE69733014 T DE 69733014T DE 69733014 T2 DE69733014 T2 DE 69733014T2
Authority
DE
Germany
Prior art keywords
points
data
laser
scan
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69733014T
Other languages
English (en)
Other versions
DE69733014T8 (de
DE69733014D1 (de
Inventor
K. Ben KACYRA
Jerry Dimsdale
Mark Brunkhart
Apollo Jonathan KUNG
Robin Christopher THEWALT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Geosystems AG
Original Assignee
Leica Geosystems HDS LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems HDS LLC filed Critical Leica Geosystems HDS LLC
Publication of DE69733014D1 publication Critical patent/DE69733014D1/de
Application granted granted Critical
Publication of DE69733014T2 publication Critical patent/DE69733014T2/de
Publication of DE69733014T8 publication Critical patent/DE69733014T8/de
Active legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4818Constructional features, e.g. arrangements of optical elements using optical fibres

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich allgemein auf Systeme, die die Geometrie und weitere Attribute von Objekten in drei Dimensionen dokumentieren, und speziell auf ein System, das einen Lidar-Scanner (Laserentfernungsmesser) einsetzt, um schnell und genau die Position von ausgewählten Punkten auf der Oberfläche eines Objekts im dreidimensionalen Raum abzutasten und eine Punktwolke zu erzeugen, die die abgetasteten Positionen der ausgewählten Punkte darstellt; das die geometrischen Formen erkennt, die von Gruppen von Punkten in der Punktwolke dargestellt werden, und das ein Modell erzeugt, das diese geometrischen Formen darstellt. Das Modell kann in ein weiteres Modell umgewandelt werden, das von den Werkzeugen des computergestützten Entwerfens (CAD) einschliesslich der herkömmlichen CAD-Werkzeuge verwendet werden kann.
  • Hintergrund
  • Die topographische Aufnahme der Geometrie (Gestalt, Abmessungen und Ort) und anderer Attribute (z. B. Farbe, Textur und Reflexionsintensität) komplexer reeller Objekte (ob kleiner Komponenten wie kleiner mechanischer Teile oder grosser Objekte wie Gebäude und Gelände) ist herkömmlicherweise ein mühsamer und zeitschluckender Prozess gewesen. Solche Messungen sind nämlich herkömmlicherweise manuell durchgeführt worden. Die Umwandlung dieser Messungen in Zeichnungen oder Computermodelle hat ausserdem manuelles Zeichnen oder manuelle Eingabe in ein CAD-System erfordert, um die Zeichnung oder Computermodelle herzustellen.
  • In der letzten Zeit war es das Bestreben von Innovationen, diesen Prozess zu vereinfachen, aber sie alle haben keine volle Integration, Automatisierung, Präzision, Geschwindigkeit und Reichweite erreicht. Zum Beispiel verlangt die topographische Aufnahme einer Struktur in der Bauindustrie herkömmlicherweise die folgenden drei Grundschritte:
    • 1. Felddatensammlung
    • 2. Datenreduktion und -aufbereitung
    • 3. Zeichnen und CAD
  • Der Schritt der Felddatensammlung wird von einer Gruppe von Vermessern ausgeführt, die manuell die Dimensionen von relevanten Komponenten der Struktur wie Wänden, Decken, Balken, Säulen, Toren, Fenstern, Armaturen, Rohren, Kanälen und Ausstattungen messen und aufzeichnen. Die Vermesser versuchen, die Geometrie der Komponenten wie auch die relative Lage der Komponenten in der Struktur zu bestimmen. Die Vermesser zeichneten die Daten in einem Feldnotizbuch auf. Die im Feld gesammelten Daten werden dann zu Tabellen und organisierten Skizzen geordnet und reduziert, und ein CAD-Bediener oder Zeichner verwendet diese Tabellen, um die endgültigen Zeichnungen oder Modelle zu erzeugen.
  • Dieser Prozess ist arbeitsintensiv, zeitschluckend und fehleranfällig. Ausserdem ist bei Verwendung herkömmlicher Vermessungsverfahren die Anzahl von Punkten, die tatsächlich gemessen werden kann, wegen der hohen Kosten für die Erfassung eines jeden Punktes für Zeit und Arbeitsaufwand sehr begrenzt. Wenn es darüber hinaus erwünscht ist, Daten zur Farbe, Textur oder weiteren Attributen zu sammeln, müssen zusätzliche Feldnotizen gemacht werden (zum Beispiel photographische Einzel- und Videoaufnahmen).
  • In letzter Zeit ist der Feldschritt durch Verwendung einer Laserentfernungsmessvorrichtung, die in einen elektronischen Theodoliten eingebaut oder auf diesen aufgesetzt wird, etwas automatisiert worden. Reflektierende Präzisionsziele (Retroreflektoren) werden an den Stellen des Objekts angebracht, für die Messungen gewünscht werden. Dann gewinnt die Laserentfernungsmessvorrichtung eine präzise Messung der Entfernung zwischen Instrument und Ziel, während der Theodolit genaue Anzeigen der horizontalen und vertikalen Winkeloffsets zu dem Punkt in einem gegebenen Koordinatensystem liefert. Die Entfernungs- und Winkeldaten werden entweder mit einer an das Instrument angeschlossenen magnetischen Vorrichtung automatisch aufgezeichnet oder im Instrument zu kartesischen Koordinaten bezüglich der Achsen des Instruments reduziert. Diese Prozedur kann dann so oft wie nötig wiederholt werden, um eine gewünschte Anzahl von Punkten des Objekts topographisch aufzunehmen. Die gesammelten Koordinatendaten können dann direkt mit einem CAD-System graphisch dargestellt werden.
  • Unglücklicherweise ist die Auftragung von geringem praktischem Nutzen, da sie die Objektgeometrie nicht andeutet. Wegen des Erfordernisses von Retroreflektoren, die manuell gesetzt werden müssen, und wegen der verhältnismässig langen Zeit, die je Ablesung mit der Laserentfernungsmessvorrichtung erforderlich ist, ist ausserdem die Sammlung einer Anzahl von Punkten, die dafür genügt, die meisten Objekte zu beschreiben, sehr arbeitsintensiv, zeitschluckend und fehleranfällig.
  • In einem anderen bekannten Verfahren der Sammlung von Felddaten werden Stereophotographie und Luftbildphotogrammetrie eingesetzt. Dabei werden von den Objekten stereoskopische Bilder aufgenommen, und die gewonnenen Stereophotographien werden entweder manuell oder mit Computerverfahren in Register gebracht, um die relative Position des Kamerabildflugzeuges zu der Zeit zu rekonstruieren, zu der jedes Bild aufgenommen wurde. Die Datenreduktion und -aufarbeitung wird manuell von einem speziell ausgebildeten Techniker ausgeführt. Konkret digitalisiert der Techniker die Koordinaten einer genügend grossen Anzahl von Punkten mit Hilfe von speziell montierten stereoskopischen Sucherobjektiven, um die Definition der Objekte unter Verwendung der Stereophotographien zu ermöglichen. Wiederum werden die digitalisierten Daten in ein CAD-System eingegeben oder manuell auf Papier gezeichnet.
  • Zusammenfassung
  • Die Erfindung wird in den Ansprüchen definiert.
  • Kurze Beschreibung der Figuren
  • 1 ist ein Blockdiagramm eines Systems gemäss einer Ausführungsform der Erfindung.
  • 1A zeigt den Gesamtablauf dafür, wie eine Ausführungsform der Erfindung verwendet werden kann, um ein Objekt zu scannen, die aufgenommenen Punkte zu organisieren, geometrische Formen an den organisierten Punkt anzupassen, die angepassten geometrischen Formen zu manipulieren und die sich ergebenden, manipulierten geometrischen Formen anzuzeigen.
  • 2 ist ein detaillierteres Blockdiagramm des Systems der 1.
  • 3A und 3B zeigen die physische Anordnung des FDV des Systems von 1 sowie auch, wie das FDV durch eine Gabellagerung mit dem Stativ gekoppelt wird.
  • 4A und 4B zeigen ein auf das FDV von 1 bezogenes, beispielhaftes Koordinatensystem.
  • 5 ist ein Blockdiagramm einer Ausführungsform einer erfindungsgemässen FDV.
  • 6 ist ein Blockdiagramm des optischen Transceivers (Senders und Empfängers) des FDV von 5.
  • 6A zeigt eine Doppelspiegelanordnung des in 6 gezeigten Scanners.
  • 7 ist ein Blockdiagramm, das eine Ausführungsform des Lasers zeigt.
  • 7A ist ein Blockdiagramm einer Ausführungsform des in 6 gezeigten Beamexpanders.
  • 8 zeigt eine Ausführungsform des Duplexers.
  • 8A zeigt einen partiell reflektierenden Duplexer.
  • 9 zeigt eine Ausführungsform des Fensters des Duplexers von 8.
  • 10 ist ein Ablaufdiagramm, das vom DSP des FDV durchgeführte Berechnungen zeigt.
  • 11A und 11B zeigen ein einseitig gerichtetes Scanmuster bzw. ein zweiseitig gerichtetes Scanmuster.
  • 12 ist ein Blockdiagramm einer Ausführungsform des FDV-Prozessors.
  • 13 ist ein Blockdiagramm von beispielhaften Schaltungen zur Bestimmung einer erwünschten Position eines FDV-Spiegels.
  • 14 ist ein Blockdiagramm von Beispielschaltungen für Signalformung und Energieintegration der in 12 gezeigten Zeitmessschaltung.
  • 15 ist ein detailliertes Blockdiagramm des Systems von 1.
  • 16A und 16B zeigen zwei Fenster, die verwendet werden, um die CGP zu betreiben.
  • 17A und 17B zeigen eine Zielbox und eine Punktwolke.
  • 18 zeigt eine Punktwolke von der Oberfläche einer Pferdeskulptur.
  • 19 zeigt die Punktwolke von 18, die mit den Laserrücklaufintensitäten farbig abgebildet wurde.
  • 20 zeigt eine Punktwolke von einer besonderen Ecke.
  • 21 zeigt die Punktwolke von 20 und ein Polygon-Lasso, das für manuelle Segmentierung verwendet wird.
  • 22 zeigt die Punktwolke von 20, in vier Untergruppen segmentiert, davon drei Untergruppen auf den Oberflächen von Ebenen und eine Untergruppe von Kantenpunkten, die nicht Teil der Ebene sind.
  • 23 zeigt die Punktwolke von 20, als ein trianguliertes Mesh wiedergegeben.
  • 24 zeigt die besondere Ecke von 20 mit den Gruppen von Wolkenpunkten angepassten Ebenen.
  • 25 zeigt eine Punktwolke von der Oberfläche eines Zylinders.
  • 26 zeigt ein Zylinderprimitiv, das den in 25 gezeigten Punkten angepasst wurde.
  • 27 zeigt eine Punktwolke von den Oberflächen eines Rohrleitungssystems.
  • 28 zeigt Zylinderprimitive, die den in 27 gezeigten Punkten angepasst wurden.
  • 29 zeigt das vervollständigte Rohrleitungsmodell nach Verlängerung der Rohre und Hinzufügung von Knien.
  • 30 zeigt das Ergebnis einer Eckenanpassung, die drei Ebenen, drei Linien und einen Scheitelpunkt ergibt.
  • 31 zeigt ein Zylinderprimitiv in einer Szene.
  • 32 zeigt den Zylinder von 31, zum Zusammentreffen mit benachbarten Objekten verlängert.
  • 33 zeigt eine Wolke von Punkten von der Oberfläche verschiedener Objekte.
  • 34 zeigt ein Modell, das Primitive enthält, die den in 33 gezeigten Punkten angepasst wurden.
  • 35 zeigt die Konfiguration eines in seiner Frequenz einstellbaren Lasers.
  • 36 zeigt ein Blockdiagramm eines herkömmlichen FM-chirped Lidars.
  • 37 zeigt ein Blockdiagramm eines selbstkalibrierenden FM-chirped Lidars.
  • 38 veranschaulicht die relativen Zeitpunkte, an denen ein grosser und ein kleiner Puls eine vorbestimmte Schwelle überschreiten.
  • 39 veranschaulicht einen Schaltkreis für die Messung von Pulsenergie.
  • 40 veranschaulicht einen weiteren Schaltkreis für die Messung von Pulsenergie.
  • Detaillierte Beschreibung
  • A. Überblick
  • 1. Gesamtsystem
  • 1 ist ein Blockdiagramm, das die Erfindung in ihrem breitesten Aspekt veranschaulicht. Auf 1 Bezug nehmend, enthält ein Field Digital Vision- (FDV: Digitales Feldsehvermögen) Modul 10 einen Scanfühler, um ein Objekt 20 zu scannen und die Position ausgewählter Punkte auf der Oberfläche des Objekts 20 im dreidimensionalen Raum abzutasten. Der FDV-Modul 10 erzeugt eine Punktwolke 30, die die abgetasteten Positionen der ausgewählten Punkte darstellt. Die Punktwolke 30 stellt auch weitere Attribute der abgetasteten Positionen wie Reflexionsvermögen, Oberflächenfarbe und Textur dar.
  • Ein Computer Graphics Perception- (CGP: Computergrafikwahrnehmung) Modul 40 steht in Wechselwirkung mit dem FDV, um Steuer- und Peilfunktionen für den Sensor des FDV-Moduls 10 zur Verfügung zu stellen. Zusätzlich erkennt der CGP-Modul 40 aus der Punktwolke geometrische Formen, die durch Gruppen von Punkten in der Punktwolke 30 dargestellt werden, und der CGP-Modul erzeugt ein CGP-Modell 42, das diese geometrischen Formen darstellt. Vom CGP-Modell 42 erzeugt der CGP-Modul 40 ein weiteres Modell, das durch Werkzeuge 50 des computergestützten Entwerfens (CAD: computeraided design) verwendet werden kann. Die CAD-Werkzeuge können herkömmlich sein.
  • 1A zeigt den Gesamtablauf dafür, wie eine Ausführungsform der Erfindung verwendet werden kann, um ein Objekt zu scannen, erfasste Punkte zu organisieren, geometrische Formen an den organisierten Punkt anzupassen, die angepassten geometri schen Formen zu manipulieren und die gewonnenen, manipulierten geometrischen Formen anzuzeigen.
  • 2. Überblick über den FDV-Modul
  • Auf 2 Bezug nehmend, enthält das FDV 10 ein Laserscansystem (Lidar) 210, das Punkte des Objekts 20 scannt und ein Lidardatensignal erzeugt, das die Position jedes gescannten Punktes im dreidimensionalen Raum präzise darstellt. Das Lidardatensignal für Gruppen von gescannten Punkten ergibt kollektiv die Punktwolke 30. Zusätzlich steht ein Videosystem 220 zur Verfügung, das bevorzugt sowohl eine Weitwinkel- als auch eine Schmalwinkel-CCD-Kamera einschliesst. Die Weitwinkel-CCD-Kamera des Videosystems 220 erfasst ein Videobild des Objekts 20 und liefert über einen Steuer- und Schnittstellenmodul 230 des FDV 10 an die CGP 40 ein Signal, das das erfasste Videobild darstellt.
  • Auf Benutzereingaben bezüglich des Signals reagierend, das das erfasste Videobild darstellt, liefert die CGP 40 über den Steuer- und Schnittstellenmodul 230 ein Scansteuersignal an den Lidar 210, um zu kontrollieren, welche Punkte auf der Oberfläche des Objekts 20 vom Lidar 210 gescannt werden. Genauer steuert das von der CGP 40 gelieferte Scansteuersignal einen genauen und wiederholbaren Strahllenkmechanismus, um einen Laserstrahl des Lidars 210 zu lenken.
  • Zusätzlich erfasst die Schmalwinkel-CCD-Kamera des Videosystems 220 die Textur- und Farbdaten und liefert diese erfassten Daten an die CGP 40.
  • 3. Überblick über den CGP-Modul
  • Noch auf 2 Bezug nehmend, besteht die CGP 40 aus einem Datenverarbeitungssystem (zum Beispiel einem Notebookcomputer oder einer Grafik-Workstation) und Spezialsoftware, die das Datenverarbeitungssystem der CGP 40 für die Ausführung der Steuer- und Zielfunktionen des FDV 10 und die Ausführung der Funktionen für die Erzeugung des CGP-Modells 42 konfiguriert.
  • a) FDV-Steuerung
  • Die CGP 40 steuert den Lidarscanner 210 des FDV 10 durch Lieferung eines Lidarsteuersignals an das FDV 10, das kontrolliert, welche Punkte des Objekts 20 vom FDV 10 gescannt werden. Benutzereingaben werden an die CGP 40 geliefert, durch die definiert wird, welche Abschnitte des Objekts 20 gescannt werden sollen und mit welcher Auflösung dies erfolgen soll.
  • b) Modellerzeugung
  • Jeder Datenpunkt in der vom FDV 10 erzeugten Punktwolke 30 stellt sowohl die Entfernung von einem FDV 10-„Ursprungspunkt" zu einem entsprechenden Laserauftreffpunkt als auch den Winkel vom Ursprungspunkt zum Laserauftreffpunkt dar. Die CGP-Software konfiguriert den CGP 40-Computer, die Datenpunkte der im Ergebnis des Scannens des Objekts 20 durch den Lidar 210 erzeugten Punktwolke 30 zu verarbeiten und die gescannten Abschnitte des Objekts 20 anzuzeigen und zu visualisieren. Genauer konfiguriert die CGP-Software den CGP 40-Computer, geometrische Formen im Objekt 20 zu erkennen („grafische Wahrnehmung") und unter Verwendung dieser erkannten geometrischen Formen Geometriekonstruktion, 3D-Modellkonstruktion, 3D-Visualisierung und Datenbankfunktionen für eine automatisierte Erfassung oder manuelle Eingabe von Objektattributen, die Erzeugung von Plänen, Schnitten und Abmessungen, die Datenabfrage sowie CAD-Schnittstellen und Vernetzungsoptionen auszuführen.
  • B. Einzelheiten
  • 1. Einzelheiten des FDV-Moduls
  • 5 ist ein Blockdiagramm einer erfindungsgemässen Ausführungsform eines FDV 10. Ein Lidar-Transceiver (Sender und -Empfänger) 502 enthält einen Laser, Sendeoptik, Empfangsoptik und einen Detektor zur Erzeugung von Entfernungsmess- und Intensitätsdaten. Ein Scansystem 504 enthält doppelte orthogonale Scanspiegel, Galvomotoren sowie Kodierer für die Lenkung des Laserstrahls und für die Bestimmung des Azimut- und Höhenwinkels des Laserstrahls aus den Spiegelpositionen. Ein Weitwinkel-Videosystem 506 erzeugt Videopeildaten, während ein Schmalwinkel-Videosystem 507 Farb- und Texturdaten erzeugt. Die Steuer- und Schnittstellenschaltkreise 230 betreuen den Datenaustausch zwischen dem FDV 10 und der CGP 40.
  • Der Laser wird gepulst, und die Entfernung bis zum Objekt 20 wird über die Laufzeit vom Sender und Empfänger 502 zum Objekt 20 und zurück gemessen.
  • Der Laser ist bevorzugt von dem Typ, der in den dem Massachusetts Institute of Technology erteilten US-Patenten Nr. 5 132 977, 5 386 427 und 5 381 431 offenbart wird. Insbesondere hat der durch einen solchen Laser erzeugte Strahl spezielle Eigenschaften wie die, Pulselängen von weniger als 1 ns erzeugen zu können.
  • Eine besondere Ausführungsform des Lasers, die benutzt worden ist, ist besonders gut für Präzisionslidar geeignet, da
    • 1. die geringe Pulslänge eine hohe Genauigkeit liefert, da Radartheory zeigt, dass die Genauigkeit der umgekehrten Pulsdauer proportional ist.
    • 2. der Laser selbst physisch ziemlich klein ist, was besonders für tragbare Anwendungen nützlich ist.
    • 3. er einen beugungsbegrenzten Strahl hat, was bedeutet, dass die Fleckgrösse in einer bestimmten Entfernung nicht durch die Eigenschaften des Lichts, sondern nur durch die Qualität der Optik begrenzt wird, die zu seiner Kollimation oder Fokussierung benutzt wird.
    • 4. der Strahl über ein grosses Intervall von Entfernungen klein gehalten werden kann, da die Wellenlänge ziemlich kurz (532 nm) und der Rayleigh-Schärfenbereich der Wellenlänge umgekehrt proportional ist. Mit einer 1-cm-Austrittsblendenöffnung bleibt der Strahl über 50 m unter 6 mm.
  • In einer bevorzugten Ausführungsform wird der Laserstrahl durch die orthogonalen Scanspiegel auf einen Laserauftreffpunkt auf der Oberfläche des Objekts 20 gelenkt. In dieser Ausführungsform wird die „Laufzeit" eines Laserpulses bestimmt, um vom Laser zur Oberfläche des Objekts 20 und dann zurück zum Detektor zu laufen. Die Entfernung wird auf der Basis der konstanten Lichtgeschwindigkeit bestimmt, wobei geeignete Korrekturen für atmosphärische Faktoren angebracht werden.
  • Ein System in Übereinstimmung mit der vorliegenden Entfernung kann bei hohen Erfassungsgeschwindigkeiten eine hohe Entfernungsmessgenauigkeit liefern. Zum Beispiel kann auf der Basis eines einzelnen Schusses bei Entfernungen im Bereich von 100 m eine Genauigkeit von 1 mm erreicht werden, wobei pro Sekunde 1000 bis 5000 Datenpunkte erfasst werden.
  • In anderen Ausführungsformen kann ein Chirp-Lidar eingesetzt werden. Die wesentliche Komponente eines Chirp-Lidars kann mit einer linearen zeitlichen Veränderung der Wellenlänge moduliert werden. So ist die Wellenlänge des vom Laser emittierten Lichtes gegeben durch λ(t) = k(t – t0) + λ0. In der Praxis wird ein solcher Laser gewöhnlich hergestellt, indem eine Zusammensetzung aus zwei Materialien erzeugt wird, und zwar aus einem typischen Laserverstärkungsmedium wie NdYAG (3510) und einer Substanz, deren Brechungsindex elektrisch verändert werden kann, wie Lithiumniobat (3520). (Siehe 35.) Dadurch wird effektiv die Länge des Laserresonators verändert, und daher ändert sich auch die emittierte Wellenlänge. Handelsübliche Laser können mit einer Modulationsspannung von etwa 1 kV bis hinauf zu etwa 100 GHz moduliert werden, so dass die Lichtfrequenz ungefähr f(t) = k(t – t0) + f0 beträgt.
  • Auf 36 Bezug nehmend, wird in einem typischen FM-Chirpsystem ein Anteil des durch den Laser 3610 emittierten Lichtes entnommen und am Beamsplitter 3630 mit dem vom Ziel 3620 zurückkehrenden Licht rekombiniert. Da das Licht um die Zeit, die für Berührung des Ziels und die Rückkehr benötigt wird, verzögert ist, hat das vom Ziel zurückkehrende Licht eine niedrigere Frequenz als das dem Laser entnommene Licht. Dieser Unterschied wird im Ausgang des Detektors 3610 offenbar, der die Intensität der kombinierten Strahlen misst. Wenn die Frequenzrampe des Lichtes genau linear ist und der Laser eine Kohärenzlänge besitzt, die viel grösser als die Entfernung vom Ziel ist, dann wird durch Kombination der Strahlen eine konstante gemessene Frequenz des Detektors erzeugt, die der Entfernung proportional ist: f = k1·d + d1. Chirped YAG-Laser, wie sie oben beschrieben wurden, haben eine Kohärenzlänge von etwa 20 km, aber der Chirp ist nicht linear, was die Genauigkeit existierender FM-Chirp-Lidars ernstlich eingeschränkt hat.
  • Auf 37 Bezug nehmend, kann eine sehr grosse Verbesserung der Genauigkeit realisiert werden, indem ein System hinzugefügt wird, das jede Entfernungsmessung kalibriert. Eine Faser wird vorbereitet, die an einem Ende einen partiellen Reflektor 3771 und am anderen Ende einen nahezu totalen Reflektor 3772 trägt. Nun wird ein Anteil des durch den Laser 3710 emittierten Lichtes entnommen und am Beamsplitter 3740 mit dem vom Ziel 3720 zurückkehrenden Licht rekombiniert, und die Intensität wird mit einem Detektor 3760 gemessen. Ein zusätzliches Muster des vom Laser emittierten Strahles wird durch den Beamsplitter 3730 entnommen und am partiell reflektierenden Ende 3771 in die Faser eingeführt. Der Strahl pflanzt sich über eine festgelegte Strecke durch die Faser fort, wird an der Endfläche reflektiert und mit dem Strahl rekombiniert, der von der partiell reflektierenden Fläche 3771 reflektiert worden ist, und mit einem zweiten Detektor 3750 gemessen. Die Linearität des Chirps wird dann gemessen, indem die Abweichung des Ausgangs des Detektors 3750 von einer konstanten Frequenz bestimmt wird, und diese Information wird dazu benutzt, um im Ausgang des Detektors 3760, der der Zielentfernungsmessung entspricht, eine Korrektur für die Effekte eines nichtlinearen Chirps anzubringen.
  • Auf 3A und 3B Bezug nehmend, ist das FDV 10 in der Ausführungsform physisch in einem aus Metall oder einem anderen geeigneten Gehäusematerial hergestellten Kasten 330 untergebracht. Der Kasten 330 ist mit seinen Seitenwänden an einem Gabellagermechanismus 310 aufgehängt. Das Gabellagersystem ruht auf einem Drehtisch 340, und der Drehtisch 340 kann auf ein Stativ 320 montiert werden. Unter Verwendung des Gabelmechanismus 310 kann das FDV 10 horizontal („Azimutdrehung") und vertikal („Höhenneigung" oder „Höhe") gedreht werden. Allgemein wird die Position des Stativs 320 als eine „Einstellung" oder „Positionierung" bezeichnet; die Drehung und Neigung des FDV 10 im Gabellager 310 wird als „Visieren" oder „Orientierung" bezeichnet. Ein „Blick" ist allgemein mit einer bestimmten Einstellung und Orientierung verbunden.
  • Das Gabellagersystem 310 enthält bevorzugt Azimut- und Höhen-Rotationsmessvorrichtungen hoher Genauigkeit (d.h. herkömmliche optische oder elektronische Kodierer vom Theodolitentyp), um präzise Drehungs- und Neigungsdaten des FDV 10 zu liefern. Diese besondere Eigenschaft kann die automatische Integration von Scans ermöglichen, die mit einer gleichen Einstellung des Stativs 320, aber bei einer unterschiedlichen Orientierung des FDV 10 gemacht wurden. In Fällen, in denen diese Vorrichtungen nicht verwendet werden, und bei Scans, die aus verschiedenen Einstellungen und Orientierungen heraus erfolgten, können diese Scans mit Verfahren integriert werden, die später in dieser Offenbarung beschrieben werden.
  • Es sollte an diesem Punkt bemerkt werden, dass zwar herkömmliche Vermessungsinstrumente vor der Inbetriebnahme eingepegelt werden sollten, um richtig zu funktionieren, aber dies für das FDV 10 kein Erfordernis ist. Dies ist auf die neuartigen, in dieser Erfindung verkörperten Verfahren zurückzuführen, da sein eigenes internes Koordinatensystem und die in seiner Software eingesetzten Prozeduren von ihrer Methode der Positionsdatenerfassung Nutzen ziehen. Das System hat aber die Fähigkeit, eingepegelt und in einer Weise verwendet zu werden, die einem herkömmlichen Theodoliten ähnlich ist. Die kartesischen Koordinaten des FDV 10 in der beispielhaften Ausführungsform werden in 4A und 4B gezeigt.
  • Noch auf 3A und 3B Bezug nehmend, liefern in einer Ausführungsform zwei orthogonale Spiegel des FDV 10 ein Gesichtsfeld von etwa 40° × 40° („Gesichtsfeld" oder „Blick" wird als die maximale Grösse der von den maximalen Laserauslenkungen des Strahls projizierten Fläche in Grad definiert). Dieses Gesichtsfeld kann vergrössert oder verkleinert werden, indem die Spiegel und bestimmte Teile der optischen Kette anders bemessen werden. Die oben beschriebene Gabellagerung wird eingesetzt, um ein Anvisieren des 40° × 40°-Gesichtsfeldes des FDV irgendwo auf einer projizierten Kugel zu ermöglichen, wodurch eine grosse Flexibilität bei der Abbildung grosser Objekte oder Gruppen von Objekten aus der gleichen Einstellung geboten wird. Andere Lagerungsmethoden können verwendet werden, um den gleichen Zweck zu erfüllen.
  • Die Drehwinkel der orthogonalen Spiegel werden von elektronischen Kodierern von hoher Genauigkeit und Wiederholbarkeit ausgelesen, und die Ablesungen der Spiegeldrehwinkel werden zeitlich genau dann vorgenommen, dass sie mit der Ablesung der Entfernung zusammenfallen. Bevorzugt ist das System augensicher nach der FDA-Klasse II. Eine erste Ausführungsform hat eine räumliche Genauigkeit von ±6 mm über einen Bereich von ±50 m. In einer anderen Ausführungsform sind Autofokussierung und 5- bis 6-Picosekunden-Elektronik vorhanden, was über ±50 m die Entfernungsgenauigkeit des Systems auf ±1 mm und seine räumliche Genauigkeit auf ±1 mm erhöht. Die Reichweite (und Genauigkeit) des Systems lassen sich signifikant durch die gewählte Augensicherheitsklassifizierung beeinflussen, aber diese Beschränkungen sind keine der Erfindung selbst innewohnenden Beschränkungen. Die Beschränkungen werden in den Ansprüchen angegeben.
  • Das Folgende ist eine Beschreibung der Schlüsselkomponenten einer bevorzugten Ausführungsform des FDV 10. Ein Blockdiagramm des optischen Senders und Empfängers 502 des FDV 10 wird in 6 gezeigt. Der optische Sender und Empfänger 502 sendet einen optischen Puls zu einem Fleck auf dem Objekt 20 und empfängt einen reflektierten optischen Puls vom Objekt 20. Über die konstante Lichtgeschwindigkeit kalibriert der optische Sender und Empfänger die Entfernung bis zum Lichtfleck auf dem Ziel.
  • Auf 6 Bezug nehmend, feuert der Laser 602, indem er auf einen externen Befehl reagiert, der von einem Lasersteuergerät 604 geliefert wird, einen optischen Puls, der weniger als 250 ps dauert. Der Laser 602 erzeugt einen Puls, bevorzugt bei einer Wellenlänge von 532 nm, innerhalb von 100 bis 300 μs nach Austritt eines externen Signals aus einem digitalen Signalprozessor, der eine zentrale Steuerung von Echtzeitereignissen liefert. Die zeitliche Verzögerung ist eine komplizierte Funktion der jüngsten Geschichte des Lasers und der Umweltbedingungen. Diese Funktion ist zur Zeit nicht vollkommen bekannt. Jedoch wird ein Softwarealgorithmus, der an anderer Stelle beschrieben wird, dafür eingesetzt, die zeitliche Verzögerung mit einer Genauigkeit abzuschätzen, die für die verlangten Messungen ausreicht.
  • Der Laserstrahlausgang des Lasers 602 läuft durch einen Beamexpander 606, der fokussiert wird, um die Grösse eines Lichtflecks anzupassen, der letztlich auf einen Punkt des Objekts 20 treffen wird. Der fokussierte optische Puls läuft dann durch einen Duplexer 608, der ein optisches System zur Ausrichtung des hinausgehenden optischen Pfades mit dem hereinkommenden optischen Pfad ist. Der Duplexer 608 leitet einen signifikanten ersten Anteil der Lichtenergie des hinausgehenden optischen Pulses über einen Scanner 614 auf einen Fleck auf dem Objekt 20, aber ein zweiter, viel kleinerer Anteil der Lichtenergie des hinausgehenden optischen Pulses wird auf ein Empfängerteleskop 610 geleitet. Der Anteil des hinausgehenden optischen Pulses, der zum Objekt 20 propagiert, trifft auf den Fleck auf dem Objekt 20, und etwas von der Energie des optischen Pulses wird vom Objekt 20 in einer Richtung zurück zum Duplexer 608 reflektiert. Der zurückkommende optische Puls wird vom Duplexer 608 zu einem Empfängerteleskop 610 geleitet, das die empfangene Energie auf einen Detektor 612 fokussiert. Der Detektor 612 wandelt die empfangene optische Pulsenergie in elektrische Energie um, und der Ausgang des Detektors 612 ist eine Reihe von elektrischen Pulsen, von denen der erste (der durch den Detektor 612 als Reaktion auf den zweiten, kleinen Anteil des gesendeten Pulses erzeugt wird, der nicht zum Objekt 20 geleitet wird) nach einer festgelegten, kurzen Zeit erscheint (d.h. einer Zeit, die durch die Länge des optischen Pfades durch den Beamexpander 606, den Duplexer 608 und das Empfängerteleskop festgelegt wird), und von denen der zweite erscheint, wenn Lichtenergie vom Objekt 20 zurückkehrt. Sowohl der zweite, kleine Anteil des gesendeten, aber nicht zum Objekt 20 geleiteten Pulses als auch der zurückgekehrte optische Puls, der vom Fleck auf dem Objekt 20 reflektiert wurde, werden an den Zeitmesskreis 616 geliefert, der die Laufzeit zum Fleck auf dem Objekt 20 berechnet. Die Entfernung zum Fleck auf dem Objekt 20 kann dann leicht aus der berechneten Laufzeit berechnet werden.
  • 7 ist ein Blockdiagramm, das eine Ausführungsform des Lasers 602 zeigt. Das Herz des Lasersystems 702 ist ein herkömmlicher Laserchip 702, der zwei gebondete Kristalle besitzt, die auf ihren Stirnseiten mit dielektrischen Antireflexbeschichtungen versehen sind. Der Laserchip 602 wird mit einer Festkörper-Diode 704 gepumpt, die bei 808,5 ± 3 nm betrieben wird. Die Ausgangsfrequenz der Diodenpumpe 704 wird angepasst, indem ihre Temperatur mit einem thermoelektrischen Kühler 706 verändert wird. Die Temperatur der Diodenpumpe 704 wird mit einem Thermistor 798 gemessen, und die gemessene Temperatur wird zur Energieversorgung 710 der Diode zurückgemeldet. Die benötigte Temperatur ist für jede einzelne Diode verschieden, aber reicht typischerweise von 20 bis 30°C.
  • Die Ausgangsleistung der Diodenpumpe 704 beträgt typischerweise ein Watt und wird in eine Glasfaser mit 100-μm-Kern eingespeist. Bei dauerndem Pumpen beträgt die Ausgangsleistung des Kristalllasers 602 durchschnittlich ungefähr 35 mW bei 1,064 μm, was Pulsen von 2,4 μJ entspricht, die bei einer Pulsfrequenz von 15 kHz etwa 280 ps dauern. Die Multimodenfaser wird bevorzugt durch einen massiven Messingkontakt SMA905 abgeschlossen, wobei der Kristall des Laserchips 702 mit einem optischen Harz auf das eine Ende des Kontakts geklebt wird. Dadurch wird eine genügende Wärmeableitung aus dem Kristall des Laserchips 702 gewährleistet, wodurch der Kristall 702 in dem für den wirksamsten Betrieb erforderlichen Temperaturbereich bleibt.
  • Ein Stück eines KTP-Frequenzverdopplungskristalls 712 wird in einer Entfernung von wenigen Millimetern von der Stirnseite des Laserchipkristalls 702 gehalten. Das ergibt einen schlussendlichen Ausgang des Lasers 602 mit einer Durchschnittsleistung von 12 mW bei 532 nm, was 0,8-μJ-Pulsen entspricht, die etwa 218 ps dauern. Dieser schlussendliche Ausgang des Lasers 602 ist nahezu beugungsbegrenzt (d.h. er hat die theoretisch minimale Divergenz bei einer konkreten Wellenlänge und einem konkreten Taillendurchmesser), wobei der scheinbare Taillendurchmesser 56 μm beträgt.
  • Ausführungsformen der Erfindung, die den Auslegungsvorschriften eines augensicheren Systems der FDA-Klasse II entsprechen, haben potenziell eine grössere wirtschaftliche Durchsetzbarkeit. Um diesen Vorschriften zu entsprechen, beträgt die maximale Energie je Puls, die bei 532 nm gesendet werden kann, 0,2 μJ. Daher ist die Erfindung, wie sie beansprucht wird, auf Pulse beschränkt, die eine Energie von weniger als 0,2 μJ besitzen. Bei dieser Beschränkung hängt die im Durchschnitt gesendete Leistung stark von der Pulsfrequenz ab und ist durch die Daten der folgenden Tabelle gegeben:
    Figure 00150001
  • In einer Ausführungsform der Erfindung ist der Beamexpander 606 gänzlich herkömmlich (z.B. ein Melles-Griot, Modell Nr. 09LBM013, 10x Beamexpander). Der Sender und Empfänger 502 hat eine Querachsengenauigkeit, die der Grösse des Laserstrahls proportional ist, der auf das beabsichtigte Ziel trifft. Die Basisauslegung mit einer Genauigkeit von 6 mm besitzt einen einfachen Beamexpander. Der Laser 602 kann mit einem festen 10x-Beamexpander 606 kollimiert werden, der eine Apertur von < 1 cm besitzt, um einen Strahl zu erzeugen, dessen 1/e2·Leistung-Strahlbreite über eine Entfernung von 50 m kleiner als 6 mm ist.
  • 7A zeigt eine weitere Ausführungsform 750 des Beamexpanders 606, die Merkmale beinhaltet, die es dem System der Erfindung gestatten, Entfernungen mit einer Genauigkeit von etwa 1 mm bei 50 m zu messen. Das ist so, weil der Auftreffpunkt des durch einen herkömmlichen Beamexpander aufgeweiteten Laserstrahls auf dem Objekt 20 kollimiert wird, so dass über einen Bereich von 50 m ein Fleck von nicht mehr als 6 mm erzeugt wird. Ein Strahl kann aber durch eine 50-mm-Apertur auf einen Fleck von nicht mehr als 1 mm über eine Entfernung von 50 m fokussiert werden – aber bei anderen Entfernungen ist der Fleck viel grösser. Daher enthält der Beamexpander 750 eines Systems, das bei 50 m eine Genauigkeit von 1 mm besitzt, ein bewegliches optisches Element 752, das die Grösse des fokussierten Flecks verändern kann. Zusätzlich enthält der Beamexpander 750 eine einstellbare Apertur 755 sowie Mittel zur Steuerung der Einstellung, so dass die Entfernung vom Laser, über die der Strahl bei einem Durchmesser von 1 mm bleibt, ungefähr konstant bleibt. Der minimale Fleckdurchmesser, der mit einer beugungsbegrenzten Linse mit Brennweite f und Durchmesser D erzeugt wird, beträgt d0 = 2fλ/D. Der Rayleigh-Schärfenbereich des fokussierten Flecks, der die Fokustiefe des Strahls ist, ist durch b = 2πω0 2/λ = 2πf2λ/D2 gegeben. Wenn f/D konstant gehalten wird, ist daher die Tiefe des Fokus von der Entfernung des fokussierten Flecks, f, unabhängig.
  • Bei einer Änderung des Strahlfokus sollten die Elemente genügend gut ausgerichtet bleiben, mit zu verhindern, dass der Strahl seine Richtung um mehr als einen Bruchteil eines Millimeters bei 50 m ändert, weil dies sonst als ein Fehler in der Lage des Punktes im Raum erscheint. Um diese Strahlwanderung zu minimieren, wird ein linearer Servomotor 754 (siehe 7A) eingesetzt, um die Position des Fokussiermechanismus zu steuern, und ein Transducer liefert Positionsrückkopplung. Die Linse 752 ist in einen ringförmigen Ring 753 montiert, was sie daran hindert, sich während einer Translation zu drehen oder falsch auszurichten.
  • Duplexer
  • Eine Ausführungsform des Duplexers 608 ist in 8 gezeigt. Das optische System des Duplexers 608 ist so konfiguriert, dass der vom Beamexpander 606 zum Scanner 504 hinausgehende Strahl mit dem vom Objekt 20 reflektierten Rückstrahl koaxial ist. Somit braucht nur ein Scanner 504 vorgesehen werden. In der in 8 gezeigten Ausführungsform des Duplexers ist ein Window 802 vorgesehen, wobei ein 50-%iger Beamsplitter 804 über dem Fenster 802 angebracht ist. Wenn ein optischer Puls vom Laser 602 gesendet wird und durch den Beamexpander 606 geht, dann trifft der Puls auf den Beamsplitter 804. Die meiste Lichtenergie des Pulses wird vom Beamsplitter 804 reflektiert und zum Scanner 504 weitergeleitet, aber etwas vom optischen Puls läuft durch den Beamsplitter 804 und trifft auf einen Beamblock 806 von niedrigem Reflexions vermögen. Wegen des niedrigen (aber endlichen) Reflexionsvermögens des Beamblocks 806 kehrt ein kleiner Bruchteil des auf den Beamblock 806 treffenden optischen Pulses zum Beamsplitter 804 zurück und wird in den Empfänger 610 reflektiert.
  • Ausserdem findet das meiste des auf das Fenster 802 treffenden Lichtes seinen Weg zum Empfänger 610, da nur der zentrale Anteil des Rückpulses durch das Prisma 804 verdunkelt wird, wenn ein optischer Puls vom Objekt 20 zurückkehrt.
  • Teilweise reflektierender Duplexer
  • Nunmehr auf 8A Bezug nehmend, wird für die Ausführungsform mit 1 mm Genauigkeit ein teilweise reflektierender Duplexer 850 eingesetzt. Mit diesem Duplexer wird ein Bruchteil des vom Beamexpander gelieferten Lichtpulses in einen Beamstop 652 geleitet] und vom Duplexerfenster 850 zum Empfängerteleskop 610 zurückgeworfen. Der übrige Lichtpuls läuft zum Objekt 20 weiter. Das meiste des vom Objekt 20 zurückkehrenden Lichtpulses läuft weiter durch das Fenster 850 und wird durch das Empfängerteleskop 610 gesammelt. Das Fenster 850 ist auf der Empfängerseite antireflex-beschichtet und auf der Laserseite teilverspiegelt. Das ganze Fenster 850 wird verwendet, um den hinausgehenden Strahl zu steuern, da eine Apertur von 50 mm erforderlich ist, um den Fleck bei 50 m auf 1 mm zu fokussieren. Das teilweise Reflexionsvermögen wird unter Berücksichtigung der Lasersendeleistung und des anwendbaren Niveaus der augensicheren Klassifizierung gewählt. Wenn zum Beispiel die Lasersendeleistung das Vierfache des erlaubten Wertes des anwendbaren Augensicherheitsniveaus beträgt, dann wird die Teilverspiegelung so gewählt, dass 25% reflektiert und 75% absorbiert wird.
  • Nunmehr auf 9 Bezug nehmend, kann in der 6-mm-Ausführungsform ein verbesserter Wirkungsgrad bei der Sammlung des zurückkehrenden optischen Pulses erreicht werden, solange die Mitte des Fensters 802 beschichtet ist 904, um den hinausgehenden Puls zu reflektieren, während das übrige Fenster 802 antireflex-beschichtet ist 906. Auf diese Weise wird der zurückkehrende optische Puls nicht durch den Teil des Fensters 802, der antireflex-beschichtet ist 906, aus dem Empfänger herausreflektiert.
  • Bevorzugtermassen emittiert der Laser 602 einen stark polarisierten Strahl, so dass die reflektierende Beschichtung 904 so optimiert werden kann, dass sie geringfügig unterschiedliche Reflexionskoeffizienten für die beiden Polarisationsebenen besitzt (20% s, 30% p). In einer solchen Ausführungsform kann die Leistung des auf das Objekt 20 fallenden Strahls durch eine einfache physische Drehung des Laserkörpers fein abgestimmt werden.
  • Empfängerteleskop
  • Nunmehr wieder auf 6 Bezug nehmend, wird der zurückkehrende Puls, nachdem er durch den Duplexer 608 hindurchgegangen ist, durch das Empfängerteleskop 610 gesammelt, das die dem Detektor 612 gelieferte Signalmenge optimiert. Das Empfängerteleskop 610 kann eine einfache Linse mit einer Apertur von 50 mm sein. Die Linse wird bevorzugt so ausgewählt, dass die Variation der in den Detektor 612 eintretenden Pulsenergie sich nicht über den Bereich von Abständen, für den das Instrument ausgelegt ist, in Abhängigkeit vom Abstand des Objekts 20 ändert. Eine Mehrelementlinse kann so ausgelegt werden, dass die Variation der empfangenen Pulsenergie mit der Entfernung etwas wirkungsvoller minimiert wird als mit einer Einzelelementlinse. Das heisst, dass beim grössten erwarteten Abstand die Brennweite der Linse so ist, dass das gesamte hereinkommende Licht, das wirksam kollimiert wird, da es von einer Punktquelle im Fernfeld erzeugt wird, so fokussiert wird, dass es den Detektor 612 ganz ausfüllt. Wenn das Objekt 20 dem Teleskop 610 näher kommt, dann wird der Fleck des zurückkehrenden Lichtes grösser als der Detektor 612. Die am Detektor 612 einfallende Leistung steigt mit dem Quadrat der Entfernung zwischen dem Teleskop 610 und dem Objekt 20 bis zur grössten erwarteten Entfernung. Ausserdem sinkt die vom Objekt 20 zurückkehrende Leistung mit dem Quadrat der Entfernung zwischen dem Teleskop 610 und dem Objekt 20. Daher heben sich in der Praxis diese beiden Effekte gegenseitig ungefähr auf. Dadurch wird die Veränderung der auf den Detektor 612 auftreffenden optischen Leistung über den vorausgesehenen Nutzungsbereich minimiert. In der 1-mm-Option kann die Empfängeroptik in manchen Fällen durch Verwendung eines Zweielement-Newton-Teleskops mit einstellbarem Fokus verbessert werden (d.h. ähnlich wie beim 1-mm-Beamexpander).
  • Detektor
  • Der Detektor 612 wandelt optische Pulse in elektrische Pulse um, die durch die Messelektronik für die verstrichene Zeit (den Zeitmesskreis 616) verarbeitet werden können. In einer Ausführungsform ist der Detektor 612 eine Avalanche-Photodiode (APD) mit einer elektrischen Bandbreite von mehr als 1 GHz. Zusätzlich zur Zeit zwischen dem Startpuls und jeglichem Stopppuls werden die Intensitäten aller Pulse aufgezeichnet. Die Intensitätsdaten werden verwendet, um die aus den Zeitmessdaten abgeleitete Entfernungsmessung zu korrigieren.
  • Scanner
  • Der Scanner 504 kann herkömmlich sein. Der Scanner 504 leitet die hinausgehenden Pulse vom Duplexer 608 zu einem gewünschten Ort auf dem Objekt 20 und den hereinkommenden Rückpuls in das Empfängerteleskop 610. Der Scanner 504 leitet Licht zur Schmalfeld-CCD-Kamera 507, um Farbe und Textur in der unmittelbaren Umgebung der gescannten Laserpunkte zu sammeln, was eine genaues Register der gewonnenen Farbe und Textur mit der durch Lidar erworbenen Punktgeometrie liefert. In einer Ausführungsform enthält der Scanner 504 eine Doppelspiegelanordnung (siehe 6A) für die Strahllenkung, obwohl jeder herkömmliche Strahllenkmechanismus von hoher Genauigkeit und Wiederholbarkeit eingesetzt werden kann. Die Doppelspiegelanordnung schliesst zwei Spiegel ein, die durch Drehspulmotoren auf orthogonalen Achsen gedreht werden. Diese Motoren haben einen integrierten Positionsdekoder, der eine Winkelwiederholbarkeit von unter 1 Mikroradian besitzt. Die Lagerung für die Scanner ist mit den Trägern für den Laser und die übrige Optik integriert ausgebildet. Das System liefert bei mehreren Hertz 40 Grad optischer Bewegung sowohl in der Höhe als auch im Azimut.
  • Elektronik
  • A. Zeitmessschaltung
  • Eine weitere Ausführungsform des Mechanismus des Scanners 504 besteht aus einem einzelnen Spiegel, der sich um eine zentrale Achse dreht und auf einen Drehturm montiert ist. In dieser Konfiguration wäre das physische Koordinatensystem sphärisch, wobei (wegen der geringeren Trägheit) der schnellere Spiegel den Höhenwinkel, der sich langsamer drehende Turm die Azimutbewegung liefert. Ein System wie dieses könnte ein Gesichtsfeld von mehr als 90 Grad in einer senkrechten Ebene und volle 360 Grad in einer waagerechten Ebene liefern (beide Ebenen relativ zu einem gewählten Scannerkoordinatensystem).
  • Elektronik
  • Entfernungsmesselektronik
  • Die Funktion der Entfernungsmesselektronik besteht darin, auf der Basis des elektrischen Ausgangssignals des Detektors 612 den Abstand zwischen dem FDV 10 und dem Objekt 20 zu berechnen. Verschiedene mögliche Verfahren können verwendet werden. Bei der Ausführungsform für die Laufzeit misst ein Intervallmesser (Zeitmesskreis) das relative Zeitintervall zwischen einem anfänglichen (Start-) Puls, der vom Duplexer 608 direkt in den Empfänger 610 reflektiert wird, und dem vom Objekt 20 zum Empfänger 610 reflektierten Puls.
  • Elektronik für das Reflexionsvermögen
  • In vielen Fällen ist es nützlich, nicht nur die Raumlage eines Punktes auf dem Objekt 20 zu kennen, sondern auch das Reflexionsvermögen dieses Punktes (bei einer bestimmten Wellenlänge). Die Elektronik für das Reflexionsvermögen misst die vom Objekt 20 in den Empfänger 610 und den Detektor 612 reflektierte Lichtmenge. Diese Daten können nützlich sein, um Korrekturen an den Entfernungsdaten wie auch Daten über das Material und/oder den Oberflächenzustand des Objekts 20 zu liefern.
  • Digitaler Signalprozessor
  • Eine integrierte Schaltung als digitaler Signalprozessor steuert alle zeitkritischen Funktionen des FDV, nämlich die Scannersteuerung und das Laserfeuern. Sie liefert auch Möglichkeiten für schnelle Fliesskommaberechnungen bei Geometriekorrekturen, Kali brierungskorrekturen, Videolinsenkorrekturen und Videokompression. Der digitale Signalprozessor wird in regelmässigen Zeitabständen von typischerweise etwa 10 μs unterbrochen. Bei jedem dieser Zeitintervalle erfolgt eine Überprüfung, welche Echtzeitberechnungen noch fehlen.
  • Scannersteuerung
  • Die Elektronik für den Scanner ist ein einfaches Präzisions-PID-Steuergerät, das durch ein digitales Signal vom DSP angetrieben wird. Wenn dieses System rasch angetrieben wird, gibt es eine merkliche Verzögerung in der Fähigkeit des Scanners, dem Antriebssignal zu folgen. Der Steuerkreis besitzt jedoch keinen Fehlersignalausgang. Ein externer Präzisions-Analog-Differentialverstärker liefert ein Fehlersignal (die Differenz zwischen dem Befehlssignal und der tatsächlichen Bewegung), das mit geringer Auflösung durch den DSP abgetastet wird. Der DSP berechnet dann die genaue Scanposition, indem er die Summe aus Befehlssignal und Fehlersignal berechnet. Der Vorteil dieses Verfahrens liegt darin, dass es nur einen A/D-Wandler geringer Auflösung und einen Präzisions-D/A-Wandler, nicht aber einen weit teureren Präzisions-A/D-Wandler erfordert.
  • Der digitale Signalprozessor erzeugt die Bahnen für das analoge Scannersteuergerät und führt Messungen der Differenz zwischen der erwünschten Bahn und der tatsächlichen Position aus. Er sagt die Zeit voraus, zu der die Laserpumpe eingeschaltet wird, damit der Laser bei dem gewünschten Winkel feuert. Diese Vorhersagen erfolgen in regelmässigen Zeitintervallen. 10 ist ein Ablaufdiagramm, das die in jedem Zeitintervall ausgeführten Berechnungen zeigt.
  • Bahnberechnung
  • Der Benutzer definiert Gebiete im Blickfeld des Scanners, die gescannt werden sollen, und bezeichnet die Dichte der innerhalb des gescannten Bereiches abzutastenden Punkte. Es gibt verschiedene Scanmuster, die verwendet werden können und die spezifische Muster der Spiegelbewegung verlangen, die als Bahn bekannt sind. Das Ziel bei der Auswahl einer guten Bahn besteht aus den widersprüchlichen Wünschen, die Bewegung rasch und genau auszuführen. Genaue Bewegungen verlangen ein minimales Drehmoment, durch das sonst das Gerät deformiert würde. Dadurch wird die Geschwindigkeit begrenzt, mit der Bewegungen ausgeführt werden können. Bei gleichen Zeitinkrementen wird eine Berechnung ausgeführt, um die derzeitige Position jedes Spiegels zu bestimmen. Die spezielle Berechnung, die verwendet wird, hängt vom Scantyp ab, der eingesetzt wird.
  • Rasterscannen
  • Wenn das gewünschte Scanfeld ein Polygon ist, werden eines von zwei Rasterscanmustern verwendet. Beim ersten erfolgt das Scannen in einer Richtung (d.h. immer von links nach rechts oder von rechts nach links in parallelen Linien). 11A zeigt ein solches einseitig gerichtetes Scanmuster. Zwischen den Scanlinien läuft der Scanspiegel zum Anfang der nächsten Linie zurück, ohne eine Entfernungsmessung zu machen. Der Rücklauf kann ziemlich schnell erfolgen, da während des Rücklaufs keine Messungen erfolgen.
  • Eine etwas wirkungsvollere Methode des Rasterscannens ist zweiseitig gerichtet, dabei erfolgt das Scannen auch beim Rücklauf. 11B zeigt ein solches zweiseitig gerichtetes Scanmuster. Dies ist nicht so effizient, wie es erscheinen könnte, weil die Rücklaufzeit für andere Berechnungen verwendet wird und weil das sich ergebende Scanmuster nicht ebenso regelmässig ist.
  • In beiden Rasterscanverfahren muss eine gerade Linie in der minimalen Zeit durchlaufen werden, und zwar mit der Geschwindigkeit null beginnend und mit der Geschwindigkeit null endend. Das am Spiegel anliegende Drehmoment ist der Winkelbeschleunigung proportional, die am Anfang und am Ende des Scans null sein muss, da sich der Spiegel in Ruhe befindet. Man kann zeigen, dass die Bahn, die durch eine solche Bewegung minimaler Energie zwischen zwei Punkten durchlaufen wird, durch die Summe einer Geraden und eines vollen Sinuszyklus gegeben ist. Dafür gibt es jedoch eine gute Näherung mit viel weniger Rechenaufwand durch das Polynom minimaler Ordnung mit den Randbedingungen: pt(0) = p0, p'(t0) = 0, p''(t0) = 0, p(t1) = p1, p'(t1) = 0 und p''(t1) = 0, das ein Polynom fünfter Ordnung ist: p(t) = (p1 – p0)t'3(6t'2 – 15t' + 10) + p0, wo t' = (t – t0)/(t1 – t0).
  • Scannen in Spiralen
  • Rasterscannen hat den Nachteil, dass der Wirkungsgrad des Scannens nicht optimal ist, weil die Bahngeschwindigkeit veränderlich ist. Mit einem Scannen in Spiralen kann eine Bahn konstanter Geschwindigkeit erreicht werden, was eine gleichförmige Punkteverteilung ermöglicht.
  • Suchen
  • Zusätzlich zum Scannen eines Entfernungsbildes ist das System in der Lage, eine Anzahl von Funktionen zu erfüllen, die im Vermessen üblich sind. Der Scanner kann veranlasst werden, nach wichtigen Besonderheiten oder Orten hohen Reflexionsvermögens zu suchen. Dadurch kann das System normale Vermessungsfunktionen erfüllen, indem es ein Ziel auffindet, dessen Ort näherungsweise identifiziert worden ist, und seine genaue Position und Winkel meldet.
  • Winkelkalibrierung
  • Die kapazitiven Kodierer in den Drehspulmotoren besitzen eine enorme Wiederholbarkeit, aber verhältnismässig geringe Genauigkeit. Eine Anzahl von Kalibrieraktionen muss laufend ausgeführt werden, um die Genauigkeit des Systems sicher zu stellen.
  • Vor seiner Verwendung wird jeder Scanner über seinen vollen Winkelbereich kalibriert. Bei einer Anzahl von diskreten Temperaturen wird eine Karte der Messungen von scheinbaren Winkeln für Tausende von genau gemessenen Punkten erstellt und gespeichert, wobei ein externer Resolver verwendet wird, der auf NBS-Standards zurückführbar ist. Der DSP führt bei jeder Winkelmessung eine lineare Interpolation zwischen diesen gemessenen Punkten aus.
  • Bevorzugt wird die Genauigkeit der Winkelmessungen durch eine Bestimmung der Skalier- oder Offsetfehler während des Betriebes im Kodierer verbessert. Handelsübliche Scanner können bei Änderungen in ihrer Umgebung signifikant driften. Das führt zu einer Verschiebung der Effektivwerte der Winkelmessungen bei Null und beim vollen Skalenausschlag, während insgesamt die Gestalt der Kalibrationskurve, die durch sorgfältige Labormessungen erhalten wurde, ehe der Scanner in das System eingebaut wurde, erhalten bleibt. Der Umgebungseinfluss wird verringert, indem Mittel zur Verfügung gestellt werden, um festzustellen, wann der Scanner sich an einem bekannten und wiederholbaren Winkel befindet. In einer bevorzugten Ausführungsform eines solchen Systems werden zwei optische Bezugspunkte, die bezüglich der Instrumentenhülle fixiert sind, auf der Rückseite jedes Scanspiegelsangepeilt. Es gibt verschiedene Möglichkeiten, um optische Bezugspunkte zur Verfügung zu stellen, aber in einer bevorzugten Ausführungsform wird mit einem Paar von Autokollimatoren eine reflektierende Oberfläche auf der Rückseite der Scanspiegel angepeilt, was eine hochgradig wiederholbare Messung der Situation erlaubt, wenn der Spiegel senkrecht zur Achse jedes Autokollimators ist. Jeder Autokollimator liefert einen Bezugswinkel, der auf etwa 10 μrad genau ist. Periodisch wird der Scanner computergesteuert zu der Position bewegt, in der der Spiegel so exakt wie möglich senkrecht zur Autokollimatorachse ist, und der scheinbare Winkel wird gemessen. Die Messungen werden mit denen verglichen, die gemacht wurden, als die Scanner kalibriert wurden, und eine lineare Korrektur wird berechnet und in jede nachfolgende Messung eingeführt.
  • In einer alternativen Ausführungsform wird ein Paar mechanischer Anschläge gleich ausserhalb des normalen Bewegungsbereichs des Scanspiegels angebracht. Periodisch wird der Spiegel angetrieben, bis er einen mechanischen Anschlag berührt. Dann wird der Scanspiegel mit einem bekannten Strom angetrieben, was einer bekannten Kraft entspricht. Der Spiegel kommt an einer sehr gut wiederholbaren Position ins Gleichgewicht, und diese wird benutzt, um eine lineare Korrektur für die Spiegelkalibrationskurven zu berechnen.
  • Kalibrationsfasern für die Entfernung
  • Die Zeitmesskreise haben eine bestimmte Menge an Offset und Skalendrift mit der Zeit und Temperatur, und Vorkehrungen sind einbezogen worden, um diese Änderungen zu kompensieren. Wenn vom Laser 602 ein optischer Puls emittiert wird, wird eine kleine Menge der Energie durch einen Beamsplitter 810 abgetastet und in eine optische Einzelmodenfaser 830 eingespeist, indem der Strahl mit einer Linse 833 auf das Faserende 831 fokussiert wird. Das andere Ende der Faser 832 ist so angeordnet, dass der Strahl, der aus ihm austritt, zu einem Strahl kollimiert wird, der in den Lidarempfänger 610 eintritt.
  • Die Faser kann entweder so hergestellt werden, dass sich ihre Länge nicht mit der Temperatur ändert, oder so, dass ihre Längenänderung mit der Temperatur genau gekennzeichnet werden kann. Wenn eine Einzelmodenfasser verwendet wird, beträgt die Änderung der Propagationsverzögerung weniger als einige Picosekunden, und die von der Faser ausgesendete Pulsform ist nahezu identisch mit der in die Faser hineingehenden. Periodisch werden die Zeitmesskreise verwendet, um die Propagationsverzögerung durch die Faser zu messen, und entsprechende Anpassungen werden an den Entfernungsmessungen angebracht, die an externen Oberflächen ausgeführt werden.
  • Die Fasern können so hergestellt werden, dass das Ende 833, an dem der Puls gestartet wird, und das Ende 834, aus dem der Puls emittiert wird, teilreflektierend sind. Wenn dies so gemacht wird, dann tritt der Puls bei 833 ein und wird zum entgegengesetzten Ende 834 propagiert, wo nur etwas von der Energie freigesetzt wird, während die übrige Energie zum ersten Ende 833 zurückkehrt. Wiederum wird ein Bruchteil des Lichts emittiert, während das übrige Licht reflektiert und schlussendlich in den Empfänger emittiert wird. Dieser Prozess wiederholt sich, bis die in der Faser verbleibende Energie auf vernachlässigbare Niveaus abgefallen ist. Das Ergebnis ist eine Folge von Pulsen, üblicherweise drei bis zehn, die an den Empfänger angelegt werden und die Verzögerungen aufweisen, die alle auf wenige Picosekunden genau wiederholbar sind. Periodisch werden die Zeitmesskreise verwendet, um diese Pulsfolgen aus der Faser zu messen, und entsprechende Anpassungen werden in den an externen Oberflächen ausgeführten Entfernungsmessungen angebracht.
  • Kalibrierung der Entfernungswanderung
  • Das Lidarsystem misst die Entfernung von Oberflächen, indem es die Verzögerung zwischen dem Laserpuls, der emittiert wird, und dem, der von der Oberfläche zurückkehrt, bestimmt. Diese Verzögerung wird elektronisch gemessen, indem ein Muster des hinausgehenden Pulses und der zurückkehrende Puls auf einen optisch empfindlichen elektronischen Detektor 612 aufgegeben werden, der in den Empfänger 610 eingebettet ist. In einer Ausführungsform misst der elektronische Zeitmesskreis die Zeit zwischen dem Zeitpunkt, an dem der hinausgehende Puls eine festgelegte Schwellenspannung überschreitet, und dem Zeitpunkt, an dem der zurückkehrende Puls die gleiche Spannung überschreitet. Der hinausgehende Puls wird innerhalb weniger Prozente die gleiche Intensität haben. Viele Oberflächen unterscheiden sich aber stark in der Lichtmenge, die reflektiert wird. Das führt dazu, dass die scheinbare relative Zeit für zwei Pulse, die bei der gleichen Entfernung auftreten, aber unterschiedliche Intensitäten besitzen, verschiedenen Entfernungen zuzugehören scheint. Die gemessene Zeit, zu der ein kleiner Puls 3810 zuerst die Schwelle überschreitet, ist später als die gemessene Zeit, zu der ein grosser Puls 3830 die gleiche Schwelle überschreitet, selbst wenn die Pulse von Objekten in der gleichen Entfernung zurückkommen. Somit scheinen hoch reflektierende Objekte oder Objekte an Entfernungen maximaler Empfindlichkeit des Senders und Empfängers etwas näher. Das führt zu einer scheinbaren „Entfernungswanderung" in Abhängigkeit von der Intensität. Die Entfernungswanderung kann korrigiert werden, wenn die Form der optischen Antwort immer die gleiche ist und die Energie der Antwort bekannt ist. Dies wird durch die extrem wiederholbare Gestalt der Pulse möglich, die von den passiv gütegeschalteten Mikrochiplasern erzeugt werden.
  • Ein Teil des Zeitmesskreises schätzt die Energie jedes erfassten Pulses ab. Eine Korrekturtabelle wird geführt, um die Entfernungsabschätzungen zu verbessern. Zwei verschiedene Schaltkreise sind eingesetzt worden, um eine Messung der Pulsenergie zu diesem Zweck auszuführen. Der erste ist ein mit Gatter versehener Integrator, wobei das Gatter am Anfang des Pulses offen, aber am Ende geschlossen ist. Das Signal wird an einen Komparator 3920 angelegt, der den Schalter 3930 schliesst, wenn das Signal ein ausgewähltes Niveau überschreitet, und ihn schliesst, wenn das Signal unter das gleiche Niveau absinkt. Das Signal wird ebenfalls an ein Verzögerungsglied 3910 angelegt, und der Ausgang des Verzögerungsgliedes läuft durch den Schalter 3930, wenn er geschlossen ist, und liegt am Integrator 3940 an, solange der Schalter geschlossen ist. Die Verzögerung ist so gewählt, dass sie die zeitliche Verzögerung im Komparator und im Schalter kompensiert. Wenn der Puls zu Ende ist, wird der Wert des Integrators durch einen Analog-Digital-Wandler 3950 abgetastet. Der zweite Schaltkreis besteht aus einem Integrator mit einer Zeitkonstante, die mit der Länge des Pulses 4010 skaliert, und darauffolgend einem Peakdetektor 4020 mit einer Zeitkonstante, die viel grösser als die Pulslänge ist. Das Ausgangssignal dieses Peakdetektors wird kurz nach Erfassung des Pulses abgetastet.
  • Periodisch wird der Zeitmesskreis verwendet, um eine Folge von Pulsen zu messen, die durch die Einzelmodenfasern 830 verzögert worden sind, mit denen die mit den Zeitmesskreisen verbundenen Offset- und Skalierfaktoren kalibriert werden. Ausserdem wird die Intensität dieser Pulse über einen weiten Bereich mit einem variablen Dämpfungsglied 820 variiert. Durch eine Änderung der in die Faser eingekoppelten Lichtmenge kann die Energie der erfassten Pulse bei einem gegebenen Wert der zeitlichen Verzögerung über den dynamischen Bereich des Empfängers variiert werden. Die Intensitätswerte und die Werte der gemessenen zeitlichen Verzögerung führen zu einer Karte der Entfernungswanderungskorrektur, die für jede Intensität benötigt wird, und diese Korrektur wird auf Folgemessungen angewendet. Diese Korrektur kann über den dynamischen Bereich des Instruments eine Genauigkeit von 1 mm liefern, und zwar insbesondere im Ergebnis der hohen Wiederholbarkeit der Laserpuls-Wellenform. Diese Funktion wird dann verwendet, um die gemessene Entfernung von externen Oberflächen in Abhängigkeit von der von diesen Oberflächen zurückkehrenden Lichtintensität zu korrigieren.
  • Geometrieberechnung
  • Das Ausgangssignal des FDV nach einem Entfernungsscan besteht aus Punkten in sphärischen Koordinaten bezüglich eines Koordinatensystems im Scanner. Die Rohdaten bestehen aber aus Spiegelwinkeln und Zeitintervallen. Der DSP berechnet die sphärischen Koordinaten der gescannten Punkte unter Berücksichtigung der Scannergeometrie (Spiegeldicke, optische Achsen, Spiegeloffsets usw.) und aller zutreffenden Kalibrierungsanpassungen.
  • Lasersteuerung
  • Vorhersage der Verzögerung
  • Der digitale Signalprozessor ist verantwortlich dafür, das Feuern des gepulsten Lasers zu steuern, aber kann dies nur indirekt tun. Der Prozessor hat Kontrolle über den Zeitpunkt, an dem die Pumpdiode gestartet wird, wodurch veranlasst wird, dass der passive Güteschalter feuert, nachdem Sättigung eingetreten ist. Es besteht jedoch eine variable Verzögerung zwischen dem Anschalten der Pumpe und dem Feuern des Lasers. Die Verzögerung ist von der Sperrschichttemperatur abhängig, die ihrerseits eine komplizierte Funktion der Umgebungstemperatur und jüngsten Vergangenheit des Laserfeuerns ist. Die Verzögerung liegt allgemein im Bereich von 100 bis 300 μs.
  • Glücklicherweise ist es primär erforderlich, den Scanspiegelwinkel genau zu dem Zeitpunkt zu kennen, zu dem der Laser feuert. Nachdem der Laser nur einige Male gefeuert hat, ändert sich die Pumpverzögerung nicht schnell, solange die Feuerfrequenz sich nicht schnell ändert. Im Ergebnis kann eine Genauigkeit von wenigen Mikrosekunden erreicht werden, wenn abgeschätzt wird, dass die nächste Pumpverzögerung die gleiche ist wie im vorhergehenden Feuerzyklus. Der digitale Signalprozessor misst die Pumpverzögerung durch Ablesen eines internen Zählers, wenn die Pumpe gestartet wird und wenn der Laser wirklich feuert, was eine Unterbrechung verursacht. Da die Unterbrechungslatenz geringer als eine Mikrosekunde ist, entsteht daraus die Genauigkeit der Zeitmessung, mit der die Pumpverzögerung gemessen werden kann.
  • Ein stärker verfeinertes dynamisches Modell der thermischen Eigenschaften des Lasers könnte zu einer geringfügig verbesserten Gleichförmigkeit des Scanmusters führen, ist aber wahrscheinlich gleichermassen durch die Zeitauflösung der Prozessorunterbrechungen begrenzt.
  • Feuersteuerung
  • Bei einer gegebenen Beziehung zwischen Zeit und Winkelbahn für eine Scanachse, w(t), einem gewünschten Winkel für das Feuern des Lasers und einem Unterbrechungsintervall Dt ist die Entscheidung, den Laser zu feuern, gleichbedeutend mit einer Berechnung der Zeit, zu der die Pumpdiode gestartet wird.
  • Computersteuerung
  • Das FDV ist für einen Betrieb unter der Kontrolle eines fernen Hostcomputers ausgelegt, der graphische Steuerungen enthält, damit ein Benutzer die zu scannenden Gebiete bezeichnen kann. Die ferne Maschine steuert das FDV über einen zweiseitig gerichteten seriellen Bytestrom, der über alle möglichen Medien: Ethernet, EPP-Parallelschnittstelle, serielle Schnittstelle, laufen kann. Ein Prozessor im FDV hat die Aufgabe, Nachrichten zu dekodieren und die erforderlichen Aktionen zu planen. 12 ist ein Blockdiagramm des FDV-Prozessors.
  • Host-Kommunikationsschnittstelle
  • Die Hostmaschine wirkt als Master, indem sie ein wohl definiertes Nachrichtenprotokoll übersendet, um das FDV zu steuern. Wenn die Aktionen erledigt sind, antwortet das FDV mit Daten und Statusinformation. Zu den Aktionen, die verlangt werden können, gehören:
    Scanner richten
    Distanz messen
    Entfernungsscan einer Box
    Laser n-mal feuern
    Videobild aufnehmen
  • Scannersteuerung
  • Auf 13 Bezug nehmend, erfordert jeder Scanner im Doppelspiegelsystem, um die gewünschte Position einzustellen, im normalen Betrieb ein digitales 16- bis 18-Bitwort, das in einen Präzisions-Digital-Analog-Wandler eingegeben wird, um eine der gewünschten Position proportionale Spannung zu erzeugen. Jedoch wird ein gewisser Fehler zwischen der vom Ausgangssignal dieses Wandlers befohlenen Position und der tatsächlichen Scannerposition auftreten, der durch das Ausgangssignal des Positionskodierers widergespiegelt wird. Ein Präzisions-Differenzsignal wird erzeugt, und die Differenz wird mit 12-Bit-Genauigkeit gemessen. Dies liefert ein wirtschaftliches Verfahren, 18-Bit-Positionsmessungen zu machen und dabei nur einen billigen 12-Bit-Wandler zu verwenden.
  • Handelsübliche Galvo-Scanner besitzen Mikroradian-Wiederholbarkeit, aber eine verhältnismässig schlechte Skalier- und Offsetleistung, insbesondere bezüglich der Temperatur. Ein Kalibriermodus ist in das System eingebaut worden, um Messungen bei zwei präzisen Winkeln zu ermöglichen, so dass Offset und Skalendrift des Scanners berechnet werden können, indem die beiden gemessenen Datenpunkte verwendet werden.
  • Zwei Verfahren sind zu diesem Zweck entwickelt worden: ein optisches und ein mechanisches. Im mechanischen Verfahren wird die Scannerwelle sacht gegen einen von zwei mechanischen Anschlägen gefahren und der Strom im Scannersteuergerät auf einen konkreten Wert eingestellt, was eine bekannte Kraft liefert. Das Positionssignal wird nachreguliert, bis kein Positionsfehler vorliegt, was dann die kalibrierte Positionsmessung ergibt. Im optischen Verfahren werden zwei Autokollimatoren auf die Rückseite der Scanspiegel gerichtet, die ebenfalls poliert und spiegelbeschichtet worden sind. Wenn die Scanspiegel genau mit einem der Kollimatoren ausgerichtet sind, ist das Ausgangssignal des Spaltphotodetektors im Autokollimator abgeglichen. Indem der Scanner abwechselnd in jeden dieser präzisen Winkel gebracht wird, kann eine Offset- und Massstabkorrektur für den Scannerkodierer berechnet werden.
  • Zeitmesskreis
  • Der Zweck des Zeitmesskreises besteht darin, die relative Zeit zwischen dem Startpuls und dem Stopppuls in Picosekunden zu liefern. Im Zeitmesskreis gibt es zwei Untersysteme: einen Signalformungs- und Energieintegrationskreis (wovon eine Ausführungsform in 14 gezeigt ist) sowie einen Zeitintervallanalysator. Beide kommunizieren direkt mit dem DSP. Anfänglich sind Systeme mit einem handelsüblichen Zeitmessinstrument hergestellt worden, nämlich dem Stanford Research Systems Zeitintervallanalysator SR620. Die Schnittstelle zu diesem Instrument geht über eine IEEE488-Schnittstelle. In einer bevorzugten Ausführungsform ist die Kommunikationsschnittstelle zum Stanford Research Systems-Zeitintervallanalysator SR620 eine IEEE488.
  • Ein spezieller Zeitintervall-Messkreis ist entwickelt worden, der eine getrennt patentierte Interpolationstechnik benutzt. Der Schaltkreis arbeitet mit einem Taktgeber, der typischerweise bei > 100 MHz arbeitet und dazu verwendet wird, eine grobe Zählung von 10-ns-Intervallen zwischen dem Stopp- und Startpuls durchzuführen. Ausserdem ist ein Interpolator vorhanden, der jede grobe 10-ns-Zählung in 1000 kleinere Inkremente zerlegt, was eine 10-ps-Auflösung ergibt. Dieses System hat einen Jitter von ungefähr 5 ps. Differentielle Zeitmessungen können mit weniger als 20 ps RMS-Fehler ausgeführt werden, was etwa 3 mm entspricht. Dieser Schaltkreis kommuniziert mit dem DSP über einen fest zugeordneten seriellen Bus und nutzt ein Paketprotokoll; der DSP aktiviert den Schaltkreis durch Übersendung eines einzelnen Bytes. Wenn der Zeitmesskreis seine Aufgabe beendet hat, sendet er eine Folge von Bytes, die sowohl die zeitliche Verzögerung zwischen Start- und Stopppuls als auch die Intensität jedes Pulses darstellen.
  • Laserfeuern
  • Der DSP besitzt drei Leitungen für Laserkontrolle. Eine startet die Laserpumpe, die zweite zeigt an, dass der Laser gefeuert hat, und die dritte zeigt an, dass der von einem Ziel zurückkehrende Puls erfasst worden ist. Wenn der Laser feuert, tastet der DSP das analoge Pulsamplitudensignal ab. Dies geschieht typischerweise innerhalb von 1 μs.
  • Video
  • Zum Zielen wird dem Benutzer auf dem Host eine Videodarstellung der Szene geliefert, aus der er einen Abschnitt aussuchen kann, in dem die Entfernungen gescannt werden sollen. In den meisten Fällen entspricht dies der in Umgebungsbeleuchtung wiedergegebenen Szene.
  • Aufnahme
  • Eine Möglichkeit der Videoaufnahme besteht darin, den Scanner zu verwenden, um einen einzelnen empfindlichen Detektor bei ausgeschaltetem Laser über die Szene laufen zu lassen. Dadurch kann ein Bild erfasst werden, das eine sehr genaue räumliche Ausrichtung mit den nachfolgenden Scans für die Entfernungsmessung besitzt. Jedoch kann die Bilderfassung im Vergleich zu handelsüblichen Kameras ziemlich langsam sein.
  • Ein zweiter Weg besteht darin, standardmässige handelsübliche CCD-Kameras einzusetzen, um ein Bild zu erfassen. Eine CCD-Kamera mit Weitwinkelobjektiv wird mit dem kleinstmöglichen Offset mit dem Entfernungsscanner ausgerichtet. Eine zweite Kamera mit einem Gesichtsfeld von 5 Grad wird so angeordnet, dass ihre optische Achse mit dem Sender und Empfänger koaxial ist. Daher ist ein viel kleineres Gesichtsfeld durch den Scanner zugänglich und kann mit der gleichen Auflösung wie die des Senders und Empfängers gescannt werden. Dadurch können kleine oder ferne Objekte angepeilt werden.
  • Ausrichtung
  • Das Weitwinkelobjektiv bringt einen Fischglaseffekt in das Bild, das durch die hinter dem Objektiv sitzende CCD-Kamera aufgefangen wird. Geraden in der Aussenwelt sind keine Geraden im Bild. Die Verzerrung steigt mit der Entfernung von der Mitte des Objektivs. Diese Verzerrung wird durch einen Vergleich mit dem Bild eliminiert, das die Kamera erzeugt, wenn sie auf ein sorgfältig ausgelegtes und gedrucktes Kalibrationszielbild gerichtet wird. Der Unterschied zwischen dem erwarteten und dem aufgezeichneten Bild liefert die Daten, die erforderlich sind, um danach erfasste Bilder zu warpen und die Verzerrung zu eliminieren.
  • Komprimierung
  • Jedes Videobild wird vor der Übertragung komprimiert. Zur Zeit verwenden wir eine JPEG-Standardbildkomprimierung. Sie ist verhältnismässig schnell und erzeugt vernünftig kleine komprimierte Bilder für die Kommunikation. Ein weiteres wünschenswertes Merkmal besteht darin, dass der Algorithmus auf Blöcke wirkt, wodurch die Bildaufnahme, die Ausrichtung, die Komprimierung und die Übertragung verschachtelt parallel erfolgen können, was den Durchsatz signifikant erhöht.
  • Punktvideo
  • Eine zweite Kamera mit einem schmalen Gesichtsfeld (zum Beispiel etwa 5°) wird so platziert, dass sie mit dem scannenden Laserstrahl koaxial ist. Das Gesichtsfeld wird so eingestellt, dass die Pixelauflösung etwa die gleiche wie die Voxelauflösung des Lidarsystems ist. Die Kamera kann arbeiten, während der Laser aktiviert ist. In diesem Fall wird eine kleine Gruppe von Pixeln durch den Laser beleuchtet, und das Zentroid dieser Pixel entspricht dem Punkt, der durch das Lidar gemessen würde. Wenn ein Videobild aufgenommen worden ist, kann es auf eine Oberfläche abgebildet werden, die durch einen Lidarscan abgeschätzt wurde.
  • Software der Computer Graphics Perception (GCP: Computergafikwahrnehmung)
  • Auf 15 Bezug nehmend, ist die CGP 40 ein Softwaresystem, das auf einem CGP-Computer 1500 läuft und mit dem FDV 10 kommuniziert. Die CGP 40 läuft auf vielen verschiedenen Computertypen, darunter Laptops und Workstations. Die CGP 40 läuft auf einem Computer 1500 mit einer geeigneten Anzeigevorrichtung 1510 wie einem Grafik-Farbbildschirm, einer geeigneten Zeicheneingabevorrichtung 1520 wie einer Tastatur und einer geeigneten Zeigevorrichtung 1530 wie einer Maus. Die Software kann eine beliebige Anzahl von Bibliotheken für die Wiedergabe von Standard-3D-Grafik verwenden, um die erfassten 3D-Daten interaktiv in einem Fenster auf dem Bildschirm darzustellen. Der Teil der CGP 40-Benutzerschnittfläche, der die 3D-Bildmanipulation und die Datenprojektion in ein Fenster betrifft, wird von der 3D-Bibliothek bedient.
  • Die CGP 40 führt Echtzeit-3D-Datenerfassung und -modellierung im Feld aus. Zu den Funktionen der CGP 40 gehören eine Steuerung, Peilung und Datenerfassung des FDV 10 auf hohem Niveau; Anzeige und Visualisierung der gescannten Punkte; Oberflächensegmentierung und -anpassung; manuelle 3D-Modellkonstruktion; 3D-Visualisierung; Wechselwirkung mit Teil- und Modell-Datenbanken; sowie die Fähigkeit, Daten in Standard-Datenaustauschformaten zur weiteren Verarbeitung in andere CAD-Systeme zu exportieren. Die Integration von Hard- und Software, wie sie hier beschrieben wird, ermöglicht wichtige Verbesserungen in der Produktivität und Qualität im gesamten Prozess des dreidimensionalen Modellierens der Wirklichkeit.
  • Unter Bezugnahme auf 1A wird der Datenerfassungs- und -modellierungsprozess in die folgenden Schritte unterteilt: FDV 10-Steuerung, Punkterfassung, Segmentierung, Geometrieanpassung, Modellierung durch Manipulation der Geometrie, Register von Szenen mit und ohne Warpen, Modellkommentierung sowie Geometrieanzeige und -abfrage.
  • Unter Bezugnahme auf 16A und 16B können die vorstehenden Operationen in zumindest zwei graphischen Anzeigefenstern durchgeführt werden. Ein Fenster 1610 (16A) zeigt ein Videobild der Zielszene, das dafür benutzt wird, um Bereiche zu definieren, die vom FDV 10 gescannt werden sollen, während das andere Fenster 1620 (16B) eine interaktive 2D-Projektion des 3D-Modells anzeigt, das aus den gescannten Punkten und konstruierter Oberflächengeometrie sowie weiterer Information über die Szene besteht. Weitere Fenster können verwendet werden, um Mehrfachansichten der Daten zu liefern. Ausserdem liefert die CGP 40 zusätzliche Fenster für die Steuerung der FDV 10-Hardware und zur Festlegung und Anzeige der Statusparameter des Systems.
  • Scansteuerung
  • Bezugnehmend auf 15, wird das FDV 10 vor Verwendung des integrierten Hardware/Software-Systems so aufgestellt, dass sie in die Richtung des interessierenden Objekts 20 zeigt.
  • Scansteuerung ist der Prozess, mit dem angezeigt wird, welche Anteile der Szene, die für den Scanner sichtbar sind, gescannt werden sollen. Verschiedene Teile der sichtbaren Szene können mit verschiedenen Dichten gescannt werden, weil einfache geometrische Objekte wie Ebenen, Zylinder und Kugeln mit einer ziemlich geringen Anzahl von Scanpunkten genau modelliert werden können. Daher wird der Bereich vor dem Scanner oft in einer Mehrzahl von Scans und nicht in einem einzigen hochauflösenden Scan erfasst. Nur Bereiche mit einem hohen Gehalt an Detail erfordern hoch auflösende Scans.
  • Auf 17A Bezug nehmend, besteht eines der Mittel für die Scansteuerung in der Verwendung eines Videobildes 1710 der vom FDV 10 erfassten Szene. Mit einer Zeigervorrichtung wie einer Maus kann man den zu scannenden Bereich mit allen möglichen Verfahren wie dem Herausziehen eines Rechtecks 1720 auf dem Videobild angeben. Die CGP 40 weist das FDV 10 an, die Entfernung irgendeines Objekts zu messen, das sich im Zentrum des durch den Benutzer bezeichneten Zielbereichs befindet, um bei der Festlegung der Scandichte zu helfen, da der Winkel zwischen Punkten sowohl durch die erwünschte Dichte auf der Oberfläche als auch durch die Entfernung vom Scanner betimmt wird. Ein Mittel zur Angabe der gewünschten Scanparameter wie zum Beispiel eine Dialogbox steht zur Verfügung und ermöglicht es dem Benutzer, die Scanparameter auf verschiedene Weise anzugeben, darunter Punktdichte, Punktabstand oder Gesamtzahl von Punkten in der vertikalen und in der horizontalen Richtung.
  • Die CGP 40 übersetzt dann die Bereichs- und Scanauflösungsdaten in einen Satz von Befehlen für das FDV 10. Diese Befehle werden dem FDV 10 über Kommunikationsmittel wie eine TCP/IP-Netzverbindung übermittelt, und die erfassten Daten werden zum CGP-Computer 1500 über die gleichen Kanäle zurück übermittelt.
  • Zusätzliche Scans mit unterschiedlichen Dichten können in der gleichen Weise veranlasst werden, man kann aber auch vorher gescannte Datenpunkte statt des Videobildes verwenden, um neue Scanbereiche zu bezeichnen. Wenn der Blick auf die gescannten Daten so orientiertet ist, dass er genau mit der Scannerrichtung ausgefluchtet ist, dann kann ein Scanbereich durch Verfahren wie das Herausziehen eines rechteckigen Kastens bezeichnet werden. Wenn die Daten in dieser Weise zum Scanner ausgerichtet sind, dann ist die meiste 3D-Information schwer zu sehen, weshalb die Software alle Punkte, wie im nächsten Abschnitt beschrieben, mit einer der Intensität des zurückkommenden Laserlichtes entsprechenden Farbkodierung anzeigen kann. Oft genügen die Intensitätsdaten, um Objekte im Datenfenster zu identifizieren, so dass neue Scanbereiche definiert werden können. Alternativ kann der Benutzer einige der Objekte in der Szene modellieren und/oder einfärben, um dabei zu helfen, interessante Bereiche im Fenster zu finden. Wenn das Datenfenster verwendet wird, um neue Scanbereiche zu definieren, werden Parallaxenfehler vermieden, da der Blick mit dem Scanner ausgerichtet ist.
  • Eine Scansteuerung kann auch erreicht werden, indem die Zeigevorrichtung verwendet wird, um den Laserstrahl zu verschieben und Punkte in der aktuellen Szene hervorzuheben. Alle möglichen Verfahren könnten benutzt werden, um den erwünschten Scanbereich durch Bewegung des Laserstrahls zu beschreiben und interessierende Punkte durch eine Benutzeraktion wie Anklicken einer Maustaste zu identifizieren. Die Verfahren könnten folgende Operationen einschliessen: Anzeige einer umhüllenden Box durch Bewegung des Lasers zu diagonal entgegengesetzten Ecken der gewünschten Scanbereiche; Anzeige der oberen, unteren, linken und rechten Grenze der Szene; Anzeige einer Folge von Punkten, die das umhüllende Polygon des Scanbereichs darstellen; Anzeige des Zentrums des Scanbereichs und Einsatz weiterer Mittel wie einer Dialogbox, um die Grösse des gewünschten Scanbereichs zu beschreiben.
  • Punkterfassung
  • Unter Bezugnahme auf 17B bestehen die vom FDV 10 zurückgelieferten Daten aus den Koordinaten der Punkte und ihren Intensitätswerten. In einer bevorzugten Ausführungsform wird das Scannen so ausgeführt, dass die zurückgelieferten Daten in einem geordneten Netz dreidimensionaler Punkte 1730 liegen. Vom Scanner her gesehen erscheinen diese Punkte als ein regelmässiges Rechtecknetz sehr ähnlich einer Bitmap. Jeder Punkt besteht jedoch aus seinen Koordinaten im dreidimensionalen Raum wie auch aus der Intensität des reflektierten Laserpulses an diesem Ort.
  • Jeder zurückgelieferte Punkt wird so im Datenfenster 1620 angezeigt, wie er durch das FDV 10 übermittelt worden ist. Die CGP 40 erlaubt es dem Benutzer, den 3D-Blick auf die Daten interaktiv zu verändern, während sie ankommen, um sich ein besseres Bild von der räumlichen Anordnung der Daten zu machen. Als eine Hilfe für die Visualiserung verschiedener Besonderheiten in den Daten kann es die CGP 40 ferner ermöglichen, jeden Punkt über die Intensität des reflektierten Laserpulses an diesem Ort farbkodiert darzustellen. In 18 wird eine Scanwolke 1810 gezeigt, die die Oberfläche der Skulptur eines Pferdes darstellt. Statt alle Punkte in einer einzigen Farbe darzustellen, wie in 18 gezeigt, kann man verschiedene Intensitätswerte des zurückkehrenden Laserstrahls in verschiedene Farben umgesetzt darstellen und ein vielfarbiges Scanfeld 1910 erzeugen, wie in 19 gezeigt. Die Intensitätsfarbdarstellung liefert dem Benutzer beträchtliche zusätzliche Oberflächeninformation, was sowohl für das Anpeilen als auch für das Modellieren nützlich ist, wie später beschrieben.
  • Das erzeugte, geordnete Netz von Punkten wird als ein Scanfeld bezeichnet. Eine Mehrzahl möglicherweise überlappender Scanfelder kann erfasst und in der oben beschriebenen Weise gleichzeitig angezeigt werden. Die Datenstrukturen innerhalb der CGP 40 führen die Liste der Scanfelder, so dass jeder Datenpunkt immer mit einem Scanfeld assoziiert ist. Die Scanfelder enthalten gewöhnlich Datenpunkte von den Oberflächen vieler verschiedener Objekte, so dass sie in kleinere Gruppen von Punkten unterteilt werden müssen, wie im nächsten Abschnitt beschrieben.
  • Segmentierung
  • Segmentierung ist der Prozess, Punkte zu Gruppen zusammenzufassen, die von der Oberfläche ein und desselben Objekts gescannt worden sind. Die Punkte von einem einzelnen Objekt können ein kleiner Teil eines Scanfeldes sein oder über eine Mehrzahl von Scanfeldern hinweg vorliegen. Der Segmentierungsprozess kann manuell, wie unten beschrieben, oder automatisch, wie später im Abschnitt über Autosegmentierung beschrieben, erfolgen.
  • Auf 20 Bezug nehmend, besteht der erste Schritt des manuellen Segmentierungsprozesses darin, ein oder mehrere Scanfelder 2010 auszuwählen, die Scanpunkte des interessierenden Objekts enthalten. Die Auswahl eines oder mehrerer Scanfelder kann mit allen herkömmlichen Mitteln erfolgen, zum Beispiel unter Verwendung einer Zeigevorrichtung, möglicherweise zusammen mit Tasten einer Tastatur. Wenn ein Scanfeld ausgewählt wird, dann sind alle Punkte des Scanfeldes ausgewählt. Die Gruppe von Punkten, die aus diesem Schritt hervorgeht, bildet einen Vorrat von Kandidatenpunkten, der jetzt getrimmt werden kann, um Punkte auf anderen Objekten zu entfernen. Jeder Punkt des Vorrats wird anfänglich als ausgewählt markiert, und die unten beschriebenen Operationen können verwendet werden, um die Zustände der Punkte zwischen ausgewählt und abgewählt hin- und herzuschalten.
  • Auf 21 Bezug nehmend, können Scanpunkte 2010 von einer gewünschten Objektoberfläche unter Verwendung einer oder mehrerer Lasso-Operationen aus möglicherweise unterschiedlichen Ansichten ausgeschnitten werden. Der Benutzer kann die Blickrichtung wie erforderlich manipulieren, um ein deutliches Bild der erwünschten Teilmenge des Punktevorrats zu erhalten. Der Benutzer verwendet dann die Zeigevorrichtung, um einen polygonalen Lassobereich 2110 zu zeichnen, der den Bildschirm in zwei Bereiche unterteilt: die Innenseite und die Aussenseite des Lasso-Polygons. Die folgenden Operationen werden unterstützt: Markiere alle Punkte in einem Bereich als ausgewählt und alle anderen Punkte als abgewählt, markiere alle Punkte in einem Bereich als ausgewählt, ohne die anderen Punkte zu berühren, und markiere alle Punkte in einem Bereich als abgewählt, ohne die anderen Punkte zu berühren. Die Lasso-Operation kann so oft wie nötig wiederholt werden, um die Auswahl zu verfeinern, möglicherweise mit einem Wechsel der Ansicht der Szene zwischen den Lasso-Operationen. Der Benutzer kann die derzeit ausgewählte Menge von Punkten ausschneiden, um eine neue Punktemenge zu bilden. Die neue Punktemenge wirkt wie ein Scanfeld, insofern als sie ein Teil der im nächsten Abschnitt beschriebenen Anpassungsoperationen ist und daran teilnehmen kann. In 22 sind drei neue Gruppen von Punkten 2210, 2220 und 2230 mit dem hier beschriebenen manuellen Segmentierungsverfahren geschaffen worden, und einige Punkte in der Nähe der Schnittlinie der Ebenen sind von der ursprünglichen Punktwolke übrig.
  • Geometrieanpassung
  • In einer bevorzugten Ausführungsform kann die CGP 40 viele geometrische Primitive enthalten, die verwendet werden können, um die wirklichen Oberflächen der gescannten Objekte zu simulieren. Zu den geometrischen Primitiven gehören alle möglichen Standard-Grafikprimitive wie triangulierte Geflechte (Meshes), Ebenen, Zylinder, Kugeln, Tori, Linien und Punkte. Die einfachste Form einer geometrischen Anpassung besteht darin, ein trianguliertes Mesh zu verwenden, um die Scanpunkte zu verbinden und Oberflächenmerkmale der gescannten Objekte zu zeigen. Die Scanwolke 1810 der 18 kann vermascht 2310 und wie in 23 gezeigt wiedergegeben werden. Da die Scandaten in einem regelmässigen Raster erfasst werden, ist es einfach, durch Verbinden benachbarter Punkte ein Dreiecks-Mesh zu schaffen. Der Benutzer kann auch Diskontinuitätstoleranzen in der Tiefe und im Winkel festlegen, um eine Vermaschung benachbarter Punkte zu vermeiden, die weiter als die bezeichnete Schwelle voneinander getrennt sind. Eine Unterbrechung des Meshes auf diese Weise schafft eine realistischer aussehende Oberfläche, die als Shrinkwrap-Oberfläche bezeichnet wird, weil künstliche Meshoberflächen an eingeschlossenen Kanten nicht auftreten. Eine grosse Vielfalt bekannter Vermaschungs-Operationen kann auf das sich ergebende Mesh angewendet werden, zum Beispiel Glättung (Rauschverringerung) und Meshvereinfachung (um die Maschendichte in glatten Bereichen zu verringern, die kein feinmaschiges Raster verlangen). Mascheneckpunkte können auch mit Daten wie der Intensität gefärbt werden.
  • Wie oben festgestellt, enthält die CGP 40 viele geometrische Standard-Primitive. Vor einer Anpassung der Punkte an solche Objekte müssen die Punktwolken segmentiert werden, wie oben beschrieben. Nach der Segmentierung stellt jede Gruppe von Punkten eine einzelne Oberfläche dar, die durch ein geometrisches Objekt angepasst werden kann. Die Anpassung kann durch den Benutzer geführt werden, der vielleicht den Formentyp für die Anpassung kennt. Nach dem Scannen der Ecke in einem Raum ist es zum Beispiel für den Benutzer klar, dass die Punkte auf einer Wand durch eine Ebene angepasst werden können, während die Punkte auf einem Rohr durch einen Zylinder angepasst werden können, so dass der Benutzer die Anpassung eines konkreten Objekts wünschen kann. Es ist auch möglich, diesen Prozess halbautomatisch zu gestalten, um die Form zu identifizieren, die sich am besten an eine besondere Punktegruppe anpasst.
  • Eine Ebene an eine Punktemenge anzupassen ist ein einfaches Problem, das viele wohlbekannte Lösungen hat. Die Ausdehnung des in der CGP 40 zur Darstellung der Ebene verwendeten Fleckens kann durch die konvexe Hülle der Punkte in der Ebene bestimmt werden. Zum Beispiel kann jede der drei in 22 gezeigten Punktegruppen 2210, 2220 und 2230 getrennt an die Ebenen 2410, 2420 und 2430 angepasst werden, wie in 24 gezeigt, indem irgendein verfügbarer Anpassungsalgorithmus verwendet wird.
  • Viele Standardverfahren sind für die Anpassung komplizierterer Formen verfügbar. In einer bevorzugten Ausführungsform gibt es zwei Phasen: eine Parameterschätzphase, um einen Anfangspunkt zu gewinnen, und eine Optimierungsphase, in der die Parameter variiert werden, um den Gesamtfehler zu minimieren. Der Gesamtfehler ist die Summe der Quadrate des Abstandes jedes Scanpunkts vom nächstliegenden Punkt auf der Oberfläche des Objekts, das angepasst wird. In der Optimierungsphase werden herkömmliche Optimierungsmethoden verwendet, um die Abweichung zwischen dem Objekt, wie es durch seine Parameter definiert wird, und den durch die Scanpunkte gegebenen Daten zu verringern.
  • Ein Zylinderanpasser kann eine Punktwolke 2510, wie sie in 25 gezeigt wird, in ein zylindrisches Objekt 2610 verwandeln, wie es in 26 gezeigt wird. Alle angepassten Objekte einschliesslich des Zylinders beziehen sich auf die ursprünglichen Punkte, die verwendet wurden, um das Objekt anzupassen. Der Benutzer kann jederzeit wählen, ob er den sich ergebenden Zylinder 2610 oder die ursprünglichen Punkte 2510 oder beides sehen will. Unter Verwendung manueller oder automatischer Segmentierungsverfahren ist es möglich, die Scanwolken 2710 in 27, die eine Vielzahl von Zylindern darstellen, in die am besten angepassten Zylinder 2810 umzuwandeln, die in 28 gezeigt sind. Nachdem der Durchmesser und die Achse jedes Zylinders festgestellt worden ist, können manuell oder automatisch Knie 2910 in 29 hinzugefügt werden, um den Modellierungsprozess zu vervollständigen.
  • Ein Zylinder wird durch fünf Parameter beschrieben: durch einen normalisierten Vektor, der die Zylinderachse beschreibt (zwei unabhängige Parameter), den Radius sowie zwei zusätzliche Parameter, die verwendet werden, um die Angriffslinie der Zylinderachse im Raum zu positionieren. Die Länge des sich ergebenden Zylinders kann durch Projektion der Scanpunkte auf die Zylinderachse und Erfassung der Extremwerte dieser Projektion bestimmt werden.
  • Zwei neuartige Methoden der Abschätzung von Zylinderparametern werden in einer bevorzugten Ausführungsform implementiert. Der erste Weg, anfängliche Parameterschätzwerte für einen Zylinder zu finden, besteht darin, genäherte Oberflächennormalen zu finden, wie im Autosegmentierungsabschnitt beschrieben. Wenn alle Normalen auf eine Einheitslänge festgelegt werden, dann können sie alle als Vektoren vom Ursprung bis zu einem Punkt auf der Oberfläche der Einheitskugel betrachtet werden. Wenn man alle normalen Vektoren und ihre [...] verwendet, um eine Gruppe von Punkten auf der Einheitskugel zu sammeln, dann kann eine Ebene durch die sich ergebende Punktegruppe hindurch angepasst werden. Die sich ergebende Ebenennormale verläuft grob parallel zur Zylinderachse. Mit der gegebenen Zylinderachse und der Ebene aus dem vorangehenden Schritt kann man die Scanpunkte auf die Ebene projizieren. Die projizierten Punkte lassen sich gut durch einen Kreis in dieser Ebene beschreiben, da die Ebene normal zur Zylinderachse verläuft. Ein bestangepasster Kreis kann unter Verwendung der auf die Ebene projizierten Punkte berechnet werden, um einen Schätzwert des Zylinderradius zu gewinnen. Der Mittelpunkt des Kreises auf der Ebene kann in einen 3D-Punkt umgewandelt werden, um einen Punkt auf der Zylinderachse zu ergeben.
  • Der zweite Weg, die Zylinderparameter abzuschätzen, besteht darin, die Punktemenge an eine quadrische Oberfläche anzupassen, die durch die implizite Gleichung beschrieben wird: F(p) = 0 = c1p1 2 + c2p2 2 + c3p3 2 + c4p1p2 + c5p1p3 + c6p2p3 + + c7p1 + c8p2 + c9p3 + c10 (1)wo p = {p1, p2, p3} ein Punkt auf der quadrischen Oberfläche ist.
  • Man kann dann c10 = –1 annehmen, da die Gleichung implizit ist, und eine Anpassung kleinster Quadrate mit allen Datenpunkten ausführen, um die anderen neun Parameter zu bestimmen. Nach Bestimmung der am besten angepassten quadrischen Oberfläche für eine gegebene Punktemenge besteht der nächste Schritt darin, einen Punkt aktuell auf der neuen Oberfläche (ps) zu finden, der in der Nähe der anderen Punkte liegt.
  • Dies wird dadurch erreicht, dass das Zentroid der Scanpunkte (pc) und sodann der nächstliegende Punkt auf der Oberfläche des Quadrics gefunden wird, um ps zu erhalten. Die Oberflächennormale im Punkt ps kann bestimmt werden mit Np = D1ps + D2 (2)wo
    Figure 00410001
  • Zwei Einheitsvektoren, u1 und u2, werden dann so gefunden, dass sie sowohl zueinander als auch zu Np normal sind. Diese Vektoren bilden eine Basis für die Oberfläche am betrachteten Punkt, und zusätzliche Vektoren können auf der Oberfläche aus vα = u1 cos α + u2 sin α, 0 ≤ α ≤ 2π (3)gefunden werden.
  • Die Einheitshauptvektoren vα werden dann gefunden, indem die Rotation α bestimmt wird, die vα·(Np × D1vα) = 0 (4)befriedigt.
  • Es gibt zwei Lösungen für diese Gleichung, die die orthogonalen Einheitshauptvektoren v1 und v2 liefern. Die Oberflächenkrümmung κ in diesen beiden Hauptrichtungen ist dann gegeben durch
    Figure 00410002
  • Eine der Hauptkrümmungen ist nahe null für zylindrische Oberflächen, während der Radius des Zylinders das Reziproke des absoluten Wertes der endlichen Krümmung ist. Ein Verfahren, um den Radius (r) und die Achse des Zylinders zu finden, ist beschrieben worden, und nur der Ort der Achse braucht bestimmt zu werden. Eine Einheits-Oberflächennormale kann als n ^ = Np/||Np|| berechnet werden. Die Richtung der Normalen kann so angepasst werden, dass sie ins Innere des Zylinders weist, indem gewährleistet wird, dass n ^·(pc – ps) > 0, da das Zentroid der Punkte auf der Innenseite des Zylinders liegt. Ein Punkt auf der Achse ist dann durch ps + rn ^ gegeben. Diese Anfangsparameter können dann in einem Minimierungsprozess verwendet werden, um die besten Anpassungsparameter für den Zylinder zu finden.
  • Die oben beschriebene, neuartige Methode zur Abschätzung der Krümmung über die quadrische Oberflächenformulierung wird weiter in einer neuartigen Weise für eine automatische Bestimmung des Objekttyps verwendet. Wenn die anzupassenden Punkte gut durch eine Ebene dargestellt werden, dann werden die beiden Hauptkrümmungen nahe null sein. Wenn die anzupassenden Punkte von einer zylindrischen Oberfläche stammen, dann wird eine Krümmung nahe null sein, die andere endlich. Wenn die Punkte von einer Kugel stammen, dann werden beide Krümmungen endlich sein, und ihre Grössen werden in etwa gleich sein. Indem die automatische Erkennung des Objekttyps und der später beschriebene Autosegmentierungsalgorithmus kombiniert werden, ist es für die CGP 40 möglich, eine neuartige Methode für die automatische Anpassung vieler Objekte zu haben, die in typischen gescannten Szenen auftreten.
  • Eine weitere Verwendung der Krümmungsabschätzung ist die Kugelanpassung, die erreicht wird durch Verwendung quadrischer Oberflächen als Näherung für Radius und Ort des Mittelpunktes, gefolgt von einer Vier-Parameter-Minimierung (Mittelpunkt und Radius) zur Verringerung der Abweichung zwischen dem Kugelmodell und den gemessenen Punkten. Die oben beschriebene, neuartige Methode zum Auffinden eines Punktes auf der Achse eines Zylinders wird in der bevorzugten Ausführungsform ebenfalls dazu verwendet, um den Mittelpunkt einer Kugel zu finden.
  • Die oben offenbarten Segmentierungsverfahren können verwendet werden, um eine Vielfalt nützlicher Anpassungswerkzeuge zu schaffen, die auf Kombinationen der zuvor beschriebenen Formen beruhen. Zum Beispiel ist eine Ecke, die aus dem Schnitt punkt dreier Ebenen besteht, die orthogonal oder nicht orthogonal sein können, eine sehr häufig zu scannende Besonderheit. Mit dem Wissen, dass die angegebene Punktegruppe drei sich schneidende Ebenen wie zum Beispiel die Punkte 2010 in 20 enthält, werden die Punkte durch das später beschriebene Verfahren automatisch in drei Untergruppen von Punkten segmentiert, die in getrennten Ebenen liegen. Dann kann jeder verfügbare Algorithmus für die Anpassung von Ebenen verwendet werden, um die Ebenen an die Scanpunkte in jeder Gruppe anzupassen. Anders als in dem später beschriebenen, allgemeineren Autosegmentierungsalgorithmus braucht der Anpassungsalgorithmus nicht zu versuchen, Zylinder, Kugeln oder andere Objekte anzupassen und zu überprüfen, welches die beste Anpassung liefert, wenn man weiss, dass das Eckenobjekt aus drei Ebenen besteht; nur ebene Anpassungen sind nötig. Auf 30 Bezug nehmend, passt das Eckenanpassungswerkzeug nicht nur die Ebenen 3010, 3020, 3030 an, sondern kann sie auch schneiden, um die Ecke zu vervollständigen. Wie in 30 gezeigt, kann dem Benutzer nützliche zusätzliche Information gegeben werden, indem die Linien 3040, 3050, 3060 an den Schnittlinien von Paaren von Ebenen sowie ein Scheitelpunkt 3070, der den Ort der Ecke darstellt, eingeführt werden. Dieser Scheitelpunkt ist viel genauer als ein einzelner Scanpunkt, da jede Ebene unter Verwendung vieler Datenpunkte angepasst und der Scheitelpunkt durch Schneiden der Ebenen erzeugt worden ist. Die obige, neuartige Methode zur automatischen Schaffung einer Ecke mit ihren Schnittlinien und ihrem Scheitelpunkt kann als ein Werkzeug der CGP 40 verwendet werden.
  • Jedes Objekt speichert Daten zur Qualität der Anpassung, so dass der Benutzer das Objekt abfragen und die mittlere, Standardabweichung und grössten Fehler prüfen kann. Mit einer Kenntnis der Genauigkeit des FDV 10 können die CGP oder der Benutzer dann entscheiden, ob während der Anpassung ein Fehler begangen worden ist. Fehler können entstehen, wenn der falsche Primitivtyp angepasst wird oder wenn aussen liegende Punkte, die nicht wirklich von der gewünschten Oberfläche gescannt worden sind, in der Datenmenge verbleiben. Ausserdem speichern die Objekte ihre geometrischen Parameter, so dass der Benutzer den Radius, die Länge oder andere interessierende Werte abfragen kann.
  • Zusätzlich zur Klasse der allgemeinen Objektanpasser, denen nahezu keine Ausgangsinformation ausser den anzupassenden Punkten gegeben wird, gibt es eine Klasse von Anpassern, die aus Vorkenntnissen über Objekte in der Szene Vorteil ziehen können.
  • Ein Arbeitsgebiet, wo solche Vorkenntnisse existieren, ist die Konstruktionsindustrie, wo benutzte Teile standardisierte Abmessungen und Auslegung haben. Zum Beispiel kann der Aussendurchmesser von Rohren eines bestimmten Herstellers in fünf verschiedenen Grössen kommen: 4, 5, 6,5, 8 und 10 Zoll. Diese Information ist typischerweise in Tabellen vorhanden, die relevante Attribute dieser Teile beschreiben. Der Zylinderanpasser kann die Daten in diesen Tabellen nutzen, um den abzusuchenden Lösungsraum signifikant einzugrenzen; der Anpasser braucht nur nach Lösungen zu suchen, die Zylinder mit einem dieser Durchmesser enthalten. Eine andere Möglichkeit, solche Nachschlagtabellen zu verwenden, besteht darin, dass der Anpasser zunächst eine allgemeine Lösung vorschlägt und die Einträge in den Objekttabellen dann damit verglichen werden, um den Eintrag mit den am nächsten liegenden Parametern zu finden. Zum Beispiel würde ein durch einen Zylinder mit 7,8 Zoll Durchmesser angepasstes Rohr mit der 8-Zoll-Eintragung in der Tabelle des obigen Beispiels verglichen; der Benutzer (oder Anpasser) hat dann die Wahl, neu einen 8-Zoll-Zylinder an das Rohr anzupassen oder den 7,8-Zoll-Zylinder zu akzeptieren. Noch eine weitere Verwendung besteht für den Benutzer darin, manuell einen speziellen Eintrag (oder eine Sammlung von Einträgen) aus der Tabelle auszuwählen und dem Anpasser zu sagen, dass er dessen Parameter in der Anpassung verwenden soll, was ebenfalls den Lösungsraum des Anpassers (und damit möglicherweise die erforderliche Zeit) verringert.
  • Modellierung
  • Die Anpassung geometrischer Primitive, wie sie im vorangehenden Abschnitt beschrieben worden ist, stellt gewöhnlich nicht das Ende des Modellierungsprozesses dar. Es ist oft der Fall, dass nur ein Teil der Oberfläche des Objekts gescannt wird, zum Beispiel das eine Ende eines Zylinders oder ein Teil einer Wand, und weitere Operationen sind erforderlich, um das 3D-Modell zu vervollständigen. Modellierung ist der Prozess, die Konstruktion des 3D-Modells zu vervollständigen, wenn einige angepasste geometrische Primitive vorliegen.
  • Viele gewöhnliche CAD-Operationen wie Erweiterung, Schnittpunkt (gegenseitige Erweiterung) und Trimmen sind in der CGP 40 verfügbar. Zum Beispiel erstreckt sich der Zylinder 3110 in 31 anfänglich nicht bis zur Ebene des Bodens 3120. In 32 ist der Zylinder 3220 bis zur Ebene des Bodens 3120 verlängert worden. Diese einfachen Operationen ermöglichen eine rasche Vervollständigung von Teilen des Modells aus den durch geometrische Anpassung geschaffenen Objekten. Zum Beispiel ist es leicht, wenn drei ebene Flecken gegeben sind, die aus Scandaten nahe einer Ecke angepasst worden sind, die drei Ebenen gegenseitig auszudehnen, um die Ecke zu vervollständigen.
  • Objekterweiterungen können auf verschiedene Weise erreicht werden. Ein Weg besteht darin, das zu erweiternde geometrische Objekt auszuwählen und es anzuweisen, sich bis zu einem nachfolgend ausgewählten Objekt auszudehnen. Die Natur der Erweiterung wird sowohl durch den zu erweiternden Objekttyp als auch durch das zweite ausgewählte Objekt bestimmt. Zum Beispiel streckt ein Zylinder das näher beim zweiten Objekt liegende Ende entlang seiner Mittellinie, bis sein Ende die unendliche Ebene schneidet, die durch die Geometrie des zweiten Objekts definiert wird (im Falle eines ebenen Flecken ist die unendliche Ebene die Ebene des Fleckens, und bei einem Zylinder ist die unendliche Ebene die Ebene, die die Mittellinie enthält und so orthogonal wie möglich zu dem zu verlängernden Zylinder ist).
  • Ein weiterer Weg besteht in der Verwendung von Objektgriffen, die Netzknoten sind, die der Benutzer ergreifen kann. Diese Griffe sind an die Definition eines Objekts (Position, Orientierung, Grösse) gebunden, sofern zutreffend, und durch Bewegung eines Griffs ändert sich die Definition des Objekts entsprechend. Wiederum den Zylinder als ein Beispiel nehmend, kann die gleiche Verlängerung, wie oben beschrieben, erreicht werden, indem der Griff an dem zu verlängernden Ende ergriffen und dann zur gewünschten Position bewegt wird (wobei der Zylinder verlängert wird). Die Bewegung eines Griffs hängt von dem Teil des Objekts ab, an dem er angebracht ist; ein Griff an der Mittellinie des Zylinders ist gezwungen, sich nur dieser Mittellinie entlang zu bewegen, während ein Griff an der Grenze eines ebenen Fleckens gezwungen ist, sich nur innerhalb der Ebene des Fleckens zu bewegen. Bei einigen Objekten können Griffe eingesetzt und weggenommen werden, wodurch sich die Definition der Form des Objekts ändert (zum Beispiel haben Griffe an einem ebenen Flecken eine 1 : 1-Entsprechung mit Scheitelpunkten an der Grenze des ebenen Flecken). Andere Griffe können Kontrolle der Drehung eines Objekts liefern. Die Steuerung der Griffe ist interaktiv und wird dynamisch aktualisiert, so dass der Benutzer die unmittelbaren Ergebnisse der Neudefinition sehen kann.
  • Eine neue, Merging genannte Operation ist entwickelt worden, um es zu ermöglichen, dass verschiedene Teile einer einzigen Objektoberfläche zusammengefügt werden, um in der CGP 40 ein einziges Objekt zu bilden. Es passiert oft, dass die Sicht auf ein Objekt durch andere Objekte vor ihm blockiert wird. Zum Beispiel kann der Blick auf die hintere Wand in einem Raum durch eine Säule im Vordergrund in zwei Teile geteilt sein. Ein Scan dieses Bereichs ergibt verschiedene Gruppen von Punkten auf dem konkreten Objekt. Wenn statt der manuellen Methoden, wo ein Benutzer weiss, dass die Punkte zum gleichen Objekt gehören, Autosegmentierung verwendet wird, wie später beschrieben, dann werden getrennte Punktegruppen gebildet. Jede Punktegruppe würde dann an ein getrenntes Objekt angepasst, was zu einer Mehrzahl von Stücken der gleichen Oberfläche führt. Die beiden Objekte in der CGP 40, von denen bekannt ist, dass sie sich auf der Oberfläche der gleichen Sache befinden, wie zum Beispiel die beiden ebenen Flecken einer von einer Säule obstruierten Wand, können zu einem einzigen Objekt verschmolzen werden. Jedes Objekt speichert einen Bezug zu den Datenpunkten, durch die es definiert wird, so dass, wenn ein Merging gewünscht wird, eine neue geometrische Anpassung aller zugrunde liegender Datenpunkte erfolgt, die zu den Teilgeometrien gehörten, um die beste Gesamtanpassung zu erzielen. Diese neuartige Methode, die Genauigkeit der Anpassung eines Objekts zu erhöhen, wird in den Merging-Operationen einer bevorzugten Ausführungsform der Erfindung verwendet. Die Eigenschaften der beiden primitiven Objekte, die verschmolzen wurden, haben keinen Einfluss auf das Ergebnis des Mergings, nur die zugrunde liegenden Punktepositionen werden in Betracht gezogen.
  • Unter Verwendung der manuellen oder automatischen Methoden kann der Benutzer eine Punktwolke 3320 von den Oberflächen vieler Objekte nehmen, zum Beispiel die Punkte auf der in 33 gezeigten Pyramide 3310, und sie in einen Satz geometrischer Objekte 3420 wie die ebene Seite der Pyramide 3410 in 34 umwandeln. Die in 34 gezeigte, modellierte Szene stellt die Merkmale der ursprünglichen, gescannten Objekte genau dar und ermöglicht es, Messungen zwischen irgendwelchen besonderen Stellen in der modellierten Szene zu machen.
  • Register von Szenen
  • Die Anfangsposition jedes Scanpunktes wird in einem lokalen Koordinatensystem beschrieben, dessen Ursprung der des FDV 10 ist und dessen Achsen relativ zum FDV 10 fixiert sind. Daher halten Scanfelder, die ohne Bewegung des FDV 10 aufgenommen werden, von Natur aus Register, indem alle Scanpunkte das gleiche Koordinatensystem verwenden. Wenn jedoch das FDV 10 zwischen Scanvorgängen bewegt wird, sind zusätzliche Anstrengungen erforderlich, um die Daten so umzuformen, dass ein gemeinsames Koordinatensystem verwendet wird. Dies ist eine Sechs-Parameter-Starrkörpertransformation eines Datensatzes mit drei Translations- und drei Rotationsparametern und lässt sich leicht auf die Daten anwenden, wenn die Transformation einmal bekannt ist.
  • Ein neuartiger Prozess wird verwendet, um die Scanfelder von unterschiedlichen Positionen des FDV 10 in Register zu bringen. Der neuartige Aufzeichnungsprozess verlangt vom Benutzer, Paare von Punkten, Linien oder Ebenen in zwei verschiedenen Szenen zu identifizieren, die das gleiche besondere Element darstellen. Es ist auch möglich, verschiedene Elemente wie zum Beispiel die Vorder- und Rückseite einer Wand zu verwenden, falls der Benutzer den Offset zwischen ihnen kennt. Die Ebenen und Linien werden in Punktepaare umgewandelt, wie unten beschrieben, und der Prozess funktioniert gänzlich mit Punktepaaren. Die für Register verwendeten Punkte können tatsächliche Scanpunkte oder konstruierte Punkte wie eine Ecke am Schnittpunkt dreier Ebenen sein.
  • Bei einem gegebenen Satz von Punktepaaren sucht der Registerprozess den Satz von Kandidatenpunkten für drei Paare, die nicht kolinear sind. Unter Verwendung der drei Punktepaare kann man die Transformation konstruieren, die erforderlich ist, um das Koordinatensystem in einem Blick zu dem in einem anderen Blick verwendeten umzuwandeln, was umgekehrt dazu verwendet werden kann, um die Scanpunkte so zu transformieren, dass sie alle gemeinsam ein einziges Koordinatensystem verwenden. Der Bequemlichkeit halber wird der Prozess in der Form beschrieben, dass der erste Datensatz fixiert bleibt, während der zweite Datensatz transformiert wird, um das Koordinatensystem des ersten Satzes zu verwenden. Der Prozess funktioniert gleich gut, wenn der Benutzer den zweiten Datensatz fixiert und den ersten transformiert.
  • Der erste Schritt besteht darin, eine Starrkörpertranslation auf den zweiten Datensatz anzuwenden, um zu veranlassen, dass das erste Punktepaar in seinen x-, y- und z-Komponenten zusammenfällt. Der zweite Schritt besteht darin, den zweiten Datensatz um seinen ersten Punkt rotieren zu lassen, bis die durch Punkte Eins und Zwei in beiden Datensätzen gebildeten Linien kolinear sind. Der dritte Schritt besteht darin, den zweiten Datensatz um die im vorangehenden Schritt etablierte Linie rotieren zu lassen, bis die durch Punkte Eins, Zwei und Drei in den beiden Datensätzen definierten Ebenen koplanar sind.
  • Nachdem eine anfängliche Abschätzung vorliegt, kann man dann alle Punktepaare und eine Fehlerminimierungsmethode verwenden, um die Summe der Quadrate der Abstände zwischen jedem Punktepaar zu verringern.
  • Um die oben beschriebene Methode, Punkte in Register zu bringen, verwenden zu können, wird in der CGP 40 eine neuartige Methode eingesetzt, um Linien, Ebenen und Ebenen mit Offsets in Sätze von Punktepaaren umzuwandeln. Immer dann, wenn ein endlicher Ebenenoffset vorhanden ist, werden die neuen eingeführten Punkte in der zweiten Szene zu einer Position verschoben, wo sie genau mit den entsprechenden Punkten in der ersten Szene zusammenpassen. Indem Ebenen und Linien durch Punkte ersetzt werden, wird es einfach, die Fehlerfunktion für eine Minimierung zu formulieren, da nur Punktfehler, aber keine gleichzeitigen Winkel- und Entfernungsfehler vorkommen.
  • Beim Ersatz der Ebenen und Linien können nur Punkte eingeführt werden, die sich an Orten mit Bezug zu durch den Benutzer bezeichneten Objekten befinden, da die Ursprünge der beiden Datensätze unterschiedlich sind. Zum Beispiel würde die Einführung eines neuen Punktepaares in einer Ebene an dem zum Ursprung nächsten Ort keine Punkte ergeben, die tatsächlich im Raum zusammenpassen, da der Ursprung willkürlich ist. Die Einführung eines Punktepaares am Schnittpunkt einer Ebene mit einer Linie ergibt jedoch zusammenpassende Punkte in den beiden Datensätzen. Einige Objektpaare wie parallele Linien sollten nicht dafür verwendet werden, neue Punkte einzuführen, deshalb wird eine Winkeltoleranz (unten als ATOL: angular tolerance, bezeichnet) verwendet, um schlechte Objektpaare zu ignorieren. ATOL wird anfänglich auf einen Wert von zehn Grad festgelegt, aber andere Werte können verwendet werden, um wie erforderlich weniger oder mehr künstliche Punktepaare zu erzeugen. Die Punktepaare werden in der folgenden Reihenfolge eingeführt:
    Für alle Paare aus einer Ebene und einer Linie, bei denen der Winkel zwischen der Linie und der Ebene grösser als ATOL ist, werden zwei neue Punktepaare eingeführt. Der erste neue Punkt wird am Schnittpunkt der Linie mit der Ebene eingefügt, das zweite Punktepaar wird entlang der Angriffslinie in einem fixierten Abstand vom ersten Punkt eingefügt, hier als das Minimum der Linienlängen in den beiden Ansichten genommen.
  • Für alle Paare aus Ebenen und Punkten wird ein neues Punktepaar so in der Ebene eingeführt, dass die Ebenennormale durch den neuen Punkt und den spezifizierten Punkt hindurchgeht.
  • Für alle Paare von Ebenen, deren Normalen wenigstens ATOL auseinander verlaufen, wird ein neues Liniensegment entlang der Schnittlinie der Ebenen erzeugt und seine Länge gleich der minimalen Ausdehnung gemacht, die irgendeine Ebene entlang der Linie besitzt. Das neue Liniensegment besitzt keine Richtung, aber es hat sowohl Längen- als auch Positionsinformation. Nach diesem Schritt werden die Ebenen nicht mehr benötigt.
  • Für alle Paare von Linien und Punkten wird ein neuer Punkt auf der Linie an dem Ort eingeführt, an dem er dem spezifizierten Punkt am nächsten ist.
  • Für alle Paare von Linien, die durch einen Winkel grösser als ATOL voneinander getrennt sind, werden vier neue Punktepaare eingeführt. Die neuen Punkte sind die Enden von Liniensegmenten entlang der ursprünglichen Angriffslinie, aber zentriert auf den Ort der engsten Annäherung der beiden Linien. Der Abstand zwischen den neuen Linienpunkten ist gleich der minimalen Länge der Liniensegmentelängen entlang der Angriffslinie aus den beiden Datensätzen. Nach diesem Schritt werden die Linien nicht mehr benötigt.
  • Das Ergebnis der oben beschriebenen Ebenen- und Liniensubstitutionen ist ein Satz von Punktepaaren, der die mit den ursprünglichen Ebenen und Linien verbundene Richtungsinformation bewahrt. Der vergrösserte Satz von Punktepaaren kann dann für den oben beschriebenen Registerprozess verwendet werden.
  • Nachdem die beiden Szenen in Register gebracht worden sind, können Primitive aus den beiden individuellen Ansichten, die das gleiche physische Objekt darstellen, unter Verwendung der früher beschriebenen Mergingtechnik kombiniert werden. Insbesondere können zusammenpassende ebene Flecken, die die gleiche Oberfläche darstellen, zu einem einzigen erweiterten ebenen Flecken kombiniert werden. Ähnlich können Stücke zusammenpassender zylindrischer Oberflächen zu einem einzigen Zylinder verschmolzen werden.
  • Warping von Datensätzen
  • Der oben beschriebene Registerprozess ist eine Starrkörpertransformation, die die relativen Positionen der Objekte innerhalb der beiden Datensätze nicht abändert. Nach gewonnenem Register werden die meisten der Punkte-, Linien- oder Ebenenpaare, die identifiziert worden sind, noch kleine Abweichungen besitzen, da der Minimierungsprozess den gesamten mittleren quadratischen Fehler verringert. Eine neuartige Methode wird vorgestellt, die es dem Benutzer erlaubt, die identifizierten Paare durch Verformung der Szenenvolumina zu zwingen, genau übereinzustimmen.
  • Wie bei allen Messdaten ist mit jedem Scanpunkteort ein bestimmtes Fehlerniveau verbunden. Die Grössenordnung des Fehlers, der mit einem Punkteort verbunden ist, ändert sich mit der verwendeten Messtechnik, aber ein gewisser Fehler wird immer vorhanden sein. Da die hier betrachteten Daten Oberflächenmerkmale von Objekten beschreiben, treten Datenfehler als Oberflächenunregelmässigkeiten hervor. Zum Beispiel könnte ein Satz von Punkten, die von einer wirklichen ebenen Oberfläche gewonnen worden sind, nicht ganz in einer Ebene liegen, sondern eine bestimmte kleine Streuung weg vom wirklichen Ort der Ebene haben. Eine Berechnung einer besten angepassten Ebene durch den Satz gemessener Punkte könnte auf Grund von Fehlern im Punktdatensatz nicht den wirklichen Ort oder die wirkliche Orientierung der Ebene geben.
  • Die Fehler in den wiedergewonnenen Besonderheiten wie den Ebenen verursachen Fehler auch in den Beziehungen zwischen den wiedergewonnenen Objekten. Wenn zum Beispiel Daten von zwei Ebenen gesammelt werden, die einen Winkel von genau 90 Grad zwischen sich haben, dann könnten die am besten angepassten Ebenen, die aus den Datenpunkten erzeugt werden, nicht genau 90 Grad auseinander sein. Ähnlich könnten Zylinder, die in der wirklichen Szene parallel waren, nach Anpassung an die gescannten Punkte zu am besten angepassten Zylindern führen, die nicht parallel sind. Diese Widersprüche in den wiedergewonnenen Merkmalen, die auf Grund von Messfehlern auftreten, sind vorhanden, gleichviel ob die Datenpunkte von einer einzigen Scanposition aus gesammelt worden sind oder eine Zusammenfassung von Scans aus mehreren unterschiedlichen Positionen sind.
  • Das Problem mangelnder Anpassung könnte tatsächlich grösser werden, wenn mehrere unterschiedliche Sätze von Scandaten unter Verwendung eines relativen Systems in Register gebracht werden. Wenn Serien von aufeinander folgenden Scans gesammelt werden und jeder Scan bezüglich einer erkennbaren Folge von Datenpunkten in einem vorhergehenden Scan in Register gebracht wird, können die absoluten Fehler in jedem Scan grösser werden. Wenn am Ende der Folge von Scans die Orte der Merkmale genau bekannt sind, dann müssen die gescannten Datenpunkte so angepasst werden, dass sie mit den bekannten Orten übereinstimmen. Beim Vermessen sind sowohl das 2D-Abschlussproblem als auch die 3D-Benchmark-Vergleichsprobleme von ähnlicher Natur wie die oben beschriebenen Probleme. Bei der Anwendung im Abschluss von Vermessungen wird man, wenn man eine Folge von Orten vermisst und dann zum Anfangspunkt zurückkehrt, typischerweise finden, dass durch kumulative Messfehler der Anfangs- und Endort nicht genau am gleichen Ort liegen. Der Abschlussfehler, der die Entfernung zwischen dem Anfangs- und Endort ist, wird unter Verwendung wohlbekannter Vermessungsverfahren so über alle anderen gesammelten Datenpunkte verteilt, dass der erste und letzte Endpunkt zusammenfallen, nachdem die Korrekturen angebracht worden sind. Wenn Vermessungsbenchmarks an bekanntem Ort in einen Satz von Vermessungsdaten eingeführt werden, dann muss der Datensatz in ähnlicher Weise angepasst werden, um die bekannten Benchmarkorte zu berücksichtigen. Sowohl das Abschlussproblem als auch das Benchmarkvergleichsproblem kann mit der hier beschriebenen Methode gelöst werden, da beide mit Verschiebungsconstraints beschrieben werden können.
  • Die hier beschriebene, neuartige Methode für die Korrektur von Ortsfehlern in gemessenen 3D-Datensätzen verteilt die Fehler über die vollen Punktsätze, indem die Prinzipien der Festkörpermechanik auf ein die Datenpunkte umgebendes Volumen angewendet werden. Die Methode liefert eine Möglichkeit, eine grosse Vielfalt von Verschiebungsconstraints bei 3D-Datensätzen zu befriedigen, und verteilt auch die Messfehler über die vollen Datensätze. Der Prozess, Datensätze zu verformen, um diese Ziele zu erreichen, wird Warping genannt. Die Verschiebungsconstraints können als Kontrollpunkte, deren absolute Koordinaten im Raum bekannt sind und sich nicht verändern, und als Verbindungspunkte, die den gleichen Ort in zwei oder mehr Datensätzen darstellen, aber deren absolute Lage unbekannt ist, angegeben werden. Man kann Constraints bei komplizierteren Objekten beschreiben, zum Beispiel bei Liniensegmenten, indem zwei Punkte bezeichnet werden, und bei Ebenen, indem drei Punkte bezeichnet werden. Auf diese Weise kann eine ganze Familie von Constraints angegeben und auf Gruppen von Objekten wie Punkte, Linien und Ebenen angewendet werden.
  • Alle Constraints enthalten ein Offsetglied, das null oder endlich sein kann. Ein Offset von null zwischen Punkten deutet an, dass die Punkte den gleichen definitiven Ort einnehmen sollten, aber schreibt nicht vor, wo dieser Ort wäre. Wäre einer dieser Punkte ein Kontrollpunkt, dessen absolute Lage bekannt ist, dann würde er sich nicht bewegen, während der andere Punkt im Constraint gezwungen wäre, sich zum gleichen Ort zu bewegen, um den Constraint zu befriedigen. In allen Fällen wäre der definitive Ort das Ergebnis des Energieminimierungsprozesses, der mit einer Festkörpermechaniklösung verbunden ist. Ein endlicher Offset zwischen zwei Punkten deutet an, dass die Punkte einen bestimmten Abstand voneinander haben müssen, nachdem der Warpingprozess angewendet worden ist.
  • Wenn die Objekte des Constraints keine Punkte, sondern Linien und Ebenen sind, dann kann zusätzlich zum Offset noch ein Winkel zwischen den Objekten vorgeschrieben werden. Unter Verwendung dieser Familie von Constrainttypen könnte man eine grosse Anzahl von Beziehungen zwischen Merkmalen in einem oder mehreren Datensätzen vorgeben. Die Erfindung funktioniert, gleichviel ob ein einzelner 3D-Datensatz oder eine Mehrzahl von 3D-Datensätzen beteiligt sind, und die Constraints können zwischen Objekten im gleichen oder in verschiedenen Datensätzen vorliegen.
  • Die Lösung des Problems der Constraintbefriedigung beginnt damit, jeden der Datensätze wie im vorhergehenden Absatz beschrieben in Register zu bringen, so dass alle Daten ein einziges Koordinatensystem gemeinsam verwenden. Als Nächstes wird die Theorie der Festkörpermechanik auf ein die Punkte in jedem Datensatz umgebendes Volumen angewendet, um die Verschiebungsconstraints zu befriedigen. Die Warpingmethode wirkt auf ein oder mehrere Volumina, die so geschaffen worden sind, dass sie alle Punkte in einem gegebenen Datensatz umgeben. Jedes dieser Volumina wird als aus verformbaren Materialien bestehend angesehen, dessen Eigenschaften vorgegeben werden können. Ein isotropes Material kann mit einem Elastizitätsmodul von Eins und einem Poisson-Verhältnis von Null verwendet werden. Mit der Festkörpermechaniklösung wird das Verschiebungsmuster minimaler Energie gefunden, das die vorgegebenen Constraints befriedigt.
  • Man kann sich vorstellen, dass jedes dieser Volumina aus einem flexiblen Material besteht. Verankerte man ein Volumen, um Starrkörperbewegungen zu verhindern, und schriebe dann einen neuen Ort für einen Punkt in seinem Inneren vor, dann könnte man eine Verzerrung des Volumens voraussehen, das sich nicht nur auf den interessierenden Punkt, sondern auch auf das übrige Volumen erstreckt. In Wirklichkeit können die Constraints selbst dazu verwendet werden, eine Mehrzahl von Volumina miteinander zu verankern. Die Prinzipien der Mechanik erlauben die Verformung minimaler Energie des Volumens zu bestimmen, die die aufgestellten Constraints befriedigt, wodurch nachgeahmt wird, was tatsächlich mit einem wirklichen, verformbaren Objekt passieren würde, das den gleichen Constraints unterworfen wird.
  • In einer besonderen Ausführungsform verwendet die Warpingmethode die Prinzipien der Festkörpermechanik, um ein Volumen zu verformen, das interessierende Punkte enthält, um einen Satz von Constraints zu befriedigen, die auf die Datenpunkte angewendet werden. Dabei werden nicht nur die Constraints befriedigt, sondern die Auswirkungen der anfänglichen Lagefehler werden durch die gesamten so behandelten Volumina verteilt.
  • Die Methode der finiten Elemente wird verwendet, um die Prinzipien der Festkörpermechanik auf die Volumina anzuwenden, die die Punkte umschliessen. Das Volumen wird in einen Satz von Punkten oder Scheitelpunkten sowie einen Satz von Elementen diskretisiert, die mit den Scheitelpunkten verbunden sind. Tetraederelemente mit vier Schnittpunkten werden verwendet, um das Volumen zu diskretisieren.
  • Der erste Schritt des Prozesses besteht darin, den Satz von Constraints zu sammeln, die auf einen oder mehrere Datensätze zutreffen. In dieser Phase muss man die Constraints identifizieren, die durch den Warpingprozess befriedigt werden sollen. Zu diesen Constraints gehört die Identifizierung der Punkte, die den gleichen physischen Ort in verschiedenen Datensätzen (Verbindungspunkte) darstellen, wie die Ecke eines Würfels, und die am gleichen Ort erscheinen müssen, wenn der Warpingprozess beendet ist. Einige der Verbindungspunkte sind möglicherweise Punkte, die nicht im ursprünglichen Datensatz gescannt wurden, sondern aus Gruppen anderer Punkte konstruiert werden können. Hätte man zum Beispiel eine Reihe von Punkten, die drei sich an einer Ecke schneidende Ebenen darstellen, dann könnte man den Punkten drei Ebenen anpassen und den sich ergebenden Eckpunkt als Verbindungspunkt verwenden. Die Constraints werden als Paare von Objekten wie Punkten, Linien und Ebenen sowie als der erwünschte Offset und Winkel zwischen diesen vorgegeben. Die beiden im Constraint wirkenden Objekte können in einem einzelnen Datensatz enthalten sein oder in verschiedenen Datensätzen auftreten. Innerhalb eines einzelnen Datensatzes könnte vorgegeben werden, dass Linien oder Ebenen parallel bleiben oder dass die Entfernung zwischen zwei Punkten ein vorgegebener Betrag ist. Zwischen einer Mehrheit von Datensätzen könnte man ähnliche Constraints formulieren oder angeben, dass die in zwei Datensätzen gesehenen Besonderheiten das gleiche Objekt darstellen. Vielleicht weiss man auch den tatsächlichen Ort einiger Punkte sehr genau (Benchmarks) und kann Punkte im Datensatz zwingen, an den bekannten Orten zu liegen. Indem diese Benchmarkpunkte verwendet werden, um verschiedene Punkte in den Datensätzen zu verankern, wird das Abschlussproblem lösbar, da die Datensätze so gewarpt werden, dass die gemessenen Datenpunkte sich genau zu den gewünschten Kontrollpunktorten hin bewegen und die Fehler im Datensatz über alle Volumina geglättet werden.
  • Der zweite Schritt im Warpingprozess besteht darin, alle beteiligten Datensätze in Register zu bringen, wie im vorangehenden Abschnitt beschrieben.
  • Der dritte Schritt im Warpingprozess besteht darin, ein Volumen auszuwählen, das den interessierenden Bereich umgibt, und das Volumen durch einen Satz neuer Punkte zu beschreiben. Der Bereich, der mit dem FDV 10 gescannt werden kann, wird Blickvolumen genannt und hat die Gestalt einer Pyramide, wobei die Spitze der Pyramide am Ursprung der Scanvorrichtung liegt. Eine Pyramidengestalt kann verwendet werden, um den Blickbereich für die Zwecke des Warpings zu begrenzen, und die Pyramide lässt sich leicht durch fünf Punkte beschreiben, indem das gleiche Koordinatensystem wie für die Datenpunkte verwendet wird. Diese neuen Punkte werden kein Teil des Datensatzes, aber werden im Warpingprozess verwendet. Die konvexe Hülle dieser Punkte stellt die neue Volumenoberfläche dar und sollte alle Punkte auf der Innenseite umschliessen. Diese Operation wird für jeden Datensatz getrennt ausgeführt.
  • Der vierte Schritt besteht darin, jedes der Datenvolumina zu vermaschen. Vermaschung bedeutet, das Volumen mit finiten Elementen auszufüllen, die keine Lücken lassen und nicht überlappen. Die finiten Elemente überspannen die Strecke zwischen den Punkten oder Scheitelpunkten, die an der Volumenbegrenzung definiert worden sind, und denen, die an Constraints im Inneren beteiligt sind. Die Punkte im Datensatz brauchen nicht alle in den Warpingprozess einbezogen zu werden, nur diejenigen müssen vewendet werden, die in Constraintvorgaben verwendet werden, sowie diejenigen, die die Volumenbegrenzung definieren. Die Elemente im anfänglichen Mesh sind auf Grund ihrer Gestalt möglicherweise von schlechter Qualität. Es ist zum Beispiel von langen Splitterelementen bekannt, dass sie in der Analyse finiter Elemente schlechte Ergebnisse liefern. Daher ist der Vermaschungsprozess tatsächlich iterativ. Neue Punkte werden in das Mesh eingefügt, dann werden alte Elemente entfernt und neue Elemente eingeführt, so dass sich die Meshqualität verbessert. Dieser iterative Prozess wird fortgesetzt, bis man mit der allgemeinen Qualität des Meshes zufrieden ist. In einer bevorzugten Ausführungsform werden Tetraederelemente mit vier Schnittpunkten verwendet. Das anfängliche Mesh wird konstruiert, indem auf den Anfangspunktesatz eine 3D-Delaunay-Triangulierung angewendet wird. Der iterative Prozess identifiziert Elemente schlechter Gestalt durch ein Qualitätsmass der Elemente, führt neue Punkte ein und vermascht den Bereich neu. Der Prozess ist beendet, wenn alle Elemente minimalen Qualitätskriterien entsprechen. In der bevorzugten Implementierung wird die Halbierung der längsten Kanten verwendet, um neue Punkte einzuführen, die das Netz verbessern, aber andere Methoden können verwendet werden.
  • Im fünften Schritt werden die im ersten Schritt beschriebenen Constraints zu einem System linearer Constraints verarbeitet. In der bevorzugten Ausführungsform ist das schlussendliche System der Constraints bezüglich der nodalen Verschiebungen an den Scheitelpunkten der Tetraederelemente linear. Die gewünschte Form der Constraints ist Cu = q (6)
  • Die Matrix C enthält konstante Koeffizienten. Die Anzahl von Zeilen von C ist gleich der Anzahl von Constraints im System. Der Vektor u stellt die 3D-Verschiebungen der Scheitelpunkte der Tetraederelemente dar. Der Vektor q enthält konstante Koeffizienten. Wenn die Constraints homogen sind, dann ist jedes Element von q null. Die Form der in Gleichung (6) gegebenen Constraintbeschreibung ermöglicht willkürliche lineare Mehrpunktconstraints (die mehr als einen Scheitelpunkt betreffen).
  • Die Umwandlung der im ersten Schritt vorgegebenen Constraints in die oben gezeigte Form hängt vom Typ der beteiligten Constraints ab. Für zwei Punkte, die verbunden werden sollen, wäre der Constraint: p1 + u1 = p2 + u2 (7)oder u1 – u2 = p2 – p1 (8)
  • In diesen Gleichungen sind p1 und p2 Vektoren vom Ursprung zu den interessierenden Scheitelpunkten, während u1 und u2 die Verschiebungen der gleichen Scheitelpunkte während des Warpings sind. Gleichung (7) verlangt, dass der schlussendliche Ort jedes Scheitelpunktes, gegeben durch den Anfangspunkt plus die Verschiebung beim Warping, gleich dem schlussendlichen Ort des anderen Punktes ist. Gleichung (8) hat die Form der Gleichung (6) mit q = p2 – p1 und liefert drei lineare Constraints, ausgedrückt in den Komponenten x, y und z der nodalen Verschiebungen. Indem Gleichung (8) zu drei Gleichungen in der Form von Gleichung (6) aufgelöst wird, erhält man:
    Figure 00560001
  • Weitere Constraints wie die Entfernung zwischen zwei Punkten sind in ihrer Natur nichtinear. In den nichtlinearen Constraints können die vorhandene Geometrie des Systems wie auch Annahmen über kleine Verformungen verwendet werden, um lineare Mehrpunktconstraints zu erzeugen. Um zum Beispiel den gewünschten Abstand zwischen zwei Punkten als einen vorgegebenen Wert x vorzugeben, könnte man den Vektor v21 zwischen den schlussendlichen Punktorten bestimmen: v21 = (p2 + u2) – (p1 + u1) (10)und dann die gewünschte Länge des Vektors vorgeben: ||v21|| = x (11) oder unter Benutzung des skalaren Vektorprodukts: v21·v21 = x2 (12)
  • Beide Gleichungen (11) und (12) sind in den Verschiebungen der Schnittpunkte, u1 und u2, nichtlinear. Um den Constraint zu linearisieren, kann man vorgeben, dass die gewünschte Länge entlang der ursprünglichen Angriffslinie gleich dem gewünschten Offset ist:
    Figure 00570001
    v21·n21 = x (14)oder [(p2 + u2) – (p1 + u1)]·n21 = x (15) u2·n21 – u1·n21 = x – ||p2 – p1|| (16)
  • Das Glied auf der rechten Seite der Gleichung (16) ist der gewünschte Abstand zwischen den Punkten minus der derzeitige Abstand zwischen den Punkten. Die Komponenten x, y und z von n21 sind Constraints. Gleichung (16) kann in der richtigen Form als ein einzelner Constraint wie folgt geschrieben werden:
    Figure 00570002
  • Im Schritt 6 wird das schlussendliche System von linearen Gleichungen zusammengestellt. Dieser Schritt besteht aus zwei Teilen: erstens werden die Elementesteifigkeiten für jedes der Tetraederelemente zusammengestellt, und zweitens wird eine Con straintbehandlungstechnik ausgewählt und angewendet. Berechnung und Zusammenstellung der Elementesteifigkeiten folgen den Standardprozeduren finiter Elemente. Die Verwendung von Constraints in der Form von Gleichung (6) beinhaltet ein Constraintverarbeitungsverfahren. Die Technik Lagrangescher Multiplikatoren kann verwendet werden, um den Effekt der linearen Constraints einzuführen, aber alle anderen Verfahren wie die Straftechnik oder Transformationstechniken könnten ebenso wirksam verwendet werden.
  • Unter Verwendung von Lagrangeschen Multiplikatoren wird für jeden Constraint im System eine neue Variable in das schlussendliche Gleichungssystem eingeführt. Dann werden die statischen Gleichgewichtsgleichungen für das System ohne Constraint, die durch Ku = r (18)gegeben sind, modifiziert.
  • In Gleichung (18) ist K die Matrix der Systemsteifigkeit, die aus den Steifigkeitsbeiträgen der individuellen Elemente zusammengesetzt wird, u ist der Verschiebungsvektor, der die Lösung des Problems ist, und r ist ein Vektor von äusserlich anliegenden Belastungen. In dieser Ausführungsform der Erfindung gibt es keine von aussen anliegenden Belastungen, so dass der r-Vektor nur Nullen enthält. Gleichung (18) enthält keinen Effekt irgendwelcher Constraints, aber diese können unter Verwendung der Technik der Lagrangeschen Multiplikatoren einbezogen werden, wodurch sich das System von Gleichungen ergibt:
    Figure 00580001
  • In Gleichung (19) sind K, C, u, r und q wie früher definiert, während uL ein Vektor ist, der die zusätzlichen Lagrange-Multiplikatorvariablen enthält, die bei Verwendung dieser Methode eingeführt werden. Die Matrix CT ist die Transponierte von C, und 0 ist eine Matrix von Nullen. Die Lösung der Gleichung (19) ergibt die Verschiebungen u, die die durch C und q beschriebenen linearen Constraints befriedigen. Man bemerke, dass diese Constraints Linearisierungen nichtlinearer Constaints sein können und dass die nichtlinearen Constraints durch die Lösung an diesem Punkt eventuell nicht befriedigt sind.
  • Bei Verwendung von Straf- oder Transformationsmethoden anstelle der Lagrangeschen Multiplikatoren würde ein System linearer Gleichungen erzeugt, das sich von dem in Gleichung (19) gezeigten unterscheidet, aber die Lösung des linearen Systems von Gleichungen ergibt ähnliche Werte für den Verschiebungsvektor u.
  • Im Schritt 7 wird Gleichung (19) gelöst, um u und uL zu erhalten. Viele Methoden sind verfügbar, um grosse Systeme linearer Gleichungen zu lösen. In der bevorzugten Ausführungsform wird ein symmetrischer Löser mit einem Profilspeicherschema verwendet. Die verschiedenen Lösertypen, die verwendet werden könnten, liefern im Wesentlichen die gleichen Ergebnisse, aber optimieren die Geschwindigkeit und die Speichernutzung unterschiedlich.
  • In der bevorzugten Ausführungsform wird ein direkter Löser verwendet, aber iterative Sparse-Löser könnten ebenso gut verwendet werden. Das in Gleichung (19) gezeigte System von Gleichungen ist sparse, so dass bedeutende Geschwindigkeitsgewinne erzielt werden können, indem der zweckmässige Löser ausgewählt wird. Jedoch bleiben die Ergebnisse des Warpingprozesses allgemein von dieser Auswahl unbeeinflusst.
  • Im Schritt 8 muss überprüft werden, ob die aktuelle Verschiebung die Constraints auf dem gewünschten Genauigkeitsniveau befriedigt. Wenn die aktuelle verformte Gestalt den Offset oder den Winkel in irgendeinem der in Schritt 1 zusammengestellten Constraints um mehr als eine vom Benutzer vorgegebene Toleranz verletzt, dann müssen Schritte 5 bis 7 wiederholt werden, wobei mit der neuen verformten Gestalt begonnen wird. Die Gestaltlinearisierungen können nach jeder Iteration verändert sein, da sich die Geometrie des Volumens mit den kumulativen Verformungen ändert. Wenn alle Constraints innerhalb der gegebenen Toleranz befriedigt sind, dann kann man zu Schritt 9 weitergehen.
  • Im Schritt 9 werden die nodalen Verformungen u, die im Schritt 7 berechnet wurden, verwendet, um die Verformung jedes interessierenden Punktes innerhalb der Volumina zu bestimmen. Für jeden interessierenden Punkt muss man ein finites Element finden, das den Punkt auf seiner Oberfläche oder in seinem Inneren enthält. Wenn der Punkt sich innerhalb eines Elements befindet, so existiert nur ein solches Element. Wenn der Punkt sich auf der Oberfläche eines Elements oder auf der Kante eines Elements befindet, dann können mehrere Elemente in Betracht kommen, den Punkt zu enthalten. Jedes dieser Elemente kann ausgewählt werden, um zu bestimmen, wohin sich der interessierende Punkt bewegt. Wenn Elemente sich in den Punkt teilen, dann ergeben sich die gleichen Ergebnisse für die Verschiebung des Punktes, gleichviel welches der Elemente verwendet wird. Nachdem ein Element identifiziert worden ist, werden die Scheitelpunktverschiebungen dieses Elements aus u herausgezogen und verwendet, um mit einem Interpolationsprozess die Verschiebung jedes Punktes im Inneren zu bestimmen. In dieser Prozedur werden die Gestaltfunktionen der finiten Elemente verwendet, die in der bevorzugten Ausführungsform linear sind; sie ist eine übliche Operation in der Analyse finiter Elemente.
  • Autosegmentierung
  • Der unten dargestellte neuartige Autosegmentierungsprozess beinhaltet eine ähnliche Folge von Operationen wie der zuvor beschriebene manuelle Modellierungsprozess. Eine Punktwolke wird segmentiert, primitive geometrische Objekte werden an die Punktgruppen angepasst und Modellierungsoperationen wie Erweiterung und Schnittpunkt werden dann verwendet, um das Modell zu vervollständigen. In diesem neuartigen Prozess wird die Automatisierung auf jeden dieser Schritte wie auch auf den Gesamtprozess angewendet, wie unten beschrieben.
  • Unter Einsatz von Varianten üblicher maschineller Sehverfahren ist es möglich, die Scanpunkte automatisch in Gruppen zu unterteilen, die primitive geometrische Formen darstellen. Ein gerastertes Scanfeld wird etwa so wie eine reguläre Bitmap in einer zweidimensionalen Anordnung von Punkten gespeichert. Das Scanfeld unterscheidet sich von einer Bitmap insofern, als an jedem Ort mehr Information als nur eine Farbe gespeichert ist. An jedem Punkt ist dessen Raumlage, aus der die Entfernung vom Scanner berechnet werden kann, wie auch die Intensität des zurückkehrenden Laserpulses gespeichert. Die Tiefeninformation, die aus der an den Punkten gespeicherten dreidimensionalen Position berechnet werden kann, ist für den hier beschriebenen automatisierten Segmentierungsalgorithmus entscheidend, auch wenn viele Operationen wie Filtern, Rating, Thresholding (Schwellwertbildung) und Thinning üblicherweise eingesetzte Bildmanipulationsoperationen sind.
  • Die erste Stufe des Autosegmentierungsprozesses besteht darin, die Oberflächennormale an jedem Punkt im Raster zu schätzen. Dies kann unter Einsatz vieler verschiedener Verfahren erreicht werden; die derzeitige Ausführungsform der Software passt eine Ebene an die nächsten Nachbarn des Punktes in dem ihn umgebenden 3 × 3-Raster an. Die Normale der sich ergebenden Ebene wird als die Normale zum Mittelpunkt angenommen. Für jeden Punkt im Raster wird auf die gleiche Weise eine Normale berechnet, ausser dass bei Kanten- und Eckpunkten die fehlenden Nachbarn in der Normalen-Berechnung ignoriert werden. Die an jedem Punkt gespeicherte Normale ist ein dreidimensionaler Vektor, der auf Einheitslänge normalisiert ist.
  • Auf der zweiten Stufe werden zwei Ratingbilder geschaffen, indem Standard-Kantenerkennungsfilter über das Raster gerollt werden. Das erste Ratingbild wird geschaffen, indem die Tiefe des Rasterpunktes mit einem Kantenerkennungsfilter zusammengerollt wird, um Tiefendiskontinuitäten zu identifizieren, wie sie an einer eingeschlossenen Kante auftreten würden. Eine Vielzahl von Kantenerkennungsfiltern kann verwendet werden, aber das Filter verarbeitet nicht die Farbe oder Intensität, sondern die an jedem Rasterpunkt gespeicherte Tiefeninformation.
  • Das zweite Ratingbild wird geschaffen, indem die Normale mit einem Kantenerkennungsfilter zusammengerollt wird. Das Ratingbild der Normalen besteht eigentlich aus drei Unterbildern, die aus einem Zusammenrollen mit der x-, y- und z-Komponente der Normalen geschaffen wird. Die sich ergebenden drei Werte werden kombiniert, indem die Quadratwurzel aus der Summe der Quadrate gezogen wird, um je Punkt einen skalaren Wert zu gewinnen. Das zweite Ratingbild wird verwendet, um normale Diskontinuitäten wie die, die an der Kante zwischen einer Wand und einem Fussboden auftreten, zu identifizieren. Wiederum kann eine weite Auswahl von Kantenerkennungsfiltern verwendet werden, aber die verwendeten Werte sind nicht Farbe oder Intensität, sondern normale Koeffizienten.
  • Nachdem die zwei Ratingbilder erzeugt worden sind, müssen sie getrennt zu binären Bildern umgewandelt werden. Herkömmliche Algorithmen des maschinellen Sehens wie rekursives Thresholding können verwendet werden, um diese Aufgabe zu lösen. Jeder Punkt im Tiefen- und Normalenratingbild enthält eine Schätzung des Gradienten der Tiefe bzw. der Normalen. Rekursives Thresholding kann verwendet werden, um die Gebiete mit dem höchsten Gradienten zu isolieren. In den anfallenden binären Bildern sind die Punkte in den Bereichen mit dem höchsten Gradienten als Kantenpunkte markiert, während die übrigen Punkte als Nichtkantenpunkte markiert sind.
  • Ein endgültiges binäres Bild wird geschaffen, indem ein Punkt als ein Kantenpunkt markiert wird, sofern er in einem der durch das obige rekursive Thresholding geschaffenen binären Bilder oder in beiden als ein Kantenpunkt markiert ist. Alle anderen Punkte werden als Nichtkantenpunkte markiert. Dieses Bild enthält alle Kantenpunkte, die die Grenzen zwischen Gruppen von Punkten auf verschiedenen Flächen beschreiben.
  • Der letzte Schritt des Punktaufteilungsprozesses besteht darin, einen Algorithmus zusammenhängender Komponenten zu verwenden, um die Punkte zu Gruppen zusammenzuführen, die durch Kanten getrennt sind. Punkte werden nur dann als zusammenhängend betrachtet, wenn sie vertikal oder horizontal im Raster benachbart sind, während diagonale Nachbarschaft nicht verwendet wird. Sehr einfache Algorithmen können verwendet werden, um die einmaligen Gruppen von Nichtkantenpunkten im Bild zu identifizieren. Jede Gruppe zusammenhängender Punkte wird dann aus dem anfänglichen Punktesatz herausgeschnitten, um eine neue Gruppe von Punkten zu bilden. Das Ergebnis dieses Algorithmus besteht in der Aufteilung der Punktemenge in eine Vielzahl von Punktegruppen, die je eine einzelne Oberfläche darstellen. Jede der neuen Punktegruppen kann durch ein geometrisches Primitiv angepasst werden, wie im nächsten Abschnitt beschrieben.
  • Nachdem die Scanwolke in Gruppen von Scanpunkten aufgeteilt worden ist, die auf verschiedenen Oberflächen liegen, besteht der nächste Schritt darin, Objekte an die gewünschten Oberflächen anzupassen. Eine Vielzahl von Methoden kann für diese Aufgabe eingesetzt werden. Die derzeitige Ausführungsform der Software kann den Objektanpassungsprozess auf zwei verschiedene Weisen durchführen. In der ersten Methode wird eine Reihe von Objekten an jede Punktegruppe angepasst und diejenigen Objekte werden ausgewählt, die die kleinsten Abstandsfehler zwischen den gemessenen Punkten und den angepassten Objektoberflächen ergeben. In der zweiten Methode werden die zuvor beschriebene quadrische Flächenanpassung sowie die sich ergebenden Hauptkrümmungen verwendet, um festzustellen, ob eine Ebene, ein Zylinder oder eine Kugel an eine spezifische Punktegruppe angepasst werden sollte. Andere Varianten dieser Lösungswege könnten ebenfalls verwendet werden, zum Beispiel progressives Commitment, wobei die Objekte in der Reihenfolge von einfachst bis kompliziertest angepasst werden und der Prozess anhält, sobald die mit der konkreten Anpassung verbundenen Fehler auf ein annehmbares Niveau absinken.
  • Die letzte Stufe des Autosegmentierungsprozesses erweitert, wo dies möglich ist, primitive Objekte, um vollständige Objektschnittpunkte zu schaffen, anstatt bei Scanpunktgrenzen aufzuhören. Unter Verwendung der Rasternatur der ursprünglichen Daten und der Kanteninformation aus dem oben beschriebenen Algorithmus der Punkteaufteilung können Objekte erweitert und geschnitten werden. Für alle Kanten, die sich aus Oberflächenschnittpunkten ergeben, die die oben beschriebenen Diskontinuitätskanten der Oberflächennormalen sind, kann man die Objekte auf beiden Seiten der Kante erweitern, um Schnittpunkte zu bilden.
  • Modellkommentierung
  • Um ein semantisch reiches 3D-Modell zusammenzustellen, können einzelne Teile in dem obigen geometrischen Modell mit zusätzlicher, möglicherweise nicht geometrischer Information kommentiert werden, zum Beispiel mit Materialbezügen oder Teilenummern. Diese Information kann über ein spezielles Fenster für die Anzeige von Objektattributen manuell eingegeben werden.
  • Der Benutzer kann ein einzelnes Teil im geometrischen Modell anklicken und über weitere Fenster solche zusätzlichen Daten wiederfinden. In ähnlicher Weise kann der Benutzer erbitten, dass alle Teile, die bestimmte Auswahlkriterien erfüllen, hervorgehoben werden.
  • Eine neuartige Methode wird auch für eine automatische Modellkommentierung verwendet. Bei dieser Methode wird das FDV 10 verwendet, um Balkenkodes zu scannen, die relevante Daten für jeden gegebenen Gegenstand enthalten. Standardisierte Lese- und Dekodierungstechniken für Balkenkodes werden verwendet, um die optischen Daten in nützliche digitale Daten umzuwandeln, die mit einem gegebenen Objekt verbunden sind, das zur gleichen Zeit wie der Balkenkode gescannt worden ist. Die erfassten Daten können wie oben für das manuelle Verfahren beschrieben angezeigt werden.
  • Geometrieanzeige und -abfrage
  • Auf das Modell kann auf verschiedene Art und Weise zugegriffen werden, darunter Zugriff über das Datenfenster 1610, wo das Modell wiedergegeben wird. Viele standardisierte Grafikschnittstellenverfahren können verwendet werden, um den Blick auf das Modell zu manipulieren; in einer bevorzugten Ausführungsform wird eine Crystal-Ball-Schnittstelle verwendet. Jedes sichtbare Objekt kann mit der Zeigevorrichtung ausgewählt werden; seine geometrischen Attribute können dann zusätzlich zu weiteren, an das Objekt angefügten Kommentaren angezeigt werden. Ein Durchschreiten des Datensatzes kann vereinfacht werden, indem Objekte in verschiedene Schichten gelegt und dann nur die interessierenden Schichten angezeigt werden. Indem die Anzahl wiedergegebener Objekte auf diese Weise verringert wird, erhöht sich die interaktive Leistungsfähigkeit des Programms. Zusätzlich zur Abfrage der geometrischen Eigenschaften der einzelnen Objekte können mehrere Standardwerkzeuge eingesetzt werden, um Abstände und Winkel zwischen Objekten zu messen. Weitere Standardtechniken können für Operationen wie Konturerzeugung, Ausschneiden von 2D-Schnitten und automatische Dimensionsbestimmung verwendet werden.
  • Das sich ergebende Modell kann für weiteres Editieren oder Entwerfen zu jeder beliebigen Anzahl von CAD-Programmen exportiert werden. In der bevorzugten Ausführungsform kann die CGP 40 eine CAD-Datei in einem Format erstellen, das mit verschiedenen handelsüblichen CAD-Programmen verträglich ist, und dann das CAD-Programm starten, indem es veranlasst wird, die erzeugte Datendatei zu laden. Bei laufendem CGP- und CAD-Programm kann der Benutzer dann das Modell ansehen und damit arbeiten, indem er beide Programme verwendet.
  • Die folgenden Dokumente bilden einen integrierenden Bestandteil dieser Beschreibung:
    • – Modulare Zerlegung
    • – Zusammenfassung der vorgeschlagenen CGP-Leistungsbeschreibung
    • – Cyrax-Software-Leistungsbeschreibung
    • – Produktübersicht
    • – Sammlung von Schaudias
    • – Einführung und Überblick
  • Benutzerschnittstellenmodul
  • Der Benutzerschnittstellenmodul umschliesst alle Teile des Kodes, die die direkte Wechselwirkung des Benutzers mit der Funktionalität des Systems handhaben. Die Funktionalität der Software wird von der Benutzerschnittstelle für diese Funktionalität getrennt implementiert. Dadurch wird die mögliche Implementierung einer API erleichtert und sichergestellt, dass die Anwendung nicht an einen speziellen Stil der Benutzerschittstelle gebunden ist.
  • Dieser Modul besteht aus Teilen wie:
    • – Fensterverwaltung
    • – Menü, Symbolleiste und Erzeugung des Szenenbetrachters
    • – Event-Dispatching
    • – Aussehen der Benutzerschnittstelle (Farben, Iconenanordnung usw.)
  • Der Benutzerschnittstellenmodul steht in enger Wechselwirkung mit dem Modellbetrachtungsmodul, der die Anzeige der Objektedatenbank verwaltet. Der Benutzerschnittstellenmodul befasst sich nicht mit der Anzeige oder Verwaltung von graphischen Szenendarstellungen oder einer Auslese aus diesen Darstellungen. Diese Funktionalität wird in den Modellbetrachtungsmodul einbezogen.
  • Dieser Modul wird auch stark auf den Finite-State-Machine-Modul abstellen, der die erforderlichen Grundwerkzeuge zur Verfügung stellt, um den sich verändernden Zustand und die Rückkopplung der Benutzerschnittstelle zu steuern und festzulegen, welche Funktionen des Systems für den Benutzer zu jeder gegebenen Zeit zur Verfügung stehen.
  • Modellbetrachtungsmodul
  • Der Modellbetrachtungsmodul umschliesst alle Funktionalität, die die Anzeige der Objektedatenbank und die Anzeige von Rückkopplung und Hilfsdaten in der Objektszene betrifft. Der grösste Teil der Grundfunktionalität steht durch Inventor zur Verfügung, aber eine starke Kapselung dieses Moduls soll eine Abhängigkeit von Inventor verhindern.
  • Die Auslese von Objekten in einer Szene sollte von einem separaten Modul aus erfolgen (der in einer vereinfachten Implementierung die Auslesefunktionalität dieses Moduls aufruft), um die Implementierung schneller Auslesemechanismen unter Verwendung einer Raumdatenbank zu ermöglichen.
  • Dieser Modul besteht aus Teilen wie:
    • – Konstruktion visueller Objektschnittstellen aus geometrischen Objekten
    • – Szenenwiedergabe
    • – Einstellung von Wiedergabeoptionen (Beleuchtung, Schattierung, Textur usw.
    • – Änderung des Standpunkts
    • – Hervorhebe- und Feedbackoperationen
  • Der Modellbetrachtungsmodul steht in enger Wechselwirkung mit dem Benutzerschnittstellenmodul, um eine interaktive Betrachtung zur Verfügung zu stellen. Wegen der interaktiven Betrachtungsfunktionalität, die durch den Inventor-Viewer zur Verfügung gestellt wird, kann eine Trennung von interaktiver Blickmanipulation (die typischerweise zum Benutzerschnittstellenmodul gehört) von der Szenenverwaltung schwierig oder möglicherweise unerwünscht sein. Der Benutzerschnittstellenmodul wird auf durch diesen Modul zur Verfügung gestellte Funktionalität zurückgreifen, um Rückkopplung innerhalb der Szene zu liefern, indem Operanden zu Werkzeugen, ausgewählten Objekten usw. angezeigt werden.
  • Der Modellbetrachtungsmodul ist eng mit dem Datenbankmodul und den darin enthaltenen geometrischen Objekten gekoppelt. Geometrische Objekte werden in der Datenbank und der Szene separat gespeichert, so dass Sorge getragen werden muss, die Konsistenz der Objektdatenbank mit der durch den Benutzer betrachteten Szene zu gewährleisten. Diese Trennung ermöglicht Operationen wie die Betrachtung von Untermengen der Datenbank, die Hervorhebung eines Objekts als Rückkopplung zu einem Werkzeug und die intuitive Verwendung räumlicher Hierarchien innerhalb der Datenbank.
  • Finite-State-Machine-Modul
  • Der Finite-State-Machine-Modul (FSM-Modul) umschliesst die Idee eines erweiterbaren Systems, um eine Sammlung von Zuständen, in diesen Zuständen ausgeführten Aktionen, erlaubten Übergängen zwischen Zuständen und Entsprechungen zwischen Ereignissen und Übergängen zu beschreiben. Der Benutzerschnittstellenmodul greift stark auf den FSM-Modul zurück, um festzustellen, welche Werkzeuge und Objekte zu jeder gegebenen Zeit zur Auswahl stehen.
  • Der Finite-State-Machine-Modul besteht aus Teilen wie:
    • – Event-Handling
    • – Werkzeuge als nicht zugänglich markieren (grau darstellen)
    • – Nach einem Fehler den richtigen Zustand einstellen
    • – Implementierung von Aufrufwerkzeugen
    • – Anzeige von Handling-Operanden
  • Der Finite-State-Machine-Modul ist wegen der Notwendigkeit einer exakten Vorgabe des Zustandes der Benutzerschnittstelle schwierig, obwohl diese erweiterbar ist. Daher können Menüteile für ein Werkzeug, das vielleicht nicht existiert, während ein anderes Werkzeug geschaffen wird, grau erscheinen, wenn dieses andere Werkzeug ausgewählt wird.
  • Datenbankmodul
  • Der Datenbankmodul umschliesst die Speicherung und Wiedergewinnung der durch die Anwendung erzeugten Daten. Er sollte in durchsichtiger Art und Weise einen raschen Zugriff auf diese Daten liefern, gleichviel ob sie auf Festplatte oder im Speicher gespeichert sind. Dieser Modul sollte so ausgelegt werden, dass ein Client-Server-Modul ermöglicht wird, in dem mehrere Clienten an der gleichen Datenbank tätig sind.
  • Ein Schema für die Herausnahme von Objekten zur Verwendung in einer Operation erscheint ebenso wie eine Möglichkeit des Lachens (unter der Annahme, dass Festplattenunterstützung für die Datenbank zur Verfügung steht) als notwendig. Die Datenbank sollte eine allgemeine Struktur liefern, der für einen effizienteren Betrieb eine räumliche Hierarchie auferlegt werden kann. Eine strukturelle Hierarchie und ein Instancing sollten ebenfalls zur Verfügung stehen.
  • Der Datenbankmodul besteht aus Teilen wie:
    • – Hinzufügen geometrischer Objekte und Bilder zur Datenbank
    • – Zurückgewinnung geometrischer Objekte und Bilder aus der Datenbank
    • – Festplattenspeicherung und Cachen
    • – Eingabe/Ausgabe von Objekten in die/aus der Datenbank für Editieroperationen
  • Der Datenbankmodul wird eng mit einem gossen Teil des Systems gekoppelt sein. Alle Moduln, die geometrische Objekte verarbeiten, sind mit diesem Modul gekoppelt.
  • Eingabe-Ausgabe-Modul
  • Der I/O-Modul umschliesst den Übergang der geometrischen Datenbank von einem Laufzustand in einen Ruhezustand und zurück. Der I/O-Modul umschliesst auch die Übersetzung einer geometrischen Datenbank in verschiedene CAD-Formate Dritter (DXF usw.) sowie den Aufbau einer internen geometrischen Datenbank aus solchen Formaten.
  • Der I/O-Modul besteht aus Teilen wie:
    • – Datenbank sichern/laden
    • – Sichern als ...
    • – Importieren aus ...
  • Der I/O-Modul ist eng mit dem Datenbankmodul und mit dem Modul geometrischer Objekte gekoppelt.
  • Modul geometrischer Objekte
  • Der Modul geometrischer Objekte umschliesst die verschiedenen geometrischen Primitive, die durch das System unterstützt werden. Der Modul wird Untermoduln für jeden der Primitiven enthalten und die Grundfunktionalität zur Verfügung stellen, die durch die verschiedenen Werkzeuge im Werkzeugmodul zugänglich ist. Die Primitiven sollten ein ziemlich kleiner, endlicher Satz von Objekten sein. Zusätzlich wird es ein Gruppenobjekt geben, das eine Sammlung primitiver Objekte ist. Es ist nicht wünschenswert, ein Primitiv für jedes mögliche interessierende Objekt (Rohrleitungsknie, Leiter uws.) zu haben.
  • Der Modul geometrischer Objekte wird eng mit dem Datenbankmodul wechselwirken, der die dauerhafte Speicherung von geometrischen Objekten und den Beziehungen zwischen ihnen liefert (siehe auch Abhängigkeitsmodul). Der Modul geometrischer Objekte wird auch eng mit dem Modellbetrachtungsmodul Wechselwirken, der eine parallele visuelle Darstellung von geometrischen Objekten speichert und anzeigt. Der grösste Teil der Systemfunktionalität für geometrische Objekte wird in Werkzeugen innerhalb des Werkzeugmoduls verkapselt sein, so dass zum Beispiel bei Vorgabe von zwei Ebenen ein Werkzeug für Linien aus zwei Ebenen einen Linienconstructoraufruf erzeugt, statt dass ein Constructor zu einem Linienobjekt hinzugefügt wird, um eine Linie aus zwei Ebenen zu erzeugen. Hier wird ein Modell befolgt, das eine Erweiterbarkeit nicht durch die Veränderung existierender primitiver Objekte, sondern durch das Hinzufügen neuer Werkzeuge unterstützt.
  • Der Modul geometrischer Objekte besteht aus Teilen wie:
    • – Facetten-, Punkt-, Kanten-, Linien- und Zylinderkonstruktion
    • – Erzeugung von Aufrufen an den Modellbetrachtungsmodul, um die Anzeige eines Objekts zu schaffen
    • – Veränderungen an einem Objekt wie Position, Ausrichtung, Farbe usw.
    • – Abfragen bezüglich der Geometrie eines Objekts wie zum Beispeil der Umgrenzungsbox
  • Abhängigkeitsmodul
  • Der Abhängigkeitsmodul umschliesst die Idee einer historischen Genese der geometrischen Datenbank. Objekte werden aus anderen Objekten erzeugt, und das System zeichnet diesen Erzeugungsprozess so auf, dass er automatisch wiederholt werden kann, wenn an den Vorfahren bestimmter Daten Änderungen oder Hinzufügungen angebracht werden.
  • Dieser Modul steht in enger Wechselwirkung mit dem Datenbankmodul und wird seine Daten darin speichern. Die Abhängigkeitsinformation ist ein Teil des geometrischen Moduls und muss dauerhaft gespeichert werden. Eine starke Verkapselung dieser Abhängigkeitsdaten ist wünschenswert, damit geometrische Primitive keine Daten über ihre Genealogie zu unterhalten brauchen.
  • Der Abhängigkeitsmodul besteht aus Teilen wie:
    • – Aufzeichnung der Operationen und Operanden, die für die Erzeugung eines geometrischen Objekts erforderlich sind
    • – Regeneration aller Nachkommen eines veränderten Objekts
  • Undo-Modul
  • Der Undo-Modul umschliesst die Laufzeitgeschichte eines Benutzers an einer geometrischen Datenbank. Der Undo-Modul zeichnet einen Stapel von Aktionen auf, die erforderlich sind, um Operationen in der umgekehrten Reihenfolge ihrer Ausführung durch einen Benutzer rückgängig zu machen. Jedes ein Undo ermöglichende Werkzeug im Werkzeugmodul wird einen Aufruf mit Operanden zur Verfügung stellen, die die Aktionen dieses Werkzeuges umkehren, wenn betätigt.
  • Der Undo-Modul liefert Funktionalität, um
    • – die Undo-Aufrufe und Operanden zu speichern
    • – diese Undo-Aufrufe auf Anfrage hin anzuwenden und einen Redo-Stapel zu erzeugen
  • Der Undo-Modul steht in enger Wechselwirkung mit dem Werkzeugmodul, da jedes undo-bare Werkzeug geeignete Aufrufe an den Undo-Modul liefern muss. Obwohl mit dem Datenbankmodul in enger Wechselwirkung stehend, speichert der Undo-Modul seine Daten nicht im Datenbankmodul, da es keine im geometrischen Modell benötigte Information aufzeichnet, sondern eine Sitzung mit einem Benutzer.
  • Werkzeugverwaltermodul
  • Der Werkzeugverwaltermodul umschliesst, was an erweiterbarer Funktionalität für den Benutzer zur Verfügung gestellt wird. Der Werkzeugmodul ist der Schlüsselpartner für die Erweiterbarkeit des Systems. Das Hinzufügen einer neuen Funktionalität zum System fällt mit dem Hinzufügen eines neuen Werkzeugs zusammen.
  • Von den Werkzeugen wird erwartet, dass sie eine Standardmethode des Aufrufs, eine Methode der Auswahl von Parametern, eine Erweiterung der Benutzerschnittstelle, eine Erweiterung des Hilfesystems und eine Implementierung der Werkzeugfunktionalität liefern. Werkzeuge müssen den Benutzerschnittstellenmodul und den Modellbetrachtungsmodul anweisen, dem Benutzer geeignete Rückkopplung zu liefern und Abbruch durch den Benutzer oder interne Fehler (siehe Fehlermodul) elegant zu handhaben.
  • Der Werkzeugverwaltermodul besteht aus Teilen wie:
    • – ein Werkzeug mit der Anwendung zur Deckung bringen
    • – ein Werkzeug aufrufen, wenn durch die Benutzerschnittfläche verlangt
    • – neu auslegen, wie ein Werkzeug aufgerufen wird
  • Der Werkzeugverwaltermodul steht in enger Wechselwirkung mit dem Benutzerschnittstellenmodul und mit dem Finite-State-Machine-Modul sowie mit dem Werkzeugkitmodul, der die eigentlichen Werkzeuge zur Verfügung stellt, die der Werkzeugverwalter verwaltet. Der Finite-State-Machine-Modul lässt den Werkzeugverwalter Anweisungen an den Benutzerschnittstellenmodul geben, wie dieser sich verhalten soll, wenn ein Werkzeug ausgewählt oder benutzt wird.
  • Werkzeugkitmodul
  • Der Werkzeugkitmodul ist eine erweiterbare Sammlung von Werkzeugobjekten, deren jedes zur Verwaltung an den Werkzeugverwaltermodul übergeben werden kann. Werkzeuge umschliessen die Funktionalität des System, das dem Benutzer zur Verfügung gestellt wird. Jedes Werkzeug stellt eine Standardmethode des Aufrufs, eine Methode für die Parameterauswahl, eine Erweiterung der Benutzerschnittstelle (über den FSM-Modul) für werkzeugspezifische Rückkopplung zum Benutzer, eine Erweiterung des Hilfesystems und eine Implementierung der Werkzeugfunktionalität (einschliesslich der Aufrufe des Datenbankmoduls und des Moduls geometrischer Objekte, Geometrie zu erzeugen, zu vernichten und zu editieren) zur Verfügung.
  • Der Werkzeugkit besteht aus allen Teilen der Systemfunktionalität, die nicht an anderer Stelle in der Auslegung[sbeschreibung] beschrieben sind.
  • Fehlermodul
  • Der Fehlermodul umschliesst den allgemeinen Fehlerbehandlungsmodul des Systems. Dieser Modul wird überall im System verwendet werden und wird es ermöglichen, Fehlerhandler, das Berichten von Fehlern an den Benutzer (über Aufrufe des Benutzerschnittstellenmoduls), das Hinzufügen von Feststellungen innerhalb des Codes und die Meldung von Fehlern bei falsch getroffenen Feststellungen zur Verfügung zu stellen. Dieser Modul wird wahrscheinlich das Hinzufügen einiger Grundkonstrukte zum Kodierparadigma erfordern.
  • Der Fehlermodul besteht aus Teilen wie:
    • – Fehlerhandlern
    • – Feststellungen
    • – Fehlermeldung
    • – Fehlerberichten
  • Der Fehlermodul wird mit allen Moduln des Systems in Wechselwirkung treten und muss so implementiert werden, dass seine Gegenwart für den Programmierer so wenig aufdringlich wie möglich erscheint.
  • Hilfemodul
  • Der Hilfemodul umschliesst eine erweiterbare, kontextempfindliche Online-Anleitung. Das Hilfesystem wird sowohl eine seitenorientierte allgemeine Anleitung als auch abgekürzte Kontexthilfeinformation („Was tue ich jetzt?") liefern. Jedes Werkzeug wird eine Erweiterung des Hilfesystems sowie Verknüpfungen zu dieser Erweiterung innerhalb seiner Finite-State-Machine liefern, um Kontextempfindlichkeit zu ermöglichen.
  • Der Hilfemodul besteht aus Teilen wie:
    • – Anzeige und Surfen von Hilfeseiten
    • Katalogisierung und Suche von Hilfeinformation
    • – Interaktive Bildschirm-Hilfenachrichten
  • Der Hilfemodul wird mit dem Werkzeugkitmodul und dem Werkzeugverwaltermodul sowie auch mit dem Benutzerschnittstellenmodul in enger Wechselwirkung stehen.
  • Datensammelmodul
  • Der Datensammelmodul umschliesst die Erfassung von Daten aus der physischen Welt. Datenerfassungsgegenstände wie Scanner und Kameras sind Objekte innerhalb dieses Moduls. Der Datensammelmodul liefert eine Sammlung von Befehlen, die an einem Stück der Datensammelhardware ausgeführt werden können, sowie Mechanismen für die Rückgabe von Daten durch die Hardware zum System. Ein erweiterbares Datensammelsystem würde verlangen, dass die Datensammelhardware eine Benutzerschnittstellenerweiterung zur Verfügung stellt, um Parameter für diese Hardware auszuwählen oder diese Hardware anzuweisen, Datensammelaufgaben auszuführen.
  • Der Datensammelmodul besteht aus Teilen wie:
    • – Kommunikation mit Kameras und Scannern
    • – einer Benutzerschnittstelle für die Erzeugung von Befehlen und den Datenempfang von den Vorrichtungen
    • – Aufruf der Systemfunktionalität, Daten zur Datenbank hinzuzufügen
  • Der Datensammelmodul steht in enger Wechselwirkung mit dem Datenbankmodul und mit dem Benutzerschnittstellenmodul.
  • Registriermodul
  • Der Registriermodul umschliesst den Prozess, zwei geometrische Datenbanken in Register zu bringen und zu kombinieren. Der Registriermodul schliesst ein Verfahren zur Auswahl von zwei geometrischen Datenbanken, ein Verfahren zur Vorgabe von Entsprechungen zwischen den Datenbanken und ein Verfahren für den Aufbau einer zusammengefassten geometrischen Datenbank aus zwei getrennten geometrischen Datenbanken ein.
  • Der Registriermodul steht in enger Wechselwirkung mit dem Datenbankmodul und mit dem Benutzerschnittstellenmodul.
  • Schichtenmodul
  • Der Schichtenmodul umschliesst die Gegenwart von mit Namen versehenen Sätzen von Objekten innerhalb einer geometrischen Datenbank und eine Sammlung von Werkzeugen, die die selektive Anzeige und Bearbeitung solcher Sätze ermöglichen. Der Inhalt dieses Moduls ist derzeit schlecht definiert.
  • Es wäre zu erwarten, dass der Schichtenmodul in enger Wechselwirkung mit dem Datenbankmodul und dem Modellbetrachtungsmodul steht.
  • Modul abstrakter Datentypen
  • Der Modul abstrakter Datentypen umschliesst eine Sammlung allgemein einsetzbarer, abstrakter Datentypen, die von den für diese Anwendung spezifischen Datentypen getrennt werden können.
  • Der Modul abstrakter Datentypen besteht aus Teilen wie:
    • – Stapel
    • – Warteschlange
    • – Einfach und doppelt verknüpfte Listen
    • – Hashtabelle
    • – Heapspeicher
  • Der Modul abstrakter Datentypen wird in praktisch jedem anderen Modul verwendet werden.
  • Zusammenfassung der vorgeschlagenen CGP-Leistungsbeschreibung
  • Leistungsumfang intelligenter Elemente
    • 1. Geometrie wird anfänglich als eine Punktwolke dargestellt; später als ein Mesh, ein von einer Bibliothek oder einem Katalog kopiertes, detailliertes Modell oder als ein interaktiv erzeugtes, vereinfachtes Modell.
    • 2. Diese Geometrie kann mit Farbe, Intensität, Textur oder sogar Videodaten überhöht werden, die zu den individuellen Oberflächen des Elements hinzugefügt werden.
    • 3. Mehr als eine Darstellung ist für jedes Element möglich. Zuerst können mehrere geometrische Proxies auf verschiedenen Ebenen der Vereinfachung oder aber Abstraktionen existieren, die gewählt werden können, um die Wiedergabe effizienter und die erzeugten Ansichten weniger überfrachtet zu gestalten. Weiter können symbolische Darstellungen für schematische Wiedergaben wie Stockwerkpläne, Aufrisse oder isometrische Rohrzeichnungen existieren. Es existieren eventuell sogar intelligente Modelle, die für bestimmte Arten von Simulationen geeignet sind.
    • 4. Elemente können für ihre Klassifizierung mit Tags oder „Schichten"-information versehen werden. Bei der Erstellung eines Modells für eine Produktionsstätte oder Raffinerie kann der Benutzer Tags aus früher definierten hierarchischen Menüs wählen; zum Beispiel könnten für die erste Ebene gewählt werden:
    • • Tragende Struktur – Wartungskorridore – Rohrsysteme – andere ... Auf einer zweiten Ebene innerhalb der Kategorie der „Rohrsysteme" könnten zu finden sein:
    • • Dampf – Wasser – Gas – Öl – Alkohol ...
    • 5. Willkürliche Textinformation kann über ein Textfenster an jedes Element angefügt werden. Diese kann zusammenfassende Information aus einem Katalog oder Anmerkungen zur Modellierung enthalten.
    • 6. Elemente können mit anderen Daten verknüpft werden, die in externen Datenbanken enthalten sind, wie der Typ eines Ventils oder einer Pumpe, deren Nennleistung, Hersteller, Wartungsplan usw. Diese Daten aus einer externen Datenbank können die Gestalt einer hyperverknüpften Datenbank haben. Sie wird im Kontext des Viewers für diese Datenbank betrachtet und durchgeblättert.
    • 7. Es könnte nützlich sein, explizite Connectivity-Information zu besitzen. Während die logische Verbindung zwischen Rohrleitungen oder elektrischen Leitungen ausserhalb der anfänglichen Aufgaben der CGP sein mag und später aus den impliziten geometrischen Beinahe-Übereinstimmungen bestimmter Elemente abgeleitet werden könnte, ist es vielleicht nützlich, solche Nachbarschaftsinformation zu sichern, wenn sie zuerst aufgefunden wird. Wenn zum Beispiel ein zusammenhängendes Mesh in mehrere Elemente wie eine Pumpe, ein Rohr und ein Ventil aufgelöst wird, könnten die Schnittlinien des anfänglichen Meshes verwendet werden, um explizite Information über die Berührungsstellen zwischen den Teilen, denen diese Schnittlinien gemein sind, zu erstellen. Diese Information wird es später ermöglichen, den Verlauf verbundenen Rohrleitungselemente sehr viel wirkungsvoller zu finden und herauszuziehen.
  • Funktionalität des Gesamtsystems
  • Verwaltungswerkzeuge
    • 1. Auf dem Niveau des Gesamtsystems („OS": overall system) stellt das System die Befähigung zur Verfügung, die Scanverwaltung und die Videoaufnahmen zu steuern. Später stellen wir vielleicht eine Benutzerschnittstelle zur Verfügung, um stärker selektive Möglichkeiten zur Verfügung zu stellen, die Gebiete anzuzeigen, die gescannt werden müssen. Eine Option ist das Paradigma des „dicken Pinsels", wobei der Benutzer Besonderheiten umringt, die in das Modell aufgenommen werden sollten; das System sucht und findet dann die entsprechenden Besonderheiten in der Wirklichkeit und wählt automatisch einen geeigneten Scanbereich für die ausgewählte Kante, Rohrleitung oder Doppel-T-Träger aus.
    • 2. Ebenfalls auf dem OS-Niveau stellt das System die Befähigung für ein wirksames Multitasking zur Verfügung, so dass mehrere Fenster gleichzeitig geöffnet werden können, die Einblick in einen oder mehrere Kataloge oder Datenbanken gewähren, während ein Scanprozess oder eine Modellierungsoperation im Gange sind.
    • 3. Es wird Möglichkeiten für die Datenverwaltung der gescannten Sätze von Punkten und für gesammelte Videobilder geben, ebenso Möglichkeiten, diese zu etikettieren und für Archivzwecke abzulegen.
  • Modellierwerkzeuge
    • 4. Auf dem Niveau der „reinen Geometrie" ermöglichen Grundwerkzeuge eine Auswahl von Untermengen der gescannten Punkte und eine manuelle Seg mentierung. Meshes können über die gescannten Punkte gepasst und heuristisch an möglichen Horizontlinien unterbrochen werden, wo plötzliche, dramatische Veränderungen in den Tiefenkoordinaten auftreten. Wenn erforderlich, können diese Meshes vereinfacht werden. Ebene Polygone können an ausgewählte Anteile dieser Meshes oder an Untermengen der ursprünglichen gescannten Punkte angepasst werden. Vermessungspunkte können etabliert werden; Linien zwischen ihnen können gezeichnet werden; und Bruchlinien zwischen Polygonen oder Anteilen eines Meshes können angelegt werden.
    • 5. Auf dem Niveau der „diskreten Elemente" erlauben Werkzeuge, dass Sammlungen reiner geometrischer Teile zusammengefasst und als ein Element benannt werden, das dann mit weiteren Daten versehen werden kann. Abschnitte eines Meshes könnten durch Modelle aus einem Katalog oder einer Bibliothek oder mit einem symbolischen geometrischen Proxy ersetzt werden. Rückseiten sollten eventuell solchen Modellen intelligent hinzugefügt, Ausreisser-Punkte eliminiert und das Modell allgemein gesäubert und bestimmten Konsistenzprüfungen unterworfen werden.
    • 6. Diese Elemente können mit Farb-, Intensitäts-, Textur- oder Texturbelegungsinformation versehen werden. Weitere Attribute können diesen Objekten zugewiesen werden, und verschiedene Arten von Verknüpfungen können hergestellt werden.
    • 7. Sätze von Objekten können interaktiv ausgewählt und hierarchisch gruppiert werden.
    • 8. Eine Ansichtenintegration zwischen von verschiedenen Kamerastellungen aus aufgenommenen Ansichten wird zur Verfügung gestellt:
    • • Paarweise Ansichtenausrichtung auf der Basis von Registermerkmalen oder auf der Basis eines Optimierungsprozesses, mit dem versucht wird, überlappende Anteile zweier Meshes durch Minimierung ihrer gegenseitigen Abstände in Register zu bringen.
    • • Datenmerging durch gewichtete Durchschnittswertbildung von Lageparametern diskreter Elemente oder durch Zusammenziehen zweier überlappender Meshabschnitte.
    • • Herstellung eines globalen Abschlusses durch intelligente Verteilung des Abschlussfehlers über zuvor aufgestellte paarweise Ansichtendeckungen. <Dies ist ein schwieriges Problem, über das sorgfältig nachgedacht werden muss.>
  • Visualisierung
    • 9. Zu jeder beliebigen Zeit während des Prozesses der Datenerfassung oder der Modellierung können die vorhandenen geometrischen Daten interaktiv entweder in einem „Crystal-Ball/Modell-in-der-Hand"-Paradigma oder in einem „Walkthrough"- (Durchwander-) Modus betrachtet werden. Zu einem späteren Zeitpunkt werden wir die geeigneten räumlichen Datenstrukturen und Verwaltungsschemata hinzufügen, um ein Walkthrough bei interaktiven Geschwindigkeiten zu ermöglichen, selbst wenn das Modell sehr gross ist (mehr als 1 000 000 Polygone).
    • 10. Verschiedene Moden für die Datenwiedergabe werden zur Verfügung gestellt werden: Punktwolke – Wireframe – versteckte Linien eliminiert, schattierte, aber als Silhouette sichtbare Gesichter zeigend – flach schattierte Facetten – nach Gouraud weich schattierte Meshes.
    • 11. Schematische und symbolische Darstellungen wie Stockwerkpläne und Aufrisse werden zur Verfügung stehen, die 2D-Proxies für verschiedene Komponenten verwenden können, um das Ergebnis effizienter und wirksamer zu machen. Mittelliniendarstellungen für Rohrleitungen oder symbolische Momentenrahmengitter für Stahlstrukturen können vorhanden sein. Auch ISO-Zeichnungen von Rohren und vielleicht PID-Prozesszeichnungen können vorhanden sein.
  • Datenbankabfragen
    • 12. Geometrische Information kann jederzeit aus dem Modell herausgezogen werden. Schnitte können hergestellt und die Entfernungen zwischen zwei Punkten oder Winkel zwischen zwei Ebenen herausgezogen werden.
    • 13. Durch die Auswahl diskreter Elemente auf bestimmte Art (z.B. Doppelklick) kann die Information über Attribute, die mit einem solchen Element verbunden ist, aus der Datenbank geholt werden. Wenn diese Information umfangreich ist und als hyperverknüpftes Dokument formatiert ist, dann wird der entsprechende Datenbankbrowser geöffnet und die Stammseite für dieses Objekt präsentiert.
  • Datenaustausch mit anderen Systemen
    • 14. Daten, die innerhalb der CYRAX CGP erzeugt wurden, können in einem ASCII-Textformat als „.crx"-Dateien exportiert werden. Das .crx-Format sollte in der Lage sein, alle Daten zu kodieren, die im CYRAX-Modell unabhängig enthalten sind. Dadurch sollten anspruchsvolle Benutzer in die Lage versetzt werden, externe Programme aufzubauen, die die CYRAX-Modelle nach spezialisierten Analysen (wie Abzählung aller Elemente eines bestimmten Typs) durchsuchen oder globale Modifizierungen eines solchen Modells (zum Beispiel den Ersatz aller Doppel-T-Träger eines bestimmten Typs) ausführen können, ohne irgendein anderes Datenbanksystem heranziehen zu müssen.
    • 15. Wir werden einige Umsetzer für existierende beliebte Datenbanken wie AutoCAD oder MicroStation zur Verfügung stellen, die die im .crx-Datenstrom enthaltene Information richtig in diese Datenbanken einfügen werden. Umgekehrt werden wir auch einige Umsetzer zur Verfügung stellen, die für CYRAX CGP relevante geometrische Information herausziehen und in unsere eigene Modellierumgebung einbringen.
    • 16. Am Anfang planen wir nicht, eine vollständige, intelligente Produktmodelldatenbank zur Verfügung zu stellen, in der sämtliche zusätzliche Information gespeichert werden kann, die mit irgendeinem diskreten Modellelement verbunden ist; wir bauen darauf, dass die Benutzer von CYRAX ihre eigenen, etablierten Datenspeichereinrichtungen verwenden. Wir werden aber die Möglichkeit schaffen, über ein auf dem OS-Niveau geöffnetes, getrenntes Fenster Zugang zu solchen Datenbanken zu erlangen. Verknüpfungen zwischen nicht zu CYRAX gehörenden Daten kann dann direkt innerhalb dieser externen Datenbanken zwischen der geometrischen Darstellung eines Modellteils und beliebigen anderen Einträgen in der Datenbank, die relevant erscheinen, hergestellt werden.
  • Benutzerschnittstellenparadigmen
    • 17. Wir planen, eine saubere, auf Fenstern beruhende Benutzerschnittstelle zur Verfügung zu stellen, die (so weit wie es vernünftig erscheint) die etablierte Wechselwirkungskultur bei MicroStation und AutoCAD nachahmt. Das bedeutet, Icon-Paletten, Pull-down-Menüs sowie Tastatur-Kürzel zu verwenden.
    • 18. Im Bereich des Grafik-Editings werden wir „Snap-Dragging"-Verhalten zur Verfügung stellen, um Präzision und Geschwindigkeit in einer effizienten und benutzerfreundlichen Weise zu kombinieren.
    • 19. Für einige Anwendungsgebiete werden wir spezielle „Objektassoziationen" entwickeln, die eine Verhaltensheuristik liefern werden, mit der die Anzahl von Mausklicks, die ein Benutzer ausführen muss, um ein konkretes Ziel zu erreichen, bzw. die Anzahl von Freiheitsgraden minimiert werden kann, die ein Benutzer explizit in jeder Modellierungsoperation kontrollieren muss. Wir erwarten, dass die höheren symbolischen Darstellungsniveaus eines intelligenten Produktmodells zu interessanten Herausforderungen führen werden, wie die Eingabe komplexer Daten so einfach wie möglich gestaltet werden kann.
      Figure 00820001
      Figure 00830001
      Figure 00840001
      Figure 00850001
      Figure 00860001
      Figure 00870001
      von Alonzo C. Addison peripher beruhend auf: ,Voeller Spec', von JSD, 9. Juli 1995 ,surface.txt', von MB und Mitautoren, 1. August 1995 ,Datenbankthemen', von MB und Mitautoren, 30. Oktober 1995 ,CGP-Paradigmen', von MB und Mitautoren, 27. November 1995 ,Cyrax-Datenbankthemen', von CS, 23. Januar 1996 Vorschläge ,Fluor' und ,Chevron', Januar 1996 Systemfunktionalitätsdiskussion von BK, CS, ACA, gegen Ende Januar 1996
  • Produktübersicht
  • Die Field Digital Vision- (FDV: digitales Feldsehrvermögen) Einheit von Cyra Technologies stellt eine tragbare, schnelle und genaue Scantechnologie für Laserentfernungsmessungen im Feld zur Verfügung. Wie eine dreidimensionale Kamera wird das FDV auf ein Ziel gerichtet, das es dann scannt, um ein Entfernungsbild zu erzeugen. Ein Entfernungsbild ist wie ein digitales photographisches Bild, ausser dass jedes Pixel im Bild kein zweidimensionaler Farbpunkt, sondern ein Punkt im Raum ist. Das FDV ermöglicht es einem Benutzer, rasch dreidimensionale Daten über ein Objekt zu erfassen, indem Tausende von Punkten von diesem Objekt erfasst werden.
  • Solche Daten sind der Startpunkt für eine Vielzahl von Modellierungs-, Entwurfs- und Dokumentierungsaufgaben. Der Computer Graphics Perception- (CGP: graphische Computer-Wahrnehmung) Softwarekit liefert die erforderliche Funktionalität, um Sammlungen von Entfernungsbildern in intelligente dreidimensionale Modelle umzuwandeln. Diese Modelle können durch Vermesser erzeugt werden, während das FDV die Entfernungsbilder erzeugt, oder sie können aus den erfassten Daten durch CAD-Techniker im Büro erzeugt werden. Wegen des breiten Bereichs von Modellierungsaufgaben, -anforderungen und -paradigmen in den verschiedenen Gruppen, die sich mit dreidimensionalem Modellieren beschäftigen, ist die CGP so ausgelegt, dass ein allgemeiner Rahmen unterstützt wird, der leicht mit Standard-CAD-Werkzeugen, Software für Einrichtungsverwaltung und intelligente Modellierumgebungen integriert werden kann.
  • Die Funktionalität der CGP führt den Benutzer vom Entfernungsbild bis zu vollständigen, kommentierten intelligenten Modellen. Die Struktur, Einzelheiten und Inhalt des sich ergebenden Modells befinden sich unter der vollen Kontrolle des Benutzers und ermöglichen die Erzeugung von Modellenp, die von einer schnellen 10-Minuten-Visualisierung bis zu vielschichtiger intelligenter Einrichtungsdokumentation reicht. Die verschiedenen Formen des Modellierens, die verfügbar sind, lassen sich leicht und folgerichtig integrieren und ermöglichen die Koexistenz interessierender hoch detaillierter, kommentierter Untermodelle und automatisch erzeugter Shrinkwrap-Modelle niedriger Auflösung von ,Kontext'-Strukturen, die nur als Visualisierungshilfe dienen können.
  • Rahmen
  • Die CGP ist um eine Datenbank herum strukturiert (1). Die in der Datenbank gespeicherten Daten können von verschiedenen Quellen kommen, darunter rohe Entfernungsscans und Videobilder, die durch das FDV erzeugt wurden, geometrische Gebilde, die durch den CGP-Modellierprozess erzeugt wurden, geometrische Gebilde und damit verbundene, aus Katalogen importierte Produktedaten sowie Kommentierungsdaten wie Daten über die Wartung von Einrichtungen. Daten in der Datenbank werden entweder als ,intern' oder ,extern' klassifiziert, je nachdem ob der Inhalt der Daten für das CGP-System eine Bedeutung hat oder nicht. Interne Daten wie die Geometrie, Scanpunkte und geometrische Kommentare werden direkt von der CGP als Allzweckdaten verwendet, die gebraucht werden, um die Modellierbedürfnisse eines breiten Kreises von Benutzergemeinschaften zu erfüllen. In der Datenbank gespeicherte externe Daten sind nur im Zusammenhang mit allgemeinen Datenbankabfragen oder externer, anwendungsspezifischer Software von Bedeutung. Beispiele externer Daten sind zum Beispiel das Datum, an dem eine Pumpe in einer chemischen Anlage gewartet worden ist, der Hersteller eines bestimmten Teils oder der Zeiger zur Homepage des Konstrukteurs eines Architektursubsystems. Während interne Daten auf externe Datenelemente Bezug nehmen können, hat die CGP keine Möglichkeit, diese Daten zu verstehen, zu manipulieren oder zu präsentieren und muss sich auf externe Abfragen und externe Softwarepakete verlassen, um sie zu nutzen. Eine vollständigere Beschreibung dieses Konzepts wird im Abschnitt über „Intelligente Modellierung" vorgelegt.
  • Figure 00890001
    Figur 1: Der Rahmen
  • Der Prozess der Umwandlung von Entfernungsdaten in dreidimensionale Modelle, der typischerweise Realitätserfassung genannt wird, erscheint links von der Datenbank in 1. Rechts von der Datenbank finden sich zwei Aufgabentypen: Aufgaben, die die Vorlage der Daten an eine Benutzergemeinschaft beinhalten (die von einer einzel nen Person bis zu jeder Abteilung in einem chemischen Werk reichen kann), und Aufgaben, die den Import und Export von geometrischen Daten von und zu anderen Quellen beinhaltet. Diese Aufgaben sind nicht spezifisch für die Verwendung der FDV und beinhalten keine geometrische Konstruktion und Manipulation durch den Benutzer.
  • Der Realitätserfassungsprozess unterteilt sich in zwei Prozesse: Scannen und Modellieren. Die CGP liefert alle notwendigen Steuerungen, um den FDV-Scanner zu betreiben und Videobilder sowie Entfernungsscans zu erfassen, die beide in der Datenbank archiviert werden. Eine Kontrolle über die Menge der gesammelten Daten, die Auflösung dieser Daten und den genauen, zu scannenden Bereich wird dem Benutzer durch die Scansteuerwerkzeuge zur Verfügung gestellt.
  • In Abhängigkeit vom Typ des gewünschten Modells und vom Inhalt der Szene, die modelliert wird, werden durch die CGP drei Werkszeugkits zur Verfügung gestellt, um Entfernungsscans zu geometrischen Modellen zu entwickeln. Jeder dieser Werkzeugkits ist für einen besonderen Stil des geometrischen Modellierens optimiert, und daher wird erwartet, dass verschiedene Werkzeugskits für verschiedene Teile der Modellieraufgabe eingesetzt werden. Der Visual Magic-Werkzeugkit liefert die Funktionalität einer raschen Meshbildung für Allzweck-Modellkonstruktion von komplizierten Objekten oder Szenen. Der Prefab Lab-Werkzeugkit liefert Mechanismen für den Ersatz von Entfernungs- und Meshdaten durch vorgefertige Teile, deren Modelle aus externen Katalogen eingegeben werden oder Instanziierungen von Objekten sind, die unter Verwendung der CGP erzeugt worden sind. Der Structure Shop-Werkzeugkit liefert Punkt-, Linien- und Ebenenprimitive und verschiedene euklidische Operationen an diesen Primitiven, die für die Konstruktion einer einfachen strukturellen Geometrie wie zum Beispiel Architekturstrukturen nützlich sind. Im Abschnitt über „Objekttypen" wird eingehend beschrieben werden, dass Vorkehrungen für eine Interoperabilität der drei Werkzeugkits dem Benutzer des Systems ermöglichen zu wählen, welcher Werkzeugkit für eine gegebene Aufgabe zweckmässig erscheint, und um die Ergebnisse der verschiedenen Werkzeugkits dann zu einem einzigen, kohärenten Modell zu integrieren.
  • Das Anfrage- und Darstellungssystem ist ein visuelles Frontend der Datenbank, das es Benutzern ermöglicht, die externen Daten in der Datenbank zu betrachten, abzufragen und zu vermehren. Der Benutzer wird die Möglichkeit haben, durch die erzeugten Modelle und Untersysteme zu wandern, Teile der Datenbank zu visualisieren oder einfache Strukturdiagramme zu erzeugen. Externe Information wie Wartungspläne, die Namen von Untersystemen und Verweise auf andere Datenbanken können mit Objekten in der CGP-Datenbank verbunden werden. Diese Daten können während des ganzen Lebenszyklus des Echtweltsystems, das die Datenbank darstellt, durch eine Benutzergemeinschaft abgefragt, wiedergewonnen und aktualisiert werden.
  • Das Datenaustauschsystem ermöglicht es, die CGP mit vorhandenen CAD-Systemen zu koppeln. Diese Kopplung kommt in Gestalt von Datenumwandlungsroutinen zu und von verschiedenen CAD-Formaten zustande. Verkaufskataloge für Teile, die nicht unter Verwendung des FDV und der CGP erzeugt worden sind, können zur Verwendung im Prefab Lab in das System importiert werden. Ein Teil, das umkonstruiert werden muss, kann aus der CGP-Datenbank zu AutoCAD oder anderen CAD-Paketen zur Überarbeitung exportiert und dann in die CGP-Datenbank zurück importiert werden.
  • Die verschiedenen Systeme und Werkzeugkits der 1 sind aus der Benutzerperspektive straff in ein einziges, kohärentes System integriert. Der Benutzer arbeitet in der visuellen Umgebung von Fenstern, Iconen, Maus und Zeigern und bewegt sich einfach dadurch von Modul zu Modul, indem er ein anderes Menü herunterzieht oder auf eine andere Symbolleiste zugreift. Die meisten Operationen verlangen keine Tastatureingaben oder geheimnisumwobenen Befehlszeilenparameter, wie sie für viele CAD-Systeme typisch sind; stattdessen modelliert der Benutzer die Geometrie durch eine Auswahl von Befehlen aus einem kleinen, aber leistungsfähigen Werkzeugsatz und durch Anklicken der Objekte, auf die diese Befehle einwirken sollen. Visuelle Interaktivität ist der Schlüssel zur Nützlichkeit des Systems im Feld und daher ein Kernpunkt in der CGP-Entwicklung.
  • Dokumentenübersicht
  • Der Rest dieses Dokuments ist eine Leistungsbeschreibung der CGP in Gestalt eines benutzerorientierten Funktionalitätsführers des Systems auf hohem Niveau. Das Format ist knapp und doch anschaulich, sollte aber nicht mit einer vollständigen Beschreibung der Anforderungen verwechselt werden (die Einzelheiten über die Leistung, den Umgang mit Fehlern und andere Einzelheiten enthielte, die zum Zeitpunkt dieser Niederschrift verfrüht wären).
  • In ähnlicher Weise sollte dies nicht mit einer Leistungsbeschreibung einer fixierten Benutzerschnittstelle verwechselt werden, obwohl viele Funktionen beschrieben werden, indem gesagt wird, was der Benutzer tun muss, um eine Operation auszuführen („Der Benutzer klickt auf einen Satz von Punkten und danach auf das Ebenen-Werkzeug, um aus dem Punktesatz eine Ebene zu erzeugen."). Diese Beschreibung ist vielmehr nichts anderes als eine einfache Art, klar eine Operation zu beschreiben (in diesem Falle, die Punktesatz-zu-Ebene-Operation), die durch irgendeinen Benutzer-Schnittstellenmechanismus verfügbar sein wird. Benutzerstudien, Erstellung von Benutzerschnittstellen-Prototypen und letztendlich eine Benutzerschnittstellen-Leistungsbeschreibung werden vorausgehen, ehe die beste Art und Weise festgelegt wird, in der ein Benutzer auf ein Stück der verfügbaren Funktionalität zugreifen wird. Auf der Basis des Systemrahmens von 1 ist das Dokument in Abschnitte unterteilt. Jedes Untersystem und jeder Werkzeugkit wird über die Funktionalität, die er liefert, und über den Typ von Daten, die er empfängt und erzeugt, beschrieben werden. Hinweise werden überall im Dokument gegeben werden, wo eine erweiterte Funktionalität hinzugefügt werden wird, die den Rahmen des Systems der ersten Generation überschreitet. Diese Hinweise sollen die Struktur des Systems der ersten Generation klarstellen, ein Verständnis der Anforderungen für Erweiterbarkeit liefern, die in das System der ersten Generation eingebaut werden müssen, und die Vision des vollständigen Systems aufzeigen, das über die nächsten drei Jahre entwickelt werden wird.
  • Scansteuerung
    Figure 00920001
  • Die Wechselwirkung mit dem FDV erfolgt über die Scansteuerfunktionalität der CGP. Das FDV kann sowohl Video- als auch Entfernungsdaten erfassen und diese Daten der CGP darbieten. Die CGP ist verantwortlich dafür, dem FDV Information über den Ort und die Auflösung des aufzunehmenden Scans zu liefern. Das FDV verwendet eine neuartige, auf Video basierende Zielmethode, die ein genaues Anpeilen kleiner Objekte über grosse Entfernungen ermöglicht, und die CGP liefert den Zugang zu dieser Methode. Die Scansteuermechanismen unterstützen nachdrücklich die visuelle Interaktivität und die Zeige-und-Klick-Arbeitsparadigmen, auf denen das Gebrauchsmodell des ganzen Systems beruht.
  • Videoaufnahme
  • Ein Druck auf den Videoaufnahmeknopf bewirkt, dass ein RGB-Bild der Szene aus der Standard-Videokamera des FDV in das CGP übertragen und im Zielfenster angezeigt wird. Ein Videobild kann einen Namen und eine Kommentierung bekommen und auf Verlangen des Benutzers in der Datenbank gespeichert werden. Ein Videobild kann mit einem Satz von Entfernungsscans verbunden werden (siehe Verbindung Entfernung-Video hierunter).
  • Zoomaufnahme
  • Das Zoomaufnahmewerkzeug ist für den Benutzer verfügbar, wenn ein Standard-RGB-Bild der Szene im Zielfenster vorliegt. Anklicken des Zoomaufnahmewerkzeugs und danach Anklicken eines Punktes auf dem Bild im Zielfenster veranlassen das FDV, ein Zielachsen-Zoombild, das in der Richtung des angezeigten Punkts aufgenommen wird, zu erfassen und anzuzeigen. Das Zielachsen-Videobild kann in der gleichen Weise wie ein Standard-Videobild einen Namen erhalten, kommentiert werden, in der Datenbank gespeichert werden und mit einem Satz von Entfernungsscans verbunden werden. Ein Unzoom-Werkzeug erlaubt es dem Benutzer, zum Standardbild zurückzukehren.
  • Videobildbrowser
  • Ein Videobildbrauser erlaubt es dem Benutzer, nach einem Bild in der Datenbank zu suchen, indem er Thumbnails von Videobildern durchblättert. Alle mit einem Videobild verbundenen Entfernungsscans können hervorgehoben oder ausgewählt werden oder der Benutzer kann den Ort, von dem aus ein Videobild aufgenommen wurde, zum Betrachungspunkt eines Modellbetrachters machen.
  • Der Videobildbrowser wird letztlich ein Teil der voll ausgestatteten Abfrageschnittstelle für das intelligente Modelliersystem werden. Abfragen wie „alle mit diesem Bild verbundenen Entfernungsscans finden" oder „alle am 12. Dezember 1995 aufgenommenen Videobilder finden " werden Teil einer Allzweck-Abfrageeinheit der visuellen Datenbank sein. Die oben aufgezählten Spezialabfragen liefern einen Startpunkt in dieser Richtung.
  • Scannen
  • Das Scantool steht dem Benutzer immer dann zur Verfügung, wenn ein Videobild (Standard oder Zoom) im Zielfenster vorhanden ist. Der Benutzer bezeichnet einen Scan, indem er eine axial ausgerichtete Box auf dem Videobild im Zielfenster auszieht. Das FDV erzeugt dann von dem angezeigten Raumbereich einen Entfernungsscan.
  • Ein Entfernungsscan ist ein axial ausgerichter, ungefähr rechteckiger Raster von Tiefeninformation. Geringfügige Fehler in der Spiegelpositionierung im FDV verhindern einen genau rechteckigen Raster. Ein Entfernungsscan besitzt eine X-Auflösung und eine Y-Auflösung, die die Anzahl von Punkten anzeigen, die in jeder dieser Richtung gescannt worden sind. Die X- und Y-Auflösung kann durch den Benutzer als die Anzahl von Punkten oder als der Abstand zwischen Punkten bei einer fixierten Entfernung vorgegeben werden.
  • Jeder Rasterpunkt im Entfernungsscan ist mit einem dreidimensionalen kartesischen Punkt und einem Intensitätswert verbunden, der die Laserintensitätsantwort an diesem Punkt ausdrückt. Die Kombination eines dreidimensionalen kartesischen Punktes und eines Laserintensitätswertes definiert einen Scanpunkt. Definitionsgemäss ist ein Entfernungsscan eine Anordnung von Scanpunkten in Zeilen und Spalten. Ein Entfernungsscan kann auch markierte ungültige Punkte enthalten, wo der Scanner nicht in der Lage war, einen eigentlichen Scanpunkt zu erfassen.
  • Entfernungsscans werden automatisch in die Arbeitsdatenbank aufgenommen. Sie können manuell mit Namen versehen und kommentiert werden.
  • Verbindung Entfernung-Videobild
  • Typischerweise werden die Entfernungsscans automatisch mit dem Videobild assoziiert, das für die Zielausrichtung dieses Scans verwendet worden ist. Wenn ein Entfernungsscan aufgenommen wird, wird standardmässig das damit verbundene Videobild (entweder Standard oder Zoom) in der Datenbank gespeichert (sofern es nicht schon zuvor gespeichert worden ist), und eine Assoziation wird zwischen dem Videobild und dem Entfernungsscan hergestellt. Diese Assoziation kann verwendet werden, um auf ein Bild von dem gescannten Bereich zuzugreifen oder die von einem bestimmten Ort aus aufgenommenen Scans herauszugreifen.
  • Echtzeit-Scananzeige
  • Die durch das FDV erfassten Scanpunkte können in jeder beliebigen aktiven Datenweltansicht betrachtet werden (siehe Modellanzeige), während der Scan stattfindet. Diese Punkte sind für keine andere Operation als die Anzeige verfügbar, bis der Scan vollständig ist.
  • Scanannullierung
  • Ein Scanannullierungswerkzeug ist verfügbar, während das FDV einen Entfernungsscan erzeugt. Dieses Merkmal beendet die Sammlung von Scanpunkten. Der bis zu diesem Zeitpunkt aufgenommene, unvollständige Entfernungsscan wird in die Datenbank eingefügt.
  • Visual Magic
    Figure 00960001
  • Der Visual Magic- (VM-) Werkzeugkit liefert Werkzeuge für eine rasche Visualisierung, die die Scanpunkte mit minimaler Benutzerwechselwirkung in Dreiecks-Meshmodelle einer Szene umwandeln. Das Augenmerk der Operationen im VM-Werkzeugkit liegt bei der Lieferung einer extrem allgemeinen Funktionalität, die jedes beliebige Objekt modellieren kann. Anders als die unten beschriebenen Prefab Lab und Structure Shop gibt es im VM-Werkzeugkit über das Dreiecks-Mesh hinaus keine Ahnung von Primitiven. Dadurch wird ermöglicht, eine grosse Vielfalt robuster Operationen an einem einzigen Allzweck-Datentyp auszuführen. Wie im Abschnitt „..." beschrieben, kann jede geometrische Oberfläche in der CGP zu einem Dreiecks-Mesh umgeformt und mit dem Visual Magic-Werkzeugkit bearbeitet werden.
  • Entfernungsscan zu gerastertem Mesh
  • Das Werkzeug Entfernungsscan zu gerastertem Mesh stellt den einfachsten Weg zur Verfügung, um unter Verwendung des FDV ein Modell zu erzeugen. Nach Erfassung eines Entfernungsscans kann der Benutzer diesen Scan auswählen und das Werkzeug Entfernungsscan zu gerastertem Mesh anklicken, um von diesem Scan ein Dreiecks-Mesh zu erzeugen. Das erzeugte Mesh ist auf der Basis des rechteckigen Scanrasters trianguliert. Das gerasterte Mesh unterscheidet sich von einem nicht gerasterten Mesh, das nicht direkt von einem Entfernungsscan erzeugt worden ist. Ein gerastertes Mesh bewahrt Information über den Standort des Scanners und über die Zeilen- und Spaltenanordnung seiner Punkte. Ungültige Punkte werden nicht in das Mesh aufgenommen, und Dreicke, deren Grösse einen vom Benutzer vorgegebenen Parameter übersteigt, werden auch ausgeschlossen. Der Entfernungsscan wird in der Datenbank durch das Mesh ersetzt. Meshes können auf verschiedene Art und Weise betrachtet werden, darunter Wireframe, Gourand-schattiert und als Zeichnung aus versteckten Linien (siehe Modellanzeige).
  • Vereinfachung von gerasterten Meshes
  • Gerasterte Meshes können vereinfacht werden, indem Dreiecke in Bereichen entfernt werden, die im Wesentlichen eben sind. Der Benutzer kann ein gerastertes Mesh auswählen und dieses Werkzeug anklicken, um so viele Dreicke wie zweckmässig zu entfernen, wobei ein vom Benutzer vorgegebener Parameter für den maximalen Fehler verwendet wird, der in das Mesh eingeführt werden soll. Das ursprüngliche gerasterte Mesh wird in der Datenbank durch das vereinfachte gerasterte Mesh ersetzt.
  • Glättung gerasterter Meshes
  • Ein ganzes gerastertes Mesh oder Bereiche innerhalb eines gerasterten Meshes können geglättet werden, indem die Entfernungstiefe jedes Punktes mit der seiner Nachbarn gemittelt wird. Der Mittelungstyp (Gauss, einfacher Durchschnitt usw.) und die Grösse der Nachbarschaft, über die gemittelt werden soll, wird vom Benutzer vorgegeben. Das Glätten kann auf einen besonderen Bereich beschränkt werden, indem ein polygonaler Bereich des Meshes vor Auswahl des Werkzeuges ausgewählt wird. Das ursprüngliche Mesh wird in der Datenbank durch das geglättete Mesh ersetzt. Mehrfache Glättungsiterationen können durch wiederholte Aktivierung dieses Werkzeuges an dem Mesh oder Bereich ausgeführt werden.
  • Meshausrichtung
  • Zwei Meshes (gerastert oder nicht gerastert), die manuell ungefähr ausgerichtet worden sind (siehe Freihand-Rotation, Freihand-Translation und Verschiebung zum Anfügen) können präziser ausgerichtet werden, indem das Meshausrichtungswerkzeug verwendet wird. Das erste bezeichnete Mesh ist das Ankermesh und bewegt sich nicht. Das zweite Mesh wird justiert, um eine bessere Ausrichtung zwischen den beiden Meshes in den Bereichen zu erzielen, wo sich die beiden Meshes überschneiden. Die ursprünglichen Meshes werden in der Datenbank bewahrt, wobei die globale Transformationsmatrix des zweiten Meshes verändert wird. Dieser Schritt würde typischerweise einer Meshzusammenziehung vorausgehen, aber könnte auch verwendet werden, um zwei Szenen in Register zu bringen (ihre relativen Positionen im Weltraum zu bestimmen), die mit dem Structure Shop oder Prefab Lab erzeugt und von unterschiedlichen, aber sich überschneidenden Blickpunkten aufgenommen wurden. In letzterem Falle würden Nichtmesh-Primitive vorübergehend zu Meshes umgewandelt (siehe Objektpolymorphismus), um die Ausrichtungsoperation auszuführen.
  • Meshzusammenziehung
  • Zwei Meshes (gerastert oder nicht gerastert) können mit dem Meshzusammenziehwerkzeug (Mesh zippering tool) zu einem einzigen Mesh verschmolzen werden. Das sich ergebende Mesh ist immer ungerastert. Durch Meshzusammenziehen werden Bereiche der Überschneidung zwischen zwei Meshes immer dann zusammengenäht, wenn der Abstand zwischen der Überschneidung geringer als eine durch den Benutzer vorgegebene Schwelle ist. Typischerweise geht dieser Operation eine Meshausrichtung voraus. Die beiden ursprünglichen Meshes werden durch das zusammengefügte, ungerasterte Mesh ersetzt.
  • Mesh mit Mesh ausschneiden
  • Ein Mesh kann mit einem anderen Mesh ausgeschnitten werden, indem das Werkzeug Mesh mit Mesh ausschneiden verwendet wird. Die beiden Meshes können entweder gerastert oder ungerastert sein. Das erste ausgewählte Mesh ist das auszuschneidende Mesh. Das zweite Mesh ist das schneidende Mesh und bleibt bei der Operation unverändert. Die Schnittlinien der beiden Meshes werden berechnet, und das ausgeschnittene Mesh wird entlang der Schnittlinie unterteilt. Zusätzliche Punkte werden wie erforderlich in das ausgeschnittene Mesh eingefügt, um eine glatte Schnittlinie (ohne Lücken) mit dem schneidenden Mesh zu erhalten. Das ausgeschnittene Mesh wird in der Datenbank mit einer Anzahl nicht gerasterter Meshes ersetzt, die die verschiedenen Komponenten darstellen, in die das geschnittene Mesh aufgeteilt wurde. Dieser Operation würde typischerweise die Löschung einer gewissen Anzahl der ausgeschnittenen Komponenten folgen und würde zum Beispiel die glatte Schnittfläche eines Meshes ermöglichen, das ein Rohr in einem schrägen Winkel zu einer Wand oder einem anderen, komplizierteren Objekt darstellt. Die Kombination dieser Operation mit Objektpolymorphismus (siehe unten) ist äusserst leistungsfähig.
  • Gegenseitiger Mesh-Mesh-Schnitt
  • Diese Operation ist mit der obigen Operation des Ausschneiden eines Meshes mit einem Mesh identisch, ausser dass beide Meshes einander schneiden und durch ihre Komponenten als nicht gerasterte Meshes ersetzt werden. Daher würde diese Operation, ausgeführt am Mesh eines Zylinders, der senkrecht zu seiner Achse durch eine vermaschte Ebene geschnitten wird (2), zu vier getrennten Komponenten führen.
  • Figure 00990001
    Figur 2 – Gegenseitiger Mesh-Mesh-Schnitt
  • Meshüberlappung trimmen
  • Wenn zwei Meshes überlappen, kann es erwünscht sein, ein Mesh unangetastet zu lassen, aber das andere zu trimmen, um es nahtlos anzufügen. Das Werkzeug zum Trimmen der Meshüberlappung führt diese Operation aus, indem das getrimmte Mesh in Bereichen ausgeschnitten wird, wo die Überlappung beginnt (innerhalb einer durch den Benutzer definierten Entfernung), die überlappenden Anteile des getrimmten Meshes verworfen werden und Scheitelpunkte wo nötig hinzugefügt werden, um eine nahtlose Verbindung zu einem statischen Mesh herzustellen. Die beiden Eingangsmeshes können entweder gerastert oder ungerastert sein. Das statische Mesh bleibt in der Datenbank unverändert. Das getrimmte Mesh wird in ein oder mehrere Teilmeshes unterteilt, die immer nichtgerastert sind. In Kombination mit Objektpolymorphismus (unten beschrieben) ermöglicht dieses Werkzeug den Ersatz von Teilen eines Meshes mit vorgefertigten Objekten (vom Prefab Lab weiter unten), während die visuelle Connectivity der verschiedenen Teile in einer Szene bewahrt wird.
  • Vereinfachung/Optimierung eines nichtgerasterten Meshes
  • Meshvereinfachung bei nicht gerasterten Meshes ist eine rechnerisch aufwändige Aufgabe, die in einer Anzahl wichtiger Forschungsinstitutionen studiert wird. In künftigen Generationen wird die CGP einiges von der Funktionalität zur Verfügung stellen, die sich aus den Forschungsanstrengungen auf diesem Gebiet ableiten.
  • Prefab Lab
  • Der Prefab Lab- (PL-) Werkzeugkit sorgt für die Integration vorkonstruierter Untermodelle in eine gescannte Szene. Diese Untermodelle können mit dem PL-Werkzeugkit erzeugt, aus externen Katalogen oder CAD-Programmen importiert oder aus Teilen konstruiert werden, die unter Benutzung anderer Werkzeugkits erzeugt worden sind.
  • Konzepte: Gruppierte Objekte und Prototypen
  • Prefab Lab unterstützt zwei Ideen, die eine Schlüsselrolle in der Konstruktion und Verwendung intelligenter Modelle spielen: das gruppierte Objekt und den Prototyp. Ein gruppiertes Objekt ist einfach eine Sammlung geometrischer Primitive oder anderer gruppierter Objekte, die als eine einzige Einheit agieren. Dem Konzept nach kommt dies der Gruppierung von Objekten in den meisten Zeichenprogrammen gleich. Gruppierte Objekte existieren im gleichen Koordinatenraum und agieren als ein starres Objekt. An der Gruppe ausgeführte Operationen werden an allen Objekten innerhalb dieser Gruppe ausgeführt.
  • Ein Prototyp ist eine Klasse von Objekt, die ausserhalb einer geometrischen Szene für den primären Zweck existiert, dieses Objekt innerhalb der Szene zu instanziieren. Ein Prototyp kann entweder aus einem einzelnen geometrischen Primitiv oder einem gruppierten Objekt gebildet werden. Ein Prototyp ist im Wesentlichen ein ,Metaobjekt', das allgemeine Daten über alle Instanziierungen dieses Prototyps speichert. Instanziierungen eines Prototyps werden Teile genannt. Ein Beispiel wird helfen, dies klar zu machen.
  • Eine Person, die ein Modell ihrer Küche erzeugt, konstruiert ein dreidimensionales Meshmodell eines Stuhls. Unter Verwendung des Visual Magic-Werkzeugkits erzeugt sie getrennte Meshes für jedes der Beine und den Sitz des Stuhls. Um zu vermeiden, jedes der vier Beine zu scannen, erzeugt sie ein Modell eines Beines und verwendet dann das Kopier-und-Einfüge-Werkzeug, um das Objekt viermal in die Szene zu stellen. An diesem Punkt beschliesst sie, die Farbe der Beine des Stuhls in blau zu verändern. Wenn sie die Farbe eines Beines ändert, wird sich dann die Farbe aller vier Beine ändern? Dies hängt davon ab, ob die Beine Teile sind oder nicht, d.h. ob sie Instanziierungen eines Prototyps sind (in welchem Falle sie Daten wie die Farbe gemeinsam besitzen) oder ob sie einfach Kopien eines Objekts sind (in welchem Falle es keine gespeicherte Beziehung zwischen den Beinen gibt). Ein in der Datenbank gespeicherter Prototyp kann nirgendwo in einer Szene instanziiert werden. Er besitzt eine Existenz über sein Auftreten in einer aktiven Datenbank hinaus. Ein Objekt hingegen ist als Einheit in einer Szene gänzlich autark. Wenn ein Objekt aus der Szene entfernt wird, dann wird es dadurch aus der Datenbank entfernt.
  • Gruppieren und Entgruppieren
  • Das Gruppierwerkzeug nimmt einen Satz, das aus einem oder mehr als einem Objekt oder Teil besteht, und erzeugt ein neues gruppiertes Objekt, das eine hierarchische Sammlung dieser eingegebenen Objekte ist. Das gruppierte Objekt kann aus geometrischen Primitiven, Teilen oder anderen gruppierten Objekten erzeugt werden. Die Einheiten, aus denen ein gruppiertes Objekt gebildet wurde, werden in der Datenbank durch das neue gruppierte Objekt ersetzt. Das Entgruppierwerkzeug entfernt ein gruppiertes Objekt aus der Datenbank und ersetzt es mit Instanziierungen seiner Komponenten.
  • Ausschneiden/Kopieren/Einfügen
  • Das Ausschneidewerkzeug ermöglicht es dem Benutzer, ein oder mehr als ein Objekt oder Teil für spätere Einfüge-Operationen aus einer Szene zu löschen. Die Einheit wird aus der aktiven Datenbank entfernt und im Kopier-/Ausschneide-Puffer gespeichert. Das Kopierwerkzeug ist mit dem Ausschneidewerkzeug identisch, ausser dass das ursprüngliche Objekt oder Teil nicht aus der aktiven Datenbank entfernt wird. Der Kopier-/Ausschneide-Puffer ist ein Einzelniveaupuffer, der nur die letzte ausgeschnittene oder kopierte Einheit speichert.
  • Das Einfügewerkzeug versetzt die Einheit aus dem Kopier-/Ausschneide-Puffer in die aktive Datenbank. Wenn die Einheit im Kopier-/Ausschneide-Puffer ein Teil ist, wird in der aktiven Datenbank ein neues Teil erzeugt. Wenn die Einheit im Kopier-/Ausschneide-Puffer ein Objekt ist, wird ein Duplikat dieses Objekts in die aktive Datenbank kopiert.
  • Während einer Sitzung existiert über alle Datenbanken hinweg ein einziger Kopier-/Ausschneide-Puffer, so dass Einheiten von einer Datenbank zur anderen ausgeschnitten und eingefügt werden können. Der Kopier-/Ausschneide-Puffer ist im Wesentlichen eine Ein-Objekt-Datenbank, die wie gewünscht betrachtet, editiert und manipuliert werden kann (siehe Datenbetrachtung).
  • Freihand-Translation
  • Einheiten können unter Verwendung des Freihand-Translations-Werkzeugs interaktiv verschoben werden. Ein Translationsmanipulator wird um die ausgewählte Einheit herum erzeugt und ermöglicht eine interaktive Translation der Einheit. Die neue Position ist in der Datenbank widergespiegelt.
  • Freihand-Rotation
  • Einheiten können unter Verwendung des Freihand-Rotations-Werkzeugs interaktiv rotiert werden. Ein Rotationsmanipulator wird um die ausgewählte Einheit herum erzeugt und ermöglicht eine interaktive Rotation der Einheit. Die neue Ausrichtung wird in der Datenbank widergespiegelt.
  • Verschiebung zum Anfügen
  • Eine Einheit kann unter Verwendung des Verschiebe-zum-Anfügen-Werkzeugs so verschoben werden, dass sie bezüglich einer anderen Einheit korrekt ausgerichtet ist. Der Benutzer wählt bis zu drei Punkte auf dem zu verschiebenden Objekt sowie entsprechende Anfügepunkte an einem feststehenden Objekt. Die Schnittstelle zwingt die Anfügepunkte, vereinbar zu sein (nämlich so, dass eine Möglichkeit besteht, das verschiebbare Objekt so zu positionieren, dass alle Anfügungen gemacht werden). Nachdem diese Entsprechungen identifiziert sind, wird die zu verschiebende Einheit so umpositioniert und ausgerichtet, dass die Anfügungen erzwungen werden, und der aktualisierte Ort wird in der Datenbank widergespiegelt. Man bemerke, dass die Anfügungen vorübergehend sind und nach beendeter Operation aufhören zu existieren. Um die Objekte zu verbinden, nachdem sie aneinandergefügt worden sind, sollte der Benutzer das Gruppierwerkzeug benutzen.
  • Einfügen Anfügen
  • Das Einfüge-Anfüge-Werkzeug ist mit dem obigen Anfügewerkzeug identisch, aber ermöglicht es dem Benutzer, ein Objekt vom Ausschneide-/Kopier-Puffer in die aktive Datenwelt anzufügen.
  • Freihand-Skalieren
  • Einheiten können interaktiv unter Verwendung des Freihand-Skalierwerkzeugs skaliert werden. Ein Skaliermanipulator wird um die ausgewählte Einheit herum erzeugt und ermöglicht ein interaktives Skalieren der Einheit. Der neue Massstab wird in der Datenbank widergespiegelt. Eine Skalierung ist in der X-, Y- und Z-Richtung des lokalen Koordinatensystems der Einheit möglich. Für Objekte können Skalierconstraints (einheitlicher Massstab, einheitlicher Massstab in der X- und Y-Richtung usw.) über ein Präferenzenfenster vorgegeben werden. Für die Instanziierung eines Teils werden Skalierpräferenzen durch das Teil verlangt.
  • Skalieren zum Anfügen
  • Skalier-Anfügung ist analog zu Verschiebung zum Anfügen, ausser dass das Objekt unter seinen Constraints skaliert wird, um die erforderlichen Anfügungen zu machen. Der neue Massstab des Objekts wird in der Datenbank widergespiegelt.
  • Objekt zu Prototyp
  • Das Prototypwerkzeug erzeugt aus einem Objekt oder Primitiv einen Prototyp und speichert diesen Prototyp in der Datenbank. Das ursprüngliche Objekt oder Primitiv wird aus der Datenbank entfernt und durch eine Instanziierung des neu erzeugten Prototyps ersetzt. Der Prototyp bleibt in der Datenbank selbst dann erhalten, wenn alle mit ihm assoziierten Teile aus der aktiven Datenbank gelöscht worden sind, es sei denn, eine explizite Teil-Löschung wird verlangt. Ein Name und eine Kommentierung können an einen Prototyp angefügt werden.
  • Prototyp-Browser/Teil-Instanziierung
  • Der Prototypbrowser schafft die Möglichkeit, alle Prototypen in der Datenbank zu durchsuchen. Prototypen werden im Browser angezeigt und können vom Browser in eine aktive Datenwelt gezogen werden. Verschiebung zum Anfügen und Skalieren zum Anfügen können ebenfalls verwendet werden, um aus einem an Objekte in einer aktiven Datenwelt angefügten Prototyp ein Teil zu erzeugen. Aus dem Prototypbrowser erzeugte neue Teile werden zusammen mit der dazugehörigen Platzierungsinformation in der aktiven Datenbank gespeichert.
  • Teil zu Objekt
  • Das Teil-zu-Objekt-Werkzeug wandelt ein Teil in ein Objekt um, indem es alle Daten vom Prototyp in ein mit diesem Prototyp nicht assoziiertes Objekt kopiert. Dadurch wird es dem Benutzer ermöglicht, ein Teil zu nehmen, das seine Bedürfnisse fast erfüllt, und es zu editieren, ohne andere aus dem gleichen Prototyp erzeugte Objekte zu beeinträchtigen.
  • Polymorphismus
  • Polymorphismus ist die Fähigkeit des Systems, automatisch Objekte eines Typs in Objekte eines anderen Typs umzuwandeln, damit ein Werkzeug, das Parameter eines bestimmten Typs verlangt, korrekt arbeiten kann. Wenn das Objekt, das zu einem anderen Typ umgewandelt wird, durch die Operation nicht verändert wird, dann ist der Polymorphismus temporär und für den Benutzer transparent. Wenn das Objekt, das umgewandelt wird, durch die Operation verändert wird, dann wird der Benutzer darüber informiert, dass der Polymorphismus permanent ist, und erhält eine Gelegenheit, die Operation zu annullieren.
  • Die primäre Form von Polymorphismus ist die verlangte Fähigkeit, jedes Objekt oder Teil im System in ein Dreiecks-Mesh umzuwandeln. Gruppierte Objekte können in ein Dreiecks-Mesh umgewandelt werden, indem der Zusammenschluss der Dreiecks-Meshes angenommen wird, die durch Umwandlung ihrer Komponenten in Dreiecks-Meshes gebildet worden sind. Somit ist die Forderung des Systems, dass jedes Objekt in ein Dreiecks-Mesh umgewandelt werden könne, im Wesentlichen eine Forderung, dass jedes Stück primitiver Geometrie im System die Funktionalität für eine Umwandlung in ein Dreiecks-Mesh liefere.
  • Gruppierte Objekte, die permanent in Dreiecks-Meshes umgewandelt worden sind, bewahren ihre hierarchische Struktur nicht als Objekte, sondern als eine Sammlung von Meshes. Kommentierungen, Namen und weitere externe Datenbankinformation wird innerhalb der Hierarchie bewahrt.
  • Prefab-Primitive
  • Das System stellt einen Satz geometrischer Primitive zur Verfügung, die instanziiert, verschoben, skaliert, angezeigt und in Meshes umgewandelt werden können. Diese Primitive sind einfache geometrische Gestalten, aus denen weitere Geometrie wie der Würfel, Zylinder, Kegel, das Prisma, die Scheibe und dergleichen zusammengefügt werden kann. Da keine für Primitive spezifischen Operationen zur Verfügung gestellt werden, verlangt das Hinzufügen eines Primitivs zum System nichts weiter als die Angabe einer einfachen Parametrierung des Primitivs, die seine Geometrie erfasst, einen Anzeigegenerator, eine Umwandlung in ein Mesh und eine verkapselte Datenbankdarstellung. Die Routinen für Anzeigeerzeugung und Meshumwandlung verwenden einen einzelnen Fliesskommawert zwischen null und eins als Komplexitätsparameter, um bei der Festlegung der zu liefernden Einzelheiten zu helfen (zum Beispiel die Anzahl ebener Flächen, die benutzt werden soll, um einen Zylinder zu nähern). Dieser Parameter kann jederzeit durch den Systembenutzer festgelegt werden.
  • Prefab-Primitive sind von sich aus einfach und werden nicht verwendet, um Objekte wie Doppel-T-Träger darzustellen, die als Gruppen anderer Prefab-Primitive wie gestreckter Würfel konstruiert werden können.
  • Parametrierte Prototypen
  • Es ist ein langfristiges Ziel, allgemeine parametrierte Teile zur Verfügung zu stellen, deren Parameter durch den Benutzer festgelegt werden können. Das den Skadierconstraints zugrunde liegende Konzept ist eine einfache Version der Idee allgemein parametrierbarer Prototypen. Ein parametrierter Prototyp würde es dem Benutzer ermöglichen, zum Beispiel die Breite einer Rille, den Abstand eines Satzes von Löchern oder die Anzahl von Beinen an einem Hocker festzulegen. Dadurch könnte ein kürzerer Katalog von Prototypen einen breiteren Bedarf abdecken, aber die Prototypbeschreibung verlangt bedeutend komplexere Funktionalität.
  • Structure Shop (Strukturenwerkstatt)
  • Die Strukturenwerkstatt liefert zusätzliche Funktionalität für die Erzeugung grosser, primär ebener Strukturen wie Gebäude und Unterbauten sowie einfache Funk tionalität für Punkt- und Linienvermessung. Die Strukturenwerkstatt fügt die Punkt-, Linien- und Ebenen-Objekte zu der dem Benutzer zur Verfügung stehenden Palette hinzu und liefert einfache interaktive Funktionalität, um diese Objekte zu manipulieren.
  • Herausziehen von Scanpunkten
  • Der Benutzer kann Punkte aus einem Entfernungsscan herausschneiden, indem er das Herausziehen-von-Scanpunkten-Werkzeug verwendet. Der Benutzer wählt einen Entfernungsscan aus und zeichnet entweder eine Schleife um die Punkte, die er herauszuziehen wünscht, oder zieht ein Polygon um diese Punkte herum. Der gewählte Entfernungsscan wird durch zwei Entfernungsscans ersetzt, die die Punkte innerhalb des gezeichneten Bereiches und die Punkte ausserhalb davon getrennt enthalten. Die Namen der Entfernungsscans werden um einen eindeutigen Identifier erweitert (d.h. RS35 wird in RS35_1 und RS35_2 unterteilt), und die Kommentare werden in jeden neuen Teilscan kopiert.
  • Ebene aus Punkten
  • Das ebene Objekt [ist] ein Satz begrenzter Polygone, die in einer Ebene liegen. Die vielkonturige Grenze besteht aus Kanten und Scheitelpunkten, die wie erforderlich nebeneinander liegenden Ebenen gemein sein können. Das Ebene-aus-Punkten-Werkzeug berechnet die am besten angepasste Ebene für einen gegebenen Satz von Punkten. Dieser Satz von Punkten kann entweder von einem Entfernungsscan oder von einem Mesh stammen (und wegen des Polymorphismus bedeutet dies, dass diese Punkte von jedem beliebigen geometrischen Objekt oder Teil stammen können). Die Grenze der Ebene wird erzeugt, indem die Punkte in die am besten angepasste Ebene projiziert werden und die konvexe Hülle berechnet wird. Je nach einer vom Benutzer festgelegten Präferenz wird das ursprüngliche Objekt, von dem die Punkte stammen, aus der Datenbank gelöscht oder bleibt unangetastet. Das neue ebene Objekt wird in die Datenbank eingefügt.
  • Ecke aus Punkten
  • Das Ecke-aus-Punkten-Werkzeug erzeugt drei ebene Objekte aus einem Satz von Punkten. Der Satz von Punkten kann von einem Entfernungsscan oder einem Mesh stammen. Die drei Ebenen haben einen gemeinsamen Eckenscheitelpunkt und drei gemeinsame Kanten, die von diesem Scheitelpunkt ausgehen. Mit der Ausnahme des gemeinsamen Scheitelpunkts und eines Paares gemeinsamer Kanten wird jedes ebene Objekt durch die konvexe Hülle seiner Punkte begrenzt, wenn es in seine Ebene projiziert wird. Je nach einer vom Benutzer festgelegten Präferenz wird das ursprüngliche Objekt, von dem die Punkte stammen, aus der Datenbank gelöscht oder bleibt unangetastet. Die drei neuen ebenen Objekte werden in die Datenbank eingefügt.
  • Loch hinzufügen/Bereich hinzufügen
  • Löcher und zusätzliche Konturen können unter Verwendung dieses Werkzeugs zu ebenen Objekten hinzugefügt werden. In jedem Falle zeichnet der Benutzer eine Kontur auf die unendliche Ebene, von der das ebene Objekt ein Teil ist. Im Falle eines Loches wird die sich ergebende Kontur vom gegebenen ebenen Objekt abgezogen, was wie erforderlich ein Hinzufügen und Wegnehmen von Scheitelpunkten bewirkt. Im Falle des Hinzufügens eines Bereiches wird der neue Konturbereich mit den vorhandenen Polygonen vereinigt, und Scheitelpunkte werden wie erforderlich hinzugefügt und weggenommen.
  • Interaktive Scheitelpunktverschiebung
  • Der Benutzer kann Scheitelpunkte eines Polygons mit der Maus ziehen. Diese Scheitelpunkte liegen gezwungenermassen in der durch ihr ebenes Objekt vorgegebenen Ebene. Der Benutzer kann auch ein oder zwei Schnappebenen identifizieren, um eine präzise Platzierung der Scheitelpunkte zu ermöglichen. Durch Hinzufügen einer Schnappebene werden Schnappbereiche um alle Scheitelpunkte dieser Ebene sowie ein schwächerer (kleinerer) Schnappbereich überall in dieser Ebene geschaffen. Der Benutzer kann leicht einen Scheitelpunkt so ziehen, dass er mit einer anderen Ebene ausgerichtet ist oder an den Scheitelpunkt in einer anderen Ebene angefügt wird. Wenn zwei Schnappebenen angegeben werden, dann werden alle oben beschriebenen Schnappbereiche für jede der zwei angegebenen Ebenen geschaffen; zusätzlich wird aber noch ein extrem grosser Schnappbereich um den Schnittpunkt der drei Ebenen (der zwei angegebenen Ebenen und der Ebene, die den gezogenen Scheitelpunkt enthält) herum geschaffen. Wenn ein Scheitelpunkt durch den Benutzer an einen anderen Scheitelpunkt geschnappt wird, dann wird dieser Scheitelpunkt ein gemeinsamer Scheitelpunkt.
  • Scheitelpunkte, die zwei Ebenen gemeinsam sind, können nur entlang der Linie gezogen werden, in der sich diese beiden Ebenen schneiden. Scheitelpunkte, die mehr als zwei Ebenen gemeinsam sind, können nicht gezogen werden.
  • Scheitelpunkte treten auch mit den anderen Konturen innerhalb der gleichen Ebene in Wechselwirkung. Schnappen tritt mit allen Kanten und Scheitelpunkten dieser anderen Konturen auf. Wenn eine Kontur, die einen gefüllten Bereich begrenzt, verschoben wird, kann sie andere Konturen schneiden, die Bereiche oder Löcher darstellen. Das Ergebnis der Verschiebung eines Scheitelpunktes einer solchen Kontur ist die Vereinigung aller gefüllten Bereiche innerhalb dieses Polygons. Wenn ein Scheitelpunkt einer Kontur, die ein Loch begrenzt, verschoben wird, wird in ähnlicher Weise der gefüllte Bereich dieser Kontur von allen anderen gefüllten Polygonen in dieser Ebene abgezogen.
  • Die neue Position des Scheitelpunkts wird in der Datenbank widergespiegelt, und Kanten, die diesen Scheitelpunkt als einen Endpunkt verwenden, werden auch aktualisiert.
  • Unshare vertex (Gemeinsame Scheitelpunkte trennen)
  • Anklicken des Werkzeugs für die Trennung gemeinsamer Scheitelpunkte und Auswählen eines gemeinsamen Scheitelpunktes bewirkt, dass die gemeinsame Nutzung dieses Scheitelpunktes durch die Verwendung unabhängiger Kopien dieses Scheitelpunktes ersetzt wird, die unabhängig voneinander verschoben und wieder voneinander getrennt werden können. Der ursprüngliche, gemeinsame Scheitelpunkt wird aus der Datenbank gelöscht und durch die Kopien ersetzt.
  • Scheitelpunkteinfügung/-löschung
  • Scheitelpunkte können mit diesem Werkzeug eingefügt oder gelöscht werden. Scheitelpunkte werden durch Anklicken des Ortes des Einfügepunktes eingefügt. Scheitelpunkte werden durch Anzeigen des Scheitelpunktes gelöscht. Scheitelpunkte, die gemein sam sind, werden von allen ebenen Objekten gelöscht, an denen sie beteiligt sind. Alle diese Veränderungen werden in der Datenbank widergespiegelt.
  • Merge planes (Ebenen verschmelzen)
  • Der Benutzer kann zwei ebene Objekte mit dem Ebenen-verschmelzen-Werkzeug verschmelzen. Bei dieser Operation wird geprüft, ob die beiden Objekte nahezu koplanar sind, und der Benutzer gewarnt, ehe es weiter geht, wenn dies nicht der Fall ist. Das Verschmelzen von Ebenen bewirkt, dass die beiden angezeigten ebenen Objekte in der Datenbank durch ein einziges ebenes Objekt ersetzt werden, das eine bestangepasste Ebene für alle Punkte ist, aus denen die beiden ursprünglichen Objekte erzeugt worden waren. Scheitelpunkte der ursprünglichen ebenen Objekte werden in die neue Ebene projiziert, wobei die Constraints erhalten bleiben, die durch gemeinsame Scheitelpunkte auferlegt werden. Die Begrenzung des neuen Objekts ist die Vereinigung der Begrenzungen aller ebenen Objekte, die verschmolzen worden sind.
  • Punkt zu freiem Punkt
  • Das Punkt-zu-freiem-Punkt-Werkzeug erzeugt einen freistehenden Punkt von einem Scanpunkt, einem Meshpunkt oder einem Scheitelpunkt. Der freie Punkt ist ein speziell markierter Scheitelpunkt, der ausserhalb jeglicher Oberfläche existiert. Freie Punkte sind ein Nichtflächendaten-Objekt und können daher nicht in ein Mesh umgewandelt werden. Freistehende Punkte sind primär dafür gedacht, einfaches Vermessen (Eigentumsgrenzen usw.) mit dem FDV zu ermöglichen. Freie Punkte können mit Namen und Kommentaren versehen und in der Datenbank gespeichert werden.
  • Freie Linie machen
  • Das Freie-Linie-machen-Werkzeug erzeugt eine freistehende Linie aus zwei freistehenden Punkten. Die freie Linie existiert ausserhalb jeglicher Oberfläche und kann deshalb nicht in ein Mesh umgewandelt werden. Freistehende Linien sind primär dafür gedacht, ein einfaches Vermessen (Eigentumsgrenzen usw.) mit dem FDV zu ermöglichen.
  • Freie Linien können mit Namen und Kommentaren versehen und in der Datenbank gespeichert werden.
  • Abfrage und Darstellung
    Figure 01110001
  • Der Abfrage-und-Darstellungs-Werkzeugkit liefert Funktionalität für die Abfrage und Anzeige von Daten sowie für die Modifizierung von in der Datenbank gespeicherten, nicht geometrischen Daten. Dieser Werkzeugkit sieht zwar eine enge Integration mit den verschiedenen anderen Werkzeugkits im System vor, wird aber als ein unabhängiges System zur Verteilung an Benutzer abgetrennt werden können, von denen nicht erwartet wird, dass sie entweder die FDV-Einheit oder das Modellrekonstruktions-Werkzeug verwenden, die aber Zugriff auf die durch die verschiedenen Cyra-Werkzeuge erzeugten Daten wünschen.
  • Datenwelt ansehen
  • Der geometrische Inhalt einer Datenwelt kann unter Verwendung eines interaktiven, visuellen Browsers betrachtet werden, der eine dreidimensionale Darstellung dieser Datenwelt anzeigt. Jedes geometrische Objekt oder Teil gehört zu einer Datenwelt, die eine Untermenge einer Datenbank ist. Eine beliebige Anzahl von Datenwelt-Ansichten kann unabhängig geöffnet und verwendet werden. Operationen, die nicht (wie zum Beispiel das Werkzeug für das Herausziehen von Scanpunkten) einen besonderen Blickpunkt beinhalten, können unter Verwendung mehrerer Ansichten der gleichen Datenwelt ausgeführt werden, indem in einer Ansicht gewisse Operanden und in einer beliebigen Anzahl anderer Ansichten andere Operanden bezeichnet werden.
  • Interaktive Ansichten Manipulation
  • Eine Datenweltansicht kann vom Benutzer herangezoomt und weggezoomt, rotiert und geschwenkt werden. Diese Operationen werden interaktiv sein, vorausgesetzt, dass die Grösse und Komplexität des Modells und die erforderliche Frame-Rate nicht die Fähigkeit der Plattform übersteigen, Frames mit interaktiven Geschwindigkeiten zu erzeugen.
  • Interaktives Flythrough
  • Der Benutzer kann durch ein Modell navigieren, indem er ein Flythrough-Paradigma verwendet, bei dem der Benutzer die Bewegungen (Geschwindigkeit, Richtung, Orientierung) eines die Szene betrachtenden, imaginären Auges steuert. Dieses Flythrough wird interaktiv sein, vorausgesetzt, dass die Grösse und Komplexität des Modells und die erforderliche Frame-Rate nicht die Fähigkeit der Plattform übersteigen, Frames mit interaktiven Geschwindigkeiten zu übertragen.
  • Bedeutende Forschungen sind ausgeführt worden, um diesen Prozess zu optimieren und hohe Frame-Rates bei extrem komplexen Modellen zu ermöglichen. Es ist unser Wunsch, solche Forschungen in spätere Generationen der CGP einzubauen.
  • Ansicht mit Namen (named view) sichern/laden
  • Der Benutzer kann einen aktuellen Standpunkt in einer Datenwelt mit Namen und Kommentaren sichern. Eine Ansicht mit Namen kann in jedes Datenwelt-Betrachtungsfenster geladen werden, wodurch der Standpunkt dieses Fensters durch den gesicherten Standpunkt ersetzt wird.
  • Ansicht mit Namen (named view) löschen
  • Eine Ansicht mit Namen kann auf Anforderung des Benutzers aus der Datenbank gelöscht werden.
  • Standardansichten
  • Die sechs Standardansichten (links, rechts, vorn, hinten, oben, unten) bezüglich eines vom Benutzer angegebenen Ursprung und einer vom Benutzer angegebenen Entfernung sind unmittelbar in jeder Datenwelt-Ansicht verfügbar.
  • Orthographisch/perspektivischer Wechsel
  • Eine Datenwelt kann entweder in einer orthographischen oder einer perspektivischen Projektion betrachtet werden. Die Operationen all der verschiedenen Werkzeugkits werden richtig funktionieren, gleichviel welche Projektion verwendet wird.
  • Datenwelten integrieren
  • Der Benutzer kann eine Datenwelt in eine zweite Datenwelt verschmelzen, indem er Paare von entsprechenden Punkten in den beiden Datenwelten vorgibt. Der Benutzer muss mindestens drei nicht degenerierte Punktepaare zur Verfügung stellen. Eine Transformation, die die zweite Datenwelt so umpositioniert, dass die Entsprechungen so nahe wie möglich (im Sinne kleinster Quadrate) erfüllt werden, wird aus den Punktepaaren berechnet. Die zweite Datenwelt wird aus der Datenbank entfernt, und alle Daten in dieser Datenwelt werden mit der berechneten Transformation in die erste Datenwelt kopiert.
  • Abstand
  • Der Abstand zwischen zwei vom Benutzer vorgegebenen Orten im Modell kann mit dem Abstandswerkzeug berechnet und angezeigt werden.
  • (Der übrige Teil dieses Abschnitts ist unbestimmt und unvollständig. Ich muss dies fertig ausarbeiten, aber es sollte darauf hinauslaufen, eine sehr allgemeine Möglichkeit zu sein, viel Boden in Richtung auf ein „intelligentes Modellieren" zu gewinnen.)
  • Betrachtungsparameter
  • Jedes Objekt, Teil oder Primitiv kann eine beliebige Anzahl von benannten visuellen Darstellungen liefern. Der Benutzer kann vorgeben, welche dieser benannten visuellen Darstellungen für ein gegebenes Objekt, Teil oder Primitiv oder für eine ganze Szene verwendet werden soll, indem das „Darstellungsattribut" eines Objekts festgelegt wird. Jedes Objekt ist mit einer Strandarddarstellung versehen, die verwendet wird, wenn die benannte visuelle Darstellung für dieses Objekt nicht existiert oder keine benannte visuelle Darstellung zur Verfügung gestellt wird. Eine benannte visuelle Darstellung ist entweder ein vom System zur Verfügung gestellter Zeichenstil wie Wireframe oder Begrenzungsbox oder ein Zeiger zu einem anderen Modell wie zum Beispiel einer Version des Modells mit niedrigerer Auflösung oder einer symbolischen Darstellung dieses Objekts (zwei Kegel, um ein kompliziertes Ventil darzustellen).
  • Typischerweise stellt ein Primitiv mindestens die folgenden Darstellungsattributwerte zur Verfügung, deren „Oberfläche" normalerweise als Standard markiert ist: Wireframe, versteckte Linie, Oberfläche, Begrenzungsbox und unsichtbar.
  • Parameter für Oberflächeneigenschaften wie Farbe und Reflexionsvermögen werden ebenfalls durch die visuelle Darstellung zur Verfügung gestellt, indem Attribut/Wert-Paare als ein Teil der visuellen Darstellung eines Objekts zur Verfügung gestellt werden. Eine Einheit in einer Hierarchie verwendet den Wert ihres nächsten Vorfahren als Attribut, wenn kein Wert für dieses Attribut in der Einheit vorgegeben wurde. Jedes Attribut, das zum Zeichnen eines Objekts erforderlich ist (wie Farbe oder Linienbreite), muss zusammen mit einem entsprechenden Standard zur Verfügung stehen, falls durch die Einheit oder ihre Vorfahren kein Wert vorgegeben ist. Die Attribute, die von allen Primitiven in der ersten Veröffentlichung der CGP unterstützt werden, sind Umgebungsfarbe, diffuse Farbe, spiegelnde Farbe, ausstrahlende Farbe, Glanz, Transparenz, Namen anzeigen und Kommentare anzeigen. Ausserdem werden bestimmte Primitive das Attribut „Dimension anzeigen" unterstützen. Entfernungsscans werden das Attribut „Intensitäts-Pseudofärbung verwenden" unterstützen.
  • Benannte visuelle Darstellung erstellen/laden/sichern/löschen
  • Ein Benutzer kann eine benannte visuelle Darstellung erstellen, um es sich zu ermöglichen, eine Datenbank unter Verwendung eines anderen Parametersatzes zu be trachten als andere Datenbankbenutzer. Diese visuelle Darstellung erhält einen Namen und wird in der Datenbank gespeichert. Wenn ein Benutzer eine neue visuelle Darstellung erstellt, werden alle aktuellen Attribut/Wert-Paare für jedes Objekt in der Datenwelt mit der benannten visuellen Darstellung verbunden. Änderungen, die der Benutzer an der Datenwelt anbringt (wie das Darstellungsattribut eines Objekts zu Wireframe oder seine Farbe zu blau zu ändern), während er diese benannte visuelle Darstellung verwendet, betreffen nur die Attribut/Wert-Paare der aktuell geladenen visuellen Darstellung. So könnte zum Beispiel ein Rohrleitungsingenieur in einer Sitzung eine visuelle Darstellung der Datenwelt erzeugen, bei der alle Rohre als Zylinder angezeigt werden, in einer anderen Sitzung aber eine zweite visuelle Darstellung, bei der die Rohre als Mittellinien angezeigt werden. Das setzt natürlich voraus, dass das Rohrobjekt ein benanntes Darstellungsattribut für Mittellinien zur Verfügung stellt.
  • Man bemerke, dass dieses Paradigma viele gleichzeitige Ansichten der gleichen Datenbank durch verschiedene Benutzer zulässt, ohne für jeden Betrachter getrennte Kopien der Datenbank zu verlangen.
  • Kommentare erstellen/löschen/betrachten/editieren
  • Ein Kommentar ist ein mit einem Objekt, Primitiv, Teil oder Prototyp verbundenes, eingetipptes Datenfeld. Kommentare ermöglichen den Einbezug anwendungsspezifischer Daten in die CGP-Datenbank. Diese Daten können in irgendeiner der ISO-Standard-Datentypen vorliegen (ich erinnere mich nicht, was diese sind, aber es gibt nur ein halbes Dutzend davon, und sie werden von jeder Datenbank unterstützt). Jeder Kommentar hat zur Bezugnahme einen Namen. Kommentare, die mit einem Prototyp verbunden sind, gelten für jedes mit diesem Prototyp erzeugte Teil, sofern der Wert des Kommentars nicht ausdrücklich durch das Teil aufgehoben wird.
  • Jede Einheit besitzt mindestens einen Kommentar zu Namen und Typ.
  • Auswahl nach Abfrage
  • Der Benutzer kann einen Satz von Einheiten auswählen, indem er eine SQL-Abfrage der Kommentare aller Einheiten in einer Datenwelt verwendet. Solche Abfragen werden direkt zur Datenbank weitergegeben, und der Grad der gegebenen SQL-Unterstützung wird von der ausgewählten Datenbank abhängen. Die Einheiten, die durch die Abfrage ermittelt werden, werden als ausgewählt markiert und können als Parameter für alle Werkzeuge verwendet werden, die Operationen an einer Mehrzahl von Objekten zulassen. Durch die CGP in der Datenbank gespeicherte Daten sind ebenfalls über ein Nur-Lese-Frontend der Datenbankstrukturen der CGP für den Benutzer zugänglich.
  • Datenaustausch
    Figure 01160001
  • Der Datenaustausch-Werkzeugkit liefert die Funktionalität, die dafür benötigt wird, die CGP nahtlos mit anderen CAD-Softwarepaketen und durch Anbieter zur Verfügung gestellten Katalogen zu integrieren. Der Werkzeugkit wird letztlich je nach den Marktbedürfnissen eine grosse Vielfalt von Dateitypen importieren und exportieren.
  • CRX-Import und -Export
  • Die Exportfunktion erzeugt eine einzelne binäre Datendatei, die ausgewählte Objekte, eine Datenwelt oder eine Datenbank in CRX darstellt, d.h. im geschützten Datenformat von Cyra. Die Importfunktion erlaubt das Lesen dieses Datenformats.
  • DXF-Import und -Export
  • Die Exportfunktion erzeugt eine DXF-Datendatei, die ausgewählte Objekte, eine Datenwelt oder eine Datenbank in diesem Allzweck-CAD-Standardformat darstellt. Die DXF-Darstellung ist in folgenden Aspekten eingeschränkt:
    ...
    DXF-Datei importieren lädt eine Einheit oder einen Satz von Einheiten, die in einer DXF-Datei gespeichert sind, in die CGP. Die CGP-Version dieser DXF-Datei wird in folgenden Aspekten eingeschränkt sein:
    ...
  • RGB Import und -Export
  • Die RGB-Export-Funktion erzeugt aus einem ausgewählten Videobild eine RGB-Videobilddatei. RGB-Import erzeugt aus einer RGB-Videobilddatei ein Videobildobjekt in der CGP.
  • Inventor Import und -Export
  • Die Inventor-Exportfunktion erzeugt eine Inventor-Datei, die ausgewählte Objekte, eine Datenwelt oder eine Datenbank im Inventor-Dateiformat darstellt. Das sich ergebende Modell, wenn mit einem Standard-Inventor-Viewer betrachtet, wird mit dem Modell, wie es in der CGP gesehen wird, identisch sein. Die Importfunktion lädt eine Einheit oder einen Satz von Einheiten, die in einer Inventor-Datei gespeichert sind, in die CGP. Die CGP-Version dieser Inventor-Datei wird in den folgenden Aspekten beschränkt sein.
    [...]
  • PostScript-Export
  • Die PostScript-Exportfunktion erzeugt eine PostScript-Datei oder druckt auf einem Drucker direkt die in einer ausgewählten Datenwelt dargestellte Ansicht aus.
  • Allgemeine Wechselwirkung und Systeminformation
  • Die Wechselwirkung mit den Werkzeugkits wird durch eine Maus und eine Tastatur erfolgen, wobei die Betonung auf visueller Interaktivität liegt. Es wird erwartet, dass die Benutzerschnittstelle Werkzeugpaletten mit Iconen, Funktionstastenkürzel, Menüs und Fenster hat. Der grösste Teil der Funktionalität wird unter alleiniger Verwendung der Maus zugänglich sein. Die Benutzerschnittstelle des Systems wird mit Standardschnittstellen und Wechselwirkungsparadigmen auf einer gegebenen Plattform verträglich sein.
  • Plattform
  • Die CGP wird auf einem 100-MHz-Pentium-Prozessor laufen, der mit Windows NT in einer Laptop-Box läuft. Das System wird mindestens 48 Mbyte an RAM mit einem 512-kbyte-Cachespeicher zur Verfügung stellen. Es wird erwartet, dass die Plattform einen 800 × 600-Farbbildschirm mit 256 Farben und mindestens ein Gbyte an Festplattenspeicherplatz haben wird. Das System wird mit der Hardware nach PCMCIA über Ethernet kommunizieren.
  • Es wird erwartet, dass die erste Schnittstelle der CGP eine Silicon Graphics-Plattform ist, um Modellrekonstruktion in einer grafikintensiven Büroumgebung zur Verfügung zu stellen.
  • Hilfesystem
  • Die CGP wird ein interaktives Hilfesystem zur Verfügung stellen, das kontextempfindliche Hilfe in einem Format liefert, das der Standardschnittstelle für Anwendungen auf einer gegebenen Plattform entspricht. Die gesamte dem Benutzer zugängliche Funktionalität wird im Hilfesystem dokumentiert sein.
  • Undo
  • Die CGP wird es dem Benutzer erlauben, eine beliebige Anzahl von Operationen, die während einer Sitzung ausgeführt wurden, rückgängig zu machen (innerhalb der funktionellen Grenzen des Systems wie Speicher- und Festplattenkapazität).
  • Dokumentation
  • Hardcopy-Dokumentation für das System wird zur Verfügung gestellt werden, die mindestens eine Feldanleitung einschliesst, die von einem Vermesser im Gelände verwendet werden kann.
  • Figure 01200001
  • Figure 01210001
  • Figure 01220001
  • Figure 01230001
  • Figure 01240001
  • Figure 01250001
  • Figure 01260001
  • Figure 01270001
  • I. EINFÜHRUNG
  • Überblick
  • Dieser VERTRAULICHE Überblick über Cyra Technologies (Cyra) und seine einzigartige, auf Lasern beruhende Datenerfassungs-, Erkennungs- und Modellkonstruktionstechnologie ist erstellt worden, um potenziellen strategischen Partnern, Investoren und Mitarbeitern zu einem besseren Verstehen und Bewerten des Potenzials von Cyra zu verhelfen.
  • CYRA
  • Cyra Technologies wurde 1993 als eine California Corporation gegründet, um auf Computern beruhende, innovative High-Tech-Produkte für die AEC- (Architektur, Technik, Bau und Konstruktion) und verarbeitende Industrie zu erforschen, zu entwickeln und zu vermarkten.
  • Cyra entwickelt zur Zeit eine Linie von auf Lasern beruhenden Raumabbildungs- und synthetischen Sichtsystemen für dreidimensionale Datenerfassung, Erkennung und Modellkonstruktion für ein breites Marktspektrum. Das Einstiegsprodukt, „Cyrax", ist ein tragbarer Laser-Radar-Scanner mit Grafikcomputer, der halbautomatisch dreidimensionale (3D) Computermodelle von allen für ihn sichtbaren Objekten erzeugen kann. Als ein Hybrid aus Kamera und Vermessungsinstrument kann er 3D-CAD-Modelle aller möglichen Objekte von Hügeln über Gebäude bis hin zu Flugzeugen erzeugen. Mit seiner Millimeter-Genauigkeit bei Entfernungen von über 50 m zielt Cyrax auf die AEC-Industrie wie auch auf massive 3D-Raumdatenbedürfnisse auf den Gebieten der verarbeitenden Industrie, der Unterhaltung und der Multimedien ab.
  • Der Bedarf für räumliche Information
  • Datenerfassung
  • Genaue Information über unsere Umwelt ist entscheidend für das moderne Leben. Vom Videogame-Designer, der ein Dinosauriermodell verwendet, bis zu Geologen, die einen Tagebau vermessen, von Baufirmen, die komplette Pläne für ein Hochhaus vorbereiten, bis zu Flugzeugbauern, die genaue dreidimensionale Messungen komplexer Teile für Flugzeuggerippe benötigen, hat die moderne Gesellschaft einen dauernden Bedarf für genaue Daten über unsere räumliche Umgebung.
  • Die mehr als 1 Billion Dollar, die jedes Jahr weltweit von der Bauindustrie, den Versorgungsbetrieben, der Transportindustrie und den verarbeitenden Industrien ausgegeben werden, hängen zu einem grossen Teil von der schnellen Beschaffung genauer räumlicher Daten ab. Da diese Industrien mindestens ein Zehntel eines Prozents ihrer Einnahmen für Datenerfassung ausgeben, übersteigt dieser Bedarf jährlich 1 Milliarde Dollar (US). Der nationale Markt für Vermesser-Total Stations allein liegt heute bei über 200 Millionen Dollar jährlich.
  • Platzierung nach Daten
  • Abgesehen von unserem Bedürfnis, die Lage von Objekten in unserer Umwelt zu kennen, besteht ein enormer Bedarf bei der genauen Platzierung von Objekten. Wenn ein Zaun gebaut, die Fundamente eines Gebäudes gelegt, eine Autobahn gebaut oder eine komplexe Maschine zusammengesetzt wird, muss der Erbauer in der Lage sein, alle Teile genau zu platzieren. Mit dem nationalen Motto der „Qualität als Aufgabe Nr. 1" und bei dem extremen Druck auf die Verdienstspannen von Firmen sind manuelle Methoden nicht mehr akzeptabel.
  • Obwohl Anbieter zur Zeit weitgehend auf diesem Markt fehlen, wächst die Nachfrage nach einer auf Daten beruhenden Platzierung schnell. Während unsere Gesellschaft zu einer immer flexibleren Herstellung und Spezialisierung von Verbrauchsgütern schreitet, wird die Nachfrage nach auf Daten beruhenden Platzierungssystemen explosiv wachsen.
  • Traditionelle Verfahren
  • Erfassung: Punkte, Linien
  • Traditionell hat die Gesellschaft sich auf mühsame manuelle Verfahren der Datenerfassung verlassen. Bei AEC-Unternehmen verbringen Vermesser mit Nivellierinstrumenten, Libellen, Stahlbändern und Senkloten lange Stunden im Feld, um Daten zu sammeln, während in der verarbeitenden Industrie Ingenieure und Zeichner mit Greifzirkel und Präzisionswerkzeugen die primären Datensammler sind.
  • Figure 01290001
  • Diese Werkzeuge und Verfahren sind auf ein hohes Niveau der Präzision gebracht und in den letzten Jahren sogar teilweise automatisiert worden. Sie beruhen aber auf der langsamen, mühsamen und fehleranfälligen Sammlung zweidimensionaler Daten. Von den im Feld oder an der Werkbank vermessenen Punkten und Linien werden die Daten zum Zeichentisch oder zum CAD-System gebracht und langwierig zusammengenommen, um eine topographische Karte, eine Geländezeichnung oder das dreidimensionale Modell eines Teils zu erstellen. Zusätzlich zum Zeitverbrauch ist dieser Prozess für menschliche Fehler anfällig.
  • Platzierung
  • Eine genaue Platzierung oder Positionierung ist immer eine Herausforderung gewesen. Die meisten Hoch- und Tiefbauten werden Punkt für Punkt von Vermesserteams mit Totalstationen (dem Werkzeug des modernen Vermessers: Teleskop, Winkel- und Entfernungsmesser integriert) und anderen Vermessungsinstrumenten ,abgesteckt'. Obwohl einige Fortschritte gemacht wurden (neue Totalstationen können zum Beispiel mit sichtbaren Lichtstrahlen genau zum gewünschten Punkt führen), ist der Prozess immer noch langsam, mühsam und anfällig für Betätigungsfehler.
  • Auch in der verarbeitenden Industrie, wo die Erzeugnisse immer komplizierter und die Anforderungen an die Fertigung immer genauer werden, ist die genaue Platzierung von Teilen eine dauernde, wachsende Herausforderung. Zahlreiche Anbieter versuchen sich in der Entwicklung maschineller Sehvorrichtungen, aber die meisten solchen Systeme haben grundsätzliche Beschränkungen und sind für Einzelanwendungen ausgelegt. An Montagebändern können Roboter oft dafür programmiert werden, Objekte zu platzieren – sofern sie in ihrer Reichweite sind! Bei Grossmontagen wie Flugzeuggerippen oder Schiffsrümpfen mussten die Hersteller auf nicht optimale Lösungen wie umständliche mechanische 3D-Arme (typisch für Scannen benutzt) oder Vermessungsinstrumente zurückgreifen, um vor einer manuellen Anpassung und Montage zu bohrende Löcher oder Führungen für die Ausrichtung zu markieren.
  • ,Räumliche' Chancen
  • Automatisierte Erfassung
  • Die Explosion des CAD im letzten Jahrzehnt, das durch den phänomenalen Markterfolg der Autodesk Corporation und anderer belegt wird, hat den Bedarf an rasch erfassten, genauen 3D-Daten in maschinenlesbarer Form deutlich werden lassen. Nachdem praktisch jeder Ingenieur und Zeichner von den Punkten und Linien der Reissschiene und des Bleistifts zu den Leuchtstoffen im Computerbildschirm übergewechselt ist, ist der Bedarf für räumliche Daten in die Höhe geschossen. Der derzeitige Prozess der manuellen Vermessung von Hunderten von Punkten, die später mit Software zu Linien und schlussendlich zu 3D-Darstellungen zusammengefügt werden, um von Ingenieuren und Zeichnern in CAD-Programmen verwendet zu werden, ist ineffizient und eine finanzielle Bürde.
  • Figure 01310001
    Cyrax-Daten, 3D-Betrachtung in AutoCAD
  • Ein System, das im Feld ganze 3D-Objekte in Gestalt vollständiger Oberflächen aufnehmen könnte, würde mehrere Schritte im derzeitigen Prozess der Datenerfassung eliminieren und ausserdem die Genauigkeit verbessern sowie Daten zur Verfügung stellen, die derzeit wegen der Kosten und technischen Begrenzungen nicht erfasst werden.
  • Zusätzlich zu den Alltagsmöglichkeiten der Datenerfassung existieren zahlreiche weitere Möglichkeiten bei der Erfassung. Unter den vielen in Marktstudien erwähnten gehören 3D-Erkundung/Sehen, Maschinensehen/-erkennung, Erfassung aus der Luft (als Ersatz für Luftbildphotogrammetrie) und Unterwassersehen zu den interessantesten.
  • Automatische Platzierung
  • In der Zukunft, wenn sich das volle 3D-Entwerfen in der durch Firmen wie Boeing eingeschlagenen Richtung weiter durchsetzt, wird die Möglichkeit, Objekte wie Gebäude oder Automobilteile direkt vom Bildschirm des Zeichners aus präzise zu positionieren, zum Standard werden. Cyra arbeitet an einer verhältnismässig einfachen und billigen Weiterentwicklung seiner Erfassungstechnologie, um das Problem der räumlichen Positionierung anzugehen.
  • II TECHNOLOGIE
  • A. Einführung
  • Figure 01320001
    CYRAX
  • Herausgefordert durch den Bedarf an genauen räumlichen Daten in der AEC-Industrie und durch das Fehlen von Werkzeugen für ihre Beschaffung widmet sich Cyra Technologies der Entwicklung eines tragbaren, dreidimensionalen Datenerfassungswerkzeugs, Cyrax. In vieler Hinsicht einer Kamera ähnlich, hat dieses in Entwicklung befindliche Instrument die zusätzliche Fähigkeit, die dreidimensionalen Koordinaten zu der Welt von „Punkten" zu erfassen, aus denen das Gesichtsfeld vor ihm besteht. Cyrax kombiniert die Geschwindigkeit und das hohe Aufnahmevolumen der Kamera mit der Erfassung von räumlich genauen 3D-Daten. Nach seiner Leistungsbeschreibung ist Cyrax ein digitales Präzisionsinstrument für sehr schnelle Feldmessungen in Millimetergenauigkeit (ein Modell auf 1 mm genau, das andere auf 6 mm genau) bei Entfernungen bis zu 50 m. Die Software von Cyrax, die auf einem kleinen tragbaren Computer läuft, vereint sich mit der Hardware zu einer anspruchsvollen Punktverarbeitung und einer freundlichen Hardware-Schnittstelle.
  • Künstlerkonzept von Cyrax
  • Angefangen bei den Anforderungen für ein nützliches Gerät für AEC-Spezialisten wurden potenzielle Technologien beurteilt. Obwohl die vorläufige Leistungsbeschreibung von Cyrax über den Rahmen aller existierenden Datenerfassungsmethoden hinausging, drängte Cyra mit einer Konzentration auf Lasertechnologie und insbesondere auf Laser-Radar vorwärts. Eine ausgedehnte Suche in Universitäts- und staatlichen Laboratorien sowie intensive Forschung des Cyra-Teams führte zur Schaffung und zum Zusammenbringen der technischen Kernkomponenten, die nötig waren, um die Leistungsbeschreibung zu erfüllen.
  • Unter Verwendung von Laser-Radar und einer extrem schnellen Picosekunden-Elektronik wurde Cyrax konstruiert, um Tausende von dreidimensionalen Koordinaten pro Sekunde in hellem Tageslicht zu erfassen.
  • Die Cyrax-Software ist ebenso anspruchsvoll wie die Hardware. Der innovative, benutzerfreundliche Code ermöglicht eine direkte Steuerung des Scanprozesses und die Erzeugung sinnvoller Daten aus der gewonnenen Punktwolke durche den Benutzer. Das Softwareteam kämpft gegenwärtig mit den Grenzen der automatischen Objekterkennung und -erzeugung, indem halbautomatische 3D-Objektsegmentierungsroutinen sowie schnelle, einfache Oberflächen- und Objekterzeugungswerkzeuge entwickelt wurden.
  • B. Laser-Radar
  • Trotz seiner mehr als 30 Jahre zurückliegenden Entdeckung hat Lidar oder Laser-Radar ausserhalb der Verteidigungsindustrie nur begrenzte Anwendung gefunden. Die Dynamik hat sich in der letzten Zeit geändert, nachdem einfachere, billige Mikrochip-Laser entwickelt und Anstrengungen gemacht wurden, die staatliche Verteidigungsforschung für die Industrie zu öffnen. Lidartechnologie fand ihre wirkliche Anerkennung 1986 mit der ersten jährlichen Laser-Radar-Konferenz.
  • Figure 01330001
    Früher Versuch der Industrie, fortgeschrittene Technologie mit der Totalstation für Vermesser zu vermählen
  • Lidar beruht wie das traditionelle Radar auf der präzisen Messung der Zeit für die Rückkehr eines Lichtpulses oder der präzisen Messung der Phasenverschiebung von Lichtpulsen. Der Einsatz von stark eingegrenzten und richtbaren Strahlen kohärenter Lichtwellen eines Lasers bietet deutliche Vorteile beim genauen Anpeilen. Bis in die letzte Zeit war Laser-Radar aber technisch eingeschränkt. Erstens boten wenige Laser genügend scharfe Energiepulse für eine sichere Messung ihrer Emission ohne einen Reflektor auf dem Zielobjekt. Zweitens waren Laufzeitmessungen für fokussierte Hochleistungs-Laseremissionen wegen des Fehlens einer Elektronik mit Picosekunden-Ansprechzeit, wie sie für Messungen bei Lichtgeschwindigkeit nötig ist, ungenügend genau. Im Ergebnis mussten Systeme wie Laser-Totalstationen für die Entfernungsmessung Hunderte oder sogar Tausende von Messungen machen, um Fehler der Zeitmesselektronik wegzumitteln.
  • Die jüngste Entwicklung eines Mikrochiplasers in einem führenden staatlichen Labor, der extrem scharfe Pulse hoher Energie abgibt, hat neue Möglichkeiten für Laser-Radar-Systeme eröffnet. Schnell reagierend, konnte Cyra Technologies die exklusiven weltweiten Rechte an diesem patentgeschützten Laser für Cyras Märkte erwerben.
  • C. Das Cyrax-System
  • Cyrax besteht aus drei Primärbestandteilen:
    • • dem elektronischen Laserscanner oder der „Field Digital Vision"- (digitales Feldsehvermögen) Maschine
    • • der FDV-Steuer-, Peil- und Bild'montage'-Software bzw. dem Computer Graphic Perception- (Computergrafik-Wahrnehmung) Modul
    • • der Kommunikationssoftware zu existierenden CAD von Dritten
  • Figure 01340001
    Gepulster Mikrochiplaser-Prototyp, montiert für Tests auf ein grosses optisches Teleskop
  • Entwicklungsstrategie
  • Cyrax wird durch ein Team internationaler Experten unter der Leitung von Dr. Jerry Dimsdale, Cyras Vizepräsidenten für Technologie, entwickelt. Durch Cyra finanziert wurde am Lincoln Laboratory des MIT der Lidar-Transceiver- (Sender und Empfänger) Teil des FDV entwickelt. Der übrige Teil des FDV einschliesslich des Scansystems und der Elektronik wurde von Cyra und verschiedene Konsulenten und Anbieter entwickelt. Die Entwicklung der Computergrafik-Software wird by Cyra unter Mithilfe von Forschern der Universität von Kalifornien in Berkeley durchgeführt. Die gesamte Entwicklung läuft in enger Zusammenarbeit mit dem Verkaufsteam von Cyra und mit industriellen Schlüsselfirmen, die vertraulich unterrichtet und in die Entwicklung einbezogen worden sind, um Input zu geben und bei der technischen Weiterentwicklung zu helfen.
  • Figure 01340002
    Funktionsfähiger Laborprototyp des vollen FDV-Systems
  • FDV
  • Das tragbare FDV-System hat drei Hauptelemente:
  • Figure 01350001
    Cyra-Laserkomponenten
  • Lidar-Transceiver
    • Laser
    • Detektor
    • Optik
    • Zeitmesselektronik
  • Figure 01350002
    Mikroplaster in Gehäuse
  • Elektromechanischer Scanner
    • Antriebsmotoren
    • Richtspiegel
    • Kodierer
    • Steuerelektronik
  • Figure 01350003
    Prototyp-PDV-Tranceiver
  • Interner Computer und Elektronik
    • eingebetteter digitaler Signalprozessor
    • Hilfselektronik und Leistungssteuerung
    • Batteriestromversorgung
  • CGP
  • Die CGP ist das „Gehirn" des Systems. Als eine komplexe Anordnung von hochmoderner Grafiksoftware drängt sie die Grenzen der Technik ebenso zurück wie der Laserscanner selbst. Indem sie eine intuitive Grafikschnittstelle zur Verfügung stellt, ermöglicht sie es dem Benutzer, das Gelände und die zu scannenden Details auf einer „Video"-Ansicht der Welt vor ihm anzupeilen. Während das FDV die ausgewählten Punkte der Szene scannt, zeigt die CGP die Punkte in einer zweiten, dreidimensionalen und tiefengeschatteten Ansicht an.
  • Es ist dieses zweite Fenster von Punkten, wo die Leistungsfähigkeit der CGP klar wird. Algorithmen zum Aufbau von Objekten ermöglichen es dem Benutzer mit wenigen Mausklicks, die ,Wolke von Punkten' in CAD-lesbare Ebenen, Zylinder und Oberflächen zu verwandeln. Mit Verständnisfür die Notwendigkeit von Genauigkeit bewahrt die Software alle gescannten Datenpunkte während des ganzen Prozesses (und erlaubt somit ihren optimalen Anpassungsalgorithmen, zusätzliche Daten zu nutzen, die eventuell später hinzukommen). Im Unterschied zum traditionellen Vermessungs- und Scangerät kann all diese Zusammenstellung von Daten extrem schnell und auch im Feld erfolgen. Dies bietet deutliche Vorteile: Daten können leicht stichprobenweise am Ort überprüft werden, um offensichtliche (und trotzdem in der traditionellen Praxis allzu häufige!) Fehler zu eliminieren. Beim Aufbau des Modells werden Bereiche, in denen mehr Detail erforderlich ist, offenbar, und mehr Daten können leicht hinzugefügt werden.
  • In Situationen, wo ein ganzes Objekt von einem Ort aus nicht erfasst werden kann, hat Cyra Software entwickelt, um Sätze von Scans zu einem grösseren Stück zusammenzuziehen.
  • Figure 01360001
  • Die CGP beruht auf offener Architektur und ist für Tragbarkeit und leichte Modifizierung in der Zukunft geschrieben. Die Entwicklung wurde an Silicon Graphics-Workstations mit der objektorientierten Sprache ANSI C++ ausgeführt, gekoppelt mit OpenGL und anderen Grafikumgebungen, die Industriestandards sind. Weil Cyrax ein tragbares, im Feld bedienbares System ist, hat Cyra auch die CGP so angepasst, dass sie auf generischen, leichten Laptops auf Intel-Basis läuft. Cyra hat erfolgreich demonstriert, dass die CGP auf einem Intel 486-Laptop mit Microsoft Windows NT läuft.
  • Derzeitige Pläne sehen vor, verschiedene Computer-Hardware-Optionen mit dem System anzubieten (siehe Anhang L für einen vorläufigen Preisplan). Diese reichen von einem IBM Pentium ThinkPad auf Hybridbasis bis zu den eher traditionellen Pentium- oder PowerPC-Laptops mit Erweiterungsschlitzen for eine der vielen Grafik-Beschleunigerkarten (wie der OKI America Triangl OpenGL Accelerator für Windows NT). Für Benutzer mit höchsten Ansprüchen, die Zugang zu einer festen Stromversorgung haben, kann eine SGI-Workstation angeboten werden.
  • CAD-Verknüpfung
  • Figure 01360002
    Cyrax-Steuerung aus MicroStation heraus
  • Statt das Rad neu zu erfinden, wird Cyrax für seine traditionellen Modellierungs-, Editing- und weiteren Datenmanipulationsbedürfnisse existierende CAD-Software heranziehen. Indem es dem Käufer ermöglicht wird, mit seinem eigenen CAD-System fortzufahren (die meisten Cyrax-Benutzer werden bereits einen Typ von CAD-Softwarepaket besitzen), werden Software- und Unterstützungskosten niedrig gehalten, und die Kompatibilität ist gewährleistet. Durch die Unterstützung des 3D-DXF-Dateiformats als Industriestandard kann die CGP mit fast allen existierenden CAD-Programmen verknüpft werden. Unterstützung weiterer 3D-Datenformate wird für spezialisierte Sektoren (wie den Automobilmarkt), wo ein Angebot höherer Leistungsmerkmale nützlich sein könnte, zusätzlich in Betracht gezogen. Für diejenigen, die eine engere Integration mit einem speziellen Softwarepaket wünschen, ermöglicht die offene Architektur der CGP eine verhältnismässig einfache Kopplung mit programmierbaren CAD-Systemen.
  • Eine Demonstration der CGP mit der RoadWorks-Software von Intergraph wurde während des Sommers 1994 durchgeführt.
  • D. Überblick über Konkurrenztechnologien
  • Trotz der Unterschiede zwischen den drei Zielsegmenten des Marktes bestehen weitgehende Gemeinsamkeiten bei den zugrunde liegenden Technologien. Es gibt zwei Kategorien der 3D-Erfassungstechnologie: berührend (wie Sonde, Band usw.) und berührungsfrei (wie Laser und Photogrammetrie). Bei berührenden Systemen wird eine bewegliche Messvorrichtung (typischerweise ein Lesestift mit Nadelspitze oder ein reflektierender Spiegel auf einem Pfahl) zu dem zu messenden Punkt gebracht. Bei berührungsfreien Systemen andererseits werden die Orte von Punkten im Raum auf einem von ihnen getrennten Objekt ferngemessen (oft mit Lichtreflexion).
  • Jede Technologie hat Vor- und Nachteile. Sonden neigen zu grösserer Genauigkeit, sind aber typischerweise langsam und umständlich (da sie Daten punktweise erfassen). Berührungsfreie Verfahren neigen zu grösserer Geschwindigkeit (da es sich erübrigt, jeden zu messenden Punkt aufzusuchen bzw. zu kontaktieren). Wie aus der Tabelle ersichtlich (und durch die Vielfalt der eingesetzten Systeme veranschaulicht), hatte vor dem Durchbruch von Cyra keine Technologie einen klaren Leistungsvorteil gegenüber den anderen.
  • Eine erschöpfende weltweite Suche ergab mehr als 70 Anbieter verschiedener Arten von 3D-Datenerfassungsystemen, von mechanischen Armen bis zu GPS-Empfängern und Laserscannern. Mit Ausnahme der Technologien der ,Totalstation' und der ,GPS-Totalstation' sind die meisten von diesen kleine Firmen mit zu wenig Kapital und Engagement, die teure Systeme begrenzter Funktionalität in geringen Stückzahlen verkaufen. Die vollen Produkt- und Anbieterbeschreibungen sowie Photographien und firmenweise erstellte Konkwrenzvergleiche stehen in Anhang B zur Verfügung.
  • Figure 01380001
  • Von den vielen Konkurrenten mit Datenerfassungssystemen sind nur zwei in der Lage, 3D-Daten über grosse Entfernungen (50 bis 100 m) zu erfassen: MENSI und SMX. Obwohl diese auf Lasern beruhenden Systeme eine Ähnlichkeit mit Cyra zu besitzen scheinen, sind sie beide ernstlich beschränkt. Das Laser-Interferometriesystem von SMX Chesapeake kostet über 100 000 Dollar und verlangt, dass eine Sonde an jedem zu bemessenden Punkt angebracht wird, was seine Fähigkeit, 3D-Oberflächen zu erfassen, einschränkt. Sein Vorteil ist die hohe Genauigkeit. Der MENSI Soisic setzt Laser-Triangulation ein, ist aber auf die Erfassung von 100 Punkten pro Sekunde beschränkt, ist nicht sehr tragbar (gross, schwer, Wechselstrom erforderlich) und kostet fast 260 000 Dollar. Keines dieser Systeme dürfte den hohen Software-Entwicklungsgrad von Cyrax besitzen.

Claims (10)

  1. Vorrichtung zur Gewinnung von Positionsdaten für Oberflächenpunkte auf einem dreidimensionalen Objekt, umfassend einen Laser (602) zur Erzeugung eines Lichtstrahls, ein Scansystem (504) zum Scannen des Objekts mit dem Laserstrahl; sowie ein Überwachungsorgan (610) zur automatischen Messung des Abstandes vom Objekt, wobei das Überwachungsorgan auch die Winkellage des Laserstrahls misst und wobei die Daten für den Abstand und die Winkellage dafür geeignet sind, eine dreidimensionale Darstellung des Objekts zu erzeugen, dadurch gekennzeichnet, dass der Laser einen gepulsten Strahl erzeugt, in dem die Lichtpulse eine Dauer von weniger als einer Nanosekunde besitzen und jeder Puls eine Energie von weniger als 0,2 μJ besitzt, wobei die Zeitmessung eine Auflösung von 30 ps oder darunter besitzt, die Messung des Objektabstandes auf der Laufzeit der Laserpulse beruht und das Überwachungsorgan über Entfernungen bis zu 100 Metern bei einer Standardabweichung eine Positionsgenauigkeit für jeden Punkt im dreidimensionalen Raum von sechs Millimetern oder besser hat.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Laserstrahl eine Durchschnittsleistung besitzt, die durch die Pulsfrequenz gesteuert wird, um Beschränkungen zum Augenschutz einzuhalten, insbesondere eine Durchschnittsleistung von nicht mehr als einem Milliwatt.
  3. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass jede Abstandsmessung in weniger als 0,005 Sekunden erfolgen kann.
  4. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Laser ein diodengepumpter, frequenzverdoppelter Festkörperlaser ist.
  5. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Wellenlänge des Laserstrahls im sichtbaren Spektralbereich liegt.
  6. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Wellenlänge des Laserstrahls etwa 532 nm beträgt.
  7. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Vorrichtung dafür geeignet ist, ein Objekt zu messen, das mit Retroreflektoren versehen ist, und wobei der Arbeitsbereich bis zu einer Meile beträgt.
  8. Vorrichtung nach einem der vorangehenden Ansprüche, weiter ein Prozessororgan enthaltend, um auf der Grundlage der Abstands- und Winkellagedaten eine Punktwolke zu erzeugen, wobei die Punktwolke eine Mehrzahl von Datenpunkten umfasst, von denen jeder den Ort eines entsprechenden Punktes auf der Oberfläche des Objekts darstellt.
  9. Vorrichtung nach Anspruch 8, weiter ein Prozessororgan enthaltend, um auf der Basis der Daten der Punktwolke ein Modell des Objekts zu liefern, das die Information über Abstand und Lage enthält.
  10. Vorrichtung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Scansystem (504) ein Spiegelscannersystem ist.
DE69733014T 1996-04-24 1997-04-24 Integriertes system zum abbilden und modellieren von dreidimensionalen objekten Active DE69733014T8 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US638961 1996-04-24
US08/638,961 US5988862A (en) 1996-04-24 1996-04-24 Integrated system for quickly and accurately imaging and modeling three dimensional objects
PCT/US1997/006793 WO1997040342A2 (en) 1996-04-24 1997-04-24 Integrated system for imaging and modeling three-dimensional objects

Publications (3)

Publication Number Publication Date
DE69733014D1 DE69733014D1 (de) 2005-05-19
DE69733014T2 true DE69733014T2 (de) 2006-02-09
DE69733014T8 DE69733014T8 (de) 2006-04-27

Family

ID=24562171

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69733014T Active DE69733014T8 (de) 1996-04-24 1997-04-24 Integriertes system zum abbilden und modellieren von dreidimensionalen objekten

Country Status (7)

Country Link
US (12) US5988862A (de)
EP (1) EP0895577B1 (de)
JP (1) JP4400894B2 (de)
AT (1) ATE293244T1 (de)
CA (1) CA2252409A1 (de)
DE (1) DE69733014T8 (de)
WO (1) WO1997040342A2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2607841A2 (de) 2011-12-23 2013-06-26 HILTI Aktiengesellschaft Optisches System
DE102016122830A1 (de) * 2016-11-25 2018-05-30 NoKra Optische Prüftechnik und Automation GmbH Verfahren und Anordnung zur Abstandsmessung
DE102017121591A1 (de) * 2017-06-26 2018-12-27 Its Korea System zum Extrahieren von Positionsinformationen von Objekten aus Punktwolkendaten unter Verwendung von Komponenten
DE102018221530A1 (de) 2018-12-12 2020-06-18 Robert Bosch Gmbh LiDAR-System sowie Kraftfahrzeug
DE112007003293B4 (de) * 2007-01-26 2021-01-21 Trimble Jena Gmbh Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE102020131497A1 (de) 2020-11-27 2022-06-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Konstruieren eines Bauteils, elektronische Recheneinrichtung, Computerprogrammprodukt und computerlesbares Medium

Families Citing this family (1064)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6705526B1 (en) 1995-12-18 2004-03-16 Metrologic Instruments, Inc. Automated method of and system for dimensioning objects transported through a work environment using contour tracing, vertice detection, corner point detection, and corner point reduction methods on two-dimensional range data maps captured by an amplitude modulated laser scanning beam
US20020014533A1 (en) * 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US7190371B2 (en) 1996-02-08 2007-03-13 Palm Charles S 3D stereo browser for the internet
US7091991B2 (en) * 1996-02-08 2006-08-15 Palm Charles S 3D stereo browser for the internet
WO1997031305A2 (en) * 1996-02-08 1997-08-28 Synthonics Incorporated 3d stereo browser for the internet
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
AU3766697A (en) * 1996-07-11 1998-02-09 Mirai S.R.L. Method for the creation of tridimensional numerical models
US6084587A (en) 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
JPH10304334A (ja) * 1997-04-25 1998-11-13 Canon Inc 通信方法、通信装置、送信装置、受信装置、通信システム、及び記憶媒体
US6034803A (en) * 1997-04-30 2000-03-07 K2 T, Inc. Method and apparatus for directing energy based range detection sensor
US6195662B1 (en) * 1997-06-27 2001-02-27 Juxtacomm Technologies Inc. System for transforming and exchanging data between distributed heterogeneous computer systems
US6304680B1 (en) * 1997-10-27 2001-10-16 Assembly Guidance Systems, Inc. High resolution, high accuracy process monitoring system
US6407735B2 (en) * 1997-11-13 2002-06-18 Crump Group Inc. Method for generating surface representations of objects from layered data
US6446030B1 (en) * 1998-01-24 2002-09-03 Quantapoint, Inc. Method and apparatus for establishing the layout of a building
US6065021A (en) * 1998-04-07 2000-05-16 Adobe Systems Incorporated Apparatus and method for alignment of graphical elements in electronic document
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
US6201546B1 (en) * 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
DE19832974A1 (de) * 1998-07-22 2000-01-27 Siemens Ag Vorrichtung und Verfahren zur Erstellung eines virtuellen Anlagenmodells
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6421048B1 (en) 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6748112B1 (en) * 1998-07-28 2004-06-08 General Electric Company Method and apparatus for finding shape deformations in objects having smooth surfaces
SE521173C2 (sv) * 1998-09-17 2003-10-07 Spectra Prec Ab Elektronisk distansmätanordning
US6559860B1 (en) * 1998-09-29 2003-05-06 Rockwell Software Inc. Method and apparatus for joining and manipulating graphical objects in a graphical user interface
AU6410699A (en) * 1998-10-13 2000-05-01 Chris Cheah Method and system for controlled distribution of information over a network
AU6355799A (en) * 1998-10-28 2000-05-15 Measurement Devices Limited Apparatus and method for obtaining 3d images
US6256038B1 (en) * 1998-12-10 2001-07-03 The Board Of Trustees Of The Leland Stanford Junior University Parameterized surface fitting technique having independent control of fitting and parameterization
DE19902363C2 (de) * 1999-01-21 2001-11-29 Daimler Chrysler Ag Verfahren und Vorrichtung zur digitalen Verarbeitung von Computergraphiken in Form von mittels optischen Meßsystemen gewonnenen dreidimensionalen Datenfeldern
JP2000221037A (ja) * 1999-01-29 2000-08-11 Topcon Corp 自動測量機と3次元測定方法
US7092860B1 (en) * 1999-02-03 2006-08-15 Mitutoyo Corporation Hardware simulation systems and methods for vision inspection systems
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6728423B1 (en) 2000-04-28 2004-04-27 Orametrix, Inc. System and method for mapping a surface
US6413084B1 (en) 2000-04-28 2002-07-02 Ora Metrix, Inc. Method and system of scanning
US7068836B1 (en) 2000-04-28 2006-06-27 Orametrix, Inc. System and method for mapping a surface
US6771809B1 (en) 2000-04-28 2004-08-03 Orametrix, Inc. Method and system for registering data
US6744932B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. System and method for mapping a surface
US6532299B1 (en) 2000-04-28 2003-03-11 Orametrix, Inc. System and method for mapping a surface
US6744914B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. Method and system for generating a three-dimensional object
US6738508B1 (en) 2000-04-28 2004-05-18 Orametrix, Inc. Method and system for registering data
JP2000259814A (ja) * 1999-03-11 2000-09-22 Toshiba Corp 画像処理装置及びその方法
SG120124A1 (en) * 1999-04-07 2006-03-28 Federal Express Corp System and method for dimensioning objects
US6580428B1 (en) * 1999-05-24 2003-06-17 Parametric Technology Corporation Method and system for identifying peripheral elements of a complex model
US6545676B1 (en) * 1999-05-24 2003-04-08 Parametric Technology Corporation Method and system for creating a tessellated approximation of an outer envelope of a complex model
US6619406B1 (en) * 1999-07-14 2003-09-16 Cyra Technologies, Inc. Advanced applications for 3-D autoscanning LIDAR system
US8160994B2 (en) * 1999-07-21 2012-04-17 Iopener Media Gmbh System for simulating events in a real environment
US6647131B1 (en) * 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US7161688B1 (en) 1999-08-31 2007-01-09 Brett Bonner Mass scanning and dimensioning system
US7184051B1 (en) * 1999-09-10 2007-02-27 Sony Computer Entertainment Inc. Method of and apparatus for rendering an image simulating fluid motion, with recording medium and program therefor
US7111252B1 (en) 1999-09-22 2006-09-19 Harris Scott C Enhancing touch and feel on the internet
US7212201B1 (en) 1999-09-23 2007-05-01 New York University Method and apparatus for segmenting an image in order to locate a part thereof
KR100351674B1 (ko) * 1999-10-29 2002-09-10 한국과학기술원 유한요소해석을 위해 사용되는 육면체 요소격자의 형상을 개선하기 위한 표면요소층 구성방법
SE515374C2 (sv) * 1999-10-29 2001-07-23 Abb Flexible Automation As Förfarande och anordning för bestämning av ett objekts koordinater och orientering i ett referenskoordinatsystem
US6621918B1 (en) 1999-11-05 2003-09-16 H Innovation, Inc. Teleradiology systems for rendering and visualizing remotely-located volume data sets
FR2802324B1 (fr) * 1999-12-10 2004-07-23 Inst Francais Du Petrole Methode pour generer un maillage sur une formation heterogene traversee par une ou plusieurs discontinuites geometriques dans le but de realiser des simulations
US6957177B1 (en) * 1999-12-10 2005-10-18 Microsoft Corporation Geometric model database for use in ubiquitous computing
JP2001183108A (ja) * 1999-12-27 2001-07-06 Minolta Co Ltd 距離測定装置
US6665569B1 (en) * 2000-01-12 2003-12-16 Parametric Technology Corporation Method and system for dynamically updating geometric models
DE10195135B4 (de) * 2000-01-31 2010-01-14 Julian Eccleshall Vorrichtung und Verfahren zur Aufnahme einer dreidimensionalen Figur auf einer zweidimensionalen Oberfläche, die die Herstellung von Kleidungsschnittmustern ermöglichen
US6650402B2 (en) * 2000-02-10 2003-11-18 Oceanit Laboratories, Inc. Omni-directional cloud height indicator
US7617135B2 (en) * 2000-02-16 2009-11-10 Illinois Computer Research, Llc Enhancing touch and feel on the internet
JP3685249B2 (ja) * 2000-02-21 2005-08-17 オリジナル設計株式会社 3次元構造物設計システム、3次元構造物設計方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3752126B2 (ja) * 2000-03-10 2006-03-08 ペンタックス株式会社 Af測距光学系
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
DE50110398D1 (de) * 2000-04-07 2006-08-17 Pilz Gmbh & Co Kg Schutzvorrichtung zum absichern eines gefahrenbereichs sowie verfahren zum überprüfen der funktionssicherheit einer solchen
US6968299B1 (en) * 2000-04-14 2005-11-22 International Business Machines Corporation Method and apparatus for reconstructing a surface using a ball-pivoting algorithm
US6547397B1 (en) 2000-04-19 2003-04-15 Laser Projection Technologies, Inc. Apparatus and method for projecting a 3D image
WO2001084479A1 (en) * 2000-04-28 2001-11-08 Orametirix, Inc. Method and system for scanning a surface and generating a three-dimensional object
US7027642B2 (en) * 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US7471821B2 (en) * 2000-04-28 2008-12-30 Orametrix, Inc. Method and apparatus for registering a known digital object to scanned 3-D model
US6968075B1 (en) * 2000-05-09 2005-11-22 Chang Kurt C System and method for three-dimensional shape and size measurement
EP1299787A4 (de) * 2000-05-18 2005-02-02 Visionix Ltd Brillenanpasssystem und darin nützliche anpassverfahren
US6633290B1 (en) 2000-05-18 2003-10-14 Cyra Technologies, Inc. Apparatus and method for forming 2D views of a structure from 3D point data
US6604068B1 (en) * 2000-05-18 2003-08-05 Cyra Technologies, Inc. System and method for concurrently modeling any element of a model
US6771840B1 (en) * 2000-05-18 2004-08-03 Leica Geosystems Hds, Inc. Apparatus and method for identifying the points that lie on a surface of interest
US6804380B1 (en) * 2000-05-18 2004-10-12 Leica Geosystems Hds, Inc. System and method for acquiring tie-point location information on a structure
DE10025110C2 (de) 2000-05-20 2003-01-16 Zsp Geodaetische Sys Gmbh Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
JP4810052B2 (ja) 2000-06-15 2011-11-09 オートモーティブ システムズ ラボラトリー インコーポレーテッド 乗員センサ
US6996505B1 (en) 2000-06-21 2006-02-07 Raindrop Geomagic, Inc. Methods, apparatus and computer program products for automatically generating nurbs models of triangulated surfaces using homeomorphisms
US7006951B2 (en) * 2000-06-29 2006-02-28 Object Reservoir, Inc. Method for solving finite element models using time slabbing
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
US20020059177A1 (en) * 2000-07-11 2002-05-16 Paul Hansen Method of forming a template and associated computer device and computer software program product
US6608913B1 (en) * 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
GB2364894B8 (en) 2000-07-19 2010-07-07 Fmc Corp Three axis portioning method
IL137635A0 (en) * 2000-08-01 2001-10-31 Visionix Ltd Apparatus for interactive optometry
WO2002009833A1 (en) 2000-08-02 2002-02-07 Timothy James Ball Simulation system
US6734410B2 (en) * 2000-08-30 2004-05-11 Pentax Precision Co., Ltd. Surveying instrument having an optical distance meter and an autofocus system, and a surveying instrument having a detachable autofocus system
JP4608152B2 (ja) * 2000-09-12 2011-01-05 ソニー株式会社 三次元データ処理装置および三次元データ処理方法、並びにプログラム提供媒体
US6639684B1 (en) * 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
US7358986B1 (en) * 2000-09-13 2008-04-15 Nextengine, Inc. Digital imaging system having distribution controlled over a distributed network
US6856407B2 (en) 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
CA2422242A1 (en) * 2000-09-13 2002-03-21 Nextengine, Inc. Imaging system monitored or controlled to ensure fidelity of file captured
US7046839B1 (en) 2000-09-19 2006-05-16 Spg Hydro International Inc. Techniques for photogrammetric systems
HU0003886D0 (en) * 2000-10-04 2000-12-28 Method and apparatus for preparing statue-like copy
US7050876B1 (en) * 2000-10-06 2006-05-23 Phonak Ltd. Manufacturing methods and systems for rapid production of hearing-aid shells
JP2002122899A (ja) * 2000-10-16 2002-04-26 Matsushita Electric Ind Co Ltd 虹彩撮像装置
US6771276B1 (en) * 2000-10-27 2004-08-03 Macromedia, Inc. Two-dimensional drawing environment utilizing perspective grids
US6909794B2 (en) * 2000-11-22 2005-06-21 R2 Technology, Inc. Automated registration of 3-D medical scans of similar anatomical structures
IL146597A0 (en) * 2001-11-20 2002-08-14 Gordon Goren Method and system for creating meaningful summaries from interrelated sets of information
FR2817339B1 (fr) * 2000-11-24 2004-05-14 Mensi Dispositif de relevement tridimensionnel d'une scene a emission laser
US7305367B1 (en) * 2000-12-13 2007-12-04 Quickparts.Com Instantaneous price quotation system for custom manufactured parts
US6958752B2 (en) 2001-01-08 2005-10-25 Sensable Technologies, Inc. Systems and methods for three-dimensional modeling
DE10102477A1 (de) 2001-01-19 2002-07-25 Storz Endoskop Gmbh Schaffhaus Vorrichtung zum Applizieren von Licht auf eine Gefäßwand
DE10103870B4 (de) * 2001-01-30 2004-02-05 Daimlerchrysler Ag Verfahren zur Bilderkennung bei Kraftfahrzeugen
US7233351B1 (en) 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
ATE539562T1 (de) * 2001-03-02 2012-01-15 3Shape As Verfahren zum individuellen anpassen von hörmuscheln
US7405692B2 (en) * 2001-03-16 2008-07-29 Battelle Memorial Institute Detecting concealed objects at a checkpoint
US7365672B2 (en) * 2001-03-16 2008-04-29 Battelle Memorial Institute Detection of a concealed object
US20040062433A1 (en) * 2001-03-16 2004-04-01 Munsell William Paul, Jr. Method to approximate section properties of mechnical elements through data obtained from digital images
DE60207395T2 (de) 2001-04-04 2006-06-08 Instro Precision Ltd., Broadstairs System zur bildanalyse
GB2374743A (en) * 2001-04-04 2002-10-23 Instro Prec Ltd Surface profile measurement
US6654690B2 (en) * 2001-04-05 2003-11-25 Harris Corporation Automated method for making a topographical model and related system
US6968073B1 (en) * 2001-04-24 2005-11-22 Automotive Systems Laboratory, Inc. Occupant detection system
CA2445044C (en) * 2001-04-25 2011-02-15 Amnis Corporation Method and apparatus for correcting crosstalk and spatial resolution for multichannel imaging
US8958654B1 (en) * 2001-04-25 2015-02-17 Lockheed Martin Corporation Method and apparatus for enhancing three-dimensional imagery data
US6853373B2 (en) * 2001-04-25 2005-02-08 Raindrop Geomagic, Inc. Methods, apparatus and computer program products for modeling three-dimensional colored objects
US20020164067A1 (en) * 2001-05-02 2002-11-07 Synapix Nearest neighbor edge selection from feature tracking
US6816534B2 (en) * 2001-05-03 2004-11-09 General Atomics Tunable single frequency filter for lasers
US6816607B2 (en) 2001-05-16 2004-11-09 Siemens Corporate Research, Inc. System for modeling static and dynamic three dimensional anatomical structures by 3-D models
ATE336717T1 (de) 2001-05-17 2006-09-15 Xenogen Corp Verfahren und vorrichtung zur feststellung von zieltiefe, helligkeit und grösse in einer körperregion
CA2348212A1 (en) * 2001-05-24 2002-11-24 Will Bauer Automatic pan/tilt pointing device, luminaire follow-spot, and 6dof 3d position/orientation calculation information gathering system
IL143503A0 (en) 2001-05-31 2002-04-21 Visionix Ltd Aberration correction spectacle lens
US7061628B2 (en) * 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
AU2002315499B2 (en) * 2001-06-29 2006-08-03 Quantronix, Inc. Overhead dimensioning system and method
DE10132226A1 (de) * 2001-06-29 2003-01-16 Kpv Ag Bern Verfahren zur Herstellung einer dreidimensionalen Kopie von einem als Vorlage dienenden Körper und Anlage zur Durchführung des Verfahrens
ATE278987T1 (de) * 2001-07-04 2004-10-15 Okyz Verfahren und system für die ausfuhr von datenverbänden zu zweidimensionalen oder dreidimensionalen geometrischen entitäten
CA2453056A1 (en) * 2001-07-06 2003-01-16 Vision Iii Imaging, Inc. Image segmentation by means of temporal parallax difference induction
US7190832B2 (en) 2001-07-17 2007-03-13 Amnis Corporation Computational methods for the segmentation of images of objects from background in a flow imaging instrument
US20030028361A1 (en) * 2001-07-24 2003-02-06 Nelson Daniel W. Computer program and method for simulating physical instruments
JP3910582B2 (ja) * 2001-07-31 2007-04-25 株式会社キャドセンター 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
US7164785B2 (en) * 2001-08-07 2007-01-16 Southwest Research Institute Apparatus and methods of generation of textures with depth buffers
US7039723B2 (en) * 2001-08-31 2006-05-02 Hinnovation, Inc. On-line image processing and communication system
US7023432B2 (en) * 2001-09-24 2006-04-04 Geomagic, Inc. Methods, apparatus and computer program products that reconstruct surfaces from data point sets
US20030086595A1 (en) * 2001-11-07 2003-05-08 Hui Hu Display parameter-dependent pre-transmission processing of image data
AT412028B (de) * 2001-11-09 2004-08-26 Riegl Laser Measurement Sys Einrichtung zur aufnahme eines objektraumes
JP3673749B2 (ja) * 2001-11-12 2005-07-20 ファナック株式会社 シミュレーション装置
US7117047B1 (en) * 2001-12-04 2006-10-03 Assembly Guidance Systems, Inc. High accuracy inspection system and method for using same
JP2003178153A (ja) * 2001-12-12 2003-06-27 Konica Corp メンテナンス情報提供システム、ホストコンピュータ、及び、電子機器
AT412032B (de) * 2001-12-19 2004-08-26 Riegl Laser Measurement Sys Verfahren zur aufnahme eines objektraumes
US7344082B2 (en) * 2002-01-02 2008-03-18 Metrologic Instruments, Inc. Automated method of and system for dimensioning objects over a conveyor belt structure by applying contouring tracing, vertice detection, corner point detection, and corner point reduction methods to two-dimensional range data maps of the space above the conveyor belt captured by an amplitude modulated laser scanning beam
US6759979B2 (en) 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
US6922234B2 (en) * 2002-01-23 2005-07-26 Quantapoint, Inc. Method and apparatus for generating structural data from laser reflectance images
US20030161505A1 (en) * 2002-02-12 2003-08-28 Lawrence Schrank System and method for biometric data capture and comparison
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
KR20030071101A (ko) * 2002-02-27 2003-09-03 한창석 역설계 기법을 이용한 대형 부조물 제작 방법
KR20030071100A (ko) * 2002-02-27 2003-09-03 한창석 역설계 기법을 이용한 대형 조형물 제작 방법
US6713125B1 (en) 2002-03-13 2004-03-30 3D Systems, Inc. Infiltration of three-dimensional objects formed by solid freeform fabrication
JP4004316B2 (ja) * 2002-03-20 2007-11-07 株式会社トプコン 測量装置及び測量装置を用いて画像データを取得する方法
JP4085671B2 (ja) * 2002-03-29 2008-05-14 コニカミノルタホールディングス株式会社 データ処理方法、データ処理プログラムおよび記録媒体
US7310431B2 (en) * 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
US7439987B2 (en) * 2002-04-17 2008-10-21 The Boeing Company Vector graphic normalizer
WO2003098260A1 (en) * 2002-05-15 2003-11-27 Carnegie Mellon University Apparatus and method for detecting obstacles
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US6791542B2 (en) * 2002-06-17 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Modeling 3D objects with opacity hulls
EP1662228A1 (de) * 2004-11-19 2006-05-31 Harman Becker Automotive Systems GmbH Abtasten dreidimensionaler Objekte
EP1520268A4 (de) * 2002-07-10 2009-05-20 Harman Becker Automotive Sys System zur texturierung elektronischer darstellung von objekten
US7399220B2 (en) * 2002-08-02 2008-07-15 Kriesel Marshall S Apparatus and methods for the volumetric and dimensional measurement of livestock
US20040039465A1 (en) * 2002-08-23 2004-02-26 Boyer Larry Paul Modular tooling approach to major structural repair
US6728608B2 (en) 2002-08-23 2004-04-27 Applied Perception, Inc. System and method for the creation of a terrain density model
CA2496916C (en) * 2002-08-27 2012-02-14 Mads Jeppe Tarp-Johansen A method and a system for automatic measurement and tracking of logs, industrial wood and boards
JP2004093504A (ja) 2002-09-03 2004-03-25 Topcon Corp 測量装置
US7030875B2 (en) * 2002-09-04 2006-04-18 Honda Motor Company Ltd. Environmental reasoning using geometric data structure
US7342228B1 (en) * 2002-09-06 2008-03-11 Oceanit Laboratories, Inc. Method and apparatus for measurement of aerosols and imaging
US7133734B2 (en) * 2002-09-20 2006-11-07 Richard Backer Method for creating a sculpture
WO2004032001A1 (en) * 2002-10-01 2004-04-15 Agency For Science, Technology And Research An object representation method
US6931294B2 (en) * 2002-10-08 2005-08-16 The Boeing Company Method for generating three-dimensional CAD models of complex products or systems
US20050049751A1 (en) * 2002-11-11 2005-03-03 Farnworth Warren M. Machine vision systems for use with programmable material consolidation apparatus and systems
US7129942B2 (en) * 2002-12-10 2006-10-31 International Business Machines Corporation System and method for performing domain decomposition for multiresolution surface analysis
US7398481B2 (en) * 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
US6707415B1 (en) * 2002-12-20 2004-03-16 Honeywell International Inc. Method and system for generating weather and ground reflectivity information
US7218330B1 (en) * 2003-01-07 2007-05-15 Microsoft Corporation Method and system for selecting elements in a graphical user interface
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
US7148861B2 (en) * 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US6811264B2 (en) * 2003-03-21 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Geometrically aware projector
DE10312611A1 (de) * 2003-03-21 2004-09-30 Daimlerchrysler Ag Verfahren und Vorrichtung zum Erfassen eines Objekts im Umfeld eines Kraftfahrzeugs
JP5189287B2 (ja) * 2003-03-24 2013-04-24 ディーフォーディー テクノロジーズ エルエルシー 歯科用レーザデジタイザシステム
US7257248B2 (en) * 2003-03-27 2007-08-14 General Electric Company Non-contact measurement system and method
US7436494B1 (en) 2003-03-28 2008-10-14 Irvine Sensors Corp. Three-dimensional ladar module with alignment reference insert circuitry
US8198576B2 (en) * 2003-03-28 2012-06-12 Aprolase Development Co., Llc Three-dimensional LADAR module with alignment reference insert circuitry comprising high density interconnect structure
JP4024719B2 (ja) * 2003-04-14 2007-12-19 株式会社トプコン 電子式測量装置
US7242460B2 (en) * 2003-04-18 2007-07-10 Sarnoff Corporation Method and apparatus for automatic registration and visualization of occluded targets using ladar data
AU2003902102A0 (en) * 2003-05-02 2003-05-22 The Institute For Eye Research Contact lens
JP4151476B2 (ja) * 2003-05-14 2008-09-17 ソニー株式会社 レーザ光安定化方法、レーザ光発生装置
US20040257331A1 (en) * 2003-06-19 2004-12-23 Kazutora Yoshino 3 Dimensional input device
US7215810B2 (en) * 2003-07-23 2007-05-08 Orametrix, Inc. Method for creating single 3D surface model from a point cloud
US6764185B1 (en) * 2003-08-07 2004-07-20 Mitsubishi Electric Research Laboratories, Inc. Projector as an input and output device
US20050038553A1 (en) * 2003-08-15 2005-02-17 York International Corporation System and method for managing the production of a custom designed product
TWI313420B (en) * 2003-08-20 2009-08-11 Hon Hai Prec Ind Co Ltd A system and method for inputting point-cloud
US9082220B2 (en) * 2003-08-26 2015-07-14 Siemens Product Lifecycle Management Software Inc. System, method, and computer program product for smoothing
CN100462982C (zh) * 2003-08-26 2009-02-18 鸿富锦精密工业(深圳)有限公司 点云汇入系统及方法
US20050063593A1 (en) * 2003-09-19 2005-03-24 Nelson James M. Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population
US8294712B2 (en) * 2003-09-19 2012-10-23 The Boeing Company Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population
JP2005100176A (ja) * 2003-09-25 2005-04-14 Sony Corp 画像処理装置およびその方法
JP2008518195A (ja) * 2003-10-03 2008-05-29 オートモーティブ システムズ ラボラトリー インコーポレーテッド 乗員検出システム
US7181371B2 (en) * 2003-10-22 2007-02-20 Eflection, Inc. Apparatus and method for inputting measurements into a software product to construct software models of architectural structures
US7382378B2 (en) 2003-10-30 2008-06-03 Sensable Technologies, Inc. Apparatus and methods for stenciling an image
US7095418B2 (en) 2003-10-30 2006-08-22 Sensable Technologies, Inc. Apparatus and methods for texture mapping
DE60319445T2 (de) 2003-11-05 2009-02-19 Diamscan N.V. Vorrichtung und satz zur visualisierung eines schleifplans für einen diamant und verfahren zur bestimmung eines schleifplans
US20050176812A1 (en) * 2003-11-06 2005-08-11 Pamela Cohen Method of treating cancer
TWI266035B (en) * 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
US20050125770A1 (en) * 2003-11-13 2005-06-09 Arsenault Stephane M. Method and system for surveying and modeling a site
US7889209B2 (en) 2003-12-10 2011-02-15 Sensable Technologies, Inc. Apparatus and methods for wrapping texture onto the surface of a virtual object
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US20050157931A1 (en) * 2004-01-15 2005-07-21 Delashmit Walter H.Jr. Method and apparatus for developing synthetic three-dimensional models from imagery
US7194326B2 (en) 2004-02-06 2007-03-20 The Boeing Company Methods and systems for large-scale airframe assembly
US7580816B2 (en) * 2004-02-06 2009-08-25 The Boeing Company Apparatus and methods for creating sketch-based eggcrate substructures for composite parts
US7605756B2 (en) * 2004-03-01 2009-10-20 Ez 2 Cad Ltd System a method and an apparatus for performing wireless measurements, positioning and surface mapping by means of a portable coordinate system
US7180072B2 (en) * 2004-03-01 2007-02-20 Quantapoint, Inc. Method and apparatus for creating a registration network of a scene
US7382238B2 (en) * 2004-03-01 2008-06-03 Sensys Networks, Inc. Method and apparatus for operating and using wireless vehicular sensor node reporting vehicular sensor data and/or ambient conditions
US7542050B2 (en) 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7262783B2 (en) * 2004-03-03 2007-08-28 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
US7327857B2 (en) * 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
FI117490B (fi) * 2004-03-15 2006-10-31 Geodeettinen Laitos Menetelmä puustotunnusten määrittämiseksi laserkeilaimen, kuvainformaation ja yksittäisten puiden tulkinnan avulla
US7323670B2 (en) * 2004-03-16 2008-01-29 Leica Geosystems Hds Llc Laser operation for survey instruments
US7664563B2 (en) * 2007-09-14 2010-02-16 Searete Llc System for making custom prototypes
US20060012081A1 (en) * 2004-07-16 2006-01-19 Bran Ferren Custom prototyping
US8042056B2 (en) * 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
US7187823B2 (en) * 2004-03-16 2007-03-06 Leica Geosystems Hds Llc Contact-free slip ring for survey instrumentation
US20060031044A1 (en) * 2004-08-04 2006-02-09 Bran Ferren Identification of interior design features
US10215562B2 (en) * 2004-07-16 2019-02-26 Invention Science Find I, LLC Personalized prototyping
US20060025878A1 (en) * 2004-07-30 2006-02-02 Bran Ferren Interior design using rapid prototyping
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US7352369B2 (en) 2004-04-29 2008-04-01 Landmark Graphics Corporation System and method for approximating an editable surface
DE102004022606A1 (de) * 2004-05-07 2005-12-15 Envisiontec Gmbh Verfahren zur Herstellung eines dreidimensionalen Objekts mit verbesserter Trennung ausgehärteter Materialschichten von einer Bauebene
US7714855B2 (en) * 2004-05-17 2010-05-11 Siemens Medical Solutions Usa, Inc. Volume rendering processing distribution in a graphics processing unit
US7199872B2 (en) * 2004-05-18 2007-04-03 Leica Geosystems Ag Method and apparatus for ground-based surveying in sites having one or more unstable zone(s)
EP1600564A1 (de) * 2004-05-24 2005-11-30 Leica Geosystems AG Verfahren zur Steuerung einer oberflächenverändernden Maschine
JP4427389B2 (ja) * 2004-06-10 2010-03-03 株式会社トプコン 測量機
EP1610091A1 (de) * 2004-06-23 2005-12-28 Leica Geosystems AG Scannersystem und Verfahren zur Erfassung von Oberflächen
TWI242147B (en) * 2004-06-23 2005-10-21 Coretech Sys Co Ltd Method of rapidly building multiple three-dimensional pipes
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US7649616B2 (en) * 2004-07-08 2010-01-19 Lockheed Martin Corporation Fiber laser ladar
US7571081B2 (en) 2004-07-15 2009-08-04 Harris Corporation System and method for efficient visualization and comparison of LADAR point data to detailed CAD models of targets
US7567731B2 (en) * 2004-07-15 2009-07-28 Harris Corporation Method and system for simultaneously registering multi-dimensional topographical points
US7298891B2 (en) * 2004-07-15 2007-11-20 Harris Corporation Bare earth digital elevation model extraction for three-dimensional registration from topographical points
US7304645B2 (en) * 2004-07-15 2007-12-04 Harris Corporation System and method for improving signal to noise ratio in 3-D point data scenes under heavy obscuration
DE602004012086T2 (de) 2004-07-22 2009-02-19 Bea S.A. Laser Abtast- und Detektionsvorrichtung zur Detektion um automatische Türen
ES2323637T3 (es) * 2004-07-22 2009-07-22 Bea S.A. Dispositivo termosensible de deteccion de presencia alrededor de puertas automaticas.
JP2006030147A (ja) * 2004-07-22 2006-02-02 Hitachi Ltd 環境認識システムおよび移動機構
EP1779295A4 (de) * 2004-07-26 2012-07-04 Automotive Systems Lab Schutzsystem für gefährdete strassenbenutzer
US7545373B2 (en) * 2004-08-03 2009-06-09 Nextpat Limited Applications with integrated capture
NZ534677A (en) * 2004-08-18 2007-10-26 Hgm Design Ltd Model generation and distribution system
US7728833B2 (en) * 2004-08-18 2010-06-01 Sarnoff Corporation Method for generating a three-dimensional model of a roof structure
US7522163B2 (en) * 2004-08-28 2009-04-21 David Holmes Method and apparatus for determining offsets of a part from a digital image
EP1792282B1 (de) * 2004-08-30 2010-07-21 Commonwealth Scientific And Industrial Research Organisation Verfahren zur automatischen 3D-Bildgebung
US20060045174A1 (en) * 2004-08-31 2006-03-02 Ittiam Systems (P) Ltd. Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock
JP2006099385A (ja) * 2004-09-29 2006-04-13 Fujitsu Ltd 形状設計支援プログラム
JP2006098256A (ja) * 2004-09-30 2006-04-13 Ricoh Co Ltd 3次元サーフェスモデル作成システム、画像処理システム、プログラム及び情報記録媒体
JP4680558B2 (ja) * 2004-09-30 2011-05-11 株式会社リコー 撮影及び3次元形状復元方法、並びに撮影及び3次元形状復元システム
US7366723B2 (en) * 2004-10-05 2008-04-29 Sap Ag Visual query modeling for configurable patterns
US8126937B2 (en) * 2004-10-05 2012-02-28 Sap Ag Visual database modeling
US7953767B2 (en) * 2004-10-05 2011-05-31 Sap Ag Developing applications using configurable patterns
US7316847B2 (en) 2004-10-29 2008-01-08 Macneil David F Vehicle floor tray
JP4428208B2 (ja) * 2004-11-16 2010-03-10 株式会社デンソー 車両用物体認識装置
US20090083016A1 (en) * 2004-11-17 2009-03-26 Tecosim Technische Simulation Gmbh Method for Generating a Calculation Model for a Mechanical Structure
US7167252B2 (en) * 2004-11-23 2007-01-23 Kevin Gallup Method and apparatus for creating cavities in packaging materials for artifacts, art objects and fragile or other valuable items
TWI303768B (en) * 2004-11-26 2008-12-01 Hon Hai Prec Ind Co Ltd Method and system for cutting point-cloud automatically
WO2006058292A2 (en) * 2004-11-29 2006-06-01 Purdue Research Foundation Methods for retrieving shapes and drawings
EP1669776A1 (de) 2004-12-11 2006-06-14 Leica Geosystems AG Handhaltbares Vermessungsgerät und Vermessungsverfahren für ein solches Vermessungsgerät
US7440084B2 (en) * 2004-12-16 2008-10-21 Arete' Associates Micromechanical and related lidar apparatus and method, and fast light-routing components
AT501456B1 (de) * 2004-12-16 2007-05-15 Riegl Laser Measurement Sys System und verfahren zur erfassung eines volumendatensatzes
US7414706B2 (en) * 2004-12-22 2008-08-19 Northrop Grumman Corporation Method and apparatus for imaging a target using cloud obscuration prediction and detection
US7493243B2 (en) * 2004-12-27 2009-02-17 Seoul National University Industry Foundation Method and system of real-time graphical simulation of large rotational deformation and manipulation using modal warping
EP1681533A1 (de) 2005-01-14 2006-07-19 Leica Geosystems AG Verfahren und geodätisches Gerät zur Vermessung wenigstens eines Zieles
WO2006104565A2 (en) * 2005-02-01 2006-10-05 Laser Projection Technologies, Inc. Laser projection with object feature detection
US8085388B2 (en) * 2005-02-01 2011-12-27 Laser Projection Technologies, Inc. Laser radar projection with object feature detection and ranging
KR100803203B1 (ko) * 2005-02-04 2008-02-14 삼성전자주식회사 이동체의 위치 정보 보정 장치 및 방법과 그 장치를제어하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수있는 기록 매체
US7275014B1 (en) * 2005-02-10 2007-09-25 At&T Corporation Distributed graph layout for sensor node networks
US7777761B2 (en) * 2005-02-11 2010-08-17 Deltasphere, Inc. Method and apparatus for specifying and displaying measurements within a 3D rangefinder data set
US7477359B2 (en) * 2005-02-11 2009-01-13 Deltasphere, Inc. Method and apparatus for making and displaying measurements based upon multiple 3D rangefinder data sets
US7477360B2 (en) * 2005-02-11 2009-01-13 Deltasphere, Inc. Method and apparatus for displaying a 2D image data set combined with a 3D rangefinder data set
US7403268B2 (en) * 2005-02-11 2008-07-22 Deltasphere, Inc. Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets
US7974461B2 (en) * 2005-02-11 2011-07-05 Deltasphere, Inc. Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
US20060197867A1 (en) * 2005-03-02 2006-09-07 Peter Johnson Imaging head and imaging system
US10417700B2 (en) * 2005-03-03 2019-09-17 Refinitiv Us Organization Llc System and method for graphical display of multivariate data
ATE518113T1 (de) * 2005-03-11 2011-08-15 Creaform Inc Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen
US8082120B2 (en) * 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
US7301497B2 (en) * 2005-04-05 2007-11-27 Eastman Kodak Company Stereo display for position sensing systems
DE102005016525A1 (de) * 2005-04-08 2006-10-19 Degudent Gmbh Verfahren zur dreidimensionalen Formerfassung eines Körpers
US9247215B1 (en) 2005-04-22 2016-01-26 Custom Manufacturing & Engineering, Inc. Laser sensor system
DE102005019158A1 (de) * 2005-04-25 2006-10-26 Robert Bosch Gmbh Punktmessende optische Sensoren
US7852335B2 (en) * 2005-05-09 2010-12-14 Siemens Medical Solutions Usa, Inc. Volume rendering processing distribution in a graphics processing unit
US7576738B2 (en) * 2005-05-27 2009-08-18 California Institute Of Technology Method for constructing surface parameterizations
JP4599515B2 (ja) * 2005-05-27 2010-12-15 コニカミノルタセンシング株式会社 3次元形状データの位置合わせ方法および装置
DE102005024735B4 (de) * 2005-05-31 2007-06-28 Rheinmetall Landsysteme Gmbh Verfahren zur Entfernungsbestimmung und Anzeige, sowie Entfernungsmesssystem, insbesondere zur Unterstützung für das Verlegen einer Brücke
US7925391B2 (en) * 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
JP4819403B2 (ja) * 2005-06-06 2011-11-24 株式会社トプコン 距離測定装置
KR100602594B1 (ko) 2005-06-10 2006-07-19 주식회사 아이너스기술 3차원 측정 데이터의 분석 결과 재계산 시스템 및 방법
CN101248330B (zh) * 2005-06-28 2015-06-17 斯甘拉伊斯股份有限公司 相对于参考测量和绘制表面的系统和方法
US7933001B2 (en) * 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
JP4977339B2 (ja) * 2005-07-11 2012-07-18 株式会社トプコン 地理データ収集装置
WO2007011748A2 (en) * 2005-07-14 2007-01-25 Molsoft, Llc Structured documents for displaying and interaction with three dimensional objects
US7391561B2 (en) 2005-07-29 2008-06-24 Aculight Corporation Fiber- or rod-based optical source featuring a large-core, rare-earth-doped photonic-crystal device for generation of high-power pulsed radiation and method
US7430352B2 (en) 2005-07-29 2008-09-30 Aculight Corporation Multi-segment photonic-crystal-rod waveguides for amplification of high-power pulsed optical radiation and associated method
US7646473B1 (en) * 2005-08-25 2010-01-12 Sandia Corporation Determining position inside building via laser rangefinder and handheld computer
US20090195790A1 (en) * 2005-09-02 2009-08-06 Neptec Imaging system and method
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US7551771B2 (en) * 2005-09-20 2009-06-23 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
WO2007040487A1 (en) * 2005-09-21 2007-04-12 Nhega, Llc Automatic and semi-automatic detection of planar shapes from 2d images
US7417717B2 (en) * 2005-10-05 2008-08-26 Utah State University System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data
US8755053B2 (en) * 2005-10-14 2014-06-17 Applied Research Associates Nz Limited Method of monitoring a surface feature and apparatus therefor
US7417718B2 (en) * 2005-10-28 2008-08-26 Sharp Kabushiki Kaisha Optical distance measuring apparatus
US7737973B2 (en) * 2005-10-31 2010-06-15 Leica Geosystems Ag Determining appearance of points in point cloud based on normal vectors of points
US20070097351A1 (en) * 2005-11-01 2007-05-03 Leupold & Stevens, Inc. Rotary menu display and targeting reticles for laser rangefinders and the like
US7843448B2 (en) * 2005-11-21 2010-11-30 Leica Geosystems Ag Identification of occluded edge regions from 3D point data
US7995054B2 (en) * 2005-11-21 2011-08-09 Leica Geosystems Ag Identification of edge regions from 3D point data
US20070116338A1 (en) * 2005-11-23 2007-05-24 General Electric Company Methods and systems for automatic segmentation of biological structure
CN101351684B (zh) * 2005-12-02 2013-03-06 特里伯有限公司 测量仪和测量方法
DE112005003794T5 (de) 2005-12-15 2008-10-30 Physics Department M.V. Lomonosov Moscow State University Diagnostikverfahren mit der Zubereitung einer biologischen Flüssigkeit; eine Einrichtung zur Durchführung des Diagnostikverfahrens und Verfahren zur Zubereitung von Blutserum
US20070139444A1 (en) * 2005-12-16 2007-06-21 Dupont Keith A Methods and apparatus predicting variations in material properties
US8046732B2 (en) 2005-12-30 2011-10-25 Sap Ag Distribution of data changes in pattern configurations
US7443393B2 (en) * 2006-01-19 2008-10-28 International Business Machines Corporation Method, system, and program product for re-meshing of a three-dimensional input model using progressive implicit approximating levels
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
US8197070B2 (en) * 2006-01-24 2012-06-12 Seiko Epson Corporation Color-based feature identification
US7505949B2 (en) * 2006-01-31 2009-03-17 Caterpillar Inc. Process model error correction method and system
JP4822863B2 (ja) * 2006-02-08 2011-11-24 富士通株式会社 数値解析データ作成方法及び装置並びにプログラム及び記憶媒体
DE102006006791B4 (de) * 2006-02-14 2011-12-29 Motiondrive Ag Verfahren, System und Maßstab zur Bestimmung und/oder Simulation von Größenverhältnissen
US7944548B2 (en) 2006-03-07 2011-05-17 Leica Geosystems Ag Increasing measurement rate in time of flight measurement apparatuses
KR20070092006A (ko) * 2006-03-08 2007-09-12 포스앤핏 주식회사 3차원 영상 처리 방법 및 이를 구현할 수 있는 프로그램이수록된 기록매체
US7411688B1 (en) 2006-03-17 2008-08-12 Arius3D Inc. Method and system for laser intensity calibration in a three-dimensional multi-color laser scanning system
US7583365B2 (en) * 2006-03-29 2009-09-01 Mensi, S.A. Method of scanning a scene and corresponding scanning device
DE202006005643U1 (de) 2006-03-31 2006-07-06 Faro Technologies Inc., Lake Mary Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
DE102006019963B4 (de) 2006-04-28 2023-12-07 Envisiontec Gmbh Vorrichtung und Verfahren zur Herstellung eines dreidimensionalen Objekts durch schichtweises Verfestigen eines unter Einwirkung von elektromagnetischer Strahlung verfestigbaren Materials mittels Maskenbelichtung
DE102006019964C5 (de) * 2006-04-28 2021-08-26 Envisiontec Gmbh Vorrichtung und Verfahren zur Herstellung eines dreidimensionalen Objekts mittels Maskenbelichtung
JP2009535645A (ja) * 2006-05-02 2009-10-01 クオリティー ヴィジョン インターナショナル インコーポレイテッド レーザーレンジセンサシステムの光学アダプタおよび方法
KR100753536B1 (ko) 2006-05-04 2007-08-30 주식회사 아이너스기술 3차원 역설계 모델링을 위한 원시 모델 데이터로부터 2차원스케치 데이터를 검출하는 방법
CN101067810A (zh) 2006-05-05 2007-11-07 鸿富锦精密工业(深圳)有限公司 点云格式解析系统及方法
US7821513B2 (en) 2006-05-09 2010-10-26 Inus Technology, Inc. System and method for analyzing modeling accuracy while performing reverse engineering with 3D scan data
US7613539B2 (en) * 2006-05-09 2009-11-03 Inus Technology, Inc. System and method for mesh and body hybrid modeling using 3D scan data
FR2901043B1 (fr) * 2006-05-12 2008-07-18 Rech S De L Ecole Nationale Su Procede de realisation d'un modele par elements finis d'un corps singulier de forme et de structure complexes
US7844081B2 (en) * 2006-05-15 2010-11-30 Battelle Memorial Institute Imaging systems and methods for obtaining and using biometric information
US20070276539A1 (en) * 2006-05-25 2007-11-29 Babak Habibi System and method of robotically engaging an object
US7768700B1 (en) 2006-11-30 2010-08-03 Lockheed Martin Corporation Method and apparatus for optical gain fiber having segments of differing core sizes
US7400992B2 (en) * 2006-06-01 2008-07-15 Quality Vision International, Inc. Fitting multidimensional measurement data to tolerance zones having regard for the uncertainty of the measurements
WO2007142643A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Two pass approach to three dimensional reconstruction
CN100383823C (zh) * 2006-06-08 2008-04-23 东南大学 三维扫描的点云孔洞填补方法
US20080015823A1 (en) * 2006-06-16 2008-01-17 Tectonic Network, Inc. Extensible building information model toolset
US7742152B2 (en) * 2006-06-23 2010-06-22 University Of Kansas Coherent detection scheme for FM chirped laser radar
US7639253B2 (en) * 2006-07-13 2009-12-29 Inus Technology, Inc. System and method for automatic 3D scan data alignment
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
US7636610B2 (en) * 2006-07-19 2009-12-22 Envisiontec Gmbh Method and device for producing a three-dimensional object, and computer and data carrier useful therefor
DE102006036346B4 (de) * 2006-08-03 2010-12-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung
US8749543B2 (en) * 2006-08-15 2014-06-10 Microsoft Corporation Three dimensional polygon mesh deformation using subspace energy projection
US10775308B2 (en) * 2006-08-24 2020-09-15 Xenogen Corporation Apparatus and methods for determining optical tissue properties
EP1901033B1 (de) * 2006-09-12 2018-01-17 Joanneum Research Forschungsgesellschaft mbH Vorrichtung und Verfahren zur mobilen berührungslosen Erfassung, sowie Ermittlung und Auswertung von Körper-Konturen
US7945310B2 (en) * 2006-09-18 2011-05-17 Stryker Corporation Surgical instrument path computation and display for endoluminal surgery
US20080071141A1 (en) * 2006-09-18 2008-03-20 Abhisuek Gattani Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
US8248414B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
US7824328B2 (en) * 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
US8248413B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
JP4892310B2 (ja) 2006-09-19 2012-03-07 タイワン インスツルメント カンパニー リミテッド 測量機
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US7701558B2 (en) * 2006-09-22 2010-04-20 Leica Geosystems Ag LIDAR system
US7900165B2 (en) * 2007-03-30 2011-03-01 Synopsys, Inc. Determining a design attribute by estimation and by calibration of estimated value
JP5073256B2 (ja) * 2006-09-22 2012-11-14 株式会社トプコン 位置測定装置及び位置測定方法及び位置測定プログラム
JP5057734B2 (ja) * 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
JP5466807B2 (ja) 2006-09-26 2014-04-09 株式会社トプコン レーザスキャナ
GB2442496A (en) * 2006-10-02 2008-04-09 Univ Sheffield Evaluating displacements at discontinuities within a body
US8054500B2 (en) * 2006-10-10 2011-11-08 Hewlett-Packard Development Company, L.P. Acquiring three-dimensional structure using two-dimensional scanner
WO2008044943A1 (en) * 2006-10-11 2008-04-17 Jewel Soft Holdings Limited Improved 3-dimensional scanning apparatus and method
US7990397B2 (en) * 2006-10-13 2011-08-02 Leica Geosystems Ag Image-mapped point cloud with ability to accurately represent point coordinates
EP2082188B1 (de) * 2006-10-20 2013-06-05 TomTom Global Content B.V. Computeranordnung und verfahren zum vergleichen von ortsdaten verschiedener quellen
US9747698B2 (en) * 2006-10-21 2017-08-29 Sam Stathis System for accurately and precisely locating and marking a position in space using wireless communications and robotics
CN101589316B (zh) * 2006-10-30 2012-08-29 奥拓诺塞斯有限公司 用于激光雷达的扫描系统
US7892474B2 (en) 2006-11-15 2011-02-22 Envisiontec Gmbh Continuous generative process for producing a three-dimensional object
CN101192307B (zh) * 2006-11-17 2012-05-23 鸿富锦精密工业(深圳)有限公司 点云三角网格面构建方法
WO2008066856A2 (en) * 2006-11-27 2008-06-05 Northeastern University Patient specific ankle-foot orthotic device
CN101190132B (zh) * 2006-11-28 2010-12-08 深圳迈瑞生物医疗电子股份有限公司 超声成像的预处理方法与装置
WO2008076942A1 (en) * 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
PE20120627A1 (es) 2006-12-20 2012-05-26 Scanalyse Pty Ltd Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia
US7941213B2 (en) * 2006-12-28 2011-05-10 Medtronic, Inc. System and method to evaluate electrode position and spacing
US8003039B2 (en) 2007-01-17 2011-08-23 3D Systems, Inc. Method for tilting solid image build platform for reducing air entrainment and for build release
WO2008089788A1 (en) * 2007-01-25 2008-07-31 Trimble Ab Prediction algorithm for scanning an object
DE112007003284T5 (de) * 2007-01-26 2009-12-24 Trimble Jena Gmbh Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE602007002048D1 (de) * 2007-02-09 2009-10-01 Agfa Gevaert Visuelle Hervorhebung von Intervalländerungen mittels einer Zeitsubtraktionstechnik
US7639347B2 (en) * 2007-02-14 2009-12-29 Leica Geosystems Ag High-speed laser ranging system including a fiber laser
DE102007010236B4 (de) * 2007-03-02 2008-11-20 Toposys Topographische Systemdaten Gmbh Vorrichtung und Verfahren zur Entfernungsbestimmung mittels Lichtpulsen
JP5141050B2 (ja) * 2007-03-07 2013-02-13 富士通株式会社 設計方法及びプログラム
JP2008249375A (ja) 2007-03-29 2008-10-16 Topcon Corp 3次元位置測定装置
US9858712B2 (en) * 2007-04-09 2018-01-02 Sam Stathis System and method capable of navigating and/or mapping any multi-dimensional space
EP2136706A1 (de) 2007-04-18 2009-12-30 Medtronic, Inc. Permanent implantierbare medizinische elektroleitungen mit aktivbefestigung und entsprechende verfahren zur nichtfluoroskopischen implantation
CN101290684B (zh) * 2007-04-19 2012-07-18 深圳迈瑞生物医疗电子股份有限公司 三维超声图像的快速体绘制方法与装置
JP5263804B2 (ja) 2007-04-20 2013-08-14 株式会社トプコン 多点測定方法及び測量装置
US8773423B2 (en) * 2007-05-07 2014-07-08 Microsoft Corporation Creating optimized gradient mesh of a vector-based image from a raster-based image
CN101842813A (zh) * 2007-05-22 2010-09-22 天宝导航有限公司 处理栅格图像3d对象
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
US7536271B2 (en) * 2007-06-04 2009-05-19 The Boeing Company Methods and systems for manufacturing large components
US20080303810A1 (en) * 2007-06-07 2008-12-11 Seockhoon Bae System and method for calculating loft surfaces using 3d scan data
WO2008152647A2 (en) * 2007-06-15 2008-12-18 Ben Gurion University Of The Negev Research And Development Authority Three-dimensional imaging method and apparatus
US8179594B1 (en) 2007-06-29 2012-05-15 Lockheed Martin Corporation Method and apparatus for spectral-beam combining of fanned-in laser beams with chromatic-dispersion compensation using a plurality of diffractive gratings
CN101720476B (zh) * 2007-07-02 2013-06-05 特里伯耶拿有限公司 用于测量物体距离的特征检测装置和方法
EP2011631B1 (de) 2007-07-04 2012-04-18 Envisiontec GmbH Verfahren und Vorrichtung zum Herstellen eines dreidimensionalen Objekts
EP2031531A3 (de) * 2007-07-20 2009-04-29 BrainLAB AG Integriertes medizintechnisches Anzeigesystem
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE102007034950B4 (de) * 2007-07-26 2009-10-29 Siemens Ag Verfahren zur selektiven sicherheitstechnischen Überwachung von Flugstrom-Vergasungsreaktoren
US8111907B2 (en) * 2007-07-31 2012-02-07 United Technologies Corporation Method for repeatable optical determination of object geometry dimensions and deviations
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
GB0715368D0 (en) * 2007-08-07 2007-09-19 Qinetiq Ltd Range-finding method and apparatus
US8081302B2 (en) * 2007-08-17 2011-12-20 Princeton Satellite Systems, Inc. Multimode optical sensor
DE102007042963A1 (de) * 2007-09-10 2009-03-12 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur dreidimensionalen Digitalisierung von Objekten
US8243072B2 (en) * 2007-09-11 2012-08-14 Philip Kramer Method for rendering an object
US10310071B1 (en) 2007-09-17 2019-06-04 The United States Of America As Represented By The Secretary Of The Army Standoff geophysical anomaly detection system and method
US8116519B2 (en) * 2007-09-26 2012-02-14 Honda Motor Co., Ltd. 3D beverage container localizer
US8396284B2 (en) * 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
DK2052693T4 (da) 2007-10-26 2021-03-15 Envisiontec Gmbh Proces og fri-formfabrikationssystem til at fremstille en tredimensionel genstand
US8766972B2 (en) * 2007-10-29 2014-07-01 Moshe Itzhak MARKOWITZ Method and system for efficient transmission of rich three-dimensional geometry and animation content over narrow band communication networks
CN101424520B (zh) * 2007-10-31 2011-03-23 鸿富锦精密工业(深圳)有限公司 物件曲面的局部轮廓检测方法
US7705291B2 (en) * 2007-11-02 2010-04-27 Woundmatrix, Inc. Apparatus and method for wound diagnosis
ES2359852T3 (es) * 2007-11-07 2011-05-27 Tele Atlas B.V. Método y sistema para el mapeo de datos de sensores de alcance sobre datos de sensores de imagen.
US7750840B2 (en) * 2007-12-04 2010-07-06 Raytheon Company Method and apparatus for assessing contact clusters
JP5150234B2 (ja) * 2007-12-14 2013-02-20 株式会社トプコン 測量装置
WO2009086465A1 (en) * 2007-12-27 2009-07-09 Saje Holdings, Inc. A lighting system and control method thereof
US10378891B2 (en) 2007-12-28 2019-08-13 Outotec Pty Ltd System and method for measuring and mapping a surface relative to a reference
CN101520319B (zh) * 2008-02-27 2012-02-22 邹小平 复合式三维激光测量系统及测量方法
JP5081014B2 (ja) * 2008-02-28 2012-11-21 株式会社トプコン ターゲット及びこれを用いた三次元形状測定装置
JP5150307B2 (ja) * 2008-03-03 2013-02-20 株式会社トプコン 地理データ収集装置
JP5150310B2 (ja) * 2008-03-04 2013-02-20 株式会社トプコン 地理データ収集装置
US7894044B1 (en) 2008-03-11 2011-02-22 Oceanit Laboratories, Inc. Laser for coherent LIDAR
US20090232355A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data using eigenanalysis
US20090232388A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data by creation of filtered density images
US20090231327A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Method for visualization of point cloud data
US7821619B2 (en) * 2008-03-19 2010-10-26 Raytheon Company Rapid scan LADAR 3D imaging with compact digital beam formation
WO2009115122A1 (en) 2008-03-20 2009-09-24 Trimble Ab Geodetic scanner with increased efficiency
DE102009013735A1 (de) * 2008-03-20 2009-11-05 Cedes Ag Sensor für die Überwachung eines Überwachungsbereichs
JP5150329B2 (ja) * 2008-03-26 2013-02-20 株式会社トプコン 測量装置及び測量システム
US7525670B1 (en) * 2008-04-02 2009-04-28 Eastman Kodak Company Distance and orientation measurement of an object
JP5409771B2 (ja) * 2008-04-18 2014-02-05 スリーディー スキャナーズ リミテッド 物体の寸法取得を向上させる方法およびコンピュータプログラム
US8494608B2 (en) * 2008-04-18 2013-07-23 Medtronic, Inc. Method and apparatus for mapping a structure
US8663120B2 (en) * 2008-04-18 2014-03-04 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8340751B2 (en) * 2008-04-18 2012-12-25 Medtronic, Inc. Method and apparatus for determining tracking a virtual point defined relative to a tracked member
US8520930B2 (en) * 2008-04-18 2013-08-27 3D Scanners Ltd. Method and computer program for improving the dimensional acquisition of an object
US8260395B2 (en) 2008-04-18 2012-09-04 Medtronic, Inc. Method and apparatus for mapping a structure
US8839798B2 (en) 2008-04-18 2014-09-23 Medtronic, Inc. System and method for determining sheath location
US8384714B2 (en) * 2008-05-13 2013-02-26 The Board Of Trustees Of The Leland Stanford Junior University Systems, methods and devices for motion capture using video imaging
US8160992B2 (en) 2008-05-15 2012-04-17 Xerox Corporation System and method for selecting a package structural design
US8915831B2 (en) * 2008-05-15 2014-12-23 Xerox Corporation System and method for automating package assembly
JP2011523705A (ja) * 2008-05-19 2011-08-18 ザ クランプ グループ、インク. 部品の単軸断面走査の方法及び装置
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
WO2009149262A1 (en) * 2008-06-04 2009-12-10 Us Biomedical Information Systems, Inc. Methods and systems for creating and editing a graph data structure
JP5006272B2 (ja) * 2008-06-13 2012-08-22 株式会社東芝 電線格納部品の図面作成装置とその方法、およびプログラム
US8284190B2 (en) * 2008-06-25 2012-10-09 Microsoft Corporation Registration of street-level imagery to 3D building models
US8369625B2 (en) * 2008-06-30 2013-02-05 Korea Institute Of Oriental Medicine Method for grouping 3D models to classify constitution
GB0811985D0 (en) * 2008-07-01 2008-07-30 Univ Huddersfield Surface analysis apparatus and method
KR101495333B1 (ko) * 2008-07-02 2015-02-25 삼성전자 주식회사 장애물 검출 장치 및 방법
GB0813320D0 (en) * 2008-07-21 2008-08-27 Autotrakker Ltd Cargo measurement
KR200448418Y1 (ko) * 2008-07-22 2010-04-09 김학대 과일 수확기
WO2010013266A1 (en) * 2008-07-30 2010-02-04 Iride Italia S.R.L. Apparatus and method for the disassembly and re-assembly of a factory
US8705792B2 (en) * 2008-08-06 2014-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Object tracking using linear features
JP5227110B2 (ja) * 2008-08-07 2013-07-03 株式会社トプコン Gps付全方位カメラ及び空間データ収集装置
US8400619B1 (en) * 2008-08-22 2013-03-19 Intelligent Automation, Inc. Systems and methods for automatic target tracking and beam steering
US8379020B2 (en) * 2008-08-25 2013-02-19 Harris Corporation Image processing device using selective neighboring voxel removal and related methods
US8456471B2 (en) * 2008-08-26 2013-06-04 Leica Geosystems Point-cloud clip filter
US9132599B2 (en) * 2008-09-05 2015-09-15 Xerox Corporation System and method for image registration for packaging
US8223065B1 (en) 2008-09-11 2012-07-17 Lockheed Martin Corporation Methods and systems for partitioning a radar acquisition volume
US8134492B1 (en) * 2008-09-11 2012-03-13 Lockheed Martin Corporation Method for scanning a radar search volume within an allowable scan time
US8155452B2 (en) * 2008-10-08 2012-04-10 Harris Corporation Image registration using rotation tolerant correlation method
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
DE102008052904A1 (de) * 2008-10-23 2010-04-29 Mtu Aero Engines Gmbh Verfahren zum Ermitteln von mechanischen Eigenschaften einer Beschaufelung
US8174720B2 (en) * 2008-11-06 2012-05-08 Xerox Corporation Packaging digital front end
US8334893B2 (en) * 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
US8397181B2 (en) * 2008-11-17 2013-03-12 Honeywell International Inc. Method and apparatus for marking a position of a real world object in a see-through display
US8031332B2 (en) * 2008-11-20 2011-10-04 Trimble Navigation Limited Layout method
US20100138185A1 (en) * 2008-12-02 2010-06-03 Electronics And Telecommunications Research Institute Device for three-dimensionally measuring block and system having the device
US10203268B2 (en) 2008-12-04 2019-02-12 Laura P. Solliday Methods for measuring and modeling the process of prestressing concrete during tensioning/detensioning based on electronic distance measurements
US8451267B2 (en) * 2008-12-12 2013-05-28 Hitachi Plant Technologies, Ltd. Pipe installation support apparatus
US9493024B2 (en) * 2008-12-16 2016-11-15 Xerox Corporation System and method to derive structure from image
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP5688876B2 (ja) 2008-12-25 2015-03-25 株式会社トプコン レーザスキャナ測定システムの較正方法
US8379929B2 (en) * 2009-01-08 2013-02-19 Trimble Navigation Limited Methods and apparatus for performing angular measurements
DE112010000812T5 (de) * 2009-01-08 2012-06-06 Trimble Navigation Limited Verfahren und Systeme zum Bestimmen von Winkeln und Orten von Punkten
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US8380644B2 (en) * 2009-02-10 2013-02-19 Siemens Audiologische Technik Gmbh System and method for prototyping by learning from examples wherein a prototype is calculated for each shape class cluster
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US20100208981A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Method for visualization of point cloud data based on scene content
DE102009010465B3 (de) * 2009-02-13 2010-05-27 Faro Technologies, Inc., Lake Mary Laserscanner
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
US8526110B1 (en) 2009-02-17 2013-09-03 Lockheed Martin Corporation Spectral-beam combining for high-power fiber-ring-laser systems
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
US8542413B2 (en) * 2009-02-23 2013-09-24 2G Robotics Inc. Laser scanner assembly
WO2010099036A1 (en) * 2009-02-25 2010-09-02 Dimensional Photonics International, Inc. Intensity and color display for a three-dimensional metrology system
US8170706B2 (en) * 2009-02-27 2012-05-01 Xerox Corporation Package generation system
US8260583B2 (en) * 2009-03-12 2012-09-04 Siemens Product Lifecycle Management Software Inc. System and method for identifying wall faces in an object model
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8004660B2 (en) * 2009-03-31 2011-08-23 The United States Of America As Represented By The Secretary Of The Navy Method and system for determination of detection probability of a target object based on vibration
US8452569B2 (en) * 2009-03-31 2013-05-28 The United States Of America As Represented By The Secretary Of The Navy Laser targeting system
US8149390B2 (en) * 2009-03-31 2012-04-03 The United States Of America As Represented By The Secretary Of The Navy User interface for laser targeting system
US8447563B2 (en) * 2009-03-31 2013-05-21 The United States Of America As Represented By The Secretary Of The Navy Method and system for determination of detection probability or a target object based on a range
US8164507B2 (en) * 2009-04-21 2012-04-24 Raytheon Company Fusing multi-sensor data to provide estimates of structures
CN101871775B (zh) * 2009-04-21 2012-09-19 鸿富锦精密工业(深圳)有限公司 三坐标测量机编程系统及方法
CN101871767B (zh) * 2009-04-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 零件形位公差检测系统及方法
CN101876536B (zh) * 2009-04-29 2012-09-19 鸿富锦精密工业(深圳)有限公司 三维色阶比对动态分析方法
US8340400B2 (en) * 2009-05-06 2012-12-25 Honeywell International Inc. Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US8253621B1 (en) * 2009-05-15 2012-08-28 Lockheed Martin Corporation Method for scanning a radar search volume and correcting for rotation of covariance ellipse
US8223062B2 (en) * 2009-05-27 2012-07-17 Honeywell International Inc. Systems and methods for aircraft to aircraft exchange of radar information over low bandwidth communication channels
US8022859B2 (en) * 2009-06-02 2011-09-20 Honeywell International Inc. Systems and methods for using nexrad information to verify weather radar information
US8526705B2 (en) * 2009-06-10 2013-09-03 Apple Inc. Driven scanning alignment for complex shapes
CN102802520B (zh) 2009-06-17 2015-04-01 3形状股份有限公司 聚焦扫描设备
DE102009035336B3 (de) 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009035337A1 (de) 2009-07-22 2011-01-27 Faro Technologies, Inc., Lake Mary Verfahren zum optischen Abtasten und Vermessen eines Objekts
US8243144B2 (en) * 2009-07-31 2012-08-14 Seiko Epson Corporation Light transport matrix from homography
KR20110021091A (ko) * 2009-08-25 2011-03-04 현대중공업 주식회사 선박블록 형상 및 면적 측정장치
US8775130B2 (en) * 2009-08-27 2014-07-08 Xerox Corporation System for automatically generating package designs and concepts
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
KR20110026910A (ko) * 2009-09-09 2011-03-16 현대중공업 주식회사 선박블록 운영관리장치
TWI473025B (zh) * 2009-09-10 2015-02-11 Hon Hai Prec Ind Co Ltd 攝像裝置及其身份識別方法
US8054214B2 (en) * 2009-09-30 2011-11-08 Honeywell International Inc. Systems and methods for preparing ground-based weather radar information for use in an installation vehicle
JP5337658B2 (ja) 2009-10-02 2013-11-06 株式会社トプコン 広角撮像装置及び測定システム
US8372330B2 (en) 2009-10-19 2013-02-12 Global Filtration Systems Resin solidification substrate and assembly
US8355774B2 (en) * 2009-10-30 2013-01-15 Medtronic, Inc. System and method to evaluate electrode position and spacing
US20110115812A1 (en) * 2009-11-13 2011-05-19 Harris Corporation Method for colorization of point cloud data based on radiometric imagery
US9082207B2 (en) * 2009-11-18 2015-07-14 Xerox Corporation System and method for automatic layout of printed material on a three-dimensional structure
US20110119570A1 (en) * 2009-11-18 2011-05-19 Xerox Corporation Automated variable dimension digital document advisor
DE102009055989B4 (de) 2009-11-20 2017-02-16 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
DE102009055988B3 (de) 2009-11-20 2011-03-17 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8503840B2 (en) 2010-08-23 2013-08-06 Lockheed Martin Corporation Optical-fiber array method and apparatus
US8441718B2 (en) 2009-11-23 2013-05-14 Lockheed Martin Corporation Spectrally beam combined laser system and method at eye-safer wavelengths
WO2011066846A1 (en) * 2009-12-04 2011-06-09 Abb Research Ltd. System and method for data integration of engineering tools
JP5480914B2 (ja) 2009-12-11 2014-04-23 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5449079B2 (ja) * 2009-12-11 2014-03-19 三菱電機株式会社 立体視映像視聴制限装置及び方法、立体視映像視聴制限通知装置及び方法、映像視聴装置及び方法、並びに映像視聴システム
US10152198B2 (en) * 2009-12-15 2018-12-11 Dassault Systèmes Method and system for editing a product assembly
US8328706B2 (en) * 2009-12-17 2012-12-11 Xerox Corporation System and method for converting a printed substrate
US8643874B2 (en) * 2009-12-18 2014-02-04 Xerox Corporation Method and system for generating a workflow to produce a dimensional document
US8538167B2 (en) * 2010-01-07 2013-09-17 Raytheon Company Designating corridors to provide estimates of structures
CN102110280B (zh) * 2010-01-07 2013-06-26 董福田 空间数据处理方法及装置
US8271224B2 (en) * 2010-01-13 2012-09-18 Raytheon Company Fusing structures from multi-sensor data
US8290741B2 (en) * 2010-01-13 2012-10-16 Raytheon Company Fusing multi-sensor data sets according to relative geometrical relationships
EP2642371A1 (de) 2010-01-14 2013-09-25 BrainLAB AG Steuerung eines chirurgischen Navigationssystems
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
DE112011100292B4 (de) 2010-01-20 2016-11-24 Faro Technologies Inc. Anzeige für ein Koordinatenmessgerät
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
WO2011093805A1 (en) 2010-01-27 2011-08-04 Tuncer Engin T A system and a method for simultaneous position, mutual coupling and gain/phase calibration of antenna arrays
US20110200249A1 (en) * 2010-02-17 2011-08-18 Harris Corporation Surface detection in images based on spatial data
US8611670B2 (en) * 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture
US8994790B2 (en) * 2010-02-25 2015-03-31 The Board Of Trustees Of The Leland Stanford Junior University Motion capture with low input data constraints
US20110208685A1 (en) * 2010-02-25 2011-08-25 Hariraam Varun Ganapathi Motion Capture Using Intelligent Part Identification
DE112011101288T5 (de) 2010-04-12 2013-02-07 Lockheed Martin Corporation Strahldiagnostik- und Rückkopplungssystem sowie Verfahren für spektralstrahlkombinierteLaser
FI20105476A (fi) * 2010-04-30 2011-10-31 Vaisala Oyj Ilmakehän kosteus- tai lämpötilaprofiilin tai pilvenkorkeuden mittausmenetelmä ja -laitteisto
US9031314B2 (en) 2010-05-03 2015-05-12 Northern Digital Inc. Establishing coordinate systems for measurement
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
AU2011252083B2 (en) * 2010-05-10 2013-06-13 Leica Geosystems Ag Surveying method
KR101551800B1 (ko) * 2010-05-12 2015-09-09 라이카 게오시스템스 아게 측량 기계
WO2011147017A2 (en) * 2010-05-26 2011-12-01 Ambercore Software Inc. System and method for extracting features in a medium from data having spatial coordinates
US20110304619A1 (en) * 2010-06-10 2011-12-15 Autodesk, Inc. Primitive quadric surface extraction from unorganized point cloud data
US9396545B2 (en) 2010-06-10 2016-07-19 Autodesk, Inc. Segmentation of ground-based laser scanning points from urban environment
US8605093B2 (en) * 2010-06-10 2013-12-10 Autodesk, Inc. Pipe reconstruction from unorganized point cloud data
WO2011156919A1 (en) * 2010-06-16 2011-12-22 Forensic Technology Wai, Inc. Acquisition of 3d topographic images of tool marks using non-linear photometric stereo method
JP5609302B2 (ja) * 2010-06-18 2014-10-22 富士通株式会社 接触定義装置、接触定義プログラム及び接触定義方法
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5343042B2 (ja) * 2010-06-25 2013-11-13 株式会社トプコン 点群データ処理装置および点群データ処理プログラム
JP5462093B2 (ja) * 2010-07-05 2014-04-02 株式会社トプコン 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
EP2405237A1 (de) * 2010-07-07 2012-01-11 Leica Geosystems AG Zielpunkterkennungsverfahren und Landvermessungsinstrument
JP5912234B2 (ja) 2010-07-16 2016-04-27 株式会社トプコン 測定装置
DE102010032725B4 (de) 2010-07-26 2012-04-26 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032726B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032723B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010033561B3 (de) 2010-07-29 2011-12-15 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8660365B2 (en) 2010-07-29 2014-02-25 Honeywell International Inc. Systems and methods for processing extracted plane features
KR101021989B1 (ko) * 2010-08-03 2011-03-16 (주)유 바이오메드 임상실험용 소동물의 이미지 취득장치
US8599367B2 (en) 2010-08-04 2013-12-03 Alliant Techsystems Inc. Apparatus and methods for obtaining multi-dimensional spatial and spectral data with LIDAR detection
JP5465128B2 (ja) 2010-08-11 2014-04-09 株式会社トプコン 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
US9229106B2 (en) 2010-08-13 2016-01-05 Ryan Dotson Enhancement of range measurement resolution using imagery
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
US8427364B1 (en) 2010-09-10 2013-04-23 Lockheed Martin Corporation Method and system for scanning a radar search volume and correcting for 3D orientation of covariance ellipsoid
CN102436674A (zh) * 2010-09-29 2012-05-02 国际商业机器公司 用于创建模型数据的方法及系统
FR2965935B1 (fr) * 2010-10-06 2012-11-16 Sagem Defense Securite Dispositif optronique d'observation et/ou de visee d'une scene comportant un telemetre, et procede de telemetrie associe
US8509522B2 (en) * 2010-10-15 2013-08-13 Autodesk, Inc. Camera translation using rotation from device
US8149161B1 (en) 2010-10-18 2012-04-03 Lockheed Martin Coporation Method and system for azimuthal containment using largest gap method
JP2013542401A (ja) * 2010-10-27 2013-11-21 株式会社ニコン 形状測定装置、構造物の製造方法及び構造物製造システム
JP5653715B2 (ja) 2010-10-27 2015-01-14 株式会社トプコン レーザ測量機
US8325351B2 (en) 2010-10-29 2012-12-04 Trimble Navigation Limited Layout method
US9300321B2 (en) * 2010-11-05 2016-03-29 University of Maribor Light detection and ranging (LiDAR)data compression and decompression methods and apparatus
US9424371B2 (en) * 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5628648B2 (ja) * 2010-11-30 2014-11-19 株式会社トプコン 測量装置およびそれを含む測量装置通信システム
KR101163453B1 (ko) 2010-12-07 2012-07-18 현대자동차주식회사 레이저 센서와 비전 센서를 이용한 물체거리 측정방법
CN102564302A (zh) 2010-12-10 2012-07-11 通用电气公司 测量系统和方法
US20120150573A1 (en) * 2010-12-13 2012-06-14 Omar Soubra Real-time site monitoring design
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN102538665B (zh) * 2010-12-25 2016-03-09 赛恩倍吉科技顾问(深圳)有限公司 量测结果图形化输出系统及方法
CN102126162B (zh) * 2010-12-26 2013-09-25 北京航空航天大学 一种数控机床加工在线测量方法
CN102110183B (zh) * 2010-12-30 2011-09-28 中国石油化工股份有限公司胜利油田分公司地质科学研究院 一种反映流体沿储层大裂缝窜流的数值模拟方法
EP2643819A4 (de) * 2011-01-07 2017-10-18 Landmark Graphics Corporation Systeme und verfahren zur konstruktion geschlossener körper während einer 3d-modellierung
US8818124B1 (en) * 2011-03-04 2014-08-26 Exelis, Inc. Methods, apparatus, and systems for super resolution of LIDAR data sets
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
JP5753409B2 (ja) 2011-03-07 2015-07-22 株式会社トプコン パノラマ画像作成方法及び3次元レーザスキャナ
KR101833581B1 (ko) * 2011-03-17 2018-02-28 아디타즈, 인크. 빌딩 시스템을 구현하는 시스템 및 방법
DE102011005746A1 (de) 2011-03-18 2012-09-20 Robert Bosch Gmbh Messvorrichtung zur mehrdimensionalen Vermessung eines Zielobjekts
JP5748521B2 (ja) * 2011-03-29 2015-07-15 株式会社トプコン レーザスキャナ及び動体検知方法
WO2012141235A1 (ja) 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
US9196086B2 (en) 2011-04-26 2015-11-24 Here Global B.V. Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display
DE102011100919A1 (de) * 2011-05-09 2012-11-15 Lufthansa Technik Ag Verfahren zur automatisierten Detektion von Einzelteilen einer komplexen differenziellen Struktur
US8825392B2 (en) 2011-06-30 2014-09-02 Navteq B.V. Map view
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US8885883B2 (en) 2011-07-22 2014-11-11 Raytheon Company Enhancing GMAPD LADAR images using 3-D wallis statistical differencing
EP2737335B1 (de) 2011-07-26 2017-06-28 Hexagon Technology Center GmbH Laserscanner
JP2014527663A (ja) 2011-07-29 2014-10-16 ヘキサゴン メトロロジー,インコーポレイテッド 座標測定系データ整理
US9081092B1 (en) 2011-08-03 2015-07-14 Lockheed Martin Corporation Covariance rotation with perspective projection for creating radar search volumes from remote cues
US8749580B1 (en) * 2011-08-12 2014-06-10 Google Inc. System and method of texturing a 3D model from video
US8890863B1 (en) 2011-08-12 2014-11-18 Google Inc. Automatic method for photo texturing geolocated 3-D models from geolocated imagery
US8913784B2 (en) 2011-08-29 2014-12-16 Raytheon Company Noise reduction in light detection and ranging based imaging
US8417005B1 (en) * 2011-09-15 2013-04-09 Sunnybrook Health Sciences Centre Method for automatic three-dimensional segmentation of magnetic resonance images
US8521418B2 (en) 2011-09-26 2013-08-27 Honeywell International Inc. Generic surface feature extraction from a set of range data
JP5762913B2 (ja) * 2011-10-04 2015-08-12 株式会社東芝 三次元データ処理装置、方法及びプログラム
GB2496576A (en) * 2011-10-07 2013-05-22 Expro North Sea Ltd Method And Apparatus For Determining Topography Within Awellb re Environment
US9222771B2 (en) 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
JP5817422B2 (ja) * 2011-10-18 2015-11-18 朝日航洋株式会社 建物抽出装置、方法及びプログラム
US9802364B2 (en) 2011-10-18 2017-10-31 3D Systems, Inc. Systems and methods for construction of an instruction set for three-dimensional printing of a user-customizableimage of a three-dimensional structure
CN103092576A (zh) * 2011-10-28 2013-05-08 鸿富锦精密工业(深圳)有限公司 量测程序输出系统及方法
US9147282B1 (en) 2011-11-02 2015-09-29 Bentley Systems, Incorporated Two-dimensionally controlled intuitive tool for point cloud exploration and modeling
US8963921B1 (en) 2011-11-02 2015-02-24 Bentley Systems, Incorporated Technique for enhanced perception of 3-D structure in point clouds
US20130113782A1 (en) * 2011-11-09 2013-05-09 Amadeus Burger Method for determining characteristics of a unique location of a selected situs and determining the position of an environmental condition at situs
CA3041707C (en) * 2011-11-15 2021-04-06 Manickam UMASUTHAN Method of real-time tracking of moving/flexible surfaces
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
EP2600173A1 (de) * 2011-11-29 2013-06-05 Hexagon Technology Center GmbH Verfahren zum Betreiben eines Laserscanners
US8666119B1 (en) 2011-11-29 2014-03-04 Lucasfilm Entertainment Company Ltd. Geometry tracking
AU2012345705B2 (en) 2011-11-30 2018-05-10 Waba Fun, Llc Systems and methods for authenticating objects using IR
US8720074B2 (en) 2011-12-06 2014-05-13 Trimble Navigation Limited Robotic leveling
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US8912947B1 (en) 2012-01-09 2014-12-16 Lockheed Martin Corporation System and method for partitioning acquisition volumes using rotated covariance
US8731247B2 (en) 2012-01-20 2014-05-20 Geodigital International Inc. Densifying and colorizing point cloud representation of physical surface using image data
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2620746A1 (de) 2012-01-30 2013-07-31 Hexagon Technology Center GmbH Vermessungsgerät mit Scanfunktionalität und Einzelpunktmessmodus
EP2620745A1 (de) 2012-01-30 2013-07-31 Hexagon Technology Center GmbH Vermessungssystem mit einem Vermessungsgerät und einem Scanmodul
US9891320B2 (en) 2012-01-30 2018-02-13 Hexagon Technology Center Gmbh Measurement system with a measuring device and a scanning module
US8912948B1 (en) 2012-01-30 2014-12-16 Lockheed Martin Corporation System and method for cued acquisition azimuth and elevation extent calculation using perspective projection
US8396254B1 (en) * 2012-02-09 2013-03-12 Google Inc. Methods and systems for estimating a location of a robot
US9336627B2 (en) * 2012-03-12 2016-05-10 Hntb Holdings Ltd. Creating a model of a scanned surface for comparison to a reference-surface model
US8786835B1 (en) * 2012-03-26 2014-07-22 Lockheed Martin Corporation System, apparatus and method for detecting presence and range of an object
PL398681A1 (pl) 2012-04-02 2013-10-14 Incomesolutions Spólka Z Ograniczona Odpowiedzialnoscia Sposób i system przestrzennej wizualizacji obiektów oraz uklad sterowania platforma zawarta w tym systemie, zwlaszcza dla wirtualnej przymierzalni
DE102012102915A1 (de) 2012-04-03 2013-10-10 Gea Farm Technologies Gmbh Verfahren und Vorrichtung zur optischen Bestimmung einer Position und/oder Orientierung eines Objekts im Raum
KR20150018787A (ko) * 2012-04-17 2015-02-24 커먼웰쓰 사이언티픽 앤 인더스트리알 리서치 오거니제이션 3차원 스캐닝 빔 및 촬상 시스템
US20130287288A1 (en) * 2012-04-25 2013-10-31 General Electric Company Method and device for determining the offset distance between two surfaces
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US9007368B2 (en) 2012-05-07 2015-04-14 Intermec Ip Corp. Dimensioning system calibration systems and methods
EP2662705A1 (de) * 2012-05-07 2013-11-13 Hexagon Technology Center GmbH Überwachungsvorrichtung mit Bereichskamera
DE102012009688B4 (de) * 2012-05-09 2016-01-07 Db Systel Gmbh Verfahren, Signalfolge sowie Rechneranlage zum Erstellen, Verwalten, Komprimieren und Auswerten von 3D-Daten eines dreidimensionalen Geländemodells und ein Computerprogramm mit Programmcode zur Durchführung des Verfahrens auf einem Computer
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
KR101357051B1 (ko) 2012-05-22 2014-02-04 한국생산기술연구원 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
WO2013176362A1 (ko) * 2012-05-22 2013-11-28 한국생산기술연구원 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
KR101391298B1 (ko) * 2012-08-21 2014-05-07 한국생산기술연구원 3차원 레이저 스캐닝 시스템
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9378584B2 (en) 2012-05-23 2016-06-28 Glasses.Com Inc. Systems and methods for rendering virtual try-on products
US20130342657A1 (en) * 2012-06-15 2013-12-26 Nikon Corporation Stereo vision camera for laser radar
JP5806169B2 (ja) * 2012-06-21 2015-11-10 トヨタ自動車株式会社 設計データ生成装置、その生成方法及びプログラム
US9420265B2 (en) * 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
WO2014008949A1 (en) 2012-07-13 2014-01-16 Abb Technology Ltd A method for programming an industrial robot in a virtual environment
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
US8994734B2 (en) 2012-07-31 2015-03-31 Xerox Corporation Package definition system
US9453907B2 (en) * 2012-08-15 2016-09-27 Digital Signal Corporation System and method for field calibrating video and lidar subsystems using facial features
DE102012107544B3 (de) 2012-08-17 2013-05-23 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9052721B1 (en) * 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
US20140063189A1 (en) * 2012-08-28 2014-03-06 Digital Signal Corporation System and Method for Refining Coordinate-Based Three-Dimensional Images Obtained from a Three-Dimensional Measurement System
DE112013004369T5 (de) 2012-09-06 2015-06-11 Faro Technologies, Inc. Laserscanner mit zusätzlicher Erfassungsvorrichtung
CN104904200B (zh) 2012-09-10 2018-05-15 广稹阿马斯公司 捕捉运动场景的设备、装置和系统
JP2015535337A (ja) 2012-09-14 2015-12-10 ファロ テクノロジーズ インコーポレーテッド 角度スキャン速度の動的調整を伴うレーザスキャナ
JP6056016B2 (ja) * 2012-09-14 2017-01-11 株式会社ミツトヨ 三次元モデル生成方法、システム及びプログラム
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US10162471B1 (en) 2012-09-28 2018-12-25 Bentley Systems, Incorporated Technique to dynamically enhance the visualization of 3-D point clouds
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
KR101403945B1 (ko) * 2012-10-31 2014-07-01 한국 천문 연구원 레이저 추적 시스템의 광전자 제어 장치
US9314986B2 (en) 2012-10-31 2016-04-19 Xerox Corporation Method and system for applying an adaptive perforation cut to a substrate
US9638799B2 (en) * 2012-11-21 2017-05-02 Nikon Corporation Scan mirrors for laser radar
US9618619B2 (en) * 2012-11-21 2017-04-11 Nikon Corporation Radar systems with dual fiber coupled lasers
US10119816B2 (en) 2012-11-21 2018-11-06 Nikon Metrology Nv Low drift reference for laser radar
US9245209B2 (en) 2012-11-21 2016-01-26 Xerox Corporation Dynamic bleed area definition for printing of multi-dimensional substrates
US9473712B2 (en) 2012-11-30 2016-10-18 Waba Fun, Llc Systems and methods for preventing friendly fire through infrared recognition and authentication
US9046600B2 (en) * 2012-12-05 2015-06-02 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for intensity calibration of multi-beam lidar sensors
US9823351B2 (en) 2012-12-18 2017-11-21 Uber Technologies, Inc. Multi-clad fiber based optical apparatus and methods for light detection and ranging sensors
US9189888B1 (en) * 2013-01-14 2015-11-17 Bentley Systems, Incorporated Point cloud modeling based on user-provided seed
KR101720139B1 (ko) * 2013-01-18 2017-03-27 인터그래프 코포레이션 포인트 클라우드 이미지를 배관 라인 도면과 연관시키고 이들에 대한 치수들을 적용하는 방법
EP2946367B1 (de) * 2013-01-21 2018-03-07 Vricon Systems Aktiebolag Verfahren und vorrichtung zur schätzung von werten für einen parametersatz eines abbildungssystems
US9153067B2 (en) 2013-01-21 2015-10-06 Honeywell International Inc. Systems and methods for 3D data based navigation using descriptor vectors
US9123165B2 (en) 2013-01-21 2015-09-01 Honeywell International Inc. Systems and methods for 3D data based navigation using a watershed method
US9285477B1 (en) 2013-01-25 2016-03-15 Apple Inc. 3D depth point cloud from timing flight of 2D scanned light beam pulses
KR102048361B1 (ko) * 2013-02-28 2019-11-25 엘지전자 주식회사 거리 검출 장치, 및 이를 구비하는 영상처리장치
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9470520B2 (en) 2013-03-14 2016-10-18 Apparate International C.V. LiDAR scanner
WO2014144435A1 (en) * 2013-03-15 2014-09-18 Rezvan Amir H Remotely viewing and auditing cell sites using a digital data structure
US9196084B2 (en) 2013-03-15 2015-11-24 Urc Ventures Inc. Determining object volume from mobile device images
US9832487B2 (en) 2013-03-15 2017-11-28 Leica Geosystems, Ag Model-based scan line encoder
US8990014B2 (en) * 2013-03-15 2015-03-24 Trx Systems, Inc. Method to scale inertial location data using directional and/or scale confidence constraints
EP2787321B1 (de) * 2013-04-05 2015-09-16 Leica Geosystems AG Oberflächenbestimmung für Objekte mittels geodätisch genauem Einzelpunktbestimmen und Scannen
US9269022B2 (en) * 2013-04-11 2016-02-23 Digimarc Corporation Methods for object recognition and related arrangements
CN103234453B (zh) * 2013-04-15 2015-11-18 南信大影像技术工程(苏州)有限公司 基于空间距离的异型构件几何轴线位置关系的检测方法
CN103245290A (zh) * 2013-04-15 2013-08-14 南信大影像技术工程(苏州)有限公司 一种工业异型构件几何尺寸的检测方法
US9544565B1 (en) * 2013-05-03 2017-01-10 Vy Corporation Process and method for three dimensional data acquisition
KR101879858B1 (ko) * 2013-06-01 2018-07-19 (주)지오투정보기술 보정 영상으로부터 추출된 대상 객체의 좌표 정보와 항공사진의 좌표 정보를 비교하여 공통점을 추출함으로써 공간데이터를 모델링하는 공간 모델링 시스템
EP2813809A1 (de) 2013-06-06 2014-12-17 Canon Kabushiki Kaisha Vorrichtung und Verfahren zur Messung der Abmessungen eines Objektes und Verfahren zur Herstellung von Artikeln mittels dieser Vorrichtung
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9699391B2 (en) 2013-06-10 2017-07-04 Relevant Play, Llc Systems and methods for infrared detection
US9208609B2 (en) * 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9239950B2 (en) 2013-07-01 2016-01-19 Hand Held Products, Inc. Dimensioning system
US20150032420A1 (en) * 2013-07-25 2015-01-29 Ansys, Inc. Systems and Methods for Creating Engineering Models
US9754165B2 (en) * 2013-07-30 2017-09-05 The Boeing Company Automated graph local constellation (GLC) method of correspondence search for registration of 2-D and 3-D data
US9410793B2 (en) 2013-08-06 2016-08-09 Laser Projection Technologies, Inc. Virtual laser projection system and method
US9418424B2 (en) * 2013-08-09 2016-08-16 Makerbot Industries, Llc Laser scanning systems and methods
AU2014306473B2 (en) * 2013-08-16 2016-02-25 Landmark Graphics Corporation Identifying and extracting stratigraphic layers in one or more bodies representing a geological structure
CN104422396B (zh) * 2013-08-29 2018-07-06 鸿富锦精密工业(深圳)有限公司 产品组装间隙三维分析系统及方法
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
KR101555027B1 (ko) * 2013-09-10 2015-09-22 김성무 3차원 형상 측정 장치 및 방법
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
CN103489218B (zh) * 2013-09-17 2016-06-29 中国科学院深圳先进技术研究院 点云数据质量自动优化方法及系统
US9355495B2 (en) 2013-10-09 2016-05-31 Trimble Navigation Limited Method and system for 3D modeling using feature detection
CN104574516B (zh) * 2013-10-16 2019-03-05 鸿富锦精密工业(深圳)有限公司 点云平滑系统及方法
CN103542868B (zh) * 2013-11-05 2016-02-10 武汉海达数云技术有限公司 基于角度和强度的车载激光点云噪点自动去除方法
CN103679647B (zh) * 2013-11-11 2016-09-21 北京航天控制仪器研究所 一种三维激光成像系统的点云模型真彩色处理方法
US9772399B2 (en) 2013-11-22 2017-09-26 Uber Technologies, Inc. LiDAR scanner calibration
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
EP3077768B1 (de) * 2013-12-05 2020-01-15 Trimble AB Abstandsmessgerät mit scan-funktion
IL230099A (en) * 2013-12-23 2017-09-28 Israel Aerospace Ind Ltd Monitoring the angle of contact between a leading vehicle and a driven aircraft
US9417261B2 (en) 2014-01-23 2016-08-16 Honeywell International Inc. Atomic referenced optical accelerometer
CN105934310B (zh) * 2014-01-24 2017-10-27 三菱电机株式会社 刀具形状测定装置以及刀具形状测定方法
KR20150089663A (ko) * 2014-01-28 2015-08-05 한국전자통신연구원 그래프 기반의 멀티 프리미티브 피팅 장치 및 그 동작 방법
US9760659B2 (en) 2014-01-30 2017-09-12 Xerox Corporation Package definition system with non-symmetric functional elements as a function of package edge property
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
US9527244B2 (en) 2014-02-10 2016-12-27 Global Filtration Systems Apparatus and method for forming three-dimensional objects from solidifiable paste
CN103822644B (zh) * 2014-02-14 2016-08-17 北京航天控制仪器研究所 一种三维激光成像系统的相机标定方法
US9366872B2 (en) 2014-02-18 2016-06-14 Lockheed Martin Corporation Apparatus and method for fiber-laser output-beam shaping for spectral beam combination
WO2015132778A1 (en) * 2014-03-02 2015-09-11 Avishay Sidlesky Endoscopic measurement system and method
US9438891B2 (en) * 2014-03-13 2016-09-06 Seiko Epson Corporation Holocam systems and methods
KR101427369B1 (ko) 2014-03-27 2014-08-08 (주)아세아항측 이동식 라이다를 활용한 실내지도의 실시간 갱신시스템
US9098754B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US10462450B2 (en) * 2014-04-28 2019-10-29 Autodesk, Inc. Combining two-dimensional images with depth data to detect junctions or edges
EP3228985A1 (de) 2014-05-05 2017-10-11 Hexagon Technology Center GmbH Vermessungssystem
US9892212B2 (en) 2014-05-19 2018-02-13 Xerox Corporation Creation of variable cut files for package design
WO2015179695A1 (en) * 2014-05-21 2015-11-26 Smart Multimedia, Inc. Point cloud systems and methods
TWI508026B (zh) * 2014-05-29 2015-11-11 Wistron Corp 立體物件原型圖的產生方法、裝置及電腦程式產品
CN104034278A (zh) * 2014-06-05 2014-09-10 北京必可测科技股份有限公司 进行锅炉检测的方法及装置
IL233692A (en) 2014-07-17 2017-04-30 Elbit Systems Electro-Optics Elop Ltd A system and method for analyzing the quality of radiation stain criteria
US10412594B2 (en) 2014-07-31 2019-09-10 At&T Intellectual Property I, L.P. Network planning tool support for 3D data
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
WO2016025908A2 (en) 2014-08-15 2016-02-18 US LADAR, Inc. Methods and systems for ladar transmission
US9934339B2 (en) 2014-08-15 2018-04-03 Wichita State University Apparatus and method for simulating machining and other forming operations
US10120067B2 (en) 2014-08-29 2018-11-06 Leica Geosystems Ag Range data compression
US9734595B2 (en) * 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
WO2016050701A1 (en) * 2014-09-29 2016-04-07 Politecnico Di Milano Method and device for detecting the form of sails
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9417058B1 (en) 2014-10-24 2016-08-16 Matrox Electronic Systems Ltd. Detecting a position of a sheet of light in an image
US10869175B2 (en) 2014-11-04 2020-12-15 Nathan Schumacher System and method for generating a three-dimensional model using flowable probes
US9600892B2 (en) * 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
CN104318579A (zh) * 2014-11-07 2015-01-28 钟若飞 带有扫描线的激光点云构网方法
CN104457566A (zh) * 2014-11-10 2015-03-25 西北工业大学 一种无须示教机器人系统的空间定位方法
EP3021079B1 (de) * 2014-11-14 2017-03-01 Leica Geosystems AG Geodätisches Erfassungssystem mit Visualisierung einer Aufgabenliste
US9575004B2 (en) * 2014-11-17 2017-02-21 The Boeing Company Automated low cost method for illuminating, evaluating, and qualifying surfaces and surface coatings
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
EP3032277B1 (de) 2014-12-12 2021-04-07 Leica Geosystems AG Lasertracker
US10192283B2 (en) 2014-12-22 2019-01-29 Cognex Corporation System and method for determining clutter in an acquired image
US9797716B2 (en) 2015-01-09 2017-10-24 Ricoh Company, Ltd. Estimating surface properties using a plenoptic camera
US10586385B2 (en) 2015-03-05 2020-03-10 Commonwealth Scientific And Industrial Research Organisation Structure modelling
US10175360B2 (en) 2015-03-31 2019-01-08 Faro Technologies, Inc. Mobile three-dimensional measuring instrument
US10024965B2 (en) 2015-04-01 2018-07-17 Vayavision, Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
JP2016197392A (ja) * 2015-04-02 2016-11-24 スリーディー・システムズ・コリア・インコーポレイテッド 3次元スキャナを利用して生成された幾何形状からディメンションを生成する方法
KR101679741B1 (ko) * 2015-05-06 2016-11-28 고려대학교 산학협력단 외곽 공간 특징 정보 추출 방법
US9916401B2 (en) 2015-05-18 2018-03-13 Xerox Corporation Creation of cut files for personalized package design using multiple substrates
US9916402B2 (en) 2015-05-18 2018-03-13 Xerox Corporation Creation of cut files to fit a large package flat on one or more substrates
US9786101B2 (en) * 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
KR101552828B1 (ko) 2015-05-27 2015-09-14 (주)이지스 3차원 객체 모델의 다각형 정보 추출 방법
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
DE102015214148A1 (de) * 2015-07-08 2017-01-12 Robert Bosch Gmbh System mit einem Laser-Messmodul
EP3396313B1 (de) 2015-07-15 2020-10-21 Hand Held Products, Inc. Verfahren und vorrichtung zur mobilen dimensionierung mit dynamischer nist-standardkonformer genauigkeit
US9858640B1 (en) * 2015-07-15 2018-01-02 Hrl Laboratories, Llc Device and method for merging 3D point clouds from sparsely distributed viewpoints
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
CN105874349B (zh) * 2015-07-31 2018-06-12 深圳市大疆创新科技有限公司 探测装置、探测系统、探测方法,以及可移动设备
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
JP6577295B2 (ja) * 2015-08-26 2019-09-18 株式会社トプコン 測定装置
JP6584226B2 (ja) * 2015-08-26 2019-10-02 株式会社トプコン 測定装置
WO2017031718A1 (zh) * 2015-08-26 2017-03-02 中国科学院深圳先进技术研究院 弹性物体变形运动的建模方法
US11131756B2 (en) 2015-09-29 2021-09-28 Qualcomm Incorporated LIDAR system with reflected signal strength measurement
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
EP3165945B1 (de) 2015-11-03 2024-01-03 Leica Geosystems AG Oberflächenvermessungsgerät zur bestimmung von 3d-koordinaten einer oberfläche
US10275565B2 (en) 2015-11-06 2019-04-30 The Boeing Company Advanced automated process for the wing-to-body join of an aircraft with predictive surface scanning
DE102015222119A1 (de) * 2015-11-10 2017-05-11 Robert Bosch Gmbh Steuerung für ein Laufband mit einer Steuereinheit und mit einem Laserabstandssensor
US10452949B2 (en) 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US11493454B2 (en) 2015-11-13 2022-11-08 Cognex Corporation System and method for detecting defects on a specular surface with a vision system
US10046459B2 (en) 2015-11-16 2018-08-14 Abb Schweiz Ag Three-dimensional visual servoing for robot positioning
US10564285B2 (en) * 2015-11-19 2020-02-18 DSCG Solutions, Inc. Estimation of motion in six degrees of freedom (6DOF) using LIDAR
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10706621B2 (en) 2015-11-30 2020-07-07 Photopotech LLC Systems and methods for processing image information
US10778877B2 (en) 2015-11-30 2020-09-15 Photopotech LLC Image-capture device
US10114467B2 (en) 2015-11-30 2018-10-30 Photopotech LLC Systems and methods for processing image information
US10306156B2 (en) * 2015-11-30 2019-05-28 Photopotech LLC Image-capture device
US11217009B2 (en) 2015-11-30 2022-01-04 Photopotech LLC Methods for collecting and processing image information to produce digital assets
EP3411660A4 (de) 2015-11-30 2019-11-27 Luminar Technologies, Inc. Lidar-system mit verteilten laser- und mehreren sensorköpfen und gepulster laser für lidar-system
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
EP3203264A1 (de) 2016-02-04 2017-08-09 Mettler-Toledo GmbH Verfahren zur abbildung eines objekts zur verfolgung und dokumentation beim transportieren und lagern
US10254402B2 (en) * 2016-02-04 2019-04-09 Goodrich Corporation Stereo range with lidar correction
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
WO2017137158A1 (de) * 2016-02-10 2017-08-17 Testo SE & Co. KGaA Verfahren und bildaufnahmevorrichtung zur bestimmung einer geometrischen messgrösse eines wahlobjektes
US9754374B1 (en) 2016-02-12 2017-09-05 Matrox Electronic Systems Ltd. Detection of a sheet of light based on second derivative
WO2017142945A1 (en) * 2016-02-15 2017-08-24 Formsolver, Llc Systems and methods for generating an energy model and tracking evolution of an energy model
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US10761196B2 (en) 2016-02-18 2020-09-01 Aeye, Inc. Adaptive ladar receiving method
US10908262B2 (en) 2016-02-18 2021-02-02 Aeye, Inc. Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
DE102016002186A1 (de) * 2016-02-24 2017-08-24 Testo SE & Co. KGaA Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
WO2017151641A1 (en) * 2016-02-29 2017-09-08 Optecks, Llc Aerial three-dimensional scanner
KR102040156B1 (ko) * 2016-03-02 2019-11-05 한국전자통신연구원 3차원 건물 데이터 편집장치 및 그 방법
SE539697C2 (sv) 2016-03-05 2017-10-31 Minalyze Ab System and method for analyzing drill core samples.
KR20170105701A (ko) * 2016-03-09 2017-09-20 한국전자통신연구원 스캐닝 장치 및 이의 동작 방법
CN109313024B (zh) 2016-03-11 2022-06-17 卡尔塔股份有限公司 具有实时在线自我运动估计的激光扫描仪
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11567201B2 (en) * 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN109154661A (zh) 2016-03-19 2019-01-04 威力登激光雷达有限公司 用于基于lidar的3-d成像的集成照射和检测
US10403037B1 (en) 2016-03-21 2019-09-03 URC Ventures, Inc. Verifying object measurements determined from mobile device images
US9495764B1 (en) 2016-03-21 2016-11-15 URC Ventures, Inc. Verifying object measurements determined from mobile device images
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US10026230B2 (en) * 2016-03-30 2018-07-17 Daqri, Llc Augmented point cloud for a visualization system and method
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
US11195294B2 (en) * 2016-04-22 2021-12-07 Nikon Corporation Image measurement method, image measurement program, image measurement device, and object manufacture method
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
GB2550567A (en) * 2016-05-20 2017-11-29 Nokia Technologies Oy Point Cloud Matching Method
CA3024510C (en) 2016-06-01 2022-10-04 Velodyne Lidar, Inc. Multiple pixel scanning lidar
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US10557942B2 (en) 2016-06-07 2020-02-11 DSCG Solutions, Inc. Estimation of motion using LIDAR
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
JP2019527445A (ja) 2016-06-24 2019-09-26 レレヴァント プレイ, エルエルシー 認証可能デジタルコードおよび関連するシステムおよび方法
EP3485109B1 (de) 2016-07-15 2021-09-29 Fastbrick IP Pty Ltd Ausleger für materialtransport
BR112019000728B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Veículo que incorpora máquina de assentamento de tijolos
US10297079B2 (en) * 2016-07-20 2019-05-21 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing a combined visualizable representation for evaluating a target object
KR20180013598A (ko) * 2016-07-29 2018-02-07 삼성전자주식회사 빔 스티어링 소자 및 이를 포함하는 광학 장치
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10482621B2 (en) 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
US10546373B2 (en) 2016-08-03 2020-01-28 Sightline Innovation Inc. System and method for integrated laser scanning and signal processing
CN109564434B (zh) * 2016-08-05 2023-07-25 深圳市大疆创新科技有限公司 用于定位可移动物体的系统和方法
JP6771994B2 (ja) 2016-08-17 2020-10-21 株式会社トプコン 測定方法及びレーザスキャナ
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US10120075B2 (en) 2016-08-19 2018-11-06 Faro Technologies, Inc. Using a two-dimensional scanner to speed registration of three-dimensional scan data
CN106247936B (zh) * 2016-08-26 2018-12-11 江苏省工程勘测研究院有限责任公司 基于三维激光扫描的征地拆迁实物调查方法及调查系统
GB2553363B (en) * 2016-09-05 2019-09-04 Return To Scene Ltd Method and system for recording spatial information
JP6571616B2 (ja) * 2016-09-05 2019-09-04 ファナック株式会社 ロボットシミュレーション装置
US10380749B2 (en) 2016-09-26 2019-08-13 Faro Technologies, Inc. Device and method for indoor mobile mapping of an environment
US11675078B2 (en) * 2016-10-06 2023-06-13 GM Global Technology Operations LLC LiDAR system
BR112019007000A2 (pt) * 2016-10-07 2019-06-25 Cmte Development Limited sistema e método para teste de diagnóstico de nuvem de pontos de forma e posição de objeto
US10282854B2 (en) 2016-10-12 2019-05-07 Faro Technologies, Inc. Two-dimensional mapping system and method of operation
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
JP2018091656A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US10529119B2 (en) 2016-12-25 2020-01-07 Biosense Webster (Israel) Ltd. Fast rendering of quadrics and marking of silhouettes thereof
US10209349B2 (en) 2017-02-17 2019-02-19 Aeye, Inc. Method and system for ladar pulse deconfliction to detect and track other ladar systems
CN108510546B (zh) * 2017-02-28 2021-10-01 北京航空航天大学 一种适用于图谱及结构信息同步探测系统的相机标定方法
US10186049B1 (en) 2017-03-06 2019-01-22 URC Ventures, Inc. Determining changes in object structure over time using mobile device images
CN108573519B (zh) 2017-03-14 2022-02-11 阿里巴巴集团控股有限公司 三维图形文件生成和在客户端展示三维图形的方法及装置
US9905992B1 (en) 2017-03-16 2018-02-27 Luminar Technologies, Inc. Self-Raman laser for lidar system
US9810775B1 (en) * 2017-03-16 2017-11-07 Luminar Technologies, Inc. Q-switched laser for LIDAR system
US9810786B1 (en) * 2017-03-16 2017-11-07 Luminar Technologies, Inc. Optical parametric oscillator for lidar system
US10824773B2 (en) 2017-03-28 2020-11-03 Faro Technologies, Inc. System and method of scanning an environment and generating two dimensional images of the environment
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10007001B1 (en) 2017-03-28 2018-06-26 Luminar Technologies, Inc. Active short-wave infrared four-dimensional camera
US10545240B2 (en) 2017-03-28 2020-01-28 Luminar Technologies, Inc. LIDAR transmitter and detector system using pulse encoding to reduce range ambiguity
JP6916578B2 (ja) * 2017-03-31 2021-08-11 株式会社トプコン レーザスキャナ
JP7076947B2 (ja) * 2017-03-31 2022-05-30 株式会社トプコン 測量装置、測量方法及び測量装置の制御プログラム
CN110914705A (zh) 2017-03-31 2020-03-24 威力登激光雷达有限公司 集成lidar照明功率控制
EP3606410B1 (de) 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomische oberflächenbeurteilungsverfahren, vorrichtungen und systeme
US11215597B2 (en) 2017-04-11 2022-01-04 Agerpoint, Inc. Forestry management tool for assessing risk of catastrophic tree failure due to weather events
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US11600084B2 (en) 2017-05-05 2023-03-07 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
CA3062701A1 (en) 2017-05-08 2018-11-15 Velodyne Lidar, Inc. Lidar data acquisition and control
US11543080B2 (en) * 2017-05-23 2023-01-03 Lux Modus Ltd. Automated pipeline construction modelling
CN108955670B (zh) * 2017-05-25 2021-02-09 百度在线网络技术(北京)有限公司 信息获取方法和装置
KR101953626B1 (ko) * 2017-06-29 2019-03-06 서강대학교산학협력단 다중 히스토그램을 이용한 객체 추적 방법 및 이를 이용한 객체 추적 시스템
US10393504B2 (en) * 2017-06-29 2019-08-27 The Boeing Company Optical coordinate measurement system
AU2018295572B2 (en) 2017-07-05 2022-09-29 Fastbrick Ip Pty Ltd Real time position and orientation tracker
US10967578B2 (en) 2017-07-11 2021-04-06 Daniel S. Clark 5D part growing machine with volumetric display technology
US11919246B2 (en) 2017-07-11 2024-03-05 Daniel S. Clark 5D part growing machine with volumetric display technology
JP6965050B2 (ja) * 2017-07-21 2021-11-10 株式会社タダノ ガイド情報表示装置およびこれを備えたクレーンおよびガイド情報表示方法
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10643379B2 (en) * 2017-07-31 2020-05-05 Quantum Spatial, Inc. Systems and methods for facilitating imagery and point-cloud based facility modeling and remote change detection
WO2019033170A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd LASER TRACKING DEVICE WITH ENHANCED ROLL ANGLE MEASUREMENT
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
CA3075736A1 (en) 2017-09-15 2019-11-14 Aeye, Inc. Intelligent ladar system with low latency motion planning updates
US11415676B2 (en) 2017-10-09 2022-08-16 Luminar, Llc Interlaced scan patterns for lidar system
US11415675B2 (en) 2017-10-09 2022-08-16 Luminar, Llc Lidar system with adjustable pulse period
AU2018348785A1 (en) 2017-10-11 2020-05-07 Fastbrick Ip Pty Ltd Machine for conveying objects and multi-bay carousel for use therewith
KR101942370B1 (ko) * 2017-10-19 2019-01-25 인천대학교 산학협력단 자유 정점의 이동 순서 할당에 기초하여 메쉬 품질의 향상을 지원하는 그래픽 처리 장치 및 방법
US10410350B2 (en) 2017-10-30 2019-09-10 Rakuten, Inc. Skip architecture neural network machine and method for improved semantic segmentation
US10395147B2 (en) * 2017-10-30 2019-08-27 Rakuten, Inc. Method and apparatus for improved segmentation and recognition of images
AU2018360836B2 (en) * 2017-11-02 2023-11-02 Airworks Solutions, Inc. Methods and apparatus for automatically defining computer-aided design files using machine learning, image analytics, and/or computer vision
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10989795B2 (en) * 2017-11-21 2021-04-27 Faro Technologies, Inc. System for surface analysis and method thereof
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
CN108133028B (zh) * 2017-12-28 2020-08-04 北京天睿空间科技股份有限公司 基于视频分析与定位信息结合的航空器挂牌方法
US10914612B2 (en) 2018-01-29 2021-02-09 Faro Technologies, Inc. Indexed optical encoder
CN108279420B (zh) * 2018-02-07 2024-01-26 北京大学 同步获取地物信息的激光扫描多维近距遥感系统及方法
US10957072B2 (en) 2018-02-21 2021-03-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system
WO2019165194A1 (en) * 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US10664974B2 (en) * 2018-02-23 2020-05-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for object detection using edge characteristics
CN108489513B (zh) * 2018-03-13 2020-08-28 北京麦格天宝科技股份有限公司 用于地下空间扫描点云方位校准系统及方法
US11562505B2 (en) 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
RU2682376C1 (ru) * 2018-04-02 2019-03-19 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" Способ повышения надежности и точности пассивной системы видения
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
KR102042343B1 (ko) * 2018-04-13 2019-11-07 경북대학교 산학협력단 3차원 스캐닝을 통해 획득된 점군 데이터 기반에서 깊이 이미지를 생성하는 장치 및 방법 및 이를 이용한 3차원 객체 식별 방법
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US11055532B2 (en) 2018-05-02 2021-07-06 Faro Technologies, Inc. System and method of representing and tracking time-based information in two-dimensional building documentation
KR102030040B1 (ko) * 2018-05-09 2019-10-08 한화정밀기계 주식회사 빈 피킹을 위한 빈 모델링 방법 및 그 장치
CN108759665B (zh) * 2018-05-25 2021-04-27 哈尔滨工业大学 一种基于坐标转换的空间目标三维重建精度分析方法
US11946761B2 (en) 2018-06-04 2024-04-02 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US10769543B2 (en) 2018-08-01 2020-09-08 Forcepoint Llc Double-layered image classification endpoint solution
CA3109087A1 (en) * 2018-08-10 2020-02-13 OnScale, Inc. Hybrid meshing method for finite element analysis
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
CN109188448B (zh) * 2018-09-07 2020-03-06 百度在线网络技术(北京)有限公司 点云非地面点过滤方法、装置及存储介质
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
EP3628964B1 (de) 2018-09-28 2024-02-14 Hexagon Technology Center GmbH Opto-elektro-mechanisches strahlmanipulationssystem
US10712730B2 (en) 2018-10-04 2020-07-14 The Boeing Company Methods of synchronizing manufacturing of a shimless assembly
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US10670718B1 (en) 2018-10-25 2020-06-02 Aeye, Inc. System and method for synthetically filling ladar frames based on prior ladar return data
US11024050B2 (en) 2018-11-05 2021-06-01 Faro Technologies, Inc. System and method of scanning an environment
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US20220103794A1 (en) * 2018-11-29 2022-03-31 Hieu Thuan Charles HA Projection device for displaying construction plans
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
KR102000965B1 (ko) * 2019-01-08 2019-07-17 국방과학연구소 비행체의 추적점 결정 방법 및 장치
US11486701B2 (en) 2019-02-06 2022-11-01 Faro Technologies, Inc. System and method for performing a real-time wall detection
US11681030B2 (en) * 2019-03-05 2023-06-20 Waymo Llc Range calibration of light detectors
JP2022530363A (ja) * 2019-04-17 2022-06-29 ザ・リージェンツ・オブ・ザ・ユニバーシティ・オブ・ミシガン 多次元材料感知システム及び方法
US10641897B1 (en) 2019-04-24 2020-05-05 Aeye, Inc. Ladar system and method with adaptive pulse duration
WO2020227275A1 (en) * 2019-05-06 2020-11-12 Sap National Security Services, Inc. System and method for enhancing a 3d rendering of a lidar point cloud
JP7311225B2 (ja) * 2019-05-15 2023-07-19 株式会社トプコン 測定システム、測定方法、及び測定プログラム
EP3742398A1 (de) * 2019-05-22 2020-11-25 Bentley Systems, Inc. Bestimmung einer oder mehrerer scanner-positionen in einer punktwolke
US11279035B1 (en) * 2019-05-23 2022-03-22 Amazon Technologies, Inc. LIDAR safely rings
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11080870B2 (en) * 2019-06-19 2021-08-03 Faro Technologies, Inc. Method and apparatus for registering three-dimensional point clouds
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11187657B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Hyperspectral imaging with fixed pattern noise cancellation
US11265491B2 (en) 2019-06-20 2022-03-01 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11221414B2 (en) * 2019-06-20 2022-01-11 Cilag Gmbh International Laser mapping imaging with fixed pattern noise cancellation
US11233960B2 (en) 2019-06-20 2022-01-25 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11062520B2 (en) * 2019-09-09 2021-07-13 Ford Global Technologies, Llc Ergonomic assessment using a wearable device
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
KR102428840B1 (ko) * 2019-10-16 2022-08-04 (주)아인스에스엔씨 다중 해상도 기반 모델 간의 천이 과정을 기술하는 모델을 구현하고 동작시키는 컴퓨팅 시스템
CN110725188B (zh) * 2019-10-17 2021-08-10 惠冰 一种道路车载三维激光系统的系统精度场地校验方法
US11747453B1 (en) 2019-11-04 2023-09-05 Waymo Llc Calibration system for light detection and ranging (lidar) devices
US11252366B2 (en) 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
EP3825730A1 (de) 2019-11-21 2021-05-26 Bentley Systems, Incorporated Zuordnung von jedem punkt einer punktwolke zu einer scannerposition von einer vielzahl von unterschiedlichen scannerpositionen in einer punktwolke
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
JP6693616B1 (ja) * 2019-12-11 2020-05-13 計測技研株式会社 測量システム及び測量方法
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
RU2734070C9 (ru) * 2019-12-24 2022-04-27 Федеральное государственное бюджетное военное образовательное учреждение высшего образования "Военно-космическая академия имени А.Ф. Можайского" Министерства обороны Российской Федерации Способ измерения пространственного расстояния между малоразмерными объектами
CN111121734A (zh) * 2020-01-03 2020-05-08 中国船舶重工集团公司第七0七研究所 惯性设备安装基座变形测量装置及方法
US11074720B1 (en) * 2020-02-07 2021-07-27 Aptiv Technologies Limited System and method for calibrating intrinsic parameters of a camera using optical raytracing techniques
RU2729511C1 (ru) * 2020-02-11 2020-08-07 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" Способ повышения надежности и точности пассивной системы видения
CN113269211A (zh) * 2020-02-14 2021-08-17 郑桂忠 感测器内处理单元及存储器内运算单元的整合方法及系统
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
CN111288965B (zh) * 2020-03-22 2020-12-15 嘉兴市盛康信息科技有限公司 云端处理式倾斜状态辨识系统
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US20210341621A1 (en) * 2020-04-30 2021-11-04 Uatc, Llc Light Detection and Ranging (LIDAR) System
CN111578916B (zh) * 2020-05-06 2021-11-19 深圳广田集团股份有限公司 基于bim技术在装饰工程中智能放线施工方法
US11194048B1 (en) 2020-05-13 2021-12-07 Luminar, Llc Lidar system with high-resolution scan pattern
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
US11016197B1 (en) 2020-06-29 2021-05-25 Aurora Innovation, Inc. LIDAR system
JPWO2022004377A1 (de) * 2020-06-30 2022-01-06
JP2022012114A (ja) * 2020-07-01 2022-01-17 コニカミノルタ株式会社 データ処理装置、データ処理方法及びプログラム
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
CA3194223A1 (en) 2020-07-21 2021-10-06 Leddartech Inc. Beam-steering device particularly for lidar systems
WO2022016276A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Beam-steering device particularly for lidar systems
CA3125716A1 (en) 2020-07-21 2021-10-10 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
WO2022025784A1 (ru) * 2020-07-28 2022-02-03 Общество с ограниченной ответственностью "Смартсенсор" Передача и обработка данных в системе лидар-видеокамера
AU2021318900A1 (en) * 2020-07-31 2023-02-23 Minalyze Ab Method and system for measuring volume of a drill core sample
US11501478B2 (en) 2020-08-17 2022-11-15 Faro Technologies, Inc. System and method of automatic room segmentation for two-dimensional laser floorplans
DE102020211306A1 (de) 2020-09-09 2022-03-10 Robert Bosch Gesellschaft mit beschränkter Haftung Clusteranalyse einer Punktwolke
CN112233056B (zh) * 2020-10-16 2024-03-12 北京恒华伟业科技股份有限公司 一种多源数据的点云融合方法、装置和存储介质
US11593915B2 (en) * 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
CA3200124A1 (en) * 2020-10-29 2022-05-05 PT Blink Limited Parameter based construction
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
CN112505662A (zh) * 2020-11-19 2021-03-16 合肥师范学院 一种激光雷达近场饱和问题的判别及优化方法
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
EP4275175A1 (de) * 2021-01-08 2023-11-15 Insurance Services Office, Inc. Systeme und verfahren zur anpassung von modellstandorten und -skalen mithilfe von punktwolken
US11282291B1 (en) * 2021-02-09 2022-03-22 URC Ventures, Inc. Determining object structure using fixed-location cameras with only partial view of object
US11741618B2 (en) 2021-03-22 2023-08-29 Everypoint, Inc. Performing object modeling by combining visual data from images with motion data of the image acquisition device
US11467263B1 (en) 2021-03-26 2022-10-11 Aeye, Inc. Hyper temporal lidar with controllable variable laser seed energy
US20220308187A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar Using Multiple Matched Filters to Determine Target Retro-Reflectivity
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US11474212B1 (en) 2021-03-26 2022-10-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control and shot order simulation
US20220308186A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar with Optimized Range-Based Detection Intervals
US20230044929A1 (en) 2021-03-26 2023-02-09 Aeye, Inc. Multi-Lens Lidar Receiver with Multiple Readout Channels
CN113240789B (zh) * 2021-04-13 2023-05-23 青岛小鸟看看科技有限公司 虚拟对象构建方法及装置
EP4102484A3 (de) * 2021-06-09 2023-02-08 Honeywell International Inc. Flugzeugidentifizierung
WO2022271752A1 (en) * 2021-06-21 2022-12-29 Cyngn, Inc. Self-adaptive lidar-camera synchronization system
USD983717S1 (en) 2021-07-02 2023-04-18 Macneil Ip Llc Scraper panels for golf cart mat
US20230041814A1 (en) * 2021-08-06 2023-02-09 Lenovo (Singapore) Pte. Ltd. System and method for demonstrating objects at remote locations
EP4155664A1 (de) 2021-09-27 2023-03-29 Leica Geosystems AG Messvorrichtung mit einer zieleinheit und einem abtastmodul
TWI810688B (zh) * 2021-10-25 2023-08-01 財團法人中興工程顧問社 智慧型變位監測系統與方法
CN113985438B (zh) * 2021-11-12 2022-08-12 河北农业大学 一种植物三维模型重建系统及方法
US20230162445A1 (en) * 2021-11-19 2023-05-25 Electronic Arts Inc. Systems and methods for generating a simplified polygonal mesh
JP2023102935A (ja) * 2022-01-13 2023-07-26 株式会社リコー 三次元形状生成装置、三次元形状生成システム、三次元形状生成方法およびプログラム
EP4242584A1 (de) 2022-03-11 2023-09-13 Leica Geosystems AG Referenzfreies kalibrierverfahren für ein punktwolkenmessmodul in kombination mit einer geodätischen einpunktmesseinheit
CN114923413A (zh) * 2022-05-26 2022-08-19 广东省高速公路有限公司 一种基于三维激光扫描仪点云钢结构质量自动判别方法
CN115143887B (zh) * 2022-09-05 2022-11-15 常州市建筑科学研究院集团股份有限公司 视觉监测设备测量结果的修正方法及视觉监测系统
CN116168176B (zh) * 2023-04-23 2023-07-18 深圳大学 联合InSAR与激光点云的建筑物几何与变形提取方法
CN117152399A (zh) * 2023-10-30 2023-12-01 长沙能川信息科技有限公司 基于变电站的模型制作方法、装置、设备和存储介质

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3894787A (en) * 1969-05-19 1975-07-15 Battelle Development Corp Holograms
US4088964A (en) * 1975-01-22 1978-05-09 Clow Richard G Multi-mode threshold laser
US4189233A (en) * 1977-03-07 1980-02-19 Westinghouse Electric Corp. Passive optical range simulator device
DE2816682A1 (de) * 1978-04-18 1979-12-20 Max Planck Gesellschaft Anordnung zur erfassung des einflusses physikalischer groessen auf die laenge eines weges
JPS574564A (en) * 1980-06-11 1982-01-11 Hitachi Ltd Optical device for calibrating laser range finder
US4594000A (en) * 1983-04-04 1986-06-10 Ball Corporation Method and apparatus for optically measuring distance and velocity
US4830486A (en) * 1984-03-16 1989-05-16 Goodwin Frank E Frequency modulated lasar radar
US4658218A (en) * 1984-12-10 1987-04-14 The United States Of America As Represented By The Secretary Of The Navy Circuit for synchronizing a mode-locked oscillator-amplifier dye laser with a streak camera detection system
JPS62108172A (ja) * 1985-11-07 1987-05-19 Fuji Electric Co Ltd 測距儀のオフセツト誤差の補正方法
FR2594959B1 (fr) * 1986-02-24 1988-09-09 Electricite De France Procede et dispositif de mesure optique de la distance et de la vitesse d'une cible
US5114226A (en) * 1987-03-20 1992-05-19 Digital Optronics Corporation 3-Dimensional vision system utilizing coherent optical detection
US4860304A (en) * 1988-02-02 1989-08-22 Massachusetts Institute Of Technology Solid state microlaser
CA1313040C (en) * 1988-03-31 1993-01-26 Mitsuaki Uesugi Method and apparatus for measuring a three-dimensional curved surface shape
US4907586A (en) * 1988-03-31 1990-03-13 Intelligent Surgical Lasers Method for reshaping the eye
US4973111A (en) * 1988-09-14 1990-11-27 Case Western Reserve University Parametric image reconstruction using a high-resolution, high signal-to-noise technique
US4957369A (en) * 1989-01-23 1990-09-18 California Institute Of Technology Apparatus for measuring three-dimensional surface geometries
US5132977A (en) * 1989-09-07 1992-07-21 Massachusetts Institute Of Technology Coupled-cavity Q-switched laser
US5006721A (en) * 1990-03-23 1991-04-09 Perceptron, Inc. Lidar scanning system
FR2662244B1 (fr) * 1990-05-15 1994-05-27 Mensi Dispositif de mesure du pointage d'un rayonnement laser.
US5589929A (en) * 1991-11-04 1996-12-31 Li; Ming-Chiang RF signal train generator and interferoceivers
DE4109844C1 (en) * 1991-03-26 1992-06-11 Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De Laser range finder with fibre=optic propagation time component - couples two glass fibres to photodiode, one being in closed ring form or bounded at both sides by reflectors
US5110203A (en) * 1991-08-28 1992-05-05 The United States Of America As Represented By The Secretary Of The Navy Three dimensional range imaging system
US5231470A (en) * 1991-09-06 1993-07-27 Koch Stephen K Scanning system for three-dimensional object digitizing
US5216476A (en) * 1991-10-15 1993-06-01 Synectics Corporation Photogrammetric laser system
JPH06188501A (ja) * 1991-12-11 1994-07-08 Toshiba Corp Qスイッチレーザ装置
US5469536A (en) * 1992-02-25 1995-11-21 Imageware Software, Inc. Image editing system including masking capability
US5412474A (en) * 1992-05-08 1995-05-02 Smithsonian Institution System for measuring distance between two points using a variable frequency coherent source
US5576948A (en) * 1992-07-28 1996-11-19 Robotic Vision Systems, Inc. Machine vision for adaptive laser beam steering
GB2272123B (en) * 1992-11-03 1996-08-07 Marconi Gec Ltd Laser radar system
US5337149A (en) * 1992-11-12 1994-08-09 Kozah Ghassan F Computerized three dimensional data acquisition apparatus and method
US5384717A (en) * 1992-11-23 1995-01-24 Ford Motor Company Non-contact method of obtaining dimensional information about an object
US5414647A (en) * 1992-11-23 1995-05-09 Ford Motor Company Non-contact method and system for building CAD models by integrating high density data scans
US5402364A (en) * 1993-01-15 1995-03-28 Sanyo Machine Works, Ltd. Three dimensional measuring apparatus
US5381431A (en) * 1993-08-13 1995-01-10 Massachusetts Institute Of Technology Picosecond Q-switched microlasers
WO1995006291A1 (en) * 1993-08-27 1995-03-02 Apple Computer, Inc. System and method for generating smooth low degree polynomial spline surfaces over irregular meshes
US5619709A (en) * 1993-09-20 1997-04-08 Hnc, Inc. System and method of context vector generation and retrieval
US5668631A (en) * 1993-12-20 1997-09-16 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JP2838968B2 (ja) * 1994-01-31 1998-12-16 日本電気株式会社 半導体デバイスシミュレータのメッシュ生成方法
US5394413A (en) * 1994-02-08 1995-02-28 Massachusetts Institute Of Technology Passively Q-switched picosecond microlaser
US5386427A (en) * 1994-02-10 1995-01-31 Massachusetts Institute Of Technology Thermally controlled lenses for lasers
US5461637A (en) * 1994-03-16 1995-10-24 Micracor, Inc. High brightness, vertical cavity semiconductor lasers
US5561526A (en) * 1994-05-26 1996-10-01 Lockheed Missiles & Space Company, Inc. Three-dimensional measurement device and system
IL110611A (en) * 1994-08-09 1997-01-10 Israel State Apparatus and method for laser imaging
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
US5530711A (en) * 1994-09-01 1996-06-25 The United States Of America As Represented By The Secretary Of The Navy Low threshold diode-pumped tunable dye laser
US5531520A (en) * 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
US5848188A (en) * 1994-09-08 1998-12-08 Ckd Corporation Shape measure device
FR2725279B1 (fr) * 1994-10-04 1996-10-25 Commissariat Energie Atomique Dispositif de telemetrie comportant un microlaser
US5606409A (en) * 1994-12-27 1997-02-25 General Electric Company Laser ranging system calibration device
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
US5623335A (en) * 1995-05-04 1997-04-22 Bushnell Corporation Laser range finder with target quality display
US5638163A (en) * 1995-06-07 1997-06-10 Hughes Electronics Low cost laser range finder system architecture
JP3280834B2 (ja) * 1995-09-04 2002-05-13 沖電気工業株式会社 符号化通信方式における信号判定装置および受信装置ならびに信号判定方法および通信路状態推定方法
US5644141A (en) * 1995-10-12 1997-07-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Apparatus and method for high-speed characterization of surfaces
US5689446A (en) * 1995-11-03 1997-11-18 Amfit, Inc. Foot contour digitizer
US6141105A (en) * 1995-11-17 2000-10-31 Minolta Co., Ltd. Three-dimensional measuring device and three-dimensional measuring method
EP0791411B1 (de) * 1995-12-26 2008-02-13 Toshiba Mitsubishi-Electric Industrial Systems Corporation Verfahren zum Messen von Bandprofil und Verfahren zum Steuern von kontinuierlichen Walzen
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5892575A (en) * 1996-05-10 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for imaging a scene using a light detector operating in non-linear geiger-mode
JP2918499B2 (ja) * 1996-09-17 1999-07-12 株式会社エイ・ティ・アール人間情報通信研究所 顔画像情報変換方法および顔画像情報変換装置
US5715270A (en) * 1996-09-27 1998-02-03 Mcdonnell Douglas Corporation High efficiency, high power direct diode laser systems and methods therefor
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112007003293B4 (de) * 2007-01-26 2021-01-21 Trimble Jena Gmbh Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
EP2607841A2 (de) 2011-12-23 2013-06-26 HILTI Aktiengesellschaft Optisches System
DE102011089837A1 (de) 2011-12-23 2013-06-27 Hilti Aktiengesellschaft Optisches System
DE102016122830A1 (de) * 2016-11-25 2018-05-30 NoKra Optische Prüftechnik und Automation GmbH Verfahren und Anordnung zur Abstandsmessung
DE102017121591A1 (de) * 2017-06-26 2018-12-27 Its Korea System zum Extrahieren von Positionsinformationen von Objekten aus Punktwolkendaten unter Verwendung von Komponenten
DE102018221530A1 (de) 2018-12-12 2020-06-18 Robert Bosch Gmbh LiDAR-System sowie Kraftfahrzeug
WO2020120278A1 (de) 2018-12-12 2020-06-18 Robert Bosch Gmbh Lidar-system sowie kraftfahrzeug
DE102020131497A1 (de) 2020-11-27 2022-06-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Konstruieren eines Bauteils, elektronische Recheneinrichtung, Computerprogrammprodukt und computerlesbares Medium

Also Published As

Publication number Publication date
US20040051711A1 (en) 2004-03-18
US6512993B2 (en) 2003-01-28
EP0895577B1 (de) 2005-04-13
JP2000509150A (ja) 2000-07-18
WO1997040342A2 (en) 1997-10-30
US20020145607A1 (en) 2002-10-10
WO1997040342A3 (en) 1998-07-30
US6246468B1 (en) 2001-06-12
US20020059042A1 (en) 2002-05-16
DE69733014T8 (de) 2006-04-27
US6330523B1 (en) 2001-12-11
US6847462B1 (en) 2005-01-25
US20020149585A1 (en) 2002-10-17
US7215430B2 (en) 2007-05-08
US20030001835A1 (en) 2003-01-02
US7184036B2 (en) 2007-02-27
US6734849B2 (en) 2004-05-11
DE69733014D1 (de) 2005-05-19
ATE293244T1 (de) 2005-04-15
US5988862A (en) 1999-11-23
EP0895577A2 (de) 1999-02-10
US20050099637A1 (en) 2005-05-12
US6473079B1 (en) 2002-10-29
JP4400894B2 (ja) 2010-01-20
CA2252409A1 (en) 1997-10-30
US20020158870A1 (en) 2002-10-31
US6512518B2 (en) 2003-01-28

Similar Documents

Publication Publication Date Title
DE69733014T2 (de) Integriertes system zum abbilden und modellieren von dreidimensionalen objekten
US6420698B1 (en) Integrated system for quickly and accurately imaging and modeling three-dimensional objects
Bellian et al. Digital outcrop models: applications of terrestrial scanning lidar technology in stratigraphic modeling
US20190026400A1 (en) Three-dimensional modeling from point cloud data migration
US6825839B2 (en) Method and apparatus for generating atomic parts of graphic representation through skeletonization for interactive visualization applications
DE69737913T2 (de) Gerät und verfahren zur eingabe von daten fuer ein biegemodell zur blecherzeugung
US7181362B2 (en) Three dimensional tangible interface for interacting with spatial-temporal data using infrared light sources and infrared detectors
US20190026938A1 (en) Three-dimensional modeling from optical capture
Bladin et al. Globe browsing: Contextualized spatio-temporal planetary surface visualization
Moyano et al. Operability of point cloud data in an architectural heritage information model
Van Genechten Theory and practice on Terrestrial Laser Scanning: Training material based on practical applications
JPH10255069A (ja) 画像処理システム
CN105913372A (zh) 二维房型平面图转换为三维空间图的方法及其系统
Huber et al. Fusion of LIDAR data and aerial imagery for automatic reconstruction of building surfaces
Guidi et al. 3D digitization of cultural heritage
Hullo et al. Advances in multi-sensor scanning and visualization of complex plants: The utmost case of a reactor building
De Roo et al. On the way to a 4D archaeological GIS: state of the art, future directions and need for standardization
Kreylos et al. Point-based computing on scanned terrain with LidarViewer
Gaiani et al. VR as work tool for architectural & archaeological restoration: the ancient Appian way 3D web virtual GIS
Cheng The workflows of 3D digitizing heritage monuments
Streilein et al. Reconstruction of the Disentis monastery from high resolution still video imagery with object oriented measurement routines
Setkowicz Evaluation of algorithms and tools for 3D modeling of laser scanning data.
Vo Spatial data storage and processing strategies for urban laser scanning
Tsakiri et al. 3D laser scanning for the documentation of cave environments
Gaiani et al. A framework to use virtual worlds generated from real world 3D models as Work Tool for Architectural & Archaeological Restoration on the Web

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: LEICA GEOSYSTEMS AG, HEERBRUGG, CH