DE3924280A1 - Optisches erfassungssystem - Google Patents

Optisches erfassungssystem

Info

Publication number
DE3924280A1
DE3924280A1 DE3924280A DE3924280A DE3924280A1 DE 3924280 A1 DE3924280 A1 DE 3924280A1 DE 3924280 A DE3924280 A DE 3924280A DE 3924280 A DE3924280 A DE 3924280A DE 3924280 A1 DE3924280 A1 DE 3924280A1
Authority
DE
Germany
Prior art keywords
arrangement
angle
value
lens
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE3924280A
Other languages
English (en)
Inventor
Robert Louis Dalglish
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisearch Ltd
Original Assignee
Unisearch Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisearch Ltd filed Critical Unisearch Ltd
Publication of DE3924280A1 publication Critical patent/DE3924280A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Description

Die Erfindung bezieht sich auf ein optisches Bilderzeugungs- und Erfassunssystem, insbesondere eine Objekterfassungsein­ richtung für automatische Bilderkennung (robot vision).
Anwendungen für industrielle Roboter sind gegenwärtig beschränkt auf einfache repetitive Aufgaben an Produktions- und Montage­ linien, wo Komponenten unter strikt kontrollierten Bedingungen an die Roboterstation ausgeliefert werden. Die grundsätzliche Ursache für ihre Beschränkung auf solche Aufgaben ist das Fehlen einer effizienten und ökonomischen allgemeinen Technik, die sie mit Bilderkennung ausstatten würde. Es werden zur Zeit beträchtliche Anstrengungen in allen technologisch entwickelten Ländern unternommen, um ein geeignetes automatisches Bilder­ kennungssystem bereitzustellen. Die kommerziellen Auswirkungen eines zufriedenstellend arbeitenden Systems sind beträchtlich und könnten einen ganz neuen Industriezweig begründen.
Bis in jüngste Zeit waren die einzigen erfolgreichen Versuche zur Entwicklung von industriellen oder automatischen Bilder­ kennungssystemen auf sehr einfache Anwendungssysteme zum Auf­ finden und Orientieren von Komponenten auf verschiedenen Arten von Förderbändern beschränkt. Dieser Situationstyp ist relativ einfach zu handhaben, weil das System strikt beschränkt ist auf ein gut geregeltes zweidimensionales Objektfeld. Nichts­ destoweniger brauchen die logischen Systeme, die von zur Zeit existierenden Anordnungen benötigt werden, sogar für diesen einfachen Fall üblicherweise mindestens einen leistungsstarken Minicomputer.
In der parallelen Australischen Anmeldung 62 020/86 haben die Autoren der vorliegenden Anmeldung ein System beschrieben, das auf das allgemeinere Problem der Erfassung und Erkennung von Objekten im voll dreidimensionalen Raum gerichtet ist, welches bisher noch nicht gelöst werden konnte. Alle anderen bekannten Systeme sind hochgradig experimentell und benutzten beständig Großrechner (main fraim computers) oder Hochleistungs­ computer; nicht einmal damit kann jedoch das Problem der Objekt­ erfassung angemessen gelöst werden. Viele Techniken mit Kontur- und Kantenerkennung, Schattierungsbewertung, optische Dicht­ felder (visual flow fields) und dergleichen sind einzeln und in Kombination ausprobiert worden, um die dreidimensionalen Aspekte eines Objektfelds, wie es von einer Fernsehkamera ge­ sehen wird, zu rekonstruieren. Die unvermeidliche Komplexität dieser Techniken fordert eine gute Echtzeitauflösung sogar dort, wo die leistungsstärksten Computer, die heuzutage er­ hältlich sind, für die Analyse benutzt werden.
Das zentrale Problem im allgemeinen dreidimensionalen Fall ist die Rückgewinnung der Informations"tiefe" im zweidimensionalen Bild, das mit einem konventionellen Kamera- oder Bildsystem aufgefangen wurde. Die bekannte Technik bietet kein allgemeines Verfahren zur eindeutigen Rückgewinnung von unwiederbringlich verlorener Information bei der Transformation von 3D zu 2D an.
Nach einem ersten Aspekt besteht die vorliegende Erfindung in einem optischen Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeigneter Strah­ lung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasislinie;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anordnung eine erste Dimen­ sion hat, deren Koordinate einen Einfallswinkelwert C zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie darstellt, wobei der Wert von C durch die Detektion des entsprechenden Elementes in der ersten Dimension der Anordnung bestimmt wird, auf welches der Spitzenintensitäts­ punkt des reflektierten Strahles durch die Linse gerichtet wird; und
einer Speichereinrichtung zum Speichern eines räumlichen Planes des Gesichtsfeldes mit einem "Sparse array", das eine Dimension weniger als das Gesichtsfeld hat, wobei eine Dimension des array von einem Wert angesprochen wird, der den Winkel A dar­ stellt, und jede Zelle des array so angeordnet ist, daß sie den Wert C speichert.
Bei einer bevorzugten Ausführungsform ist das Gesichtsfeld ein dreidimensionaler Raum, und das "Sparse array" ein zweidimen­ sionales array, dessen eine Dimension von einem Wert angesprochen wird, der den Winkel A darstellt, und dessen andere Dimension von einer Liniennummer B angesprochen wird, die zu einer Linie von Elementen in der ersten Richtung der Detektor­ anordnung gehört, wobei die Liniennummer einen Elevationswinkel des reflektierten Strahles darstellt, welcher der horizontalen Bezugsebene gegenüberliegt.
Bei einer bevorzugten Ausführungsform hält jede Zelle des "Sparse array" einen Wert, der den Winkel C darstellt, welcher zur Lage längs der Linie von Elementen gehört, die durch B definiert wird, und die bestimmt wird durch die Erfassung des Elements, auf welches der Spitzenintensitätspunkt des reflek­ tierten Strahles durch die Linse in der durch B definierten Ebene gerichtet ist, und einen Intensitätswert, der die Intensi­ tät des reflektierten Strahles ist, für den der Winkel C aufge­ nommen wurde.
Nach einem weiteren Aspekt besteht die vorliegende Erfindung in einem optischen Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeigneter Strah­ lung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasislinie;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anordnung eine erste Dimen­ sion hat, deren Koordinate einen Einfallswinkelwert C zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie darstellt, wobei der Wert von C durch die Detektion des entsprechenden Elementes in der ersten Dimension der Anordnung bestimmt wird, auf welches der Spitzenintensi­ tätspunkt des reflektierten Strahles durch die Linse gerichtet wird; und wobei Kompensationseinrichtungen vorgesehen sind, um den von jedem Element in der Detektoranordnung aufgenommenen Intensitätswert anzupasse, um die erwartete Variation in der Intensität des reflektierten Strahles für verschiedene Werte des Winkels A und unterschiedliche Weglängen von der Projek­ tionseinrichtung zum Punkt der Reflektion, dargestellt durch den Wert C, zu kompensieren.
Bei einer speziellen Ausführungsform der Erfindung kann das querschnittsmäßige Profil des projizierten Strahles mit einer charakteristischen Signatur versehen werden, die entweder fix ist, wie z. B. eine charakteristische Frequenz, oder variabel, wie ein zum Projektionswinkel des Strahles gehörender Code.
Gemäß eines dritten Aspektes besteht die vorliegende Erfindung in einem optischen Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer beeigneter Strah­ lung in ein Gesichtsfeld in einer Richtung die gegenüber einer Bezugsbasislinie einen variablen Winkel A einschließt, wobei der Strahl innerhalb seines Querschnitts ein vorbestimmtes querschnittsmäßiges Intensitätsprofil besitzt;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anordnung als erste Dimen­ sion die Koordinate C hat, die einen Wert eines Einfallswinkels zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie darstellt, wobei der Wert von C durch die Detektion des entsprechenden Elementes in der genannten ersten Dimension der Anordnung, auf welche der Spitzenintensitätspunkt des reflektierten Strahles durch die Linse gerichtet wird, bestimmt wird;
einer Filtereinrichtung, die so angeordnet ist, daß sie die­ jenigen von der Detektoranordnung detektierten Intensitäts­ profile abschwächt, welche nicht mit dem Intensitätsprofil des projizierten Strahles korrelieren.
Bei einer bevorzugten Ausführungsform ist die Detektoranordnung eine zweidimensionale Anordnung einer Raster-Scan-Videokamera, und die Filtereinrichtungen sind so angeordnet, daß sie den Kamera-Output verarbeiten, wobei die Filter eine Übertragungs­ funktion haben, die die Fouriertransformierte des mittleren Intensitäsprofiles ist, das für eine Kamera-Scan-Linie erwartet wird, wenn die Kamera ein Objekt im Gesichtsfeld abtastet, welches von dem projizierten Strahl beleuchtet wird.
Nach einem vierten Aspekt besteht die vorliegende Erfindung in einem optischen Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeigneter Strah­ lung in ein Gesichtsfeld in einer Richtung die gegenüber einer Bezugsbasislinie einen variablen Winkel A einschließt, wobei die Strahlung auf ein vorbestimmtes Wellenlängenband begrenzt ist;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie mit einer Linse und einer linearen Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anordnung eine erste Dimen­ sion hat, deren Koordinate C einen Wert eines Einfallwinkels zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie darstellt, wobei der Wert von C durch Detektion des entsprechenden Elementes in der ersten Dimension der Anordnung, auf welche der Spitzenintensitätspunkt des reflektierten Strahles durch die Linse gerichtet wird, bestimmt wird; und
einer Filtereinrichtung, die so angeordnet ist, daß sie die Wellenlänge von auf die Detektoranordnung einfallender Strahlung auf das vorbestimmte Band des projizierten Strahles beschränkt, wodurch Licht von anderen Quellen abgeschwächt wird.
Ausführungsformen der vorliegenden Erfindung werden nun im Detail mit Bezug auf die Zeichnung beschrieben bei der
Fig. 1 schematisch das grundlegende Konzept illustriert, auf welchem die vorliegende Anmeldung beruht;
Fig. 2 schematisch eine Methode zur Auflösung von Mehrdeutig­ keiten durch Beleuchtung des Objektraumes aus mehr als einer Richtung darstellt;
Fig. 3 schematisch die physikalische Anordnung von Projektions- und Detektionselementen einer bevorzugten Ausführungsform der vorliegenden Erfindung erläutert;
Fig. 4 schematisch die Steuereinheit zur Steuerung des Ausfüh­ rungsbeispiels von Fig. 3 darstellt;
Fig. 5 schematisch den analogen Verarbeitungsabschnitt der Steuereinrichtung von Fig. 4 im Detail zeigt; und
Fig. 6 graphisch typische Signale vom analogen Verarbeitungs­ abschnitt von Fig. 5 nach verschiedenen Stufen der Verarbeitung zeigt.
Mit Bezug auf Fig. 1 benutzt der dargestellte Aufbau der Bequem­ lichkeit halber einen einfachen Niederleistungs-Laser als Licht­ quelle 11. Der Laserstrahl 13 ist auf einen kleinen drehbaren Spiegel 12 gerichtet, dessen Orientierung gesteuert werden kann. Das erlaubt es, den Laserstrahl über das Objektfeld 17 streichen zu lassen. In dem dargestellten vereinfachten zwei­ dimensionalen Fall wird der Strahl 13 einen Lichtpunkt über das Gesichtsfeld streichen lassen, jedoch in einem dreidimen­ sionalen Fall wäre der Strahl 13 ein vertikaler Bandstrahl und die Ansicht von Fig. 1 könnte als Draufsicht auf das System verstanden werden.
Die Lichtdetektionseinrichtung 15 umfaßt ein Linsensystem 16 zum Sammeln des an Objekt 22 im Objektraum gestreuten Laserlichtes und zum Abbilden dieses Lichtes auf einer Anordnung von Photo­ sensorelementen 29. Der in dieser Ausführungsform benutzte Detektor ist ein linearer CCD (charge coupled device) mit inte­ grierten Photodetektoren, die auf Kommando entladen werden können. In einem dreidimensionalen System könnte die Linse 16 und der Sensor die Linse bzw. das Abbildungssystem einer Video­ kamera sein, wobei dann die Anordnung 29 eine zweidimensionale Anordnung wäre.
Die Elemente des Systems werden von einer Steuereinheit 14 gesteuert, die den Scan-Spiegel 13 betreibt und den Datenstrom von der Lichtdetektionseinrichtung entlädt. Die Steuereinrich­ tung 14 verarbeitet auch die Daten in eine Matrix, die die Position von allen Objekten 22 im Gesichtsfeld 17, welche Licht 21 vom Laserstrahl 13 reflektieren, definiert. Die Beleuchtung von Objekten 22 wird durch Bewegung des Spiegels 12 in eine bekannte Position erreicht, wo der Strahl unter einem bekannten Winkel in das Gesichtsfeld 17 geworfen wird. Wenn dieser Strahl einen kleinen Bruchteil 18 eines Objektes im Gesichtsfeld be­ leuchtet, wird etwas Licht 21 in die Linse gestreut und auf ein kleines Gebiet der Detektor-Anordnung-Zellen 29 fokussiert. Der Winkel des Objekts relativ zur Lichtdetektionseinrichtung 15 kann leicht aus dem Bild bestimmt werden, das auf der An­ ordnung 29 gebildet wird, und dieser Winkel zusammen mit dem bekannten Projektionswinkel des Lichtstrahles erlaubt die voll­ ständige Definition der Position des Objekts im Objektraum. Damit können die Koordinaten von jedem beleuchteten Objekt bei jeder einzelnen Spiegelstellung direkt bestimmt und in die Datenanornung im Speicher des Computers eingeleitet werden. Nach mehreren Abtastungen mit unterschiedlichen Laserstrahl­ winkeln kann eine vollständige Matrix von Objektkoordinaten in jeder beliebigen Präzision zusammengestellt werden.
Bei Anwesenheit stark reflektierender Objekte ist es möglich, daß Mehrfachreflektionen vorkommen. Dies kann ganz einfach durch eine höherstufige Analyse der Datenmatrix, die von der Steuereinheit 14 erzeugt wird, bewältigt werden.
Viele potentielle Anwendungen der Erfindung erfordern es, daß das System bei hohen Pegeln von Umgebungslicht arbeitet. Dies kann dazu führen, daß es schwierig wird, zwischen der Laserbe­ leuchtung und dem Hintergrundlicht zu unterscheiden. Diese Situationen können direkt dadurch bewältigt werden, daß man entweder eine Laserquelle und ein scharfes Bandpaßfilter be­ nutzt, um alle Lichtanteile außer denen des Lasers vom Detektor auszublenden, daß man die Lichtquelle mit einem mechanischen oder einem elektronischen Verschluß (Shutter) versieht oder einen gepulsten Laser benutzt, oder daß man den Output der Detektoranordnung in Übereinstimmung mit der erwarteten räum­ lichen Charakteristik der Quellenbeleuchtung verarbeitet. Falls die Strahlmodulation in Form eines geschoppten oder gepulsten Strahles vorgenommen wird, wird dem Strahl ermöglicht, den Objektraum für kurze Zeit in jeder Spiegel- und Abtaststrahl­ position zu beleuchten und der Output der Detektoranordnung wird anschließend gelesen und im Computer gespeichert. Daraufhin wird der Strahl ausgeschaltet und nach einiger Zeit der Output der Detektoranordung wiederum gelesen und mit den früheren Ablesungen verglichen. Die Differenz zwischen diesen beiden Ablesungen ist dann auf die beabsichtigte Beleuchtung zurück­ zuführen, während Effekte von Umgebungsbeleuchtung ausgelöscht werden. Wenn zur Eliminierung der Effekte von Umgebungslicht eine Signalverarbeitung des Detektoroutputs verwendet wird, wird zunächst die räumliche Verteilung des Quellenstrahles bestimmt und dann ein Filter entworfen, daß die Outputkomponenten aus­ wählt, die zu dem erwarteten Output einer solchen Verteilung passen, und dieses Filter wird zur Verarbeitung des Outputs aus der Detektoranordnung verwendet. Im Falle, daß der Detektor­ output eine Raster-Scan-Videokamera ist, wird das Filter eine Übertragungsfunktion haben, die mit der Fourier-transformierten des Intensitätsverteilungsprofils über die Breite des proji­ zierten Strahles in Beziehung steht.
Mit Bezug auf Fig. 1 kann man sehen, daß, falls die Lage der Lichtprojektions- und Lichtdetektionseinrichtungen bekannt ist, eine Basislinie 28 von bekannter Orientierung zwischen den Einheiten errichtet werden kann. Ein in eine bekannte Rich­ tung projizierter Strahl bildet einen Winkel A relativ zu dieser Basislinie, und in dem dargestellten zweidimensionalen Fall zeigt gestreutes Licht, das von der Lichtdetektionseinrichtung gesammelt wird, die Richtung des beleuchteten Bruchteils 18 des Objektraumes von der Lichtdetektionseinrichtung relativ zur Basislinie als einen Winkel C an.
Es ist klar, daß die bereitgestellten Daten es erlauben, die Lage des beleuchteten Bruchteils des Objektraumes 18 durch einfache Triangulation eindeutig zu bestimmen. Erfassungssysteme nach der vorliegenden Erfindung nehmen die Koordinaten eines Punktes 18 mit Hilfe der natürlichen Koordinaten des Erfassungs­ systemes auf, und im Falle des Punktes 18 werden dies die Koordinaten (A, C) sein, wobei A und C die beiden obengenannten Winkel sind, die sich an den Enden der Basislinie 28 gegenüber­ liegen. Es sollte auch erkannt werden, daß, falls kartesische Koordinaten bei einer bestimmten Anordnung erforderlich sind, diese einfach aus vom Erfassungssystem bereitgestellten Daten berechnet werden können.
Aus dem Ausführungsbeispiel von Fig. 1 wird klar, daß durch systematisches Bestreichen des Gesichtsfeldes 17 mit dem Strahl 13 und Vergleich und Analyse der Daten in kurzen Zeitabständen zur Bestimmung der Lagen von derartig beleuchteten Teilen des Gesichtsfeldes die Möglichkeit zu einem schnellen Bildaufbau von Objekten 22, die innerhalb des Gesichtsfeldes liegen, ge­ geben ist.
Die dem Feld durch Kontrolle seiner Beleuchtung hinzugefügte Information erlaubt es, eine weitere Dimension von Information der von der benutzten Detektoranodnung bereitgestellten hinzu­ zufügen. Das heißt, daß eine einfache zweidimensionale Aufstellung oder ein Plan durch die Benutzung einer eindimensionalen Detek­ toranordnung erzeugt, und ein komplexes dreidimensionales Modell mit Hilfe einer zweidimensionalen Anordnung entwickelt werden kann.
Auf diese Weise kann die Form von Objekten rekonstruiert, und ihre Identität und Orientierung daher festgestellt werden. Bei vielen Objekten kann die Albedo ihrer Oberfläche und ihre Ände­ rung mit der Orientierung zur Unterscheidung zwischen ähnlich geformten Objekten benutzt werden. Da die Ausdehnung und Orien­ tierung der Objekte eindeutig vom System unterschieden werden kann, kann die scheinbare Helligkeit des Objektes abgeschätzt und für die Identifikation des Objektes oder die Auflösung von scheinbaren Mehrdeutigkeiten genutzt werden.
Außerdem kann geeignete Software im Steuersystem anzeigen, ob einige Gebiete des Objektraums nicht ordentlich aufgelöst werden können. Wenn der Computer die Position wie auch den Winkel des Strahls steuern kann, kann der abtastende Beleuchtungsstrahl auf geeignete Abschnitte des Objektfelds beschränkt werden um Mehrdeutigkeiten aufzulösen.
Es existieren zwei Variationen der Ausführungsform von Fig. 1. Licht kann als dünnes vertikales Lichtband projiziert werden, oder im zweidimensionalen Fall als ein dünner Strahl, der peri­ odisch über den Objektraum streicht.
Da nur die Winkel A und C relativ zu einer bekannten Basislinie erforderlich sind, um die Information über die Tiefe des Feldes zu ersetzen, und im dreidimensionalen Fall Daten bezüglich horizontaler und vertikaler Koordinaten vom Detektoroutput erhalten werden können, kann die Lage eines Bruchteils des Objektraumes, der von der Bandquelle beleuchtet wird, die eine Serie von Koordinaten umfassen kann, ebenfalls eindeutig bestimmt werden.
Fig. 2 zeigt, wie das in Fig. 1 dargestellte System durch Pro­ jektion des beleuchteten Lichtstrahles von mehr als einer Position aus modifiziert werden kann. In der schematischen Darstellung von Fig. 2 wird der Lichtstrahl 13 auf einen zweiten steuerbaren Spiegel 40 an einen zweiten bekannten Ort projiziert und bestreicht dann den Objektraum in der oben beschriebenen Weise. Durch Kombination von Daten aus dem Bestreichen des Gesichtsfelds von der zweiten Position aus mit denen aus dem Bestreichen des Gesichtsfelds von der ersten Position aus wird die unbeleuchtete Schattenregion 42 weitgehend reduziert, wo­ durch die Möglichkeit einer erhöhten Information über die Objekte im Feld gegeben wird.
Weiterhin ist darauf hinzuweisen, daß ein Anwendungsbereich existiert, eine Vielzahl von Feldprojektionseinrichtungen und Einrichtungen und eine Vielzahl von Lichtdetektionseinrichtungen gleichzeitig einzusetzen.
Solche Kombinationen erlauben es, mit einer entfernten Licht­ strahlquelle, ein großes Gebiet für Mehrfachdetektorsysteme mit einem einzigen überstreichenden Strahl zu beleuchten. Zum Beipiel würde es eine Anzahl von einzelnen, sehr empfindlichen hochver­ stärkenden Abtastdetektoren, die an individuellen Empfänger­ positionen plaziert sind, erlauben, von entfernten Objekten gestreute, sehr feine Signale zu detektieren. So ein System mit doppelter Abtastung würde zwar ziemlich langsam sein, würde aber eine sehr ökonomische Lösung für das Aufspüren weit ent­ fernter Objekte bieten. Die Ausstattung von verschiedenen Be­ leuchtungsstrahlen mit unterschiedlichen Modulationsmustern würde es ermöglichen, daß eine Detektorstation denjenigen Strahl auswählen kann, der die beste Information des Objektfeldes gibt.
Bei weiteren Ausgestaltungen und Anwendungen des erfindungsgemäßen Bilderzeugungssystems wird der projizierte Strahl, der bei dem zuvor erläuterten Ausführungsbeispiel das Gesichtsfeld abtastet durch einen zusammengesetzten Strahl ersetzt, der eine Vielzahl von Komponentenstrahlen umfaßt, welche gleichzeitig in jede der inkremental verschiedenen, durch den Winkelbereich A repräsentierte Richtungen projiziert werden. Jedem dieser Komponentenstrahlen wird ein temporäres Kodiersignal zugeordnet, das den jeweiligen Projektionswinkel anzeigt.
In Fig. 3 wird die physikalische Anordnung der optischen Kompo­ nenten einer bevorzugten Ausführungsform erläutert, die eine Videokamera 15 und ein Abtaststrahlprojektionsgerät (scanning beam projection device) 12 aufweist, die an entgegengesetzten Enden der Bezugsbasislinie 28 plaziert sind, wobei eine Laser­ quelle 11 einen Lichtstrahl durch eine Linse 51 auf das Abtast­ gerät 12 projiziert, um ein Lichtband 13 zu erzeugen, welches das Gesichtsfeld 17 durch Rotation des Spiegels 53 des Abtast­ gerätes 12 mit dem Abtastmotor 52 überstreicht. Die Linse 51 im Pfad des Strahles 54 von der Laserquelle 11 bewirkt eine Konvertierung des kreisrunden Strahles, der in der Laserquelle erzeugt wurde, in das Strahlband 13, wie es von der Apparatur der vorliegenden Erfindung benötigt wird. Im System von Fig. 3 ist die erste Koordinate eines jeden Punktes im Gesichtsfeld 17 der Projektionswinkel A, der benötigt wird, um den speziellen Punkt mit dem projizierten Strahl 13 zu beleuchten, und dieser Winkel A wird im weiteren Beleuchtungswinkel genannt.
Am anderen Ende der Basislinie 28 weist die Kamera 15 ein Linsensystem 16 auf, welches detektiertes Licht auf eine Detek­ toranordnung 29 projiziert, die vorzugsweise eine CCD (charge coupled device) Detektoranordnung sein wird, aber genauso gut durch irgendein anderes geeignetes Videobilderzeugungsgerät ersetzt werden kann. Am Ende jeder Bildwechselperiode (frame period) der Kamera wird das Bildsignal in der Detektoranordnung 29 in ein Output-Register 62 Zeile für Zeile eingelesen und dann über einen Output-Verstärker 63 aus dem Output-Register ausgelesen, um ein analoges Video-Output-Signal 64 zu erzeugen.
Der vom Laser 11 projizierte Lichtstrahl wird durch den Spiegel 53 auf das Gesichtsfeld gerichtet, um eine vertikale Ebene im Gesichtsfeld zu beleuchten, die einem Winkel A mit der Basis­ linie an der Rotationsachse des Spiegels 53 gegenüberliegt. Durch zunehmende Drehung des Spiegels 53 bestreicht das verti­ kale Strahlband 13 über eine Zeitperiode das Gesichtsfeld 17, und für jede fortgeschrittene Stellung des Strahles wird ein Bild des Gesichtsfeldes von der Kamera 15 aufgenommen. In Fig. 3 wird der Strahl 13 für eine Richtung A 1 dargestellt, wobei eine Lichtkurve 55 auf ein Objekt 22 im Gesichtsfeld projiziert und ein zugehöriges Kurvenbild von der Detektoranordnung 29 aufgenommen wird, während der Strahl 13 in die Richtung A 1 projiziert wird. Sobald das Bild (frame) von der Detektoran­ ordnung 29 aufgenommen und aus der Kamera ausgelesen ist, wird der Strahl 13 in seine nächste fortgeschrittene Stellung bewegt und ein neues Bild (image) wird für den nächsten Wert von A aufgenommen. Für jeden Wert von A wird eine Serie von Punkten innerhalb des Gesichtsfeldes erfaßt, die eine erste Koordinate A und eine Serie zweiter Koordinaten B n haben, welche einen Elevationswinkel darstellen, der zu einer bestimmten aus einer Vielzahl von Scan-Linien in der Detektoranordnung 29 gehört, während die dritte Koordinate C für jeden Punkt durch die Lage des zugehörigen beleuchteten Punktes längs seiner speziellen Scan-Linie bestimmt wird, wobei diese Lage den Azimutwinkel C zwischen Basislinie 28 und reflektiertem Strahl 21 darstellt. Man erkennt, daß aufgrund der physikalischen Anordnung der Anlage für jeden Projektionswinkel A und Elevationswinkel B nur ein beleuchteter Punkt 18 existiert, und daher die Koordi­ naten A, B, C bequem als ein "Sparse Array" mit einer zweidimen­ sionalen Anordnung von mit den Koordinaten A bzw. B indizierten Speicherelementen gespeichert werden können, wobei jedes Speicherelement zwei Zellen aufweist, von denen eine zum Spei­ chern der C-Koordinate eines Punktes innerhalb des Gesichts­ feldes und die andere Zelle zum Speichern der Intensität (I) des Bildes an diesem Punkt benutzt wird.
Man erkennt weiterhin, daß die Intensität des reflektierten Strahles 21 umgekehrt proportional zum Abstand des Reflektions­ punktes 18 von demjenigen Punkt sein muß, von dem der Band­ strahl 13 divergiert (d. h. der Linse 51), und ein Blick auf Fig. 6a und 6b zeigt die typische Form eines Liniensignals von der Kamera 51, bei dem der Hintergrundpegel des reflektierten Lichts mit dem Abstand von der Quelle abnimmt, und daß Peaks, die die Reflektion von Objekten innerhalb des Gesichtsfeldes darstellen, mit dem Hintergrundpegel verglichen werden müssen, der für den speziellen Wert der C-Koordinate erwartet wird.
In Fig. 4 ist eine Steuereinheit zum Steuern der Apparatur von Fig. 3 schematisch dargestellt. In dieser Steuereinheit erzeugen Linien-Selektions- und Linien-Scan-Schaltungen 74 und 75 Synchronisationssignale 93 und 94 für die Kameraantriebselek­ tronik 73, die wiederum die Kamera 15 über Steuersignale 95 antreibt. Vom Ausgang der Kamera 15 wird ein analoges Raster­ datensignal 64 erzeugt, das durch eine analoge Auswertungs­ schaltung 71 zur Erzeugung einer digitalen C-Koordinate 82 und eines Intensitätswerts 81 (oder I) verarbeitet wird, welche dann in der Voxel-Speicher-Matrix 72 an Speicheradressen abge­ speichert werden, die mit den Koordinaten A und B adressiert sind, welche vom Projektionswinkel und der jeweiligen Raster- Linien-Nummer abgeleitet sind, wobei die B-Linien-Adresse 85 von der Linien-Selektions-Schaltung 74 und die A-Adresse 86 von der Strahl-Abtastungs-Antriebsschaltung (beam scanner drive circuit) 76, die den Spiegel 53 aus Fig. 3 antreibt, bereitge­ stellt wird.
Die Linien-Scan-Schaltung 75 erzeugt auch ein die C-Koordinate charakterisierendes Signal 83, das in den analogen Stream-Pro­ zessor 71 eingespeist wird, um beim analogen Signal den Intensi­ tätsverlust aufgrund der Beleuchtungsweglänge auszugleichen. Die Linien-Scan-Schaltung 75 stellt auch ein Linienendsignal bereit, das zum Laden der C-Koordinate und der Intensitäts­ daten in die Voxel-Speicher-Matrix benutzt wird.
Synchronisation und Steuerung des Zugriffs zur Voxel-Speicher- Matrix 72 übernimmt ein Steuer/Status-Interface 77, das auch den Zugriff zu Daten in der Voxel-Speicher-Matrix durch einen Host-Computer 78 über eine Adreßlinie 91, C- und I-Datenlinien 92 der Steuerlinien 90 freigibt.
Wir wenden uns jetzt Fig. 5 zu, wo der analoge Stream-Prozessor 71 von Fig. 4 schematisch in vergrößerten Einzelheiten darge­ stellt ist. In Fig. 5 wird das analoge Video-Raster-Scan-Signal 64 von der Kamera zuerst durch ein Bandpaßfilter 101 geleitet, welches eine Frequenzcharakteristik besitzt, die angepaßt ist an die erwartete Frequenzcharakteristik des Raster-Scan-Signales für einen Punkt im Gesichtsfeld, der vom Bandstrahl 13 beleuch­ tet wird. Die Aufgabe des Bandpaßfilters 101 ist es, eine räum­ liche Filterung des reflektierten Lichtes 21 vom Gesichtsfeld zu bewirken. Die Frequenzcharakteristik des Filters 101 wird abgeleitet von der Bestimmung des Intensitätsprofiles durch die Breite des projizierten Strahles 13, oder alternativ durch eine derartige Ausbildung der Projektionsoptik, daß ein vorbestimmtes Profil abgegeben wird, und anschließende Berechnung der Fourier-transformierten eines Raster-Linien- Signales, das erzeugt wird, wenn eine projizierte Linie mit diesem Intensitätsprofil über ihre Breite von einer Raster- Scan-Kamera geschwenkt (scanned) wird. Das Filter 101 ist dann so ausgebildet, daß es eine Übertragungsfunktion besitzt, die die Frequenz-Domäne-Funktion approximiert, welche von der Fourier-transformierten erzeugt wird.
Das gefilterte Videosignal 111 vom Bandpaßfilter 101 wird dann in einen schnellen (flash) Analog-Digital-Converter (ADC) 102 eingespeist, um ein getastetes (sampled) digitales Videosignal 112 zu erzeugen, das zum X-Input eines digitalen Komparators 103 eingespeist wird. Während der schnelle ADC 102 das Video­ signal in einen Strom von digitalen Abtastungen (samples) kon­ vertiert, wird ein Kompensationssignal 114 von einem Digital- Analog-Converter (DAC) 107 aus einer Speicheranordnung 106 er­ zeugt, die einen Satz von vorher getasteten Referenzintensitäts­ werten gespeichert hat, die in den DAC 107 synchron mit dem Videosignal von der Kamera eingespeist werden, wobei die Syn­ chronisation von dem C-Koordinatensignal 83, das von der Linien- Scan-Schaltung 75 aus Fig. 4 erzeugt wird, sowie von dem A-Ko­ ordinaten-Wert 86, der von dem Strahl-Scanner-Antrieb 76 erzeugt wird, sichergestellt wird. Der Elevationswinkel B kann auch als ein zusätzliches Adressenelement in die Intensitätskompen­ sationsanordnung 106 (die dann größer sein müßte) eingespeist werden, wobei dann die Kompensationsfunktion weiter verfeinert werden könnte.
Der Y-Input des digitalen Komparators 103 wird gespeist mit dem augenblicklichen I-Daten-Signal 81, welches das augenblickliche Peak-Intensitäts-Signal für die vorliegende Linie des Bildes darstellt, und dieser Peak-Wertwird mit dem augenblicklichen Intensitätswert 112 verglichen. Der Komparator-Output 113 stellt den größeren der beiden Inputs dar und wird in eine Falle (latch) 104 eingespeist, wird aber nur in den Fällen in die Falle 104 eingesperrt (latched), wenn der X-Input größer als der Y-Input ist, was durch das Output-Signal 110 angezeigt wird. Wenn der X-Input der größere der beiden ist, dann wird dieser Wert in die Falle 104 eingesperrt und wird zum neuen Peak-Intensitäts-(I)-Datensignal 81 für die vorliegende Linie, und gleichzeitig wird der C-Koordinatenwert, der zur I-Abtastung (I sample) gehört, und in der Falle 104 eingesperrt ist, in die C-Koordinaten-Falle 105 eingesperrt.
Am Ende jeder Raster-Scan-Linie bewirkt ein Linienendsignal 84, daß die eingesperrten I- und C-Werte in die Voxel-Speicher- Matrix 72 (siehe Fig. 4) geladen und an den passenden Speicherplätzen abgelegt werden, die von den A- und B- Koordinaten für den augenblicklichen Strahlprojektionswinkel A und die Raster-Scan-Linien-Nummer B ausgewählt werden. Gleich­ zeitig löscht das Linienendsignal 84 die Fallen 104 und 105 zur Vorbereitung für den Beginn der Abtastung einer neuen Linie.
Bezüglich Fig. 6 ist das in Fig. 6a graphisch dargestellte Signal der analoge Output der Videokamera für eine gegebenen Scan-Linie, und es sei vermerkt, daß das Intensitätssignal abnimmt, wenn die Kamera Punkte im Gesichtsfeld abtastet, die weiter von der Beleuchtungsquelle entfernt sind. Man bemerkt außerdem, daß der Peak-Wert, der den Beleuchtungspunkt auf dieser Linie dar­ stellt, nicht den höchsten Intensitätswert auf der Linie haben muß, und es wäre auch möglich, was aber in dieser Abbildung nicht gezeigt wird, das Rausch-Peaks größer sind als der ge­ wünschte Signal-Peak. In Fig. 6b veranschaulicht der Output 111 des Bandpaßfilters (durchgezogene Linie) den Effekt des Band­ paßfilters 101 auf das Videosignal von Fig. 6a. Insbesondere sieht man, daß die wesentliche Form des gewünschten Peaks er­ halten worden ist dank der Anpassung der Frequenzcharakteristik des Bandpaßfilters 101 an das Intensitätsprofil des Beleuch­ tungsstrahles 13 mit dem Effekt, daß Störrauschen, das bei­ spielsweise durch umgebende Lichtquellen oder durch Staubpartikel im Gesichtsfeld verursacht wird, wesentlich ge­ schwächt werden kann.
In Fig. 6b stellt die gestrichelte Linie das Inverse des Referenzsignales 114 dar, welches von der Kompensationsspeicher­ anordnung 106 und dem DAC 107 erzeugt wird. Das gefilterte Videosignal 111 wird durch das Referenzsignal 114 im ADC 102 verstärkt, um das kompensierte Videosignal zu erzeugen, das in Fig. 6c dargestellt ist, und es ist dieses Signal, das vom ADC 102 getastet (sampled) wird, um das digitalisierte Videosignal 112 zu erzeugen. Es sei hervorgehoben, daß die gestrichelte Linie in Fig. 6b das Inverse des Referenzsignales 114 darstellt, und daher die in dem ADC 102 durchgeführte Kompensation den Effekt hat, daß das durchgezogene Signal von Fig. 6b durch das gestrichelte Signal dividiert wird.
Unter "Sparse array" wird eine Ausdehnung verstanden, die nur wenige Elemente umfaßt und sich für eine "Verdichtung" eignet, oftmals dadurch, daß die Anzahl von Null-Elementen zwischen Nicht-Null-Elementen angegeben wird. Im vorliegenden Fall wird für jedes Unterpaar (X, Y) nur ein Z-Wert angegeben.
Visuelle Flußfelder (visuel flow fields) sind (typischerweise zweidimensionale) Zeit-Darstellungen der Bewegung von in einem Gesichtsfeld identifizierbaren Punkten. Im allgemeinen werden diese Felder dadurch erzeugt, daß an einem oder mehreren Objekt(en) ein oder mehrere Punkt(e) identifiziert wird bzw. werden und aus einer Verfolgung dieser Punkte eine Aufzeichnung des Verlaufs ihrer Bewegung (und dadurch derjenigen des jeweiligen Objekts) erstellt wird, woraus das visuelle Fluß-Feld entsteht.
Eine Falle (letch) ist eine digital-elektronische Schal­ tung mit einem oder mehreren Flip- Flops, welche zu einem vorgegebenen Zeitpunkt taktgesteuert Daten fest­ halten kann (z. B. in der Standard TTL-Geräte-Serie eine 7475 Quartett- Falle).

Claims (12)

1. Optisches Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeig­ neter Strahlung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasis­ linie;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anord­ nung eine erste Dimension hat, deren Koordinate einen Einfallswinkelwert C zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie dar­ stellt, wobei der Wert von C durch die Detektion des ent­ sprechenden Elementes in der ersten Dimension der Anordnung bestimmt wird, auf welches der Spitzenintensitätspunkt des reflektierten Strahles durch die Linse gerichtet wird; und
einer Speichereinrichtung zum Speichern eines räumlichen Planes des Gesichtsfeldes mit einem "Sparse array", das eine Dimension weniger als das Gesichtsfeld hat, wobei eine Dimension des array von einem Wert angesprochen wird, der den Winkel A darstellt, und jede Zelle des array so angeordnet ist, daß sie den Wert C speichert.
2. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 1, dadurch gekennzeichnet, daß das Gesichtsfeld ein dreidimensionaler Raum ist, und das "Sparse array" ein zweidimensionales array ist, dessen eine Dimension von einem Wert angesprochen wird, der den Winkel A dar­ stellt, und dessen andere Dimension von einer Liniennummer B angesprochen wird, die zu einer Linie von Elementen in der ersten Richtung der Detektoranordnung gehört, wobei die Liniennummer einen Elevationswinkel des reflektierten Strahles darstellt, welcher der horizontalen Bezugsebene gegenüberliegt.
3. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 2, dadurch gekennzeichnet, daß jede Zelle des "Sparse array" einen Wert hält, der den Winkel C darstellt, welcher zur Lage längs der Linie von Elementen gehört, die durch B definiert wird, und die bestimmt wird durch die Erfassung des Elements, auf welches der Spitzeninten­ sitätspunkt des reflektierten Strahles durch die Linse in der durch B definierten Ebene gerichtet ist, und einen Intensitätswert, der die Intensität des reflektierten Strahles ist, für den der Winkel C aufgenommen wurde.
4. Optisches Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeig­ neter Strahlung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasis­ linie;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die Anord­ nung eine erste Dimension hat, deren Koordinate einen Einfallswinkelwert C zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie dar­ stellt, wobei der Wert von C durch die Detektion des ent­ sprechenden Elementes in der ersten Dimension der Anordnung bestimmt wird, auf welches der Spitzenintensitätspunkt des reflektierten Strahles durch die Linie gerichtet wird; und
wobei Kompensationseinrichtungen vorgesehen sind, um den von jedem Element in der Detektoranordnung aufgenom­ menen Intensitätswert anzupassen, um die erwartete Varia­ tion in der Intensität des reflektierten Strahles für verschiedene Werte des Winkels A und unterschiedliche Weglängen von der Projektionseinrichtung zum Punkt der Reflektion, dargestellt durch den Wert C, zu kompensieren.
5. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 4, dadurch gekennzeichnet, daß die Kompensations­ einrichtung eine Speichereinrichtung umfaßt, die in der Lage ist, mehrere Kompensationswerte zu speichern, die zu bestimmten Koordinatenwerten von Punkten im Gesichtsfeld gehören, und eine Signalvervielfältigungseinrichtung zum wiederholten Vervielfältigen des instantanen Signalwertes von der Detektionseinrichtung, wobei der eine der gespeicherten Kompensationswerte, zu den Koordinatenwerten desjenigen Punktes im Gesichtsfeld gehört, welcher durch das instantane Signal von der Detektionseinrichtung dar­ gestellt wird.
6. Optisches Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeigneter Strahlung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasislinie, wobei der Strahl ein vorbestimmtes querschnittsmäßiges Inten­ sitätsprofil besitzt;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie und mit einer Linse und einer Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse hauptsächlich auf ein Element der Anordnung gerichtet wird, wobei die An­ ordnung eine erste Dimension hat, deren Koordinate C einen Wert eines Einfallwinkels zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basis­ linie darstellt, wobei der Wert von C durch die Detektion des entsprechenden Elementes in der ersten Dimension der Anordnung, auf welche der Spitzenintensitätspunkt des reflektierten Strahles durch die Linse gerichtet wird, bestimmt wird;
eine Filtereinrichtung, die so angeordnet ist, daß sie diejenigen von der Detektoranordnung detektierten Intensi­ tätsprofile abschwächt, welche nicht mit dem Intensitäts­ profil des projizierten Strahles korrelieren.
7. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 6, dadurch gekennzeichnet, daß die Detektoran­ ordnung eine zweidimensionale Anordnung einer Raster-Scan- Videokamera ist, und die Filtereinrichtungen so angeordnet sind, daß sie den Kamera-Output verarbeiten, wobei die Filter eine Übertragungsfunktion haben, die die Fourier­ transformierte zur Frequenzdomäne des mittleren Intensi­ tätsprofiles ist, das für eine Kamera-Scan-Linie erwartet wird, wenn die Kamera ein Objekt im Gesichtsfeld abtastet, welches von dem projizierten Strahl beleuchtet wird.
8. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 7, dadurch gekennzeichnet, daß das querschnitts­ mäßige Intensitätsprofil des projizierten Strahles genau so angelegt ist, daß es sofort von anderen zufälligen Beleuchtungsquellen unterscheidbar ist.
9. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 8, dadurch gekennzeichnet, daß das querschnitts­ mäßige Intensitätsprofil des projizierten Strahles mit einer charakteristischen Signatur moduliert wird.
10. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 9, dadurch gekennzeichnet, daß die charakteri­ stische Signatur eine spezifische Frequenz ist.
11. Optisches Bilderzeugungs- und Erfassungssystem nach Anspruch 9, dadurch gekennzeichnet, daß die charakteri­ stische Signatur variabel ist und den Projektionswinkel des Strahles anzeigt.
12. Optisches Bilderzeugungs- und Erfassungssystem mit:
einer Projektionseinrichtung an einem ersten bekannten Ort zum Projizieren eines Lichtstrahles oder anderer geeig­ neter Strahlung in ein Gesichtsfeld in einer Richtung gegenüber einem variablen Winkel A mit einer Bezugsbasis­ linie, wobei die Strahlung auf ein vorbestimmtes Wellen­ längenband begrenzt ist;
einer Detektionseinrichtung in einem vorbestimmten Abstand von der Projektionseinrichtung längs der Basislinie mit einer Linse und einer linearen Detektoranordnung, die so angeordnet ist, daß ein reflektierter Strahl der Strahlung von einem Objekt im Gesichtsfeld durch die Linse haupt­ sächlich auf ein Element der Anordnung gerichtet wird, wobei die Anordnung eine erste Dimension hat, deren Ko­ ordinate C einen Wert eines Einfallwinkels zwischen der Projektion des Strahles in einer horizontalen Bezugsebene und der Basislinie darstellt, wobei der Wert von C durch Detektion des entsprechenden Elementes in der ersten Dimen­ sion der Anordnung, auf welche der Spitzenintensitätspunkt des reflektierten Strahles durch die Linse gerichtet wird, bestimmt wird; und
einer Filtereinrichtung, die so angeordnet ist, daß sie die Wellenlänge von auf die Detektoranordnung einfallender Strahlung auf das vorbestimmte Band des projizierten Strahles beschränkt, wodurch Licht von anderen Quellen abgeschwächt wird.
DE3924280A 1988-07-25 1989-07-22 Optisches erfassungssystem Withdrawn DE3924280A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AUPI945988 1988-07-25

Publications (1)

Publication Number Publication Date
DE3924280A1 true DE3924280A1 (de) 1990-02-01

Family

ID=3773237

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3924280A Withdrawn DE3924280A1 (de) 1988-07-25 1989-07-22 Optisches erfassungssystem

Country Status (3)

Country Link
US (1) US5086411A (de)
DE (1) DE3924280A1 (de)
GB (1) GB2222047A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007646A1 (de) * 1990-03-10 1991-09-19 Daimler Benz Ag Anordnung zur verbesserung der sicht in fahrzeugen
DE19904043A1 (de) * 1999-02-02 2000-08-03 Valeo Schalter & Sensoren Gmbh System und Verfahren zum Überwachen eines Bereichs an der Seite eines Fahrzeugs

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2661510B1 (fr) * 1990-04-30 1993-01-22 Matra Espace Procede et dispositif d'imagerie optique a trois dimensions.
DE4408328C2 (de) * 1994-03-11 2002-09-26 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
JP3664114B2 (ja) * 2001-07-16 2005-06-22 セイコーエプソン株式会社 プロジェクタによって投写される画像の画像処理
FR2914769B1 (fr) * 2007-04-06 2016-04-08 Sagem Defense Securite Tete de veille active d'un environnement, avec balayage selon un axe, systeme de veille comportant la tete precitee et un procede de mise en oeuvre de la tete et du syteme
FR2914768B1 (fr) * 2007-04-06 2010-09-03 Sagem Defense Securite Tete de veille active d'un environnement avec balayage en site, systeme de veille comportant la tete precitee, et procede de mise en oeuvre de la tete et du systeme
DE102012207931A1 (de) * 2012-01-07 2013-07-11 Johnson Controls Gmbh Kameraanordnung zur Distanzmessung
US11592524B2 (en) * 2018-11-02 2023-02-28 Waymo Llc Computation of the angle of incidence of laser beam and its application on reflectivity estimation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU268916B (en) * 1916-11-30 1917-04-03 Inland Machine Works Improvement in metallic piston rings
US3940762A (en) * 1965-09-09 1976-02-24 Hughes Aircraft Company Digital detection criteria control device for video mapping, detection parameter control, optimum radar receiver selection and rejection of non-moving targets
DE2722577A1 (de) * 1977-05-18 1978-11-30 Siemens Ag Vorrichtung/verfahren zur beruehrungsfreien abstands- bzw. dickenmessung
DE2744130A1 (de) * 1977-09-30 1979-04-12 Siemens Ag Vorrichtung zum beruehrungsfreien messen des abstandes einer oberflaeche eines objektes von einer bezugsebene
CH628138A5 (de) * 1977-10-06 1982-02-15 Tino Celio Verfahren und vorrichtung zur messung der entfernung eines zielobjekts durch beaufschlagung mit einem strahlenbuendel sowie anwendung des verfahrens.
GB2018422B (en) * 1978-03-29 1983-01-19 Hitachi Ltd Mark detecting system
DE2906641A1 (de) * 1979-02-21 1980-08-28 Freudenberg Carl Fa Verfahren zur optisch-elektrischen messung des abstandes zwischen einer messeinrichtung und einem pruefling
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
JPS56500473A (de) * 1979-05-03 1981-04-09
SE7903116L (sv) * 1979-06-14 1980-12-15 Inst Verkstadstek Forsk Ivf Forfarande for bestemning av ett foremals form och lege samt anordning for genomforande av forfarandet
JPS5675626A (en) * 1979-11-26 1981-06-22 Minolta Camera Co Ltd Distance measuring device
US4309618A (en) * 1980-05-05 1982-01-05 Bell Telephone Laboratories, Incorporated Precision optical distance measurement
JPS5748703A (en) * 1980-09-08 1982-03-20 Seiko Koki Kk Distance detector
US4375649A (en) * 1981-06-01 1983-03-01 Eastman Kodak Company Scanning device with area-to-linear mapping and related electronic scanner/printer apparatus
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US4489389A (en) * 1981-10-02 1984-12-18 Harris Corporation Real time video perspective digital map display
US4660157A (en) * 1981-10-02 1987-04-21 Harris Corporation Real time video perspective digital map display method
US4613942A (en) * 1982-02-19 1986-09-23 Chen Richard M Orientation and control system for robots
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
NL8302228A (nl) * 1983-06-22 1985-01-16 Optische Ind De Oude Delft Nv Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau.
BE897331A (fr) * 1983-07-17 1984-01-19 Ct De Rech S Metallurg Procede de mesure de la carte topographique de la charge d'un four a cuve
JPS60128304A (ja) * 1983-12-15 1985-07-09 Nippon Tsushin Gijutsu Kk 溶接機計測ヘツド
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
IL71948A0 (en) * 1984-05-29 1984-12-31 Elco Ass R D Optical system for control of a tool position in a frequency interference environment
US4615615A (en) * 1984-09-27 1986-10-07 Flexible Manufacturing Systems, Inc. Laser positioning system
GB2172167B (en) * 1985-03-07 1988-06-15 Sony Corp Video signal processing
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4939439A (en) * 1985-09-26 1990-07-03 Unisearch Limited Robot vision and optical location systems
GB2183118B (en) * 1985-11-19 1989-10-04 Sony Corp Image signal processing
US4796997A (en) * 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007646A1 (de) * 1990-03-10 1991-09-19 Daimler Benz Ag Anordnung zur verbesserung der sicht in fahrzeugen
DE4007646C2 (de) * 1990-03-10 2003-08-07 Daimler Chrysler Ag Anordnung zur Verbesserung der Sicht in Fahrzeugen
DE19904043A1 (de) * 1999-02-02 2000-08-03 Valeo Schalter & Sensoren Gmbh System und Verfahren zum Überwachen eines Bereichs an der Seite eines Fahrzeugs

Also Published As

Publication number Publication date
GB2222047A (en) 1990-02-21
US5086411A (en) 1992-02-04
GB8916695D0 (en) 1989-09-06

Similar Documents

Publication Publication Date Title
DE69725021T2 (de) Verfahren und system zum darstellen eines objektes oder musters
DE19882768B3 (de) Zweiter Ordnung differenzierender Signalprozessor für einen Strichkodescanner sowie Signalverarbeitungsverfahren zum Verwenden von Strichkodescannern
DE3134303A1 (de) Optische lagebestimmungsvorrichtung
DE3016361A1 (de) Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts
DE10346481B4 (de) Dreidimensionale Rekonstruktion von Oberflächenprofilen
DE19644278A1 (de) Optische Schranke sowie daraus aufgebaute Überwachungseinrichtung
DE2428123A1 (de) Anordnung zum nachweisen von fehlstellen mittels abtastung durch einen laserstrahl
DE2702452C2 (de) Einrichtung zur Lagebestimmung eines einen anderen Remissionsgrad als der Hintergrund aufweisenden Objektes
DE2754139B2 (de) Rauchdetektor
DE2941329A1 (de) Elektronisches geraet zum nachweis von teilchen und fluessigkeiten in flaschen
DE102016115277A1 (de) Optische Vorrichtung
DE3924280A1 (de) Optisches erfassungssystem
EP0708325B1 (de) Verfahren und Vorrichtung zur Inspektion von Gegenständen, insbesondere von Flaschen
EP1544605A2 (de) Verfahren und Vorrichtung zum Überprüfen eines Gewindes eines Verbindungselements auf Beschädigungen
DE69915655T2 (de) Apparat zur abbildung und zur inspektion der oberfläche von dreidimensionalen objekten
DE19882767B3 (de) Randerfassungsverfahren und -vorrichtung für durch Schrotrauschen begrenzte Signale
WO2007134567A1 (de) Verfahren zum erzeugen von bildinformationen
WO2007036553A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE3134748A1 (de) "vorrichtung zum erkennen des profils eines gegenstandes"
DE2242644C3 (de) Optische Abtastvorrichtung
DE3824820C2 (de)
DE2822269C2 (de) Verfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten
DE10304105B4 (de) Verfahren zur Bestimmung der Fokusabweichung einer optischen Anordnung
DE102017009153B4 (de) Anordnung und Verfahren zur Inspektion von bewegten plattenförmigen Objekten
EP0218865B1 (de) Prüfanordnung zur berührungslosen Ermittlung von Defekten in nicht strukturierten Flächen

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee