EP1170715A2 - Method for surface surveillance - Google Patents

Method for surface surveillance Download PDF

Info

Publication number
EP1170715A2
EP1170715A2 EP01116027A EP01116027A EP1170715A2 EP 1170715 A2 EP1170715 A2 EP 1170715A2 EP 01116027 A EP01116027 A EP 01116027A EP 01116027 A EP01116027 A EP 01116027A EP 1170715 A2 EP1170715 A2 EP 1170715A2
Authority
EP
European Patent Office
Prior art keywords
state vectors
data
traffic situation
traffic
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP01116027A
Other languages
German (de)
French (fr)
Other versions
EP1170715A3 (en
Inventor
Ralf Heidger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hand GmbH
Original Assignee
Hand GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hand GmbH filed Critical Hand GmbH
Publication of EP1170715A2 publication Critical patent/EP1170715A2/en
Publication of EP1170715A3 publication Critical patent/EP1170715A3/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0082Surveillance aids for monitoring traffic from a ground station

Definitions

  • the present invention relates to a method for space monitoring, in particular of the floor space at airports.
  • Air and ground surveillance is part of air traffic control carried out and serves to make air traffic smooth, fast and safe.
  • the tasks of air traffic control include the avoidance of collisions between vehicles in the air and on the runways, the tarmac and the parking areas of the controlled airports.
  • Air traffic capacity is essentially limited by two bottlenecks. So is for due to restricted airways and corridors, the usable airspace is severely restricted. On the other hand, the traffic throughput on the ground is often severely limited because it is inexpensive and intelligent floor space monitoring systems are missing, and there is one besides aircraft Variety of service vehicles takes part in ground traffic.
  • the known floor space monitoring systems are very expensive because they have a large number of sensors, such as. Airport radar, secondary radar and GPS are required.
  • the object of the present invention is therefore to provide a method, an inexpensive and effective room surveillance, especially of the air and ground space from airports, allowed.
  • any place on the airfield you can e.g. any place on the airfield understand. This can be the runway or landing road or any access road be on the apron or a gate exit. Even if the method according to the invention can already be used with advantage if only one traffic location with at least is monitored by a video sensor, a whole series of traffic locations are preferred or traffic hubs are each monitored with at least one video sensor.
  • the video sensor can be any sensor that reacts to light. Particularly preferred
  • digital video cameras are used because they deliver image data that is special can be easily processed.
  • This image data can be in bitmap format, for example with each pixel individually entered in the file. But others can also benefit less memory-intensive data formats are used.
  • the video sensor provides a snapshot his field of view in the form of an image data file, which is suitably in a Storage unit is read. This image data is evaluated for one or more events recognizable, if there are any. Under an event are all irregularities understood in the field of view of the video sensor, in particular movements of objects in the field of view the camera or a foreground object in front of a specific and saved one solid surface. Is e.g.
  • a state vector is calculated for each known event from the image data.
  • the state vector can be defined arbitrarily, e.g. as the difference between two vectors Sets of image pixels or data. One possibility is that he takes the position of the observed event.
  • the method described enables one or more traffic locations to be monitored efficiently become.
  • the object data can either be sent directly to the air traffic control personnel or to a suitable processing facility can be passed on.
  • the air traffic control personnel is thereby informed at all times whether an aircraft is at one of the observed traffic locations or where the planes are located.
  • a method is particularly preferred in which image data of at least two temporally spaced Snapshots of at least one video sensor can be read.
  • two temporally Staggered snapshots of the same video sensor and thus the same traffic location it is possible due to the change in the position of the pixel group that the event represents to calculate a speed component of the object.
  • the speed component With a suitable installation of the video sensor and the corresponding route of the aircraft corresponds to the speed component the absolute speed. If the route is not straight it can be advantageous if at least one traffic location with several, preferably at least three, video sensors is monitored. In this case, the relative speed component can be for each video sensor of the object can be calculated separately. Knowing the locations of the Video sensors can determine the absolute speed and the direction of movement of the object be determined.
  • a particularly preferred embodiment of the present method therefore provides that the state vector also the speed and / or the direction of movement represents the object.
  • the State vector represents the acceleration of an object.
  • To calculate the acceleration at least three snapshots of a video sensor are required. From these three snapshots the acceleration of the object can be calculated. The accuracy of the position prediction the process is significantly improved. This is particularly true in areas in which the speed of the aircraft changes significantly; e.g. due to a braking process, of great advantage. Can namely the acceleration of the state vector Object can be removed, so this can be extrapolated over time the position of the object be taken into account.
  • the state vector that are a measure of the statistical probabilities of the object parameters.
  • This Values can also be integrated into the state vector. This measure can reduce the error rate be significantly minimized in event detection. For example, it is possible that the image data of the video sensor due to external influences, e.g. heavy rainfall or Bird flight, do not show the object to be observed. Then it can happen that either a Object is recognized, which is actually not at the traffic location or that is at the traffic location aircraft is not recognized. Therefore, a state vector of an object, that on many consecutive snapshots and from different video sensors a high statistical probability was assigned during a state vector of an object that was only recognized in a snapshot, a very low statistical probability is assigned. The statistical probability is therefore a measure of the quality or quality (i.e. the accuracy and reliability) of the detected Event. It is then possible, for example, to define a limit value and all state vectors, the value of the statistical probability does not fall below this limit to consider.
  • a particularly preferred embodiment of the method according to the invention provides that the Assignment of the state vector to an object with access to traffic situation data takes place were not won by the video sensors.
  • This traffic situation data can be varied Way can be obtained.
  • the air traffic control personnel assigns the individual status vectors to the arriving aircraft at a suitable terminal.
  • the state vector also contains an object identification number or one Object name. This makes it possible to use the method not only to monitor where a Plane, but even monitor where each plane is located.
  • the existing one Air traffic control system with a system which implements the method according to the invention, be coupled so that the floor space monitoring system whenever an aircraft is on the Runway lands, accesses the flight plan data of the existing air traffic control system and that Airplane identified. This identification is then used during further floor space monitoring maintained. An object that moves away from a parking position can be used in the same way Using the occupancy plan of the parking positions can be identified.
  • radar data can also be used.
  • all other position sensors can also be used provide additional traffic situation data. This is where Mode-S radar sensors, Near come for example Range radar networks or GPS receivers and servers in question.
  • a particularly expedient embodiment provides that the image data are filtered digitally, preferably using discrete Kalman filtering.
  • the traffic situation data can also be digitally filtered, with discrete Kalman filtering preferably also being used here.
  • Kalman filtering enables real-time estimation and smoothing of the measured values.
  • other suitable estimation techniques for example, the MLS-filtering are (m inimum l east s quare) was used.
  • the quality of the method according to the invention can thereby be significantly increased.
  • the state vectors of the same object are preferably those of different ones Sensors were determined, summarized. The same applies to those received from the sensors State vectors and the state vectors from the other traffic situation data. This will make the Floor space monitoring is clearer, since fewer condition vectors have to be followed.
  • the State vectors of the same object are correlated with one another. Delivers the radar system, for example with large time intervals reliable position data of a certain object, so the state vector of this object can be correlated with the radar data. In other words Whenever the reliable radar data is available, it is determined from the video sensors and, if necessary, time-extrapolated state vector of this object is adapted. This correlation allows the state vectors to be corrected even if the object is not on one traffic location monitored by video sensors.
  • a method is particularly preferred in which the assignment of the state vectors takes place Objects the step connects:
  • This traffic situation can be displayed in any coordinate system.
  • the state vectors of the recognized objects are converted into positions in the traffic situation display and entered into the traffic situation display at these positions. It goes without saying it is possible to visualize the traffic situation so that the air traffic control personnel on can see at a glance where the individual aircraft are and whether they are on somewhere a collision is imminent.
  • the state vectors with regard to possible Collisions are evaluated.
  • the state vectors are not only used for generation a traffic situation representation in real time, but there is an extrapolation of the State vectors in the future to be able to predict possible collisions.
  • the method therefore provides that an alarm signal depending on the collision evaluation is activated.
  • This alarm signal can be, for example, an optical or acoustic signal for air traffic control personnel.
  • the only figure shows the basic structure of a floor space monitoring system.
  • the single ones Components of the system are interconnected via a communication network 9 (e.g. TCP / IP-LAN network).
  • the individual ones are above the line 9 in FIG Clients 10, 11 and 12 are shown, while below the line 9 the three servers 2, 3 and 5 are shown are.
  • Server 2 is responsible for merging the types of video sensors.
  • the individual video sensors 7, which recognize the objects 8, are activated via the control and read-out unit 1 connected to the server 2.
  • the server 2 collects the sensor data and filters them with more discrete time variants Kalman filtering and forms the state vectors of objects 8.
  • the state vectors are passed on to the radar server 3 for further processing.
  • the radar server 3 filters one or several airspace surveillance radars with a time-invariant discrete Kalman filter to Generate flight routes. This server carries out a correlation between the video-based trajectories and the radar trajectories together with a correlation with the flight plan data 5.
  • the correlated Information is provided to clients 10, 11 and 12.
  • the flight plan server 5 delivers the flight plan data to the radar server 3 for the correlation of the radar with the flight plan and for the time-based Identification of the aircraft taking off.
  • the flight plan server 5 receives flight plan changes from its clients 6.
  • the method according to the invention converts video sensor data with other traffic situation data combined to produce a traffic situation representation that provides safe and reliable monitoring of the air and ground space guaranteed.
  • a system that the inventive method realized consists of sensor hardware 1, 7, 8, computer hardware 2, 3, 5, network infrastructure 9 as well as sensor software, communication software, processing software and situation display software.
  • the video sensor data are recorded with the help of the video sensors 7.
  • pixel data include so-called image frames one or more high frequency video sensors (typically greater than 27 Hz).
  • Image frames are at least two-dimensional vectors of pixels (gray or color values), which reflect the recording of the digital camera with a non-infinite resolution.
  • the state data or state vectors are calculated.
  • Information includes: object identification number, object classification, position, speed, Direction of movement, acceleration and statistical probability / quality (accuracy, Reliability).
  • the other traffic situation data can be, for example, radar data that the radar server 3 provides Provides. This is digitized data from, for example, long-range radars and airport radars. These radars have been symbolized by the box with the reference number 4.
  • the flight plan data provided by the flight plan data server 5 can for example, from existing flight plan systems that are connected to a system that realized the method according to the invention, can be connected.
  • the video sensor data is combined with the other traffic situation data by image data processing, digital filtering, statistical interference, sensor data fusion, track correlation and Time frame correlation.
  • image data processing includes the transmission of the pixel data selected digital camera to the dialing position display system as well as the recognition and Classification of objects in the pixel data.
  • digital filtering of the measured values is carried out using the discrete Kalman filtering. With their help, all extracted state vectors from event detection of the video sensor data filtered.
  • the radar data can be transmitted in the same way or the data from other sensors can be filtered.
  • Statistical inference means that in the calculation of future state vectors or the extrapolation of state vectors is taken into account that the output data with a corresponding inaccuracy and unreliability, so that the statistical probability of the new State vector from the propagation of the inaccuracy and unreliability of the original State vectors calculated.
  • Sensor data fusion is the correct merging of object information for objects, that were detected by several sensors. For example, two different Video sensors complementary motion information of one and the same object received, they are entered in a common state vector. With sensor data fusion However, care must be taken to ensure that there are different objects that may differ come very close, can be correctly distinguished at any time.
  • the track correlation is understood to mean that those calculated on the basis of different sensors Flight or movement routes for the same objects are checked. In other words the flight routes determined from the video sensors are compared with the flight routes derived from the radar data were determined, correlated, if available.
  • the time window correlation is understood to mean that the routes based on the sensor data were determined with the movement schedule of the objects in accordance with the available flight plan data can be adjusted within a certain time tolerance window.
  • the state vectors determined in this way are entered in a positional representation. This is done in sequential cycles.
  • the individual position data are sent from the server 2 to the radar server 3 passed.
  • the servers 2 and / or 3 also take over the conflict determination. That means for Two status vectors are checked to determine whether there is a risk of collision. Furthermore, it is checked whether blocked traffic protection areas are violated by other intruding objects.

Abstract

One or more video sensors monitor one or more traffic locations. A memory storage unit captures and reads in image data from one or more snapshots from the video sensors. The results from the image data are identified. State vectors of the results are calculated from the image data. These vectors are then allocated to an object and object data is produced.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Raumüberwachung insbesondere des Bodenraums auf Flughäfen. Die Luft- und Bodenraumüberwachung wird im Rahmen der Flugsicherung durchgeführt und dient dazu, den Luftverkehr reibungslos, schnell und sicher zu gestalten.The present invention relates to a method for space monitoring, in particular of the floor space at airports. Air and ground surveillance is part of air traffic control carried out and serves to make air traffic smooth, fast and safe.

Zu den Aufgaben der Flugsicherung gehört neben der schnellen und flüssigen Abwicklung des Luftverkehrs die Vermeidung von Zusammenstößen zwischen Fahrzeugen in der Luft und auf den Start- und Landebahnen, dem Rollfeld und den Parkbereichen der kontrollierten Flughäfen.In addition to the fast and smooth handling of air traffic, the tasks of air traffic control include the avoidance of collisions between vehicles in the air and on the runways, the tarmac and the parking areas of the controlled airports.

Die Kapazität des Flugverkehrs wird im wesentlichen durch zwei Engpässe beschränkt. So ist zum einen aufgrund eingeschränkter Luftwege und -korridore der nutzbare Luftraum stark eingeengt. Zum anderen ist häufig der Verkehrsdurchsatz am Boden stark begrenzt, da es an preisgünstigen und intelligenten Bodenraumüberwachungssystemen fehlt und da neben Flugzeugen auch eine Vielzahl von Servicefahrzeugen am Bodenverkehr teilnimmt.Air traffic capacity is essentially limited by two bottlenecks. So is for due to restricted airways and corridors, the usable airspace is severely restricted. On the other hand, the traffic throughput on the ground is often severely limited because it is inexpensive and intelligent floor space monitoring systems are missing, and there is one besides aircraft Variety of service vehicles takes part in ground traffic.

Die bekannten Bodenraumüberwachungssysteme sind sehr teuer, da sie eine Vielzahl von Sensoren, wie z.B. Flughafenradar, sekundäres Radar und GPS benötigen. The known floor space monitoring systems are very expensive because they have a large number of sensors, such as. Airport radar, secondary radar and GPS are required.

Demzufolge ist nur ein kleiner Teil der nationalen und internationalen Flughäfen mit einem Bodenraumüberwachungssystem ausgerüstet. Doch selbst wenn ein bekanntes Bodenraumüberwachungssystem vorhanden ist, so ist die Überwachung dennoch häufig unvollständig, da im allgemeinen nicht alle Bereiche des Flugfeldes beobachtet werden können.As a result, only a small proportion of the national and international airports have a floor space monitoring system equipped. But even if a known floor space monitoring system monitoring is often incomplete, since in general not all areas of the airfield can be observed.

Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Verfügung zu stellen, das eine preisgünstige und effektive Raumüberwachung, insbesondere des Luft- und Bodenraums von Flughäfen, erlaubt.The object of the present invention is therefore to provide a method, an inexpensive and effective room surveillance, especially of the air and ground space from airports, allowed.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, das die Schritte aufweist:

  • Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor,
  • Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Videosensors in eine Speichereinheit,
  • Erkennen von Ereignissen,
  • Berechnung von Zustandsvektoren der Ereignisse aus den Bilddaten und
  • Zuordnen der Zustandsvektoren jeweils zu einem Objekt.
According to the invention, this object is achieved by a method comprising the steps:
  • Monitoring of at least one traffic location with at least one video sensor,
  • Reading in the image data of at least one snapshot of the at least one video sensor into a storage unit,
  • Detection of events,
  • Calculation of state vectors of the events from the image data and
  • Assign the state vectors to an object.

Unter einem Raumgebiet bzw. Verkehrsort kann man z.B. jeden beliebigen Ort auf dem Flugfeld verstehen. Dies kann beispielsweise die Start- oder Landebahn oder aber eine beliebige Zufahrtsstraße auf dem Vorfeld oder auch eine Gateausfahrt sein. Auch wenn das erfindungsgemäße Verfahren bereits mit Vorteil eingesetzt werden kann, wenn lediglich ein Verkehrsort mit mindestens einem Videosensor überwacht wird, so werden doch vorzugsweise eine ganze Reihe von Verkehrsorten bzw. Verkehrsknotenpunkten jeweils mit mindestens einem Videosensor überwacht.Under a spatial area or traffic location you can e.g. any place on the airfield understand. This can be the runway or landing road or any access road be on the apron or a gate exit. Even if the method according to the invention can already be used with advantage if only one traffic location with at least is monitored by a video sensor, a whole series of traffic locations are preferred or traffic hubs are each monitored with at least one video sensor.

Der Videosensor kann im Prinzip jeder beliebige auf Licht reagierende Sensor sein. Besonders bevorzugt kommen jedoch digitale Videokameras zum Einsätz, da sie Bilddaten liefern, die besonders leicht weiterverarbeitet werden können. Diese Bilddaten können beispielsweise im Bitmapformat vorliegen, bei dem jedes Pixel einzeln in die Datei eingetragen ist. Mit Vorteil können aber auch andere weniger speicherintensive Datenformate verwendet werden. Der Videosensor liefert eine Momentaufnahme seines Sichtfeldes in Form einer Bilddatendatei, die in geeigneter Weise in einer Speichereinheit eingelesen wird. Diese Bilddaten werden ausgewertet, um ein oder mehrere Ereignisse zu erkennen, sofern solche vorliegen. Unter einem Ereignis werden alle Unregelmäßigkeiten im Sichtfeld des Videosensors verstanden, insbesondere Bewegungen von Objekten im Gesichtsfeld der Kamera oder aber auch ein Vordergrundobjekt vor einem bestimmten und gespeicherten festen Untergrund. Befindet sich z.B. auf dem Rollfeld ein Flugzeug, das beispielsweise gerade über einen sogenannten Stopbar rollt, so ist dies ein Ereignis. Werden beispielsweise Bilddaten zweier zeitlich beabstandeter Momentaufnahmen desselben Verkehrsortes verglichen, so stellt eine Gruppe von Pixeln, deren Farbe einen hohen Kontrast zu den umgebenden Pixelgruppen aufweist und die auf den beiden Momentaufnahmen eine andere Position einnimmt, ein Ereignis dar. Im nächsten Schritt wird für jedes bekannte Ereignis aus den Bilddaten ein Zustandsvektor errechnet. Dieser Zustandsvektor kann im Prinzip beliebig definiert sein, z.B. als Differenz zweier vektoriell dargestellter Sätze von Bildpixeln bzw. -daten. Eine Möglichkeit besteht auch darin, daß er die Position des beobachteten Ereignisses darstellt.In principle, the video sensor can be any sensor that reacts to light. Particularly preferred However, digital video cameras are used because they deliver image data that is special can be easily processed. This image data can be in bitmap format, for example with each pixel individually entered in the file. But others can also benefit less memory-intensive data formats are used. The video sensor provides a snapshot his field of view in the form of an image data file, which is suitably in a Storage unit is read. This image data is evaluated for one or more events recognizable, if there are any. Under an event are all irregularities understood in the field of view of the video sensor, in particular movements of objects in the field of view the camera or a foreground object in front of a specific and saved one solid surface. Is e.g. on the tarmac an airplane that is just over, for example rolls a so-called stopbar, so this is an event. For example, if image data is two A group compares time-spaced snapshots of the same traffic location of pixels whose color is in high contrast to the surrounding pixel groups and which takes a different position on the two snapshots, represents an event. In the next Step, a state vector is calculated for each known event from the image data. This In principle, the state vector can be defined arbitrarily, e.g. as the difference between two vectors Sets of image pixels or data. One possibility is that he takes the position of the observed event.

Erkennen eines Ereignisses setzt insoweit auch die Definition dessen, was ein Ereignis ist, voraus, wobei die vorstehenden Erläuterungen ein Beispiel für eine solche Definition liefem.In this respect, recognizing an event also presupposes the definition of what an event is, the above explanations providing an example of such a definition.

Schließlich wird jedem Zustandsvektor jeweils ein Objekt zugeordnet. Unter einem Objekt wird jeder reale Gegenstand verstanden, der sich auf dem Flughafenfeld befindet bzw. bewegt.Finally, an object is assigned to each state vector. Everyone is under an object understood real object that is located or moves on the airport field.

Selbstverständlich ist es möglich, das Erkennen von Ereignissen auf Ereignisse zu beschränken, die eine Mindestgröße haben. Dadurch kann verhindert werden, daß beispielsweise einem zufällig durch das Sichtfeld des Videosensors fliegenden Vogel ein Objekt zugeordnet wird.Of course, it is possible to limit the detection of events to events that have a minimum size. This can prevent, for example, accidentally an object is assigned through the field of view of the bird flying bird video sensor.

Durch das beschriebene Verfahren kann einer oder können mehrere Verkehrsorte effizient überwacht werden. Die Objektdaten können entweder direkt an das Flugsicherungspersonal oder an eine geeignete Verarbeitungseinrichtung weitergegeben werden. Das Flugsicherungspersonal ist dadurch jederzeit darüber informiert, ob sich ein Flugzeug an einem der beobachteten Verkehrsorte befindet bzw. wo sich die Flugzeuge befinden.The method described enables one or more traffic locations to be monitored efficiently become. The object data can either be sent directly to the air traffic control personnel or to a suitable processing facility can be passed on. The air traffic control personnel is thereby informed at all times whether an aircraft is at one of the observed traffic locations or where the planes are located.

Besonders bevorzugt ist ein Verfahren, bei dem Bilddaten mindestens zweier zeitlich beabstandeter Momentaufnahmen mindestens eines Videosensors eingelesen werden. Dadurch, daß zwei zeitlich versetzte Momentaufnahmen desselben Videosensors und damit desselben Verkehrsortes eingelesen werden, ist es möglich, aufgrund der Veränderung der Position der Pixelgruppe, die das Ereignis darstellt, eine Geschwindigkeitskomponente des Objekts zu berechnen. Bei geeigneter Aufstellung des Videosensors und entsprechender Streckenführung des Flugzeuges entspricht die Geschwindigkeitskomponente der absoluten Geschwindigkeit. Bei nicht geradliniger Streckenführung kann es von Vorteil sein, wenn mindestens ein Verkehrsort mit mehreren, vorzugsweise mindestens drei, Videosensoren überwacht wird. In diesem Fall kann für jeden Videosensor die relative Geschwindigkeitskomponente des Objekts getrennt berechnet werden. Bei Kenntnis der Standorte der Videosensoren kann daraus die absolute Geschwindigkeit sowie die Bewegungsrichtung des Objekts ermittelt werden. Eine besonders bevorzugte Ausführungsform des vorliegenden Verfahrens sieht daher vor, daß der Zustandsvektor auch die Geschwindigkeit und/oder die Bewegungsrichtung des Objektes repräsentiert. A method is particularly preferred in which image data of at least two temporally spaced Snapshots of at least one video sensor can be read. In that two temporally Staggered snapshots of the same video sensor and thus the same traffic location , it is possible due to the change in the position of the pixel group that the event represents to calculate a speed component of the object. With a suitable installation of the video sensor and the corresponding route of the aircraft corresponds to the speed component the absolute speed. If the route is not straight it can be advantageous if at least one traffic location with several, preferably at least three, video sensors is monitored. In this case, the relative speed component can be for each video sensor of the object can be calculated separately. Knowing the locations of the Video sensors can determine the absolute speed and the direction of movement of the object be determined. A particularly preferred embodiment of the present method therefore provides that the state vector also the speed and / or the direction of movement represents the object.

Dadurch ist es beispielsweise auch möglich, die Bewegung bzw. die Position des Objektes vorauszuberechnen. Vorausgesetzt, daß sich die Geschwindigkeit des Objekts nicht wesentlich ändert, kann die Position des Objekts für die Zukunft berechnet werden, ohne daß weitere Bilddaten von Videosensoren notwendig sind. Dies ermöglicht es, daß nicht der komplette Rollfeldbereich überwacht werden muß. Es ist vielmehr möglich, zwischen zwei überwachten Verkehrsorten aus den Zustandsvektoren die voraussichtliche Position des Objektes zu berechnen. Dadurch stehen dem Flugsicherungspersonal bzw. der weiterverarbeitenden Einheit zu jedem Zeitpunkt die berechneten aktuellen Positionen der Luftfahrzeuge auf dem Boden des Flugfeldes zur Verfügung, ohne daß alle Bereiche des Flugfeldes von Videosensoren überwacht werden.This makes it possible, for example, to calculate the movement or the position of the object in advance. Provided that the speed of the object does not change significantly, the position of the object can be calculated for the future without further image data from Video sensors are necessary. This means that the entire runway area is not monitored must become. Rather, it is possible to move between two monitored traffic locations from the State vectors to calculate the expected position of the object. This means that Air traffic control personnel or the processing unit at all times the calculated current positions of the aircraft on the ground of the airfield are available without all Areas of the airfield are monitored by video sensors.

Eine weitere besonders bevorzugte Variante des erfindungsgemäßen Verfahrens sieht vor, daß der Zustandsvektor die Beschleunigung eines Objekts darstellt. Zur Berechnung der Beschleunigung sind mindestens drei Momentaufnahmen eines Videosensors notwendig. Aus diesen drei Momentaufnahmen kann die Beschleunigung des Objekts berechnet werden. Die Genauigkeit der Positionsvorhersage des Verfahrens wird dadurch erheblich verbessert. Dies ist insbesondere in Bereichen, in denen sich die Geschwindigkeit der Luftfahrzeuge stark ändert; z.B. aufgrund eines Abbremsvorgangs, von großem Vorteil. Kann nämlich aus dem Zustandsvektor auch die Beschleunigung des Objekts entnommen werden, so kann diese bei der zeitlichen Extrapolation der Position des Objekts berücksichtigt werden.Another particularly preferred variant of the method according to the invention provides that the State vector represents the acceleration of an object. To calculate the acceleration at least three snapshots of a video sensor are required. From these three snapshots the acceleration of the object can be calculated. The accuracy of the position prediction the process is significantly improved. This is particularly true in areas in which the speed of the aircraft changes significantly; e.g. due to a braking process, of great advantage. Can namely the acceleration of the state vector Object can be removed, so this can be extrapolated over time the position of the object be taken into account.

Für manche Anwendungsfälle kann es von Vorteil sein, wenn dem Zustandsvektor Werte zugeordnet werden, die ein Maß für die statistischen Wahrscheinlichkeiten der Objektparameter sind. Diese Wert können auch in den Zustandsvektor integriert werden. Durch diese Maßnahme kann die Fehlerrate in der Ereigniserkennung deutlich minimiert werden. So ist es beispielsweise möglich, daß die Bilddaten des Videosensors aufgrund äußerer Einwirkungen, z.B. starker Niederschlag oder Vogelflug, nicht das zu beobachtende Objekt zeigen. Dann kann es passieren, daß entweder ein Objekt erkannt wird, was sich in Wahrheit gar nicht am Verkehrsort befindet oder daß ein am Verkehrsort befindliches Flugzeug nicht erkannt wird. Daher wird einem Zustandsvektor eines Objektes, das auf vielen hintereinander aufgenommenen Momentaufnahmen und von verschiedenen Videosensoren erkannt wurde, eine hohe statistische Wahrscheinlichkeit zugeordnet, während einem Zustandsvektor eines Objekts, welches lediglich in einer Momentaufnahme erkannt wurde, eine sehr geringe statistische Wahrscheinlichkeit zugeordnet wird. Die statistische Wahrscheinlichkeit ist daher ein Maß für die Qualität bzw. die Güte (d.h. die Genauigkeit und Zuverlässigkeit) des erkannten Ereignisses. Es ist dann beispielsweise möglich, einen Grenzwert zu definieren und alle Zustandsvektoren, deren Wert für die statistische Wahrscheinlichkeit diesen Grenzwert unterschreitet, nicht zu beachten. For some applications it can be advantageous to assign values to the state vector that are a measure of the statistical probabilities of the object parameters. This Values can also be integrated into the state vector. This measure can reduce the error rate be significantly minimized in event detection. For example, it is possible that the image data of the video sensor due to external influences, e.g. heavy rainfall or Bird flight, do not show the object to be observed. Then it can happen that either a Object is recognized, which is actually not at the traffic location or that is at the traffic location aircraft is not recognized. Therefore, a state vector of an object, that on many consecutive snapshots and from different video sensors a high statistical probability was assigned during a state vector of an object that was only recognized in a snapshot, a very low statistical probability is assigned. The statistical probability is therefore a measure of the quality or quality (i.e. the accuracy and reliability) of the detected Event. It is then possible, for example, to define a limit value and all state vectors, the value of the statistical probability does not fall below this limit to consider.

Eine besonders bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens sieht vor, daß die Zuordnung des Zustandsvektors zu einem Objekt unter Zugriff auf Verkehrslagedaten erfolgt, die nicht durch die Videosensoren gewonnen wurden. Diese Verkehrslagedaten können auf vielfältige Art und Weise erhalten werden. So ist es beispielsweise möglich, daß das Flugsicherungspersonal an einem geeigneten Terminal die einzelnen Zustandsvektoren den eintreffenden Flugzeugen zuordnet. In diesem Fall enthält der Zustandsvektor auch eine Objektidentifikationsnummer bzw. einen Objektnamen. Es ist dadurch möglich, mit Hilfe des Verfahrens nicht nur zu überwachen, wo sich ein Flugzeug befindet, sondern sogar zu überwachen, wo sich welches Flugzeug befindet.A particularly preferred embodiment of the method according to the invention provides that the Assignment of the state vector to an object with access to traffic situation data takes place were not won by the video sensors. This traffic situation data can be varied Way can be obtained. For example, it is possible that the air traffic control personnel assigns the individual status vectors to the arriving aircraft at a suitable terminal. In this case, the state vector also contains an object identification number or one Object name. This makes it possible to use the method not only to monitor where a Plane, but even monitor where each plane is located.

Eine weitere Möglichkeit sieht vor, daß die Verkehrslagedaten aus dem aktuellen Flugplan und/oder dem Belegungsplan der Parkpositionen entnommen werden. So könnte beispielsweise das bestehende Flugsicherungssystem mit einem System, das das erfindungsgemäße Verfahren verwirklicht, gekoppelt werden, so daß das Bodenraumüberwachungssystem, immer wenn ein Flugzeug auf der Landebahn landet, auf die Flugplandaten des bestehenden Flugsicherungssystems zugreift und das Flugzeug identifiziert. Diese Identifizierung wird dann während der weiteren Bodenraumüberwachung beibehalten. Ganz analog kann ein Objekt, das sich von einer Parkposition wegbewegt mit Hilfe des Belegungsplan der Parkpositionen identifiziert werden.Another possibility provides that the traffic situation data from the current flight plan and / or can be taken from the occupancy plan of the parking positions. For example, the existing one Air traffic control system with a system which implements the method according to the invention, be coupled so that the floor space monitoring system whenever an aircraft is on the Runway lands, accesses the flight plan data of the existing air traffic control system and that Airplane identified. This identification is then used during further floor space monitoring maintained. An object that moves away from a parking position can be used in the same way Using the occupancy plan of the parking positions can be identified.

Anstelle von oder in Kombination mit den Flugplandaten können auch Radardaten verwendet werden. Alternativ dazu sind selbstverständlich auch alle anderen Positionssensoren verwendbar, die zusätzliche Verkehrslagedaten liefern. Hier kommen beispielsweise Mode-S-Radarsensoren, Near Range Radar Networks oder auch GPS-Empfänger und -Server in Frage.Instead of or in combination with the flight plan data, radar data can also be used. Alternatively, of course, all other position sensors can also be used provide additional traffic situation data. This is where Mode-S radar sensors, Near come for example Range radar networks or GPS receivers and servers in question.

Eine besonders zweckmäßige Ausführungsform sieht vor, daß die Bilddaten digital gefiltert werden, wobei vorzugsweise die diskrete Kalman-Filterung verwendet wird. Alternativ oder in Kombination dazu kann auch zumindest ein Teil der Verkehrslagedaten digital gefiltert werden, wobei auch hier vorzugsweise die diskrete Kalman-Filterung verwendet wird. Durch die Kalman-Filterung wird eine Schätzung und Glättung der Meßwerte in Echtzeit erreicht. Alternativ dazu können auch andere geeignete Schätzverfahren, wie z.B. die MLS-Filterung (minimum least square), verwendet werden. Dadurch kann die Qualität des erfindungsgemäßen Verfahrens deutlich erhöht werden. Wie bereits erwähnt, ist es besonders bevorzugt, wenn die Zustandsvektoren zeitabhängig weiterberechnet werden. So kann durch dieses Verfahren auch bei kurzfristigem Ausfall der Videosensoren die Position der einzelnen Objekte mit großer Wahrscheinlichkeit vorhergesagt werden.A particularly expedient embodiment provides that the image data are filtered digitally, preferably using discrete Kalman filtering. Alternatively or in combination, at least some of the traffic situation data can also be digitally filtered, with discrete Kalman filtering preferably also being used here. Kalman filtering enables real-time estimation and smoothing of the measured values. Alternatively, other suitable estimation techniques, for example, the MLS-filtering are (m inimum l east s quare) was used. The quality of the method according to the invention can thereby be significantly increased. As already mentioned, it is particularly preferred if the state vectors are calculated further as a function of time. With this method, the position of the individual objects can be predicted with high probability even in the event of a short-term failure of the video sensors.

Dabei werden vorzugsweise die Zustandsvektoren desselben Objekts, die von unterschiedlichen Sensoren ermittelt wurden, zusammengefaßt. Gleiches gilt für die von den Sensoren erhaltenen Zustandsvektoren und die Zustandsvektoren aus den anderen Verkehrslagedaten. Dadurch wird die Bodenraumüberwachung übersichtlicher, da weniger Zustandsvektoren verfolgt werden müssen. The state vectors of the same object are preferably those of different ones Sensors were determined, summarized. The same applies to those received from the sensors State vectors and the state vectors from the other traffic situation data. This will make the Floor space monitoring is clearer, since fewer condition vectors have to be followed.

Nicht immer ist es möglich, die Zustandsvektoren zusammenzufassen. Insbesondere dann, wenn unterschiedliche Systeme zur Erfassung von Verkehrslagedaten verwendet werden, kann eine Zusammenfassung schwierig oder sogar unmöglich werden. In diesem Fall ist es vorteilhaft, wenn die Zustandsvektoren desselben Objekts miteinander korreliert werden. Liefert beispielsweise das Radarsystem mit großen Zeitintervallen zuverlässige Positionsdaten eines bestimmten Objektes, so kann der Zustandsvektor dieses Objekts mit den Radardaten korreliert werden. Mit anderen Worten wird immer dann, wenn die zuverlässigen Radardaten vorliegen, der aus den Videosensoren ermittelte und gegebenenfalls zeitlich extrapolierte Zustandsvektor dieses Objekts angepaßt. Diese Korrelation erlaubt eine Korrektur der Zustandsvektoren auch dann, wenn das Objekt sich nicht an einem von Videosensoren überwachten Verkehrsort aufhält.It is not always possible to summarize the state vectors. Especially if Different systems for recording traffic situation data can be used, a summary become difficult or even impossible. In this case it is advantageous if the State vectors of the same object are correlated with one another. Delivers the radar system, for example with large time intervals reliable position data of a certain object, so the state vector of this object can be correlated with the radar data. In other words Whenever the reliable radar data is available, it is determined from the video sensors and, if necessary, time-extrapolated state vector of this object is adapted. This correlation allows the state vectors to be corrected even if the object is not on one traffic location monitored by video sensors.

Besonders bevorzugt ist ein Verfahren, bei dem sich an die Zuordnung der Zustandsvektoren zu Objekten der Schritt anschließt:A method is particularly preferred in which the assignment of the state vectors takes place Objects the step connects:

Erzeugung einer Verkehrslagedarstellung.Generation of a traffic situation display.

Diese Verkehrslagedarstellung kann in jedem beliebigen Koordinatensystem erfolgen. Die Zustandsvektoren der erkannten Objekte werden in Positionen in der Verkehrslagedarstellung umgerechnet und an diesen Positionen in die Verkehrslagedarstellung eingetragen. Selbstverständlich ist es möglich, die Verkehrslagedarstellung zu visualisieren, so daß das Flugsicherungspersonal auf einen Blick erkennen kann, an welchen Positionen sich die einzelnen Flugzeuge befinden und ob an irgendeiner Stelle eine Kollision droht.This traffic situation can be displayed in any coordinate system. The state vectors of the recognized objects are converted into positions in the traffic situation display and entered into the traffic situation display at these positions. It goes without saying it is possible to visualize the traffic situation so that the air traffic control personnel on can see at a glance where the individual aircraft are and whether they are on somewhere a collision is imminent.

Eine solche visuelle Darstellung ist jedoch nicht unbedingt notwendig. So ist es in einer besonders bevorzugten Variante des Verfahrens vorgesehen, daß die Zustandsvektoren im Hinblick auf mögliche Kollisionen ausgewertet werden. Hier werden die Zustandsvektoren nicht nur zur Erzeugung einer Verkehrslagedarstellung in Echtzeit weitergerechnet, sondern es erfolgt eine Extrapolation der Zustandsvektoren in die Zukunft, um mögliche Kollisionen vorhersehen zu können. Besonders bevorzugt sieht das Verfahren daher vor, daß in Abhängigkeit von der Kollisionsauswertung ein Alarmsignal aktiviert wird. Dieses Alarmsignal kann beispielsweise ein optisches oder akustisches Signal für das Flugsicherungspersonal sein.However, such a visual representation is not absolutely necessary. So it is special in one preferred variant of the method provided that the state vectors with regard to possible Collisions are evaluated. Here the state vectors are not only used for generation a traffic situation representation in real time, but there is an extrapolation of the State vectors in the future to be able to predict possible collisions. Particularly preferred The method therefore provides that an alarm signal depending on the collision evaluation is activated. This alarm signal can be, for example, an optical or acoustic signal for air traffic control personnel.

Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten des vorliegenden Verfahrens werden deutlich anhand der folgenden Beschreibung eines bevorzugten Verfahrens sowie der dazugehörigen Figur. Es zeigt:

Figur 1
einen schematischen Aufbau eines Bodenraumüberwachungssystems.
Further advantages, features and possible applications of the present method become clear from the following description of a preferred method and the associated figure. It shows:
Figure 1
a schematic structure of a floor space monitoring system.

Die einzige Figur zeigt den prinzipiellen Aufbau eines Bodenraumüberwachungssystems. Die einzelnen Komponenten des Systems sind miteinander über ein Kommunikationsnetzwerk 9 (z.B. TCP/IP-LAN Netzwerk) miteinander verbunden. Oberhalb der Linie 9 sind in Figur 1 die einzelnen Clients 10, 11 und 12 dargestellt, während unterhalb der Linie 9 die drei Server 2, 3 und 5 abgebildet sind. Der Server 2 ist für die Zusammenführung der Videosensorarten zuständig. Die einzelnen Videosensoren 7, die die Objekte 8 erkennen, werden über die Ansteuer- und Ausleseeinheit 1 mit dem Server 2 verbunden. Der Server 2 sammelt die Sensordaten, filtert diese mit zeitvarianter diskreter Kalman-Filterung und bildet die Zustandsvektoren der Objekte 8. Die Zustandsvektoren werden an den Radarserver 3 zur weiteren Verarbeitung weitergegeben. Der Radarserver 3 filtert einen oder mehrere Luftraumüberwachungsradare mit einem zeitinvarianten diskreten Kalman-Filter, um Flugrouten zu erzeugen. Dieser Server führt eine Korrelation zwischen den videobasierten Flugbahnen und den Radarflugbahnen zusammen mit einer Korrelation mit den Flugplandaten 5. Die korrelierte Information wird zu den Clients 10, 11 und 12 geliefert. Der Flugplanserver 5 liefert die Flugplandaten zu dem Radarserver 3 für die Korrelation des Radars mit dem Flugplan und für die zeitbasierte Identifizierung der startenden Flugzeuge. Der Flugplanserver 5 erhält Flugplanänderungen von seinen Clients 6.The only figure shows the basic structure of a floor space monitoring system. The single ones Components of the system are interconnected via a communication network 9 (e.g. TCP / IP-LAN network). The individual ones are above the line 9 in FIG Clients 10, 11 and 12 are shown, while below the line 9 the three servers 2, 3 and 5 are shown are. Server 2 is responsible for merging the types of video sensors. The individual video sensors 7, which recognize the objects 8, are activated via the control and read-out unit 1 connected to the server 2. The server 2 collects the sensor data and filters them with more discrete time variants Kalman filtering and forms the state vectors of objects 8. The state vectors are passed on to the radar server 3 for further processing. The radar server 3 filters one or several airspace surveillance radars with a time-invariant discrete Kalman filter to Generate flight routes. This server carries out a correlation between the video-based trajectories and the radar trajectories together with a correlation with the flight plan data 5. The correlated Information is provided to clients 10, 11 and 12. The flight plan server 5 delivers the flight plan data to the radar server 3 for the correlation of the radar with the flight plan and for the time-based Identification of the aircraft taking off. The flight plan server 5 receives flight plan changes from its clients 6.

Durch das erfindungsgemäße Verfahren werden Videosensordaten mit anderen Verkehrslagedaten kombiniert, um eine Verkehrslagedarstellung zu erzeugen, die eine sichere und zuverlässige Überwachung des Luft- und Bodenraums gewährleistet. Ein System, das das erfindungsgemäße Verfahren verwirklicht, besteht aus Sensorhardware 1, 7, 8, Rechnerhardware 2, 3, 5, Netzwerkinfrastruktur 9 sowie Sensorsoftware, Kommunikationssoftware, Verarbeitungssoftware und Lagedarstellungssoftware.The method according to the invention converts video sensor data with other traffic situation data combined to produce a traffic situation representation that provides safe and reliable monitoring of the air and ground space guaranteed. A system that the inventive method realized consists of sensor hardware 1, 7, 8, computer hardware 2, 3, 5, network infrastructure 9 as well as sensor software, communication software, processing software and situation display software.

Die Videosensordaten werden mit Hilfe der Videosensoren 7 erfaßt. Dabei werden zunächst mit Hilfe der digitalen Kameras 7 Pixeldaten aufgenommen. Diese umfassen sogenannte Bildframes einer oder mehrerer Videosensoren in hoher Frequenz (typischerweise größer als 27 Hz). Dabei sind Bildframes mindestens zweidimensionale Vektoren von Pixeln (Grau- bzw. Farbwerte), welche die Aufnahme der digitalen Kamera mit einer nicht unendlichen Auflösung widerspiegeln. Aus diesen Pixeldaten werden die Zustandsdaten bzw. Zustandsvektoren berechnet. Diese können die folgenden Informationen enthalten: Objektidentifikationsnummer, Objektklassifikation, Position, Geschwindigkeit, Bewegungsrichtung, Beschleunigung und statistische Wahrscheinlichkeit/Qualität (Genauigkeit, Zuverlässigkeit).The video sensor data are recorded with the help of the video sensors 7. First, use With the help of digital cameras 7 pixel data recorded. These include so-called image frames one or more high frequency video sensors (typically greater than 27 Hz). there Image frames are at least two-dimensional vectors of pixels (gray or color values), which reflect the recording of the digital camera with a non-infinite resolution. From these Pixel data, the state data or state vectors are calculated. These can be the following Information includes: object identification number, object classification, position, speed, Direction of movement, acceleration and statistical probability / quality (accuracy, Reliability).

Die anderen Verkehrslagedaten können beispielsweise Radardaten sein, die der Radarserver 3 zur Verfügung stellt. Dabei handelt es sich um digitalisierte Daten von beispielsweise Langstreckenradaren und Flughafenradaren. Diese Radare sind durch die Box mit der Bezugszahl 4 symbolisiert worden. Die Flugplandaten, die von dem Flugplandatenserver 5 zur Verfügung gestellt werden, können beispielsweise von existierenden Flugplansystemen übernommen werden, die an ein System, das das erfindungsgemäße Verfahren verwirklicht, angeschlossen werden können.The other traffic situation data can be, for example, radar data that the radar server 3 provides Provides. This is digitized data from, for example, long-range radars and airport radars. These radars have been symbolized by the box with the reference number 4. The flight plan data provided by the flight plan data server 5 can for example, from existing flight plan systems that are connected to a system that realized the method according to the invention, can be connected.

Die Kombination der Videosensordaten mit den anderen Verkehrslagedaten erfolgt durch Bilddatenverarbeitung, digitale Filterung, statistische Interferenz, Sensordatenfusion, Track-Korrelation und Zeitfensterkorrelation. Dabei umfaßt die Bilddatenverarbeitung die Übertragung der Pixeldaten einer angewählten digitalen Kamera zum anwählenden Lagedarstellungssystem sowie die Erkennung und Klassifikation von Objekten in den Pixeldaten. Die digitale Filterung der Meßwerte erfolgt mittels der diskreten Kalman-Filterung. Mit ihrer Hilfe werden alle extrahierten Zustandsvektoren aus der Ereigniserkennung der Videosensordaten gefiltert. Auf die gleiche Art und Weise können auch die Radardaten oder die Daten anderer Sensoren gefiltert werden. Unter statistischer Inferenz wird verstanden, daß bei der Berechnung von zukünftigen Zustandsvektoren bzw. der Extrapolation von Zustandsvektoren berücksichtigt wird, daß die Ausgangsdaten mit einer entsprechenden Ungenauigkeit und Unzuverlässigkeit behaftet sind, so daß sich die statistische Wahrscheinlichkeit des neuen Zustandsvektors aus der Fortpflanzung der Ungenauigkeit und Unzuverlässigkeit der ursprünglichen Zustandsvektoren berechnet.The video sensor data is combined with the other traffic situation data by image data processing, digital filtering, statistical interference, sensor data fusion, track correlation and Time frame correlation. The image data processing includes the transmission of the pixel data selected digital camera to the dialing position display system as well as the recognition and Classification of objects in the pixel data. The digital filtering of the measured values is carried out using the discrete Kalman filtering. With their help, all extracted state vectors from event detection of the video sensor data filtered. The radar data can be transmitted in the same way or the data from other sensors can be filtered. Statistical inference means that in the calculation of future state vectors or the extrapolation of state vectors is taken into account that the output data with a corresponding inaccuracy and unreliability, so that the statistical probability of the new State vector from the propagation of the inaccuracy and unreliability of the original State vectors calculated.

Unter Sensordatenfusion wird die korrekte Zusammenführung von Objektinformationen für Objekte, die von mehreren Sensoren erfaßt wurden, verstanden. Werden beispielsweise von zwei unterschiedlichen Videosensoren sich ergänzende Bewegungsinformationen ein- und desselben Objektes erhalten, so werden diese in einen gemeinsamen Zustandsvektor eingetragen. Bei der Sensordatenfusion muß jedoch darauf geachtet werden, daß sich unterscheidende Objekte, die sich möglicherweise sehr nahe kommen, jederzeit korrekt unterschieden werden.Sensor data fusion is the correct merging of object information for objects, that were detected by several sensors. For example, two different Video sensors complementary motion information of one and the same object received, they are entered in a common state vector. With sensor data fusion However, care must be taken to ensure that there are different objects that may differ come very close, can be correctly distinguished at any time.

Unter der Track-Korrelation wird verstanden, daß die auf Basis unterschiedlicher Sensoren berechneten Flug- bzw. Bewegungsrouten für die gleichen Objekte überprüft werden. Mit anderen Worten werden die Flugrouten, die aus den Videosensoren ermittelt wurden, mit den Flugrouten, die aus den Radardaten ermittelt wurden, korreliert, sofern jene zur Verfügung stehen.The track correlation is understood to mean that those calculated on the basis of different sensors Flight or movement routes for the same objects are checked. In other words the flight routes determined from the video sensors are compared with the flight routes derived from the radar data were determined, correlated, if available.

Unter der Zeitfensterkorrelation wird verstanden, daß die Routen, die auf Basis der Sensordaten ermittelt wurden, mit dem Bewegungsfahrplan der Objekte gemäß der vorliegenden Flugplandaten innerhalb eines bestimmten Zeittoleranzfensters abgeglichen werden.The time window correlation is understood to mean that the routes based on the sensor data were determined with the movement schedule of the objects in accordance with the available flight plan data can be adjusted within a certain time tolerance window.

Die so ermittelten Zustandsvektoren werden in eine Lagedarstellung eingetragen. Dies erfolgt in sequentiellen Zyklen. Die einzelnen Positionsdaten werden von dem Server 2 an den Radarserver 3 weitergegeben. Die Server 2 und/oder 3 übernehmen außerdem die Konfliktermittlung. Das heißt für jeweils zwei Zustandsvektoren wird geprüft, ob Kollisionsgefahr vorliegt. Des weiteren wird überprüft, ob gesperrte Verkehrsschutzbereiche durch andere eindringende Objekte verletzt werden. The state vectors determined in this way are entered in a positional representation. This is done in sequential cycles. The individual position data are sent from the server 2 to the radar server 3 passed. The servers 2 and / or 3 also take over the conflict determination. That means for Two status vectors are checked to determine whether there is a risk of collision. Furthermore, it is checked whether blocked traffic protection areas are violated by other intruding objects.

Liegt ein Kollisions- oder Verletzungsrisiko vor, so wird ein entsprechender Alarm ausgelöst.If there is a risk of collision or injury, a corresponding alarm is triggered.

Mit Hilfe des vorliegenden Verfahrens ist es möglich, preisgünstig und äußerst effektiv eine Luftraum- und insbesondere eine Bodenraumüberwachung vorzunehmen. Durch dieses Verfahren wird es möglich, eine Überwachung effektiv auch in Bereiche auszudehnen, die von keinem Sensor erfaßt werden. Das Verfahren kann sehr einfach mit bereits bestehenden Luft- und Bodenraumüberwachungssystemen kombiniert werden. Dabei profitieren beide Verfahren voneinander.With the help of the present method it is possible to inexpensively and extremely effectively and in particular to carry out floor space monitoring. Through this procedure it is possible to effectively extend monitoring into areas that are not detected by any sensor become. The procedure can be carried out very easily with existing air and ground space monitoring systems be combined. Both processes benefit from each other.

Claims (22)

Verfahren zur Raumüberwachung, das die Schritte aufweist: Überwachung mindestens eines Verkehrsortes mit mindestens einem Videosensor, Einlesen der Bilddaten mindestens einer Momentaufnahme des zumindest einen Videosensors in eine Speichereinheit, Erkennen von Ereignissen, Berechnen von Zustandsvektoren der Ereignisse aus den Bilddaten, Zuordnen der Zustandsvektoren jeweils zu einem Objekt und Ausgabe von Objektdaten. A method of room surveillance comprising the steps: Monitoring of at least one traffic location with at least one video sensor, Reading in the image data of at least one snapshot of the at least one video sensor into a storage unit, Detection of events, Calculating state vectors of the events from the image data, Assigning the state vectors to an object and Output of object data. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das überwachte Raumgebiet mindestens einen Teil eines Flugfeldes bzw. Flughafengeländes bildet.Method according to Claim 1, characterized in that the monitored spatial area forms at least part of an airfield or airport site. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß der Zustandsvektor die Position eines Objektes darstellt.Method according to claim 1 or 2, characterized in that the state vector represents the position of an object. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß Bilddaten mindestens zweier zeitlich beabstandeter Momentaufnahmen des mindestens einen Videosensors eingelesen werden.Method according to one of claims 1 to 3, characterized in that image data of at least two temporally spaced snapshots of the at least one video sensor are read. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß der mindestens eine Verkehrsort mit mehreren, vorzugsweise mit mindestens drei, Videosensoren überwacht wird.Method according to one of claims 1 to 4, characterized in that the at least one traffic location is monitored with several, preferably with at least three, video sensors. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß der Zustandsvektor die Geschwindigkeit und/oder die Bewegungsrichtung eines Objekts darstellt.Method according to one of claims 1 to 5, characterized in that the state vector represents the speed and / or the direction of movement of an object. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß der Zustandsvektor die Beschleunigung eines Objekts darstellt.Method according to one of claims 1 to 6, characterized in that the state vector represents the acceleration of an object. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß dem Zustandsvektor ein Wert zugeordnet wird, der ein Maß für die statistische Wahrscheinlichkeit des Objektes bzw. der Genauigkeit und Zuverlässigkeit der Objektparameter ist. Method according to one of claims 1 to 7, characterized in that the state vector is assigned a value which is a measure of the statistical probability of the object or the accuracy and reliability of the object parameters. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die Zuordnung der Zustandsvektoren zu einem Objekt unter Zugriff auf Verkehrslagedaten erfolgt, die nicht durch die Videosensoren gewonnen wurden.Method according to one of claims 1 to 8, characterized in that the assignment of the state vectors to an object takes place with access to traffic situation data which were not obtained by the video sensors. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Zuordnung der Zustandsvektoren zu einem Objekt unter Zugriff auf Radardaten erfolgt.Method according to Claim 9, characterized in that the assignment of the state vectors to an object takes place with access to radar data. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß die Zuordnung der Zustandsvektoren zu einem Objekt unter Zugriff auf Flugplandaten erfolgt.Method according to Claim 9 or 10, characterized in that the assignment of the state vectors to an object takes place with access to flight plan data. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, daß die Zuordnung der Zustandsvektoren zu einem Objekt unter Zugriff auf Positionssensoren erfolgt.Method according to one of claims 9 to 11, characterized in that the assignment of the state vectors to an object takes place with access to position sensors. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß die Bilddaten digital gefiltert werden, wobei vorzugsweise die diskrete Kalman-Filterung oder MLS-Filterung verwendet wird.Method according to one of Claims 1 to 12, characterized in that the image data are filtered digitally, the discrete Kalman filtering or MLS filtering preferably being used. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, daß zumindest ein Teil der Verkehrslagedaten digital gefiltert wird, wobei vorzugsweise die diskrete Kalman-Filterung oder MLS-Filterung verwendet wird.Method according to one of claims 9 to 13, characterized in that at least some of the traffic situation data is digitally filtered, preferably using discrete Kalman filtering or MLS filtering. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß die Zustandsvektoren zeitabhängig in Echtzeit weiterberechnet werden.Method according to one of Claims 1 to 14, characterized in that the state vectors are further calculated in real time in a time-dependent manner. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß die Zustandsvektoren desselben Objekts, die von unterschiedlichen Sensoren oder Verkehrslagedaten ermittelt wurden, zusammengefaßt werden.Method according to one of claims 1 to 15, characterized in that the state vectors of the same object, which were determined by different sensors or traffic situation data, are combined. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, daß die Zustandsvektoren desselben Objekts, die aus unterschiedlichen Verkehrslagedaten ermittelt wurden, korreliert werden.Method according to one of claims 1 to 16, characterized in that the state vectors of the same object, which were determined from different traffic situation data, are correlated. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, daß sich der Zuordnung der Zustandsvektoren zu Objekten der Schritt anschließt:
   Erzeugung einer Verkehrslagedarstellung.
Method according to one of claims 1 to 17, characterized in that the assignment of the state vectors to objects is followed by the step:
Generation of a traffic situation display.
Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß die Zustandsvektoren in Positionen in der Verkehrslagedarstellung umgerechnet werden und an diesen Positionen in die Verkehrslagedarstellung eingetragen werden.Method according to Claim 18, characterized in that the state vectors are converted into positions in the traffic situation representation and are entered in the traffic situation representation at these positions. Verfahren nach Anspruch 18 oder 19, dadurch gekennzeichnet, daß die Zustandsvektoren im Hinblick auf mögliche Kollisionen ausgewertet werden.Method according to claim 18 or 19, characterized in that the state vectors are evaluated with regard to possible collisions. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß ein Alarmsignal in Abhängigkeit von dem Ergebnis der Kollisionsauswertung aktiviert wird.A method according to claim 20, characterized in that an alarm signal is activated depending on the result of the collision evaluation. Verfahren nach einem Ansprüche 18 bis 21, dadurch gekennzeichnet, daß die Verkehrslagedarstellung in vorzugsweise festen äquidistanten Zeitabständen aktualisiert wird.Method according to one of claims 18 to 21, characterized in that the traffic situation is updated at preferably fixed, equidistant time intervals.
EP01116027A 2000-07-04 2001-07-02 Method for surface surveillance Withdrawn EP1170715A3 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE2000132433 DE10032433A1 (en) 2000-07-04 2000-07-04 Ground space monitoring procedures
DE10032433 2000-07-04

Publications (2)

Publication Number Publication Date
EP1170715A2 true EP1170715A2 (en) 2002-01-09
EP1170715A3 EP1170715A3 (en) 2003-01-29

Family

ID=7647721

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01116027A Withdrawn EP1170715A3 (en) 2000-07-04 2001-07-02 Method for surface surveillance

Country Status (2)

Country Link
EP (1) EP1170715A3 (en)
DE (1) DE10032433A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6099517A (en) * 1986-08-19 2000-08-08 Genentech, Inc. Intrapulmonary delivery of polypeptide growth factors and cytokines
EP1363140A1 (en) * 2002-05-13 2003-11-19 Joval N.V. Method and device for detecting the presence of an object on a runway
WO2004008403A2 (en) * 2002-07-15 2004-01-22 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
EP1561190A2 (en) * 2002-10-28 2005-08-10 Xsight Systems Ltd. Foreign object detection system and method
EP1936583A1 (en) * 2006-12-20 2008-06-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Airport traffic information display system
US8022841B2 (en) 2008-03-31 2011-09-20 Xsight Systems Ltd. System and method for ascription of foreign object debris detected on airport travel surfaces to foreign object sources
US9135830B2 (en) 2010-02-18 2015-09-15 Xsight Systems Ltd. Airport travel surface edge lighting and foreign object detection system and method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005041705A1 (en) 2005-09-02 2007-03-15 Oerlikon Contraves Ag Method for room / air space monitoring
DE102007014599A1 (en) * 2007-03-23 2008-09-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for monitoring a taxiing management system for airports
DE102008018880A1 (en) 2008-04-14 2009-10-15 Carl Zeiss Optronics Gmbh Monitoring procedures and equipment for wind turbines, buildings with transparent areas, runways and / or airport corridors
DE102008054203A1 (en) * 2008-10-31 2010-06-10 Adb N.V Apparatus for airfield lighting of an airport
DE102016223094A1 (en) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Method and system for detecting a raised object located within a parking lot
DE102019106461A1 (en) * 2019-03-14 2020-09-17 Bayerische Motoren Werke Aktiengesellschaft Method, device, computer program and computer program product for processing measurement data sets

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5519618A (en) * 1993-08-02 1996-05-21 Massachusetts Institute Of Technology Airport surface safety logic
JPH09210722A (en) * 1996-01-30 1997-08-15 Natsuku:Kk Device for measuring performance of takeoff and landing of aircraft
WO1997037336A1 (en) * 1996-03-29 1997-10-09 Commonwealth Scientific And Industrial Research Organisation An aircraft detection system
WO1998022922A1 (en) * 1996-11-15 1998-05-28 Siemens Aktiengesellschaft System for co-ordinating the activities of aircraft guidance personnel in an airport

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4140406C2 (en) * 1991-12-07 1998-09-03 Daimler Benz Aerospace Ag Procedures for orienting, navigating, guiding and monitoring aircraft
DE4332753C2 (en) * 1993-09-25 1997-01-30 Bosch Gmbh Robert Process for the detection of moving objects
DE19640938A1 (en) * 1996-10-04 1998-04-09 Bosch Gmbh Robert Arrangement and method for monitoring traffic areas

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5519618A (en) * 1993-08-02 1996-05-21 Massachusetts Institute Of Technology Airport surface safety logic
JPH09210722A (en) * 1996-01-30 1997-08-15 Natsuku:Kk Device for measuring performance of takeoff and landing of aircraft
WO1997037336A1 (en) * 1996-03-29 1997-10-09 Commonwealth Scientific And Industrial Research Organisation An aircraft detection system
WO1998022922A1 (en) * 1996-11-15 1998-05-28 Siemens Aktiengesellschaft System for co-ordinating the activities of aircraft guidance personnel in an airport

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 1997, no. 12, 25. Dezember 1997 (1997-12-25) & JP 09 210722 A (NATSUKU:KK), 15. August 1997 (1997-08-15) *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6099517A (en) * 1986-08-19 2000-08-08 Genentech, Inc. Intrapulmonary delivery of polypeptide growth factors and cytokines
EP1363140A1 (en) * 2002-05-13 2003-11-19 Joval N.V. Method and device for detecting the presence of an object on a runway
BE1014829A3 (en) * 2002-05-13 2004-05-04 Joval N V Method and apparatus for determining
WO2004008403A2 (en) * 2002-07-15 2004-01-22 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
WO2004008403A3 (en) * 2002-07-15 2004-03-11 Magna B S P Ltd Method and apparatus for implementing multipurpose monitoring system
US8111289B2 (en) 2002-07-15 2012-02-07 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
EP1561190A4 (en) * 2002-10-28 2006-07-26 Xsight Systems Ltd Foreign object detection system and method
US7253748B2 (en) 2002-10-28 2007-08-07 Xsight Systems Ltd Foreign object detection system and method
EP1995707A3 (en) * 2002-10-28 2009-03-25 Xsight Systems Ltd. Foreign object detection system
US7663507B2 (en) 2002-10-28 2010-02-16 Xsight Systems Ltd. Foreign object detection system and method
EP1561190A2 (en) * 2002-10-28 2005-08-10 Xsight Systems Ltd. Foreign object detection system and method
EP1936583A1 (en) * 2006-12-20 2008-06-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Airport traffic information display system
US8022841B2 (en) 2008-03-31 2011-09-20 Xsight Systems Ltd. System and method for ascription of foreign object debris detected on airport travel surfaces to foreign object sources
US9135830B2 (en) 2010-02-18 2015-09-15 Xsight Systems Ltd. Airport travel surface edge lighting and foreign object detection system and method

Also Published As

Publication number Publication date
EP1170715A3 (en) 2003-01-29
DE10032433A1 (en) 2002-01-17

Similar Documents

Publication Publication Date Title
EP0886847B1 (en) Method of detecting a collision risk and preventing air collisions
DE102017217056B4 (en) Method and device for operating a driver assistance system and driver assistance system and motor vehicle
EP1505556B1 (en) Method and apparatus for flight obstacle recognition
DE69731009T2 (en) System for detecting obstacles
EP0853299B1 (en) Method and device for actuating a door assembly in response to the presence of persons
EP1475764B1 (en) Method and apparatus for calculating the probability of a collision between a vehicle and an object
EP1170715A2 (en) Method for surface surveillance
EP1770595B1 (en) Procedure to assist low-flying aircraft in obstacle detection
DE60006550T2 (en) AIR MONITORING SYSTEM
DE102009016819B4 (en) Method for detecting at least one object and / or at least one object group, computer program, computer program product, stereo camera device, actively radiation-emitting image sensor system and monitoring device
DE102013104443A1 (en) Traffic monitoring system for speed measurement and assignment of moving vehicles in a multi-target recording module
EP0740280A2 (en) Disturbance detection method for road traffic
WO2020200792A1 (en) Method for checking a surroundings detection sensor of a vehicle and method for operating a vehicle
DE102019116380A1 (en) Device and method for controlling driving of a vehicle
DE102014219691A1 (en) Method for monitoring a rail track environment and monitoring system
WO1998040855A1 (en) Video monitoring system for a surface area
EP3472818B1 (en) Concept for controlling traffic in a car park
WO2019162794A1 (en) Method and system for detecting parking spaces which are suitable for a vehicle
DE102016224212A1 (en) Automated free space detection using differential analysis for vehicles
DE19621612A1 (en) Method of optical free space monitoring, esp. for monitoring track areas in railway stations for objects not normally present
DE212015000274U1 (en) Device and non-volatile computer program product for monitoring an aircraft position
EP2521070A2 (en) Method and system for recording a static or dynamic scene, for determining raw events and detecting free areas in an area under observation
DE102017212513A1 (en) Method and system for detecting a free area within a parking lot
EP0290633B1 (en) Method for detecting changes in the driving range of an unmanned vehicle
EP2254104B1 (en) Method for automatic recognition of a change in a situation

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO SI

19U Interruption of proceedings before grant

Effective date: 20020920

19W Proceedings resumed before grant after interruption of proceedings

Effective date: 20031116

AKX Designation fees paid
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566

18D Application deemed to be withdrawn

Effective date: 20031117