DE102012008780A1 - Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model - Google Patents

Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model Download PDF

Info

Publication number
DE102012008780A1
DE102012008780A1 DE201210008780 DE102012008780A DE102012008780A1 DE 102012008780 A1 DE102012008780 A1 DE 102012008780A1 DE 201210008780 DE201210008780 DE 201210008780 DE 102012008780 A DE102012008780 A DE 102012008780A DE 102012008780 A1 DE102012008780 A1 DE 102012008780A1
Authority
DE
Germany
Prior art keywords
lane
motor vehicle
lane edge
detecting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210008780
Other languages
German (de)
Inventor
Timm Kayser
Christoph Söhnel
Andreas Haja
Claudia Prauße
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE201210008780 priority Critical patent/DE102012008780A1/en
Publication of DE102012008780A1 publication Critical patent/DE102012008780A1/en
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

The method involves optically receiving an actual image (1) against a motor car. A travel anticipated region (10) is selected against the motor car on the actual image. Correspondences (12) at corresponding regions are retrieved at the actual image. A search region is defined on the basis of the correspondences in the actual image. Dominant orientations are determined within the search region in the actual image, and a vanishing point is determined in the actual image utilizing the dominant orientations, where the vanishing point is utilized for the creation of a track model. Independent claims are also included for the following: (1) a device for detecting a lane edge for creating a track model for a motor car (2) a motor car.

Description

Die Erfindung betrifft ein Verfahren sowie eine Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, zwecks Erstellung eines Spurmodells für ein Kraftfahrzeug. Weiterhin betrifft die vorliegende Erfindung das Kraftfahrzeug selbst, welches eine Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes aufweist.The invention relates to a method and a device for detecting at least one lane edge, in particular an unmarked lane edge, for the purpose of creating a track model for a motor vehicle. Furthermore, the present invention relates to the motor vehicle itself, which has a device for detecting at least one lane edge.

Es sind bereits Kraftfahrzeuge bekannt, welche einen aktiven Spurhalteassistenten haben, um den Fahrer in kritischen Situationen zu unterstützen. Dabei greift das Assistenzsystem zum Beispiel dann ein, wenn das Fahrzeug droht, von der Fahrbahn abzukommen, was insbesondere bei Unachtsamkeit beziehungsweise Ermüdung des Fahrers auftreten kann.Motor vehicles are already known which have an active lane departure warning system to assist the driver in critical situations. In this case, the assistance system intervenes, for example, when the vehicle threatens to come off the road, which can occur especially in carelessness or fatigue of the driver.

Spurhalteassistenten müssen dazu mithilfe von Sensoren ihre Umgebung auswerten. Derartige Sensoren können zum Beispiel Kameras sein, wobei jedoch auch Ansätze auf Radar-Basis existieren, wie zum Beispiel in der US 2010/01 61204 A1 offenbart ist. Kameras haben den Vorteil einer hohen Reichweite, einer feinen Winkelauflösung und niedriger Kosten sowie der Extraktion von Szenenwissen, wie es mit Radar-Lösungen nicht möglich ist. Die Ansätze auf Radar-Basis haben neben einer geringen Winkelauflösung zudem den Nachteil, dass nur Fahrbahnränder mit signifikanter räumlicher Ausdehnung erfasst werden können. Die Erfassung von Farbmarkierungen zur Kennzeichnung von Fahrbahnrändern ist demnach nicht möglich.Lane departure warning systems must use sensors to evaluate their surroundings. Such sensors may be, for example, cameras, but radar-based approaches also exist, such as those in U.S. Pat US 2010/01 61204 A1 is disclosed. Cameras have the advantage of a long range, a fine angular resolution and low cost as well as the extraction of scene knowledge, as is not possible with radar solutions. In addition to a low angular resolution, the radar-based approaches also have the disadvantage that only road edges with a significant spatial extent can be detected. The detection of color markings for marking of road edges is therefore not possible.

Kamerabasierte Spurhalteassistenten werten die Bilder einer oder mehrerer Kameras aus, die in der Regel eine dem Blickwinkel des Fahrers ähnliche Perspektive auf die Straße besitzen. Zu diesem Zweck sind sie oftmals mittig hinter dem Innenspiegel des Kraftfahrzeuges integriert.Camera-based lane departure warning systems evaluate the images of one or more cameras, which usually have a perspective on the road similar to the driver's perspective. For this purpose, they are often integrated centrally behind the interior mirror of the motor vehicle.

Die Auswertung der mittels Kamera erfassten Bilder erfolgt dabei herkömmlicherweise durch die Suche nach künstlichen Fahrbahnmarkierungen im Kamerabild, wie es zum Beispiel die US 2009/0296987 A1 lehrt. Das heißt, dass diese Systeme nur auf der Fahrzeugseite unterstützend wirken können, auf denen auch eine für eine Kamera erkenntliche Markierung auf der Fahrbahn angebracht ist. Fehlt eine solche Markierung, kann ein derartiges System nicht oder nur eingeschränkt funktionieren.The evaluation of the images captured by camera takes place conventionally by the search for artificial lane markings in the camera image, as for example the US 2009/0296987 A1 teaches. This means that these systems can only assist on the vehicle side, on which a marking recognizable for a camera is mounted on the roadway. If such a mark is missing, such a system can not function or only to a limited extent.

Zur Lösung des Problems der mangelnden Orientierung für den Spurhalteassistenten bei fehlenden Fahrbahnmarkierungen existieren unterschiedliche Ansätze. Die WO 2005/039957 A1 lehrt dabei zum Beispiel, optisch die Reifenspuren von vorausfahrenden Fahrzeugen auszunutzen.To solve the problem of lack of orientation for the lane departure warning in the absence of lane markings exist different approaches. The WO 2005/039957 A1 For example, it teaches to visually exploit the tire tracks of vehicles in front.

Die WO 2010/023266 A1 offenbart eine Lösung, bei der Kameradaten mit Navigationsdaten fusioniert werden.The WO 2010/023266 A1 discloses a solution in which camera data is fused with navigation data.

Die WO 2005/040950 A1 nutzt die geschätzte Bewegung von Objekten im Bild zur Spurseparation.The WO 2005/040950 A1 uses the estimated motion of objects in the image for track separation.

Bei diesen genannten Ansätzen erfolgt somit keine explizite Detektion des Straßenrandes und somit auch keine genaue Lageschätzung, wie sie zum Betrieb eines Spurhalteassistenten unerlässlich ist. Zudem sind die genannten Lösungen zum Teil relativ kostenaufwendig.In these approaches, therefore, no explicit detection of the roadside and thus no accurate estimation of the position, as is essential for the operation of a lane departure warning. In addition, the solutions mentioned are sometimes relatively expensive.

Die US 2010/0054538 A1 offenbart eine explizite Detektion des Fahrbahnrandes, wobei ein Modell des Randes durch eine Polynom-Regression unter Verwendung von bestimmten Kanten (steigender oder fallender Gradient) aus einem definierten Suchbereich mit anschließenden Plausibilisierungsschritten generiert wird. Da jedoch das jeweilige Modell verworfen wird, sobald die mittlere Abweichung zwischen Modell und Kanten zu groß wird, Fahrbahnränder allerdings oftmals zerklüftet existieren, ist anzunehmen, dass der in diesem Dokument genannte Ansatz zum zuverlässigen Betrieb eines Spurhalteassistenten nicht geeignet ist.The US 2010/0054538 A1 discloses an explicit detection of the lane boundary, wherein a model of the boundary is generated by a polynomial regression using certain edges (rising or falling gradient) from a defined search area with subsequent plausibility steps. However, since the respective model is discarded as soon as the mean deviation between the model and the edges becomes too large, but the edges of the road are often fissured, it can be assumed that the approach mentioned in this document is not suitable for the reliable operation of a lane departure warning system.

Die DE 10 2009 044 284 betrifft ein Verfahren zur Fahrspurerkennung, bei dem mindestens ein Bild einer Sequenz von digitalisierten Bildern einer Fahrbahn mittels Ermitteln von multiplen Bildeigenschaften und Erkennen einer Fahrspur auf Basis der ermittelten multiplen Bildeigenschaften verarbeitet wird.The DE 10 2009 044 284 relates to a lane detection method in which at least one image of a sequence of digitized images of a lane is processed by determining multiple image characteristics and recognizing a traffic lane based on the determined multiple image characteristics.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes zur Verfügung zu stellen, mit denen in einfacher, zuverlässiger sowie kostengünstiger Weise wenigstens ein vor einem Kraftfahrzeug befindlicher Fahrbahnrandabschnitt mit ausreichender Genauigkeit erfasst werden kann, um daraus ein Spurmodell für das Kraftfahrzeug zu generieren.The present invention has for its object to provide a method and a device for detecting at least one lane edge available with which in a simple, reliable and cost-effective manner at least one located in front of a motor vehicle roadway section can be detected with sufficient accuracy to make it a track model to generate for the motor vehicle.

Diese Aufgabe wird erfindungsgemäß durch das Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 1 sowie durch die Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 10 gelöst. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen 2 bis 9 angegeben. Vorteilhafte Ausgestaltungen der erfindungsgemäßen Einrichtung sind in den Unteransprüchen 11 bis 13 angegeben. Ein weiterer Aspekt der vorliegenden Erfindung ist ein Kraftfahrzeug, welches eine erfindungsgemäße Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes aufweist. This object is achieved by the method for detecting at least one lane edge according to claim 1 and by the device for detecting at least one lane edge according to claim 10. Advantageous embodiments of the method according to the invention are specified in the subclaims 2 to 9. Advantageous embodiments of the device according to the invention are specified in the subclaims 11 to 13. Another aspect of the present invention is a motor vehicle having a device according to the invention for detecting at least one lane edge.

Es wird erfindungsgemäß ein Verfahren zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, zur Verfügung gestellt, zwecks Erstellung eines Spurmodells für ein Kraftfahrzeug. Das erfindungsgemäße Verfahren umfasst die folgenden Schritte:

  • a) optische Aufnahme eines aktuellen ersten Bildes vor einem Kraftfahrzeug,
  • b) Auswahl eines als befahrbar anzunehmenden Bereiches vor dem Kraftfahrzeug auf dem aktuellen ersten Bild,
  • c) Auffinden von korrespondierenden Bereichen zu diesem als befahrbar anzunehmenden Bereich in einer bestimmten Anzahl von zuvor aufgenommenen Bildern eines umgekehrten optischen Flusses,
  • d) Auffinden von Entsprechungen zu diesen korrespondierenden Bereichen im aktuellen ersten Bild,
  • e) Definition wenigstens eines Suchbereiches anhand der Entsprechungen im aktuellen ersten Bild,
  • f) Ermittlung von dominanten Orientierungen innerhalb des Suchbereiches im aktuellen ersten Bild,
  • g) Ermittlung wenigstens eines Fluchtpunktes im aktuellen ersten Bild unter Verwendung der dominanten Orientierungen, und
  • h) Nutzung des Fluchtpunktes zur Erstellung eines Spurmodells.
According to the invention, a method is provided for detecting at least one lane edge, in particular an unmarked lane edge, in order to create a lane model for a motor vehicle. The method according to the invention comprises the following steps:
  • a) optical recording of a current first image in front of a motor vehicle,
  • b) selecting an area to be assumed to be passable in front of the motor vehicle on the current first image,
  • c) finding corresponding areas to this area to be assumed to be passable in a certain number of previously recorded images of a reverse optical flow,
  • d) finding correspondences to these corresponding areas in the current first image,
  • e) definition of at least one search area based on the correspondences in the current first image,
  • f) determination of dominant orientations within the search area in the current first image,
  • g) determining at least one vanishing point in the current first image using the dominant orientations, and
  • h) Use of the vanishing point to create a track model.

Bei der Auswahl des als befahrbar anzunehmenden Bereiches vor dem Kraftfahrzeug sollte bevorzugt der nah vor dem Kraftfahrzeug, im Sichtbereich einer Kamera und einige Pixel hohe und die Breite des Kraftfahrzeuges aufweisende Bereich genutzt werden. Die Bereiche, die mit dem ausgewählten, als befahrbar anzunehmenden Bereich korrespondieren sollen, sind demzufolge proportional zur Bildanzahl im umgekehrten optischen Fluss vom Kraftfahrzeug entfernt ersichtlich. Das Auffinden dieser korrespondierenden Bereiche erfolgt zum Beispiel anhand charakteristischer Grauwert- oder Graustufenverteilung. Bei Definition des Suchbereiches kann neben den gefundenen Entsprechungen auch der ausgewählte, als befahrbar anzunehmende Bereich verwendet werden.When selecting the area to be assumed to be passable in front of the motor vehicle, the area in front of the motor vehicle, in the field of vision of a camera and a few pixels high and having the width of the motor vehicle, should preferably be used. The areas which are to correspond to the selected area to be assumed to be passable are therefore visible in a proportional manner to the number of images in the inverse optical flow away from the motor vehicle. The finding of these corresponding areas takes place, for example, on the basis of the characteristic gray value or grayscale distribution. In the definition of the search area, in addition to the found correspondences, the selected area which is to be assumed to be passable can also be used.

Die Ermittlung wenigstens eines Fluchtpunktes im aktuellen ersten Bild unter Verwendung der dominanten Orientierungen erfolgt bevorzugt unter der Annahme, dass die dominanten Orientierungen zu Längsstrukturen ausgebildet sind, die durch Fahrbahnränder ausgebildet werden. Aus den Schnittpunkten dieser Längsstrukturen beziehungsweise dominanten Orientierungen lässt sich der Fluchtpunkt ermitteln. Die genaue Ermittlung des Fluchtpunktes im aktuellen ersten Bild lässt sich bevorzugt mit dem Fachmann bekannten Verfahren durchführen, wie eines beispielhaft von Rasmussen im Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 , offenbart ist. Diese Verfahren lassen sich für gerade und/oder kurvige Strecken, gegebenenfalls in Kombination mit einer Kamerakalibrierung, durchführen. Dadurch lässt sich der Fluchtpunkt zuverlässig schätzen. Bei Kurvenverlauf des Fahrbahnrandes existieren dementsprechend mehrere Fluchtpunkte.The determination of at least one vanishing point in the current first image using the dominant orientations is preferably based on the assumption that the dominant orientations are formed into longitudinal structures which are formed by road edges. The vanishing point can be determined from the intersections of these longitudinal structures or dominant orientations. The exact determination of the vanishing point in the current first image can preferably be carried out using methods known to the person skilled in the art, such as an example by Rasmussen in US Pat Texture-Based Vanishing Point Voting for Road Shape Estimation, published at the British Machine Vision Conference, 2004 , is disclosed. These methods can be used for straight and / or curved sections, possibly in combination with a camera calibration. As a result, the vanishing point can be reliably estimated. When cornering of the roadway edge there are accordingly several vanishing points.

In vorteilhafter Ausgestaltung des erfindungsgemäßen Verfahrens ist vorgesehen, dass bei der Nutzung des Fluchtpunktes zur Erstellung eines Spurmodells eine Mehrzahl von durch den Fluchtpunkt verlaufenden Fahrbahnrand-Kandidaten definiert werden und wenigstens ein Fahrbahnrand-Kandidat zur Begrenzung des Spurmodells ausgewählt wird. Vorzugsweise ist ein Fahrbahnrand-Kandidat dort zu definieren, wo eine signifikante Häufung bestimmter dominanter Orientierungen auftritt. Bei mehreren Fluchtpunkten wird entsprechend verfahren.In an advantageous embodiment of the method according to the invention, it is provided that when using the vanishing point to create a track model, a plurality of roadway candidates passing through the vanishing point are defined and at least one lane edge candidate is selected for delimiting the track model. Preferably, a lane edge candidate is to be defined where a significant accumulation of certain dominant orientations occurs. At several vanishing points proceed accordingly.

In günstiger Ausgestaltung des Verfahrens ist vorgesehen, dass der wenigstens eine Fahrbahnrand-Kandidat dadurch ausgewählt wird, dass den ermittelten Fahrbahnrand-Kandidaten jeweils eine Klassifikationswahrscheinlichkeit der örtlichen Übereinstimmung mit dem tatsächlichen Fahrbahnrand zugeordnet wird, und diese Klassifikationswahrscheinlichkeit zur Erstellung des Spurmodells genutzt wird.In a favorable embodiment of the method, it is provided that the at least one lane edge candidate is selected by assigning the determined lane candidate each a classification probability of the local match with the actual lane edge, and this classification probability is used to create the lane model.

Vorteilhafterweise ist vorgesehen, dass die Zuordnung der Klassifikationswahrscheinlichkeit mittels eines Texturfilters und eines Klassifikators erfolgt, wobei der Texturfilter in der Umgebung des jeweiligen Kandidaten Merkmale extrahiert und an den Klassifikator weiterleitet, und der Klassifikator anhand der Merkmale dem jeweiligen Kandidaten eine Klassifikationswahrscheinlichkeit zuordnet. Zu diesem Zweck können im Klassifikator Informationen hinsichtlich typischer Merkmale von Straßenrändern abgespeichert sein, verbunden mit der Zuordnung einer Wahrscheinlichkeit des Vorhandenseins eines tatsächlichen Straßenrandes bei Vorliegen bestimmter Merkmale. Der Klassifikator vergleicht die vom Texturfilter ermittelten Merkmale mit abgespeicherten Merkmalen und ordnet dem jeweiligen Kandidaten eine bestimmte Klassifikationswahrscheinlichkeit zu.Advantageously, it is provided that the assignment of the classification probability by means of a texture filter and a classifier takes place, wherein the texture filter in the environment of each candidate extracts features and forwards to the classifier, and the classifier based on the characteristics of the respective candidate assigns a classification probability. For this purpose, information may be stored in the classifier with regard to typical features of road edges, associated with the assignment of a probability of the presence of an actual roadside when present certain characteristics. The classifier compares the features determined by the texture filter with stored features and assigns a particular classification probability to the respective candidate.

Es ist weiterhin vorteilhafterweise vorgesehen, dass in verschiedenen Abständen vor dem Kraftfahrzeug und im Wesentlichen senkrecht zur Kraftfahrzeug-Längsachse verlaufende Belegungsstrahlen definiert werden, die in diskrete Gitterzellen unterteilt sind, und jeder Gitterzelle eine Belegungswahrscheinlichkeit zugeordnet wird, die eine Aussage darüber gibt, inwieweit die Koordinate der jeweiligen Gitterzelle einem tatsächlichen Fahrbahnrand entspricht.It is further advantageously provided that occupancy beams extending at different distances in front of the motor vehicle and substantially perpendicular to the motor vehicle longitudinal axis are defined, which are subdivided into discrete grid cells, and each grid cell is assigned an occupancy probability which indicates the extent to which the coordinate the respective grid cell corresponds to an actual roadway edge.

Derartige Belegungsstrahlen verhalten sich wie eindimensionale Belegungskarten, so genannte Evidence Grids. Die definierten Gitterzellen entsprechen den diskreten Werten einer Skala. Die diskreten Gitterzellen sollten bevorzugt eine Länge von weniger als 20 cm aufweisen. Jede Gitterzelle entspricht somit einer Strecke auf der Fahrbahnebene senkrecht zur Kraftfahrzeuglängsachse.Such occupancy beams behave like one-dimensional occupancy maps, so-called evidence grids. The defined grid cells correspond to the discrete values of a scale. The discrete grid cells should preferably have a length of less than 20 cm. Each grid cell thus corresponds to a distance on the road plane perpendicular to the motor vehicle longitudinal axis.

Das erfindungsgemäße Verfahren ist weiterhin dadurch vorteilhaft ausgebildet, dass wenigstens ein nächstes, sich vom ersten Bild unterscheidendes Bild aufgenommen wird und wenigstens die Schritte b) bis h) sowie der Schritt der Generierung der Belegungsstrahlen senkrecht zur Kraftfahrzeug-Längsachse wiederholt werden, wobei die einer jeden auf dem aktuellen ersten Bild basierenden Gitterzelle zugeordnete Wahrscheinlichkeit mit der Wahrscheinlichkeit verrechnet wird, die basierend auf einem nächsten Bild ermittelt wird. Dadurch akkumulieren sich die Wahrscheinlichkeiten, die den einzelnen Gitterzellen zugeordnet sind.The inventive method is further advantageous in that at least one next, different from the first image image is taken and at least the steps b) to h) and the step of generating the occupation beams are repeated perpendicular to the motor vehicle longitudinal axis, one of each on the current first image based grid cell associated probability is calculated with the probability, which is determined based on a next image. As a result, the probabilities associated with the individual grid cells accumulate.

Die für ein Bild zu ermittelnden Gesamt-Wahrscheinlichkeiten der Gitterzellen werden derart gewonnen, dass für jeden definierten Belegungsstrahl und jeden als Rand klassifizierten Kandidaten die folgenden Schritte durchgeführt werden:

  • a) die der longitudinalen Entfernung des Belegungsstrahls vom Fahrzeug zugehörige Lateralentfernung von der Kraftfahrzeug-Längsachse wird ermittelt;
  • b) die der ermittelten Lateralentfernung entsprechende Gitterzelle wird auf dem Belegungsstrahl identifiziert; und
  • c) die Belegungswahrscheinlichkeit dieser Gitterzelle wird um einen Wert erhöht, der sich proportional zur Anzahl des Auftretens dieser Gitterzellenkoordinate verhält, und der entsprechend der Klassifikationswahrscheinlichkeit gewichtet wird.
The overall likelihoods of the grid cells to be determined for an image are obtained in such a way that the following steps are performed for each defined assignment beam and each edge classified candidate:
  • a) the lateral distance of the vehicle longitudinal axis associated with the longitudinal distance of the occupancy beam from the vehicle is determined;
  • b) the grid cell corresponding to the determined lateral distance is identified on the occupancy beam; and
  • c) the occupancy probability of this grid cell is increased by a value which is proportional to the number of occurrences of this grid cell coordinate, and which is weighted according to the classification probability.

Es kann weiterhin vorgesehen sein, dass ein Unsicherheitsmodell verwendet wird, so dass nicht nur die bisher erfasste Gitterzelle aktualisiert wird, sondern auch auf dem jeweiligen Belegungsstrahl zu dieser Gitterzelle benachbarte Gitterzellen aktualisiert werden. Die Anzahl, Verteilung und Gewichtung der zu aktualisierenden Nachbar-Gitterzellen hängen dabei vom konkreten ausgewählten Unsicherheitsmodell ab.It can further be provided that an uncertainty model is used, so that not only the previously detected grid cell is updated, but also grid cells that are adjacent to this grid cell are updated on the respective occupancy beam. The number, distribution and weighting of the neighbor grid cells to be updated depend on the concrete selected uncertainty model.

Bei Erkennung einer Fahrbahnmarkierung an lediglich einer Seite des Kraftfahrzeuges ist vorteilhafterweise deren Distanz in lateraler Richtung zu bestimmen und diese Distanz mit der Distanz der Gitterzelle, die die höchste Wahrscheinlichkeit aufweist, zu einem Spurmodell zu verrechnen. Die verrechneten Distanzen werden dabei im selben Abstand vor dem Kraftfahrzeug bestimmt. Zum Beispiel kann der Abstand der Fahrbahnmarkierung sowie der Abstand der Gitterzelle, die die höchste Wahrscheinlichkeit aufweist, zur Kraftfahrzeuglängsachse bestimmt werden und daraus der Durchschnittswert gebildet werden, um diesen als Breite des Spurmodells anzunehmen.When a lane marking is recognized on only one side of the motor vehicle, its distance in the lateral direction is advantageously to be determined and this distance must be calculated as the distance from the lattice cell having the highest probability to a lane model. The calculated distances are determined at the same distance in front of the motor vehicle. For example, the distance of the lane mark as well as the distance of the lattice cell having the highest probability can be determined to the motor vehicle longitudinal axis and the average value can be formed therefrom in order to adopt this as the width of the lane model.

In der Situation, in der keine Fahrbahnmarkierung an einer Seite des Kraftfahrzeuges erkannt werden kann, ist vorgesehen, dass basierend auf den Gitterzellen mit der höchsten Wahrscheinlichkeit Polynome generiert werden, die ein Spurmodell ergeben.In the situation in which no lane marking can be detected on one side of the motor vehicle, it is provided that based on the lattice cells with the highest probability polynomials are generated, which give a track model.

Diese Polynome sind vorzugsweise derart zu generieren, dass der mittlere Fehler zu den maximalen Wahrscheinlichkeiten der einzelnen, verwerteten Gitterzellen minimal ist. Die Polynome werden bevorzugt für den linken und den rechten Fahrbahnrand erstellt, um ein vollständiges Spurmodell zu erhalten.These polynomials are preferably to be generated in such a way that the average error to the maximum probabilities of the individual, utilized grid cells is minimal. The polynomials are preferably created for the left and right lane edges to obtain a complete lane model.

Es wird weiterhin erfindungsgemäß eine Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, zur Verfügung gestellt, zwecks Erstellung eines Spurmodells für ein Kraftfahrzeug. Die erfindungsgemäße Einrichtung weist wenigstens eine Kamera zur Aufnahme eines aktuellen ersten Bildes vor dem Kraftfahrzeug, eine Auswahleinrichtung zur Auswahl eines als befahrbar anzunehmenden Bereiches vor dem Kraftfahrzeug, eine Einrichtung zur Erzeugung eines umgekehrten optischen Flusses von zuvor aufgenommenen Bildern, eine erste Sucheinrichtung zum Auffinden von korrespondierenden Bereichen zu dem als befahrbar anzunehmenden Bereich in Bildern des umgekehrten optischen Flusses, eine zweite Sucheinrichtung zum Auffinden von Entsprechungen zu diesen korrespondierenden Bereichen im aktuellen ersten Bild, eine Definitionseinrichtung zur Definition eines Suchbereiches anhand der Entsprechungen, eine erste Ermittlungseinrichtung zur Ermittlung von dominanten Orientierungen innerhalb des Suchbereiches, eine zweite Ermittlungseinrichtung zur Ermittlung wenigstens eines Fluchtpunktes im aktuellen ersten Bild unter Verwendung der dominanten Orientierungen, und eine Recheneinheit zur Erstellung eines Spurmodells unter Nutzung des Fluchtpunktes auf.It is further provided according to the invention a device for detecting at least one lane edge, in particular an unmarked lane edge, provided for the purpose of creating a track model for a motor vehicle. The device according to the invention has at least one camera for recording a current first image in front of the motor vehicle, a selection device for selecting an area to be assumed to be passable in front of the motor vehicle, a device for generating a reverse optical flow of previously recorded images, a first search device for finding corresponding ones Areas to the assumed to be passable area in images of the inverted optical Flow, a second search means for finding correspondences to these corresponding areas in the current first image, a definition means for defining a search range based on the correspondences, a first detection means for determining dominant orientations within the search range, a second detection means for determining at least one vanishing point in the current first image using the dominant orientations, and a computing unit for creating a track model using the vanishing point on.

Die Auswahleinrichtung, die Einrichtung zur Erzeugung eines umgekehrten optischen Flusses, die erste und/oder zweite Sucheinrichtung, die Definitionseinrichtung, die erste und/oder zweite Ermittlungseinrichtung und/oder die Recheneinheit können dabei Bestandteile einer rechnergestützten Steuerungseinheit sein. Gegebenenfalls kann auch eine der genannten Einrichtungen derart ausgestaltet sein, dass sie die Funktion einer oder mehrerer der weiteren genannten Einrichtungen mit übernimmt.The selection device, the device for generating a reverse optical flow, the first and / or second search device, the definition device, the first and / or second detection device and / or the arithmetic unit can be components of a computer-aided control unit. Optionally, one of said devices may be configured such that it takes over the function of one or more of the other named devices.

Die erfindungsgemäße Einrichtung ist somit zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet.The device according to the invention is thus designed to carry out the method according to the invention.

In kostengünstiger Ausgestaltung der erfindungsgemäßen Einrichtung ist vorgesehen, dass die Kamera eine monokulare Kamera ist.In a cost-effective embodiment of the device according to the invention it is provided that the camera is a monocular camera.

Die erfindungsgemäße Einrichtung kann weiterhin zur Durchführung des erfindungsgemäßen Verfahrens einen Klassifikator sowie einen Texturfilter aufweisen, wobei der Texturfilter dafür eingerichtet ist, in der Umgebung des jeweiligen Kandidaten Merkmale zu extrahieren und an den Klassifikator weiterzuleiten, und der Klassifikator dafür eingerichtet ist, anhand der Merkmale dem jeweiligen Kandidaten eine Klassifikationswahrscheinlichkeit zuzuordnen.The inventive device may further comprise a classifier and a texture filter for carrying out the method according to the invention, wherein the texture filter is adapted to extract features in the environment of the respective candidate and forward them to the classifier, and the classifier is set up on the basis of the features attributable to each candidate a classification probability.

Vorzugsweise kann die erfindungsgemäße Einrichtung einen steuerbaren Filter aufweisen. Mit einem solchen, so genannten Steerable Filter ist ein erhaltenes Graustufenbild auf dominante Orientierungen untersuchbar. Die dominanten Orientierungen sind dabei die Richtungen des steuerbaren Filters, in denen sich die Filterantworten signifikant häufen, so wie es auch von Rasmussen im Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 , offenbart ist.Preferably, the device according to the invention may have a controllable filter. With such a so-called steerable filter, an obtained gray-scale image can be examined for dominant orientations. The dominant orientations here are the directions of the controllable filter, in which the filter responses significantly increase, as it is also the case of Rasmussen in the Texture-Based Vanishing Point Voting for Road Shape Estimation, published at the British Machine Vision Conference, 2004 , is disclosed.

Die Erfindung ergänzend wird außerdem ein Kraftfahrzeug zur Verfügung gestellt, welches eine erfindungsgemäße Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes zwecks Erstellung eines Spurmodells aufweist.The invention additionally provides a motor vehicle which has a device according to the invention for detecting at least one lane edge for the purpose of creating a lane model.

Vorzugsweise sollte dieses Kraftfahrzeug außerdem ein Spurhalteassistenz-System aufweisen, welches signaltechnisch mit der erfindungsgemäßen Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes verbunden ist.Preferably, this motor vehicle should also have a lane departure warning system, which is connected by signal technology with the device according to the invention for detecting at least one lane edge.

Basierend auf den detektierten unmarkierten Fahrbahnrändern lassen sich Spurmodelle schätzen, die ausreichend genau sind, um dem Spurhalteassistenz-System zur Verfügung zu stehen.Based on the detected unmarked lane edges, lane models that are sufficiently accurate to be available to the Lane Keeping Assistance system can be estimated.

Durch die Eingabe des erfindungsgemäß ermittelten Spurmodells in das Spurhalteassistenz-System kann dieses bei unzulässiger Abweichung des tatsächlichen Fahrweges vom ermittelten Spurmodell ein Warnsignal generieren und/oder in die Fahrzeugsteuerung eingreifen.By inputting the track model according to the invention into the lane keeping assistance system, this system can generate a warning signal in the event of impermissible deviation of the actual route from the determined track model and / or intervene in the vehicle control.

Mit der vorliegenden Erfindung kann somit eine bildbasierte Detektion von Fahrbahngrenzen erfolgen, selbst wenn keine künstlich aufgebrachte Fahrbahnmarkierung vorhanden sind. Ein Spurhalteassistenz-System kann die ermittelten Fahrbahngrenzen nutzen. Demzufolge bietet die vorliegende Erfindung die Nutzung des Spurhalteassistenz-Systems und eine Unterstützung des Fahrers auch dann, wenn keine Fahrbahnmarkierungen vorhanden sind. Die Kosten für die Hardware sind dabei überschaubar, da lediglich nur eine monokulare Kamera benötigt wird. Das heißt, dass die vorliegende Erfindung ermöglicht, den Fahrer in Situationen zu unterstützen, die bisher nicht abgedeckt wurden. Insbesondere auf unzureichend oder nicht markierten Straßen erhöht dies wesentlich die Fahrsicherheit. Die Erfindung ist kostengünstig realisierbar, da keine zusätzlichen Sensoren benötigt werden.Thus, with the present invention, image-based detection of lane boundaries can be made even if there is no artificially applied lane marking. A lane departure warning system can use the determined lane boundaries. Accordingly, the present invention offers the use of the lane keeping assistance system and driver assistance even when there are no lane markings. The costs for the hardware are manageable, since only a monocular camera is needed. That is, the present invention allows to assist the driver in situations that have not previously been covered. In particular, on insufficient or unmarked roads, this significantly increases driving safety. The invention is inexpensive to implement, since no additional sensors are needed.

Die vorliegende Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnungen erläutert. Es zeigen:The present invention will be explained below in embodiments with reference to the accompanying drawings. Show it:

1 ein Flussdiagramm für das erfindungsgemäße Verfahren; 1 a flowchart for the inventive method;

2 ein erstes Bild; 2 a first picture;

3 ein zweites Bild im umgekehrten optischen Fluss; 3 a second image in the reverse optical flow;

4 ein drittes Bild im umgekehrten optischen Fluss; 4 a third image in the reverse optical flow;

5 das erste Bild mit Suchbereich; 5 the first picture with search area;

6 das erste Bild mit dominanten Orientierungen; 6 the first picture with dominant orientations;

7 das erste Bild mit Fluchtpunkt; 7 the first picture with vanishing point;

8 das erste Bild mit Fahrbahnrand-Kandidaten; 8th the first image with lane edge candidates;

9 das erste Bild mit Belegungsstrahlen und Gitterzellen; 9 the first picture with occupancy beams and grid cells;

10 eine Darstellung der Spurbreite; 10 a representation of the track width;

11 eine Darstellung der ermittelten Polynome; 11 a representation of the determined polynomials;

12 das ermittelte Spurmodell im ersten Bild; 12 the determined track model in the first image;

13 ein Kraftfahrzeug mit einer Kamera und einem Spurhalteassistenz-System. 13 a motor vehicle with a camera and a lane departure warning system.

Zunächst wird Bezug genommen auf das in 1 dargestellte Flussdiagramm. Es folgt eine Auflistung der einzelnen Schritte 01 bis 015: 01 Spurerkennung für Farbmarkierungen 02 Abfrage: weniger als zwei spurbegrenzende Markierungen? Wenn Ja: 03 Kamerabild, Kalibrierung, CAN-Daten werden zur Verfügung gestellt 04 umgekehrter optischer Fluss 05 Suchbereiche anpassen 06 dominante Orientierungen erfassen 07 Fluchtpunktschätzung 08 Kandidaten-Auswahl 09 Erstellung Belegungsstrahl 010 Abfrage: weniger als eine spurbegrenzende Markierung? Wenn Nein: 011 Erfassung Spurbreite in Fahrzeughöhe 012 Spiegelung 013 Plausibilisierung wenn weniger als eine spurbegrenzende Markierung: 014 Modell Fit 015 Plausibilisierung First, reference is made to the in 1 illustrated flowchart. Below is a list of the individual steps 01 to 015 : 01 Track recognition for color markings 02 Query: less than two track-limiting markers? If so: 03 Camera image, calibration, CAN data are provided 04 reverse optical flow 05 Customize search areas 06 capture dominant orientations 07 Vanishing Point Estimate 08 Candidate selection 09 Creation of occupancy beam 010 Query: less than one track-limiting marker? If not: 011 Detecting track width at vehicle height 012 reflection 013 reasonability if less than one lane-limiting marker: 014 Fit model 015 reasonability

Die einzelnen, genannten Schritte werden im Folgenden unter Bezugnahme auf die weiteren 2 bis 12 genauer erläutert.The individual steps mentioned below are described with reference to the others 2 to 12 explained in more detail.

Schritt 01:step 01 :

Als Eingabegrößen für das erfindungsgemäße Verfahren werden die Ausgaben einer Spurerkennung für Farbmarkierungen herangezogen.As input variables for the method according to the invention, the outputs of a track recognition are used for color markings.

Schritt 02: step 02 :

Eine Suche nach einem oder mehreren Fahrbahnrändern muss nur durchgeführt werden, wenn weniger als zwei spurbegrenzende Markierungen für die eigene Fahrspur existieren.A search for one or more lane edges only has to be carried out if there are fewer than two lane-limiting markings for one's own lane.

Schritt 03:step 03 :

Als weitere Eingabegrößen werden das Kamerabild, die Kamerakalibrierung und CAN-Daten verwendet.Further input variables used are the camera image, camera calibration and CAN data.

Es wird angenommen, dass der erste im Bild als befahrbar anzunehmende Bereich 10, wie er in dem in 2 dargestellten ersten Bild 1 ersichtlich ist, vor dem Fahrzeug befahrbar ist. Dieser als befahrbar anzunehmende Bereich 10 ist nur wenige Pixel hoch und besitzt in etwa die Breite des Fahrzeuges, welche über die Kamerakalibrierung in Pixel umgerechnet wird.It is assumed that the first area assumed to be passable in the picture 10 as he is in the in 2 illustrated first picture 1 it can be seen in front of the vehicle is passable. This area to be assumed to be passable 10 is only a few pixels high and has approximately the width of the vehicle, which is converted via the camera calibration in pixels.

Schritt 04:step 04 :

Für diesen als befahrbar anzunehmenden Bereich 10 werden nun mittels des umgekehrten optischen Flusses korrespondierende Bereiche 11 in vorangegangenen Bildern gesucht. Dieser Schritt ist aus den 3 und 4 ersichtlich, in denen im ersten zuvor aufgenommenen Bild 2 sowie im zweiten zuvor aufgenommenen Bild 3 die korrespondierenden Bereiche 11 dargestellt sind. Man erhält dadurch Entsprechungen 12 dieser korrespondierenden Bereich 11 in verschiedenen Entfernungen zum Fahrzeug im ersten Bild 1, so wie es in 2 dargestellt ist. Das heißt, dass die korrespondierenden Bereiche 11 aus den vorangegangenen Bildern 2, 3 die Entsprechungen im aktuellen, ersten Bild 1 ausbilden. Beispielhafte Anweisungen zur Durchführung dieser Schritte sind dem Aufsatz von Lookingbill, A.; Rogers, J.; Lieb, D.; Curry, J. and Thrun, S. „Reverse Optical Flow for Self-Supervised Adaptive Autonomous Robot Navigation” im International Journal of Computer Vision, Volume 74 Issue 3, September 2007 entnehmbar. Das Ergebnis im ersten Bild 1 ist eine Art grober Fahrschlauch 13, der als Ausgang für die Randsuche verwendet werden kann.For this area to be considered passable 10 are now corresponding areas by means of the reverse optical flow 11 searched in previous pictures. This step is from the 3 and 4 seen in the first previously taken picture 2 as well as in the second previously taken picture 3 the corresponding areas 11 are shown. This gives correspondences 12 this corresponding area 11 in different distances to the vehicle in the first picture 1 as it is in 2 is shown. That means that the corresponding areas 11 from the previous pictures 2 . 3 the correspondences in the current, first picture 1 form. Exemplary instructions for performing these steps are in the paper of Lookingbill, A .; Rogers, J .; Lieb, D .; Curry, J. and Thrun, S. "Reverse Optical Flow for Self-Supervised Adaptive Autonomous Robot Navigation" in the International Journal of Computer Vision, Volume 74 Issue 3, September 2007 removable. The result in the first picture 1 is a kind of rough driving tube 13 , which can be used as output for the edge search.

Schritt 05:step 05 :

Ausgehend von diesem ermittelten Fahrschlauch 13 und definierten Grenzen für mögliche Spurbreiten wird der Suchbereich für die Randfindung sinnvoll angepasst. Eine sinnvolle mögliche Spurbreite könnte dabei zwischen 2 m und 3,80 m liegen. Ein solcher erstellter Suchbereich 20 ist in 5 dargestellt.Based on this determined driving tube 13 and defined limits for possible track widths, the search range for the edge finding is adapted meaningfully. A reasonable possible track width could be between 2 m and 3.80 m. Such a created search area 20 is in 5 shown.

Schritt 06:step 06 :

Nachdem der Suchbereich 20 eingegrenzt wurde, werden die dominanten Orientierungen 30 für die Bildbereiche ermittelt, die innerhalb des Suchbereiches 20 liegen. Zu diesem Zweck wird zum Beispiel auf ein Graustufenbild, welches in Schritt 03 ermittelt wurde, ein steuerbarer Filter angewandt. Die dominanten Orientierungen sind die Richtungen des steuerbaren Filters, in denen sich die Filterantworten signifikant häufen. Derartige dominante Orientierungen 30 sind in 6 angedeutet.After the search area 20 has been narrowed down, become the dominant orientations 30 determined for the image areas within the search area 20 lie. For this purpose, for example, a grayscale image, which in step 03 was determined, a controllable filter applied. The dominant orientations are the directions of the controllable filter in which the filter responses significantly accumulate. Such dominant orientations 30 are in 6 indicated.

Schritt 07:step 07 :

Es wird nun angenommen, dass die dominanten Orientierungen 30 in den betrachteten Bildbereichen zu Längsstrukturen gehören, wie etwa zu unmarkierten Fahrbahnrändern oder zu Farbmarkierungen. Unter Verwendung der dominanten Orientierungen und der genannten Annahme kann die Position eines Fluchtpunktes 40 im ersten Bild 1 geschätzt werden. Die Vorgehensweise dabei ist dem Fachmann aus der Veröffentlichung von Rasmussen im Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 , bekannt. Durch die Kamerakalibrierung steht ebenfalls eine Näherung der Lage des Fluchtpunktes 40 bereit. Beide Informationsquellen können in geeigneter Weise berücksichtigt werden, um eine ausreichend genaue Fluchtpunktpositionsschätzung durchzuführen. Die Ermittlung des Fluchtpunktes 40 anhand der dominanten Orientierungen 30 ist in 7 dargestellt.It is now assumed that the dominant orientations 30 in the viewed image areas belong to longitudinal structures, such as unmarked road edges or color markings. Using the dominant orientations and the above assumption, the position of a vanishing point 40 in the first picture 1 to be appreciated. The procedure is the expert from the publication of Rasmussen in the article "Texture-Based Vanishing Point Voting for Road Shape Estimation", published at the "British Machine Vision Conference", 2004 , known. The camera calibration also provides an approximation of the location of the vanishing point 40 ready. Both sources of information may be appropriately taken into account to make a sufficiently accurate vanishing point position estimate. The determination of the vanishing point 40 based on the dominant orientations 30 is in 7 shown.

Schritt 08:step 08 :

Wie in 8 angedeutet ist, können mit Kenntnis des Fluchtpunktes 40 sowie der dominanten Orientierungen 30 die Positionen der Fahrbahnränder eingegrenzt werden. Üblicherweise liegen mögliche Fahrbahnränder dort, wo es Häufungen bestimmter dominanter Orientierungen 30 gibt, die (beziehungsweise deren aproximierte Polynome) sich im Fluchtpunkt 40 schneiden. Das heißt, dass mehrere Fahrbahnrand-Kandidaten 50 durch den Fluchtpunkt 40 gelegt werden. Ist ein Modell einer Farbmarkierung bekannt, verringert sich die Auswahl der Fahrbahnrand-Kandidaten 50. Um den richtigen Kandidaten 50 zu identifizieren, können in der Umgebung der Fahrbahnrand-Kandidaten 50 mithilfe eines Texturfilters Merkmale extrahiert werden, die mittels eines Klassifikators dann in eine der beiden Kategorien „Straße” und „Rand” eingeordnet werden. Dabei werden allen Fahrbahnrand-Kandidaten 50 ihre jeweiligen Klassifikationswahrscheinlichkeiten zugeordnet.As in 8th can be implied, with knowledge of the vanishing point 40 as well as the dominant orientations 30 the positions of the road edges are limited. Usually, possible road edges are where there are clusters of certain dominant orientations 30 There are (or their aproximated polynomials) are in the vanishing point 40 to cut. That is, several roadside candidates 50 through the vanishing point 40 be placed. If a model of a color marking is known, the selection of the lane edge candidates is reduced 50 , To the right candidate 50 can identify in the area of the lane candidate 50 Using a texture filter, you can extract features that are then classified into one of the two categories "street" and "margin" by means of a classifier. This will be all roadside candidates 50 assigned their respective classification probabilities.

Schritt 09:step 09 :

In verschiedenen Entfernungen vor dem Kraftfahrzeug werden Belegungsstrahlen 60 generiert, die auch als eindimensionale Belegungskarten bezeichnet werden können. Dabei handelt es sich um diskrete Gitter, deren Gitterzellen 61 bestimmten Strecken auf der Fahrbahnebene entsprechen. Der Inhalt einer Gitterzelle 61 gibt die Wahrscheinlichkeit ihrer Belegung an. Die Zellengröße bestimmt die Auflösung. Sie sollte bevorzugt weniger als 20 cm betragen. Als Gitterbreite kann das zu erwartende Lateraldistanz-Spektrum (das heißt die zu erwartende Spurbreite) herangezogen werden. Der jeweilige Belegungsstrahl 60 erhält je Gitterzelle 61 die Wahrscheinlichkeit der Fahrbahnrand-Kandidaten 50, die durch die jeweiligen Gitterzellen verlaufen. Dabei werden im Verfahren fortlaufend nicht nur die Gitterzellen 61 aktualisiert, die den Lateral-Abständen der als Rand klassifizierten Kandidaten 50 entsprechen, sondern es werden bevorzugt auch Nachbar-Gitterzellen 61 angepasst. Die Stärke der Anpassung hängt vom verwendeten Unsicherheitsmodell ab, welches zum Beispiel ein Sensormodell oder eine Normalverteilung sein kann. Die Inhalte der Gitterzellen 61 werden jedoch über der Zeit akkumuliert und somit die Aussagekräftigkeit erhöht. In 9 ist dieser Verfahrensschritt angedeutet, bei dem ersichtlich ist, dass die Wahrscheinlichkeits-Verteilung 62 den jeweiligen Gitterzellen 61 für die betreffenden als Rand klassifizierten Kandidaten 51 zugeordnet ist.At various distances in front of the motor vehicle occupancy beams 60 generated, which can also be referred to as one-dimensional occupancy maps. These are discrete lattices whose lattice cells 61 certain routes at the level of the carriageway. The content of a grid cell 61 indicates the probability of their occupancy. The cell size determines the resolution. It should preferably be less than 20 cm. As grating width, the expected lateral distance spectrum (that is, the expected track width) can be used. The respective allocation beam 60 receives per grid cell 61 the likelihood of lane edge candidates 50 passing through the respective grid cells. In this process, not only the grid cells are continuously in the process 61 updated the lateral distances of the candidates classified as edge 50 but it is also preferred neighbor grid cells 61 customized. The degree of adaptation depends on the uncertainty model used, which can be, for example, a sensor model or a normal distribution. The contents of the grid cells 61 however, they are accumulated over time and thus the meaningfulness is increased. In 9 this step is indicated, in which it can be seen that the probability distribution 62 the respective grid cells 61 for the relevant candidates classified as margins 51 assigned.

Schritt 010:step 010 :

Wenn die Abfrage der Spurerkennung ergibt, dass nicht weniger als eine spurbegrenzende Markierung vorhanden ist, wird gemäß Schritt 011 weiterverfahren.If the interrogation of the lane detection reveals that there is not less than one lane-limiting marker, then the step 011 proceed.

Schritt 011:step 011 :

Aus den Belegungsstrahlen 60 wird in Fahrzeughöhe die Spurbreite ermittelt. Dazu wird die Lateraldistanz mit der höchsten Belegungswahrscheinlichkeit mit der Lateraldistanz des Spurmodells der Farbmarkierung verrechnet. Zum Beispiel kann ein Durchschnittswert der ermittelten Werte gebildet werden. Dadurch wird die Spurbreite 65 erhalten, wie sie in 10 dargestellt ist.From the occupancy beams 60 The track width is determined at vehicle height. For this purpose, the lateral distance with the highest occupancy probability is offset with the lateral distance of the trace model of the color marking. For example, an average value of the determined values can be formed. This will change the track width 65 get as they are in 10 is shown.

Schritt 012:step 012 :

Unter Verwendung der ermittelten Spurbreite 65 wird nun das existierende Spurmodell der Farbmarkierung entlang der Fahrzeuglängsachse 63 gespiegelt. Das gespiegelte Modell stellt das gesuchte Spurmodell dar.Using the determined track width 65 Now the existing track model of the color marking along the vehicle longitudinal axis 63 mirrored. The mirrored model represents the searched track model.

Schritt 013:step 013 :

In einem Plausibilisierungsschritt wird mithilfe von Kontextwissen ermittelt, ob die festgestellte Spurmodellkonfiguration bestimmten Erwartungen entspricht. Das heißt, es können Testabfragen gestartet werden, ob bestimmte für die jeweilige Region zutreffende Kriterien erfüllt sind.In a plausibility step, contextual knowledge is used to determine whether the detected track model configuration meets certain expectations. That is, test queries can be started as to whether certain criteria applicable to the particular region are met.

Wenn die im Schritt 010 erfolgte Abfrage ergibt, dass weniger als eine spurbegrenzende Markierung vorhanden ist, wird gemäß Schritt 014 weiterverfahren.When in step 010 If there is a query that there is less than one lane-limiting mark, the step is determined according to step 014 proceed.

Schritt 014:step 014 :

Es werden auf Basis der Belegungsstrahlen 60 Polynome 70 ermittelt, wie es in 11 angedeutet ist. Diese werden so angepasst, dass der mittlere Fehler zu den Maximalbelegungen der Belegungsstrahlen 60 minimal ist. Die Polynome entsprechen im Wesentlichen dem Spurmodell.It will be based on the occupancy beams 60 polynomials 70 determines how it is in 11 is indicated. These are adjusted so that the mean error to the maximum occupancy of the occupancy beams 60 is minimal. The polynomials essentially correspond to the track model.

Schritt 015: step 015 :

In einem Plausibilisierungsschritt wird mithilfe von Kontextwissen ermittelt, ob die festgestellte Spurmodellkonfiguration bestimmten Erwartungen entspricht.In a plausibility step, contextual knowledge is used to determine whether the detected track model configuration meets certain expectations.

Im Ergebnis ist ein Spurmodell 80 ermittelbar, welches auch im ersten Bild 1 darstellbar ist. Auf Basis dieses Spurmodells 80 kann ein Spurhalteassistenz-System sicherheitssteigernd in den Fahrbetrieb eingreifen.The result is a track model 80 ascertainable, which also in the first picture 1 is representable. Based on this track model 80 For example, a lane-keeping assistance system can intervene to increase the safety while driving.

13 zeigt ein Kraftfahrzeug 100 mit einer Kamera 110, die bevorzugt an einem Innenspiegel des Kraftfahrzeuges 100 angeordnet ist. Das Kraftfahrzeug 100 weist ein Spurhalteassistenz-System 120 auf, welches von der Kamera 110 generierte Signale erfindungsgemäß auswertet und in die Fahrzeugsteuerung eingreifen kann. 13 shows a motor vehicle 100 with a camera 110 , which preferably on an interior mirror of the motor vehicle 100 is arranged. The car 100 has a lane departure warning system 120 on which of the camera 110 generated signals evaluated according to the invention and can intervene in the vehicle control.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

Schritte 01 bis 015

01
Spurerkennung für Farbmarkierungen
02
Abfrage: weniger als zwei spurbegrenzende Markierungen? Wenn Ja:
03
Kamerabild, Kalibrierung, CAN-Daten werden zur Verfügung gestellt
04
umgekehrter optischer Fluss
05
Suchbereiche anpassen
06
dominante Orientierungen erfassen
07
Fluchtpunktschätzung
08
Kandidaten-Auswahl
09
Erstellung Belegungsstrahl
010
Abfrage: weniger als eine spurbegrenzende Markierung? Wenn Nein:
011
Erfassung Spurbreite in Fahrzeughöhe
012
Spiegelung
013
Plausibilisierung
014
Modell Fit
015
Plausibilisierung
Steps 01 to 015
01
Track recognition for color markings
02
Query: less than two track-limiting markers? If so:
03
Camera image, calibration, CAN data are provided
04
reverse optical flow
05
Customize search areas
06
capture dominant orientations
07
Vanishing Point Estimate
08
Candidate selection
09
Creation of occupancy beam
010
Query: less than one track-limiting marker? If not:
011
Detecting track width at vehicle height
012
reflection
013
reasonability
014
Fit model
015
reasonability

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2010/0161204 A1 [0003] US 2010/0161204 A1 [0003]
  • US 2009/0296987 A1 [0005] US 2009/0296987 A1 [0005]
  • WO 2005/039957 A1 [0006] WO 2005/039957 A1 [0006]
  • WO 2010/023266 A1 [0007] WO 2010/023266 A1 [0007]
  • WO 2005/040950 A1 [0008] WO 2005/040950 A1 [0008]
  • US 2010/0054538 A1 [0010] US 2010/0054538 A1 [0010]
  • DE 102009044284 [0011] DE 102009044284 [0011]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 [0016] Article "Texture-Based Vanishing Point Voting for Road Shape Estimation" published at the "British Machine Vision Conference", 2004 [0016]
  • Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 [0033] Article "Texture-Based Vanishing Point Voting for Road Shape Estimation" published at the "British Machine Vision Conference", 2004 [0033]
  • Lookingbill, A.; Rogers, J.; Lieb, D.; Curry, J. and Thrun, S. „Reverse Optical Flow for Self-Supervised Adaptive Autonomous Robot Navigation” im International Journal of Computer Vision, Volume 74 Issue 3, September 2007 [0059] Lookingbill, A .; Rogers, J .; Lieb, D .; Curry, J. and Thrun, S. "Reverse Optical Flow for Self-Supervised Adaptive Autonomous Robot Navigation" in the International Journal of Computer Vision, Volume 74 Issue 3, September 2007 [0059]
  • Rasmussen im Artikel ”Texture-Based Vanishing Point Voting for Road Shape Estimation”, publiziert auf der ”British Machine Vision Conference”, 2004 [0062] Rasmussen in the article "Texture-Based Vanishing Point Voting for Road Shape Estimation", published at the "British Machine Vision Conference", 2004 [0062]

Claims (15)

Verfahren zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, zwecks Erstellung eines Spurmodells (80) für ein Kraftfahrzeug (100), umfassend die folgenden Schritte: a) optische Aufnahme eines aktuellen ersten Bildes (1) vor einem Kraftfahrzeug (100), b) Auswahl eines als befahrbar anzunehmenden Bereiches (10) vor dem Kraftfahrzeug (100) auf dem aktuellen ersten Bild (1), c) Auffinden von korrespondierenden Bereichen (11) zu diesem als befahrbar anzunehmenden Bereich (10) in einer bestimmten Anzahl von zuvor aufgenommenen Bildern (2, 3) eines umgekehrten optischen Flusses, d) Auffinden von Entsprechungen (12) zu diesen korrespondierenden Bereichen (11) im aktuellen ersten Bild (1), e) Definition wenigstens eines Suchbereiches (20) anhand der Entsprechungen (12) im aktuellen ersten Bild (1), f) Ermittlung von dominanten Orientierungen (30) innerhalb des Suchbereiches (20) im aktuellen ersten Bild (1), g) Ermittlung wenigstens eines Fluchtpunktes (40) im aktuellen ersten Bild (1) unter Verwendung der dominanten Orientierungen (30), und h) Nutzung des Fluchtpunktes (40) zur Erstellung eines Spurmodells (80).Method for detecting at least one lane edge, in particular an unmarked lane edge, for the purpose of creating a lane model ( 80 ) for a motor vehicle ( 100 ), comprising the following steps: a) optical recording of a current first image ( 1 ) in front of a motor vehicle ( 100 ), b) Selection of an area to be considered passable ( 10 ) in front of the motor vehicle ( 100 ) on the current first picture ( 1 ), c) finding corresponding areas ( 11 ) to this area to be assumed to be passable ( 10 ) in a certain number of previously recorded images ( 2 . 3 ) of a reverse optical flow, d) finding of correspondences ( 12 ) to these corresponding areas ( 11 ) in the current first image ( 1 ), e) definition of at least one search area ( 20 ) based on the correspondences ( 12 ) in the current first image ( 1 ), f) determination of dominant orientations ( 30 ) within the search area ( 20 ) in the current first image ( 1 g) determination of at least one vanishing point ( 40 ) in the current first image (1) using the dominant orientations ( 30 ), and h) use of the vanishing point ( 40 ) for creating a track model ( 80 ). Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 1, dadurch gekennzeichnet, dass bei der Nutzung des Fluchtpunktes (40) zur Erstellung eines Spurmodells (80) die folgenden Schritte durchgeführt werden: i) Definition einer Mehrzahl von durch den Fluchtpunkt (40) verlaufenden Fahrbahnrand-Kandidaten (50), und j) Auswahl wenigstens eines Fahrbahnrand-Kandidaten (50) zur Begrenzung des Spurmodells (80).Method for detecting at least one lane edge according to claim 1, characterized in that when using the vanishing point ( 40 ) for creating a track model ( 80 ) the following steps are performed: i) definition of a plurality of by the vanishing point ( 40 ) running lane candidates ( 50 ), and j) selecting at least one lane edge candidate ( 50 ) for limiting the track model ( 80 ). Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 2, dadurch gekennzeichnet, dass der wenigstens eine Fahrbahnrand-Kandidat (50) dadurch ausgewählt wird, dass den ermittelten Fahrbahnrand-Kandidaten (50) jeweils eine Klassifikationswahrscheinlichkeit der örtlichen Übereinstimmung mit dem tatsächlichen Fahrbahnrand zugeordnet wird, und diese Klassifikationswahrscheinlichkeit zur Erstellung des Spurmodells (80) genutzt wird.Method for detecting at least one lane edge according to claim 2, characterized in that the at least one lane edge candidate ( 50 ) is selected by matching the determined lane edge candidates ( 50 ) is assigned in each case a classification probability of the local agreement with the actual roadway edge, and this classification probability for the generation of the track model ( 80 ) is being used. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 3, dadurch gekennzeichnet, dass die Zuordnung der Klassifikationswahrscheinlichkeit mittels eines Texturfilters und eines Klassifikators erfolgt, wobei der Texturfilter in der Umgebung des jeweiligen Kandidaten Merkmale extrahiert und an den Klassifikator weiterleitet, und der Klassifikator anhand der Merkmale dem jeweiligen Kandidaten eine Klassifikationswahrscheinlichkeit zuordnet.Method for detecting at least one lane edge according to claim 3, characterized in that the assignment of the classification probability by means of a texture filter and a classifier, wherein the texture filter in the environment of the respective candidate extracts features and forwards to the classifier, and the classifier based on the features assigns a classification probability to respective candidates. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 3 und 4, dadurch gekennzeichnet, dass in unterschiedlichen Abständen vor dem Kraftfahrzeug (100) und im Wesentlichen senkrecht zur Kraftfahrzeug-Längsachse (63) verlaufende Belegungsstrahlen (60) definiert werden, die in diskrete Gitterzellen (61) unterteilt sind, und jeder Gitterzelle (61) eine Belegungswahrscheinlichkeit zugeordnet wird, die eine Aussage darüber gibt, inwieweit die Koordinate der jeweiligen Gitterzelle (61) einem tatsächlichen Fahrbahnrand entspricht.Method for detecting at least one roadway edge according to one of claims 3 and 4, characterized in that at different distances in front of the motor vehicle ( 100 ) and substantially perpendicular to the motor vehicle longitudinal axis ( 63 ) occupying beams ( 60 ) which are divided into discrete lattice cells ( 61 ), and each grid cell ( 61 ) an occupancy probability is assigned, which gives a statement about the extent to which the coordinate of the respective grid cell ( 61 ) corresponds to an actual roadway edge. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 5, dadurch gekennzeichnet, dass wenigstens ein nächstes, sich vom ersten Bild unterscheidendes Bild aufgenommen wird und wenigstens die Schritte b) bis h) gemäß Anspruch 1. und gemäß Anspruch 5 basierend auf diesem nächsten Bild wiederholt werden, wobei die einer jeden auf dem aktuellen ersten Bild (1) basierenden Gitterzelle (61) zugeordnete Wahrscheinlichkeit mit der Wahrscheinlichkeit verrechnet wird, die basierend auf einem nächsten Bild (2, 3) ermittelt wird.Method for detecting at least one lane edge according to claim 5, characterized in that at least one next image different from the first image is taken and at least steps b) to h) according to claim 1 and according to claim 5 are repeated based on said next image where each one on the current first image ( 1 ) based grid cell ( 61 ) is miscalculated with probability based on a next image ( 2 . 3 ) is determined. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 6, dadurch gekennzeichnet, dass die für ein Bild zu ermittelnden Gesamt-Wahrscheinlichkeiten der Gitterzellen (61) derart gewonnen werden, dass für jeden definierten Belegungsstrahl (60) und jeden als Rand klassifizierten Kandidaten (50) die folgenden Schritte durchgeführt werden: a) die der longitudinalen Entfernung des Belegungsstrahls (60) vom Kraftfahrzeug (100) zugehörige Lateralentfernung von der Kraftfahrzeug-Längsachse (63) wird ermittelt; b) die der ermittelten Lateralentfernung entsprechende Gitterzelle (61) auf dem Belegungsstrahl (60) wird identifiziert; und c) die Belegungswahrscheinlichkeit dieser Gitterzelle (61) um einen Wert wird erhöht, der sich proportional zur Anzahl des Auftretens dieser Gitterzellenkoordinate verhält, und der entsprechend der Klassifikationswahrscheinlichkeit gewichtet wird.Method for detecting at least one lane edge according to claim 6, characterized in that the total probabilities of the grid cells ( 61 ) are obtained such that for each defined occupancy beam ( 60 ) and each candidate classified as a border ( 50 ) the following steps are carried out: a) the longitudinal removal of the occupation beam ( 60 ) from the motor vehicle ( 100 ) associated lateral distance from the motor vehicle longitudinal axis ( 63 ) is determined; b) the grid cell corresponding to the determined lateral distance ( 61 ) on the occupancy beam ( 60 ) is identified; and c) the occupancy probability of this grid cell ( 61 ) is increased by a value which is proportional to the number of occurrences of this grid cell coordinate and which is weighted according to the classification probability. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass bei Erkennung einer Fahrbahnmarkierung an lediglich einer Seite des Kraftfahrzeuges (100) deren Distanz in lateraler Richtung bestimmt wird und diese mit der Distanz der Gitterzelle (61) mit der höchsten Wahrscheinlichkeit zu einem Spurmodell (80) verrechnet wird.Method for detecting at least one lane edge according to one of Claims 5 to 7, characterized in that, when a lane marking is recognized on only one side of the motor vehicle ( 100 ) whose distance in the lateral direction is determined and this with the distance of the grid cell ( 61 ) with the highest probability to a track model ( 80 ) is charged. Verfahren zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass bei keiner Erkennung einer Fahrbahnmarkierung an einer Seite des Kraftfahrzeuges (100) basierend auf den Gitterzellen (61) mit der höchsten Wahrscheinlichkeit Polynome (70) generiert werden, die ein Spurmodell (80) ergeben.Method for detecting at least one lane edge according to one of claims 5 to 7, characterized in that when there is no recognition of a lane marking on one side of the motor vehicle ( 100 ) based on the grid cells ( 61 ) with the highest probability polynomials ( 70 ), which is a track model ( 80 ). Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, zwecks Erstellung eines Spurmodells (80) für ein Kraftfahrzeug (100), wobei die Einrichtung wenigstens eine Kamera (110) zur Aufnahme eines aktuellen ersten Bildes (1) vor dem Kraftfahrzeug (100), eine Auswahleinrichtung zur Auswahl eines als befahrbar anzunehmenden Bereiches (10) vor dem Kraftfahrzeug (100), eine Einrichtung zur Erzeugung eines umgekehrten optischen Flusses von zuvor aufgenommenen Bildern (2, 3), eine erste Sucheinrichtung zum Auffinden von korrespondierenden Bereichen (11) zu dem als befahrbar anzunehmenden Bereich (10) in Bildern des umgekehrten optischen Flusses, eine zweite Sucheinrichtung zum Auffinden von Entsprechungen (12) zu diesen korrespondierenden Bereichen (11) im aktuellen ersten Bild (1), eine Definitionseinrichtung zur Definition eines Suchbereiches (20) anhand der Entsprechungen (12), eine erste Ermittlungseinrichtung zur Ermittlung von dominanten Orientierungen (30) innerhalb des Suchbereiches (20), eine zweite Ermittlungseinrichtung zur Ermittlung wenigstens eines Fluchtpunktes (40) im aktuellen ersten Bild (1) unter Verwendung der dominanten Orientierungen (30), und eine Recheneinheit zur Erstellung eines Spurmodells (80) unter Nutzung des Fluchtpunktes (40) umfasst.Device for detecting at least one lane edge, in particular an unmarked lane edge, for the purpose of creating a lane model ( 80 ) for a motor vehicle ( 100 ), wherein the device has at least one camera ( 110 ) for taking a current first image ( 1 ) in front of the motor vehicle ( 100 ), a selection device for selecting an area to be assumed to be passable ( 10 ) in front of the motor vehicle ( 100 ) means for generating a reverse optical flow of previously acquired images ( 2 . 3 ), a first search device for finding corresponding areas ( 11 ) to the area assumed to be passable ( 10 ) in images of the reverse optical flow, a second search device for finding correspondences ( 12 ) to these corresponding areas ( 11 ) in the current first image (1), a definition device for defining a search area ( 20 ) based on the correspondences ( 12 ), a first determination device for determining dominant orientations ( 30 ) within the search area ( 20 ), a second determination device for determining at least one vanishing point ( 40 ) in the current first image (1) using the dominant orientations ( 30 ), and a computing unit for creating a track model ( 80 ) using the vanishing point ( 40 ). Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes nach Anspruch 10, dadurch gekennzeichnet, dass die Auswahleinrichtung, die Einrichtung zur Erzeugung eines umgekehrten optischen Flusses, die erste und/oder zweite Sucheinrichtung, die Definitionseinrichtung, die erste und/oder zweite Ermittlungseinrichtung und/oder die Recheneinheit Bestandteile einer rechnergestützten Steuerungseinheit sind.Means for detecting at least one lane edge according to claim 10, characterized in that the selection means, the means for generating a reverse optical flow, the first and / or second search means, the definition means, the first and / or second detection means and / or the computing unit components a computerized control unit. Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 10 und 11, dadurch gekennzeichnet, dass die Kamera (110) eine monokulare Kamera (110) ist.Device for detecting at least one lane edge according to one of Claims 10 and 11, characterized in that the camera ( 110 ) a monocular camera ( 110 ). Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass diese weiterhin einen steuerbaren Filter aufweist.Means for detecting at least one lane edge according to one of claims 10 to 12, characterized in that it further comprises a controllable filter. Kraftfahrzeug (100), umfassend eine Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes nach einem der Ansprüche 10 bis 13 zwecks Erstellung eines Spurmodells (80) für das Kraftfahrzeug (100).Motor vehicle ( 100 ), comprising means for detecting at least one lane edge according to any one of claims 10 to 13 for the purpose of creating a lane model ( 80 ) for the motor vehicle ( 100 ). Kraftfahrzeug nach Anspruch 14, dadurch gekennzeichnet, dass es weiterhin ein Spurhalteassistenz-System (120) aufweist, welches signaltechnisch mit der Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes verbunden ist.Motor vehicle according to claim 14, characterized in that it further comprises a lane keeping assistance system ( 120 ), which is technically connected to the device for detecting at least one lane edge.
DE201210008780 2012-04-28 2012-04-28 Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model Granted DE102012008780A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210008780 DE102012008780A1 (en) 2012-04-28 2012-04-28 Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210008780 DE102012008780A1 (en) 2012-04-28 2012-04-28 Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model

Publications (1)

Publication Number Publication Date
DE102012008780A1 true DE102012008780A1 (en) 2013-10-31

Family

ID=49323070

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210008780 Granted DE102012008780A1 (en) 2012-04-28 2012-04-28 Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model

Country Status (1)

Country Link
DE (1) DE102012008780A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223259A1 (en) 2014-11-14 2016-05-19 Conti Temic Microelectronic Gmbh Method for estimating the lane course of a roadway
DE102021132924A1 (en) 2021-12-14 2023-06-15 Valeo Schalter Und Sensoren Gmbh METHOD OF OPERATING A VEHICLE, COMPUTER PROGRAM, CONTROL SYSTEM AND VEHICLE

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4124654A1 (en) * 1991-07-25 1993-01-28 Bundesrep Deutschland Continuous automatic vehicle orientation on road - using monocular image and modelling to estimate road curvature and width from geometry and dynamic aspects of scene
EP0361914B1 (en) * 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
US5555312A (en) * 1993-06-25 1996-09-10 Fujitsu Limited Automobile apparatus for road lane and vehicle ahead detection and ranging
EP1089231A2 (en) * 1999-09-22 2001-04-04 Fuji Jukogyo Kabushiki Kaisha Lane marker recognizing apparatus
WO2005040950A1 (en) 2003-09-30 2005-05-06 Robert Bosch Gmbh Method and device for lane recognition for a vehicle
WO2005039957A1 (en) 2003-10-24 2005-05-06 Robert Bosch Gmbh Driver assist method and device based on lane information
EP1057141B1 (en) * 1998-02-27 2005-08-24 Lucas Industries Limited Road profile detection
US20090296987A1 (en) 2008-05-27 2009-12-03 Toyota Jidosha Kabushiki Kaisha Road lane boundary detection system and road lane boundary detecting method
US20100054538A1 (en) 2007-01-23 2010-03-04 Valeo Schalter Und Sensoren Gmbh Method and system for universal lane boundary detection
WO2010023266A1 (en) 2008-09-01 2010-03-04 Robert Bosch Gmbh Device and method for stabilizing a lane keeping support system
DE102009044284A1 (en) 2008-10-22 2010-04-29 Continental Teves Ag & Co. Ohg Lane detection method for driver assistance system in vehicle, involves determining multiple image characteristics, detecting lanes based on determined image characteristics, and determining contrast leaps in images
US20100161204A1 (en) 2008-12-23 2010-06-24 National Chiao Tung University Method for identification of traffic lane boundary

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0361914B1 (en) * 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
DE4124654A1 (en) * 1991-07-25 1993-01-28 Bundesrep Deutschland Continuous automatic vehicle orientation on road - using monocular image and modelling to estimate road curvature and width from geometry and dynamic aspects of scene
US5555312A (en) * 1993-06-25 1996-09-10 Fujitsu Limited Automobile apparatus for road lane and vehicle ahead detection and ranging
EP1057141B1 (en) * 1998-02-27 2005-08-24 Lucas Industries Limited Road profile detection
EP1089231A2 (en) * 1999-09-22 2001-04-04 Fuji Jukogyo Kabushiki Kaisha Lane marker recognizing apparatus
WO2005040950A1 (en) 2003-09-30 2005-05-06 Robert Bosch Gmbh Method and device for lane recognition for a vehicle
WO2005039957A1 (en) 2003-10-24 2005-05-06 Robert Bosch Gmbh Driver assist method and device based on lane information
US20100054538A1 (en) 2007-01-23 2010-03-04 Valeo Schalter Und Sensoren Gmbh Method and system for universal lane boundary detection
US20090296987A1 (en) 2008-05-27 2009-12-03 Toyota Jidosha Kabushiki Kaisha Road lane boundary detection system and road lane boundary detecting method
WO2010023266A1 (en) 2008-09-01 2010-03-04 Robert Bosch Gmbh Device and method for stabilizing a lane keeping support system
DE102009044284A1 (en) 2008-10-22 2010-04-29 Continental Teves Ag & Co. Ohg Lane detection method for driver assistance system in vehicle, involves determining multiple image characteristics, detecting lanes based on determined image characteristics, and determining contrast leaps in images
US20100161204A1 (en) 2008-12-23 2010-06-24 National Chiao Tung University Method for identification of traffic lane boundary

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Artikel "Texture-Based Vanishing Point Voting for Road Shape Estimation", publiziert auf der "British Machine Vision Conference", 2004
Lookingbill, A.; Rogers, J.; Lieb, D.; Curry, J. and Thrun, S. "Reverse Optical Flow for Self-Supervised Adaptive Autonomous Robot Navigation" im International Journal of Computer Vision, Volume 74 Issue 3, September 2007
Rasmussen im Artikel "Texture-Based Vanishing Point Voting for Road Shape Estimation", publiziert auf der "British Machine Vision Conference", 2004

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223259A1 (en) 2014-11-14 2016-05-19 Conti Temic Microelectronic Gmbh Method for estimating the lane course of a roadway
DE102014223259B4 (en) 2014-11-14 2021-10-14 Conti Temic Microelectronic Gmbh Method for estimating the course of a lane in a lane
DE102021132924A1 (en) 2021-12-14 2023-06-15 Valeo Schalter Und Sensoren Gmbh METHOD OF OPERATING A VEHICLE, COMPUTER PROGRAM, CONTROL SYSTEM AND VEHICLE

Similar Documents

Publication Publication Date Title
DE102013205952B4 (en) Reconfigurable system and method for the detection of a free path
EP2888604B1 (en) Method for determining the course of a lane for a vehicle
DE112014002019B4 (en) Waveform modeling device, vehicle information processing system, waveform modeling method and waveform modeling program
DE102013208521A1 (en) Collective learning of a highly accurate road model
EP2116958B1 (en) Method and device for calculating the drive path in the area in front of a vehicle
DE102018111935A1 (en) Image processing system, image processing method, information processing apparatus and recording medium
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
DE102014212866A1 (en) Method for determining a parking space from a number of measuring points
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
DE102019008093A1 (en) Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
DE102018123393A1 (en) Detection of parking areas
DE102018211368A1 (en) A method of describing an environment of a vehicle through the topology of the busy road
DE102018220114A1 (en) Device and method for detecting a sensor blockage of an environmental sensor
DE102017221839A1 (en) Method for determining the position of a vehicle, control unit and vehicle
DE102014223259B4 (en) Method for estimating the course of a lane in a lane
EP3809316A1 (en) Prediction of a road route based on radar data
DE102012008780A1 (en) Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model
DE102015204529A1 (en) Method and device for object recognition in a means of transportation
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object
DE102022000849A1 (en) Method for generating an environment representation for a vehicle
DE102021005933A1 (en) Method for detecting a lane course using a LIDAR and vehicle
DE112021001817T5 (en) MAP UPDATE DEVICE AND MAP UPDATE PROGRAM
DE112021000482T5 (en) DETECTION OF FOREIGN OBJECTS IN A VEHICLE PATHWAY

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0020560000

R016 Response to examination communication
R018 Grant decision by examination section/examining division