OSE - Objekt - und Spurerkennung: Unterschied zwischen den Versionen

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen
 
(355 dazwischenliegende Versionen von 18 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
<!-- Kopieren Sie diesen Header in Ihren Artikel, damit er aufgelistet wird.  -->
'''Autoren:''' Hendrik Steffen, Sven Posner <br/>
'''Betreuer:''' [[Benutzer:Ulrich_Schneider| Prof. Schneider]]<br/>
<br>
→ zurück zum Hauptartikel: [[Praktikum SDE]] <br>
<br>


= Aufbau dieser Seite=


=Einleitung=
Dieser Artikel ist eine Übersichtsseite, in der auf alle relevanten Artikel zur Objekt und Spurerkennung verwiesen wird. <br>
Diese Seite soll, insbesondere einem neuen Jahrgang als Einstieg und Orientierung dienen und die hier beschriebenen Softwarestände sollen mit denen im SVN Archiv übereinstimmen. <br>
''' Alle Links und Informationen auf dieser Seite bitte aktuell halten''' <br>


= '''OSE Softwareumgebung'''=
In diesem Artikel wird der aktuelle Softwarestand detailliert beschrieben
<br>
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]] [https://wiki.hshl.de/wiki/index.php/OSE_Softwareumgebung Aktuelle Softwareumgebung für das OSE-Programm]


=Anforderungen des Lastenheftes=
= VRmagic Kamera einrichten =
In diesem Artikel befinden sich Erläuterungen wie die VRmagic Kamera auf dem Fahrzeug benutzt werden kann.<br>
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]]  [https://wiki.hshl.de/wiki/index.php/Inbetriebnahme_der_VRmagic_Kamera Inbetriebnahme der VRmagic Kamera]


Hier angegeben sind die Requirements, die das Team OSE aus dem Lastenheft ableitet. Dabei sind die beiden Punkte aus dem Lastenheft rot bzw. blau hinterlegt. Aus diesen abgeleitete Anforderungen sind in hellblau bzw. hellrot dargestellt. Gleichfarbige Anforderungen deuten daraufhin, dass diese Punkte zu einem gemeinsamen Meilenstein gehören.  
= Open CV installation =
In diesem Artikel wird die Einbindung der OpenCV Bibliotheken in ein Visual Studio Programm beschrieben.
<br>
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]] [https://wiki.hshl.de/wiki/index.php/Einrichten_von_OpenCV_in_Visual_Studio Installation von OpenCV in Visual Studio]
= Objekterkennung mit dem Hokuyo LiDAR vom WS2022/2023=
In diesem Artikel befinden sich Erläuterungen und Dokumentationen für die Verwendung des Hokuyo LiDARs.<br>
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]]  [https://wiki.hshl.de/wiki/index.php/OSE_Hokuyo-Lidar_Objekterkennung OSE Hokuyo-LiDAR Objekterkennung]


[[Datei:Pflichtenheft 1.png|left]]
= Test =
[[Datei:Pflichtenheft 2.png|left]]
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]][[OSE - Objekt - und Spurerkennung: Test der Spurparameter-Ermittlung in der Simulation]]
[[Datei:Pflichtenheft 3.png|left]]


'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]][[OSE - Objekt - und Spurerkennung: Test der Spurparameter-Ermittlung am Fahrzeug]]




<br><br><br><br><br><br><br>


= Veraltete Softwarestände und Artikel =


In diesem Abschnitt folgen veraltete Wiki Artikel zu Softwareständen, die nicht mehr existieren. <br>
Die Softwarestände wurden mit Revison 6746 aus dem SVN Archiv gelöscht


<div class="mw-collapsible mw-collapsed">


== Alter LiDAR-Wiki Artikel ==
'''Hier gehts zu Artikel'''    [[Datei:Ezgif-3-aa149494be25.gif]]  [https://wiki.hshl.de/wiki/index.php/Objekterkennung_mit_Laserscanner Hokuyo LiDAR Objekterkennung (alt)]


== Kamerakalibrierung ==


'''Neuer Ansatz incl. extrinsische Kalibrierung'''


In diesem Artikel wird die intrinsische und extrinsische Kalibrierung der Kamera beschrieben. Dazu wird die OpenCV Bibliothek in einem C/C++ Programm verwendet.<br>
'''Hier gehts zu Artikel'''    [https://wiki.hshl.de/wiki/index.php/Kalibrierung_der_Kamera Kalibrierung der Kamera]


'''Alter Ansatz'''


In diesem Artikel findet sich die Beschreibung wie die Kameraparameter bestimmt werden können. Als Tool wird hier die Camera Calibrator Toolbox von Matlab verwendet.
<br>
'''Hier gehts zu Artikel'''      [https://wiki.hshl.de/wiki/index.php/Kameraparametrierung Kameraparametrierung]


== Draufsichterstellung ==
In diesem Artikel wird die Draufsichterstellung für das Fahrzeug erläutert.
<br>
'''Hier gehts zu Artikel'''  [https://wiki.hshl.de/wiki/index.php/Draufsichterstellung Draufsicht]


== Fahrspurerkennung ==
In diesem Artikel ist die Fahrspurerkennung dokumentiert, welche momentan auf dem Fahrzeug implementiert ist.
<br>
'''Hier gehts zu Artikel'''    [https://wiki.hshl.de/wiki/index.php/Fahrspurerkennung Fahrspurerkennung]


== Berechnung des Spurpolynoms ==
Dieser beschreibt die Berechnung des Spurpolynoms in Matlab und den Aufruf des in C/C++ generierten Codes.
<br>
'''Hier gehts zu Artikel'''    [https://wiki.hshl.de/wiki/index.php/Berechnung_des_Spurpolynoms#Link_zum_Quelltext_und_zum_Komponententest_in_SVN Berechnung des Spurpolynoms]


== Übertragen des Spurpolynoms ==
In diesem Artikel ist die Kommunikation zwischen dSpace Karte und Computer über die RS232, zur Übertragung des Spurpolynoms, dargestellt.
<br>
'''Hier gehts zu Artikel'''      [https://wiki.hshl.de/wiki/index.php/Übertragen_des_Spurpolynoms#Link_zum_Quelltext_und_zum_Komponententest_in_SVN Übertragen des Spurpolynoms]


== Simulationsumgebung für die Objekt- und Spurerkennung  ==
In diesem Artikel wird die Simulationsumgebung für die Objekt- und Spurerkennung vorgestellt.
<br>
'''Hier gehts zu Artikel'''    [https://wiki.hshl.de/wiki/index.php/Simulationsumgebung_für_die_Objekt-_und_Spurerkennung Simulationsumgebung für die Objekt- und Spurerkennung]


== Stopplinienerkennung  ==
In diesem Artikel wird die Stopplinienerkennung vorgestellt.
<br>
'''Hier gehts zu Artikel'''      [https://wiki.hshl.de/wiki/index.php/Stopplinienerkennung_mit_Hough-Transformation Stopplinienerkennung]


</div>


=Archiv bisheriger Arbeit (sehr alte Artikel) =
<div class="mw-collapsible mw-collapsed">
== [[Alter Ansatz OSE-Objekt- und Spurerkennung]] ==
== [[Zentralperspektive "Umrechnung von Bild- zu Weltkoordinaten"]] (aktuell verwendeter Ansatz) ==


 
== [[Spurerkennung]] (vorheriger Ansatz) ==
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
=Projektplan=
 
[[Datei:Projektplan.png]]
 
=Zentralperspektive=
===Allgemein===
Die Zentralprojektion wird genutzt, um 3-dimensionale Objekte im 2-dimensionalen Raum abzubilden. Dadurch werden Bilder erzeugt, die der Wahrnehmung des menschlichen Auges entsprechen oder mit einer Kamera fotografierten Szenerie. Das Bild entsteht durch die Projektion von einem 3-dimensionalen Gegenstand auf eine Ebene von einem Punkt ausgeht.
 
===Einsatz  im Carolo Cup Fahrzeug===
Das Carolo Cup Auto fährt auf einer 820 mm breiten Straße, die Mittellinie ist gestrichelt.
Die Segmente der Linie sind 200 mm lang und 20 mm breit. Sie folgen im Abstand von 200 mm aufeinander.
Die Kamera filmt die Fahrt des Fahrzeugs aus einer festgelegten Perspektive und die Blickrichtung der Kamera ist fest in Fahrtrichtung.(Carolo Cup Regelwerg)<br />
[[Datei:Strecken_aufbau.png]]
 
 
Die Umrechnung zwischen Bild- und Weltkoordinaten ist notwendig um die Spuren zu verifizieren.
Für die Umrechnung von Bild- in Weltkoordinaten wurde mit Hilfe der festen Perspektive eine Funktion
bild_zu_welt.m in Matlab aufgebaut. --> function [ w_kordinaten ] = bild_zu_welt( b_kordinaten)
 
Diese Funktion rechnet Bildkoordinaten in Weltkoordinaten um.
Die Eingabe b_kordinaten und Ausgabe w_kordinaten sind (2; n)-Matrizen.
Der Nullpunkt in Weltkoordinaten besitzt im Bildkoordinatensystem die Koordinaten (376;478),
die y-Achse verläuft von rechts nach links am unteren Bildrand, und die x-Achse verläuft auf der Bildspalte 376 von unten nach oben.<br />
[[Datei:Koordinatensystem_im_Bild.png]]
 
===Die Funktion in Matlab===
 
Zu erst werden die Punkte der linken Geraden und der rechten Geraden gesetzt. Um die Abstände und zugehörigen Weltkoordinaten bestimmen zu können, wurde das Fahrzeug vor einem Schachbrettmuster positioniert.
 
<br />
<code>
%Vier Punkte <br />
p_b_l1 = [165; 310]; <br />
p_b_l2 = [280 ; 217];<br />
p_b_r1 = [585; 310]; <br />
p_b_r2 = [470 ;217]; <br />
</code>
<br />
 
Danach wird der Fokuspunkt ermittelt. Das ist der Punkt, in dem sich alle parallelen vertikalen Linien schneiden. Um die Gerade des Horizonts zu bestimmen, wird ein Punkt auf der Höhe des Fokuspunktes erzeugt.
 
<br />
<code>
% Linke Gerade (l1 - l2) mit rechter Geraden (r1-r2) scneiden --> Fokuspunkt<br />
fokus_p = schneide(p_b_l1,p_b_l2,p_b_r1,p_b_r2);<br />
% Zweiten Punkt auf der Höhe des Fokus erzeugen      <br />
horizont_hilfspunkt = [p_b_l1(1,1);fokus_p(2,1)];    <br />
</code>
<br />
 
[[Datei:Zentralperspektive_Punkte.png]]
<br />
<code>
% waagerechter Schnitt mit linker Begrenzung <br />
P = schneide(p_b_l1, p_b_l2, b_kordinaten, b_kordinaten-[10.0;0.0]);  <br />
% Nullpunkt der y-Achse ist die Bildmitte <br />
y = 2*168*(b_kordinaten(1)-XS/2.0)/(P(1)-XS/2.0);<br />
</code>
<br />
 
Um die Y-Weltkoordinate zu berechnen wird ein Parallele zum Horizont auf der Höhe des gesuchten Punkts gezogen.
Der entstandene Schnittpunkt  mit der L1/L2 Geraden (linke Begrenzung) wird in P gespeichert.
Es wird ein Verhältnis aus P und dem gesuchten Punkt aufgestellt und mit der Breite von 2 Sachbrettfeldern multipliziert.
 
<br />
[[Datei:Zentralperspektive_Punkte_y_Koordinate.png]]
<br />
<code>
% Abstände Berechnen <br />
% Maßstab für Höhe im Bild <br />
M1 = [378; 311]; <br />
M2 = [378; 283]; <br />
% Abstand von der Höhe eines Schachbrettfeldes zwischen M1 und M2  in der Mitte der Straße --> Lineal auf bauen <br />
masstab = norm(schneide_Test(horizont_hilfspunkt, M1, [XS/2; YS], [XS/2+10; YS]) - schneide_Test(horizont_hilfspunkt, M2, [XS/2; YS], [XS/2+10; YS]));<br />
R = schneide_Test(horizont_hilfspunkt, P, [XS/2; YS], [XS/2+10; YS]); % Schnittpunkt von HP<->P auf der x-Achse<br />
x = (R(1)-p_b_l1(1))/masstab*168;<br />
w_kordinaten = [x,y];<br />
end<br />
 
</code>
 
Die X-Weltkoordinate wird mit Hilfe der bekannten Höhe eines Schachbrettfeldes berechnet. Die Punkte M1 und M2 liegen auf der Mittelelinie und auf den Eckpunkten eines Schachbrettfeldes.
Mit Hilfe des Horizontpunktes werden 2 Geraden erzeugt, die Schnittpunkte mit der Bildunterkante bilden. Der Abstand zwischen den Schnittpunkten dient als Maßstab. Ein weiterer Schnittpunkt wird aus der Geraden Horizontpunkt P und der Bildkante gebildet. Aus diesem Punkt R wird die X-Koordinate berechnet.
 
[[Datei:Zentralperspektive_Punkte_x_Koordinate.png]]
 
===Die Funktion in C===
 
Um die Matlab Funktion bild_zu_welt.m in C Code umzusetzen, wurde der Matlab Coder verwendet.
Aus diesem Grund unterscheidet sich der verwendete C-Code nur minimal von dem Matlab-Code und kann mit der obigen Beschreibung nachvollzogen werden.
Eine Anleitung zum  erzeugen von C Code mit Hilfe von Matlab am Beispiel dieser Funktion findet sich hier [[Von Matlab zu C Code]]
 
=Inverse Perspective Mapping=
Bei der Verwendung einer Kamera zur Fahrspurerkennung ergibt sich immer das Problem der perspektischen Verzerrung. Grund dafür ist, dass bei der Projektion aus dem 3D-Weltkoordinatensystem in das 2D-Koordinatensystem des Bildes Information verloren gehen. Das Inverse Perspective Mapping (IPM) bietet eine Möglichkeit die verloren gegangenen Daten zu rekonstruieren und das Bild in entzerrter Vogelperspektive darzustellen.
 
[[Datei:SDE IPM.png|left]]
 
Dabei wird das Bild unter Verwendung von geometrischen Beziehungen aus dem Weltkoodinatensystem W = {(x,y,z)} in ein volgelperspektivisches Bild I = {(u,v)} transformiert. Dabei ist die die y-Komponente, wie auch in der Abbildung zu sehen ist, stets 0. Das liegt daran das eindeutige Zuordnung der Punkte nicht ohne Weiteres möglich, da schließlich Informationen verloren gegangen sind. Da hierbei Straßenlinien gefunden werden sollen, kann die Annahme getroffen, dass alle Punkte auf dem Boden und damit auf y = 0 liegen müssen.
Im Fall nicht ebenen Straßen gilt diese Annahme nicht und fürht daher zu Fehlern. Das bedeutet, dass das IPM beispielsweise bei Straßen in Gebirgen nicht geeignet ist. Auch möglicherweise vor einem fahrende andere Fahrzeuge liegen nicht in der Bodenebene und sind in der Vogelperspektive verzerrt dargestellt. Der Abstand zu ihnen kann aber bestimmt werden.
Außerdem müssen damit das IPM fehlerfrei funktioniert noch andere Anforderungen erfüllt sein. Position und Ausrichtung der Kamera müssen bekannt sein und es muss der Punkt auf dem Horizont fokussiert werden in dem sich die Fahrspuren zu schneiden scheinen, was wiederum erfordert, dass die Straße in der Mitte des Bildes liegt. Ist das nicht der Fall erhält man keine einwandfreien Ergebnisse, da die Straße immer noch eine perspektivische Verzerrung aufweist.
 
 
 
 
 
 
 
 
 
Ein Beispiel für gutes Ergebnis des IPM ist in Abbildung 1 zu sehen. [1]
[[Datei:SED IPM2.png|400px|thumb|center|Abbildung 1: Straße aus Vogelperspektive]]
 
=Operatoren zur Kantenerkennung im Vergleich=
 
[[Datei:Kantenerkennung operatoren.png]]
 
=Projekttagebuch=
 
KW18:
- Kalibrierroutine vereinfacht und halbautomatisiert
- Dokumentation für einfache und schnelle Kalibrierung erstellt
 
KW19:
- Kommunikation mit Spurführungs-Team geklärt
- Übergabe eines Polynoms 2. Grades in Form von 3 Parametern
 
KW20:
- Fertigstellung des Spurpolynoms in Matlab
- Einarbeitung in die Umsetzung in C
 
KW22:
- Inbetriebnahme der Spurerkennung auf dem PC
- Herausarbeiten der Unterschiede der Ansätze
- Trafo in körperfestes Koordinatensystem (Schnittstellendokumentation, Matlab)
 
KW24:
- Polynom mit in Ausgabe im Video übernehmen
- Ausführlich Kommentierung
- Dokumentieren der Zentralperspektive im Vergleich zur Koordinatentransformation   
 
KW25:
- Dokumentation im Mechatronik Wiki
- Vorbereitung Meilensteinpräsentation
 
=Quellen weiterführende Links=
[1] SVN\SDE_Praktikum\Literatur\Inverse Perspective Transformation: ipm_paper_direkt<br />
"Decomposing and composing a 3×3 rotation matrix" [http://nghiaho.com/?page_id=846]<br />
"Grundlegende mathematische Verfahren der 3D-Visualisierung"[http://www.3dsource.de/deutsch/3Dmathe.htm]<br />
"Caltech Lane Detection Software"[http://vision.caltech.edu/malaa/software/research/caltech-lane-detection/]<br />
"Rekonstruktion 3D - Koordinaten aus Kamerabild"[http://www.gomatlab.de/rekonstruktion-3d-koordinaten-aus-kamerabild-mit-nebenbed-t24440.html]<br />
 
= Fazit & Ausblick =
Das Carolo-Cup Fahrzeug ist nun in der Lage die Fahrspur zu erkennen und zu tracken. Allerdings liegen noch Abstimmungsprobleme vor, die bisher verhindern, dass das ermittelte Spurpolynom an die Bahn -und Spurfürhrung übergeben wird. Der Spursuchealgorithmus verwendet nun einen zentralperspektivischen Ansatz, um die gefundenen Spurdaten in das körperfeste Koordinatensystem zu überführen, da dieser zuverlässigere und vor allem plausiblere Ergebnisse lieferte als die bisher genutzte Koordinatentransformation.
Die nächsten Schritte bestehen darin die Probleme bei der Übertragung der Spurdaten zu lösen, den Status der Objekterkennung zu überprüfen und diese in Betrieb zu nehmen.
 
 
== Feedback zum Artikel ==
 
 
--[[Benutzer:Mirekgoebel|Prof. Dr. Mirek Göbel]] ([[Benutzer Diskussion:Mirekgoebel|Diskussion]]) 13:54, 8. Aug. 2014 (CEST)
* Projektplan etc. nichts ins Wiki!
* Originaldaten der Bilder fehlen (zum ggf. Nacharbeiten)
 
=Archiv bisheriger Arbeit =
== [[Spurerkennung]] ==
== [[Objekterkennung mit Laserscanner]] ==
== [[Objekterkennung mit Laserscanner]] ==
== [http://193.175.248.52/wiki/index.php/Objekterkennung_mit_RP_Lidar_A1M8 Objekterkennung mit RP Lidar A1M8] ==


== [[Objekterkennung mit Kamera]] ==
== [[Objekterkennung mit Kamera]] ==


</div>


= Einzelnachweise =
<references/>


----
----
→ zurück zum Hauptartikel: [[Praktikum_SDE|Praktikum SDE]]
→ zurück zum Hauptartikel: [[Praktikum_SDE|Praktikum SDE]]

Aktuelle Version vom 11. Januar 2023, 09:18 Uhr

Autoren: Hendrik Steffen, Sven Posner
Betreuer: Prof. Schneider

→ zurück zum Hauptartikel: Praktikum SDE

Aufbau dieser Seite

Dieser Artikel ist eine Übersichtsseite, in der auf alle relevanten Artikel zur Objekt und Spurerkennung verwiesen wird.
Diese Seite soll, insbesondere einem neuen Jahrgang als Einstieg und Orientierung dienen und die hier beschriebenen Softwarestände sollen mit denen im SVN Archiv übereinstimmen.
Alle Links und Informationen auf dieser Seite bitte aktuell halten

OSE Softwareumgebung

In diesem Artikel wird der aktuelle Softwarestand detailliert beschrieben
Hier gehts zu Artikel Aktuelle Softwareumgebung für das OSE-Programm

VRmagic Kamera einrichten

In diesem Artikel befinden sich Erläuterungen wie die VRmagic Kamera auf dem Fahrzeug benutzt werden kann.
Hier gehts zu Artikel Inbetriebnahme der VRmagic Kamera

Open CV installation

In diesem Artikel wird die Einbindung der OpenCV Bibliotheken in ein Visual Studio Programm beschrieben.
Hier gehts zu Artikel Installation von OpenCV in Visual Studio

Objekterkennung mit dem Hokuyo LiDAR vom WS2022/2023

In diesem Artikel befinden sich Erläuterungen und Dokumentationen für die Verwendung des Hokuyo LiDARs.
Hier gehts zu Artikel OSE Hokuyo-LiDAR Objekterkennung

Test

Hier gehts zu Artikel OSE - Objekt - und Spurerkennung: Test der Spurparameter-Ermittlung in der Simulation

Hier gehts zu Artikel OSE - Objekt - und Spurerkennung: Test der Spurparameter-Ermittlung am Fahrzeug









Veraltete Softwarestände und Artikel

In diesem Abschnitt folgen veraltete Wiki Artikel zu Softwareständen, die nicht mehr existieren.
Die Softwarestände wurden mit Revison 6746 aus dem SVN Archiv gelöscht

Alter LiDAR-Wiki Artikel

Hier gehts zu Artikel Hokuyo LiDAR Objekterkennung (alt)

Kamerakalibrierung

Neuer Ansatz incl. extrinsische Kalibrierung

In diesem Artikel wird die intrinsische und extrinsische Kalibrierung der Kamera beschrieben. Dazu wird die OpenCV Bibliothek in einem C/C++ Programm verwendet.
Hier gehts zu Artikel Kalibrierung der Kamera

Alter Ansatz

In diesem Artikel findet sich die Beschreibung wie die Kameraparameter bestimmt werden können. Als Tool wird hier die Camera Calibrator Toolbox von Matlab verwendet.
Hier gehts zu Artikel Kameraparametrierung

Draufsichterstellung

In diesem Artikel wird die Draufsichterstellung für das Fahrzeug erläutert.
Hier gehts zu Artikel Draufsicht

Fahrspurerkennung

In diesem Artikel ist die Fahrspurerkennung dokumentiert, welche momentan auf dem Fahrzeug implementiert ist.
Hier gehts zu Artikel Fahrspurerkennung

Berechnung des Spurpolynoms

Dieser beschreibt die Berechnung des Spurpolynoms in Matlab und den Aufruf des in C/C++ generierten Codes.
Hier gehts zu Artikel Berechnung des Spurpolynoms

Übertragen des Spurpolynoms

In diesem Artikel ist die Kommunikation zwischen dSpace Karte und Computer über die RS232, zur Übertragung des Spurpolynoms, dargestellt.
Hier gehts zu Artikel Übertragen des Spurpolynoms

Simulationsumgebung für die Objekt- und Spurerkennung

In diesem Artikel wird die Simulationsumgebung für die Objekt- und Spurerkennung vorgestellt.
Hier gehts zu Artikel Simulationsumgebung für die Objekt- und Spurerkennung

Stopplinienerkennung

In diesem Artikel wird die Stopplinienerkennung vorgestellt.
Hier gehts zu Artikel Stopplinienerkennung

Archiv bisheriger Arbeit (sehr alte Artikel)

Einzelnachweise



→ zurück zum Hauptartikel: Praktikum SDE