Objekterkennung mit Hokuyo LiDAR

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen

Autoren: Ahmad Hassan und Alexander Schirrmeister


Einleitung

Die Gruppe Hassan/Schirrmeister bearbeiten im Sommersemester 2020 die Objekterkennung mit dem Hokuyo LiDAR. Aufgrund der aktuellen Lage rund um das Coronavirus erlaubt es nicht direkt mit dem Sensor zu arbeiten. Als Mittelweg werden hier bereits aufgezeichnete Messdaten zur Auswertung herangezogen. Aufgabe ist es anhand der vorliegenden Daten Objekte zu erkennen und zu verfolgen. Im ersten Schritt erfolgt die Auswertung der Arbeiten aus den Vorsemestern und einer Beurteilung des aktuellen Zustands der Aufgabe. Eine Auflistung von Meilensteinaufgaben ist unten ersichtlich.

  1. Einarbeitung in dier bestehende Software
  2. Softwareentwurf in MATLAB
    1. Meilenstein 1:
    2. Ansteuerung des Hokuyo LiDAR
    3. Koordinatentransformation polar- zu karthesisch
    4. Testdokumentation der KOS-Trafo
    5. Objektbildung (z.B. Sukzessiv Edge Following)
    6. Testdokumentation der Objektbildung
    7. Meilenstein 2:
    8. Objekttracking (mit Kalman-Filter)
    9. Testdokumentation des Objekttrackings
    10. Attribute schätzen: v, a, B, T, Güte (s. Schnittstellendokument)
    11. Testdokumentation der Attribute mit Referenz
    12. Dokumentation im Wiki

Anforderungen

Fahrt auf Rundstrecke mit statischen Hindernissen

Unit-Tests

Ziele / Pflichten

Requirements

Folgende Anforderungen wurden an die Objekterkennung mit Hokuyo LiDAR gestellt:

ID Inhalt Ersteller Datum Geprüft von Datum
1 Die LiDAR-Objekterkennung muss als zyklischer Task aufgerufen werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
2 Die erfassten Messwerte müssen auf Region of Interest und Rauschen gefiltert werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
3 Die erfassten Messwerte müssen von Polarkoordinaten des LiDARs in das kartesische Koordinatensystem des Autos transformiert werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
4 Die entstandene Punktewolke muss in Segmente unterteilt werden (Segmentierung). Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
5 Die Punkte der jeweiligen Segmente müssen in einer einheitlichen Farbe gekennzeichnet werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
6 Auf die geometrischen Beschaffenheiten der erfassten Segmente muss eine Boundingbox aufgebaut werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
7 Objekt-Pose (Entfernung und Ausrichtung) muss ermittelt werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
8 Bereits bestehende Objekte müssen z.B. durch einen Kalmanfilter getrackt werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
9 Parameter der erkannten Objekte müssen abgeschätzt werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
10 Neue und aktuelle Objekt-Posen und Parameter müssen in Objektliste überführt werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
11 Eingangsgrößen der Funktion LiDAR_Objekttracking.m sind
  1. Messpunkte der LiDAR-Sweeps: LiDAR_Values
  2. Parameter (a,b,c) der Fahrspur
  3. Spurzuordnung (0,1)
Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
12 Ausgangsgrößen der Funktion LiDAR_Objekttracking.m sind
  1. Objektliste mit folgenden Parametern:
    1. Gesamtzahl relevanter Objekte (max. 5)
    2. Objekt.Nummer
    3. Objekt.x
    4. Objekt.y
    5. Objekt.b
    6. Objekt.t
    7. Objekt.alpha
    8. Objekt.v
    9. Objekt.Plausibel
Alexander Schirrmeister 03.06.2020 Hr. Hassan ---
13 Bei Kommentierung und Dokumentation muss sich an die Projektrichtlinien gehalten werden. Alexander Schirrmeister 03.06.2020 Hr. Hassan ---

Funktionaler Systementwurf / Technischer Systementwurf

Theoretische Grundlagen

Koordinatentransformation

Das Hokuyo LiDAR bietet einen Sichtbereich von 240 Grad. Es sind dementsprechend Winkelmessungen von -120° bis hinzu +120° möglich. Die Totzone beträgt also 120°. Die Winkelauflösung beträgt 0.3515625° (360° /1024 Schritten). Mit der Vorderachse des Sensors als Messreferenz entspricht der Schritt 384 dem Sensorwinkel 0° während die Schritte 44 und 725 die Winkelmessungen -120° bzw. +120° darstellen. Dies zeigt auch die Abbildung 1 vor.

Das Hokuyo LiDAR liefert die Messpunkte in Form von Schrägentfernungen zu umgebenden Objekten in Millimeter, wobei jeder Schrägentfernung eine Schrittnummer zugewiesen ist. Die Schrittnummer ist quasi der Index der Entfernungsmessung und deutet darauf hin, was das erfasste Objekt für einen Winkel hat. Die von dem Sensor bereitgestellten Messungen sind daher in dem Polarkoordinatensystem. Es ist deswegen eine Koordinatentransformation von dem Polarkoordinatensystem des Sensors in das kartesische Koordinatensystem des Fahrzeugs erforderlich, bevor die ermittelten Messpunkte verarbeitet oder segmentiert werden können.

Zunächst findet die Koordinatentransformation der Messpunkte von dem Polarkoordinatensystem des LiDARs in das kartesische Koordinatensystem des LiDARs. Das kartesische Koordinatensystem des LiDARs kennzeichnet sich dadurch, dass die x-Achse positiv in Fahrtrichtung hinzeigt und die y-Achse positiv nach links hinzeigt. Da die x-Achse die Messreferenz bzw. den Winkel 0° darstellt, können die folgenden Formeln eingesetzt, um von dem Polarkoordinatensystem des Sensors in sein kartesisches Koordinatensystem zu kommen. Die Teilung durch 1000 entspricht einer Umrechnung von mm in m.

x = (Entfernung/1000)*cos(θ)

y = (Entfernung/1000)*sin(θ)

Die hiernach vorliegenden x- und y-Koordinaten müssen von dem kartesischen Koordinatensystem des LiDARs in das kartesische Koordinatensystem des Fahrzeugs überführt werden. Diese Transformation setzt sich aus einer Rotation und einer Translation zusammen. Die x- und y-Achse des Koordinatensystems des Fahrzeugs zeigen positiv nach rechts bzw. in Fahrtrichtung hin. Dies ergibt sich durch eine 90°-Rotation des kartesischen Koordinatensystems des LiDARs um die z-Achse. Die Rotationsmatrix sieht wie folgt aus.



Darauffolgend erolgt die Translation der sich aus der Rotation ergebenden Achsen mit dem folgenden Translationsvektor.



Datenvorverarbeitung

Vorab sollte aufkommendes "Salt and Pepper" Rauschen herausgefiltert werden um Fehlinterpretationen des Algorithmus zu verhindern.

Segmentierung

Segmentierungsverfahren lassen sich grob in Grid-Basierte und Objekt-Basierte Segmentierungsverfahren einteilen.

Bei gridbasierten Verfahren werden Kacheln auf das "Sichtfeld" projeziert. Liegen Messpunkte in einer Kachel, so gilt diese Kachel als belegt. Belegte benachbarte Kacheln werden einem Segment zugeordnet. Über die Messung von Ausrichtung und Geschwindigkeit der Punkte in den jeweiligen Segmenten, kann auf zukünftige von diesem Segment belegte Kacheln geschlossen werden. Diese Art der Segmentierung ist in Anbetracht der Weiterverarbeitung zwar einfacher, ist allerdings in seiner Darstellung dynamischer Objekte eingeschränkt. Damit fallen grid-basierte Verfahren für die Anwendung von komplexeren Verfahren weniger gut geeignet.

Objektbasierte Verfahren beruhen auf einem Punktmodell. Anders als bei gridbasierten Verfahren, verläuft die Segmentierung mit mehreren Schritten. Zuerst werden die Rohdaten des Sensors gefiltert, um relevante Messwerte von irrelevanten Messwerten (z.B. Punktreflexionen) zu trennen. Darauf folgend, werden Messpunkte zu Clustern zusammengefasst. Da der Sensor nur 2D Informationen zur Verfügung stellt, sollte auf ein 2D-Clusterverfahren zurückgegriffen werden. Weitverbreitete Verfahren wie zum Beispiel DBSCAN sind bieten zwar umfassendes 3D-Clustering, aber sind aufgrund hoher Komplexität der begrenzten Rechenkapazitäten nicht ratsam.

Objektbildung

Nachdem die aufgefassten Punkte geclustert wurde, befindet man sich im Schritt der Objektbildung bzw. Abschätzung der Objektpose. Diesen Schritt kann man in zwei Varianten - modellbasiert und merkmalbasiert - unterteilen. Ziel ist es, erkannte Cluster mit einer Bounding Box zu umrahmen und Informationen wie Abmessungen, Ausrichtung, Geschwindigkeit und Beschleunigung zu ermitteln.

Modellbasierte Objektbildung versucht mittels der "Best-Fit"-Methode einem Cluster in iterativer Weise eine möglichst optimale Pose zuzuordnen. Diese Variante bedarf allerdings einer relativ hohen Rechenzeit und dient nicht mehr dem Ziel möglichst in Echtzeit zu agieren.

Merkmalbasierte Objektbildung leitet aus Merkmalen eines Clusters, wie z.B. am weitesten außenliegenden Punkten eines L-Clusters, Kanteninformationen ab um aufgrund dieser ein Rechteck mit möglichst kleiner Fläche zu bestimmen. Hinzu kommt, dass merkmalbasierte Objektbildungsverfahren als weniger rechenintensiv gelten und für diesen Usecase eher in Frage käme.

Objekttracking

Signalflussplan

Zum besseren Verständnis der vom System zu erfüllenden Gesamtaufgabe werden die Schritte der Datenverarbeitung vom LiDAR bishin zur Schnittstelle zu anderen Softwaremodulen in einem Signalflussplan dargestellt. Wie auch die Software, ist der Signalflussplan von iterativen Änderungen nicht ausgeschlossen und wird daher im SVN als bearbeitbares Dokument bereitgestellt. Die Bearbeitung des Signalflussplans fand im Browsertool yEd-Live statt. Der aktuelle Stand des Signalflussplans ist in der Abb. X ersichtlich.

Signalflussplan

Morphologischer Kasten

Komponentenspezifikation

Programmierung

Initialisierung

Aktualisierung

Komponententest

Zusammenfassung

Ausblick

Offene Punkte

Link zum Quelltext in SVN

Literaturverzeichnis


Getting Started

  1. Recherchieren Sie die Schritte der Signalverarbeitungskette. Ergebnis: Signalflussplan
  2. Recherchieren Sie die Elemente/Blöcke des Signalflussplans. Ergebnis: Morphologischer Kasten
  3. Bewerten Sie die Ergebnisse Ihrer Recherche und legen Sie sich auf ein Vorgehensweise fest.
  4. Setzen Sie diese anhand Ihres Signalflussplans um.
  5. Testen Sie die Module.
  6. Testen Sie das System.
  7. Dokumentieren Sie fortlaufend Ihre Ergebnisse im Wiki/SVN.

Weblinks


→ zurück zum Hauptartikel: SDE Praktikum Autonomes Fahren