Objekterkennung mit RP Lidar A1M8

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen

Autor: Thomas Miska
Betreuer: Prof. Schneider

Aufgabenstellung

  1. Einarbeitung in die bestehende Software
  2. Softwareentwurf in MATLAB
    1. Meilenstein 1:
    2. Ansteuerung des RP LiDAR A1M8
    3. Koordinatentransformation polar- zu karthesisch
    4. Testdokumentation der KOS-Trafo
    5. Objektbildung (z.B. Sukzessiv Edge Following)
    6. Testdokumentation der Objektbildung
    7. Meilenstein 2:
    8. Objekttracking (mit Kalman-Filter)
    9. Testdokumentation des Objekttrackings
    10. Attribute schätzen: v, a, B, T, Güte (s. Schnittstellendokument)
    11. Testdokumentation der Attribute mit Referenz
    12. Dokumentation im Wiki
  3. Softwareentwurf in C
    1. Meilenstein 3:
    2. Test der Kommunikation Kamera/LiDAR mit DS1104
    3. Testdokumentation
    4. Diagnoseseite in ControlDesk
    5. Darstellung der LiDAR-Objekte als XY-Plot und tabellarisch
    6. ggf. Fertigstellung der Kommunikation
    7. Meilenstein 4:
    8. Plausibilisierung der Messdaten (LiDAR, Kamera)
    9. Referenzmessungen
    10. Abschätzung der Güte der Spurerkennung und des Objekttrackings
    11. Dokumentation im Wiki

Softwareentwurf in MATLAB

Ansteuerung des RP LiDAR A1M8

Die Ansteuerung des RPLiDAR mit MATLAB Erfolgt in Verbindung mit einer SDK welche in C-Code geschrieben ist. Dieser Code ist in GitHub frei zugänglich. Der RPLiDAR liefert uns in diesem Fall folgende Messwerte:

  • Radius
  • Radiant
  • Qualität

Die beiden anderen Messdaten konnten nicht spezifiziert werden.

  • bNewScan
  • Result

Die Verbindungsart beruht auf die UART Schnittstelle, die mithilfe eines Chips ermöglicht wird.

Koordinatentransformation polar- zu karthesisch

Um die Messwerte darstellen zu können bedarf es einer Umrechnung von Polarkoordinaten (Radius und Winkel in rad) in kartesische Koordinaten (x und y Koordinaten). Folglich wird folgende Formel verwendet:

Objektbildung

Es gibt mehrere Varianten eine Objektbildung durchzuführen. Für das Projekt jedoch wurde ein Successive Edge Following (SEF) Algorithmus verwendet. Dieser Code vergleich dabei nebeneinanderliegende (durch den Winkel) Radius-Messwerte miteinander und falls diese eine kleine Differenz aufweisen wird ein Segment gebildet.

Attribute

Softwareentwurf in C-Code

Test der Kommunikation Kamera/LiDAR mit DS1104

Diagnoseseite in ControlDesk

Plausibilisierung der Messdaten (LiDAR, Kamera)

Abschätzung der Güte der Spurerkennung und des Objekttrackings

Getting started



→ zurück zum Hauptartikel: SDE Praktikum Autonomes Fahren