SLAM mit LiDAR: Unterschied zwischen den Versionen

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(7 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
https://www.mathworks.com/help/nav/ug/implement-simultaneous-localization-and-mapping-with-lidar-scans.html
'''Autoren:'''  [[Benutzer:Stefan_Arndt|Arndt, S.]]<br/>
* https://essay.utwente.nl/71535/1/Folmer_MA_EEMCS.pdf
'''Betreuer:''' [[Benutzer:Ulrich_Schneider| Prof. Schneider]]<br/>
'''Art:''' Projektarbeit<br>
'''Projektlaufzeit:''' TBD
[[Datei:ScanMatchingExample 02.png|mini|400px|Abb. 1: 2D-Scan-Matching]]
 
 
== Motivation ==
Mobile Roboter, wie beispielsweise Saugroboter, müssen wissen, wo sie sich befinden, um effizient zu reinigen. Hierzu müssen sie ihre Umgebung kartografieren und sich in dieser entstehenden Karte selbst lokalisieren.
 
== Aufgabe ==
Die Aufgabe dieser Arbeit ist es, mithilfe eines LEGO EV3 kombiniert mit dem XV11-LiDAR(Light Detection and Ranging) die Umgebung zu erkennen und auszuwerten. Im nachfolgenden Schritt, sollen die Daten dazu genutzt werden eine Umgebungskarte zu erstellen um eine Karte in der Unity-Engine zeichnen zu können.
 
Zur besseren Projektübersicht und Planung teile ich das Vorhaben, wie folgt, in mehrere Abschnitte auf:
 
# Entwurf und Bau des LEGO© EV3- Roboters
# Montage des Sensors durch eine in SolidWorks entworfene Montageplattform (3D-Druck) incl. Verkabelung
# Errichtung einer Cross-Compiler-Toolchain
# Inbetriebnahme des Sensors und Programmierung
# Darstellung der Umgebung in Unity©
# Realisieren Sie einen SLAM-Algorithmus mit LiDAR-Sensorik.
 
== Erwartungen an die Projektlösung ==
*Inbetriebnahme des LiDAR
*Schnittstelle LiDAR zu EV3 z.B. mit Matlab/Simulink
*Messdatenauswertung auf dem EV3
*Bewertung der Ergebnisse
*Softwareentwicklung nach HSHL Standard in SVN
*Machen Sie spektakuläre Videos, welche die Funktion visualisieren.
*Test und wiss. Dokumentation
*Live Vorführung während der Abschlusspräsentation
 
== Anforderungen ==
# Recherchieren Sie nach Methoden zum LiDAR SLAM und wählen Sie ein effizientes Verfahren aus (z.B. [[SLAM_mit_Scan-Matching_mit_LiDAR|Scan-Matching]]).
# Zeichnen Sie als Eingangsdaten Roboterfahrten (LiDAR und Odometrie) auf (z.B. [[Low-Cost-LiDAR_mit_EV3|LiDAR am EV3]]).
# Verarbeiten Sie diese Eingangsdaten mit MATLAB oder Simulink.
# Nutzen Sie einen existierenden Parkours (z.B. [[Projekt_70a:Bau_eines_Labyrinths_f%C3%BCr_EV3-Roboter| hier]])
# Stellen Sie Ihre Ergebnisse in MATLAB/Simulink dar.
# Stellen Sie die Objekte im Sichtfeld in der Draufsich metrisch dar.
# Schätzen Sie die Genauigkeit Ihres Algorithmus ab.
# Wissenschaftliche Dokumentation als HSHL-Wiki Artikel
# Softwareentwicklung nach HSHL Standard in SVN
# Funktionsnachweis als YouTube-Video
 
== Video ==
Verlinken Sie hier ein YouTube-Video zu Ihrem fertigen Projekt. Tipps zum Video finden Sie [[Erwartungen_an_Präsentation_und_Dokumentation#YouTube_Clip|hier]].
 
== Weblinks ==
* [https://www.youtube.com/watch?v=nvFcN2-NqRc SLAM Course - 12 - Scan-Matching in 5 Min - Cyrill Stachniss]
* [https://www.youtube.com/watch?v=C8M7weK_Dhs Simultaneous Localization And Mapping (SLAM) with Scan Matching]
* [https://youtu.be/VoAdXGMzirU Iterative Closest Point algorithm for point clouds in Matlab]
* [https://www.mathworks.com/help/nav/ug/implement-simultaneous-localization-and-mapping-with-lidar-scans.html]
* [https://essay.utwente.nl/71535/1/Folmer_MA_EEMCS.pdf]
* [[Projekt_70c:_Labyrinth_SLAM_mit_EV3]]
*[https://www.ev3dev.org/docs/tutorials/using-xv11-lidar/]
*[https://www.youtube.com/watch?v=G6uVg34VzHw]
 
== Literatur ==
 
 
== Siehe auch ==
#[[Studentische_Arbeiten_bei_Prof._Schneider|Studentische Arbeiten bei Prof. Schneider]]
#[[Anforderungen_an_eine_wissenschaftlich_Arbeit| Anforderungen an eine wissenschaftlich Arbeit]]
#[[Wiki-Artikel_schreiben|Wiki-Artikel schreiben]]
 
== [[BSD-Lizenzbedingung BSD-Lizenz]] ==
Copyright (c) 2018, Hochschule Hamm-Lippstadt, Dep. Lip. 1, [[Benutzer:Ulrich_Schneider| Prof. Schneider]]<br/>
Hochschule Hamm-Lippstadt. Alle Rechte vorbehalten.
 
 
 
 
<!-- Kopieren Sie diesen Header in Ihren Artikel, damit er aufgelistet wird.  -->
'''Autoren:''' [[Benutzer:Alexander_Schirrmeister|Schirrmeister, A.]]
<br/>
'''Betreuer:''' [[Benutzer:Ulrich_Schneider| Prof. Schneider]]<br/>
 
→ zurück zur Übersicht: [[Studentische_Arbeiten|Studentische Arbeiten]]

Aktuelle Version vom 27. Juli 2020, 11:53 Uhr

Autoren: Arndt, S.
Betreuer: Prof. Schneider
Art: Projektarbeit
Projektlaufzeit: TBD

Abb. 1: 2D-Scan-Matching


Motivation

Mobile Roboter, wie beispielsweise Saugroboter, müssen wissen, wo sie sich befinden, um effizient zu reinigen. Hierzu müssen sie ihre Umgebung kartografieren und sich in dieser entstehenden Karte selbst lokalisieren.

Aufgabe

Die Aufgabe dieser Arbeit ist es, mithilfe eines LEGO EV3 kombiniert mit dem XV11-LiDAR(Light Detection and Ranging) die Umgebung zu erkennen und auszuwerten. Im nachfolgenden Schritt, sollen die Daten dazu genutzt werden eine Umgebungskarte zu erstellen um eine Karte in der Unity-Engine zeichnen zu können.

Zur besseren Projektübersicht und Planung teile ich das Vorhaben, wie folgt, in mehrere Abschnitte auf:

  1. Entwurf und Bau des LEGO© EV3- Roboters
  2. Montage des Sensors durch eine in SolidWorks entworfene Montageplattform (3D-Druck) incl. Verkabelung
  3. Errichtung einer Cross-Compiler-Toolchain
  4. Inbetriebnahme des Sensors und Programmierung
  5. Darstellung der Umgebung in Unity©
  6. Realisieren Sie einen SLAM-Algorithmus mit LiDAR-Sensorik.

Erwartungen an die Projektlösung

  • Inbetriebnahme des LiDAR
  • Schnittstelle LiDAR zu EV3 z.B. mit Matlab/Simulink
  • Messdatenauswertung auf dem EV3
  • Bewertung der Ergebnisse
  • Softwareentwicklung nach HSHL Standard in SVN
  • Machen Sie spektakuläre Videos, welche die Funktion visualisieren.
  • Test und wiss. Dokumentation
  • Live Vorführung während der Abschlusspräsentation

Anforderungen

  1. Recherchieren Sie nach Methoden zum LiDAR SLAM und wählen Sie ein effizientes Verfahren aus (z.B. Scan-Matching).
  2. Zeichnen Sie als Eingangsdaten Roboterfahrten (LiDAR und Odometrie) auf (z.B. LiDAR am EV3).
  3. Verarbeiten Sie diese Eingangsdaten mit MATLAB oder Simulink.
  4. Nutzen Sie einen existierenden Parkours (z.B. hier)
  5. Stellen Sie Ihre Ergebnisse in MATLAB/Simulink dar.
  6. Stellen Sie die Objekte im Sichtfeld in der Draufsich metrisch dar.
  7. Schätzen Sie die Genauigkeit Ihres Algorithmus ab.
  8. Wissenschaftliche Dokumentation als HSHL-Wiki Artikel
  9. Softwareentwicklung nach HSHL Standard in SVN
  10. Funktionsnachweis als YouTube-Video

Video

Verlinken Sie hier ein YouTube-Video zu Ihrem fertigen Projekt. Tipps zum Video finden Sie hier.

Weblinks

Literatur

Siehe auch

  1. Studentische Arbeiten bei Prof. Schneider
  2. Anforderungen an eine wissenschaftlich Arbeit
  3. Wiki-Artikel schreiben

BSD-Lizenzbedingung BSD-Lizenz

Copyright (c) 2018, Hochschule Hamm-Lippstadt, Dep. Lip. 1, Prof. Schneider
Hochschule Hamm-Lippstadt. Alle Rechte vorbehalten.



Autoren: Schirrmeister, A.
Betreuer: Prof. Schneider

→ zurück zur Übersicht: Studentische Arbeiten