Zusammenfassung Praxissemester Gerken: Unterschied zwischen den Versionen
(14 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
=== Eigenreflexion === | |||
Zu Beginn des Praktikums habe ich mir mit den Tutorials zu ROS2 und dem Simulationsprogramm Webots die Grundlagen zur Programmierung von Robotern angeeignet. | |||
In Webots konnte ich einen selbst erstelltes Robotermodell mit einem Programminternen Controller in Python oder C++ programmieren und fahren lassen. | |||
Die Webotswelt habe ich anschließend mit ROS2 verknüpft und den Roboter mit verschiedenen ROS2-Nodes gesteuert. So konnte ich den AlphaBot in der Simulation mit einer Tastatur steuern oder mit einem Hindernisumfahrungsprogramm über zwei Infrarotsensoren oder einem Ultraschallsensor autonom fahren lassen. | |||
Die Simulation in Webots fand ich sehr interessant, da ich im Verlauf meines Studiums immer nur Diagramme zur Projekt Entwicklung erstellt und ein autonom fahrendes Fahrzeug gebaut oder programmiert habe. | |||
Dadurch habe ich festgestellt, dass eine Simulation während der Entwicklung hilfreich seien kann, bevor die Hardware programmiert wird. So können vor der Programmierung der Hardware, in der Simulation schon Programmierfehler entdeckt und korrigiert werden. | |||
Weiter habe ich den AlphaBot mit ROS2 programmiert. Dazu musste ich experimentieren, wie die GPIO Pins des Raspberry Pi’s (RPi) mit ROS2 angesteuert werden können. Zudem musste ich herausfinden in welchem Datentyp die Infrarotsensordaten oder die Ultraschallsensordaten ausgegeben werden. | |||
Anschließend habe ich die Infrarotsensoren zur Hindernisumfahrung programmiert. Den Code habe ich danach in einer Statischen Position getestet. Wenn alles reibungslos funktioniert hat, habe ich den AlphaBot über WIFI und SSH frei herumfahren lassen. | |||
Nachdem die Infrarothindernisumfahrung funktioniert hat, habe ich die Ultraschallhindernisumfahrung implementieren. Dazu gehörte das programmieren des Servo-Motors, um den Ultraschallsensor nach rechts und links zu drehen und die Steuerung was der AlphaBot machen soll, wenn links oder rechts ein Hindernis ist. | |||
Zunächst habe ich den Code in einer Statischen Position getestet und danach autonom im Raum herumfahren lassen. | |||
Bei der Verknüpfung von Webots und ROS2 oder allgemein bei der Programmierung in der Simulation oder der Hardware hatte ich das ein oder andere Problem. | |||
Bei den Problemen hatte ich immer einen Ansprechpartner den ich fragen konnte. Meistens konnte ich die Probleme aber eigenständig lösen. | |||
Durch das eigenständige Arbeiten konnte ich viel durch meine Fehler lernen. | |||
Daraus schlussfolgere ich, dass ich im Beruf mir auch mal etwas neues erlernen muss und dabei nicht alles direkt perfekt funktioniert. | |||
Insgesamt habe ich im Bereich der Programmierung viel dazu gelernt. So konnte ich meine Programmierkenntnisse in Python allgemein und mit ROS2 erweitern. | |||
Um den Ablauf der Programme grafisch darzustellen habe ich unterschiedliche UML-Diagramme erstellt. | |||
Mit dem Projekt konnte ich meine Kenntnisse zu UML-Diagrammen aus dem Modul Informatik 3 anwenden und vertiefen. | |||
Dabei musste ich feststellen, das diese für das Verständnis eines Systems, im Projekt selbst oder für außenstehende sehr hilfreich seien kann. | |||
=== Ausblick === | === Ausblick === | ||
Der AlphaBot könnte in einem weiteren Projekt mit einem Lidar-Sensor ausgestattet werden. | |||
Mit dem Lidar-Sensor kann eine 2D-Map der Umgebung in dem ROS2-Tool Rviz und der slam-toolbox erstellt werden. | |||
In Rviz kann dann mit der sogenannten Odometrie die Position des AlphaBots auf der Map anhand der Räderrotation geschätzt werden. | |||
Über die Map kann der AlphaBot zum Beispiel zu einer bestimmten Position geschickt werden. Da auf der Map alle Hindernisse aufgezeichnet werden, weiß der AlphaBot dann, wie er fahren muss um an dem gegebenen Ziel anzukommen. | |||
---- | ---- | ||
→ zurück zum Hauptartikel: [[Kommunikation_Raspberry_Pi_mit_ROS2|Kommunikation Raspberry Pi mit ROS2]] | → zurück zum Hauptartikel: [[Kommunikation_Raspberry_Pi_mit_ROS2|Kommunikation Raspberry Pi mit ROS2]] |
Aktuelle Version vom 18. März 2022, 15:38 Uhr
Eigenreflexion
Zu Beginn des Praktikums habe ich mir mit den Tutorials zu ROS2 und dem Simulationsprogramm Webots die Grundlagen zur Programmierung von Robotern angeeignet.
In Webots konnte ich einen selbst erstelltes Robotermodell mit einem Programminternen Controller in Python oder C++ programmieren und fahren lassen. Die Webotswelt habe ich anschließend mit ROS2 verknüpft und den Roboter mit verschiedenen ROS2-Nodes gesteuert. So konnte ich den AlphaBot in der Simulation mit einer Tastatur steuern oder mit einem Hindernisumfahrungsprogramm über zwei Infrarotsensoren oder einem Ultraschallsensor autonom fahren lassen.
Die Simulation in Webots fand ich sehr interessant, da ich im Verlauf meines Studiums immer nur Diagramme zur Projekt Entwicklung erstellt und ein autonom fahrendes Fahrzeug gebaut oder programmiert habe. Dadurch habe ich festgestellt, dass eine Simulation während der Entwicklung hilfreich seien kann, bevor die Hardware programmiert wird. So können vor der Programmierung der Hardware, in der Simulation schon Programmierfehler entdeckt und korrigiert werden.
Weiter habe ich den AlphaBot mit ROS2 programmiert. Dazu musste ich experimentieren, wie die GPIO Pins des Raspberry Pi’s (RPi) mit ROS2 angesteuert werden können. Zudem musste ich herausfinden in welchem Datentyp die Infrarotsensordaten oder die Ultraschallsensordaten ausgegeben werden. Anschließend habe ich die Infrarotsensoren zur Hindernisumfahrung programmiert. Den Code habe ich danach in einer Statischen Position getestet. Wenn alles reibungslos funktioniert hat, habe ich den AlphaBot über WIFI und SSH frei herumfahren lassen. Nachdem die Infrarothindernisumfahrung funktioniert hat, habe ich die Ultraschallhindernisumfahrung implementieren. Dazu gehörte das programmieren des Servo-Motors, um den Ultraschallsensor nach rechts und links zu drehen und die Steuerung was der AlphaBot machen soll, wenn links oder rechts ein Hindernis ist. Zunächst habe ich den Code in einer Statischen Position getestet und danach autonom im Raum herumfahren lassen.
Bei der Verknüpfung von Webots und ROS2 oder allgemein bei der Programmierung in der Simulation oder der Hardware hatte ich das ein oder andere Problem. Bei den Problemen hatte ich immer einen Ansprechpartner den ich fragen konnte. Meistens konnte ich die Probleme aber eigenständig lösen. Durch das eigenständige Arbeiten konnte ich viel durch meine Fehler lernen. Daraus schlussfolgere ich, dass ich im Beruf mir auch mal etwas neues erlernen muss und dabei nicht alles direkt perfekt funktioniert.
Insgesamt habe ich im Bereich der Programmierung viel dazu gelernt. So konnte ich meine Programmierkenntnisse in Python allgemein und mit ROS2 erweitern.
Um den Ablauf der Programme grafisch darzustellen habe ich unterschiedliche UML-Diagramme erstellt.
Mit dem Projekt konnte ich meine Kenntnisse zu UML-Diagrammen aus dem Modul Informatik 3 anwenden und vertiefen. Dabei musste ich feststellen, das diese für das Verständnis eines Systems, im Projekt selbst oder für außenstehende sehr hilfreich seien kann.
Ausblick
Der AlphaBot könnte in einem weiteren Projekt mit einem Lidar-Sensor ausgestattet werden. Mit dem Lidar-Sensor kann eine 2D-Map der Umgebung in dem ROS2-Tool Rviz und der slam-toolbox erstellt werden.
In Rviz kann dann mit der sogenannten Odometrie die Position des AlphaBots auf der Map anhand der Räderrotation geschätzt werden.
Über die Map kann der AlphaBot zum Beispiel zu einer bestimmten Position geschickt werden. Da auf der Map alle Hindernisse aufgezeichnet werden, weiß der AlphaBot dann, wie er fahren muss um an dem gegebenen Ziel anzukommen.
→ zurück zum Hauptartikel: Kommunikation Raspberry Pi mit ROS2