SigSys SoSe2017: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Keine Bearbeitungszusammenfassung |
(Änderung 23566 von Oleg Patrusev (Diskussion) rückgängig gemacht.) |
||
(22 dazwischenliegende Versionen von 5 Benutzern werden nicht angezeigt) | |||
Zeile 3: | Zeile 3: | ||
Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende '''Lernergebnisse/Kompetenzen''': | Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende '''Lernergebnisse/Kompetenzen''': | ||
Die Studierenden kennen die Elemente einer Signalverarbeitungskette und können Fehler erkennen, abschätzen analysieren und beheben. | |||
Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden. | Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden. | ||
Zeile 57: | Zeile 57: | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! # !! Thema !! Bearbeiter | ! # !! Thema !! Bearbeiter !! Schließfach !! EV3 | ||
|- | |- | ||
| 1 || [[SigSys16_Einkaufsausgaben_Tracking| Einkaufsausgaben Tracking]] || | | 1 || [[SigSys16_Einkaufsausgaben_Tracking| Einkaufsausgaben Tracking]] || | ||
Zeile 64: | Zeile 64: | ||
|} | |} | ||
--> | --> | ||
# Lidar | <!-- | ||
# Lidar Objekterkennung mit Matlab/Simulink - Fr. Werner | |||
# [https://www.youtube.com/watch?v=zc0YykEFcR8 Low-Cost-Lidar] Verarbeitung mit Matlab/Simulink | # [https://www.youtube.com/watch?v=zc0YykEFcR8 Low-Cost-Lidar] Verarbeitung mit Matlab/Simulink | ||
# BV mit [http://charmedlabs.com/default/pixy-cmucam5/ CmuCam v5 (Pixy)] mit Matlab/Simulink - Fr. Tigger | # BV mit [http://charmedlabs.com/default/pixy-cmucam5/ CmuCam v5 (Pixy)] mit Matlab/Simulink - Fr. Tigger | ||
Zeile 78: | Zeile 79: | ||
# HiTechnics EOPD mit Matlab/Simulink - Fr. Gödeke | # HiTechnics EOPD mit Matlab/Simulink - Fr. Gödeke | ||
# [http://drgraeme.net/Sumo-Eyes-video-tutorial-NXT/Sumo-Eyes.htm NXTSumoEyes] mit Matlab/Simulink | # [http://drgraeme.net/Sumo-Eyes-video-tutorial-NXT/Sumo-Eyes.htm NXTSumoEyes] mit Matlab/Simulink | ||
Die Sensoren 2, 6, 9, 10 müssen noch beschafft werden. Alle anderen Sensoren sind an der HSHL verfügbar. | Die Sensoren 2, 6, 9, 10 müssen noch beschafft werden. Alle anderen Sensoren sind an der HSHL verfügbar. | ||
--> | |||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! # !! Thema !! Bearbeiter | ! # !! Thema !! Bearbeiter !! Schließfach !! EV3 | ||
|- | |- | ||
| 1 | | 1 || [[Lidar Objekterkennung mit Matlab/Simulink und EV3]] || Nora Werner || 13 || 01 | ||
|- | |- | ||
| 2 | | 2 || [[Objekterkennung mit CmuCam v5 (Pixy-Cam) mit Matlab/Simulink und EV3]] || Gesina Tigger || 16 || 02 | ||
|- | |- | ||
| 3 || [[ | | 3 || [[Objekterkennung mit rotierenden Ultraschall mit Matlab/Simulink und EV3]] || Cosima Eckert-Ludwig || 17 || 08 | ||
|- | |- | ||
| 4 || [[ | | 4 || [[Objekterkennung mit Ultraschall mit Matlab/Simulink und EV3]] || Mike Westhoff || 18 || 09 | ||
|- | |- | ||
| 5 || [[ | | 5 || [[Objekterkennung mit Infrarotsensor mit Matlab/Simulink und EV3]] || Christopher Brömse || 21 || 10 | ||
|- | |- | ||
| 6|| [[ | | 6 || [[Objekterkennung mit rotierenden Infrarotsensor mit Matlab/Simulink und EV3]] || Thorsten Drees || 22 || 11 | ||
|- | |- | ||
| 7 || [[ | | 7 || [[Objekterkennung mit Kinect Tiefenkamera mit Matlab/Simulinkmit und EV3]] || Lars Naujocks || 23 & 24 || 03 | ||
|- | |||
| 8 || [[Objekterkennung mit HiTechnics EOPD mit Matlab/Simulink und EV3]] || Lena Gödeke || 26 || 04 | |||
|- | |||
| 9 || [[Distanzerkennung mit Beschleunigungssensor mit Matlab/Simulink und EV3]] || Fabian Lehnert|| 27 || 05 | |||
|- | |||
| 10 || [[Objekterkennung mit TeraRanger mit Matlab/Simulink auf einem EV3]] || Oleg Patrusev || 28 || 07 | |||
|- | |- | ||
|} | |} | ||
== Einstieg in das Thema/Getting Started == | == Einstieg in das Thema/Getting Started == | ||
* Es gibt die Möglichkeit, über S-Funktions Sensoren in MATLAB/Simulink einzubauen. Herr Giampiero Campa hat eine Anleitung geschrieben, die am Beispiel des Arduino Support Packages zeigt, wie dies geht: [http://www.mathworks.com/matlabcentral/fileexchange/39354-device-drivers Link]. | * Es gibt die Möglichkeit, über S-Funktions Sensoren in MATLAB/Simulink einzubauen. Herr Giampiero Campa hat eine Anleitung geschrieben, die am Beispiel des Arduino Support Packages zeigt, wie dies geht: [http://www.mathworks.com/matlabcentral/fileexchange/39354-device-drivers Link]. | ||
* Es ist zusätzlich möglich, Sensorblöcke für die LEGO MINDSTORMS zu entwickeln. Voraussetzung hier ist ebenfalls, dass man Source-Code für die Sensorsteuerung zur Verfügung hat. Ein Beispiel von Herrn Guy Rouleau für NXT findet sich u.a. hier: [http://www.mathworks.com/matlabcentral/fileexchange/41159-example-driver-blocks-for-simulink-hardware-support-packages Link]. | * Es ist zusätzlich möglich, Sensorblöcke für die LEGO MINDSTORMS zu entwickeln. Voraussetzung hier ist ebenfalls, dass man Source-Code für die Sensorsteuerung zur Verfügung hat. Ein Beispiel von Herrn Guy Rouleau für NXT findet sich u.a. hier: [http://www.mathworks.com/matlabcentral/fileexchange/41159-example-driver-blocks-for-simulink-hardware-support-packages Link]. | ||
* Schauen Sie sich die Bestehenden Bibliotheken an und orientieren Sie sich an der Programmierung: | |||
** [http://www.mindstorms.rwth-aachen.de/ RWTH Mindstorms Toolbox] | |||
** [https://de.mathworks.com/matlabcentral/fileexchange/18646-rwth-mindstorms-nxt-toolbox NXT Toolbox] | |||
** [https://de.mathworks.com/hardware-support/lego-mindstorms-matlab.html LEGO MINDSTORMS NXT Support from MATLAB] | |||
** [[MATLAB Lego Mindstorms Support for NXT]] | |||
Die von Lego über die Firmware unterstützten Geräte finden Sie [http://ev3.fantastic.computer/doxygen/types.html hier]. | |||
EV3 Dokumente | |||
* [http://ev3.fantastic.computer/doxygen/index.html Firmware Dokumentation] | |||
* [https://education.lego.com/de-de/support/mindstorms-ev3/developer-kits Education EV3 Developer Kits] | |||
Weiterführender Wiki Artikel inkl. Demos: [[EV3_mit_Simulink | EV3 mit Simulink]] | |||
== Nächste Schritte == | == Nächste Schritte == |
Aktuelle Version vom 6. Juli 2017, 17:03 Uhr
Autor: Prof. Schneider
Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende Lernergebnisse/Kompetenzen:
Die Studierenden kennen die Elemente einer Signalverarbeitungskette und können Fehler erkennen, abschätzen analysieren und beheben. Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden.
Nachfolgende Inhalte wurden definiert
- Hard- und Softwarearchitekturen in signalverarbeitenden Systemen
- Moderne Analog-/Digital-Umsetzer
- Signalauswertung und -erkennung
- Digitale Signalverarbeitung
- Entwurf und Realisierung analoger und digitaler Filter
- Anwendungen der Signalverarbeitung (z.B. Digitale Bildverarbeitung)
Semesterbegleitende Prüfung
Jeder Studierend bearbeitet semesterbegleitend bis zum 07.07.17 ein Projekt mit Matlab/Lego Mindstorms lösen. Diese Lösung ist vor dem Stichtag in SVN zu sichern.
Tipp: Sichern Sie Ihre Ergebnisse während der Arbeit bereits systematisch in Ihren SVN-Ordner https://svn.hshl.de/svn/BSE_SigSys/trunk/Projekte/
.
Aufgabenstellung
- Bauen Sie einen fahrbaren und lenkbaren Roboter mit Lego Mindstorms EV3 (Bauanleitungen für einen Basisroboter steht zur Verfügung).
- Steuern Sie diesen mit MATLAB/Simulink an (MATLAB/Simulink Toolbox).
- Ergänzen Sie das Fahrzeug um einen Sensor, so dass das Fahrzeug auf ein Hinderniss zufährt (Kopierkarton) und 5cm davor eine automatische Notbremsung durchführt.
- Beschreiben, untersuchen und verstehen Sie Ihre Signalverarbeitungskette.
Schritte zur Signalberarbeitung
- Auswahl eines Primärsensors
- Wie funktioniert der Sensor?
- Welche Rohsignale liefert der Sensor?
- Signalvorverarbeitung
- Sollen Messwerte oder vorverarbeitete Daten übertragen werden?
- Wie lässt sich eine Vorverarbeitung umsetzen?
- Wird eine Kennlinie eingesetzt? Wenn ja, wie wird diese kalibriert?
- Analog-Digital-Umsetzer
- Wie werden die analogen Signale umgesetzt?
- Welcher ADU kommt zum Einsatz?
- Welche Gründe sprechen für diesen ADU? Alternativen?
- Bussystem
- Wird ein Bussystem zwischen Sensor und Mikrocontroller eingesetzt?
- Wenn ja, wie funktioniert dieses Bussystem?
- Digitale Signalverarbeitung
- Welche Verarbeitungsschritte sind notwendig?
- Welche Filter werden angewendet?
- Bestimmen Sie Auflösung, Empfindlichkeit und Messunsicherheit des Sensors.
- Darstellung der Ergebnisse
- Welche Fehler treten in welchem Verarbeitungsschritt auf?
- Stellen Sie die Messunsicherheit bzw. das Vertrauensintervall dar.
Erwartungen an Ihre Lösung
Themenverteilung
# | Thema | Bearbeiter | Schließfach | EV3 |
---|---|---|---|---|
1 | Lidar Objekterkennung mit Matlab/Simulink und EV3 | Nora Werner | 13 | 01 |
2 | Objekterkennung mit CmuCam v5 (Pixy-Cam) mit Matlab/Simulink und EV3 | Gesina Tigger | 16 | 02 |
3 | Objekterkennung mit rotierenden Ultraschall mit Matlab/Simulink und EV3 | Cosima Eckert-Ludwig | 17 | 08 |
4 | Objekterkennung mit Ultraschall mit Matlab/Simulink und EV3 | Mike Westhoff | 18 | 09 |
5 | Objekterkennung mit Infrarotsensor mit Matlab/Simulink und EV3 | Christopher Brömse | 21 | 10 |
6 | Objekterkennung mit rotierenden Infrarotsensor mit Matlab/Simulink und EV3 | Thorsten Drees | 22 | 11 |
7 | Objekterkennung mit Kinect Tiefenkamera mit Matlab/Simulinkmit und EV3 | Lars Naujocks | 23 & 24 | 03 |
8 | Objekterkennung mit HiTechnics EOPD mit Matlab/Simulink und EV3 | Lena Gödeke | 26 | 04 |
9 | Distanzerkennung mit Beschleunigungssensor mit Matlab/Simulink und EV3 | Fabian Lehnert | 27 | 05 |
10 | Objekterkennung mit TeraRanger mit Matlab/Simulink auf einem EV3 | Oleg Patrusev | 28 | 07 |
Einstieg in das Thema/Getting Started
- Es gibt die Möglichkeit, über S-Funktions Sensoren in MATLAB/Simulink einzubauen. Herr Giampiero Campa hat eine Anleitung geschrieben, die am Beispiel des Arduino Support Packages zeigt, wie dies geht: Link.
- Es ist zusätzlich möglich, Sensorblöcke für die LEGO MINDSTORMS zu entwickeln. Voraussetzung hier ist ebenfalls, dass man Source-Code für die Sensorsteuerung zur Verfügung hat. Ein Beispiel von Herrn Guy Rouleau für NXT findet sich u.a. hier: Link.
- Schauen Sie sich die Bestehenden Bibliotheken an und orientieren Sie sich an der Programmierung:
Die von Lego über die Firmware unterstützten Geräte finden Sie hier.
EV3 Dokumente
Weiterführender Wiki Artikel inkl. Demos: EV3 mit Simulink
Nächste Schritte
- Suchen Sie sich ein Thema aus.
- Leihen Sie sich EV3-Roboter und Sensor aus.
- Lassen Sie sich einen Schließfachschlüssel für das Projekt geben.
- Bearbeiten Sie das Projekt im Semester.
- Dokumentieren Sie fortlaufend in SVN und Wiki.
- Geben Sie nach Projektabschluss die Hardware wieder zurück.
Literatur
- Burger, W.; Burge, M. J. Digitale Bildverarbeitung: Eine Einführung mit Java und ImageJ. Berlin [u.a.]: Springer, 2. Auflage. 2006 (als eBook verfügbar)
- Erhardt, A.: Einführung in die Digitale Bildverarbeitung: Grundlagen, Systeme und Anwendungen. Wiesbaden: Vieweg+Teubner 2008 (als eBook verfügbar)
- Jähne, B. (2005). Digitale Bildverarbeitung. 6. Auflage. Berlin [u.a.]: Springer. (als eBook verfügbar) – Neue Auflage: 30. November 2012
- Nischwitz, A.; Fischer, M.; Haberäcker, P.; Socher, G.: Computergrafik und Bildverarbeitung: Band II: Bildverarbeitung. Wiesbaden: Vieweg+Teubner, 3. Auflage. 2011. (als eBook verfügbar)
- Tönnies, Klaus D.: Grundlagen der Bildverarbeitung. München: Pearson Studium, 2005.
- Ballard, Dana H., Brown, Christopher M. (1982). Computer Vision. Englewood Cliffs (u.a.): Prentice-Hall
→ zurück zum Hauptartikel: Signalverarbeitende Systeme