SigSys SoSe2017: Unterschied zwischen den Versionen

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen
(Änderung 23566 von Oleg Patrusev (Diskussion) rückgängig gemacht.)
 
(40 dazwischenliegende Versionen von 5 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende '''Lernergebnisse/Kompetenzen''':
Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende '''Lernergebnisse/Kompetenzen''':


  Die Studierenden kennen die Elemente einer Signalverarbeitungskette und können Fehler erkennen, abschätzen analysieren und beheben. Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden.
Die Studierenden kennen die Elemente einer Signalverarbeitungskette und können Fehler erkennen, abschätzen analysieren und beheben.
Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden.




Zeile 20: Zeile 21:


'''Tipp:''' Sichern Sie Ihre Ergebnisse während der Arbeit bereits systematisch in Ihren SVN-Ordner <code>https://svn.hshl.de/svn/BSE_SigSys/trunk/Projekte/</code>.
'''Tipp:''' Sichern Sie Ihre Ergebnisse während der Arbeit bereits systematisch in Ihren SVN-Ordner <code>https://svn.hshl.de/svn/BSE_SigSys/trunk/Projekte/</code>.
=== Aufgabenstellung ===
* Bauen Sie einen fahrbaren und lenkbaren Roboter mit Lego Mindstorms EV3 ([http://www.java-online.ch/lego/index.php?inhalt_links=home/nav_home.inc.php&inhalt_mitte=home/bauanleitung/bauanleitung.inc.php Bauanleitungen] für einen Basisroboter steht zur Verfügung).
* Steuern Sie diesen mit MATLAB/Simulink an ([https://de.mathworks.com/hardware-support/lego-mindstorms-ev3-matlab.html MATLAB/Simulink Toolbox]).
* Ergänzen Sie das Fahrzeug um einen Sensor, so dass das Fahrzeug auf ein Hinderniss zufährt (Kopierkarton) und 5cm davor eine automatische Notbremsung durchführt.
* Beschreiben, untersuchen und verstehen Sie Ihre Signalverarbeitungskette.
=== Schritte zur Signalberarbeitung ===
# Auswahl eines Primärsensors
## Wie funktioniert der Sensor?
## Welche Rohsignale liefert der Sensor?
# Signalvorverarbeitung
## Sollen Messwerte oder vorverarbeitete Daten übertragen werden?
## Wie lässt sich eine Vorverarbeitung umsetzen?
## Wird eine Kennlinie eingesetzt? Wenn ja, wie wird diese kalibriert?
# Analog-Digital-Umsetzer
## Wie werden die analogen Signale umgesetzt?
## Welcher ADU kommt zum Einsatz?
## Welche Gründe sprechen für diesen ADU? Alternativen?
# Bussystem
## Wird ein Bussystem zwischen Sensor und Mikrocontroller eingesetzt?
## Wenn ja, wie funktioniert dieses Bussystem?
# Digitale Signalverarbeitung
## Welche Verarbeitungsschritte sind notwendig?
## Welche Filter werden angewendet?
## Bestimmen Sie Auflösung, Empfindlichkeit und Messunsicherheit des Sensors.
# Darstellung der Ergebnisse
## Welche Fehler treten in welchem Verarbeitungsschritt auf?
## Stellen Sie die Messunsicherheit bzw. das Vertrauensintervall dar.


== [[Veranstaltungsregeln SigSys SoSe2017| Erwartungen an Ihre Lösung]] ==
== [[Veranstaltungsregeln SigSys SoSe2017| Erwartungen an Ihre Lösung]] ==
Zeile 27: Zeile 57:
{| class="wikitable"
{| class="wikitable"
|-
|-
! #                                          !! Thema                      !! Bearbeiter
! #                                          !! Thema                      !! Bearbeiter !! Schließfach !! EV3
|-
|-
| 1    || [[SigSys16_Einkaufsausgaben_Tracking| Einkaufsausgaben Tracking]]        ||  
| 1    || [[SigSys16_Einkaufsausgaben_Tracking| Einkaufsausgaben Tracking]]        ||  
Zeile 34: Zeile 64:
|}
|}
-->
-->
# Lidar Verarbeitung mit Matlab/Simulink
<!--
# [https://www.youtube.com/watch?v=zc0YykEFcR8 Low-Cost-Lidar] Verarbeitung mit Matlab/Simulink
# Lidar Objekterkennung mit Matlab/Simulink - Fr. Werner
# BV mit [http://charmedlabs.com/default/pixy-cmucam5/ CmuCam v5 (Pixy)] mit Matlab/Simulink
# [https://www.youtube.com/watch?v=zc0YykEFcR8 Low-Cost-Lidar] Verarbeitung mit Matlab/Simulink  
# [https://www.sparkfun.com/products/13959 Ultraschall] und Motor mit Matlab/Simulink
# BV mit [http://charmedlabs.com/default/pixy-cmucam5/ CmuCam v5 (Pixy)] mit Matlab/Simulink - Fr. Tigger
# [https://www.sparkfun.com/products/242 IR] und Motor mit Matlab/Simulink
# [https://www.sparkfun.com/products/13959 Ultraschall] und Motor mit Matlab/Simulink - Fr. Eckert-Ludwig, Hr. Westhoff
# [http://www.teraranger.com/product/teraranger-one-distance-sensor-for-drones-and-robotics/ Tera Ranger] mit Matlab/Simulink
# [https://www.sparkfun.com/products/242 IR] und Motor mit Matlab/Simulink - Hr. Brömse, Hr. Drees
# [https://www.youtube.com/watch?v=uq9SEJxZiUg Kinect Tiefenkamera] mit Matlab/Simulink
# [http://www.teraranger.com/product/teraranger-one-distance-sensor-for-drones-and-robotics/ Tera Ranger] mit Matlab/Simulink - Hr. Lehnert, Hr. Patrusev
# [https://www.youtube.com/watch?v=I2ussVehie0 Asus Xtion Pro Tiefenkamera] mit Matlab/Simulink
# [https://www.youtube.com/watch?v=uq9SEJxZiUg Kinect Tiefenkamera] mit Matlab/Simulink - Hr. Naujocks
# [https://www.youtube.com/watch?v=I2ussVehie0 Asus Xtion Pro Tiefenkamera] mit Matlab/Simulink - ???
# [http://www.infineon.com/cms/de/product/sensor/3d-image-sensor-real3/channel.html?channel=5546d4614937379a0149382e3e960078 Infineo TOF Tiefenkamera] mit Matlab/Simulink
# [http://www.infineon.com/cms/de/product/sensor/3d-image-sensor-real3/channel.html?channel=5546d4614937379a0149382e3e960078 Infineo TOF Tiefenkamera] mit Matlab/Simulink
# [http://www.ti.com/product/OPT8241 TI OPT8241 3D Time-of-Flight] (ToF) Sensor Evaluation Module
# [http://www.ti.com/product/OPT8241 TI OPT8241 3D Time-of-Flight] (ToF) Sensor Evaluation Module mit Matlab/Simulink
# HiTechnics Kompass mit Matlab/Simulink
# HiTechnics Beschleunigungssensor mit Matlab/Simulink
# HiTechnics EOPD mit Matlab/Simulink - Fr. Gödeke
# [http://drgraeme.net/Sumo-Eyes-video-tutorial-NXT/Sumo-Eyes.htm NXTSumoEyes] mit Matlab/Simulink
Die Sensoren 2, 6, 9, 10 müssen noch beschafft werden. Alle anderen Sensoren sind an der HSHL verfügbar.
-->


<!--
{| class="wikitable"
{| class="wikitable"
|-
|-
! #                                          !! Thema                      !! Bearbeiter
! #                                          !! Thema                      !! Bearbeiter !! Schließfach !! EV3
|-
| 1 || [[Lidar Objekterkennung mit Matlab/Simulink und EV3]]    || Nora Werner || 13 || 01
|-
| 2 || [[Objekterkennung mit CmuCam v5 (Pixy-Cam) mit Matlab/Simulink und EV3]] || Gesina Tigger || 16 || 02
|-
| 3 || [[Objekterkennung mit rotierenden Ultraschall mit Matlab/Simulink und EV3]] || Cosima Eckert-Ludwig || 17 || 08
|-
|-
| 1    || [[SigSys15_Sudoku-Löser| Sudoku-Löser]]       || [[Benutzer:Anika_Leinhaeuser| Anika Leinhäuser]]
| 4 || [[Objekterkennung mit Ultraschall mit Matlab/Simulink und EV3]] || Mike Westhoff || 18 || 09
|-
|-
| 2    || [[SigSys15_Ampelphasenerkennung|Ampelphasenerkennung]] || [[Benutzer:Andre Merkel|Andre Merkel]]
| 5 || [[Objekterkennung mit Infrarotsensor mit Matlab/Simulink und EV3]] || Christopher Brömse || 21 || 10
|-
|-
| 3 || [[SigSys15_Barcode erzeugen und lesen| Barcode erzeugen und lesen]] || [[Benutzer:Steffen_Schulze-Middendorf| Steffen Schulze-Middendorf]]
| 6 || [[Objekterkennung mit rotierenden Infrarotsensor mit Matlab/Simulink und EV3]] || Thorsten Drees || 22 || 11
|-
|-
| 4 || [[SigSys15_Start- und Stopplinienerkennung| Start- und Stopplinienerkennung]] || [[Benutzer:Tim Salinski|Tim Salinski]]
| 7 || [[Objekterkennung mit Kinect Tiefenkamera mit Matlab/Simulinkmit und EV3]] || Lars Naujocks || 23 & 24 || 03
|-
|-
| 5 || [[SigSys15_Verkehrszeichenerkennung |Verkehrszeichenerkennung]] || [[Benutzer:Ansgar_Ramesohl| Ansgar Ramesohl]]
| 8 || [[Objekterkennung mit HiTechnics EOPD mit Matlab/Simulink und EV3]] || Lena Gödeke || 26 || 04
|-
|-
| 6|| [[SigSys15_Target Tracking| Target Tracking]]||[[Benutzer:Asaad_Al-Suleihi| Asaad Al-Suleihi]]
| 9 || [[Distanzerkennung mit Beschleunigungssensor mit Matlab/Simulink und EV3]] || Fabian Lehnert|| 27 || 05
|-
|-
| 7 || [[SigSys15_Spurerkennung| Spurerkennung]] || [[Benutzer:Sergej_Krause| Sergej Krause]]
| 10 || [[Objekterkennung mit TeraRanger mit Matlab/Simulink auf einem EV3]] || Oleg Patrusev || 28 || 07
|-
|-
| 8      || [[SigSys15_Stereo-View| Stereo-View]] || [[Benutzer:Miladin_Ceranic| Miladin Ceranic]]
|}
|}
-->
 
== Einstieg in das Thema/Getting Started ==
* Es gibt die Möglichkeit, über S-Funktions Sensoren in MATLAB/Simulink einzubauen. Herr Giampiero Campa hat eine Anleitung geschrieben, die am Beispiel des Arduino Support Packages zeigt, wie dies geht: [http://www.mathworks.com/matlabcentral/fileexchange/39354-device-drivers Link].
* Es ist zusätzlich möglich, Sensorblöcke für die LEGO MINDSTORMS zu entwickeln. Voraussetzung hier ist ebenfalls, dass man Source-Code für die Sensorsteuerung zur Verfügung hat. Ein Beispiel von Herrn Guy Rouleau für NXT findet sich u.a. hier: [http://www.mathworks.com/matlabcentral/fileexchange/41159-example-driver-blocks-for-simulink-hardware-support-packages Link].
* Schauen Sie sich die Bestehenden Bibliotheken an und orientieren Sie sich an der Programmierung:
** [http://www.mindstorms.rwth-aachen.de/ RWTH Mindstorms Toolbox]
** [https://de.mathworks.com/matlabcentral/fileexchange/18646-rwth-mindstorms-nxt-toolbox NXT Toolbox]
** [https://de.mathworks.com/hardware-support/lego-mindstorms-matlab.html LEGO MINDSTORMS NXT Support from MATLAB]
** [[MATLAB Lego Mindstorms Support for NXT]]
 
Die von Lego über die Firmware unterstützten Geräte finden Sie [http://ev3.fantastic.computer/doxygen/types.html hier].
 
EV3 Dokumente
* [http://ev3.fantastic.computer/doxygen/index.html Firmware Dokumentation]
* [https://education.lego.com/de-de/support/mindstorms-ev3/developer-kits Education EV3 Developer Kits]
 
Weiterführender Wiki Artikel inkl. Demos: [[EV3_mit_Simulink | EV3 mit Simulink]]
 
== Nächste Schritte ==
# Suchen Sie sich ein Thema aus.
# Leihen Sie sich EV3-Roboter und Sensor aus.
# Lassen Sie sich einen Schließfachschlüssel für das Projekt geben.
# Bearbeiten Sie das Projekt im Semester.
# Dokumentieren Sie fortlaufend in SVN und Wiki.
# Geben Sie nach Projektabschluss die Hardware wieder zurück.


== Literatur ==
== Literatur ==

Aktuelle Version vom 6. Juli 2017, 16:03 Uhr

Autor: Prof. Schneider

Die Lehrveranstaltung "Signalverarbeitende Systeme" hat laut Modulhandbuch folgende Lernergebnisse/Kompetenzen:

Die Studierenden kennen die Elemente einer Signalverarbeitungskette und können Fehler erkennen, abschätzen analysieren und beheben.
Sie sind in der Lage signalspezifische analoge und digitale Filter auszulegen und anzuwenden.


Nachfolgende Inhalte wurden definiert

  • Hard- und Softwarearchitekturen in signalverarbeitenden Systemen
  • Moderne Analog-/Digital-Umsetzer
  • Signalauswertung und -erkennung
  • Digitale Signalverarbeitung
  • Entwurf und Realisierung analoger und digitaler Filter
  • Anwendungen der Signalverarbeitung (z.B. Digitale Bildverarbeitung)


Semesterbegleitende Prüfung

Jeder Studierend bearbeitet semesterbegleitend bis zum 07.07.17 ein Projekt mit Matlab/Lego Mindstorms lösen. Diese Lösung ist vor dem Stichtag in SVN zu sichern.

Tipp: Sichern Sie Ihre Ergebnisse während der Arbeit bereits systematisch in Ihren SVN-Ordner https://svn.hshl.de/svn/BSE_SigSys/trunk/Projekte/.

Aufgabenstellung

  • Bauen Sie einen fahrbaren und lenkbaren Roboter mit Lego Mindstorms EV3 (Bauanleitungen für einen Basisroboter steht zur Verfügung).
  • Steuern Sie diesen mit MATLAB/Simulink an (MATLAB/Simulink Toolbox).
  • Ergänzen Sie das Fahrzeug um einen Sensor, so dass das Fahrzeug auf ein Hinderniss zufährt (Kopierkarton) und 5cm davor eine automatische Notbremsung durchführt.
  • Beschreiben, untersuchen und verstehen Sie Ihre Signalverarbeitungskette.

Schritte zur Signalberarbeitung

  1. Auswahl eines Primärsensors
    1. Wie funktioniert der Sensor?
    2. Welche Rohsignale liefert der Sensor?
  2. Signalvorverarbeitung
    1. Sollen Messwerte oder vorverarbeitete Daten übertragen werden?
    2. Wie lässt sich eine Vorverarbeitung umsetzen?
    3. Wird eine Kennlinie eingesetzt? Wenn ja, wie wird diese kalibriert?
  3. Analog-Digital-Umsetzer
    1. Wie werden die analogen Signale umgesetzt?
    2. Welcher ADU kommt zum Einsatz?
    3. Welche Gründe sprechen für diesen ADU? Alternativen?
  4. Bussystem
    1. Wird ein Bussystem zwischen Sensor und Mikrocontroller eingesetzt?
    2. Wenn ja, wie funktioniert dieses Bussystem?
  5. Digitale Signalverarbeitung
    1. Welche Verarbeitungsschritte sind notwendig?
    2. Welche Filter werden angewendet?
    3. Bestimmen Sie Auflösung, Empfindlichkeit und Messunsicherheit des Sensors.
  6. Darstellung der Ergebnisse
    1. Welche Fehler treten in welchem Verarbeitungsschritt auf?
    2. Stellen Sie die Messunsicherheit bzw. das Vertrauensintervall dar.

Erwartungen an Ihre Lösung

Themenverteilung

# Thema Bearbeiter Schließfach EV3
1 Lidar Objekterkennung mit Matlab/Simulink und EV3 Nora Werner 13 01
2 Objekterkennung mit CmuCam v5 (Pixy-Cam) mit Matlab/Simulink und EV3 Gesina Tigger 16 02
3 Objekterkennung mit rotierenden Ultraschall mit Matlab/Simulink und EV3 Cosima Eckert-Ludwig 17 08
4 Objekterkennung mit Ultraschall mit Matlab/Simulink und EV3 Mike Westhoff 18 09
5 Objekterkennung mit Infrarotsensor mit Matlab/Simulink und EV3 Christopher Brömse 21 10
6 Objekterkennung mit rotierenden Infrarotsensor mit Matlab/Simulink und EV3 Thorsten Drees 22 11
7 Objekterkennung mit Kinect Tiefenkamera mit Matlab/Simulinkmit und EV3 Lars Naujocks 23 & 24 03
8 Objekterkennung mit HiTechnics EOPD mit Matlab/Simulink und EV3 Lena Gödeke 26 04
9 Distanzerkennung mit Beschleunigungssensor mit Matlab/Simulink und EV3 Fabian Lehnert 27 05
10 Objekterkennung mit TeraRanger mit Matlab/Simulink auf einem EV3 Oleg Patrusev 28 07

Einstieg in das Thema/Getting Started

  • Es gibt die Möglichkeit, über S-Funktions Sensoren in MATLAB/Simulink einzubauen. Herr Giampiero Campa hat eine Anleitung geschrieben, die am Beispiel des Arduino Support Packages zeigt, wie dies geht: Link.
  • Es ist zusätzlich möglich, Sensorblöcke für die LEGO MINDSTORMS zu entwickeln. Voraussetzung hier ist ebenfalls, dass man Source-Code für die Sensorsteuerung zur Verfügung hat. Ein Beispiel von Herrn Guy Rouleau für NXT findet sich u.a. hier: Link.
  • Schauen Sie sich die Bestehenden Bibliotheken an und orientieren Sie sich an der Programmierung:

Die von Lego über die Firmware unterstützten Geräte finden Sie hier.

EV3 Dokumente

Weiterführender Wiki Artikel inkl. Demos: EV3 mit Simulink

Nächste Schritte

  1. Suchen Sie sich ein Thema aus.
  2. Leihen Sie sich EV3-Roboter und Sensor aus.
  3. Lassen Sie sich einen Schließfachschlüssel für das Projekt geben.
  4. Bearbeiten Sie das Projekt im Semester.
  5. Dokumentieren Sie fortlaufend in SVN und Wiki.
  6. Geben Sie nach Projektabschluss die Hardware wieder zurück.

Literatur

  • Burger, W.; Burge, M. J. Digitale Bildverarbeitung: Eine Einführung mit Java und ImageJ. Berlin [u.a.]: Springer, 2. Auflage. 2006 (als eBook verfügbar)
  • Erhardt, A.: Einführung in die Digitale Bildverarbeitung: Grundlagen, Systeme und Anwendungen. Wiesbaden: Vieweg+Teubner 2008 (als eBook verfügbar)
  • Jähne, B. (2005). Digitale Bildverarbeitung. 6. Auflage. Berlin [u.a.]: Springer. (als eBook verfügbar) – Neue Auflage: 30. November 2012
  • Nischwitz, A.; Fischer, M.; Haberäcker, P.; Socher, G.: Computergrafik und Bildverarbeitung: Band II: Bildverarbeitung. Wiesbaden: Vieweg+Teubner, 3. Auflage. 2011. (als eBook verfügbar)
  • Tönnies, Klaus D.: Grundlagen der Bildverarbeitung. München: Pearson Studium, 2005.
  • Ballard, Dana H., Brown, Christopher M. (1982). Computer Vision. Englewood Cliffs (u.a.): Prentice-Hall



→ zurück zum Hauptartikel: Signalverarbeitende Systeme