SoSe24 - Praktikum Systementwurf - Inverse Perspektiventransformation (IPT): Unterschied zwischen den Versionen

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen
(Bild und Tabellen Index angepasst)
Zeile 128: Zeile 128:
| <strong>Programmablaufplan&thinsp;</strong>
| <strong>Programmablaufplan&thinsp;</strong>
|-
|-
| [[Datei:PAP StartInversePerspektivenTransformation.png|600px|thumb|right|Abb. 10: PAP der Inverse Perspektiventransformation]]
| [[Datei:PAP StartInversePerspektivenTransformation.png|600px|thumb|right|Abb. 4: PAP der Inverse Perspektiventransformation]]
|}
|}


Zeile 265: Zeile 265:


== Ergebnisse ==
== Ergebnisse ==
In Abbildung 3 sehen Sie das Originalbild unverzerrt. <br>
In Abbildung 5 sehen Sie das Originalbild unverzerrt. <br>
In Abbildung 4 sehen sie das Originalbild entzerrt und in die BirdEyeView transformiert.
In Abbildung 6 sehen sie das Originalbild entzerrt und in die BirdEyeView transformiert.
[[Datei:Geradeaus.png|500px|mini|links|Abbildung 3: Original Bild von Geradeaus]]
[[Datei:Geradeaus.png|500px|mini|links|Abbildung 5: Original Bild von Geradeaus]]
[[Datei:Geradeaus IPT.jpg|400px|mini|zentriert|Abbildung 4: In BirdeyeView Umgewandeltes Bild ]]  
[[Datei:Geradeaus IPT.jpg|400px|mini|zentriert|Abbildung 6: In BirdeyeView Umgewandeltes Bild ]]  
<br clear="all">
<br clear="all">


Zeile 276: Zeile 276:
== Analyse ==
== Analyse ==
{| class="wikitable"
{| class="wikitable"
|+ Tabelle 3: Problembeschreibung
|+ Tabelle 4: Problembeschreibung
|-
|-
! Beschreibung !! Das Problem ist.. !! Das Problem ist nicht...
! Beschreibung !! Das Problem ist.. !! Das Problem ist nicht...
Zeile 291: Zeile 291:
|}
|}
{| class="wikitable"
{| class="wikitable"
|+ Tabelle 4: Ursachenanalyse
|+ Tabelle 5: Ursachenanalyse
|-
|-
! Nr. !! Beschreibung  
! Nr. !! Beschreibung  
Zeile 302: Zeile 302:
|}
|}
{| class="wikitable"
{| class="wikitable"
|+ Tabelle 5: Maßnahmen zur Beseitigung der identifizierten Ursache(n)
|+ Tabelle 6: Maßnahmen zur Beseitigung der identifizierten Ursache(n)
|-
|-
! Nr. !! Maßnahme !! Verantwortung !! Termin !! Status
! Nr. !! Maßnahme !! Verantwortung !! Termin !! Status

Version vom 3. Juli 2024, 13:54 Uhr

Abbildung 1: GeradeInKurve in BirdeyeView Perspektive
Autoren: Daniel Block, Paul Janzen
Thema: Inverse Perspektiventransformation (IPT)
Workshoptermin 9: 20.06.2024
Lernzielkontrolle 3: 04.07.2024

Einleitung

In diesem Wikiartikel wird dargestellt, wie wir eine Inverse Perspektiventransformation (IPT) auf ein Bild und ein Video angewendet haben (siehe Abbildung 1). Die angewendete IPT war eine sogenannte Bird's Eye View-Transformation. Diese Technik bietet eine unverzerrte Draufsicht, die die Erkennung und Verfolgung von Fahrspuren erheblich erleichtert, da die Linien parallel und gleichmäßig erscheinen.

Kalibrierung der Kamera für Wagen 1

Abbildung 2: Original und entzerrtes Bild

Die Ergebnisse der Entzerrung sehen Sie in Abbildung 2 und Abbildung 3.
Für die Erstellung des kalibrierten Bildes wurden folgende von der App erstellten Parameter verwendet:

Tabelle 1: Erzeugte Parameter der Matlab Calibrator App
Parameter Wert
Brennweite (FocalLength) [472.3687, 473.2485]
Bildgröße (ImageSize) [478, 752]
Radiale Verzerrung (RadialDistortion) [-0.3437, 0.1698, -0.0485]
Tangentiale Verzerrung (TangentialDistortion) [0.0016, -0.0018]
Hauptpunkt (PrincipalPoint) [386.103, 228.4705]
Mittlerer Reprojektionsfehler (MeanReprojectionError) 0.1542
Tabelle 2: Extrinsische Kameraparameter
Parameter Wert
Kameraneigung 10°
Kamerahöhe über Boden 27,5cm
Fahrzeugfront bis Kamera 27cm
Fahrzeuglänge 41cm
Fahrzeugbreite 20cm


Ergebnissdarstellung nach Entzerrung

Abbildung 3: Ergebnissdarstellung nach Entzerrung


Inversen Perspektiventransformation

Tabelle 3: Beschreibung der MATLAB Funktion(en), Eingangs- und Ausgangsparameter
Name der Funktion Eingangsparameter Ausgangsparameter
cameraParameters
  • IntrinsicMatrix: Eine 3x3-Matrix, die die intrinsischen Kameraparameter darstellt.
  • RadialDistortion: Ein Vektor, der die radialen Verzerrungskoeffizienten enthält.
  • TangentialDistortion: Ein Vektor, der die tangentialen Verzerrungskoeffizienten enthält.
  • ImageSize: Eine zweielementige Vektor, die die Größe des Bildes in Pixeln (Breite, Höhe) angibt.
Ein cameraParameters-Objekt, das die Kalibrierungsparameter der Kamera enthält.
cameraIntrinsics
  • FocalLength: Ein zweielementiger Vektor [fx, fy], der die Brennweiten in Pixeln angibt.
  • PrincipalPoint: Ein zweielementiger Vektor [cx, cy], der den Hauptpunkt in Pixeln angibt.
  • ImageSize: Eine zweielementige Vektor, die die Größe des Bildes in Pixeln (Breite, Höhe) angibt.
Ein cameraIntrinsics-Objekt, das die intrinsischen Parameter der Kamera enthält.
monoCamera
  • cameraIntrinsics: Ein cameraIntrinsics-Objekt, das die intrinsischen Parameter der Kamera enthält.
  • height: Die Höhe der Kamera über dem Boden (in Metern).
  • pitch (optional): Der Neigungswinkel der Kamera in Grad.
Ein monoCamera-Objekt.
undistortImage
  • I: Das verzerrte Eingangsbild.
  • cameraParams: Ein cameraParameters-Objekt, das die Verzerrungsparameter enthält.
J: Das entzerrte Bild.
im2bw
  • I: Das Eingangs-Graustufenbild.
  • level (optional): Der Schwellenwert zum Binarisieren des Bildes. Werte zwischen 0 und 1.
BW: Das binäre Bild.
birdsEyeView
  • sensor: Ein monoCamera-Objekt.
  • distAhead: Die Entfernung vor dem Fahrzeug in Metern.
  • spaceToOneSide: Die Entfernung zu einer Seite des Fahrzeugs in Metern.
  • bottomOffset: Der Abstand des unteren Randes des Bildes zur Kamera in Metern.
  • outView (optional): Ein zweielementiger Vektor [width, height] für die Ausgabeansicht in Metern.
Ein birdsEyeView-Objekt.
transformImage
  • BEV: Ein birdsEyeView-Objekt.
  • I: Das Eingangsbild.
J: Das transformierte Bild.
VideoReader
  • filename: Der Name der Videodatei.
Ein VideoReader-Objekt.
VideoWriter
  • filename: Der Name der zu schreibenden Videodatei.
  • profile (optional): Das Profil für die Videokomprimierung (z.B. 'MPEG-4').
Ein VideoWriter-Objekt.
writeVideo
  • writerObj: Ein VideoWriter-Objekt.
  • frame: Der Frame, der in die Datei geschrieben werden soll (kann ein Bild oder ein Array von Bildern sein).
Keine. Die Funktion schreibt die Daten in die Datei.

PAP

Quelltext

Ergebnisse

In Abbildung 5 sehen Sie das Originalbild unverzerrt.
In Abbildung 6 sehen sie das Originalbild entzerrt und in die BirdEyeView transformiert.

Abbildung 5: Original Bild von Geradeaus
Abbildung 6: In BirdeyeView Umgewandeltes Bild


SVN-Link zu den Ergebnissen: https://svn.hshl.de/svn/MTR_SDE_Praktikum/trunk/_Semesterordner/SS2024/Team_1_Block_Janz.

Analyse

Tabelle 4: Problembeschreibung
Beschreibung Das Problem ist.. Das Problem ist nicht...
Was genau ist das Problem? Neben der Fahrbahn werden auch Störelemente aufgenommen Die Erstellung von Bildern oder Videos
Wo tritt das Problem auf? Die Kamera zeichnet die Störquellen mit auf. In dem zur Verfügung gestellten Video "GeradeInKurve" Die Kamera
Wie zeigt sich das Problem? Zusätzliche Kanten und Muster werden in den transformierten Bildern angezeigt der gewählte Bereich von Interesse (ROI)
Wann tritt das Problem auf? Wenn eine externe Lichtquelle, wie die Sonne, auf die Fahrbahn scheint Die Fahrbahn
Warum ist es ein Problem? Bei der Weiterarbeitung können ungewollte Kanten erkannt werden Die Kantenerkennung
Tabelle 5: Ursachenanalyse
Nr. Beschreibung
1 Licht Empfindlichkeit der Kamera ist zu hoch eingestellt
2 Ungünstiger Lichteinfall zur Bildaufnahme
3 Objekte neben der Fahrbahn
Tabelle 6: Maßnahmen zur Beseitigung der identifizierten Ursache(n)
Nr. Maßnahme Verantwortung Termin Status
1 Auseinandersetzen mit den Kamera Einstellungen Block, Janzen 04.07.2024
2 Abdunkeln der Fenster Block, Janzen 04.07.2024
3 Bewegliche Objekte aus der Kamerasicht entfernen. Nicht bewegliche Objekte abdecken Block, Janzen 04.07.2024

Hinweis: Die Maßnahmen müssen nicht umgesetzt werden.

Zusammenfassung

In diesem Praktikum zum Systementwurf und zur inversen Perspektiventransformation (IPT) wird die Kalibrierung der Kamera, die Transformation von Bildern und Videos in eine Vogelperspektive sowie die Analyse der Ergebnisse beschrieben. Die Kalibrierung der Kamera umfasst die Ermittlung intrinsischer und extrinsischer Parameter. Durch die Anwendung der IPT werden Bilder entzerrt, um die Verfolgung von Fahrspuren zu erleichtern. Die Analyse identifiziert Probleme wie Störelemente in Bildern und schlägt Maßnahmen zur Verbesserung der Bildqualität vor. Die Bearbeitung und Transformation von Videomaterial wird ebenfalls detailliert erläutert.

Diskussion der Ergebnisse

- Entzerrung der Kamerabilder hat gut funktioniert

- Inverse Perspektiven Transformation hat gut Funktioniert.

- Störelemente konnten nicht durch Color Threshholder entfernt werden.

Lessons Learned

- Umgang mit Matlab Apps (Camera Calibrator und Color Threshholder)

- Bestimmung der intrinischen und extrinischen Kameraparameter

- Entzerrung von Bildern und Videos in Matlab

- Anwendung der Inverse Perspektiven Transformation auf Bilder und Videos in Matlab

Beantwortung der Lernzielkontrollfragen

Wofür werden die Kamerakalibrierparameter verwendet?

Kamerakalibrierparameter werden verwendet, um die Verzerrungen einer Kamera zu korrigieren. Folgende Parameter sind notwendig:

  • Fokuslänge
  • Radiale Verzerrung
  • Tangentiale Verzerrung
  • Mittlerer Reprojektionsfehler

Nach Ermittlung dieser Parameter kann eine K-Matrix aufgestellt werden, mithilfe welcher das Kamerabild entzerrt werden kann. Nach der Entzerrung sollte das Bild realitätsnah sein.

Was ist ein Region-of-Interest (ROI)? Wie wird dieser gewählt?

Ein Region-of-Interest (ROI) ist ein spezifischer Bereich eines Bildes, der für die Analyse ausgewählt wird. Dieser wird basierend auf der Relevanz für die aktuelle Aufgabe gewählt, um Rechenressourcen zu sparen und die Analyse zu fokussieren. Kriterien können die Position von Objekten, Bewegungen oder andere relevante Merkmale sein.

Wie führt man eine effektive Binarisierung durch?

Die Biniarisierung ist ein Verfahren, bei dem ein Bild in zwei Farben (normalerweise schwarz und weiß) umgewandelt wird, basierend auf einem bestimmten Schwellenwert (Threshold). Es ist ein grundlegender Schritt in der Bildverarbeitung, insbesondere für die Segmentierung. Der Threshold sollte so gewählt werden, sodass nur die gewünschten Kanten und Objekte im Biniarisierten Bild erkennbar sind. Die Matlab Funktion, welche wir hier für verwendet haben ist die im2bw Funktion.

Welche Fehler zeigen sich im Binärbild? Wie lassen sich diese beheben?

Fehler die bei Binärbildern auftreten sind häufig fehlerhaft detektierte Kanten. Diese können möglicherweise behoben werden, indem aus dem Eingangsbild die ungewünschten Farben ausgeschlossen werden. Dies ist zum Beispiel mit der Matlab App: Color Tresholder möglich.


→ zurück zum Hauptartikel: Praktikum SDE | SDE-Team 2024/25 | Lernzielkontrolle 3