Projektaufbau – Entrauschungs-KI: Unterschied zwischen den Versionen

Aus HSHL Mechatronik
Zur Navigation springen Zur Suche springen
Adrian.klinspon@stud.hshl.de (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
Adrian.klinspon@stud.hshl.de (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
 
(9 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
{| class="wikitable"
|-
| '''Autoren:''' || Fabian Babik, [[Benutzer:Adrian.klinspon@stud.hshl.de| Adrian Klinspon]]
|-
| '''Art:''' || [[Signalverarbeitung mit MATLAB und künstlicher Intelligenz (KI) - Praxissemester|Projekt im Praxissemester]]
|-
| '''Dauer:''' || 29.09.2025 bis 09.01.2026
|-
| '''Betreuer:''' || [[Benutzer:Ulrich_Schneider|Prof. Dr.-Ing. Schneider]]
|}
= Aufbau =
= Aufbau =
Dieses Projekt implementiert ein Denoising Convolutional Neural Network (DnCNN) in MATLAB unter Verwendung von Residual Learning. Es dient dazu, Bildrauschen aus digitalen Bildern zu entfernen. Im Gegensatz zu klassischen Ansätzen lernt das Netz hierbei das Rauschen selbst (Residual) und subtrahiert es vom Eingangsbild.
Dieses Projekt implementiert ein Denoising Convolutional Neural Network (DnCNN) in MATLAB unter Verwendung von Residual Learning. Es dient dazu, Bildrauschen aus digitalen Bildern zu entfernen. Im Gegensatz zu klassischen Ansätzen lernt das Netz hierbei das Rauschen selbst (Residual) und subtrahiert es vom Eingangsbild.
Zeile 6: Zeile 26:
* Deep Learning Toolbox
* Deep Learning Toolbox
* Image Processing Toolbox
* Image Processing Toolbox
* Computer Vision Toolbox
* Parallel Computing Toolbox
* Parallel Computing Toolbox


= Training (<code>DnCnnTrain.m</code>)=
= Training (<code>TrainDnCNN.m</code>)=
Trainiert das neuronale Netz mit Bildern aus dem Ordner <code>./BSDS500</code>.
Trainiert das neuronale Netz mit Bildern aus dem Ordner <code>./ImagesForTraining</code>. Dieser Ordner enthält die Trainingsdaten, zusammengestellt aus den Datensätzen BSDS500 und DIV2K.


== Funktionsweise ==
== Funktionsweise ==
Im Gegensatz zu einfachen Ansätzen lädt dieses Skript nicht ganze Bilder, sondern zerlegt diese in kleine Ausschnitte (Patches), um den GPU-Speicher effizient zu nutzen und die Trainingsmenge zu erhöhen.
Das Skript prüft, ob Patches existieren, und bietet via Dialog an, neue zu erstellen.
 
* '''Daten-Verarbeitung'''
* '''Patch-Extraktion:''' Bilder werden in 50x50 Pixel große Quadrate zerlegt (Stride: 30px).
** '''Quellen:''' Bilder werden aus <code>./ImagesForTraining</code> (und Unterordnern) geladen.
* '''Speicherung:''' Patches werden physisch im Ordner <code>./PatchesCreatedByThisScriptInOrderToProperlyTrainTheAI</code> abgelegt.
** '''Patch-Extraktion:''' Bilder werden in 50x50 Pixel große Ausschnitte zerlegt (Stride: 30px, Overlap: 20px).
* '''Architektur:''' Ein 15-Layer tiefes CNN mit Residual Learning (Regression Layer am Ende).
** '''Filterung:''' Nur RGB-Bilder, die größer als die Patches sind, werden verarbeitet.
** '''Speicherung:''' Patches werden physisch im Ordner <code>./PatchesCreatedByThisScriptInOrderToProperlyTrainTheAI</code> abgelegt.
* '''Datensatz-Split:''' Die erstellten Patches werden im Verhältnis 90:10 in Trainings- und Validierungsdaten unterteilt (<code>trainSplit = 0.9</code>)
* '''Noise-Augmentation:''' Während des Trainings wird dynamisch Rauschen mittels einer Helper-Funktion (<code>addNoise</code>) hinzugefügt.
* '''Architektur:''' Ein 15-Layer tiefes CNN mit Residual Learning.
* '''Optimiser:''' Verwendet ADAM mit dynamischer Anpassung der Lernrate (Piecewise Drop).
* '''Optimiser:''' Verwendet ADAM mit dynamischer Anpassung der Lernrate (Piecewise Drop).
* '''Training-Modi:''' Über einen Dialog kann gewählt werden zwischen:
# '''Train new AI:''' Startet mit einer Lernrate von <code>1e-3</code>.
# '''Train old AI:''' Lädt trainierte AI und setzt das Training mit einer feineren Lernrate von <code>1e-4</code> fort.
* '''Speicherung:''' Das beste Ergebnis (gemessen am Validation-Loss) wird gespeichert. Das finale Netz wird unter <code>.KIs/Neue_KI.mat</code> abgelegt.


== Code-Auszug ==
== Code-Auszug ==
<syntaxhighlight lang="matlab">% Konfiguration
<syntaxhighlight lang="matlab">
patchSize = 50;
% --- Grundkonfiguration & Parameter ---
networkDepth = 15;
pathToImages = './ImagesForTraining';
numFilters = 64;
patchDirectory = './PatchesCreatedByThisScriptInOrderToProperlyTrainTheAI';
 
patchSize = 50;           % Patch-Größe: 50x50 Pixel
stride = 30;              % Versatz (Stride)
trainSplit = 0.9;        % 90% Training, 10% Validierung
maxPatchesPerImage = 600; % Max. 600 Patches pro Bild
networkDepth = 15;       % Tiefe des Netzwerks
 
% --- (Code-Abschnitt zur Patch-Erstellung hier ausgeblendet) ---
% ... Bilder werden geladen, geprüft und in Patches zerlegt ...
 
% --- Datensatz vorbereiten ---
% Lädt alle Patches und konvertiert sie zu Double
allPatches = imageDatastore(patchDirectory, 'ReadFcn', @(f)im2double(imread(f)));


% GPU-Kompatibilität erzwingen
% Zufällige Aufteilung (Split)
parallel.gpu.enableCUDAForwardCompatibility(true);
numFiles = numel(allPatches.Files);
idx = randperm(numFiles);
trainFiles = allPatches.Files(idx(1:round(trainSplit * numFiles)));
valFiles  = allPatches.Files(idx(round(trainSplit * numFiles) + 1:end));


% Netzwerk-Architektur (Auszug)
% Datastores mit dynamischem Rauschen (addNoise Funktion) erstellen
layers = [
dsTrain = transform(imageDatastore(trainFiles), @(x)addNoise(x, true));
    imageInputLayer([patchSize patchSize channels], "Normalization", "none")
dsVal  = transform(imageDatastore(valFiles),   @(x)addNoise(x, true));
    convolution2dLayer(3, numFilters, 'Padding', 'same')
    batchNormalizationLayer
    reluLayer
];


% Dynamischer Aufbau der mittleren Layer
% --- Netzwerk-Architektur & Modus ---
for i = 2:(networkDepth-1)
% Abfrage: Neue KI trainieren oder alte fortsetzen?
if strcmp(trainNewOrOldAI, 'Neue KI trainieren')
    initialLRate = 1e-3;
   
    % 1. Eingabe-Block (Start)
    layers = [
        imageInputLayer([patchSize patchSize 3], "Normalization", "none")
        convolution2dLayer(3, 64, 'Padding', 'same')
        batchNormalizationLayer
        reluLayer
    ];
 
    % 2. Mittlere Layer (Schleife für Tiefe)
    for i = 2:(networkDepth-1)
        layers = [
            layers
            convolution2dLayer(3, 64, 'Padding', 'same')
            batchNormalizationLayer
            reluLayer
        ];
    end
 
    % 3. Ausgabe-Block (Ende)
     layers = [
     layers = [
         layers
         layers
         convolution2dLayer(3, numFilters, 'Padding', 'same')
         convolution2dLayer(3, 3, "Padding","same")
         batchNormalizationLayer
         batchNormalizationLayer
         reluLayer
         regressionLayer
     ];
     ];
   
    lGraph = layerGraph(layers);
else
    % Alte KI laden
    loadNet = load('./KIs/Alte_KI.mat');
    lGraph = layerGraph(loadNet.net);
    initialLRate = 1e-4; % Feinere Lernrate
end
end


% Abschluss (Residual Learning)
% --- Training Starten ---
layers = [
options = trainingOptions("adam", ...
     layers
    'MaxEpochs', 50, ...
     convolution2dLayer(3, channels, "Padding","same")
    'MiniBatchSize', 128, ...
     batchNormalizationLayer
    'InitialLearnRate', initialLRate, ...
     regressionLayer
     'LearnRateSchedule', 'piecewise', ...
];
     'LearnRateDropFactor', 0.3, ...
    'LearnRateDropPeriod', 12, ...
     'ValidationData', dsVal, ...
     'OutputNetwork', 'best-validation-loss', ...
    'Plots', 'training-progress');


% Training starten
net = trainNetwork(dsTrain, lGraph, options);
options = trainingOptions("adam", ...
save('.KIs/Neue_AI.mat', 'net');
'MaxEpochs', 70, ...
</syntaxhighlight>
'ExecutionEnvironment', 'gpu', ...
);
net = trainNetwork(dsTrain, lgraph, options);</syntaxhighlight>


= Evaluierung (<code>DnCnnEval.m</code>) =
= Evaluierung (<code>EvalDnCNN.m</code>) =
Wendet das trainierte Modell auf neue Bilder im Ordner <code>./Testbilder</code> an.
Wendet das trainierte Modell auf neue Bilder im Ordner <code>./Testbilder</code> an und speichert die Ergebnisse in einem Unterordner.


== Funktionsweise ==
== Funktionsweise ==
* '''Preprocessing:''' Lädt Bilder und konvertiert Graustufenbilder künstlich in 3-Kanal-Bilder (RGB), um die Kompatibilität mit dem Netz zu gewährleisten.
* '''Dateimanagement:''' Das Skript sucht automatisch nach diversen Bildformaten (.png, .jpg, .tif, etc.) und erstellt einen Ausgabeordner.
* '''Rauschen:''' Falls das Bild als "sauber" markiert ist, fügt das Skript automatisch Gaußsches Rauschen hinzu.
* '''Preprocessing:''' Lädt Bilder, wandelt sie in `double` um und konvertiert Graustufenbilder künstlich in 3-Kanal-Bilder (RGB), da das Netz RGB erwartet.
* '''Visualisierung:''' Erstellt eine "Input vs. Output"-Collage.
* '''Rauschen:''' Über das Flag <code>isImageNoisy</code> wird gesteuert, ob das Bild bereits verrauscht ist. Falls nicht (0), fügt das Skript automatisch Gaußsches Rauschen hinzu.
* '''Entrauschen:''' Das Bild wird durch das Netz geschickt (<code>denoiseImages</code>) und anschließend mittels <code>imresize</code> sicherheitshalber auf die Originalgröße zurückskaliert.
* '''Fehlerbehandlung:''' Durch einen <code>try-catch</code>-Block stürzt das Skript nicht ab, falls eine einzelne Datei beschädigt ist.
* '''Visualisierung:''' Erstellt eine Collage (Original | Weißer Trennstrich | Ergebnis) mit dynamischer Schriftgröße für die Beschriftung ("Input", "Output").


== Code-Auszug ==
== Code-Auszug ==
<syntaxhighlight lang="matlab">% Modell laden
<syntaxhighlight lang="matlab">
clear; clc; close all;
 
% --- Parameter ---
imageFolder = './TestBilder';  % Verzeichnis mit den Testbildern
isImageNoisy = 1;              % 1 = Bilder sind schon verrauscht, 0 = Rauschen hinzufügen
 
% --- Output Konfiguration ---
outputFolder = fullfile(imageFolder, 'KI'); % Zielpfad
if ~exist(outputFolder, 'dir')
    mkdir(outputFolder); % Erstellt Ordner, falls nicht vorhanden
end
 
% --- Modell laden ---
if ~exist('net', 'var')
if ~exist('net', 'var')
     data = load("Path/AI_InitialLearnRate_1e-3.mat");
    % Lädt das trainierte Netzwerk (.mat Datei)
     net = data.net;
     data = load('KIs/KI.mat');  
     net = data.net;  
end
end


% Rauschen hinzufügen (falls nötig)
% --- Bilder suchen (Auszug) ---
if ~isImageNoisy
% (Hier sucht das Skript nach .png, .jpg, .tif, etc. und füllt 'allImages')
    imgDouble = imnoise(imgDouble, "gaussian", 0, 0.03);
% ...
end
 
% --- Verarbeitungs-Schleife ---
fprintf('Verarbeite %d Bilder. Bitte warten...\n', numel(allImages));
 
for k = 1:numel(allImages)
    try
        % Bild laden und Basisnamen extrahieren
        fullFileName = fullfile(allImages(k).folder, allImages(k).name);
        [~, baseName, ~] = fileparts(allImages(k).name);
       
        imgDouble = im2double(imread(fullFileName));
 
        % Graustufen zu RGB konvertieren falls nötig
        if size(imgDouble, 3) == 1
            imgDouble = cat(3, imgDouble, imgDouble, imgDouble);
        end
       
        [h, w, ~] = size(imgDouble); % Original-Dimensionen speichern
 
        % Rauschen simulieren (falls Flag auf 0)
        if ~isImageNoisy
            imgDouble = imnoise(imgDouble, "gaussian", 0, 0.03);
        end
 
        % --- Entrauschen ---
        % Wendet das Netz an
        imgRestored = denoiseImages(net, imgDouble, 50, 20, true);
       
        % Auf Originalgröße zurückskalieren & RGB sicherstellen
        imgRestored = imresize(imgRestored, [h, w]);
        if size(imgRestored, 3) == 1
            imgRestored = cat(3, imgRestored, imgRestored, imgRestored);
        end
 
        % --- Collage erstellen (Input | Separator | Output) ---
        separatorWidth = 20;
        separator = ones(h, separatorWidth, 3); % Weißer Streifen
        collage = [imgDouble, separator, imgRestored];
 
        % Beschriftung und Positionierung
        textLabels = {'Input', 'Output'};
        positions = [10, 10; (w + separatorWidth + 10), 10];
 
        collage = insertText(collage, positions, textLabels, ...
            'FontSize', max(20, round(h/25)), ... % Dynamische Schriftgröße
            'BoxColor', 'white', 'BoxOpacity', 0.7, 'TextColor', 'black');


% Entrauschen
        % Speichern
imgRestored = denoiseImages(net, imgDouble, 50, 50/2, true);
        saveName = fullfile(outputFolder, [baseName '_Result.jpg']);
        imwrite(collage, saveName);


% Collage erstellen (Input | Separator | Output)
    catch ME
separatorWidth = 20;
        % Fehler abfangen und Loop fortsetzen
separator = ones(h, separatorWidth, 3);
        fprintf('Konnte %s nicht speichern: %s\n', allImages(k).name, ME.message);
collage = [imgDouble, separator, imgRestored];
    end
end
</syntaxhighlight>


% Beschriftung einfügen
= Rausch-Generator Tool (<code>addNoise.m</code>) =
textLabels = {'Input', 'Output'};
Diese Funktion dient der dynamischen Datenaufbereitung (Data Augmentation) während des Trainings. Sie wird vom `imageDatastore` aufgerufen, um jedem sauberen Bild Rauschen hinzuzufügen und das Trainingsziel zu definieren.
positions = [10, 10; (w + separatorWidth + 10), 10];


collage = insertText(collage, positions, textLabels, ...
== Funktionsweise==
    'FontSize', max(20, round(h/25)), ...
* '''Input:''' Erwartet ein sauberes Bild (`clean`) und das Flag für Residual Learning (`useResidual`).
    'BoxColor', 'white', ...
* '''Dynamisches Rauschen:''' Es wird zufällig (50/50 Chance) zwischen '''Gaußschem Rauschen''' und '''Salt & Pepper''' gewählt.
    'BoxOpacity', 0.7);
* '''Variable Intensität:''' Die Stärke des Rauschens ist nicht statisch, sondern variiert zufällig zwischen **0.01 und 0.10** (`0.01 + rand()*0.09`).
* '''Residual Learning:'''
** Ist <code>useResidual = true</code>, berechnet die Funktion die Differenz (<code>noisy - clean</code>). Das Netz lernt also nur, das Rauschen vorherzusagen.
** Ist <code>useResidual = false</code>, ist das Ziel das saubere Originalbild.
* '''Output:''' Gibt ein Paar <code>{verrauschtesBild, ZielBild}</code> zurück.


imwrite(collage, saveName);</syntaxhighlight>
== Code ==
<syntaxhighlight lang="matlab">
function pair = addNoise(clean, useResidual)
    clean = im2double(clean); % Konvertiert Bild in Double-Format (0 bis 1)


= Rausch-Generator Tool (<code>DnCNNNoise.m</code>) =
    % Zufällige Auswahl des Rausch-Typs (50% Chance)
Ein Hilfsskript, um einen kompletten Ordner von Bildern permanent zu verrauschen, falls Testdaten benötigt werden.
    if rand() > 0.5
        % Gaußsches Rauschen mit zufälliger Varianz (0.01 bis 0.10)
        noisy = imnoise(clean,'gaussian', 0, 0.01 + rand() * 0.09);
    else
        % Salt & Pepper Rauschen mit zufälliger Dichte (0.01 bis 0.10)
        noisy = imnoise(clean, 'salt & pepper', 0.01 + rand() * 0.09);
    end


== Funktionsweise & Code ==
    % Berechnung des Trainingsziels (Target)
Nutzt eine grafische Oberfläche (GUI) zur Ordnerauswahl und die Image Processing Toolbox (<code>imnoise</code>), um mathematisch exaktes Rauschen hinzuzufügen.<br>
    % Wenn useResidual == true:  Target = (noisy - clean) -> Nur das Rauschen lernen
<syntaxhighlight lang="matlab">% User Interface für Auswahl
    % Wenn useResidual == false: Target = clean          -> Das saubere Bild lernen
noiseChoice = questdlg('Which noise for ALL images?', 'Noise Type', ...
    target = useResidual * (noisy - clean) + ~useResidual * clean;
    'Salt & Pepper', 'Gaussian', 'Speckle', 'Gaussian');


% Rauschen anwenden
     pair = {noisy, target}; % Rückgabe als Paar für den Datastore
switch noiseChoice
end
     case 'Salt & Pepper'
</syntaxhighlight>
        % Fügt "Salz und Pfeffer"-Rauschen hinzu (Dichte: 0.05)
        imgNoisy = imnoise(img, 'salt & pepper', 0.05);
    case 'Gaussian'
        % Fügt Gaußsches Rauschen hinzu (Mittelwert 0, Varianz 0.01)
        imgNoisy = imnoise(img, 'gaussian', 0, 0.01);
    case 'Speckle'
        % Fügt multiplikatives Rauschen hinzu (Varianz 0.04)
        imgNoisy = imnoise(img, 'speckle', 0.04);
end</syntaxhighlight>


= Quellen =
= Quellen =
* P. Arbeláez, M. Maire, C. Fowlkes and J. Malik, "Contour Detection and Hierarchical Image Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 5, pp. 898-916, May 2011, doi: 10.1109/TPAMI.2010.161. keywords: {Image segmentation;Pixel;Detectors;Image edge detection;Humans;Histograms;Benchmark testing;Contour detection;image segmentation;computer vision.}
* P. Arbeláez, M. Maire, C. Fowlkes and J. Malik, "Contour Detection and Hierarchical Image Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 5, pp. 898-916, May 2011, doi: 10.1109/TPAMI.2010.161. keywords: {Image segmentation;Pixel;Detectors;Image edge detection;Humans;Histograms;Benchmark testing;Contour detection;image segmentation;computer vision.}
* R. Timofte, S. Gu, J. Wu, L. Van Gool, L. Zhang, M.-H. Yang, M. Haris et al., "NTIRE 2018 Challenge on Single Image Super-Resolution: Methods and Results," in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2018.
* R. Timofte, S. Gu, J. Wu, L. Van Gool, L. Zhang, M.-H. Yang, M. Haris et al., "NTIRE 2018 Challenge on Single Image Super-Resolution: Methods and Results," in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2018.

Aktuelle Version vom 4. Februar 2026, 15:12 Uhr

Autoren: Fabian Babik, Adrian Klinspon
Art: Projekt im Praxissemester
Dauer: 29.09.2025 bis 09.01.2026
Betreuer: Prof. Dr.-Ing. Schneider

Aufbau

Dieses Projekt implementiert ein Denoising Convolutional Neural Network (DnCNN) in MATLAB unter Verwendung von Residual Learning. Es dient dazu, Bildrauschen aus digitalen Bildern zu entfernen. Im Gegensatz zu klassischen Ansätzen lernt das Netz hierbei das Rauschen selbst (Residual) und subtrahiert es vom Eingangsbild.

Technische Voraussetzungen

MATLAB mit folgenden Toolboxen:

  • Deep Learning Toolbox
  • Image Processing Toolbox
  • Computer Vision Toolbox
  • Parallel Computing Toolbox

Training (TrainDnCNN.m)

Trainiert das neuronale Netz mit Bildern aus dem Ordner ./ImagesForTraining. Dieser Ordner enthält die Trainingsdaten, zusammengestellt aus den Datensätzen BSDS500 und DIV2K.

Funktionsweise

Das Skript prüft, ob Patches existieren, und bietet via Dialog an, neue zu erstellen.

  • Daten-Verarbeitung
    • Quellen: Bilder werden aus ./ImagesForTraining (und Unterordnern) geladen.
    • Patch-Extraktion: Bilder werden in 50x50 Pixel große Ausschnitte zerlegt (Stride: 30px, Overlap: 20px).
    • Filterung: Nur RGB-Bilder, die größer als die Patches sind, werden verarbeitet.
    • Speicherung: Patches werden physisch im Ordner ./PatchesCreatedByThisScriptInOrderToProperlyTrainTheAI abgelegt.
  • Datensatz-Split: Die erstellten Patches werden im Verhältnis 90:10 in Trainings- und Validierungsdaten unterteilt (trainSplit = 0.9)
  • Noise-Augmentation: Während des Trainings wird dynamisch Rauschen mittels einer Helper-Funktion (addNoise) hinzugefügt.
  • Architektur: Ein 15-Layer tiefes CNN mit Residual Learning.
  • Optimiser: Verwendet ADAM mit dynamischer Anpassung der Lernrate (Piecewise Drop).
  • Training-Modi: Über einen Dialog kann gewählt werden zwischen:
  1. Train new AI: Startet mit einer Lernrate von 1e-3.
  2. Train old AI: Lädt trainierte AI und setzt das Training mit einer feineren Lernrate von 1e-4 fort.
  • Speicherung: Das beste Ergebnis (gemessen am Validation-Loss) wird gespeichert. Das finale Netz wird unter .KIs/Neue_KI.mat abgelegt.

Code-Auszug

% --- Grundkonfiguration & Parameter ---
pathToImages = './ImagesForTraining'; 
patchDirectory = './PatchesCreatedByThisScriptInOrderToProperlyTrainTheAI';

patchSize = 50;           % Patch-Größe: 50x50 Pixel
stride = 30;              % Versatz (Stride)
trainSplit = 0.9;         % 90% Training, 10% Validierung
maxPatchesPerImage = 600; % Max. 600 Patches pro Bild
networkDepth = 15;        % Tiefe des Netzwerks

% --- (Code-Abschnitt zur Patch-Erstellung hier ausgeblendet) ---
% ... Bilder werden geladen, geprüft und in Patches zerlegt ...

% --- Datensatz vorbereiten ---
% Lädt alle Patches und konvertiert sie zu Double
allPatches = imageDatastore(patchDirectory, 'ReadFcn', @(f)im2double(imread(f)));

% Zufällige Aufteilung (Split)
numFiles = numel(allPatches.Files);
idx = randperm(numFiles);
trainFiles = allPatches.Files(idx(1:round(trainSplit * numFiles)));
valFiles   = allPatches.Files(idx(round(trainSplit * numFiles) + 1:end));

% Datastores mit dynamischem Rauschen (addNoise Funktion) erstellen
dsTrain = transform(imageDatastore(trainFiles), @(x)addNoise(x, true));
dsVal   = transform(imageDatastore(valFiles),   @(x)addNoise(x, true));

% --- Netzwerk-Architektur & Modus ---
% Abfrage: Neue KI trainieren oder alte fortsetzen?
if strcmp(trainNewOrOldAI, 'Neue KI trainieren')
    initialLRate = 1e-3;
    
    % 1. Eingabe-Block (Start)
    layers = [
        imageInputLayer([patchSize patchSize 3], "Normalization", "none")
        convolution2dLayer(3, 64, 'Padding', 'same')
        batchNormalizationLayer
        reluLayer
    ];

    % 2. Mittlere Layer (Schleife für Tiefe)
    for i = 2:(networkDepth-1)
        layers = [
            layers
            convolution2dLayer(3, 64, 'Padding', 'same')
            batchNormalizationLayer
            reluLayer
        ];
    end

    % 3. Ausgabe-Block (Ende)
    layers = [
        layers
        convolution2dLayer(3, 3, "Padding","same")
        batchNormalizationLayer
        regressionLayer
    ];
    
    lGraph = layerGraph(layers);
else
    % Alte KI laden
    loadNet = load('./KIs/Alte_KI.mat');
    lGraph = layerGraph(loadNet.net);
    initialLRate = 1e-4; % Feinere Lernrate
end

% --- Training Starten ---
options = trainingOptions("adam", ...
    'MaxEpochs', 50, ...
    'MiniBatchSize', 128, ...
    'InitialLearnRate', initialLRate, ...
    'LearnRateSchedule', 'piecewise', ...
    'LearnRateDropFactor', 0.3, ...
    'LearnRateDropPeriod', 12, ...
    'ValidationData', dsVal, ...
    'OutputNetwork', 'best-validation-loss', ...
    'Plots', 'training-progress');

net = trainNetwork(dsTrain, lGraph, options);
save('.KIs/Neue_AI.mat', 'net');

Evaluierung (EvalDnCNN.m)

Wendet das trainierte Modell auf neue Bilder im Ordner ./Testbilder an und speichert die Ergebnisse in einem Unterordner.

Funktionsweise

  • Dateimanagement: Das Skript sucht automatisch nach diversen Bildformaten (.png, .jpg, .tif, etc.) und erstellt einen Ausgabeordner.
  • Preprocessing: Lädt Bilder, wandelt sie in `double` um und konvertiert Graustufenbilder künstlich in 3-Kanal-Bilder (RGB), da das Netz RGB erwartet.
  • Rauschen: Über das Flag isImageNoisy wird gesteuert, ob das Bild bereits verrauscht ist. Falls nicht (0), fügt das Skript automatisch Gaußsches Rauschen hinzu.
  • Entrauschen: Das Bild wird durch das Netz geschickt (denoiseImages) und anschließend mittels imresize sicherheitshalber auf die Originalgröße zurückskaliert.
  • Fehlerbehandlung: Durch einen try-catch-Block stürzt das Skript nicht ab, falls eine einzelne Datei beschädigt ist.
  • Visualisierung: Erstellt eine Collage (Original | Weißer Trennstrich | Ergebnis) mit dynamischer Schriftgröße für die Beschriftung ("Input", "Output").

Code-Auszug

clear; clc; close all;

% --- Parameter ---
imageFolder = './TestBilder';   % Verzeichnis mit den Testbildern
isImageNoisy = 1;               % 1 = Bilder sind schon verrauscht, 0 = Rauschen hinzufügen

% --- Output Konfiguration ---
outputFolder = fullfile(imageFolder, 'KI'); % Zielpfad
if ~exist(outputFolder, 'dir')
    mkdir(outputFolder); % Erstellt Ordner, falls nicht vorhanden
end

% --- Modell laden ---
if ~exist('net', 'var')
    % Lädt das trainierte Netzwerk (.mat Datei)
    data = load('KIs/KI.mat'); 
    net = data.net; 
end

% --- Bilder suchen (Auszug) ---
% (Hier sucht das Skript nach .png, .jpg, .tif, etc. und füllt 'allImages')
% ...

% --- Verarbeitungs-Schleife ---
fprintf('Verarbeite %d Bilder. Bitte warten...\n', numel(allImages));

for k = 1:numel(allImages)
    try
        % Bild laden und Basisnamen extrahieren
        fullFileName = fullfile(allImages(k).folder, allImages(k).name);
        [~, baseName, ~] = fileparts(allImages(k).name);
        
        imgDouble = im2double(imread(fullFileName)); 

        % Graustufen zu RGB konvertieren falls nötig
        if size(imgDouble, 3) == 1
            imgDouble = cat(3, imgDouble, imgDouble, imgDouble);
        end
        
        [h, w, ~] = size(imgDouble); % Original-Dimensionen speichern

        % Rauschen simulieren (falls Flag auf 0)
        if ~isImageNoisy
            imgDouble = imnoise(imgDouble, "gaussian", 0, 0.03);
        end

        % --- Entrauschen ---
        % Wendet das Netz an
        imgRestored = denoiseImages(net, imgDouble, 50, 20, true);
        
        % Auf Originalgröße zurückskalieren & RGB sicherstellen
        imgRestored = imresize(imgRestored, [h, w]);
        if size(imgRestored, 3) == 1
            imgRestored = cat(3, imgRestored, imgRestored, imgRestored);
        end

        % --- Collage erstellen (Input | Separator | Output) ---
        separatorWidth = 20; 
        separator = ones(h, separatorWidth, 3); % Weißer Streifen
        collage = [imgDouble, separator, imgRestored]; 

        % Beschriftung und Positionierung
        textLabels = {'Input', 'Output'};
        positions = [10, 10; (w + separatorWidth + 10), 10];

        collage = insertText(collage, positions, textLabels, ...
            'FontSize', max(20, round(h/25)), ... % Dynamische Schriftgröße
            'BoxColor', 'white', 'BoxOpacity', 0.7, 'TextColor', 'black');

        % Speichern
        saveName = fullfile(outputFolder, [baseName '_Result.jpg']);
        imwrite(collage, saveName);

    catch ME
        % Fehler abfangen und Loop fortsetzen
        fprintf('Konnte %s nicht speichern: %s\n', allImages(k).name, ME.message);
    end
end

Rausch-Generator Tool (addNoise.m)

Diese Funktion dient der dynamischen Datenaufbereitung (Data Augmentation) während des Trainings. Sie wird vom `imageDatastore` aufgerufen, um jedem sauberen Bild Rauschen hinzuzufügen und das Trainingsziel zu definieren.

Funktionsweise

  • Input: Erwartet ein sauberes Bild (`clean`) und das Flag für Residual Learning (`useResidual`).
  • Dynamisches Rauschen: Es wird zufällig (50/50 Chance) zwischen Gaußschem Rauschen und Salt & Pepper gewählt.
  • Variable Intensität: Die Stärke des Rauschens ist nicht statisch, sondern variiert zufällig zwischen **0.01 und 0.10** (`0.01 + rand()*0.09`).
  • Residual Learning:
    • Ist useResidual = true, berechnet die Funktion die Differenz (noisy - clean). Das Netz lernt also nur, das Rauschen vorherzusagen.
    • Ist useResidual = false, ist das Ziel das saubere Originalbild.
  • Output: Gibt ein Paar {verrauschtesBild, ZielBild} zurück.

Code

function pair = addNoise(clean, useResidual)
    clean = im2double(clean); % Konvertiert Bild in Double-Format (0 bis 1)

    % Zufällige Auswahl des Rausch-Typs (50% Chance)
    if rand() > 0.5
        % Gaußsches Rauschen mit zufälliger Varianz (0.01 bis 0.10)
        noisy = imnoise(clean,'gaussian', 0, 0.01 + rand() * 0.09);
    else
        % Salt & Pepper Rauschen mit zufälliger Dichte (0.01 bis 0.10)
        noisy = imnoise(clean, 'salt & pepper', 0.01 + rand() * 0.09);
    end

    % Berechnung des Trainingsziels (Target)
    % Wenn useResidual == true:  Target = (noisy - clean) -> Nur das Rauschen lernen
    % Wenn useResidual == false: Target = clean           -> Das saubere Bild lernen
    target = useResidual * (noisy - clean) + ~useResidual * clean;

    pair = {noisy, target}; % Rückgabe als Paar für den Datastore
end

Quellen

  • P. Arbeláez, M. Maire, C. Fowlkes and J. Malik, "Contour Detection and Hierarchical Image Segmentation," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 33, no. 5, pp. 898-916, May 2011, doi: 10.1109/TPAMI.2010.161. keywords: {Image segmentation;Pixel;Detectors;Image edge detection;Humans;Histograms;Benchmark testing;Contour detection;image segmentation;computer vision.}
  • R. Timofte, S. Gu, J. Wu, L. Van Gool, L. Zhang, M.-H. Yang, M. Haris et al., "NTIRE 2018 Challenge on Single Image Super-Resolution: Methods and Results," in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2018.