Segmentierung Flashcards

1
Q

Erläutern Sie den Begriff Segmentierung und nennen Sie Anwendungsgebiete.

A

Segmentierung ist die semantische Klassifikation aller Pixel/Voxel. Dabei wird ein Bild auf Basis zu definierender Merkmale in homogene oder inhaltlich besser zusammengehörige Regionen unterteilt. Ziel der Segmentierung ist es verschiedene Bildpunkte zu sinnvollen Gruppen zusammenzufassen, Bildobjekte vom Hintergrund zu trennen, Bildobjekte voneinander zu trennen.

Anwendungsgebiete:
Medizin: Segmentierung von Röntgenbildern, Computertomographie
Geographie/Fernerkundung: automatische Segmentierung von Satelliten-, Luft- und Radarbildern
Qualitätskontrolle: Automatische optische Kontrolle von Werkstücken
Schrifterkennung: Trennung von Schrift und Hintergrund

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Welche intensitätsbasierten Segmentierungskonzepte kennen Sie?

A
  • Threshholding: Teilt ein Bild basierend auf einem oder mehreren Intensitätsschwellenwerten in Vorder- und Hintergrund auf.
  • Region Growing: Startet mit einem Seed-Pixel und fügt benachbarte Pixel hinzu, die ähnliche Intensitätswerte haben, bis ein Abbruchkriterium erfüllt ist.
  • K-Means Clutstering: Teilt Pixel in Cluster auf, basierend auf Intensitätswerten. K-Means-Clustering: Gruppierung von Pixeln in k-Cluster.
  • Watershed Segmentierung: Betrachtet das Bild als topographische Karte und füllt die Vertiefungen (Minima), um Regionen zu segmentieren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vergleichen Sie intensitätsbasierten Segmentierungskonzepte bzgl. Performanz, Benutzer*inneninteraktion und erzielbarer Qualität.

A

Threshholding: Schnell, geringe Rechenzeit |Qualität bhängig von Kontrast, schlecht bei verrauschten Bildern.

Region Growing: Langsamer bei großen Bildern oder komplexen Strukturen | Gute Ergebnisse bei klar definierten Regionen.

K-Means Clutstering: Rechenintensiv bei großen Bildern |Gute Ergebnisse, benötigt homogene Intensitätscluster.

Watershed Segmentierung: Zeitintensiv bei hochauflösenden Bildern |Robust bei Bildern mit starken Kontrasten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Erläutern Sie den Begriff Histogramm.

A

Ein Histogramm ist ein grafisches Werkzeug, das die Verteilung von Intensitätswerten (skalare Werte) in einem Bild darstellt. Es zeigt, wie oft jeder Intensitätswert in einem Bild vorkommt, indem die Intensitätswerte (z. B. Graustufen von 0 bis 255) in Bins (Intervalle) eingeteilt und deren Häufigkeit aufgetragen werden.

x-Achse: Intensitätswerte oder Graustufen.
y-Achse: Häufigkeit der entsprechenden Intensitätswerte.

Das Histogramm gibt Einblicke in die Helligkeitsverteilung eines Bildes und ist hilfreich bei Aufgaben wie Bildanalyse, Kontrastverbesserung und Segmentierung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

(Histogramm) Wie verteilen sich i.d.R. die skalaren Werte zu
differenzierbarer Objekte?

A

Verteilung der skalaren Werte für differenzierbare Objekte

Bei Bildern, die klar unterscheidbare Objekte enthalten, verteilen sich die Intensitätswerte häufig in mehreren Peaks oder Clustern, die jeweils bestimmte Regionen oder Objekte im Bild repräsentieren:

Hintergrund: Oft ein Cluster mit niedrigen Intensitätswerten.
Objekte: Clusters mit unterschiedlichen Intensitätsbereichen, abhängig von Material, Textur oder Beleuchtung.

Wenn ein Objekt und der Hintergrund deutlich unterschiedliche Intensitätswerte haben, ist die Verteilung typischerweise bimodal (zwei Peaks). Bei mehreren Objekten oder komplexeren Szenen kann die Verteilung multimodal sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

(Histogramm) In welchem Fall kann mittels Intervall-Thresholding eine Segmentierung erwirkt werden?

A

Beim Intervall-Thresholding wird ein Bereich von Intensitätswerten definiert, der die Region oder das Objekt von Interesse beschreibt. Alle Pixel, deren Intensitätswerte innerhalb dieses Bereichs liegen, werden als Teil des Objekts klassifiziert, während alle anderen Pixel ausgeschlossen werden.
Voraussetzungen für erfolgreiches Intervall-Thresholding:

Klar unterscheidbare Intensitätsverteilung: Objekte und Hintergrund müssen sich in ihrer Intensität klar voneinander unterscheiden.
Homogene Regionen: Die Intensitätswerte innerhalb eines Objekts müssen relativ gleichmäßig verteilt sein.

Beispiel:
Ein Bild mit dunklem Hintergrund und einem hellen Objekt kann leicht segmentiert werden, indem ein Schwellenwert definiert wird, der alle Pixel über einer bestimmten Intensität als Objekt und alle darunter als Hintergrund klassifiziert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

(Histogramm) Gibt es ein automatisiertes Konzept, solche Threshold-Werte zu eruieren – führen Sie kurz aus.

A

Es gibt das Verfahren des optimalen Threshold: hier braucht es aber eine Bimodale Verteilung (d.h. nur 2 Peaks), da sonst die Ermittlung des Thresholds nicht eindeutig ist.
Man berechnet einen ersten guess T0, Segmentiert diesen, und ermittelt dann die Mittelwerte der erhaltenen Objekte, dann ermittelt man ein T1 (als Mittelwert von den beiden Mittelwerten) und segmentiert erneut nach T1 und wiederholt den Prozess, solange bis sich die der geschätzte Threshold kaum mehr verändert von Iteration zu Iteration.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Führen Sie detailliert über die Segmentierung mittels Region Growing aus.

A

Neben dem Intensitätsintervall ist nun ein Startpunkt als Benutzereingabe beim Region Growing erforderlich.
Zunächst werden Saatpunkte auf ein nicht segmentiertes Pixel des Eingabebildes gesetzt, aus denen dann Regionen wachsen. Der zentrale Teil des Algorithmus besteht darin, die angrenzenden Nachbarn bereits gefundener Regionen auf ein bestimmtes Homogenitätskriterium zu überprüfen. Wird dieses Kriterium erfüllt, wird das jeweilige Pixel der Region zugeordnet.

Gibt es keine klar abgegrenzten statistische Approximationen ( -> ich kann zB nicht klar den Threshold definieren, anhand dessen sich Strukturen unterscheiden) DANN ist Region Growing eine gute Alternative

Braucht als Eingabe ein Intensitätsintervall und einen Startpunkt (Seed Point)
- Vom Startwert ausgehend, tastet man alle „Nachbarn“ nach ihrer Intensität ab
- Dabei können nur direkte Nachbarn (N4) oder auch diagonale Nachbarn (N8) berücksichtigt werden
- Falls gültige Werte vorliegen, werden die Nachbarn der Region zugefügt, und rekursiv wieder deren Nachbarn geprüft
So wächst die Region, die ich erkennen will von Schritt zu Schritt
Ist intensitätsbasiert
- Nur für Grauwerte anwendbar

Beschreibung:
- Es wird ein Startwert auf ein nicht segmentiertes Pixel gesetzt
- Dann weise ich entsprechend Intervallfestlegung das Pixel der Gruppe seiner best-fitting Nachbarn zu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Führen Sie detailliert über die Segmentierung mittels KMeans Clustering aus.

A

Die Segmentierung mittels K-Means-Clustering ist eine weit verbreitete Methode zur Bildsegmentierung, die auf einem iterativen Algorithmus basiert. Ziel ist es, die Bildpixel (oder Merkmale) in kk Gruppen oder Cluster zu segmentieren, wobei Pixel innerhalb eines Clusters ähnliche Eigenschaften aufweisen. Die Methode ist insbesondere bei der Segmentierung von Farbbildern oder Bildern mit mehreren Dimensionen (z. B. Texturmerkmale) beliebt.

Je näher zwei Data Points sind, desto näher sind sie sich.
Centroids (Center Points) werden zufällig verteilt

Der Algorithmus verläuft anschließend in zwei abwechselnden Schritten: Im Punkte-Zuweisungs-Schritt wird jeder Punkt in den Daten dem Cluster zugewiesen, dessen Zentrum ihm am nächsten liegt. Im Zentroiden-Aktualisierungs-Schritt wird die Position jedes Zentrums neu berechnet, indem der Mittelwert (das Zentrum) aller Punkte ermittelt wird, die dem entsprechenden Cluster zugewiesen sind. Diese Schritte werden iterativ wiederholt, bis sich die Zentren nicht mehr bewegen oder – äquivalent dazu – bis keine Punkte mehr ihre Cluster wechseln.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Führen Sie detailliert über die Segmentierung mittels Live Wire Konturfindung aus.

A

Die Live-Wire-Konturfindung, auch bekannt als Intelligent Scissors, ist ein interaktives Segmentierungsverfahren, das hauptsächlich in der Bildverarbeitung verwendet wird, um Objekte oder Strukturen präzise zu isolieren. Sie basiert auf graphentheoretischen Methoden und minimalen Pfaden und ermöglicht es dem Benutzer, durch Platzieren von Ankerpunkten eine exakte Kontur entlang von Objektkanten zu verfolgen.

  1. Grundprinzip
    Live Wire basiert auf der Idee, eine optimale Kontur zwischen einem Startpunkt (Seed) und einem aktuellen Punkt zu finden. Diese Kontur wird durch die Minimierung eines Kostenpfades in einem gewichteten Graphen bestimmt, der aus den Pixeln des Bildes aufgebaut wird.
  2. Ablauf der Live-Wire-Konturfindung

Schritt 1: Kostenfunktion definieren
Die Kostenfunktion bewertet die “Eignung” eines Pixels, Teil der Kontur zu sein, und berücksichtigt typische Bildmerkmale:

  • Gradientenstärke: Bereiche mit starken Kanten (hoher Gradientenwert) sind wahrscheinlicher Teil der Kontur.
  • Helligkeitsänderungen: Pixel mit abrupten Intensitätsänderungen werden bevorzugt.
  • Orientierung der Kanten: Die Richtung des Gradienten kann ebenfalls berücksichtigt werden.

Schritt 2: Startpunkt festlegen
Der Benutzer setzt einen Startpunkt (Seed) auf das Bild, der den Ausgangspunkt für die Segmentierung markiert.

Schritt 3: Kostenberechnung und minimaler Pfad
Der Algorithmus berechnet die kürzesten Pfade (mit minimalen Kosten) von diesem Startpunkt zu allen anderen Pixeln im Bild.

  1. Vorteile der Live-Wire-Konturfindung
    - Hohe Präzision: Durch die Interaktivität kann der Benutzer die Kontur exakt anpassen, insbesondere in komplexen oder verrauschten Bildern.
    - Effizienz: Der Dijkstra-Algorithmus ermöglicht schnelle Berechnungen, auch für große Bilder.
    - Benutzerkontrolle: Der Benutzer kann die Segmentierung intuitiv steuern und anpassen.
    - Flexibilität: Die Kostenfunktion kann an verschiedene Bildtypen oder Anwendungsfälle angepasst werden.
  2. Nachteile der Live-Wire-Konturfindung
    - Benutzerinteraktion erforderlich: Der Algorithmus ist nicht vollständig automatisiert, sondern erfordert Eingriffe des Benutzers.
    - Empfindlichkeit gegenüber Bildqualität: Verrauschte oder unscharfe Bilder können die Segmentierungsgenauigkeit beeinträchtigen, da die Kostenfunktion nicht immer optimale Kanten findet.
    - Zeitaufwändig: In Bildern mit komplexen Strukturen oder großen Dimensionen kann die Platzierung vieler Ankerpunkte zeitintensiv sein.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Führen Sie detailliert über die Segmentierung mittels Graph Cut aus.

A

Die Grundidee der Graph-Cut-Segmentierung ist es, das Bild als einen Graphen zu modellieren, in dem jedes Pixel des Bildes als Knoten dargestellt wird und die Kanten zwischen benachbarten Knoten die Ähnlichkeit oder die Kosten zwischen den Pixeln ausdrücken.
Graph-Modell:

  • Knoten (Vertices): Jedes Pixel des Bildes wird als Knoten im Graphen dargestellt.
  • Kanten (Edges): Kanten verbinden benachbarte Pixel. Kanten zwischen benachbarten Pixeln haben ein Gewicht, das die Ähnlichkeit (oder Dissimilarität) zwischen den Pixeln ausdrückt, typischerweise basierend auf Farb- oder Intensitätsunterschieden.
  • Schnitt (Cut): Der Graph wird in zwei Teile unterteilt (d.h., die Bildregionen werden in zwei Gruppen segmentiert). Ein Cut im Graphen trennt dabei die Knoten (Pixel) in zwei Disjunkte Mengen.

Die Segmentierung wird durch den minimale Schnitt (minimal cut) des Graphen erreicht, der die Gesamt „Kosten“ des Schnitts minimiert. Dies führt zu einer Optimierung der Trennung der Bildregionen.

Schritt 1: Graph-Konstruierung

  • Erstelle einen Graphen, in dem jeder Pixel des Bildes ein Knoten ist.
  • Verknüpfe benachbarte Pixel mit Kanten, deren Gewicht auf der Ähnlichkeit (z. B. Farb- oder Intensitätsdifferenz) der benachbarten Pixel basiert.
  • Füge zwei spezielle Knoten hinzu: Source und Sink:
    Source repräsentiert den Vordergrund (z. B. relevante Objekte).
    Sink repräsentiert den Hintergrund (z. B. unwichtige Teile oder der Hintergrund).

Schritt 2: Zuordnung von Gewichten
- Berechne die Data-Terms und Smoothness-Terms basierend auf den Bildmerkmalen (z. B. Gradienten, Farben, Texturen) und weise sie den Kanten zu.

Schritt 3: Minimierung des Schnitts
- Minimiere den Energie-Term durch einen Graph-Cut-Algorithmus. Dies bedeutet, dass der Algorithmus den Schnitt im Graphen optimiert, um die Energie zu minimieren:
- Der Algorithmus sucht den minimalen Schnitt zwischen dem Source- und dem Sink-Knoten, wobei die Kanten gewichtet sind, die die Trennung von Vordergrund und Hintergrund repräsentieren.

Schritt 4: Segmentierungsergebnis
- Der minimale Schnitt trennt den Graphen in zwei Teile: einen, der dem Vordergrund zugeordnet wird, und einen, der dem Hintergrund zugeordnet wird.
- Das Ergebnis ist eine binäre Segmentierung des Bildes, bei der der Vordergrund von den Hintergrundregionen getrennt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Führen Sie detailliert über die Segmentierung mittels MeanShift und KMeans Clustering aus.

A

KMeans
- Ist intensitätsbasiert
- Auch für RGB Bilder anwendbar
- Gibt eine Anzahl von n Startpunkten vor (quasi verständlich als Startpunkte für die Punktwolken, die ich dann untersuchen will) (z.B. RGB-n-Zentroiden)
- Bei jeder Iteration, weiße ich neue Punkte diesem Cluster mit einem bestimmten Startwert zu und zwar nach dem Kriterium des geringsten Abstands
- Dann aktualisiere ich den Cluster-Zentroid (quasi berechne den neuen Mittelwert der Wolke, der dann herangezogen wird fürs Abstandsermitteln)
-Gute Anwendung zB wenn viele Münzen auf einer flachen Oberfläche liegen

Mean Shift
- Ein intensitätsbasiertes Verfahren
- Annahme: Farben / Intensitäten sind lokal unterschiedlich verteilt
- Über die aktuelle Nachbarschaft im Farbraum wird ein Gauß-Kern gelegt (kernel density estimation)
- Wir geben nicht mehr den Zentroiden-Startwert vor und auch nicht mehr die Clusteranzahl
- Wir schieben alle Farbwerte in Richtung des lokalen Maxima;
- Ich iteriere dann so lange, bis die gefundenen lokalen Maxima sich nicht mehr verändern
- Wir ordnen dann die Pixel immer den passendsten lokalen Maxima zu
- Die Laufzeit ist besser, wenn ich große Nachbarbereiche wähle, aber auch die Qualität wird dann schlechter
- MeanShift ist langsamer als KMeans Clustering, weil mit KMeans Clustering -> gebe ich ja an, wie groß der Cluster ist, und ich muss nicht immer evaluieren, wie groß er tatsächlich ist
Granularität des Ergebnisses wird über KDE-Radius gesteuert, der angibt, wohin ich Pixel noch dazurechne, quasi wie weit ich meinen Betrachtungsradius fasse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Welche maskenbasierten Ansätze zur Kantendetektion kennen Sie?
Was sind die Unterschiede zur Canny – Kantendetektion?

A

Maskenbasierte Ansätze zur Kantendetektion:
- Sobel
- Prewitt

Canny:
-Rauschunterdrückung: Das Bild wird mit einem Gaussian-Filter geglättet, um Rauschen zu minimieren.
- Berechnung der Gradienten: Sobel-Operator oder ähnliche Filter werden verwendet, um den Gradienten in xx- und yy-Richtung zu berechnen.
- Non-Maximum-Suppression: Unterdrückt Pixel, die keine lokalen Maxima in der Gradientenrichtung sind, um scharfe Kanten zu erhalten.
- Hysterese-Schwellenwert: Zwei Schwellenwerte (low und high) werden verwendet, um echte Kanten von Rauschen zu unterscheiden. Pixel, die über dem hohen Schwellenwert liegen, werden als Kanten betrachtet, und Pixel, die im Bereich zwischen den Schwellenwerten liegen, werden nur als Kanten akzeptiert, wenn sie mit starken Kanten verbunden sind.

  • Maskenbasierte Ansätze: Einfach und schnell, geeignet für Anwendungen, bei denen hohe Präzision oder Rauschrobustheit nicht entscheidend ist.
  • Canny-Kantendetektion: Deutlich präziser und robuster, besonders geeignet für komplexe Bilder oder Szenarien mit Rauschen, jedoch rechenintensiver.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wo liegen die Anwendungsgebiete der Kantendetektion? Erläutern Sie die Unterschiede zwischen Kanten und Linien.

A
  1. Objekt- und Mustererkennung
  2. Bildsegmentierung
  3. Computer Vision und Robotik
  4. Bewegungs- und Verfolgungsanalyse (Tracking)
  5. Texterkennung (OCR - Optical Character Recognition)
  6. Tiefenanalyse und 3D-Rekonstruktion
  7. Medizinische Bildanalyse

Edge VS Line
An edge is a transition from one phase/object/thing to another. On one side you have one color, on the other side you have another color. Or on one side you have foreground, and on the other side you have background.

A line is a 1D structure. It has the same phase/object/thing on either side. On one side you have background, on the other side you have background also

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Geben Sie Sobel / Prewitt für unterschiedliche Orientierungen an. Designen Sie einen Liniendetektor für unterschiedliche Linienstärke.

A

Wobei auch eine breitere Linie berücksichtigt werden kann, indem der Filter mehr Elemente auf Linien- Niveau hat, oder auch nur eine 1-Pixel-„Linie“ im Filter und das Bild dafür entsprechend resampled wird.

Wenn man einen Liniendetektor auf eine Kante anwendet, dann kann es passieren, dass man die Kante nicht mehr so gut erkennt.
Wenn ich einen Liniendetektor anwende auf eine Kante, bekomme ich eine halb so hohes Ergebnis wie wenn ich einen Liniendetektor auf eine Linie anwende

S. Skript für Linien Detektor

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Welchen Effekt hat ein Liniendetektor im Bereich einer Kante und vice versa?

A

Was passiert?

Im Bereich einer Kante, die durch eine größere, abrupte Intensitätsänderung definiert ist, erkennt der Liniendetektor möglicherweise keine Linie, da die Kante oft keine schmale, längliche Struktur ist.
In manchen Fällen kann der Liniendetektor Teile der Kante fälschlicherweise als Linie interpretieren, besonders wenn die Kante sehr scharf und die Detektorparameter empfindlich eingestellt sind.
Wenn die Kante breit ist (z. B. bei einem Übergangsbereich mit intensitätsstufenartiger Veränderung), kann der Liniendetektor keine Linie finden, da keine schmale Struktur vorhanden ist.

Typische Effekte:

Fehlerhafte Erkennung: Teile der Kante könnten als kurze Liniensegmente detektiert werden.
Auslassen der Kante: Wenn die Kante nicht die spezifische Geometrie einer Linie aufweist, wird sie ignoriert.

Beispiel:

Ein Liniendetektor, der Straßenmarkierungen identifizieren soll, würde bei einer Fahrbahnbegrenzung (Kante zwischen Straße und Gras) möglicherweise versagen, da diese keine schmale Linie darstellt.
	
	--------

Ein Kantendetektor (z. B. Sobel, Prewitt, Canny) sucht nach Bereichen mit hohen Intensitätsgradienten, die Übergänge zwischen unterschiedlichen Regionen darstellen.

Was passiert?
    Im Bereich einer Linie, die oft eine schmale Struktur mit homogener Intensität ist, erkennt der Kantendetektor die Linie in der Regel als zwei parallele Kanten. Dies liegt daran, dass eine Linie von zwei Flanken (hell zu dunkel und dunkel zu hell) begrenzt wird, die beide starke Gradienten erzeugen.
    Statt die Linie als ein einzelnes Objekt zu identifizieren, erkennt der Kantendetektor die beiden Ränder der Linie.

Typische Effekte:
    Doppelkanten: Die Linie wird nicht als schmale Struktur, sondern als zwei nahe beieinanderliegende Kanten erkannt.
    Unvollständige Erkennung: Bei dünnen oder schwach ausgeprägten Linien kann der Kantendetektor ungenau sein, da die Gradienten möglicherweise zu gering sind.
    Überdetektion: Wenn die Linie von Rauschen überlagert ist, können zusätzliche, unerwünschte Kanten erkannt werden.

Beispiel:
    Ein Kantendetektor, der eine dünne schwarze Linie auf weißem Hintergrund analysiert, wird diese als zwei Kanten interpretieren, da er die Übergänge zwischen Weiß und Schwarz auf beiden Seiten der Linie wahrnimmt.
17
Q

Erläutern Sie das Konzept der statistischen Formmodelle und nennen Sie dabei die notwendigen Schritte.

A

Ein statistisches Formmodell beschreibt die durchschnittliche Form und die zulässigen Variationen einer Form. Durch die Verwendung statistischer Methoden wird sichergestellt, dass nur plausible Formen generiert oder erkannt werden.

Anwendungsgebiete:

  • Medizinische Bildverarbeitung: Segmentierung von Organen, Knochenstrukturen, Tumoren.
  • Gesichtserkennung: Analyse und Modellierung von Gesichtsformen.
  • Objekterkennung: Erkennung von Formen, z. B. Fahrzeugen oder Straßenschildern.

Schritte:
1. Auswahl und Vorbereitung der Trainingsdaten

  1. Landmarkenplatzierung - Landmarken sind charakteristische Punkte, die an allen Formen identifiziert werden können (z. B. Ecken, Kreuzungspunkte, markante Kanten).
    Diese Punkte müssen in allen Beispielen eindeutig korrespondieren, um die Formen miteinander vergleichen zu können.
    Die Landmarken können manuell (z. B. durch Experten) oder automatisch (z. B. durch Algorithmen) gesetzt werden.
  2. Registrierung der Formen
    - Ziel: Die Formen in eine gemeinsame Referenzposition bringen, um Variationen wie Verschiebung, Rotation und Skalierung zu entfernen.
    - Affine Registrierung: Entfernt globale Transformationen (Translation, Rotation, Skalierung).
    - Die Landmarken aller Formen werden so angepasst, dass sie möglichst gut mit den Landmarken der Referenzform übereinstimmen.
  3. Statistische Modellierung der Formvariabilität
    - Ziel: Beschreiben der Variationen in der Form durch eine kompakte statistische Darstellung.
    - Die Positionen der Landmarken werden in einen Vektor umgewandelt.
    - Mithilfe der Hauptkomponentenanalyse (PCA) werden die wesentlichen Muster der Variabilität extrahiert:
    • Die PCA berechnet den Mittelwert der Formen und die Hauptmodi der Variation (Hauptkomponenten).
    • Jede Form kann dann als Kombination aus Mittelwertform und einer gewichteten Summe der Hauptmodi dargestellt werden.
      - Ergebnis: Eine reduzierte Darstellung der Form, die die wichtigsten Variationen in den Trainingsdaten erklärt.
  4. Aufbau des Modells
    - Ziel: Erstellung eines parametrischen Modells, das die Form und ihre Variabilität beschreibt.
    - Das Modell basiert auf:
    - Mittelwertform: Die durchschnittliche Form aller Trainingsbeispiele.
    - Moden der Variabilität: Die Hauptkomponenten aus der PCA.
  5. Validierung des Modells
    - Ziel: Überprüfung, ob das Modell die Formvariabilität korrekt erfasst und auf neue Daten anwendbar ist.
18
Q

(statistische Formmodelle) Welche Anforderungen werden in Bezug auf die Referenzdatensätze gestellt? Wo liegen im Vergleich zu intensitätsbasierten Verfahren die Vorteile, wo die Nachteile?

A
  • Sie müssen repräsentativ sein – ausreichend großer Datensatz von 20-100 und sie müssen für das Objekt stehen, d.h. innerhalb der Klasse gesunder Mensch passen
  • Es müssen ausreichen Landmarker automatisch errechnet werden, um das Formmodell zu erstellen
  • Wenn das Formmodell manuell erstellt wird, müssen die Landmarken auch plausibel gesetzt werden
  • Die Landmarken müssen automatisch extrahiert werden und in einstadardisiertes Koordinatensystem überführt werden, sodass das Objekt trotz unterschiedlicher Größe und Orientierung erkannt werden kann

Vorteile:
Bei stark korrelierenden Formen braucht es wenig Formvektoren umd die Form zu segmentieren
Das Verfahren ist sehr exakt

Nachteil:
Man muss die repräsentative Stichprobe analysieren
Bei pathologischen Abweichungen scheitert das Modell
Rechenintensiv