Lineare Abbildungssysteme Flashcards
Welche Fehler können Bildern obwegen der Abbildungssysteme anhaften?
Fehler in Bildern:
Verzerrungen (Abweichung der Linse, und die Strahlen im äußeren Bereich der Linse erfahren mehr Brechung wirken damit abgerundeter), z.B. wie ein „Barrel“ oder wie ein pincushion, also alles zieht es quasi zur Mitte hin, oder ganz schwierig unreglmäßige Verzerrungen
fehlende Farbtreue (keine eindeutige Farbpräsentierung)
Unschärfe (Projektion nur für gewisse Tiefe scharf)
Welche Kamera Fehler können im Kontext der Kamerakalibrierung bereinigt werden? Erklären sie „Kamera Kalibrierung“ in eigenen Worten.
Welche dieser Fehler können im Kontext der Kamerakalibrierung bereinigt werden?
● Verzerrungskorrektur (aufgrund der Linse).
● Regularisierung (Hinzufügen von Informationen) der Bildinhalte.
Kamerakalibration ist die Bestimmung der intrinsischen und extrinsischen Parameter der Kamera, zur Beschreibung der Abbildung. Diese Parameter können die Kamera und ihr Verhalten genau beschreiben und helfen beim Korrigieren von Verzerrungen. Erst wenn diese Parameter richtig bekannt sind, kann x und y rechnerisch ermittelt werden, sodass eine korrekte Abbildung von 3D auf 2D erfolgen kann.
Erläutern Sie die intrinsischen und extrinischen Parameter bei der Kamerakalibrierung.
● Intrinsische Parameter: Dienen für die Wiederherstellung vom Zusammenhang zwischen dem Kamera- und dem Bildkoordinatensystem. Sie beschreiben die Abbildung und die interne Geometrie der Kamera. (z. B. Brennweite, Hauptpunkt, Verzerrung).
● Extrinsische Parameter: Wiederherstellung vom Zusammenhang zwischen dem Welt- und dem Kamerakoordinatensystem. Sie beschreiben die äußere Orientierung der Kamera -> die Position und Ausrichtung der Kamera eines gegebenen Weltkoordinatensystems. (Rotation und Translation)
Zeichen Sie dabei eine Skizze zum Abbildungsprozess vom Weltkoordinatensystem, dem Kamerakoordinatensystem hin zur 2D Bildebene.
Erläutern Sie die Camera Obscura. Welche Eigenschaften weisen die resultierenden Abbildungen auf?
rudimentärstes Abbildungssystem, seit Antike bekannt
● Licht scheint an die Rückwand in einen dunklen (obscura) Raum (camera, Kammer)
● Die Objekte der realen Welt werden dabei an die Rückwand des Raums projiziert
● Größe des Knopflochs determiniert die Balance zwischen Helligkeit und Schärfe
● die Ergebnisbilder sind vertikal und horizontal invertiert
● Abstandsverhältnis vom Knopfloch zum Objekt bzw. zur Bildebene determiniert die Abbildungsgröße
(Camera Obscura) Wie kann man errechnen, ob die Abbildungen größer/kleiner als die realen Objekte dargestellt werden?
H_b / H_o = d_i / d_o
H_b : Größe der Abbildung
H_o : Höhe des realen Objektes
d_i : Abstand zwischen Loch & Projektionsfläche
d_o : Abstand zwischen Loch & Objekt
d_i > d_o : Abbildung größer als Objekt
d_i < d_o : Abb kleiner als Objekt
d_i = d_o : Gleich groß
Nennen und erläutern Sie SW-basierende Verfahren, um Objekte dreidimensional rekonstruieren zu können.
Epipolargeometrie
Die Epipolargeometrie ist eine fundamentale Methode der Stereo-Bildverarbeitung, die aus der Analyse zweier Ansichten desselben Objekts gewonnen wird. Dabei wird die 3D-Position eines Punktes durch Triangulation berechnet.
Voxel Carving
Beruht auf der diskreten Darstellung des Raumes in Form von Voxeln (dreidimensionale Pixel) und der Silhouettenanalyse.
Ziel ist es, alle Voxels zu entfernen, die nicht innerhalb der Silhouetten aus mehreren Kameraperspektiven liegen, um die Form des Objekts iterativ zu rekonstruieren.
Arbeitet volumetrisch und basiert auf der Analyse des gesamten betrachteten Raums.
Approximation mittels Deep Learning
anhand von groben Vorabmodellen werden Gesichter erkannt bzw. wird die Gesichts-Topografie rekonstruiert
Nennen und erläutern Sie HW-basierende Verfahren, um Objekte dreidimensional rekonstruieren zu können.
Tiefensensor
hilft zu eruieren, wie weit das Objekt von mir entfernt ist, damit auch Proportionen in Relation gesetzt werden können und 3D Rekonstruktion möglich wird (zB Microsoft Kinect)
Structured Light
man misst die optische Verzerrung von Linien, und schlussfolgert dann auf die 3D Oberfläche; es wird quasi strukturiertes Licht (d.h. Streifen) auf das zu messende Objekt projiziert und dann werden diese Streifen von einer Kamera dokumentiert
Lidar (Light Detection and Ranging):
Scannt die Umgebung mit Lasern und misst Laufzeiten (Time-of-Flight).