CMOS-Sensoren, Debayering, Raw-Daten Flashcards

1
Q

Welche unterschiedlichen Zielsetzungen haben TV und Filmworkflow?

Weshalb?

A

TV-Workflow

  • > Display referred
  • Direkte Anwendungsmöglichkeiten ohne Bearbeitungsschritte (Life-Sendungen etc…)
  • Standardisierte Bandbreiten und Farbräume: ITU BT-Rec. 709 (HDTV), (Rec. 2020, UHDTV)
  • Display-referred: Lichtwerte der Szenen werden bei der Aufnahme an Wiedergabestandards angepasst
  • > Postproduktion nicht zwingend notwendig, Standardisierung aller Geräte

-> Ziel: Schnelle und direkte Wiedergabe für Life-TV und Broadcasting, gute Bildqualität
___________________

Film-Workflow:
-> Scene-referred:

  • Bestmögliche Bildqualität für Aufnahme und Wiedergabe (Seherlebnis!), deswegen erweiterter Dynamikumfang, Farbdarstellung, spatiale Auflösung, temporale Auflösung
  • Postproduktion zwingend notwendig
  • Scene-referred: Lichtwerte werden wie in der Szene aufgenommen, daher Postproduktion notwendig
  • > Ziel: Maximale Bildqualität, bestes Seherlebnis für Auswertung in Projektion
  • > hohe Flexibilität für Bearbeitung in Postproduktion
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Welche 3 Optionen gibt es für den Filmworkflow bei digitaler Bildaufzeichnung? (Datenaufzeichnung)

A
  1. Videoaufzeichnung im HDTV-Standard (ITU BT-Rec.709), UHDTV (Red.2020)

-> display-referred (schneller Workflow ohne Postproduktion möglich), Video Codecs
-> schnell und günstig
__________________

  1. Videoaufzeichnung mit Log-Gammakodierung

-> Scene-referred (Postproduktion notwendig!), Video Codecs
-> effizient und hochwertig
__________________

  1. RAW-Datenaufzeichnung

-> Scene-referred (Postproduktion notwendig!!)
-> am hochwertigsten, da möglichst umbeschnittene Daten aufgezeichnet werden:
=> aufwändig und teuer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wie sehen Sensoren Licht?

A
Lichtempfindliche Fotozellen (photosites), also analoge Bauteile, nehmen Ladung auf (mV), wenn Photonen sie treffen 
-> nur Helligkeitswerte.

Ladung (analoges Signal) wird an A/D-Wandlern hinterm Sensor in lineare digitale diskrete Signale umgesetzt (Quantisierung)

-> lineare Aufzeichnung von Ladung.

Die Ladungsaufnahmekapazität ist begrenzt: Whiteclipping

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Welche 3 Bauformen für farbsehende Sensoren gibt es?

A

CCD:

-> 3 CCD-Prisma
-> fertig prozessierte RGB Signale
-> Broadcasting
______________

CMOS:
-> Apertur wie 35mm-Film
-> CFA-Farbmosaik:
Processing nötig
-> SLS ("Filmlook")
\_\_\_\_\_\_\_\_\_\_\_\_\_

Foveon:

  • > übereinander liegende Farblayer (Ansatz wie bei Filmemulsionen)
  • > keine Verbreitung in der Praxis
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie funktioniert ein CMOS Sensor, was ist der Vorteil zu einem CCD Sensor?

A

Jede einzelne Fotozelle ist mit einem eigenen Transistor ausgestattet.

Nachteil:
-> Schlechterer Füllfaktor

Vorteil:
-> Gezielte Ladungsabfuhr mit unterschiedlicher Verstärkung pro Fotozellemöglich: High Dynamic Range

-> Durch möglichen Zugriff auf jeden einzelnen Bildpunkt kann eine nicht lineare Ladungszunahme erreicht werden. (z.B. hohe Lichtenergie kann mit geringerer Verstärkung versehen werden, geringe Lichtenergie kann gezielt verstärkt werden).
=> höhere Dynamik erreichbar gegenüber CCD, trotz schlechterem Füllfaktor

-> Über die Steuerung gezielter Ladungsabfuhr kann die resultierende Ladung (Licht einer Szene) logarithmisch von der Beleuchtungsstärke abhängen.
Der Belichtungsumfang ist dann mit 170dB sogar größer möglich, als der des menschlichen Auges
=> HDR CMOS

-> Es ist dabei noch eine kostengünstige Anfertigung von großen Bilddiagonalen möglich
=> Vorteile für Filmkameras (z.B. „Dual Gain Architektur“)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Nenne Vor- und Nachteile von CCD und CMOS Sensoren.

A

CCD

Vorteile:

  • > hohe Lichtausbeute
  • > Geringes Rauschen (da nur ein A/D-Wandler)
  • > Wenig Defektpixel (aufgrund einfacher Sensorstruktur)

Nachteile:

-> langsamere Auslesezeiten als CMOS (da nur ein A/D-Wandler digitalisiert)
-> Hohe Herstellungskosten
-> Blooming und Smearing bei -> Überbelichtung
-> Hoher Stromverbrauch
-> Für einige CCD-Typen hoher baulicher Aufwand
-> Komplexer Kameraaufbau (Prisma)
_______________

CMOS

  • > schnelleres Auslesen (-> somit höhere Frameraten)
  • > Pixelgenaues Auslesen
  • > Geringer Stromverbrauch
  • > Weniger anfällig für Blooming
  • > Geringer baulicher Aufwand
  • > Geringere Herstllungskosten

Nachteile:

  • > geringere Lichtempfindlichkeit (kleiner Füllfaktor)
  • > Stärker rauschanfällig, da pro Pixel ein Verstärker („Pixel Crosstalk“) durch fehlgeleitete Strahlen
  • > Anfällig für Pixeldefekte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist der Füllfaktor?

A

-> ist die Maßeinheit für die Fläche des lichtempfindlichen Teils des Pixels.

Der Füllfaktor eines Pixels in einem CMOS Sensor ist kleiner, da ein Großteil des Pixels mit Strukturen zum Auslesen bzw. zur Umwandlung oder Digitalisierung der Ladung bestückt ist.
Bei diesen Sensoren werden deshalb teilweise pro Pixel Mikrolinsen verwendet, um das Licht auf den empfindlichen Bereich zu fokussieren und so den Füllfaktor wieder zu erhöhen.
Diese Mikrolinsen verursachen aber gleichzeitig unterschiedliche Herausforderungen:
=> Vignettierungen, Pixel Crosstalk (Wenn Photonen, die auf ein Pixel fallen, fälschlicherweise von anderen Pixeln daneben wahrgenommen werden), Streulicht, Beugungserscheinungen, reduzierte MTF

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wie funktioniert ein Bayer Sensor?

A
  • Fotozellen sind nur lichtempfindlich, werden mit RGB-Farbfiltern versehen die nur die jeweilige Farbe durchlassen: Farbtrennung in R, G und B pro Fotozelle
  • Die Anzahl der grünempfindlichen Fotozellen ist doppelt so hoch wie RB

=> Rot- und Blaukanal sind dadurch schlechter aufgelöst

=>Systemimmanenter Unterschied z.B. zu analogem Film oder 3 CCD: Fehlende Farbwerden müssen nachgerechnet, also interpoliert (geschätzt) werden!
______________

Debayering:

Fotozellen sind noch keine Pixel, erst nach der Interpolation entstehen einzelne RGB „Pixel“. Das bedeutet, dass nur 33% der Informationen direkt „gemessen“ werden können. 67% der Farben und Tonwerte werden mathematisch geschätzt!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Weshalb bringt der Debayering Prozess Verluste mit sich und wie müsste man dies in der Kamera ausgleichen?

A

Der Bildverarbeitungsprozess des Debayerings ist rechenintensiv und zeitaufwändig.

Er bringt durch die rechnerische Interpolation einen hohen Verlust (ca. 30%!) der Farbauflösung und der „Nativen“ Ortsauflösung mit sich (abhängig von der Qualität des Debayeringalgorithmus)

=> Überabtastung der Zielauflösung erforderlich für sehr gute Ergebnisse (20-50% - Nyquist-Shannon Abtasttheorem) Praktische Anwendung:
Die „native“ Auflösung eines Kamerasensors mit CFA sollte idealerweise ca. 20-50% über der Auflösung des Zielformats liegen, um eine optimale Bildqualität liefern zu können.

In der Praxis werden trotzdem anderweitig gute Ergebnisse produziert (s. Interpolation, Algorithmen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Nennen Sie 3 unterschiedliche Debayering-Methoden als Beispiel um volle Helligkeits- und Farbinformationen pro Pixel eines CFA-Bildes zu errechnen.

A

Superpixel
-> verwendet 4 CFA-Pixel für einen RGB-Pixel

-> spatiale Auflösung des errechneten RGB-Bildes ist nur noch 1/4 der “nativen” Auflösung
______________

Bilinear
-> Interpolationsmethode enthält die originale Auflösung durch Verrechnung umliegender Pixel

-> tendiert aber zu unscharfen Bildern und Farbartefakten an Kontrastkanten

-> sehr schnell
________________

Variable Number of Gradients (VNG)
-> verarbeitet zuerst Hellwerte umliegender Pixel, vergleicht diese und fügt zuletzt die interpolierte Farbinfo hinzu

-> Kontrastkanten werden besser verarbeitet und weniger Farbartefakte sowie Farbrauschen generiert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Nennen Sie zwei unterschiedliche Debayering-Methoden in der Anwendung.

A

Methode 1:
RAW-Material Aufnahme in der Kamera und Speicherung auf XR Capture Drive

=> externes Debayering in der Postproduktion
_____________

Methode 2:
RAW-Material Aufnahme in der Kamera mit internal real time Debayering und anschließende Komprimierung in einem Codec (z.B. ProRes), dann Speicherung auf C-Fast 2.0 Card

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Nennen Sie die Unterschiede zwischen Video („Baked-In“) vs. RAW (Metadaten).

A

Bei RAW-Aufnahme werden die an der Kamera vorgenommenen Einstellung nicht in das Material „verbacken“, sondern alle relevanten Metadaten mit dem Video zusammen, jedoch separat übertragen. Dies ermöglicht eine genauere Verarbeitung in der Postproduktion.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Nennen Sie die Bearbeitungsschritte von RAW-Daten („Digitales Negativ“) zu RGB-Bildern (Videosignale) beim in- Camera Videoworkflow-Processing.

A
  1. Dead Pixel Removal:
  • > Tote Pixel werden mit Farbinformationen der nächsten Pixel interpoliert
  1. Noise Reduction:
  • > Frühe Bearbeitung vereinfacht spätere nonlineare Arbeitsschritte (Starke Rauschunterdrückung verschlechtert jedoch die Detailauflösung)
  1. Linearization:
    - > Ausgleich spezifischer Sensor Charakteristika (Knee)
    - ————————-
  2. Blacklevel Subtraction:
    Ausgleich von Fehlersignalen z.B. aus thermalem Rauschen und elektrischen Interferenzen
    —————————
  3. De-Mosaic zu RBG:
    (s. o., Frühe Bearbeitung vereinfach spätere nonlineare Arbeitsschritte)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Welche wichtigen Parameter der Bildbestimmung können (und müssen!) bei RAW-Daten in der Postproduktion festgelegt werden?

A

Weißabgleich

  • > Farbton auf der Planckschen Kurve

Farbraum

  • > Festlegung des Zielfarbraums (z.B. P3, Rec. 2020, Rec. 709, …)

Sensorempfindlichkeit

  • > Verstärkung der Signale (Gain)

Rauschunterdrückung

  • > Denoising (z.B. Szenenabhängig möglich)

Kantenschärfung

-> Detail (z.B. Szenenabhängig möglich)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Nennen Sie die Bearbeitungspunkte von RAW-Daten (während des De-Mosaic-Processings) zu RGB-Video-Signalen.

A

Objektiv-Korrekturen
(Chromatische Aberrationen, Verzerrungen)
————————

Cropping
(Formatskonvertierungen)
————————

Scaling
(Up- oder Down)
————————

Weißabgleich
(Farbton)
————————

Color Conversion
(Farbkonvertierung auf diverse Farbräume)
————————

Color Enhancements

(z. B. Hauttöne, Himmelsblau)
- ———————–

Toning Curve

(z. B. Kontrastanhebung)
- ———————–

Gamma Curve

(z. B. Kodierung zu Rec. 709)
- ———————–

Kantenaufsteilung
(Detail)
————————

Clip to fewer Bits
(Reduktion der Bittiefe)
————————

Lossy Compression
(Datenreduktion auf Ziel-Datenrate)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Erklären Sie Vor - und Nachteile von RAW-Datenaufzeichnung.

A

Vorteile:

  • Höherer Dynamik Umfang möglich als wenn man in einem Codec aufzeichnet
  • Optimale Ausgangsbedingungen für digitale Postproduktion
  • Trotzdem Komprimierung möglich, z.B. REDRAW
  • Maximale Bildqualität
  • Deutlich vereinfachte Kameraelektronik und Menüs möglich, kleinere Bauweise und einfache Bedienung
    _______________

Nachteile:

  • Debayering Prozess zeitlich aufwändig je nach Komplexität, wie Negativentwicklung analog
  • Nicht für Postproduktionen mit schnellem Workflow geeignet
  • Postproduktion zwingend notwendig
  • hohe Bearbeitungszeiten, Kosten von Geräten und Personal
  • mögliche Fehlerquellen in der Kommunikationskette (Weißpunkt, Verstärkung, Farbraum, etc.)
17
Q

Nennen Sie unterschiedliche Kodierungen für RAW-Daten

A

16 Bit linear Sony

12 Bit log uncompressed ARRI

12 Bit log compressed RED

10 Bit log Canon