Filmtechnik Flashcards

(58 cards)

1
Q

Wie ist das Auge grundsätliche aufgebaut?

A
  • Iris u. Puppile
  • Linse
  • Netzhaut (Retina)
  • Foeva (Sehgrube)
  • Sehnerv
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wie setzt sich die Netzhaut (Retina) zusammen?

A
  • ca. 1/2mm dick
  • Pigmentepithel (dunkel um Streulicht zu absorbieren u. reduziert retinal)
  • ca. 120Mio. Stäbchen (Rods)
  • ca. 8Mio. Zapfen (S-,M,-L-Cones)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wann und wie sehen wir mit den Stäbchen?

A

nur schwarz-weiß bei Dunkelheit

(“Nachts sind alle Katzen grau”)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wann und wie sehen wir mit den Zapfen?

A

im Hellen

  • es gibt 3 verschieden Arten an Zapfen

–> S-Cones (short wavelengths)

–> M-Cones (medium wavelengths)

–> L-Cones (long wavelenghts)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie sind die Zäpchen in der Netzhaut verschaltet?

A

Helligkeitsempfinden: M+L

Rot-Grün-Empfinden: L-M

Blau-Gelb-Empfinden: S-(L+M)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was sind die Konsequenzen der Oponnentenverschaltung der Zäpfchen?

A

Opponente Verarbeitung der Farbe im Gehirn

–> es kann kein rötliches Grün oder gelbliches Blau geben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wie verhält sich die Ortsauflösung der Helligkeitswahrnehmung im vergleich zur Ortsauflösung der Farbwahrehmung?

A

unsere Ortsauflösung für Helligkeitsunterschiede ist deutlich höher als für Farbunterschiede

–> das wird sich beim Bayer Pattern(doppelt so viel Grün als blau u. rot) und beim YCbCr system zu nutze gemacht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was ist das Verhältnis zwischen eingehenden linearen Helligkeitsreizen und unserer Helligkeitsempfindung?

A
  • Logarithmisch laut Weber-Fechner (Verwendung bei gängigen Log-Formaten von ARRI etc.)
  • folgt einer Gamma/Potenzfunktion laut Stevens
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Warum nennt man ein mittleres Grau 18% Grau und nicht 50% Grau?

A

beim klassischen SDR-Fernsehen mit 5 Blenden Dynamik war eine Graukarte mit 18% Grau perzeptuell eine mittlere Helligkeit ziwschen Weiß u. Schwarz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Warum hat der Mensch einen so hohen “Dynamikumfang bei der Wahrnehmung”?

A

die hohe Dynamik der menschl. Wahrnehmung entsteht durch die Fähigkeit der Adapption

–> Netzhaut hat mit ca. 100:1 eine eigentlich sehr geringe Dynamik

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Warum ist Wahrnehmung relativ?

A

aufgrund örtlicher und zetilicher Faktoren

  • örtlich: bei der Wahrnehmung kommt es drauf an wie ein Objekt umgeben ist
    z. B Simultankontrast
  • zeitlich: wegen der Adaption des Auges pendelt sich das Auge irgendwann immer auf einen Mittelwert ein
    z. B. bei einem Bildvergleich immer schnell hin und her wechseln
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Worauf nimmt die physikalische Größe der Kamera einfluss?

A

relevant für die Bildgestaltung - Stabilisierung - Mobilität - spezieller Look (z.B. Schulterkamera)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was sind die gebräuchlichsten Bildseitenverhltnisse?

A
  • 16:9 HD & UHD-TV - 1:1,85 Breitwand Kino (US Standard) - 1:2,35 Ultra Breitwand im Kino (Scope) Wahl des Seitenverhältnises sollte mit Stakeholder abgeklärt werden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie veränder sich die einfallende Lichtmenge wenn man den Durchmesser der Blende halbiert?

A
  • Halbierung des durchmessers = 1/4 der Fläche –>also 1/4 der Lichtmenge
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Welche Auswirkung hat die Veränderung der Blendenzahl um +/- 1 Blende? (z.B.: von f4 –> 2.8)

A

Halbierung der Fläche, also die die doppelte Lichtmenge bzw. wenn man die Blende schleißt um einen Schritt dann nur die Hälfte (Durchmesser x Faktor 1,4) Blendenreihe: 1 / 1.4 / 2.0 / 2.8 / 4.0 / 5.6 / 8.0 / 11 / 16 /22

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was gibt es für unterschiedliche Kameramounts? (nur aufzählen)

A
  • C Mout (Industriekamerastandard) - B4 Mount (2/3” - TV-Kamera Standard) - PL-Mount (Filmstandard) - LPL-Mount (neuer Mount für ARRI Large Format Kameras)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Welche Auswirkungen hat die Sensorgröße auf das Bild?

A
  • Tiefenschärfe (je größer der Sensor desto größer die max. mögliche Tiefenunschärfe) - Lichtempfindlichkeit (höhere Empfindlichkeit bei größeren Sensoren) - höhere maximal ereichbare Schärfe (Beugungsbegrezung bei minimaler Blendenöffnung geringer bei kleinen Sensoren)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Wie kann man die Blende wissenschaftlich definieren?

A

fstop = Brennweite / Eintrittspupille –> je größer der Sensor & die Blende desto größer ist die EIntrittspupille - die Menge an Licht die eine Kamera auffangen kann vergrößert sich bei konstanter Blendenzahl linear mit der Sensorfläche

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wodurch entsteht Beugungsunschärfe?

A
  • wenn man die Blende maximal schließt wird die Eintrittspupille immer kleiner wodurch sich einfallende Lichtstrahlen an der Blendenöffnung stark beugen und es kommt zu Beugungsunschärfen (laterale Abberationen das sich einzelne Wellenlängen unterschiedlich stark beugen) –> daraus kann man schließen das die maximale Schärfe einer Kamera im Bereich von Blendenzahlen zwischen f5.6 & f8 liegt –> größere Sensoren erluaben dadurch einen höhere Ortsauflösung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Was ist ein OLPF Filter und warum wird er eingesetzt?

A

Optical low pass filter - der optische Tiefpassfilter ist notwendig um hochfrequente Signale aus dem Bild zu filtern um dem Abtasttheorem “zu genügen” (doppelte Abtastfrequenz wie maximal vorkommende Frequenz im Bild) - dadruch werden Flirr-Artefakte und Aliasing unterdrückt - ist in der Kamera zusammen mit IR-Filter im Sensordeckglas verbaut

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Was der ist Zweck von Mikrolinsen auf den Pixeln des Sensors?

A
  • Verbesserung der Lichtempfindlichkeit - einfallendes Licht wird durch Mikrolinsen auf den empfindlichen Bereich des Pixels gebündelt ohne das es von der verbauten Elektronik im Sensor geblockt (absorbiert/reflektiert) wird - besonders effizient bei gerigem Füllfaktor der Fotoelemente (Füllfaktor = wirksamer Flächenanteil eines Pixels)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was sind BSI-Sensoren?

A

Backside illuminated sensor - potentiell höhere Lichtempfindlichkeit durch den Wegfall der lichtblockierenden Leiterbahnen - vor allem bei kleinen Fotosensoren von Vorteil - BSI-Sensoren haben auch Mikrolinsen verbaut - ABER: schwierigere Verarbeitung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Nenne die 3 Farbarchitekturen und deren Vor- & Nachteile.

A
  1. Farbfiltermatrix 2. Strahlenteiler 3. gestaffelter Sensor (Foveon Sensor) 1. Farbfilterung durch Farb-Matrix wie z.B Bayer Pattern + kurzer optischer Pfad - Farbabtastung an örtlich unterschiedlichen Positionen (Ursache für Farbaliasing) - Verlust von Licht durch Absorption im Filter 2. Licht wird durch Prisma in RGB auf 3-Sensoren aufgtrennt + hohe Lichteffizienz + Abtastung an der gleichen Position - langer optischer Pfad schwierige geometrische Passung 3. Farben werden über die tiefe die sie eindringen getrennt abhängig von der Wellenlängen + kuzer optischer Pfad + Abtastung an der gleichen Position - geringe Empfindlichkeiten für lange Wellenlängen -schlechte Farbtrennung durch optischen und elektr. Crosstalk
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Welche Auswirkungen hat das Bayer Pattern auf den OLPF?

A

OLPF muss noch “weicher” designed werden um Farbaliasing durch zu hohe Frequenzen im Bild zu verhindern

25
Was bedeutet "Full Well Capacity"?
jedes Fotoelement (Pixel) kann nur eine endliche Anzahl von Elektronen speichern Fotoelement: Wandler von Photonen zu Elektronen & Speicherung während des Belichtungsvorgangs
26
Wie werden die Fotoelemente ausgelesen?
sie werden sequentiell(nacheinander) ausgelesen
27
Zu was für Problemen kommt es im Sensorstack?
- optischer Crosstalk (leicht zu kompensieren) - elektrischer Crosstalk (schwer zu kompensieren)
28
Was wird bei der Analog-Digital-Wandlung gemessen?
die Stromstärke --\> bei der AD-Wandlung werden Photonen in Elektronen umgeandelt, deren "Gesamtheit" also die Stromstärke dann gemessen wird - das Verhältnis von eintreffenden Photonen & dem gemessenen Strom ist annähernd linear - jedes Fotoelement hat seine eigene Kennlinie weshalb jeder Sensor pro Pixel individuell kalibriert werden muss
29
Wie werden Kamera Rohdaten gespeichert?
- meist nicht linear - Rohdaten enthalten schon Crosstalkcompensation, Sensorlinearisierung und Interpolation toter Pixel - Datenspeicherung mit Limit auf 8-10bit Farbtiefe
30
Warum ist ein Weißabgleich in der Kamera nötig?
- Kamera kann nicht wie menschliches Auge eine automatische chromatische Adaption durchführen weshalb es manuell gemacht werden muss - spektrale Empfindlichkeit einer Kamera entspricht nicht der der Zäpfchen in der Retina
31
Warum wird die spektrale Empfindlichkeit einer Kamera charackterisiert?
da die spektrale Empfindlichkeit einer Kamera unterschiedlich wie die eines Menschen ist Ziel: Abweichungen (Farbfehler) werden ermittelt anhand von Farbmatrix (Color-Checker) und können dann kompensiert werden um am Ende ein ähnlichen Farbreiz zu erzielen wie das menschliche Auge
32
Wodurch entsteht Farb-Aliasing?
durch die Farbabtastung anhand eines Bayer-Patterns --\> Abtastung der Farben an unterschiedlichen Stellen --\> durch die Interpolation von Zwischenwerten kommt es zu Artefakten & Ungenauigkeiten
33
Ab welcher Bildwiederholrate gibt es keine Bewegungsartefakte mehr?
es gibt nicht DIE EINE Bildwiederholrate ab der keine Artefakte mehr sichtbar sind Phi-Phenomenen (Scheinbewegungseffekt) entsteht ab ca. 10-12 Bilder pro Sekunde --\> durch die abwechselnde Darstellung zweier fixen Körper mit einer hohen Bildwechselfrequenz entsteht ein Scheinbewegungseffekt --\> Abhängig von der Geschwindigkeit der Bewegung werden extrem hohe Bildwiederholraten für eine artefaktfreie Wiedergabe benötigt (UFO-Beispiel)
34
Wie lange ist die klassische Belichtungszeit (Intergrationszeit) bei 24fps?
1/48 s oder 172,8° --\> typischerweise die Hälfte der Bildstandzeit
35
Welchen Einfluss nimmt die Wahl der Belichtungszeit auf die Bildgestaltung?
durch die Belichtungszeit wird das Maß an Bewegungsunschärfe bestimmt - lange Bel.-Zeiten: mehr Bewegungsunschärfe & weichere Bewegungswiedergabe - kurze Bel.-Zeiten: geringere Lichtempfindlichkeit & stroboskobartige, abgehakte Wiedergbe
36
Wodurch entsteht der Wagenradeffekt?
durch die Verletzung des Abtasttheroems --\> durch die Unterabtastung der hohen Frequenzen die im Bild vorkommen, wirkt es als würden sich die Räder rückwärts drehen --\> Effekt ist frequenzabhängig, drehen sich die Räder mit exakt der selben Frequenz wie das Bild abgetastet wird wirkt es als würden die Räder still stehen
37
Warum gibt es in USA andere Standard-Framerates wie in Europa? (50/60p)
die Netzfrequenz in den USA ist mit 60Hz eine andere wie die in Europa mit 50Hz (VORSICHT: Netzfrequenz in den USA ist nicht exakt 60Hz )
38
In welchen Formaten wird standardmäßig beim Film aufgezeichnet und was sind die Vor- & Nachteile der jeweiligen Formate?
1.RAW +große Flexibilität in der Post-Production (z.B gut für VFX) -große Datenmengen 2. LOG +reduzierte Datenmenge +immer noch große Flexibilität beim Color Grading (Aufzeichnung wird "flacher" gerendert -debayering, Schärfe-Parameter & Farbtemperatur sind baked-in) 3. Video +Bild ist sofort Color-gerendert -geringe Flexibilität in der Post-Production und im Color-Grading
39
Welche Paramter können bei der Rohdatenentwicklung im SDK noch eingestellt werden?
-Belichtung (ISO/ASA) -Farbtemperatur -Tint -Crop -Schärfe (Detail/Sharpness)
40
Was ist der Unterschied zwischen Detail & Sharpness?
1.Sharpness: bezieht sich generell eher auf die mittleren Frequenzen --\> Erhöhung der Sharpness = größere Modulation der Amplitude der mittleren Frequenzen 2.Detail: Verschiebung der maximalen/minimalen Grenzfrequenzen die abgebildet werden --\> Detail erhöhen = mehr höhere Frequenzen werden dargestellt (z.B. einzelne Poren bei der Haut) --\> Detail veringern = feine Strukturen werden weicher dargestellt
41
Auf was sollte man achten wenn man das Rauschen reduzieren will?
Rauschreduzierung durch Hersteller-Software und Plug-In's meist Artefaktbehaftet Rauschen im Bild ist abhängig vom Farbkanal (unterschiedliches Rauschverhalten der einzelnen Farbkanäle)
42
Warum werden Muster&Backups erstellt?
Muster dienen v.a. der Qualitätskontrolle -technische Fehler & aufnahmebedingte Fehler werden protokolliert und an die Produktion weitergeleitet um schon im Produktionsprozess Fehler zu beheben
43
Wer erstellt die Muster&Backups?
Post-Haus im besten Fall --\> höhere Effizienz --\> sicherer --\> durch Abwesehnheit am Set unvoreingenommen
44
Was besagt die 3-2-1-Regel?
-3 Backups -2 unterschiedliche Medien -1 Kopie an einem anderen Ort aufbewahren
45
Warum wird vor dem Schnitt schon ausgemustert?
um Arbeit beim Datenmanagement und beim Ton anlegen zu sparen
46
Welche Vorteile bringt ein "Offline" Schnitt-Worklfow mit sich?
--\> die Daten werden in geringerer Qualität für Schnitt exportiert keine Unterbrechungen und Einschränkungen des kretiven Prozess des Filmschnitts durch wartezeiten aufgrund von Zwischenrenderings
47
Warum werden Muster direkt Farbkorregiert aus der Postproduction geschickt?
- bessere Bildbeurteilung - konstanter Look im Schnitt
48
Wie sind die grundlegende Schritte der Farbkorrektur?
- Primäre Farbkorrektur (globale Operationen) - sekundere Farbkorrketuren (einzelne Farbbereiche) - Fenster u. Masken (ortlich Begrenzte Farbkorrekturen) - Kornreduzierung (Grain, Degrain etc.) - Effekt-Grading (Defokus, Glow-Effekte etc.)
49
Was ist ein Deliverable?
das Finale Endprodukt einer Produktion das beim Sender oder Verleiher abgegeben wird
50
Was sind typische Delvierables?
DCP's (Digital Cinema Package) IMF's (Interoperable Master Format)
51
Aus welchen Komponenten besteht ein DCP?
Bild: JPEG200 Ton: Broadcast WAV in MXF CPL: Compostion Playlist Packliste + Checksumme (als XML) --\> Compostion Playlist bestimmt wie das Video und Tonmaterial abgespielt wird wodurch nächsträgliche Änderungen einfach durch eine neue CPL vollzogen werden können (Zusatzinfo: ein DCP für Kino's muss im Format 1:1,85 oder 1:2,35 sein)
52
Wo wird ein DCP entschlüsselt?
KDM (Key Delivery Message) ist der Schlüssel um einen Film in einem zeitlich begrenzten Fenster abzuspielen zu können --\> entschlüsselt wird das DCP erst im Projektor selbst um Raubkopien und anderen MIssbrauch best möglich zu verhindern
53
Was sind Probleme bei LCD und LCOS-Projektoren?
bei hohen Lichtleistungen der Projektoren können diese nicht ausreichend gekühlt werden könnten --\> da die gesamte Lichtenergie bei Schwarzwerten am LCD-Chip absorbiert bzw. in Hitze umgewandelt wird (LCD-Chip würde bei großer Lichtleistung durchbrennen)
54
Wie erzeugt ein DLP-Projektor die unterschiedlichen Töne zwischen Schwarz und Weiß?
Durch temporale Modulation --\> kleinen Spiegel werden quasi hin- und her gekipptmit einer Frequenz von ca. 30000HZ wodurch dann die Helligkeitsabstufungen entstehen
55
Wodurch zeichnen sich DLP-Projektoren aus?
* haben bisher die längste Langzeitstabilität * durch die additive Farbmischung sind DLP-Projektoren verhältnismäßig gut zu charakterisieren * DLP's erzeugen bisher die beste Homogenität (gute Projektoren haben ca. einen Helligkeitsabfall um 10% bis zu den äußersten Rändern)
56
Was sind aktuell noch vorhandene Probleme bei HDR-Monitoren?
* dynamic Backlight kann zu Artefakten führen da die Backlights noch sehr "grob" strukturiert sind und kleine Bildinhalte nicht korrekt supporten * OLED Monitore erreichen keine sehr hohen Helligkeiten bei großen Bildschirmen und haben starke Einbrenneffekte * Dual-LCD Bildschirme sind sehr uneffizient und durch die extreme Hitzeentwicklung aufgrund der großen benötigten Lichtleistung nicht realisierbar --\> grundsätlich kann man sagen das HDR-Monitore noch in ihren Kinderschuhen stecken
57
58
Was ist "Wide Color Gamut"?
die Vergrößerung der Farbräume von Rec.709 zu P3 und Rec.2020 --\> Gründe: Rec.703 kann nicht alle Objektfarben darstellen P3: enthält im Prinzip alle Farben und ist aktuell gängiger Standard bei modernen Projektoren, Bildschirmen und LED-Leinwänden (ebenfalls Standard für DCI) Rec.2020: erlaubt die Darstellung von Fluoreszenz und gesättigten Lichtquellen (Ferrari-Rot-Beispiel)