Filmtechnik Flashcards
(58 cards)
Wie ist das Auge grundsätliche aufgebaut?
- Iris u. Puppile
- Linse
- Netzhaut (Retina)
- Foeva (Sehgrube)
- Sehnerv
Wie setzt sich die Netzhaut (Retina) zusammen?
- ca. 1/2mm dick
- Pigmentepithel (dunkel um Streulicht zu absorbieren u. reduziert retinal)
- ca. 120Mio. Stäbchen (Rods)
- ca. 8Mio. Zapfen (S-,M,-L-Cones)
Wann und wie sehen wir mit den Stäbchen?
nur schwarz-weiß bei Dunkelheit
(“Nachts sind alle Katzen grau”)
Wann und wie sehen wir mit den Zapfen?
im Hellen
- es gibt 3 verschieden Arten an Zapfen
–> S-Cones (short wavelengths)
–> M-Cones (medium wavelengths)
–> L-Cones (long wavelenghts)
Wie sind die Zäpchen in der Netzhaut verschaltet?
Helligkeitsempfinden: M+L
Rot-Grün-Empfinden: L-M
Blau-Gelb-Empfinden: S-(L+M)
Was sind die Konsequenzen der Oponnentenverschaltung der Zäpfchen?
Opponente Verarbeitung der Farbe im Gehirn
–> es kann kein rötliches Grün oder gelbliches Blau geben
Wie verhält sich die Ortsauflösung der Helligkeitswahrnehmung im vergleich zur Ortsauflösung der Farbwahrehmung?
unsere Ortsauflösung für Helligkeitsunterschiede ist deutlich höher als für Farbunterschiede
–> das wird sich beim Bayer Pattern(doppelt so viel Grün als blau u. rot) und beim YCbCr system zu nutze gemacht
Was ist das Verhältnis zwischen eingehenden linearen Helligkeitsreizen und unserer Helligkeitsempfindung?
- Logarithmisch laut Weber-Fechner (Verwendung bei gängigen Log-Formaten von ARRI etc.)
- folgt einer Gamma/Potenzfunktion laut Stevens
Warum nennt man ein mittleres Grau 18% Grau und nicht 50% Grau?
beim klassischen SDR-Fernsehen mit 5 Blenden Dynamik war eine Graukarte mit 18% Grau perzeptuell eine mittlere Helligkeit ziwschen Weiß u. Schwarz
Warum hat der Mensch einen so hohen “Dynamikumfang bei der Wahrnehmung”?
die hohe Dynamik der menschl. Wahrnehmung entsteht durch die Fähigkeit der Adapption
–> Netzhaut hat mit ca. 100:1 eine eigentlich sehr geringe Dynamik
Warum ist Wahrnehmung relativ?
aufgrund örtlicher und zetilicher Faktoren
- örtlich: bei der Wahrnehmung kommt es drauf an wie ein Objekt umgeben ist
z. B Simultankontrast - zeitlich: wegen der Adaption des Auges pendelt sich das Auge irgendwann immer auf einen Mittelwert ein
z. B. bei einem Bildvergleich immer schnell hin und her wechseln
Worauf nimmt die physikalische Größe der Kamera einfluss?
relevant für die Bildgestaltung - Stabilisierung - Mobilität - spezieller Look (z.B. Schulterkamera)
Was sind die gebräuchlichsten Bildseitenverhltnisse?
- 16:9 HD & UHD-TV - 1:1,85 Breitwand Kino (US Standard) - 1:2,35 Ultra Breitwand im Kino (Scope) Wahl des Seitenverhältnises sollte mit Stakeholder abgeklärt werden
Wie veränder sich die einfallende Lichtmenge wenn man den Durchmesser der Blende halbiert?
- Halbierung des durchmessers = 1/4 der Fläche –>also 1/4 der Lichtmenge
Welche Auswirkung hat die Veränderung der Blendenzahl um +/- 1 Blende? (z.B.: von f4 –> 2.8)
Halbierung der Fläche, also die die doppelte Lichtmenge bzw. wenn man die Blende schleißt um einen Schritt dann nur die Hälfte (Durchmesser x Faktor 1,4) Blendenreihe: 1 / 1.4 / 2.0 / 2.8 / 4.0 / 5.6 / 8.0 / 11 / 16 /22
Was gibt es für unterschiedliche Kameramounts? (nur aufzählen)
- C Mout (Industriekamerastandard) - B4 Mount (2/3” - TV-Kamera Standard) - PL-Mount (Filmstandard) - LPL-Mount (neuer Mount für ARRI Large Format Kameras)
Welche Auswirkungen hat die Sensorgröße auf das Bild?
- Tiefenschärfe (je größer der Sensor desto größer die max. mögliche Tiefenunschärfe) - Lichtempfindlichkeit (höhere Empfindlichkeit bei größeren Sensoren) - höhere maximal ereichbare Schärfe (Beugungsbegrezung bei minimaler Blendenöffnung geringer bei kleinen Sensoren)
Wie kann man die Blende wissenschaftlich definieren?
fstop = Brennweite / Eintrittspupille –> je größer der Sensor & die Blende desto größer ist die EIntrittspupille - die Menge an Licht die eine Kamera auffangen kann vergrößert sich bei konstanter Blendenzahl linear mit der Sensorfläche
Wodurch entsteht Beugungsunschärfe?
- wenn man die Blende maximal schließt wird die Eintrittspupille immer kleiner wodurch sich einfallende Lichtstrahlen an der Blendenöffnung stark beugen und es kommt zu Beugungsunschärfen (laterale Abberationen das sich einzelne Wellenlängen unterschiedlich stark beugen) –> daraus kann man schließen das die maximale Schärfe einer Kamera im Bereich von Blendenzahlen zwischen f5.6 & f8 liegt –> größere Sensoren erluaben dadurch einen höhere Ortsauflösung
Was ist ein OLPF Filter und warum wird er eingesetzt?
Optical low pass filter - der optische Tiefpassfilter ist notwendig um hochfrequente Signale aus dem Bild zu filtern um dem Abtasttheorem “zu genügen” (doppelte Abtastfrequenz wie maximal vorkommende Frequenz im Bild) - dadruch werden Flirr-Artefakte und Aliasing unterdrückt - ist in der Kamera zusammen mit IR-Filter im Sensordeckglas verbaut
Was der ist Zweck von Mikrolinsen auf den Pixeln des Sensors?
- Verbesserung der Lichtempfindlichkeit - einfallendes Licht wird durch Mikrolinsen auf den empfindlichen Bereich des Pixels gebündelt ohne das es von der verbauten Elektronik im Sensor geblockt (absorbiert/reflektiert) wird - besonders effizient bei gerigem Füllfaktor der Fotoelemente (Füllfaktor = wirksamer Flächenanteil eines Pixels)
Was sind BSI-Sensoren?
Backside illuminated sensor - potentiell höhere Lichtempfindlichkeit durch den Wegfall der lichtblockierenden Leiterbahnen - vor allem bei kleinen Fotosensoren von Vorteil - BSI-Sensoren haben auch Mikrolinsen verbaut - ABER: schwierigere Verarbeitung
Nenne die 3 Farbarchitekturen und deren Vor- & Nachteile.
- Farbfiltermatrix 2. Strahlenteiler 3. gestaffelter Sensor (Foveon Sensor) 1. Farbfilterung durch Farb-Matrix wie z.B Bayer Pattern + kurzer optischer Pfad - Farbabtastung an örtlich unterschiedlichen Positionen (Ursache für Farbaliasing) - Verlust von Licht durch Absorption im Filter 2. Licht wird durch Prisma in RGB auf 3-Sensoren aufgtrennt + hohe Lichteffizienz + Abtastung an der gleichen Position - langer optischer Pfad schwierige geometrische Passung 3. Farben werden über die tiefe die sie eindringen getrennt abhängig von der Wellenlängen + kuzer optischer Pfad + Abtastung an der gleichen Position - geringe Empfindlichkeiten für lange Wellenlängen -schlechte Farbtrennung durch optischen und elektr. Crosstalk
Welche Auswirkungen hat das Bayer Pattern auf den OLPF?
OLPF muss noch “weicher” designed werden um Farbaliasing durch zu hohe Frequenzen im Bild zu verhindern