ANIMATION_2025 Flashcards

(251 cards)

1
Q

Welche Animationskünstlerin war bekannt für ihre innovative Nutzung der Silhouetten-Technik?

A

Lotte Reiniger

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wer hat die Multiplane Kamera erfunden?

A

Lotte Reiniger

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wer war Lotte Reiniger?

A
  • Deutsche Filmemacherin
  • 1923 Multiplane Kamera für Paralaxen Effekt (Später von Disney weiterentwickelt)
  • Silhouetten Animation
  • 1926 Abenteuer von Prinz Achmed Erster animierter Spielfilm
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

In welchem Jahr gab es nach Lotte Reiniger noch einen Meilenstein in der Filmgeschichte und warum?

A

1927: “Metropolis” von Fritz Lang – visionärer Sci-Fi-Film, revolutionäre Effekte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Welche Personen fallen dir zum Thema Animation ein?

A

Lotte Reiniger (Silhouettenanimation/Multiplane Camera/Erster Animationsspielfilm)
Walter Disney (Disney Studios, Zeichentrickfilme)
Ray Harryhausen (Stop-Motion, Jason and the Aggronauts)
Ruth Weiss (Hidden Line Algorithmus 1964)
John Withney (Computeranimation, “Motion Graphics”, Arabesque)
Ivan Sutherland (Sketchpad, VR-Pionier)
Ed Catmull (Pixar Mitbegründer, Subdivision, 3D Hand/Face, UV)
Jim Blinn (Blinn-Shader, Bump Mapping)
Paul Ekman (Gesichtsausdrücke, Emotionen, FACS)
Paul Debevec (HDR Imaging, Image Based Modelling)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wer wird als Urvater des VFX betitelt und warum?

A

Georges Méliès
* Pionier der Filmtricks und Spezialeffekte
* “Die Reise zum Mond” (1902)

  • Innovative Techniken (Miniatur, Mehrfachbelichtung, Matte Painting, Pyrotechnik, Stop Motion)
  • Fundament für moderne VFX
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wer war Ray Harryhausen?

A
  • Special FX/Stopmotion Pionier
    • Berühmt für Skelettkampf in “Jason and the Agronauts”
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wer wahr Ed Catmull und was hat er gemacht?

A
  • Erste 3D Hand und Gesicht
  • Erfindung des Z-Buffers (1974)
  • Entwicklung von Texture Mapping (UV-Mapping)
  • Einführung der B-Splines
  • Entwicklung der Catmull-Clark Subdivision (mit Jim Clark)
  • Mitbegründung von Pixar gemeinsam mit Steve Jobs
  • Entwicklung von RenderMan bei Pixar
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wofür ist Jim Blinn bekannt?

A

Blinn-Phong Shader: Realistischere Glanzlichter.
Environment Mapping: Projektion von Umgebungen auf Oberflächen.
Bump Mapping: Oberflächentiefenillusion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wer war Ivan Sutherland?

A

Professor und Entwickler am MIT (Utah)
* entwickelte Sketchpad 1963 (Voränger des Grafiktablets)
(erste Möglichkeit visuelle Elemente ohne Programmierung zu erstellen)
* Robot Draftsman und HMD (Head Mounted Display) allererste VR-Headset
= bekannt als “Sword of Damocles” 1968: Erstes Virtual Reality Headset (Darstellung von simplen Wireframe-Räumen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wann entwickelte Ivan Sutherland das Sketchpad?

A

1963

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wer war Paul Debevec?

A

Computerwissenschaftler
* High Dynamic Range Imaging (HDR), 1997.
* Image-Based Lighting, 1998.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was hat Ruth Weiss erfunden - warum und wann?

A

1964: Der Hidden Line Elimination Algorithmus
* Computerverfahren, um verborgene Linien oder Flächen in einem Drahtmodell zu identifizieren und zu entfernen, da diese sonst sichtbar wären.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wofür war Gary Scott Watkins bekannt und wann entwickelte er es?

A

1970: Visible Surface Algorithm
* entwickelte den ersten simplen Algorithmus der die Sichtbarkeit von Flächen (im Gegensatz zu Linien) berechnen konnte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wer ist John Whitney und wofür ist er bekannt?

A

Motion Graphics Pionier
-Vertigo Titles (1958)
-Catalog (1961)
-Arabesque (1975)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wer war Doug Engelbart?

A

Doug Engelbart erfindet die Computer-Maus. Immer noch das vielleicht wichtigste Eingabegerät im Bereich der Computeranimation.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wer war William Reeves?

A

entwickelte 1983 das Konzept der 3D-Partikelsysteme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Wer war Walter Elias Disney?

A

(1901-1966) Filmproduzent & Märchenerzähler der Nation (USA)
* produzierte in den 1920er Cartoons (Trickfilm Studio Kansas City)
* 1923 ging er nach Hollywood und gründet mit seinem Bruder die Walt Disney Company
* Mickey Maus (1928)
* Erweiterung der Filme mit Ton und Farbe (1937 “Schneewitchen”)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Franklin Crow?

A
  • Student von Ivan Sutherland
  • erste Anti-Aliasing Verfahren (1977)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Paul Ekman?

A

Psychologe (besonders für non-verbale Kommunikation bekannt)
* FACS: Facial Action Coding System (1978), Universal Microexpressions/Emotions

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Benoit B. Mandelbrot?

A

(1975)
* französicher Mathematiker, Theorie “Fraktale” basiert auf Selbstähnlichkeit und Skalenvarianz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was ist Stopmotion?

A

Stop Motion ist eine Animationstechnik, bei der Objekte schrittweise bewegt fotografiert werden bis sie sich bewegen als hätte niemand sie je angefasst.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Welche Arten von Stop Motion gibt es?

A

Puppet Animation
* Puppen werden Bild für Bild aufgenommen
* Größe der Scene orientiert sich im Maßstab an den Puppen
* Mimik (verschiedene Köpfe oder austauschbarer Mund)
* Metall-Skelett

Clay Animation
* Figuren aus Ton oder Knetgummi (Plastilin)
* werden einzelbildweise fotografiert

Silhoutte Animation
* nur schwarze Silhouetten sichtbar (mithilfe von Gegenlicht und Figuren aus Karton)

Cut-Out Animation
* ausgeschnittene Flachfiguren/Bilder/Papierschablonen werden auf einen Hintergrund bewegt
* Hintergrund ist bemalt/gezeichnet
* Figuren verfügen über bewegbare Körperteile
* Lotte Reiniger!

Model Animation
* Stop-Motion-Figuren mit Live-Action-Footage
* Bsp: “Jason and the Argonauts” Skelettkampf

Object Animation (Brick Films)
* nichts Formbares oder Gezeichnetes, ausschlielich Objekte oder Spielzeug
* Brick Films: Stop-Motion mithilfe von Legofiguren (allgemein Legosteinen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Pixilation?

A

STOPMOTION TECHNIK
* Filmen von echten Personen/Gegensätnde mit Einzelbildschlaltung
* zappelige, verrückte, exzentrische Bewegungen (leicht stockender Charakter)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Pioniere der Stop Motion Animation?
Georges Méliès (1902) “Die Reise zum Mond” Willis O’Brien (1933) “King Kong” Ray Harryhausen(1962) “Jason and the Aggronauts”
26
Wie funktioniert Pixel Animation?
Pixel Animation ist eine Form der digitalen Kunst, bei der Bilder Pixel für Pixel erstellt werden, oft verwendet in Retro-Videospielen.
27
Was war der Urahn aller Prozessoren (IC) und wann?
1958 – Der erste Integrated Circuit Der Urahn aller Prozessoren - Der erste IC (Integrated circuit), Texas Instruments
28
Was war der erste Filmrecorder und wann?
1959 – Stromberg Carlson 4020 Der erste Film-Recorder, General Dynamics
29
Was bedeutet der Übergang von traditioneller Animation zu 3D Animation für die Industrie?
Neue Technologien: Einführung von Software wie Maya und Blender, leistungsfähigere Computer. Effizienz: Einfachere Änderungen und Anpassungen, Wiederverwendbarkeit von Modellen und Animationen. Kreative Möglichkeiten: Komplexe visuelle Effekte und vielfältige Stilrichtungen. Markterweiterung: Neue Segmente wie VR, AR, Videospiele und VFX, weltweite Zusammenarbeit und Outsourcing. Wirtschaftliche Vorteile: Langfristige Kosteneffizienz durch Wiederverwendung, neue Einnahmequellen durch Lizenzierung und spezialisierte Dienstleistungen.
30
Was sind Bezier-Kurven?
mathematische Kurven, die zur Modellierung glatter und skalierbarer Formen in der Computergrafik verwendet werden. (NURBS)
31
Was sind Transforms?
Translation (Verschiebung): Bewegt ein Objekt von einer Position zu einer anderen im 3D-Raum. Dies geschieht durch Hinzufügen eines Verschiebungsvektors zu den Koordinaten der Punkte des Objekts. Rotation (Drehung): Dreht ein Objekt um eine bestimmte Achse (x, y oder z) und einen bestimmten Winkel. Rotationstransformationen ändern die Orientierung des Objekts im Raum. Scaling (Skalierung): Verändert die Größe eines Objekts, indem es entlang der x-, y- und z-Achse skaliert wird. Skalierung kann uniform (gleichmäßig in alle Richtungen) oder non-uniform (unterschiedlich in verschiedenen Richtungen) sein.
32
Unterschied zwischen Kopie und Instanz?
Kopie = kopiert die gesamte Geo + deren Inputs - Veränderbar ohne das Original zu beeinflussen - Ressourcenintensiv Instanz = verändert sich die Geo des Originals, verändert sich auch diese der Instanz * a pointer back to the original File, Referenz auf Original * eine Instanz kann eine eigene Transformation haben (Position, Rotation, Scale) - Änderungen wirken sich auf alle Instanzen aus - Sehr ressourcenschonend, effizient, konsistent Verwendung in Computeranimation: - Kopie: Unique Animationen, individuelle Anpassungen. - Instanz: Viele identische Objekte, Speicher- und Performance-Effizienz.
33
Was ist Hardware Instancing?
Funktion: Erlaubt das gleichzeitige Zeichnen mehrerer Instanzen eines Objekts mit nur einem Draw Call (= Rechenaufgabe wo CPU an GPU schickt um am Screen was zu zeichnen). Anwendung: Ideal für viele gleichartige Objekte wie Gras, Blätter oder einfache Set-Dressing-Objekte (Bücher, Pflanzen). Vorteil: Reduziert die Anzahl der Draw Calls und verbessert die Performance.
34
Was ist ein Draw Call?
Definition: Anweisung an die GPU, ein Objekt (inklusive Texturen, Shader, Buffers) zu laden und anzuzeigen. Relevanz: Draw Calls sind rechenintensiv. Jeder Materialwechsel und jede Lichtquelle erfordert einen eigenen Draw Call. Leistungsimpact: Hohe Anzahl von Draw Calls kann zu „Bottlenecks“ führen, da die CPU Zeit benötigt, um die Daten für die GPU vorzubereiten. Optimierung: Neuere APIs wie DirectX 12 und Vulkan verbessern die Handhabung und Effizienz von Draw Calls.
35
Normalen?
* Vektor, der im rechten Winkel auf die Tangentialfläche steht * alle Normalen sind Einheitsvektoren * die Ausrichtung der Normalen hängt von der Windungsrichtung der Vertices ab Flächennormale = stehen mittig auf der Fläche eines Polygons. Vertex-Normale = Richtungsvektor an jedem Vertex (definert Ausrichtung der Oberfläche)
36
Was sind Face Normals, was sind Vertex Normals?
Face Normals: - Vektor senkrecht zur 3D-Fläche - Zeigt Richtung der Fläche an Definition: Vektoren, die senkrecht auf der Fläche eines Polygons stehen. Eigenschaften: Einheitsvektoren, die im rechten Winkel zur Tangentialfläche stehen. Ausrichtung: Hängt von der Windungsrichtung der Vertices ab (im Uhrzeigersinn oder gegen den Uhrzeigersinn). Vertex Normals: - Vektor senkrecht zum Scheitelpunkt - Gemittelt aus angrenzenden Flächen Definition: Richtungsvektoren an jedem Vertex zur Definition der Oberflächenorientierung. Berechnung: Meistens als Durchschnitt der Flächennormalen der an diesem Vertex angrenzenden Polygone. Der Durchschnitt kann gewichtet werden.
37
Welche 3 Arten von Normals gibt es?
Es gibt im Wesentlichen drei Arten von Normalen in der Computergrafik: Vertex-Normalen, Flächen-Normalen und Pixelebenen-Normalen. Vertex-Normalen: Dies sind Normalen, die an jedem Eckpunkt (Vertex) eines Polygonnetzes berechnet werden. Sie werden vor allem zur Erzeugung glatter Schattierungen in einem 3D-Modell genutzt. Flächen-Normalen: Das sind Normalen, die senkrecht auf den Flächen (Faces) eines Polygons stehen. Sie werden hauptsächlich zur Berechnung von Beleuchtungs- und Schatteninformationen genutzt. Pixelebenen-Normalen: Diese Normalen werden in sogenannten ‘Normal Maps’ verwendet. Sie speichern eine Normalenrichtung für jeden Pixel, um feine Details eines 3D-Modells darzustellen, ohne die Anzahl der Polygone zu erhöhen.
38
Was ist das Uncanney Valley und woher kommt das?
* Zweifel/Unbehagen bei fast menschenähnlichen Figuren, Unglaubhaftigkeit/Unakzeptanz eines digitalen anthromorphen Characters * Herkunft: Beschrieben von Masahiro Mori, 1970er Jahre - Begriff stammt aus der Robotik * Grund Kleinste Unstimmigkeiten in Mimik oder Bewegung wirken störend und unnatürlich Beispiele: Animierte Filme, humanoide Roboter. Valley = Kurve (Zweifel = Kurve fällt -- Uncanny Valley -- hoher Grad der Darstellung = Kurve steigt wieder)
39
Utah – Teapot?
1975 von Martin Newell an der Universität Utah erstellt. Es ist ein Referenzmodell in der Computergrafik, bekannt für seine Sattelpunkte und konkaven Elemente. Es wird als Bezier-Fläche beschrieben und gilt als Ikone in der Computergrafik.
40
Was sind Fractals und was ist Mandelbrot?
(1975) Der Begriff “Fraktale” wurde vom französischen Mathematiker Benoit Mandelbrot geprägt. Fraktale basieren auf Selbstähnlichkeit und Skalenvarianz. Fraktale Erscheinungsformen und Strukturen findet man auch in der Natur (Bäume, Blutgefäße, Flusssysteme, etc). In der Computergrafik verwenden wir Fraktale für prozedurale Texturen / Shader, Simulationen oder zum Erzeugen fantastischer Welten (3D Fractal Art). Mandelbrot Menge = bestimmte Abbildung eines Fraktals
41
Was war das ANIMAC Mocap System?
Das ANIMAC Mocap System war ein Verfahren zur Übertragung menschlicher Bewegungen auf Computergrafiken, das 1967 entwickelt wurde und beispielsweise in einem Werbespot “Can Girl” eingesetzt wurde.
42
Welche Animationstechnik wurde beim TV-Spot “Can Girl” eingesetzt und warum?
Technik: - Brute Force Animation: Ein Live-Model wird gefilmt, und dessen Bewegungen werden mit Referenzpunkten in den Computer übertragen. - Vektor-Grafik-Animation: Die Bewegungen des Live-Models werden in eine animierte Vektor-Grafik übertragen. - Rastered Graphics: Form und Farbe werden dem Bild durch Rastergrafiken hinzugefügt. Ziel: Die Technik wurde eingesetzt, um den Roboter im TV-Spot so organisch und natürlich wie möglich zu bewegen. Durch die Verwendung von realen Bewegungsreferenzen wurde sichergestellt, dass die Animation des Roboters flüssig und glaubwürdig wirkt.
43
Was gab es 1930 für interessante Entwicklungen in SFX & VFX?
1933: KingKong (Willis O’Brien) 1927: Metropolis (Fritz Lang) 1926: “Die Abenteuer des Prinzen Achmed” (Lotte Reiniger)
44
Was ist ein PreViz? Warum so wichtig?
= Previsualization (digitales Storyboarding zur Planung der Shots) * PostViz: (Postproduktion) reales Footage wird mit Previs kombiniert (erleichterte Bearbeitung des Schnitts) * Relevanz: Filmkonzepte vor der Produktion grob visualieren (z.B Realfime - 2012), um zu entscheiden ob es Wert ist dieses Konzept umzusetzen. * Weitere Planung der Produktion für Dreh oder Erstellung von VFX * Animatics: Fokus auf Narrativ, Erfolg der Idee * PreViz: Test für technische Umsetzbarkeit (VFX, live action)
45
Previz (was ist es, warum wird es verwendet, woher kommt’s und was hat man davor verwendet)?
Definition: Previsualisierung von Szenen vor der Produktion Zweck: Planung und Visualisierung, Kosten- und Zeitersparnis Vorherige Methode: Storyboards (gezeichnete Szenenfolgen)
46
Was ist die Title Safe Area?
sicher sichtbarer Bereich für Texte/Grafiken. Vermeidet Abschneiden auf verschiedenen Displays. Meist 80-90% des Rahmens.
47
Projektablauf - Animation
Idee - Konzept - Teamaufstellung - Projektplan (Kosten, Zeit) - Storyboard/PreViz/Animatic - Produktion (Character, Animation, Effects, Audio, Modelling) - (PostViz) - Rendering - Compositing - Grading - Export
48
Was sind NURBS? Welche Vorteile haben sie gegenüber Polys? Was ist ein Vertex und was ist der Unterschied zwischen einem Control Vertex (bei NURBS) und einem Poly Vertex?
Non-Uniform Rational B-Splines sind mathematische Modelle/Kurven, die in der Computergrafik zur Darstellung glatter Kurven und Flächen verwendet werden. Mathematische Modellierung für glatte 3D-Formen. Vorteile gegenüber Polys: - Superglatte Oberflächen - Sehr präzise -------------------------------------------------------------------------------- Vertex = 3D-Punkt Unterschiede: - Control Vertex (NURBS): Beeinflusst Kurven indirekt. - Poly Vertex: Definiert direkt Polygonpunkte
49
Unterschied NURBS vs Polygone?
NURBS: Mathematische Kurven und Flächen n-ten Grades und ist differenzierbar Glatte, präzise Formen Parametrische Kontrolle Ideal für technische Anwendungen (CAD, industrielle Design) Polygone: Netze aus Vielecken Direkte Manipulation von Vertex, Kanten, Flächen Flexible, vielfältige Modelliermöglichkeiten Weit verbreitet in Spiele- und Filmindustrie
50
Wie wird die Unreal Engine in Filmen genutzt?
Virtuelle Produktion (digitale Sets und Hintergründe, Kombination mit realen Elementen) Previsualisierung (Planung und Vorschau von Szenen) Set-Design und Szenenbau (virtuelle Gestaltung und Anpassung von Sets)
51
UV-Koordinaten Erstellung und Einsatz?
UV-Koordinaten dienen dazu, die Oberfläche eines 3D Objekts in einem 2D Bild darzustellen * U (X) und V (Y) beschreiben die Textur Koordinaten * existieren in einem positiven 0 - 1 karteischen Koordinatensystem (Koordinatenlinien sind in einem konstanten Abstand) * Setzen von Seams zum "Unfolden" auf 2D Plane * UV-Koordinaten dienen jedem Vertex bzw Polygon einen Pixel einer 2D Textur zuweisen zu können * Wichtig: Objekte brauchen die gleiche Texel Density (Texture Pixel) * UV-Schnitte: möglichst wenig Einzelteile (wenig/bis gar keine Verzerrung) * NURBS beinhalten ebenso UV-Koordinaten
52
Was bedeutet Animation?
Es kommt von animare “zum leben Erwecken” Erzeugung der Illusion von Bewegung durch schnelle Abfolge von Bildern.
53
Was versteht man unter Hybridanimation?
Hybridanimation kombiniert 2D- und 3D-Animationstechniken, um einzigartige visuelle Effekte und Stilrichtungen zu schaffen.
54
Ist Film Animation, oder Animation Film?
Animation ist eine Form des Films, die oft stilisierte Realitäten zeigt. Dies geschieht durch Techniken wie Verzerrung, Dehnung, übertriebene Bewegungen, stilisierte Charakterdesigns und visuelle Metaphern.
55
Wie bewegt man ein Objekt von A nach B?
Ein Objekt kann durch Keyframe-Animation, Rigging, Expressions oder Simulationen bewegt werden.
56
Was passiert beim KeyFrame setzen?
Attribute werden bestimmten Werten zugewiesen, die in der Timeline gespeichert werden. Mehrere Werte können gleichzeitig gespeichert werden.
57
Bestes Animationsprinzip um Texture darzustellen?
* Staging: Klare Präsentation der Textur durch richtige Platzierung * Solid Drawing: Realistische Darstellung von Volumen und Form. * Appeal: Ansprechende und interessante Texturen. * Scale: Angemessene Proportionen zur Darstellung der Textur.
58
Was ist non Linear Animation?
Definition: Speicherung und Kombination verschiedener Animations-Clips in einem Editor. Blending: Übergänge zwischen Clips zur Erstellung einer zusammenhängenden Animation. Beispiel: Lauf-Clip + Sprung-Clip + Lande-Clip = Sprung über ein Hindernis. Tools: In Maya werden Character Sets verwendet, um Animations-Clips zu erstellen und zu verwalten.
59
Wie funktionieren „Driven Keys“?
Verbindung zwischen Parametern. Wenn ein Parameter sich verändert, macht dies der verlinkte auch.
60
Was bringt das Arcs Animation Principle bei Kameraanimation?
* Vermeidung von starren, geraden Kamerafahrten = organischer * Beispiele (Camera Pan, Verfolgungsscenen, Matrix Dolly Shot)
61
Was ist der Character Animation Workflow?
1. Referenzen suchen/filmen (Beispiele für Bewegungen) 2. Blockout von Keyposen (grobe Positionsbestimmung) 3. Timing im Stepped Modus bearbeiten (Bewegungspunkte festlegen) 4. In den Spline Modus wechseln (Übergänge glätten, Bugs fixen, “Kurvenhygene”) 5. Animation detaillierter ausarbeiten (Feinabstimmung)
62
Was ist Procedural Animation?
erstellt Bewegungen und Effekte durch Algorithmen und mathematische Modelle, anstatt durch manuelles Animieren.
63
MAYA – was ist ein Character Set und wo findet dieser Einsatz?
Definition: Ein Werkzeug zur Gruppierung und Verwaltung von animierbaren Attributen in der Animation. Funktion: Ermöglicht die gleichzeitige Animation mehrerer Attribute von unterschiedlichen Objekten. Beispiel: Armen, Fingern und Beinen eines Charakters. Vorteil: Erleichtert die Animation durch zentrale Steuerung und Verwaltung, ähnlich einem nichtlinearen Schnittprogramm.
64
Nenne die 12 Animation Principles mit Beispiel? (min. 3)
Staging: Komposition der Szene; sorgt dafür, dass die Hauptaktion klar und verständlich präsentiert wird. Timing: Bestimmt die Gewichtung und das Gefühl von Masseneffekten. Richtiges Timing ist entscheidend für die Wirkung der Animation. Squash and Stretch: Veränderung der Form eines Objekts, während Volumen erhalten bleibt, um Bewegungen dynamischer erscheinen zu lassen. Anticipation: Eine vorbereitende Bewegung, die den Hauptakt einer Aktion ankündigt, um diese glaubwürdiger zu machen. Exaggeration: Übertreibung von Bewegungen und Emotionen, um die visuelle Wirkung und den Ausdruck zu verstärken. Secondary Action: Begleitbewegungen, die die Hauptaktion unterstützen und realistischer gestalten, z. B. das Schwingen der Arme beim Gehen. Arcs: Organische Bewegungen folgen Bögen statt geraden Linien. Dies macht Bewegungen natürlicher und dynamischer. Ease In / Ease Out: Bewegungen beginnen langsam, beschleunigen und verlangsamen sich am Ende. Dies vermittelt einen natürlichen Bewegungsfluss. Solid Drawing: Sicherstellen, dass die Bewegung in der Silhouette erkennbar ist. Beispiel: Eine Tasse wird in der Seitenansicht getrunken. Follow Through and Overlapping Action: Bewegungen, die nach dem Hauptteil einer Aktion weiterlaufen, um Trägheit zu veranschaulichen (z. B. das Schwingen von Kleidung nach dem Stoppen). Appeal: Visuelle Attraktivität und Ausdruckskraft von Charakteren und Objekten, um das Publikum zu fesseln. Straight Ahead vs. Pose to Pose: Pose to Pose: Arbeiten mit Schlüsselposen; der Computer generiert die Zwischenposen. Straight Ahead: Frame-für-Frame-Animation, ideal für flüssige Bewegungen. Zusätzliche Prinzipien von Michi: Scale: Relatives Größenverhältnis der Objekte zueinander. Density: Detailgrad und Konsistenz des Bildes. Einheitliche Texel-Dichte und Stil beugen einem „Clusterfuck“ vor.
65
Woher stammen diese 12 Animation Principles?
von "The Illusion of Life": Disney Animation (1981) - Frank Thomas und Ollie Johnston
66
Bewegungsmöglichkeiten in der Animation?
Keyframe Animation - Definiert Werte zu bestimmten Zeitpunkten; Computer interpoliert dazwischen. Expressions - Nutzt Code, um Eigenschaften dynamisch zu beeinflussen, entweder einmalig oder pro Frame. Driven Keys - Verknüpft Werte eines Objekts mit einem anderen; Werte können begrenzt werden. Path Animation - Bewegt ein Objekt entlang eines vordefinierten Pfades. Simulation - Berechnet Bewegungen basierend auf Algorithmen und Parametern. Motion Capture - Erfasst und überträgt Bewegungen von Schauspielern auf digitale Modelle.
67
Wie funktionieren „Driven Keys“?
Verbindung zwischen Parametern. Wenn ein Parameter sich verändert, macht dies der verlinkte auch.
68
Keyframes und deren Eigenschaften?
* Interpolation Method: Bestimmt, wie die Werte zwischen Keyframes berechnet werden (linear, spline, constant) * Attributwert: Der konkrete Wert oder Zustand des animierten Attributs zum Zeitpunkt des Keyframes. (z.B. Scale, X Koordinate) * Zeitwert: Gibt an, an welchem Zeitpunkt der Keyframe in der Animation gesetzt ist. (z.B. 15ter Frame) * Tangenten: Definiert die Kurve der Animation am Keyframe (z. B. ausgerichtet, gebrochen, linear). (Auto, Continuous, Broken) * Stepped: Abrupter Übergang ohne Glättung * Linear Interpolation: Gleichmäßige Veränderung ohne Beschleunigung oder Verzögerung * Bewegungskurven: Graphen zur Glättung der Animation * Keyframe-Editing: Anpassung und Feinabstimmung von Keyframes
69
What Types of Keyframe Interpolations are there?
* Stepped: No interpolation; the animation jumps directly from one keyframe to the next. * Linear: Straight, even motion between keyframes. * Spline/Bezier: Smooth, curved interpolation for natural, fluid motion.
70
Kamera – Animation (Möglichkeiten, Fallen?)
Per Hand: Direkte manuelle Steuerung und Animation der Kamera. Kamera-Rig: Einsatz von physischen oder virtuellen Rigging-Systemen zur Steuerung der Kamera. Ziel (Aim): Die Kamera wird auf ein bestimmtes Ziel ausgerichtet, während sie sich bewegt. Virtuelles Kamera-Rig: Einsatz von digitalen Rigs, die komplexe Bewegungen und Steuerungen ermöglichen. Fallen bei Kameraanimation: * Unrealistische Bewegungen: Kameras können keine realistische Trägheit oder Rotationslimitationen simulieren. * Interaktion mit der Umgebung: Fehlende physikalische Interaktion mit der Umgebung, wie Gewicht oder Reibung.
71
Welche 2 Begriffe sind für die Facial Animation relevant?
Phoneme: (t, s, w, P) sind die kleinste bedeutungsunterscheidende Einheit in der gesprochenen Sprache. In der Facial Animation werden Phoneme verwendet, um die Form/Position der Mundregion während der Aussprache verschiedener Laute zu steuern. Viseme: Mundbilder, die die visuelle Darstellung von Phonemen zeigen. Sie repräsentieren die Mundform/ Lippen- und Gesichtsbewegungen beim Sprechen. * Lipsyncing: Animatoren verwenden Phoneme zur Synchronisierung von Lippenbewegungen mit gesprochenem Dialog. * Disney-Standard: Disney-Animatoren nutzen 12 klassische Viseme zur Darstellung der Lippenbewegungen in Animationen.
72
Wie funktioniert Motion Capture in der Animation?
1. Vorbereitung: Anzüge mit Markern/Sensoren, Kameras/Sensoren eingerichtet 2. Aufnahme: Darsteller bewegt sich, Kameras/Sensoren erfassen Marker 3. Datenverarbeitung: Marker-Daten -> Computermodell, Software erstellt Skelettmodell 4. Anwendung: Skelettmodell -> 3D-Modell/Charakter, Bewegungen übertragen 5. Feinabstimmung: Animator passen Bewegungen an, Details hinzufügen
73
Was ist ein Polygon?
Ein Vieleck, dass durch einen geschlossenen Streckenzug (Linie) aufgespannt wird.
74
Was bedeutet Tesselation in der 3D-Grafik?
Tesselation ist der Prozess, eine Oberfläche in kleinere Polygone zu unterteilen, um die Detailgenauigkeit von zB. Height Displacement zu erhöhen.
75
Was bedeutet Triangulation in der 3D-Modellierung?
Triangulation ist der Prozess, Polygone in Dreiecke zu unterteilen, was für die meisten 3D-Rendering-Engines erforderlich ist.
76
Unterschied Box Modelling vs Sculpting
Box Modelling: Geht von einfachen Formen aus, extrudiert und verschiebt Vertices Sculpting: Modelliert wie mit Ton, dynamischer und höher auflösend.
77
Was ist Retopology?
Der Prozess, bei dem aus einem hochauflösenden oder unregelmäßig tessilierten Objekt (wie einem Sculpt oder Scan) ein neues Modell mit besserer Topologie erstellt wird. Dies verbessert die Handhabung, z.B. für saubere UVs, Optimierung für Animation, Rigging oder bessere Objekttrennung.
78
Was bedeutet Topologie und wozu ist das gut?
Topologie: Anordnung von Vertices, Edges, Faces. Wichtig für: Deformation: Beeinflusst, wie gut ein Modell bei Animationen verformbar ist. Effizienz: Optimale Topologie ermöglicht effizienteres Rendering. Texturierung: Einfacheres UV-Mapping. Struktur: Glatte Kanten bei Subdivision. Kurz: Gute Topologie = Bessere Animation und Effizienz.
79
Was ist eine gute Topologie, und welche Rolle spielt die Auflösung?
Eine gute Topologie hat saubere und gleichmäßige Polygongitter. Zu hohe Auflösungen können jedoch die Performance negativ beeinflussen. Keine Ngons: Vermeide Polygone mit mehr als vier Ecken. Saubere Loops: Halte Edge-Loops und Edge-Flows klar und geordnet. Idealerweise Quads: Nutze vorzugsweise Vierecke statt Dreiecke oder Ngons. Durchschnittliche Dichte an Polygonen: Vermeide zu viele oder zu wenige Polygone. Edge-Flow: Richten sich entlang der konvexen und konkaven Stellen des Modells aus. Alignte Normals: Richtige Ausrichtung der Hard- und Soft-Normals. Keine nicht-planaren Faces: Vermeide Flächen, die nicht planar/eben sind. Keine non-manifold Geometrie: Vermeide Geometrie, bei der ein Punkt mehr als vier benachbarte Punkte oder eine Kante mehr als zwei Flächen hat.
80
Was sind fehlerhafte Topologien?
Fehlerhafte Topologien können non-manifold Geometrie, Selbstüberschneidungen oder isolierte Vertices umfassen.
81
Fehler beim Modeln? Wann egal? Wann ist Topologie wichtig? Und was ist das?
Non-manifold Geometry: 1 Vertex more than 4 Edges, 1 Edge more than 2 Faces Duplicate Edges: (oft beim extruden bei Anfängern weil sie 3mal extrude drücken bevor sie extruden) Self-Intersection: Flächen oder Kanten durchdringen sich selbst. - Fehlende Flächen/Edges/Vertices: Lücken im 3D-Modell. - Inverted Normals: Normalenvektoren zeigen nach innen (Backface Culling?) Topologie = Anordnung von Polygonnetzen auf einem Mesh, ist wichtig für: Animation und Deformation, Rigging, UV-Mapping und Texturierung, Optimierte Performance Topologie weniger kritisch für: Statische Renderings, Konzeptmodelle, Prototyping
82
Was versteht man unter Water Tight Geometry?
Bezeichnet eine Geometrie ohne Löcher oder offene Stellen, bei der man sich vorstellen kann, dass sie vollständig mit Wasser gefüllt werden kann, ohne dass das Wasser herausläuft. Diese Art von Geometrie ist wichtig für genaue Simulationen und Rendering oder 3D Print.
83
Was ist Non-Manifold Geometry?
Non-Manifold Geometry ist eine Art von Geometrie, bei der eine Kante von mehr als zwei Flächen geteilt wird oder ein Punkt mit weniger oder mehr als vier Kanten verbunden ist, was Probleme bei bestimmten 3D-Druck- oder Rendering-Verfahren verursachen kann.
84
Was versteht man unter Self Intersection?
Self-Intersecting Polygons: Falsche Vertex-Order: Die Reihenfolge der Punkte ist inkonsistent, was dazu führt, dass mindestens zwei nicht benachbarte Kanten sich schneiden. Nicht orientierbare Flächen: Eine konsistente Auswahl eines Normalenvektors ist nicht möglich, da die Fläche in der gewählten Richtung (im Uhrzeigersinn oder gegen den Uhrzeigersinn) nicht eindeutig orientierbar ist. Beispiele: Die Kleinflasche und der Möbiusband sind nicht orientierbar. Während die Kleinflasche self-intersecting sein kann, ist das Möbiusband zwar nicht self-intersecting, aber dennoch non-orientable.
85
Was versteht man unter Duplicate Edges und Duplicate Vertecies?
Doppelte Edges: Wenn zwei unterschiedliche Kanten (Edges) dieselben zwei Punkte (Vertices) verbinden. Doppelte Punkte: Wenn zwei Punkte (Vertices) sich exakt an den gleichen Positionen befinden und jeweils mit Kanten verbunden sind, die sich überlagern.
86
Fehlerhafte Polygone – welche Fehler kennst du?
Non-Manifold, mehr als 4 Vertices, konkave Faces, Lamina Faces, Non-Planar Faces, Faces mit Löchern
87
Grundformen und Character Design?
Sie bestimmen die Persönlichkeit und Silhouette und ermöglichen somit die direkte Identifikation. Kreise: Häufig für freundliche Charaktere Rechtecke: Oft für starke Charaktere Dreiecke: Symbolisieren Zielstrebigkeit, Nicht automatisch böse
88
Warum ist beim Character Design die Silhouette wichtig?
Erkennungswert: Macht Charaktere sofort identifizierbar. Leserlichkeit: Ermöglicht schnelles Erfassen der Pose und Aktion. Unterscheidung: Hilft bei der Differenzierung zwischen Charakteren. Kommunikation: Übermittelt Persönlichkeit und Rolle effizient.
89
Welche Modeling Techniken gibt es?
Box Modeling: Starten mit einem Würfel. Edge Modeling: Manipulation von Kanten. Curve Modeling (NURBS): Nutzen von Kurven. Sculpting: Formen wie mit Ton. 3D Scan: Scannen von Objekten mit Lidar/Kamera… Procedural Modeling: Algorithmische Methoden. Volume Modeling: SDF Booleans/Metaballs
90
Was ist prozedurales Modeling und wo wird es eingesetzt?
Prozedurales Modeling verwendet algorithmische Prozesse zur Erstellung von 3D-Modellen und wird häufig verwendet, um komplexe und detaillierte Szenen effizient zu generieren.
91
Was ist der Vorteil bei prozeduralem Modeling?
Kontrolle und Flexibilität durch algorithmische Regeln Effiziente Erstellung komplexer Modelle Leichte Iteration und Anpassung Möglichkeit zur Erstellung von Variationen desselben Modells durch Parameteränderung Skalierbarkeit für unterschiedliche Detailstufen oder Auflösungen
92
4 Anwendungsbeispiele für procedural Modelling
Tress, Plants: L-Systeme, Branching Volumes, Voxel (3D-Pixel, Volume Pixel), parametrisch (Noise), Erosion Algorithmen Landschaftsgenerierung (Graslandschaften, städtische Umgebungen) Städte: Dichte und Ausrichtung werden durch Regeln befolgt, Packing Algorithmen Organische Formen (Bäume, Wolken) Cloth: Mesh Cloth (Mesh simulieren), Garment (Schnittmuster in Marvelous Designer) Texturen und Materialien (Holzmaserung, Marmorierung)
93
Was sind FACS? Wer hat das gemacht und wann?
= Facial Action Coding System * Codierungsverfahren zur Beschreibung von Gesichtsausdrücken (Paul Ekman 1978) * Unterteilung in 46 Grund-Action-Units, diese werden kombiniert um Basis Emotionen zu generieren * AI rechnet mit FACS
94
Was sind die 7 Grundemotionen die Paul Ekman definiert hat?
Freude, Trauer, Ekel, Überraschung, Wut, Angst, Verachtung
95
Was sind Booleans in der 3D-Modellierung?
Booleans sind Operationen, die zwei 3D-Objekte kombinieren, subtrahieren oder deren Schnittmenge bilden, um komplexe Formen zu erstellen.
96
Was sind Blendshapes?
- Blendshapes sind verschiedene deformierte Versionen derselben Geometrie. - ermöglichen das Blenden zwischen vorgefertigten Formen, z.B. Gesichtsausdrücke, mittels Slidern. - Auch Mischungen von Blendshapes (Action Units) sind möglich, um feine Verformungen zu erzielen. - Vertexdifferenzen werden gespeichert und zwischen diesen geblendet. - Voraussetzungen: Gleiche Topologie und Vertex-Order müssen gewährleistet sein. In-Between Blendshapes: - Für komplexe Deformationen, bei denen nicht linear zwischen zwei Zuständen geblendet werden soll (z.B. Blüte, die aufblüht). - Ermöglichen beliebig viele Zwischenstufen für detailliertere Übergänge.
97
Wie funktionieren Blendshapes und wo werden sie eingesetzt?
Blendshapes interpolieren zwischen mehreren Versionen eines Modells mit unterschiedlichen Formen (z.B. Gesichtsausdrücken) Einsatzbereiche: - Gesichtsanimation (Mimik). - Charakteranimation (Bewegungen, Deformationen). - Videospiele (Echtzeitanimation). - Visual Effects (CGI in Filmen).
98
Was beinhaltent Creature Design in der Animation?
Ideenfindung: Kreative Entwicklung und Inspiration durch reale Tiere und mythologische Wesen. Visuelle Gestaltung: Skizzen, Details und Merkmale wie Texturen und Farben. Anatomie und Funktionalität: Glaubwürdige physische Struktur und Bewegungsmöglichkeiten. Charakter und Verhalten: Entwicklung der Persönlichkeit und Interaktionen der Kreatur. Technische Umsetzung: Modellierung, Texturierung und Animation für realistische oder stilisierte Darstellungen.
99
Was ist ein Voronoi-Diagramm in der 3D-Modellierung?
Ein Voronoi-Diagramm teilt einen Raum in Zellen basierend auf der Entfernung zu einer Menge von Punkten und wird oft zur Erzeugung natürlicher Muster verwendet. (Pflanzenzellen) 
100
Wozu braucht man einen Rig?
- Ermöglicht die Bewegung von Meshes oder Objekten durch ein Skelett oder Joints. - Controller: Erleichtert Animation durch Kontroll-Objekte und -Kurven (z.B. Locators, Curves).
101
Typen von Rigs?
Character Rig, Facial Rig, Blendshapes, Joint Based, Cluster Based, Camera Rig, Technical Rigs (z.B. Maschinen)
102
Welche Arten von Rigs gibt es?
Character Rig: Animiert Charaktere durch ein Skelettsystem, das Bewegungen steuert. Facial Rig: - Blendshapes: Verschiedene Versionen der gleichen Geometrie für Gesichtsausdrücke, die durch Slider angepasst werden können. Erlaubt feine Verformungen wie Stirnrunzeln. - Joint Based: Verformung von Vertex-Gruppen durch Joints und Weight Painting, geeignet für weniger detaillierte Bewegungen wie Augenlider und Mund. - Cluster Based: Bewegt Vertex-Gruppen durch Cluster Deformer, wobei der Einfluss auf die Punkte angepasst wird. Oft ineffizient. Camera Rig: Steuert und animiert Kamerabewegungen. Technical Rigs: Animiert Objekte wie Maschinen, die mechanische Bewegungen benötigen.
103
Was macht ein Rig weniger performant?
Für bessere Performance sollte alles auf Joints basieren. Deformer, Muscle-Systeme oder Cloth-Simulationen sind nicht empfohlen. Blendshapes sind nur abhängig von der Engine möglich. Ein zusammenhängendes Skelett und sparsamer Einsatz von Joints sind erforderlich, wobei Performance über Qualität steht.
104
Parent / Child Beziehung? - Unterschied zum Parent Constraint
eine hierarchische Objektbeziehung (alle Transformationen vom Parent werden auf das Child übertragen) * es kann mehrere Childs geben - Direkte Hierarchie - Kind-Objekt folgt allen Transformationen des Eltern-Objekts - Feste Beziehung Parent Constraint: beim Target Objekt (Parent) sind die Transformations-Parameter durch einem "Weight" (Einfluss) einstellbar * mehrere Target-Parents möglich - Keine feste Hierarchie - Objekt kann Transformationen von mehreren Quellen erben - Beeinflussungsgrad kann gesteuert werden
105
Was ist eine Parent-Child-Beziehung am Beispiel des Sonnensystems?
Im dreidimensionalen Bereich des Sonnensystems fungiert die Sonne als Elternteil (PARENT), während die Planeten und andere Himmelskörper wie Monde und Asteroiden ihre Kinder sind, die um sie herum kreisen. Die Gravitation der Sonne bestimmt die Bahnen der Planeten, ähnlich wie Eltern die Bewegungen ihrer Kinder lenken.
106
IK vs FK
IK (Inverse Kinematics) ermöglicht die automatische Platzierung von Endeffektoren wie Händen oder Füßen * Bewegt das letzte Glied der Kette, der Rest folgt diesem (Parent follows child). Ideal für Animationen, bei denen Endpunkte fixiert bleiben sollen, z.B. Füße am Boden. Man animiert von hinten nach vorne. FK (Forward Kinematics) ermöglicht die direkte Steuerung der Gelenke eines Skeletts * Bewegt das oberste Glied der Kette, der Rest folgt diesem (Child follows parent). Bietet realistischere Bewegungen und mehr Kontrolle, da jeder Bone einzeln animiert wird. Man animiert von vorne nach hinten.
107
IK – Spline: Funktionsweise und Einsatzmöglichkeiten?
Die IK-Spline verwendet eine NURBS-Kurve, um eine Joint-Kette zu steuern. Die Joints folgen den Vertices der Kurve, was flexible und organische Bewegungen ermöglicht. Einsatzmöglichkeiten umfassen: Wirbelsäule: Ermöglicht natürliche Bewegungen und Biegungen; Schlangen: Simuliert fließende, geschmeidige Bewegungen
108
Was sind Joints?
Hierarchische Hilfsobjekte zur Steuerung von Bewegungen. Sie sind in einer Baumstruktur angeordnet und können Bewegbarkeit einschränken. Sie werden verwendet, um Geometrie zu deformieren, an die sie gebunden sind. werden in einer Hirarchie von oben nach unten angeordnet (vom Root aus, Baumstruktur) * Joints werden geskinnt und damit die Geometrie deformiert Local Rotation Axis: die Achse um die sich der Joint dreht ist nicht immer ident zur Ausrichtung der Joints * durch "Orient Joint" neu ausrichten (Maya)
109
Wie funktioniert Skinning?
Skinning definiert, wie sich das Mesh bei der Animation verformt. Durch Weight Painting wird der Einfluss der Joints auf die Geometrie angepasst, um problematische Verformungen zu vermeiden. Der Delta Mush Deformer verbessert die Blending-Qualität von Bewegungen und Deformationen.
110
Skinning - Probleme und Lösungen?
Self Intersection: Vermeidung durch sorgfältige Gewichtung und gute Mesh-Struktur. Stretching: Anpassen der Gewichtung und Optimierung der Joints. Animation Input ist zu klein für das Mesh: Sicherstellen, dass das Mesh in den Bewegungsbereich passt. Arme sind nicht lang genug: Anpassen der Joints und der Arm-Längen. Joints sind nicht an der richtigen Stelle: Korrektur der Joints-Positionen. Double Transformations: Verhindern durch genaue Gewichtskontrolle und Korrektur der Einflussbereiche. Der Delta Mush Deformer und glatte Übergänge an Gelenken helfen, diese Probleme zu minimieren und die Verformung zu optimieren.
111
Probleme die beim Skinning auftreten können?
* Weight Painting: Hinzufügen von Gewicht bedingt reduzierung des Gewichts woanders. * Joint Placement: Falsche Joint Platzierung = unnatural deformations * Skinning Artifacts: Candy wrapper artefact; volume loss at joints. * Topology Issues: Weirder Edgeflow, Zu wenig Auflösung * Performance: Maya bug or High Mesh Complexity
112
Wie löst man Skinning Probleme?
Anpassen des Weight Paints Überprüfen der Gelenkpositionen Korrigieren der Einflussbereiche Erstellen glatter Übergänge Beheben von Lücken oder Überlappungen Anpassen des Skeletts Verwenden von Correction-Deformern Einsatz des Delta Mush Deformers
113
Was sind Deformer, was sind Blend Shapes?
Deformer: - Tools für Formveränderung von Objekten (Lattice, Bend, Twist, Taper) Blend Shapes: - animieren 3D-Modelle, indem sie zwischen verschiedenen gespeicherten Formen interpolieren
114
Was kann der Cluster – Deformer?
Verändert Geometrie an einer Gruppe von Vertexen, dann steuerbar durch z.B. Controlpoint
115
Double Deformations
mehrer Constraints/Deformer beeinflussen gleichzeitig und ungewollt das gleiche Objekt * entsteht durch falsche Hirarchie (Base von Deformer wird von einen anderen Deformer beeinflusst)
116
Vorteile vom Lattice Deformer?
* Einfache Steuerung komplexer Transformationen durch anpassbare Gitterstrukturen. * Nicht-destruktive Bearbeitung * Bessere Performance durch ressourcenschonende Bearbeitung von High-Poly-Meshes.
117
Was sind Deformer? Allgemeine Funktionsweise?
Deformer verändern die Geometrie eines Modells, indem sie Punkte gemäß festgelegten Regeln verschieben, ohne die Struktur direkt zu ändern. Lattice Deformer (FFD - Free Form Deformation): Verändert die Geometrie innerhalb eines Quaders durch Bewegen von Deformationspunkten. Das Mesh passt sich der Bewegung dieser Punkte an. Non-Linear Deformers: Bieten einfache Deformationen und haben eine eigene Transform-Node zur Steuerung der Deformation. Beispiele sind: Bend: Beugt die Geometrie entlang einer Achse. Sine (Wave): Verformt das Objekt entlang einer Sinuskurve. Squash: Staucht oder dehnt das Objekt entlang einer Achse. Twist: Verdreht das Objekt entlang einer Achse. Wrap Deformer: Projiziert ein Detail-Objekt auf ein Ziel-Objekt, z.B. für Retopologie oder zur Übertragung von Details eines High-Resolution-Meshs auf ein Low-Resolution-Mesh.
118
Nenne 3 non-linear Deformers und nenne Einsatzmöglichkeiten?
Bend: Biegt Objekte und kann verwendet werden, um natürliche Krümmungen bei Modellierungen wie Bäumen, Schläuchen oder Charaktergliedern zu erzeugen. Flare (Taper): Erzeugt eine Flare-Form, die nützlich ist, um Objekte zu erweitern oder zusammenzuziehen, etwa bei der Simulation von Lichtstrahlen oder graphische Effekte bei Animationen. Sine/WAVE: Wellenverformung für dynamische Animationen wie Wasserbewegungen, Wellen in Fahnen oder auf Oberflächen, die wellige Bewegungen zeigen müssen. Perfekt für Animationen von Wasseroberflächen, Menschenmengen, Fahnen, oder bei Simulation von Schall- oder Wasserwellen. Squash: Quetschen und Strecken von Objekten, ideal für Cartoon-Animationen, um übertriebene Bewegungen und Reaktionen zu erzielen. Twist: Verdrehung von Objekten, nützlich bei der Modellierung von Schrauben, Drillbewegungen oder beim Erzeugen von verdrehten Texturen und Objekten.
119
Kamera Möglichkeiten mit Rigs und Aim? And why use them?
* Basis-Kamerarig: Nullobjekte zum Parenten von Kameras an z.B. Zielobjekt * Aim Constraint: Kamera richtet sich immer auf ein Zielobjekt aus, ideal für Verfolgungen. * Dolly Rig: Simuliert Kamerafahrten mit Bewegung entlang eines Pfades oder einer Kurve. * Crane Rig: Erlaubt Auf- und Abwärtsbewegungen sowie Schwenks, ähnlich einem Kamerakran durch hierarchische Nullobjekte oder Joints. Why use them? - Restricts Movement (just because i can fly my camera everywhere, doesnt mean i should)
120
Nenne 5 Constraints!
Parent Constraint: Bindet die Bewegung eines Objekts an ein Elternobjekt. Point Constraint: Begrenzt die Position eines Objekts, nicht die Rotation. Orient Constraint: Begrenzt die Rotation eines Objekts, nicht die Position. Scale Constraint: Begrenzt die Skalierung eines Objekts. Aim Constraint: Richtet ein Objekt auf ein Zielobjekt aus, behält Position bei. Pole Vector Constraint: Richtet die Richtung einer Gelenkkette auf einen festgelegten Punkt.
121
Was ist die Rotation Order?
Die Rotation Order gibt die Reihenfolge an, in der Rotationen um die Achsen eines Koordinatensystems ausgeführt werden. Sie ist wichtig aus folgenden Gründen: Vermeidung von Gimbal Lock: Verschiedene Rotationsreihenfolgen können Gimbal Lock vermeiden oder minimieren, indem sie verhindern, dass zwei Achsen der Rotationsebene zusammenfallen. Konsistenz und Standardisierung: Die Festlegung einer Rotation Order sorgt für Konsistenz und Standardisierung bei der Animation und Datenübertragung, was wichtig ist, um sicherzustellen, dass Rotationsergebnisse über verschiedene Systeme hinweg übereinstimmen. 
122
Unterschied zwischen Shader, Material und Textur?
* Textur: Ein Bild oder eine Datenquelle, die Details wie Farbe und Muster zu einer Oberfläche hinzufügt. * Shader: Ein “Programm”/Funktion, die das Verhalten von Licht und Schatten auf einer Oberfläche berechnet. * Material: Eine Sammlung von Eigenschaften, Texturen und Shadern, die das Aussehen einer Oberfläche bestimmen. Shader: Algorithmus zur Lichtberechnung auf einer Textur. Textur: Bitmap Material: Kombination aus Shader und Texturen.
123
Nenne ein paar Standard Shader!
Gouraud Shading: Entwickelt von Henri Gouraud. Interpoliert Vertex-Farben, um Kanten von Polygonen weich darzustellen. Lambert Shading: Für perfekte Diffusität der Oberflächen (veraltet). Phong Shading: Verbessert Gouraud durch Interpolation der Pixelwerte, was die Qualität von Highlights und Shading erhöht. Blinn-Phong Shading: Weiterentwicklung des Phong-Shadings von Jim Blinn. Bietet bessere Kontrolle über Highlights und komplexere Materialdarstellung. PBR (Physically Based Rendering): Ermöglicht physikalisch plausible Ergebnisse durch standardisierte Parameter wie Metallness (0 bis 1), SSS, Transparency etc.
124
Was ist eine schlechte Texeldichte?
inkonsistente oder unzureichende Texturauflösung, was zu verzerrten oder minderwertigen visuellen Darstellungen führt.
125
Was ist eine UV und gibt es einen alternativen Einsatz außer für Texturing?
Sie definieren, wie eine 2D-Textur auf die Oberfläche eines 3D-Modells gemappt wird. Die Koordinaten U und V repräsentieren die Achsen der 2D-Textur, ähnlich wie X und Y in einem 2D-Raum. Ja - Lightmaps: Speichern Beleuchtungsinformationen, um die Beleuchtungsberechnung zur Laufzeit zu reduzieren und so die Performance zu verbessern. Displacement Maps und Normal Maps: Um die Oberflächendetails eines Modells zu verbessern, ohne die Geometrie zu ändern. Animation: UV-Koordinaten können in Shadern genutzt werden, um Animationseffekte zu erzeugen, wie z.B. das Scrollen von Texturen oder die Simulation von Wasserbewegungen. Baken von High-Poly auf Low-Poly: Die Detailinformation wird mithilfe der UV-Koordinaten übertragen und definiert, wie diese Normal Map auf die Oberfläche projiziert wird, um die feinen Details des High-Poly-Modells zu simulieren.
126
UV Maps, wie und wofür?
Wie? - Setzen von Seams zum “Entfalten”, und dann Entfalten auf 2D Plane - U/V = xy Koordinates just different naming ;) Wofür? - UVs sind 2D-Darstellungen von 3D-Modellen (Papier auf das du malen kannst bevor du es faltest/Gehäuteter Pikmin) - Ermöglichen das Auflegen von Texturen auf 3D-Objekte
127
Wie kann ich auf ein Objekt eine nicht modellierte Oberfläche bringen?
Hierfür können Techniken wie Normals, Bump Mapping, Displacement Mapping, Tesselation und Parallax Mapping verwendet werden.
128
6 Arten von Maps
Normal Map, Bump Map, Displacement Map, Height Map, Roughness/Glossiness, Transparency
129
Was ist der Unterschied zwischen Normal Map und Bump Map?
* RGB vs Greyscale * Richtungsunterschiede vs Höhenunterschiede * groß (cause 3 Channels) vs kleinere Dateigröße
130
Was ist eine Normal-Map?
Eine Normal-Map ist eine Textur in der 3D-Computergrafik, die Oberflächendetails simuliert, ohne die Geometrie zu verändern. Sie speichert Informationen über die Normalen einer Oberfläche in RGB-Farben und ermöglicht realistischere Licht- und Schatteneffekte. Normal-Maps sorgen für detaillierte Darstellungen mit weniger Polygonen, was die Effizienz erhöht und besonders in Echtzeitanwendungen wie Videospielen nützlich ist. * Normalen werden von einem hoch- auf ein niedrig aufgelöstes Objekt übertragen (Texture Baking) * Surface Imperfections, Kratzer, Smudges Zweck: Überträgt Beleuchtungsnormale von einem hoch aufgelösten Modell auf ein niedrig aufgelöstes Modell, ohne Vertices zu verschieben.
131
Was sind Displacement maps?
Greyscale Maps with usually high bitdepth (32bit) schwarz = keine Veränderung, weiß = Dilatation (Berge) * für die tatsächliche Verformung der Geometrie * Verwendung zur Hinzufügung von feinen Details wie Falten oder - Oberflächenstrukturen * Deformierung der Geometrie basierend auf Helligkeit oder Intensität der Texturpixel (Texel)
132
3 Arten von Displacements
-Height Displacement: bewegt die Vertices entlang ihrer Normalen basierend auf den Graustufen Wert -Vector Displacement: verwendet RGB-Werte um die Vertices nicht nur entlang ihrer eigenen Normalen zu verschieben, sondern auch entlang des in der Textur gespeicherten Richtungsvektor (Überhänge) -Parallax Mapping
133
Was ist parallaxmapping?
simuliert den Effekt von Parallaxen, indem es die Texturen eines Objekts basierend auf der Betrachterperspektive verschiebt. (Billiges Displacement)
134
Welche Maps gibt es? Was hat Jim Blinn damit zu tun?
* Diffuse Map: Farbinformationen für die Oberfläche. * Specular Map: Steuert Glanz und Reflexionen. * Normal Map: Simuliert Details durch Modifikation der Oberflächennormalen. * Bump Map: Erzeugt Höhenillusionen, kein Einfluss auf die Geometrie. * Displacement Map: Verändert tatsächlich die Geometrie basierend auf Höheninformationen. * Ambient Occlusion (AO) Map: Simuliert Schatten und dunkle Bereiche durch Umgebungslicht. Jim Blinn hat das Bump Mapping entwickelt, um Oberflächen realistischer aussehen zu lassen, ohne die tatsächliche Geometrie zu verändern.
135
Unterschied zu Gourad und Phong Shading
Bùi Tường Phong verbesserte das Gouraud Shading Verfahren. Anders als beim Gouraud Shading werden nicht die Vertex-Werte sondern die einzelnen Pixelwerte interpoliert. Die Qualität der Highlights und des gesamten “Shadings” wird dadurch erheblich verbessert.
136
Was ist das EXR-Dateiformat?
High-Dynamic-Range (HDR) Bildformat * Bis zu 32-Bit pro Kanal für Farben und Helligkeiten * Unterstützung für Mehrschichtbilder und Metadaten * Verlustfreie Kompression
137
Unterschied zwischen 8bit und 16bit/32bit Images? Vorteile Nachteile?
Vorteile - Erweiterter Farbraum: Mehr Farben darstellbar (65.536 pro Kanal). - Bessere Farbverläufe: Geringere Banding-Effekte. - Genauere Bearbeitung: Höhere Präzision bei Farbkorrektur und Grading. - Mehr Dynamikumfang: Besser für HDR-Content. Nachteile - Größere Dateigröße: Mehr Speicherplatz erforderlich. - Höhere Rechenlast: Aufwendiger für Hardware und Software. - Nicht immer sichtbar: Unterschied für Betrachter oft marginal, besonders auf Standard-Monitoren. - Kompatibilitätsprobleme: Nicht alle Geräte und Programme unterstützen 16-bit.
138
Vor/Nachteile vom Arbeiten mit 16-bit Farbtiefe
Vorteil: Größeres Farbspektrum, schönere Gradients. Nachteil: Größere Dateigröße, höherer RAM-Verbrauch.
139
Unterschied zwischen Metallic und Dielectric Material?
Metallic Material: Hohe Reflexion, glänzend Starke spekulare Highlights Typische Beispiele: Gold, Silber, Kupfer Dielectric Material: Schwächere Reflexion, weniger glänzend Diffusere Highlights im Vergleich zu Metallen Typische Beispiele: Glas, Wasser, Plastik
140
Unterschied Roughness/Glossiness?
Roughness: Beschreibt die Rauheit der Oberfläche. Höhere Werte (1) bedeuten maximale Rauheit. Glossiness: Ist das Gegenteil von Roughness. Höhere Werte (1) bedeuten maximale Glattheit. Zweck: Simuliert Mikrostrukturen und Unebenheiten der Oberfläche, um physikalische Oberflächen-Eigenschaften realistisch darzustellen.
141
Vorteile von „Substances“ und was ist das?
Materialien, die sich von normalen unterscheiden, dass sie auflösungsunabhängig sind, scalable, in anderen Tools integrierbar und abänderbar Realismus: Hochdetaillierte Materialien und Texturen Flexibilität: Parametrische Anpassungen Effizienz: Wiederverwendbare Materialien Integration: Kompatibel mit gängigen 3D-Software Optimierung: Geringer Speicherbedarf durch prozedurale Ansätze Community & Ressourcen: Große Bibliothek und aktiver Austausch
142
Was ist eine Curvature Map?
Eine Texturemap, die die Oberflächenkrümmung eines 3D-Modells darstellt. Verwendungszwecke: Betonung von Details Einsatz in Shadern für Effekte wie Verschleiß oder Schmutz Unterstützung beim erstellen realistischer/stylizeter Texturen Darstellung: Heller: Konvexe Bereiche (erhabene Flächen oder Wölbungen) Dunkler: Konkave Bereiche (Vertiefungen oder Ecken)
143
Was ist Anisotropie?
Eigenschaft eines Materials, in verschiedenen Richtungen unterschiedliche physikalische Eigenschaften zu haben. In 3D bedeutet das, dass z.B. die Festigkeit oder das Reflexionsvermögen je nach Richtung variieren kann. zb. Topfunterseite
144
Was ist Transparenz/Opacity?
Transparency: Bezieht sich auf den Grad, in dem ein Material Licht durchlässt. Höhere Werte (z.B. 1) bedeuten vollständige Transparenz, d.h., das Material ist unsichtbar. Opacity: Bezieht sich auf den Grad, in dem ein Material Licht blockiert oder undurchsichtig ist. Höhere Werte (z.B. 1) bedeuten vollständige Opazität, d.h., das Material ist nicht durchsichtig. (Opakheit) Zusammenfassung: - Transparenz misst, wie viel Licht durch das Material hindurchgeht. - Opazität misst, wie viel Licht vom Material blockiert wird. Beide Begriffe sind komplementär und oft als Gegenpole zu verstehen.
145
Was ist ein Fresnel-Effekt und wo liegt dessen Problem in der Computergrafik?
beschreibt, wie das Reflexionsverhalten einer Oberfläche abhängig vom Blickwinkel variiert. Ein Problem kann darin bestehen, diesen Effekt in Echtzeit zu berechnen, daher komplex.
146
Unterschied Vertex Shader / Pixel Shader?
Vertex Shader Aufgabe: Manipuliert die Geometrie der Szene durch Transformationen wie Verschiebung, Skalierung und Rotation. zb. puffi Face durch skalierung Aufruf: Pro Vertex (Eckpunkt) eines Modells. Einschränkung: Kann keine Tesselierung durchführen. Dies übernehmen Geometry Shader oder Tesselation Shader. Pixel Shader (Fragment Shader): Aufgabe: Bestimmt die Farbe und Eigenschaften jedes einzelnen Pixels eines Objekts, einschließlich Effekten wie Transparenz und Bump Mapping. zb. Water Aufruf: Pro Pixel (Fragment) auf dem Bildschirm.
147
Welche dynamischen Systeme gibt es?
Partikel-Systeme: Beeinflusste Partikel durch Gravitation, Wind etc. Rigid Bodies: Stabile/Starre Körper mit Masse, Reibung (Friction), Elastizität, Stickiness, Bounce Soft Bodies: Weiche, volumenbewahrende Materialien (Gelee, Gummi) Hair/Fur: Simulation von Haaren und Fell. Cloth: Textilsimulation; gleich große Faces, Stretch-free UVs, Garment in Marvelous Designer = UVs Fluid: Flüssigkeitssimulation; Viskosität, Partikeltrennung: simuliert Particle Interactions Muscle: Simulation von Muskelausdehnung und -verformung. Crowd/Flocking: Gruppendynamik und Agentensteuerung. * Flocking (Clustering) bilden sich Ansammlungen von Gruppen * Agents (einzelne Person in einer Crowd) werden mithilfe von Regeln bewegt und gesteuert (Attractor, Path Finding)
148
Was sind Rigid Body Dynamics?
Rigid Body Dynamics simulieren die Bewegung und Interaktion starrer unverformbaren Körper in einer 3D-Szene.
149
Worauf ist beim Arbeiten mit Dynamics grundsätzlich zu achten?
Time & Scale Skalierung (Scale): Achten Sie auf eine angemessene Größenverhältnis Ihrer Objekte. Substeps: Je höher die Substeps desto genauer werden z.B. Kollisionen in Zwischenframes bemessen Kollisionen (Collisions): Konfigurieren Sie Kollisionsobjekte richtig, um realistische Interaktionen zu ermöglichen. Auflösung: Bei Objekten mit einer Hohen Auflösung kann die Performance leiden (Proxymeshes)
150
Nenne 4 Particle Attributes und wie diese sich auswirken?
Position: Bestimmt die Lage der Partikel im Raum. Velocity: Beeinflusst die Richtung und Geschwindigkeit, in die sich die Partikel bewegen. Lifetime: Gibt die Lebensdauer der Partikel an, also wie lange sie existieren. Color: Bestimmt die Farbe der Partikel während ihrer Lebenszeit. Age Scale/Particle Size
151
Was sind Particle Goals?
Partikel werden von Zielen angezogen und können von mehreren Zielen gleichzeitig oder zeitlich versetzt beeinflusst werden.
152
Nenne Attribute die ein RBD (Rigid Body Dynamics) Object haben kann?
Velocity, Mass, Friction, Stickiness, Bounce
153
Wie kann man Particles einem Mesh folgen lassen?
Particle Systems mit Anziehungspunkten: Partikel werden von Anziehungspunkten entlang der Flugbahn des Meshes angezogen. Schwarm-Algorithmen: Implementierung von Schwarm-Algorithmen wie Boids, um realistisches Schwarmverhalten zu erzeugen. Feld-basierte Kräfte: Verwendung von Attraktions- und Abstoßungsfeldern, um die Bewegung der Partikel um das Mesh herum zu steuern. Handanimierte Pfadanimation: Erstellung einer Handanimation des Meshes und Platzierung von Partikeln entlang dieses animierten Pfads.
154
Welche Möglichkeiten gibt’s um Partikel zu rendern?
Sprites/Billboards: Flache 2D-Bilder, die immer zur Kamera ausgerichtet sind. Instanced Geometry: Wiederholende 3D-Modelle, Effizienz durch Instancing. Point Rendering/Spheres: Punkte als Darstellung kleinster Partikel, eventuell mit Point Scale Volumetrics/Clouds: Partikelwolken als Volumina, z.B. Rauch oder Nebel. Metaballs/Blobby Surface: Partikel, die sich zu glatten, organischen Formen verbinden. Streaks: Partikel, die gestreckte Streifen erzeugen
155
Particle Caching – Wozu? Evntl. Probleme
Funktion: Speichert alle Attribute an jedem Frame (z.B. Position). Zweck: Ermöglicht das Wiederverwenden von Simulationen ohne Neuberechnung und erleichtert das Rendern. Probleme: Große Dateigrößen und mögliche Speicherprobleme.
156
Nenne 3 dynamic Fields – beschreibe mögliche Anwendungen?
Gravity: Simulation von Schwerkraft auf Objekte (z.B. fallende Blätter) Air: Erzeugung von Windeffekten (z.B. wehende Haare) Turbulence: Unregelmäßige Bewegungen in Flüssigkeiten oder Gasen (z.B. Rauch, Wasserwellen) Drag: Verlangsamung von Partikeln, um realistische Widerstandseffekte zu erzeugen (z.B. Schnee, Sand) Vortex: Rotationseffekte (z.B. Wirbelstürme, Wasserstrudel)
157
Wie kann man Effizienter mit Sims arbeiten?
Caching: Speichern und Wiederverwenden von Simulationsergebnissen. Low-resolution previews: Verwendung von Vorschauen mit niedriger Auflösung während der Vorbereitung. Bounding box restriction: Begrenzung des simulierten Bereichs auf relevante Regionen. Optimized parameters: Anpassung der Simulationseinstellungen für effiziente Ergebnisse. Parallelization: Verteilung der Simulation auf mehrere Rechner oder Prozessorkerne. Cache partitioning: Aufteilung der Simulation in separate Cache-Bereiche. Resource management: Überwachung und Optimierung des Ressourcenverbrauchs.
158
Wie erstelle ich eine Wolke?
* Point Clouds: 3D-Datenpunkte, die ein Objekt oder eine Fläche repräsentieren. * Voxels: 3D-Pixel, die Volumen in einer Gitterstruktur darstellen. * Volumetric Shader Shader, der volumetrische Effekte wie Nebel oder Rauch darstellt.
159
Was sind Point Clouds?
sind Sammlungen von Punkten im 3D-Raum, die verwendet werden, um die Form und Oberfläche von Objekten zu erfassen. zB. Photogrammetry
160
Worauf achtest Du als erstes wenn Du mit einem Nucleus Solver arbeitest?
Skalierung der Szene: Überprüfen, ob die Szenenskala korrekt ist, da sie die Simulationsergebnisse stark beeinflussen kann. Parameter der Solver-Einstellungen: Feinabstimmung von Substeps und Iterationen für eine stabile und genaue Simulation.
161
Welche Emitter Types gibt es bei dynamischen Simulationen?
- Point: Emittiert Partikel von einem einzelnen Punkt im Raum. - Directional: Emittiert Partikel in eine bestimmte Richtung. - Spread: Emittiert Partikel in einem bestimmten Winkelbereich. - Volume: Emittiert Partikel aus einem Volumen innerhalb eines Objekts. - Emit from Object Surface: Emittiert Partikel von der Oberfläche eines Objekts.
162
Nenne Dynamic Fields!
- Air: Simuliert Luftwiderstand und -bewegung. - Gravity: Simuliert die Anziehungskraft, die Partikel nach unten zieht. - Turbulence: Fügt zufällige, wirbelartige Bewegungen hinzu. - Vortex: Erzeugt rotierende, spiralförmige Bewegungen. - Wind: Simuliert kontinuierliche, geradlinige Luftbewegungen. - Radial: Bewegt Partikel radial nach außen oder innen. - Drag: Reduziert die Geschwindigkeit von Partikeln durch Widerstand.
163
Was ist ein Prozedurales System in Maya?
Prozedurale Systeme in Maya wie MASH ermöglichen die schnelle Erstellung komplexer Motion Graphics-Effekte durch prozedurale Regeln und Einstellungen, anstatt auf manuelle Platzierung oder Animation zurückzugreifen.
164
MAYA – M.A.S.H - Funktionsweise, Möglichkeiten, Vorteile
Definition: Particle-System/Dynamics-Tool für parametrisierte und prozedurale Effekte. Nodes: Verschiedene Funktionen, aufeinander aufbaubar und mit externer User Data (z.B. Audio) verknüpfbar. Möglichkeiten: Scattering, MoGraph, Dynamics, Trails, Audio Reactive Visuals, etc. Vorteile: Performant und prozedural.
165
Was ist ein Voxel?
VOLUME - Pixel Voxel ist ein dreidimensionaler Pixel, der in volumetrischen Darstellungen verwendet wird, ähnlich wie ein Pixel in 2D-Bildern.
166
Für was verwendet man Perlin- und andere Noises in der 3D-Grafik?
Perlin-Noise: Erzeugt zufällige, aber kohärente Muster. Häufig verwendet für displacement von Landschaften, Wolken, und organische Oberflächen. Andere Noises: Verschiedene Arten wie Simplex-Noise und Worley-Noise. Jedes mit eigenen Eigenschaften und Anwendungen. Verwendet für Texturen, Prozedurale Generierung und Effekte in 3D-Grafiken.
167
Nenne 5 VFX – Workflows?
Set Extension: Erweiterung des Sets um digitale Elemente wie 3D-Objekte, Backplanes oder Matte Paintings. Anforderungen wie bei Tracking und Greenscreen gelten hier ebenfalls. Characters & Creatures: Characters: Verwendung von DigiDoubles, 3D-Scans und Motion Capture für die Integration von Schauspielern. Creatures: High-Resolution-Modelle und Texturen, präzises Rigging und Animation. Integration erfolgt wie bei der 3D-Objekt- Integration. Digital Makeup / Body Replacement: Verwendung von DigiDoubles, die mithilfe von Motion Capture an dieselbe Position im Live Footage eingefügt werden. Weather Effects: Ideal als Spezialeffekte (SFX). Tracking der Effekte in den Shot ist erforderlich; Wind-Effekte sind in der Postproduktion schwer umzusetzen. Crowds: Implementierung als Set Extension.
168
Was muss man beim Tracking beachten bei der Videoqualität?
* Wenig Noise * Wenig Motion Blur / hoher Shutterspeed * Möglichst hohe Auflösung * Keine Kompression * Kamerashake vermeiden * Lens Distortion entfernen
169
Wie lässt sich Noise reduzieren, für besseres Tracking?
Denoising niedriger ISO Wert / Bessere Lichtverhältnisse
170
Welche Tracking Arten gibt es?
* Point/Feature Tracking: Verfolgt markante Punkte im Bild. * 2D Tracking/Planar Tracking: Verfolgt Flächen oder Ebenen. Probleme: Motion Blur, Focal Shift. * 3D Camera Tracking: Rekonstruiert die Kamerabewegung im 3D-Raum. * Object Tracking: Mittels Algorithmen und Computer Vision. * Matchmoving - manuell
171
Wie integriert man ein 3D Objekt in eine Szene?
Davor: - HDRI machen (Chromeball, 360° Cam) - Abmessungen In Post: 1. Undistort Footage 2. Set Feature points 3. Track 4. Rebuild Scene in 3D & Use HDRI 5. Place CG Element 6. Set Shadow Catchers and other Passes up 7. Render & Composite(Noise, Redistort…)
172
Was ist 3D Object Integration?
Kameraeinstellungen: Übernehmen der Kameraeinstellungen, besonders der Brennweite. Tracking: Kamera-Tracking bei Kamerabewegungen. Lichtsituation nachahmen: Verwenden von HDRI und Umgebung Blockout für realistisches Global Illumination (GI). Rendering: Rendern mit Alphakanal. Matte Shadow Catcher/Receiver: Verwenden für Schattenfang und -empfang. Stand-In References: Verwenden von Stand-Ins für Referenzen. Noise Matching: Anpassen des Rauschens. Reflection Matte: Erstellen von Reflexionsmasken.
173
Unterschied Game Asset / VFX Asset
Game Asset: muss von jeder Richtung funktionieren * Texture Baken, optimierte Topologie für Game Engines * Normals, Ambient Occlusion, LODS (Level of Detail), Pre-baked Mip-Maps (Anti-Aliasing-Technik) * keine Displacement-Map (braucht hohe Geo) VFX Asset: Polygon-Limit von RAM oder VRAM abhängig * bei Animationen --> optimierte Topo * LOD (Detailgrad) abhängig von Relevanz und Fokusbereich
174
Unterschied VFX / SFX
VFX: Visual Effects - werden in der Post hinzugefügt, Einsatz: Wenn reale Umsetzung nicht möglich ist SFX: Special Effects - werden am Film-Set hinzugefügt (physische Effekte: Nebel, Feuer, Animatronics)
175
Wie kann man echte Objekte digitalisieren?
Echte Objekte können durch Methoden wie Photogrammetry, Lidar Scans und Touch Scanning digitalisiert werden.
176
Erkläre was ein 3D Scan ist (Photogrammmetrie)
* Erfassen der Form eines Objekts * Nutzung von Fotos oder Laser * Erfassung Verschiedene Winkel * Erzeugung eines digitalen 3D-Modells durch Point Cloud * Weiterbearbeitung am Computer
177
Welche Probleme treten beim 3D-Scannen auf?
Probleme können unvollständige Scans, Rauschen, Lens Artefakte in den Daten und Schwierigkeiten bei der Digitalisierung komplexer Geometrien sein.
178
3 Arten von 3D Scans:
Contact Based Scan Lidar Scan Photogrammetry Nerf/Gaussian Splatting
179
6 Tätigkeiten im Compositing!
Tracking, Keying, Rotoscoping, Projection Mapping, Wire Removal, 3D Object Integration
180
Qualitätskriterien Video Footage für angenehme Postproduction?
Kamera-Daten: Position, Rotation, Brennweite, Sensor, ISO-Wert, Objektiv, Schärfe (Fokus), ggf. Focus Pull. Color Space: Log oder ProRes 444. Auflösung: Möglichst hochauflösendes Footage. Motion Blur: Minimieren bei Tracking-Shots (wichtig für Tracking und Rotoscoping). Noise: Niedriges Rauschen (geringer ISO-Wert oder Native ISO). Überstrahlte Lichter: Vermeiden. Green/Bluescreen: Gleichmäßige, saubere Ausleuchtung. 3D-Integration: HDRI und Lichtwerte, ggf. gescannte Hero-Objekte.
181
Was kennst du um Filmmaterial zu verbessern?
Denoising: Entfernen von Bildrauschen für klarere Renderings. Upscaling: Erhöhung der Bildauflösung für mehr Detail. De-Interlacing: Umwandlung von interlaced in progressives Video zur Verbesserung der Bildqualität.
182
Wie kann ich mein Rendering noch realistischer machen?
Chromatic Aberration: Farbsäume an Bildrändern, simulieren Linsenfehler. Brechung von Lichtwellenlängen an Bildrändern Lens Distortion: Verzieht das Bild leicht, um eine echte Kameralinse nachzuahmen. Lens Textures: Staub und Kratzer auf Linse Motion Blur: Bewegungsunschärfe für schneller bewegte Objekte. Überstrahlung (Bloom): Leichte Überstrahlung heller Lichtquellen. Depth of Field: Tiefenschärfe, fokussiert das Hauptobjekt, der Hintergrund wird unscharf.
183
Was ist Motion Blur?
Bewegungsunschärfe Ursache: Bewegung während Belichtungszeit, Realistischere Bewegungswiedergabe
184
Compositing: Probleme die bei schlechtem Ausgangsmaterial auftreten?
Farbrauschen: Mindert Farbanpassung und Qualität. Bewegungsunschärfe: Erschwert Tracking. Unterschiedliche Belichtung: Erschwert Kombination. Geringe Auflösung: Detailverlust, Anpassungsprobleme. Kompressionsartefakte: Beeinträchtigen Qualität und Keying. Stabilitätsprobleme: Erschwertes Tracking durch Verwackeln. Unterschiedliche Farbtemperaturen: Erschwert Farbkorrektur. Spill-Effekte: Erschwertes Freistellen durch Farbreflexionen. Fehlende Schärfentiefe: Unrealistische Integration.
185
Color Grading / Color Correction
Color Grading = künstlerisch (definiert Atmosphere eines Filmes) Color Correction = technisch (Angleichen eines Color-Chart/Checker) * Color Space Transformation (Color Spaces: Linear zu ACES oder LOG zu REC.709)
186
Was ist White Balancing?
White Balancing sorgt dafür, dass weiße Objekte im Bild auch weiß aussehen, indem die Farbtemperatur angepasst wird.
187
Was bedeutet Gamma in der Bildverarbeitung?
Gamma bezeichnet die Helligkeitskurve eines Bildes und wird verwendet, um die Helligkeit und Kontrast in Bildern zu steuern.
188
Was ist der SRGB Farbstandard?
Der SRGB Farbstandard ist ein weit verbreiteter Farbraum, der für die Konsistenz von Farben auf verschiedenen Geräten sorgt.
189
Nenne 3 Blending Methoden und erkläre ihre Funktionsweise?
Normal: Standardmethode; Das obere Bild überlagert das untere ohne Interaktion Copy: Legt den Vordergrund über den Hintergrund; häufig mit Alpha-Kanälen verwendet. Add: Addiert die Pixelwerte des Vordergrunds zu denen des Hintergrunds. Subtract: Subtrahiert die Pixelwerte des Vordergrunds von denen des Hintergrunds. Multiply (Multiplizieren): Farben werden multipliziert, Ergebnis ist immer gleich oder dunkler, Weiß hat keinen Effekt Screen (Bildschirm): Farben werden umgekehrt multipliziert, Ergebnis ist immer gleich oder heller, Schwarz hat keinen Effekt Overlay (Überlagern): Kombination aus Multiply und Screen, Helle Bereiche werden heller, dunkle dunkler Soft Light (Weiches Licht): Weiche Beleuchtungseffekte, Farben werden abhängiger von darunterliegenden verändert Hard Light (Hartes Licht): Kombiniert Multiply und Screen in stärkerem Maß, Kontrastreiche Effekte Difference (Differenz):Subtrahiert die Farben, Ergebnis richtet sich nach den Helligkeitswerten der Farben Color (Farbe): Nimmt Farbtöne aus oberem Bild und Sättigung/Helligkeit aus Unteren um Farbstimmungen zu ändern ohne Helligkeit anzutasten Divide: Teilt die Pixelwerte des Vordergrunds durch die des Hintergrunds. Max: Wählt den helleren Pixelwert zwischen Vordergrund und Hintergrund. Min: Wählt den dunkleren Pixelwert zwischen Vordergrund und Hintergrund.
190
Was ist Keying?
Zweck: Freistellen von Bildelementen aus dem Hintergrund, basierend auf einer Schlüsselfarbe (Keying). Dabei wird eine Maske (Alphakanal) erstellt, die für jeden Bildbereich oder Pixel eine Transparenz definiert. Warum hat sich Greenscreen als Standard etabliert? Grün kommt am wenigsten bei Menschen vor, daher leichter zu keyen. Bessere Trennung von menschlicher Hautfarbe. Wann Bluescreen verwenden? In der Natur (besserer Kontrast zu natürlichem Grün). Bei hellerem Licht (natürlicheres Lichtstrahlung).
191
Was ist Rotoscoping?
2D Anwendungsbereich: Nachzeichnen von Live-Action-Aufnahmen. Für VFX: Ausschneiden von Live-Action-Footage bestimmter Charaktere oder Objekte.
192
Was passiert beim Projection Mapping? Einsatzmöglichkeiten in VFX?
Ein Bild wird durch die Kamera auf eine 3D-Geometrie projiziert * Visuelle Erweiterung von Kulissen * 2D Photos to 3D Geometry * CG Integration Definition: Stereoskopische Projektion von Videomaterial oder Ähnlichem zur Illusion von Tiefe oder Hintergrund.
193
Was ist Aliasing?
Treppenstufen-Effekt an Kanten * Ursache: Begrenzte Bildschirmauflösung * Folge: Feine Details werden nicht korrekt dargestellt * Lösung: Anti-Aliasing-Techniken (z.B. Kantenglättung)
194
Welche Antialiasing Methoden kennst du? Was passiert dabei ungefähr?
Antialiasing glättet Kanten und verbessert die Bildqualität auf Bildschirmen mit niedriger Auflösung. MSAA(Multisample Anti-Aliasing): Mehrere Samples pro Pixel, glattere Kanten. SSAA(Supersample Anti-Aliasing): Bild höher auflösen, runter skalieren. FXAA(Fast Approximate Anti-Aliasing): Verwischen von Kanten, schnell und einfach.
195
Was versteht man unter Mipmapping?
Mipmapping reduziert die Auflösung entfernter oder schräger Texturen, um Aliasing zu verhindern.
196
Was ist Mipmapping?
Aggressive Nutzung: Mipmapping ist in Games besonders wichtig, um die Performance zu optimieren und Aliasing-Effekte zu reduzieren. Texturen in Zweierpotenzen: Texturen sollten in Zweierpotenzen vorliegen (z.B. 256x256, 512x512), da sie auf die nächste höhere Potenz hochgerechnet werden, was die Texturverarbeitung effizienter macht. Vorab gebaked: Mip Maps werden meist vorher gebaked und berechnet. Diese Mip Maps werden in Level of Detail (LODS) organisiert oder maßgeschneidert, um die Sichtbarkeit und Performance in verschiedenen Entfernungen zu optimieren.
197
Was sind Caustics?
* Helle Lichtmuster (Photon-Mapping Algorithmus von Henrik Wann Jensen - 1995) - Entstehen durch Reflexion oder Brechung von gekrümmten Oberflächen (z. B. Wasser, Glas) Beispiel: Poolboden, Licht durch Glas
198
Was ist Subsurface Scattering?
Licht wird simuliert, das durch durchscheinende Materialien wie Haut streut
199
Warum freuen sich alle auf Ray Tracing in Games und was ist unterschied zu Pathtracing?
Raytracing: Schnell und optimiert Pathtracing: Sehr Realistisch, aber langsam. * Vereinfachte indirekte Beleuchtung: Nutzt approximative Methoden und optimierte Techniken, um Performance zu erhalten. * Komplexere Verfolgung: Umfasst sehr viele Lichtbounces
200
Unterschied zwischen Raytraced und Depth Map Shadows / Shadow Mapping
Raytraced Shadows: - Physikalisch genaue Simulation von Licht- und Schattenverlauf - Exakte Nachverfolgung von Lichtstrahlen - Realistische harte und weiche Schatten - Längere Renderzeiten - Höherer Rechenaufwand und Ressourcenbedarf Depth Map Shadows: - Schattenwerden durch eine Depth Map berechnet - Schneller und ressourcenschonender - Kann zu Artefakten wie Treppeneffekten oder unrealistischen Schatten führen - Weniger detailgetreu im Vergleich zu Raytraced Shadows - Weichheit der Schatten oft manuell einstellbar
201
Was ist die „Facing Ratio“?
* Winkel zwischen Objektoberfläche und Kamerablickrichtung. * Gut für Fresnel-Reflexionen (Glas, Seifenblasen). * Hoher Wert: Oberfläche direkt zur Kamera. * Niedriger Wert: Oberfläche seitlich zur Kamera.
202
Was sind Renderartefakte die auftreten können?
Fireflies: Helle, zufällige Pixel, verursacht durch zu wenig Sampling, sehr kleine Lichtquellen oder niedrige Roughness-Werte. Hot Pixels: Helle, unerwünschte Pixel durch zu wenig Anti-Aliasing, Licht-Samples oder Caustics. Ähnlich wie bei Fireflies. Noise: Körnige Bildbereiche aufgrund unzureichender Samples oder falschem Global Illumination Mode (z.B. Path Tracing). Lösung: Mehr Samples, Denoising. Flickering (Animation): Unregelmäßige Helligkeit in Animationen durch Denoising, Irradiance Cache, oder unterschiedliche Polygon-Dichte. Lösung: Höheres Sampling, GI-Modus wechseln. Aliasing: Treppeneffekte durch zu wenig Kamera-Samples, dünne Objekte oder schlechtes Mip Mapping. Lösung: Mehr Samples, bessere Mip Mapping-Strategien. Z-Fighting: Zwei überlappende Faces an derselben Position, die visuell “glitchen”. Lösung: Geometrie überprüfen und anpassen. Light Bleeding: Licht, das durch Mesh-Ecken scheint, oft durch falsche Normals oder ineinandersteckende Meshes verursacht. Lösung: Normals korrigieren, Meshes trennen.
203
Was ist ein Z-Buffer?
Ed Catmull. Das Z-Buffering ist ein Verfahren zur Verdeckungsberechnung – für jeden Pixel wird eine Tiefeninformation berechnet / gespeichert – diese bestimmt welche Elemente einer Szene für die Kamera sichtbar sind und somit gerendert werden müssen.
204
Was bedeutet Field of View in der 3D-Animation?
Field of View (FOV) beschreibt den sichtbaren Bereich, der von einer Kamera oder einem Betrachter in einer Szene erfasst wird.
205
Was ist der Unterschied zwischen Radiosity und Pathtracing?
Radiosity ist ein Verfahren zur Berechnung von Lichteinstrahlung im 3D Raum. Es beruht auf dem Energieerhaltungssatz – somit kann jede Fläche eine Lichtquelle darstellen. Im Gegensatz zu Raytracing ist Radiosity nicht kameraabhängig – die Qualität der Lichtberechnung ist großartig, die Performance äußerst schlecht. Aufgrund der enormen Rechenzeiten und den mittlerweile hochqualitativen Path Tracing Renderer wird Radiosity heutzutage nicht mehr eingesetzt.
206
Was ist Ambient Occlusion?
Raytracing Kalkulation (Sie betont die Bereiche, in denen Licht weniger gut hinkommt, wie Ecken und Kanten) --> Kontaktschatten Definition: Ambient Occlusion (AO) ist eine Technik die den Schattenwurf (Kontaktschatten) durch Soft Global Illumination/Umgebungslicht simuliert * Dunkelheit ensteht in Ecken und Risse, wo Global Illumination verdeckt oder blockiert ist Man braucht kein Licht um AO zu berechnen, man braucht Rays! Verwendung: Erhöht den Realismus von 3D-Szenen (Objekte würden sonst oft so wirken als würden sie schweben) Berechnet die Verdunkelung in Bereichen, wo Objekte einander nahe kommen. Normaler Erscheinungsort an Objekten: Unter Möbeln oder an Sockeln, wo das Licht von Wänden blockiert wird, In Ecken und Vertiefungen. An Kontaktpunkten zwischen Objekten.
207
Wie funktioniert AO in Games?
Ambient Occlusion hilft dabei, dass Bilder in Spielen oder Filmen realistischer aussehen, indem es Schatten an Stellen hinzufügt, wo es normalerweise dunkler ist, wie zum Beispiel in den Ecken eines Zimmers oder unter Möbeln. Baked AO: Vorkalkuliert und in Texturen gespeichert; rechenaufwändig in der Erstellung, aber performant im Spiel. Screen Space Ambient Occlusion (SSAO): Pixel Shader: Analysiert Tiefenpunkte (Z-Buffering) zur Berechnung der Occlusion. Dynamisch: Echtzeit-Berechnung, konsistent mit der Kameraansicht. GPU-basiert: Läuft über die Grafikkarte, einfach zu implementieren. Horizon-Based Ambient Occlusion: Höchste Qualität: Erzeugt detaillierte Schatten basierend auf der Umgebung. Performance: Höchster Leistungsaufwand, daher weniger häufig verwendet.
208
Was ist Global Illumination?
Global Illumination ist eine Rendering-Technik, die indirektes Licht und Lichtreflexionen in einer Szene simuliert, um realistischere Bilder zu erzeugen.
209
Was versteht man unter Forward Rendering?
Forward Rendering beleuchtet jedes sichtbare Pixel direkt von den Lichtquellen aus und eignet sich gut für Szenen mit wenigen Lichtquellen, da es bei komplexen Szenen ineffizient werden kann.
210
Wie funktioniert Raytracing?
* ein auf Aussendung von Strahlen (RAYS) basierender Algorithmus zur Verdeckungsberechnung = kamerabhängig * Berechnung von Schatten, Reflexionen, Refraktionen * über Path-Tracing Global Illumination Berechnung * sehr rechenintensiv, 2018 erstmals in einer Game-Engine Funktionsweise: Strahlensendung: Ein Ray wird von jedem Pixel der Bildfläche (Image Plane) der Kamera ausgesendet. Objekterkennung: Der Ray bewegt sich, bis er auf ein Objekt trifft. Lichtberechnung: Vom Treffpunkt (BOUNCE) des Rays wird geprüft, ob Lichtquellen das Objekt erreichen oder blockiert sind. Reflexion und Refraktion: Für Reflexionen und Brechungen werden zusätzliche Rays entsprechend den Materialeigenschaften des Objekts ausgesendet. Global Illumination: Über Path Tracing können indirekte Lichtquellen (Global Illumination) berücksichtigt werden. Super Sampling: Sendung mehrere Rays pro Pixel (Super Sampling) verbessern die Bildqualität und reduzieren Aliasing. Probleme: Raytracing kann rechenintensiv sein, da es viele Rays und Berechnungen benötigt, um realistische Bilder zu erzeugen.
211
Was ist der Unterschied zwischen Pathtracing und Raytracing?
Raytracing: traces path of individual rays from the camera to the scene (surfaces) - (reflections, refractions, shadows) Path tracing: Raytracing but better => primary rays + multiple secondary rays + multiple ray bounces => GI, caustics, indirect lighting etc.
212
Technik zur Schattenberechnung die heutzutagen hauptsächlich für Realtime Rendering genutzt wird? Depth Map Shadows (Wie berechnet, Probleme?)
Depth Map Shadows sind eine gängige Technik in der 3D-Computergrafik zur Schattenerzeugung. Sie basiert auf der Erstellung einer Depth Map von der Perspektive der Lichtquelle aus und der Verwendung dieser Informationen, um zu bestimmen, welche Bereiche der Szene im Schatten liegen. Shadow Mapping - Berechnung: Lance Williams (1978) beschrieb in seinem Paper „Casting Curved Shadows on Curved Surfaces“ das Shadow Mapping-Verfahren. Dabei wird aus der Sicht der Lichtquelle ein Depth Map (Z-Kanal) erstellt, diese speichert, welche Punkte im Licht liegen und welche im Schatten. Diese Map wir beim Rendering in die Scene projeziert und damit der Schatten berechnet wird. Probleme: - Halbtransparente Schatten: Shadow Mapping kann keine Schatten von halbtransparenten Objekten korrekt berechnen. - Auflösung: Die Genauigkeit der Schatten ist durch die Auflösung der Depth Map begrenzt, was zu Artefakten wie „Schatten-Spritzern“ führen kann.
213
Was ist PBR? Physically Based Rendering?
Reflektions- und Refraktionsgesetz: Der Einfallswinkel entspricht dem Ausfallswinkel des Lichts. Energieerhaltung: Reflektiertes Licht ist immer weniger als das eingestrahlte Licht. BRDF & BSDF: Akkurate Modelle zur Beschreibung der Lichtverteilung (Bi-Directional Reflectance Distribution Function und Bi-Directional Scattering Distribution Function). Fresnel-Reflexionen & IOR: Fresnel-Effekte und der Index of Refraction beeinflussen die Lichtreflexion. Materialtypen: Dielektrika reflektieren die Lichtfarbe, Metalle reflektieren ihre eigene Farbe. Linear Spaced Rendering: Einheitlicher Farbraum für Texturen und Shader, z.B. Glossiness/Roughness in Linear, Base Color in sRGB. Spektral Path Tracing: Sehr präzises Rendering, das eine physikalisch korrekte Lichtberechnung bietet.
214
Was ist der Linear Workflow?
Farbmanagement: Renderings werden im linearen Farbraum exportiert, um eine präzise Lichtberechnung zu gewährleisten. Hohe Bitrate: Export in 16 oder 32 Bit pro Kanal, um eine hohe Bildqualität und Nachbearbeitungsflexibilität zu sichern. Keine Tonemapping: Rendering erfolgt ohne Tone Mapping, um Farbveränderungen zu vermeiden und die Bilddaten unverfälscht zu erhalten. Texturkonvertierung: Texturen werden ebenfalls in einem passenden Farbraum bearbeitet und konvertiert, um Konsistenz im Workflow zu gewährleisten.
215
Was sind Renderlayers - Renderpasses?
Renderpasses: Teilen ein Bild in verschiedene Kanäle auf, z.B. Reflection Pass, Diffuse Pass, um Flexibilität in der Post-Production zu ermöglichen. Neben sichtbaren Passes gibt es auch Info Passes (wie ZDepth) und Utility Passes (wie Crypto Matte) für spezielle Effekte wie Depth of Field oder Motion Blur. Renderlayers: Ordnen verschiedene Objekt-Sammlungen in logischen Gruppen, z.B. Background, Character. Dies erleichtert die Organisation und das Compositing im finalen Bild.
216
Deferred Rendering
Deferred Rendering ist eine Rendering-Technik, bei der die Szene zunächst in einem G-Buffer gespeichert wird, bevor die Beleuchtungseffekte in separaten Durchläufen berechnet werden. Dies ermöglicht eine effiziente und flexible Beleuchtung, unabhängig von der Anzahl der Lichtquellen.
217
Was ist der Unterschied zwischen biased und unbiased Rendering?
Biased Rendering verwendet Abkürzungen und Annahmen zur Beschleunigung des Renderings, während unbiased Rendering physikalisch genaue Simulationen durchführt.
218
Was ist der Unterschied zwischen CPU- und GPU-Rendering?
CPU-Rendering: Verwendet die zentrale Prozessoreinheit (CPU). Präzise, aber langsamere Verarbeitung. Gut für komplexe Aufgaben. GPU-Rendering: Nutzt die Grafikprozessoreinheit (GPU). Schnelle Verarbeitung großer Datenmengen. Gut für schnelle Vorschau und Echtzeit-Rendering.
219
Was ist Echtzeit-Rendering?
Echtzeit-Rendering erzeugt Bilder so schnell, dass sie sofort angezeigt werden können, oft verwendet in Videospielen und interaktiven Anwendungen.
220
Was ist eine Renderfarm?
Eine Renderfarm ist ein Netzwerk von Computern, die zusammenarbeiten, um komplexe Renderaufgaben zu beschleunigen.
221
Welchen physikalischen Einschränkungen unterliegt ein 3D Licht NICHT?
* Light Linking: Kann bestimmte Objekte beleuchten, andere nicht, obwohl sie es sollten (artistic lighting) * Schattenfarbe kann angepasst werden/Schatten ausgeschaltet * Lichtquelle kann Invisible sein * Entfernung: keine Einschränkungen/Unendlichkeit * Kein Energieverlust * Beliebige Lichtintensität möglich
222
Was hat der Energieerhaltungssatz mit Licht zu tun?
Der Energieerhaltungssatz stellt sicher, dass die Gesamtmenge an Energie (Licht) konstant bleibt. So kann Reflektiertes Licht nicht stärker sein, als vor der Reflektion. Bei jedem Bounce geht Energie verloren, was zur Dämpfung des Lichtes führt.
223
Welche verschiedenen Lichtarten gibt es?
Point Light: Strahlt in alle Richtungen von einem Punkt. Directional Light: Parallelstrahlen, wie Sonnenlicht. Spot Light: Kegelförmiger Lichtstrahl, wie eine Taschenlampe. Area Light: Licht von einer Fläche, für sanfte Schatten. Ambient Light: Diffuses Grundlicht. Mesh Light: Lichtquelle, die auf der Geometrie eines Polygons basiert, gut für realistische Beleuchtung. Volumetric Lighting: Licht, das innerhalb eines definierten Volumens sichtbar ist. Image-Based Lighting (IBL): Nutzung von HDR-Bildern für realistisches Licht und Reflexionen.
224
Was ist Ambient Light, und wann sollte man es verwenden? (FANGFRAGE)
Grundbeleuchtung die keinen Spezifischen Punkt hervorhebt. * Sollte man laut Michi nie, Fangfrage!!!
225
Wann benutzt man Image Based Lighting?
Erfinder: Paul Debevec. Methode: IBL verwendet 360-Grad-Bilder, die durch Stitchen vieler Fotos oder durch die Aufnahme einer Chrome-Kugel (Light Probe) erstellt werden. Alternativ kann eine 360-Grad-Kamera verwendet werden. Vorteil: Monte Carlo Raytracing mit Importance Sampling hat die Performance dieser Technik erheblich verbessert. - CG Integration - Methode zur Schaffung realistischer Beleuchtung für 3D-Szenen mit High Dynamic Range Images (HDRIs).
226
Was unterscheidet HDR-Bilder von normalen JPEGs?
HDR-Bilder erfassen einen größeren Dynamikbereich von Licht und Schatten, während normale JPEGs oft in vielen Bereichen der Belichtung begrenzt sind.
227
Was bedeutet NPR? Beschreibe NPR!
NPR: Non-Photorealistic Rendering. Definition: Erzeugt stilisierte, künstlerische Bilder statt fotorealistische. Ziele: Zeichentrick, Comics, impressionistische Effekte. Techniken: Cel-Shading, Skizzen-Linien, Aquarelleffekte. Nutzen: Einzigartige visuelle Stile, emotionale oder künstlerische Ausdrücke.
228
Was ist ein Toonshader?
Ein Toonshader ist ein Rendering-Effekt, der 3D-Objekten ein künstlerisches, cartoonartiges Aussehen verleiht, oft durch die Verwendung von Farb- und Schattierungsrampen.
229
Toon Shader, wie schaut der Look aus? Stellt Toon Shader realistisch Licht dar?
* Stilisierter Look: Outlines, Shader Ramp, Different Patterns for Shadow & Light * Hartes Licht/Schatten: Scharfe, klare Übergänge zwischen Licht und Schatten. Toon Shader verwenden zwar die Informationen der Lichtquellen, interpretieren sie jedoch so, dass ein unrealistischer/stilisierter Look entsteht.
230
Toonshader – Was definiert den Look – wie wird dieser erstellt?
Look: Gestufte Helligkeitsstufen: Statt eines kontinuierlichen Lichtabfalls werden Lichtstufen in klare, separate Bereiche unterteilt. Outlines: Charakteristische schwarze oder farbige Umrisse, die den Cartoon-Look verstärken. Erstellung: Non-Photorealistic Rendering (NPR): Der Toonshader gehört zur NPR-Kategorie, die nicht photorealistische, stilisierte D arstellungen ermöglicht. Cell Shader: Oft verwendet, um den Toon-Look zu erzeugen, indem Lichtstufen in Zonen unterteilt und harte Kanten statt sanfter Übergänge verwendet werden. Zusammenfassung: Der Toonshader erstellt einen cartoonhaften Look durch schrittweise Helligkeitsstufen und betont Outline-Effekte.
231
Was ist das BRDF? (Bei PBR)
(Bidirectional Reflectance Distribution Function) Das BRDF beschreibt, wie Licht von einer Oberfläche in verschiedene Richtungen reflektiert wird. zb. Topfunterseite BRDF & BSDF: Akkurate Modelle zur Beschreibung der Lichtverteilung (BSDF = Bi-Directional Scattering Distribution Function).
232
Was sind specular Highlights und Reflexionen in der Computergrafik?
Specular Highlights sind helle Lichtreflexe auf glänzenden Oberflächen, während Reflexionen die Spiegelung der Umgebung auf der Oberfläche eines Objekts darstellen.
233
Grunsätzliche Anforderungen an Game Assets
* muss von jeder Richtung funktionieren (Animation, Detail) * optimierte Topologie für Game Engines * so viele Informationen wie möglich in Maps baken (Normals, AO) * so wenig Materials wie möglich * LODS (Level of Detail) * Pre-baked Mip-Maps
234
Character Deformation - Limits
* Blendshapes nicht so performant * Physics eher binden als simulieren (Cloth) * baked Simulation Loops
235
Character Animation - Anforderungen
* Animation muss von allen Anischten funktionieren * Animationen sind gebaked und in Form von Loops, die ineinander geblendet werden
236
Mipmapping
* mehr aggressiv bei Games * Texturen in zweier Potenzen (werden in zweier Potenzen hochgerechnet) * Mip Maps vorher baken
237
Facial Animation
* mithilfe von Joints, Blendshapes sind nicht performativ
238
Level of Detail (LODs)
* Distanz abhängige Dezimierung der Geometrie und Mip-Mapping von Texturen * in Unreal Engine werden LODs durch Nanite ersetzt (Trianguliert Meshes dynamisch)
239
Was beschreibt die Power of Two im Bezug auf Texturen?
Texturen in Spielen sollten “Power of Two” sein (z. B. 2, 4, 8, 16, 32, 64), da dies von Grafik-Engines und Hardware bevorzugt wird und optimale Leistung und Kompatibilität gewährleistet. Können dann einfach auf die nächsthöhere/niedrigere Potenz umgerechnet werden (MipMaps)
240
Facial Animation in Game Engines?
Joints für Facial Animation: In Game Engines werden Gesichtsanimationen häufig durch Joints und Rigging realisiert, um eine performante und kontrollierte Animation zu ermöglichen. Blendshapes: Blendshapes sind weniger performant in Game Engines, da sie viele Berechnungen und komplexe Mesh-Deformationen erfordern.
241
Games: Character) Animation – Anforderungen?
Vielseitigkeit: Animationen müssen aus allen Blickwinkeln funktionieren und realistisch wirken. Gebaked und Loops: Animationen werden gebaked und in Loops organisiert, um nahtlose Übergänge zu ermöglichen.
242
Games: Was sind Limits bei Character Deformation?
Blendshapes: Können in der Performance eingeschränkt sein, da sie viele verschiedene Geometrien speichern müssen. Physics: Bei physikalischen Simulationen wie Cloth-Simulationen ist es oft besser, diese zu binden statt in Echtzeit zu simulieren. Alternativ können Simulationen vorab gebaked werden. Bone Skalierung: Die Skalierung von Bones wird nicht immer von allen Systemen unterstützt und kann zu Problemen führen.
243
Licht in Games:
Realtime Light * berechnet Helligkeitswerte an Oberflächen in Echtzeit * wirft Schatten bis hin zur Shadow Distance * Rechenintensiv Baked light * Light Maps, Auflösungsabhängig * Eigenschaften der baked Lights können in Runtime nicht geändert werden * Lights Maps UVs unverzerrt * dynamische Game Objekte bekommen keinen Schatten von Baked Lights (rechenkostensparend, aber verwenden mehr RAM) Mixed Light * kombiniert Baked Light und Realtime
244
Was ist Realtime Light?
Berechnet Helligkeitswerte an Oberflächen in Echtzeit. Wirft Schatten bis hin zur Shadow Distance. Rechenintensiv. Nur Direct Light (Schatten komplett schwarz).
245
Baked Light - Probleme?
- Light Maps: Baked Lichter werden in Light Maps gespeichert und sind auf die Auflösung angewiesen. - Eingeschränkte Anpassung: Eigenschaften der gebackenen Lichter können zur Laufzeit nicht verändert werden. - Reflektionen: Baked Lights erscheinen nicht in Reflektionen. - Dynamische Objekte: Erhalten keine Schatten von gebackenen Lichtern. - Leistung vs. Speicher: Rechenkostensparend, aber erfordern mehr Arbeitsspeicher. - UV-Unverzerrung: Light Maps erfordern möglichst unverzerrte UVs aller Objekte.
246
Was versteht man unter Mixed Light?
- Kombination: Vereint Baked Light und Realtime Lighting. - Indirektes Licht: Nutzt baked lighting für indirekte Beleuchtungseffekte. - Echtzeit-Schatten: Ermöglicht Echtzeit-Schatten für dynamische Objekte. - Anwendung: Ideal für Szenen, die sowohl statische als auch dynamische Beleuchtung benötigen. Zb. Arcade
247
Wie kann man in Games Reflektionen erzeugen?
Planar Reflections Reflektionen auf flachen Flächen. Cubemaps Texturen auf einem Würfel für Umgebungsreflexionen. Erweiterung von Planar Reflections. Screen Space Reflections (SSR) Reflektiert auf Basis des Geometry Buffers. Nur sichtbare Objekte werden reflektiert, ideal in Kombination mit Cubemaps. Reflection Probes Funktion: Erfasst 360-Grad-Bilder als Cubemap zur Reflexionserzeugung für reflektierende Materialien. Raytracing Funktion: Berechnet Reflektionen durch Raytracing im Z-Buffer und Geometry Buffer, sehr rechenintensiv. NVIDIA optimiert mit CUDA Cores.
248
Wie wird Ambient Occlusion als Map dargestellt.
Schwarz-Weiß Map bei der schwarz wenig Licht und weiß viel Licht bedeutet.
249
Erster abendfüllende Film von Walt Disney?
Schneewittchen 1937 (in Farbe)
250
Was war Oscillion Number Four
Ben Laposkys “Oscillon Number Four” (1950) ist eines der ersten Beispiele für computergenerierte Kunst. Er nutzte ein Oszilloskop und Analogcomputer, um komplexe Wellenmuster zu erzeugen und zu fotografieren. Diese bahnbrechende Arbeit verband Kunst und Technologie und beeinflusste die Entwicklung der digitalen Kunst.
251
Wann wurde der Phong Shader entwickelt und vom wem?
1975 Bùi Tường Phong