1 Einführung + Ironies of AI Teil 1 Flashcards

(16 cards)

1
Q

Was ist das Polanyi-Paradoxon?

A

Menschen verfügen über Wissen, das sie anwenden können, ohne es erklären zu können

z.B. Fahrradfahren -> mman kann es aber nicht erklären wie genau

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was meint das „reversed Polanyi paradox“?

A
  • KI lernt aus Daten Dinge, die selbst Fachpersonen nicht mehr nachvollziehen können.
  • Entscheidungen wirken „magisch“, aber sind nicht erklärbar.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Warum ist implizites Wissen ein Problem für KI-Entwicklung?

A
  • Es ist nicht explizit formulierbar.
  • KI kann es nur schwer erfassen oder abbilden.
  • Klassische Programmierung stösst an Grenzen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was ist implizites Wissen?

A
  • Wissen, das man hat, ohne es in Worte fassen zu können
  • Wird durch Erfahrung erworben, nicht durch formale Regeln.
  • Beispiel: Gleichgewicht halten beim Fahrradfahren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was kritisiert Wäfler am Autonomie-Kontinuum?

A
  • Es beschreibt nur die Skala von menschlicher Kontrolle bis technischer Autonomie.
  • Es ignoriert Zwischenstufen und wechselseitige Kooperation.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was ist das Autonomie-Kontinuum?

A
  • Ein Modell, das die Zusammenarbeit von Mensch und Technik als Skala darstellt.
  • Links: volle menschliche Kontrolle → Mensch entscheidet alles selbst.
  • Rechts: volle technische Autonomie → Technik entscheidet völlig unabhängig.
  • Dazwischen: verschiedene Grade von Automatisierung.

Beispiel: Pilot steuert (volle Kontrolle), Autopilot übernimmt Teile (Teilautonomie), vollautonomes Flugzeug (volle Autonomie)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist das Teaming-Modell nach Wäfler (2021

A
  • Alternative zum Autonomie-Kontinuum
  • Fokus auf Kooperation zwischen Mensch und Technik
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Aus welchen 4 Studen besteht das Teaming-Modell?

A
  1. Automatisierung:
  • Technik arbeitet unabhängig
  • Mensch nur für Wartung & Eingriff zuständig
  1. Informieren:
  • Technik liefert Infos
  • Entscheidungen trifft der Mensch
  • Gefahr: „Automation Complacency“
  1. Interaktion:
  • Wechselseitiger Einfluss
  • Mensch gestaltet System, Technik gibt Feedback
  • z. B. Visual Analytics, proaktive KI
  1. Kollaboration:
  • Gemeinsame Entscheidungsfindung
  • Noch unausgereift: Verantwortung, Ethik & Kontrolle offen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was bedeutet Automation Complacency?

A
  • Übermäßiges Vertrauen in automatisierte Systeme
  • Mensch kontrolliert nicht mehr aktiv
  • Gefahr: Fehler der Technik werden zu spät erkannt
  • Typisch bei „Informieren“-Stufe des Teaming-Modells
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist die Ironie der Automatisierung (Brainbridge)?

A
  1. Technik nimmt Arbeit ab
  2. Mensch wird entlastet -> verliert Kontrolle
  3. Muss aber im Fehlerfall plötzlich wieder eingreifen -> ist dann überfordert
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist das Ziel des progressiven Teaming-Modells?

A
  • Zusammenarbeit zwischen Mensch und Technik bewusst gestalten.
  • Fokus auf Koordination, wechselseitige Lernprozesse, abgestimmte Entscheidungen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist die 1. Ironie der KI (Endsley)?

A
  • KI ist nicht wirklich intelligent
  • Kein echtes Verständnis für Kausalität, Kontext, Bedeutung
  • Systeme wirken klug, sind aber statistisch gesteuert
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist die 2. Ironie der KI (Endsley)?

A
  • Je intelligenter die KI, desto schwerer ist sie verständlich
  • Nutzer verstehen Entscheidungslogik oft nicht
  • KI verändert sich ständig (maschinelles Lernen)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist die 3. Ironie der KI (Endsley)?

A
  • Leistungsfähige KI reduziert menschliche Aufmerksamkeit
  • Menschen passen sich schlechter an Fehler an
  • Beispiel: Autopilot → sinkende Wachsamkeit
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was ist die 4. Ironie der KI (Endsley)?

A
  • Bias (Verzerrungen) in der KI schwer erkennbar
  • Entsteht durch fehlerhafte Trainingsdaten
  • Nutzer bemerken Vorurteile meist nicht
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist die 5. Ironie der KI (Endsley)?

A
  • Natürlich wirkende Kommunikation täuscht Kompetenz vor
  • z. B. Chatbots wirken überzeugend – auch wenn sie Unsinn liefern
  • Vertrauen steigt, obwohl Inhalt fragwürdig ist