1 Einführung + Ironies of AI Teil 1 Flashcards
(16 cards)
Was ist das Polanyi-Paradoxon?
Menschen verfügen über Wissen, das sie anwenden können, ohne es erklären zu können
z.B. Fahrradfahren -> mman kann es aber nicht erklären wie genau
Was meint das „reversed Polanyi paradox“?
- KI lernt aus Daten Dinge, die selbst Fachpersonen nicht mehr nachvollziehen können.
- Entscheidungen wirken „magisch“, aber sind nicht erklärbar.
Warum ist implizites Wissen ein Problem für KI-Entwicklung?
- Es ist nicht explizit formulierbar.
- KI kann es nur schwer erfassen oder abbilden.
- Klassische Programmierung stösst an Grenzen.
Was ist implizites Wissen?
- Wissen, das man hat, ohne es in Worte fassen zu können
- Wird durch Erfahrung erworben, nicht durch formale Regeln.
- Beispiel: Gleichgewicht halten beim Fahrradfahren.
Was kritisiert Wäfler am Autonomie-Kontinuum?
- Es beschreibt nur die Skala von menschlicher Kontrolle bis technischer Autonomie.
- Es ignoriert Zwischenstufen und wechselseitige Kooperation.
Was ist das Autonomie-Kontinuum?
- Ein Modell, das die Zusammenarbeit von Mensch und Technik als Skala darstellt.
- Links: volle menschliche Kontrolle → Mensch entscheidet alles selbst.
- Rechts: volle technische Autonomie → Technik entscheidet völlig unabhängig.
- Dazwischen: verschiedene Grade von Automatisierung.
Beispiel: Pilot steuert (volle Kontrolle), Autopilot übernimmt Teile (Teilautonomie), vollautonomes Flugzeug (volle Autonomie)
Was ist das Teaming-Modell nach Wäfler (2021
- Alternative zum Autonomie-Kontinuum
- Fokus auf Kooperation zwischen Mensch und Technik
Aus welchen 4 Studen besteht das Teaming-Modell?
- Automatisierung:
- Technik arbeitet unabhängig
- Mensch nur für Wartung & Eingriff zuständig
- Informieren:
- Technik liefert Infos
- Entscheidungen trifft der Mensch
- Gefahr: „Automation Complacency“
- Interaktion:
- Wechselseitiger Einfluss
- Mensch gestaltet System, Technik gibt Feedback
- z. B. Visual Analytics, proaktive KI
- Kollaboration:
- Gemeinsame Entscheidungsfindung
- Noch unausgereift: Verantwortung, Ethik & Kontrolle offen
Was bedeutet Automation Complacency?
- Übermäßiges Vertrauen in automatisierte Systeme
- Mensch kontrolliert nicht mehr aktiv
- Gefahr: Fehler der Technik werden zu spät erkannt
- Typisch bei „Informieren“-Stufe des Teaming-Modells
Was ist die Ironie der Automatisierung (Brainbridge)?
- Technik nimmt Arbeit ab
- Mensch wird entlastet -> verliert Kontrolle
- Muss aber im Fehlerfall plötzlich wieder eingreifen -> ist dann überfordert
Was ist das Ziel des progressiven Teaming-Modells?
- Zusammenarbeit zwischen Mensch und Technik bewusst gestalten.
- Fokus auf Koordination, wechselseitige Lernprozesse, abgestimmte Entscheidungen.
Was ist die 1. Ironie der KI (Endsley)?
- KI ist nicht wirklich intelligent
- Kein echtes Verständnis für Kausalität, Kontext, Bedeutung
- Systeme wirken klug, sind aber statistisch gesteuert
Was ist die 2. Ironie der KI (Endsley)?
- Je intelligenter die KI, desto schwerer ist sie verständlich
- Nutzer verstehen Entscheidungslogik oft nicht
- KI verändert sich ständig (maschinelles Lernen)
Was ist die 3. Ironie der KI (Endsley)?
- Leistungsfähige KI reduziert menschliche Aufmerksamkeit
- Menschen passen sich schlechter an Fehler an
- Beispiel: Autopilot → sinkende Wachsamkeit
Was ist die 4. Ironie der KI (Endsley)?
- Bias (Verzerrungen) in der KI schwer erkennbar
- Entsteht durch fehlerhafte Trainingsdaten
- Nutzer bemerken Vorurteile meist nicht
Was ist die 5. Ironie der KI (Endsley)?
- Natürlich wirkende Kommunikation täuscht Kompetenz vor
- z. B. Chatbots wirken überzeugend – auch wenn sie Unsinn liefern
- Vertrauen steigt, obwohl Inhalt fragwürdig ist