IT&G – Neutrale Maschinen – Gerechte Entscheidungen? Flashcards

1
Q

Was ist das Problem bei ADM-Systemen?

A
  • Viele ADM-Systeme sind intransparent, d.h. rechtlich geschützt und nicht überprüfbar
  • Viele erweisen sich als unfair
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was machen “Weapons of Math Destruction” aus?

A
  • geheim
  • wichtig/einflussreich
  • zerstörerisch
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was schlägt Cathy O’ Neil vor zur Verhinderung von Biases in ADMs?

A
  • Datenintegritätscheck (Bsp: Verteilung Marihuana-Konsum vs. Verteilung Verurteilung)
  • Erfolgsdefiniton (Bsp: Fox News, Beförderung nach 4 Jahren)
  • Genauigkeit: Ausmaß und Verteilung von Fehler und Konsequenzen für
    verschiedene Betroffene(ngruppen)
  • Langfristige Effekte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Welche Botschaften hat Cathy O’ Neil als Schlussfolgerung?

A
  • Data Scientists als Übersetzer gesellschaftlicher Realitäten, nicht Schiedsrichter der Wahrheit (arbiters of truth)
  • Es geht nicht um Mathematik, sondern Politik im Kampf um die Kontrolle über algorithmische Systeme
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Nenne die fünf Punkte, die Barocas & Selbst nennen, wie Data Mining diskriminiert.

A
  • Target Variables & Class Labels
  • Training Data
  • Feature Selection
  • Proxies
  • Masking
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wo liegt das Problem mit Zielvariablen?

A
  • Sie können schon eine Verzerrung in sich haben
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was sind Class Labels beim Data Mining?

A

unterteilen mögliche Werte der Zielvariable in sich gegenseitig ausschließende Kategorien

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wo ist das Problem mit den Trainingsdaten?

A

Diese können an sich schon verzerrt sein
* Garbage-in, Garbage-out
* Qualität und Repräsentativität von Daten korreliert ggf. mit Geschlecht, Klasse, Rasse, etc.
* Über- und Unterpresentätiertheit als zwei Probleme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Erkläre das Problem der Feature Selection beim Data Mining.

A
  • DatensindReduktionundAbstraktiondeszuerfassendenrealen Phänomens
  • Wieumfassendundgenau/grobsindmeineAnnäherungen?
  • Unterscheidet sich diese Umfassendheit & Genauigkeit systematisch für verschiedene Gruppen?
  • Redlining
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Erkläre das Problem der Proxies beim Data Mining.

A
  • Diskriminierungsrelevante Daten einfach nicht
    erheben/löschen?
    – Proxies & redundante Enkodierung: Klassenzugehörigkeit, Geschlecht ist auch durch andere Daten ersichtbar
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Erkläre das Problem des Maskings beim Data Mining.

A
  • neue Formen der beabsichtigten Diskriminierung, durch Verschleierung systematischer Diskriminierung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist das Problem, wenn man Diskriminierung von ML vermeiden/minimieren will

A

Unterschiedliche Methoden des Nachweises zeigen unterschiedliche Formen von Diskriminierung auf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist das Problem bei einbau von Fairness in ML?

A
  • Manche Anforderungen an Fairness können nicht gleichzeitig erfüllt werden!
  • Die Entscheidung über bestimmte Fairnessmaße sollte kontextabhängig entschieden werden und nicht alleine Programmierern überlassen bleiben
  • Zur Entscheidung für ein technisches Fairness-Maß bedarf es ethischer Erwägungen und politischer Entscheidungen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly