KI_Supervised_Learning_Karteikarten Flashcards

(30 cards)

1
Q

Was ist überwachtes Lernen?

A

Ein ML-Ansatz, bei dem Modelle aus gelabelten Daten lernen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Welche Datenarten gibt es im überwachten Lernen?

A

Trainingsdaten, Validierungsdaten, Testdaten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Warum sind gelabelte Daten notwendig?

A

Sie ermöglichen das Erlernen der korrekten Klassifikationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Welche Algorithmen gehören zum überwachten Lernen?

A

Entscheidungsbäume, k-NN, SVM, lineare Regression.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist ein Entscheidungsbaum?

A

Ein Modell zur Klassifikation oder Regression basierend auf Baustrukturen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Welche Knotenarten gibt es in Entscheidungsbäumen?

A

Wurzelknoten, Entscheidungsnoten, Blattknoten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wie werden Entscheidungsbäume erstellt?

A

Durch rekursives Teilen der Daten mit Informationsgewinn oder Gini-Index.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Welche Methoden zur Entscheidungsbaum-Erstellung gibt es?

A

ID3 (Informationsgewinn), CART (Gini-Index), MARS (Regression).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was ist Informationsgewinn?

A

Die Reduktion der Entropie durch eine Entscheidung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist der Unterschied zwischen Entropie und Gini-Index?

A

Entropie misst die Unordnung, Gini-Index misst die Wahrscheinlichkeit falscher Klassifikationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist Pruning?

A

Eine Technik zur Reduzierung von Overfitting durch Vereinfachung des Baums.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist der Unterschied zwischen Pre-Pruning und Post-Pruning?

A

Pre-Pruning stoppt das Wachstum frühzeitig, Post-Pruning entfernt unnötige Äste nach dem Training.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wie funktioniert k-NN?

A

Neue Datenpunkte werden anhand der k nächsten Nachbarn klassifiziert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist das Voronoi-Diagramm?

A

Eine Darstellung der Regionen, die jeweils einem Trainingspunkt zugeordnet sind.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wie misst man die Ähnlichkeit in k-NN?

A

Mit Distanzmetriken wie euklidischer oder Manhattan-Distanz.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist die euklidische Distanz?

A

Die direkte Entfernung zwischen zwei Punkten im Merkmalsraum.

17
Q

Was ist die Manhattan-Distanz?

A

Die Summe der absoluten Differenzen zwischen zwei Punkten.

18
Q

Welche Nachteile hat k-NN?

Tipps: Rechenaufwand und Empfindlichkeit

A

Hoher Rechenaufwand bei vielen Datenpunkten, empfindlich gegenüber irrelevanten Features.

19
Q

Was ist der Einfluss des Hyperparameters k?

A

Ein zu kleines k kann zu Overfitting führen, ein zu großes k zu Underfitting.

20
Q

Was ist eine Support Vector Machine (SVM)?

A

Ein Algorithmus, der die optimale Trennlinie zwischen zwei Klassen findet.

21
Q

Was ist der Entscheidungsrand (Margin) in SVMs?

A

Der Abstand zwischen der Trennlinie und den nächstgelegenen Punkten beider Klassen.

22
Q

Was sind Support Vektoren?

A

Die Datenpunkte, die die Trennlinie definieren.

23
Q

Was ist der Unterschied zwischen Hard-Margin und Soft-Margin SVM?

A

Hard-Margin lässt keine Fehler zu, Soft-Margin toleriert einige Fehler.

24
Q

Wie funktioniert die Kernel-Trick-Methode?

A

Daten werden in einen höherdimensionalen Raum transformiert, um sie besser zu trennen.

25
Wie kann SVM für mehr als zwei Klassen genutzt werden?
Durch 'One-vs-One' oder 'One-vs-All'-Strategien.
26
Was ist Overfitting?
Das Modell passt sich zu stark an die Trainingsdaten an und generalisiert schlecht.
27
Was ist Underfitting?
Das Modell ist zu einfach und kann Muster nicht erfassen.
28
Was ist der Bias-Variance-Tradeoff?
Modelle mit hohem Bias sind zu einfach, Modelle mit hoher Varianz sind zu komplex.
29
Warum ist die Wahl der Features wichtig?
Relevante Features verbessern die Modellleistung, irrelevante Features verursachen Fehler.
30
Wie optimiert man überwachte Lernmodelle?
Durch Hyperparameter-Tuning, Feature-Selektion und Pruning.