Week 9 Flashcards

1
Q

Wat is ANN?

A

Artificial Neural Network. Bestaat uit 10-1000 neuronen. Is expressief: kunnen alle begrensde continue functies benaderen met 1 inwendige laag, en alle functies met twee inwendige lagen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wat is WNN?

A

Wet Neural Network (echte).
Neuron switch tijd = 0.001s
Aantal neuronen =10^10 tot 10^11
Connecties per neuron = 10^4 tot 10^5
Visuele herkenningstijd =0.1s
Groot aantal parallelle berekeningen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wat is het verschil tussen ANN en WNN?

A

ANN heeft veel minder units dan WNN, maar is sneller.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wat is een perceptron?

A

Een network gebruikt voor patroonherkenning. Activatie begint bij input en eindigt bij output. Kan meerdere in- en outputs hebben.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Voor een perceptron met n inputs, hoeveel mogelijk inputcombo’s zijn er dan?

A

2^n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wat is het enkelvoudig linear perceptron?

A

Het meest eenvoudige neurale netwerk. Bestaat alleen uit een inputlaag en 1 ouput.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Beschrijf een unit:

A

Een neuroon.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Gewicht

A

Gewogen connecties tussen units

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wat is notatie netto invoer?

A

De gewogen som van invoerwaarden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wat is multivariate regressie?

A

Inputs worden kolommen in een matrix. De uitkomsten van de inputs worden een vector.
Voor iedere uitkomst j geldt dan dat ie gelijk is aan W^T * de input.
met T = de gewenste uitkomst.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wat kun je met multivariate regressie?

A

De optimale gewichten voor een perceptron in één keer berekenen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hoe representeer je ‘en’ met een enkelvoudig linear perceptron?

A

Van de twee inputs (1 of 0) haalt hij 1.5 eraf. Als de output kleiner is dan 0, dan is de output 0 (want een van de twee inputs was 0). Als de input groter is dan 0, dan is de output 1(want beide outputs 1, nl 2-1.5 is groter dan 0).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Geef de delta-leerregel voor w.i:

A

De nieuwe w.i = de oude w.i + learning rate eta * (target output t - actual output y) * binary input xi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Geef de delta-leerregel voor b:

A

de nieuwe b = de oude b + learning rate eta * (target output t - actual output y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Hoe leren neurale netwerken?

A

Ze stellen inkomende gewichten bij aan de hand van fouten op leervoorbeelden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wat is batch leren?

A

De fout wordt telkens voor alle voorbeelden in de leerverzameling tegelijk verminderd.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wat is online leren?

A

Per leervoorbeeld d is er een fout. Per leervoorbeeld worden de gewichten bijgesteld.

18
Q

Wat is het verschil tussen batch leren en online leren?

A

Bij batch leren wordt per update alle leervoorbeelden gebruikt. Bij online leren wordt per updat 1 leervoorbeeld gebruikt.

19
Q

Beschrijf de foutfunctie:

A

De kleinste-kwadraten som tussen gewenste uitkomst T en verkregen uitkomst Y.
E = 0.5 * (T-Y)^2.

20
Q

Wat zijn de effecten van het verschil tussen batch leren en online leren op de foutfunctie?

A

Bij online leren wordt de E nu per leervoorbeeld d berekend, terwijl bij batch leren de fout voor alle voorbeelden tegelijk berekend wordt.

21
Q

Y

A

uitkomst/output

22
Q

T

A

gewenste uitkomst/output

23
Q

W, w

A

gewichten

24
Q

d

A

leervoorbeeld

25
Q

Wat is de X-OR functie?

A

Exclusive-or functie, de target output is 1 alleen als 1 van de 2 inputs 1 is, en niet beiden. Linearly inseparable.

26
Q

Noem Munsky & Papert’s resultaat van hun onderzoek over het enkelvoudig linear perceptron:

A

Een enkelvoudig linear perceptron kan de X-OR functie niet representeren

27
Q

Wat was de invloed van Munsky & Papert’s resultaat op het NN-onderzoek?

A

Werd stopgelegd/ veel minder gedaan voor lange tijd.

28
Q

Beschrijf de uitbreiding van het enkelvoudig linear perceptron:

A

De unit met een sigmoïde activatiefunctie.
Backpropagation.

29
Q

Beschrijf de sigmoïde activatie functie

A

De output zegt veel over de input.

30
Q

Wat is FFNN?

A

Een meerlagig feed forward neuraal netwerk.

31
Q

Uit welke drie lagen bestaat het meerlagige feed forward neurale netwerk?

A

1) Invoerlaag
2) Verborgen laag
3) Uitvoerlaag

32
Q

Geef de invoernotatie volgens John Mitchell:

A

Knoop j bezit, voor elke voorgangerknoop i, invoer x.ji en gewicht w.ji.

33
Q

Waar staat MLP voor?

A

Multilayer Perceptron.

34
Q

Wat is backpropagation?

A

Een methode om veranderingen in gewicht te berekenen. Past de gewichten telkens zo aan dat de error rate een stapje naar beneden doet in het error surface landschap.
Vindt altijd een lokaal minimum na enige tijd.

35
Q

Hoe ziet de error surface van een MLP eruit?

A

Heeft veel pieken en dalen. De pieken staan voor hoge error-waardes en dus veel foute outputs, en de dalen staan voor lage error-waardes en dus veel juiste outputs.

36
Q

Wat houdt universal approximation als eigenschap van MLP in?

A

Given any functional mapping, there exists an MLP that can approximate the mapping to an arbitrary accuracy.

37
Q

Wat zijn de 3 stappen van voorwaartse propagatie in een niet-linear netwerk?

A

Neem de input vector x
Bereken de gewogen gesommeerde input
Bereken de activatie

38
Q

Hoe bereken je de gewogen gesommeerde input in voorwaartse propagatie?

A

net.j = de som van alle i, w.ji * x.ji

Dus de netto input van knoop j is gelijk aan de som van gewicht tussen de i-de voorganger van j en j keer de i-de input van knoop j.

39
Q

Hoe bereken je de activatie in voorwaartse propagatie?

A

sigma (netj) = 1 / (1 + e ^-netj )

Op [0,1] de activatie is gelijk aan 1 gedeeld door e tot de -netto input + 1.

40
Q

Geef de afgeleide sigma-functie:

A

sigma’(x) = sigma(x) [1-sigma(x)]

41
Q

Downstream(j)

A

De opvolgers van j.

42
Q

Terugpropagatie bij FFNN: hoe wordt de correctiefactor delta van j bepaald?

A
  • (de afgeleide van Ed(w.vector) / afgeleide van netto input j)