Antra dalis Flashcards

(39 cards)

1
Q

Nuostolių funkcijos (loss)

A

Matuoja skirtumą tarp modelio prognozių ir tikrųjų reikšmių.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Kam reikalingos nuostolių funkcijos?

A

Padeda modeliui suprasti kiek jo prognozės skiriasi nuo tikrovės, algoritmas tuomet atnaujina modelio svorius, kad sumažintų klaidą

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vidutinės kvadratinės paklaidos (MSE) nuostoliu funkcija

A

Skaičiuoja kvadratinių skirtumų tarp prognozuotų ir tikrųjų reikšmių vidurkį

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Kryžminės entropijos (cross-entropy) nuostoliu funkcija

A

Matuoja skirtumą tarp tikrosios klasės ir modelios prognozuotų tikimybių

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Optimizatoriai

A

Algoritmai, kurie nustato, kaip atnaujinti neuroninio tinklo svorius mokymo metu, siekiant sumažinti nuostolių funkciją

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Stochastinis gradientų nusileidimas (SGD optimizatorius)

A

Optimizavimo metodas, kuris atnaujina svorius po kiekvieno duomenų pavyzdžio

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Adam optimizatorius

A

Sujungia inercijos (momentum) metodą ir adaptuojamus mokymosi tempus, dėl to efektyviai konverguoja daugelyje situacijų

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Reguliarizacija

A

Metodų rinkinys, padedantis sumažinti testavimo paklaidą ir išvengti permokymo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Ankstyvasis sustabdymas

A

Mokymas stabdomas, kai modelio tikslumas testavimo metu nebegerėja, siekiant išvengti permokymo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Rinkinio (batch) normalizacija

A

Normalizuoja sluoksnio įėjimus, mažina vidaus kintamumą ir paspartina mokymą

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Atsitiktinio praretinimo tranformacija (Dropout)

A

Mokymo metu atsitiktinai išjungia dalį neuronų, priversdama tinklą būti atsparesnį ir išmokti geresnių apibendrinimų

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Duomenų augmentacija (augmentation)

A

Duomenų išplėtimo metodas, kuriuo sukuriami nauji pavyzdžiai keičiant esamus

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

L2 reguliarizacija

A

Prideda baudos terminą už didelius svorius, todėl modelis yra skatinamas rinktis mažesnius svorius ir mokytis iš paprastesnių sprendimų

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Kompiuterinė rega

A

Leidžia kompiuteriams analizuoti ir interpretuoti vizualinę informaciją iš vaizdų ar vaizdo įrašų

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Objektų aptikimas

A

Ne tik atpažįsta objektų klases paveikslelyje, bet ir nusako jų tikslias vietas (ribines dežutes)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vaizdų klasifikavimas

A

Priskiria visam paveikslėliui vieną klasę

17
Q

Semantinis segmentavimas

A

Priskiria kiekvienam vaizdo pikseliui klasę, leidžiant tiksliai pažymėti objektų ribas paveikslėlyje

18
Q

Kovoliucija

A

Pagrindine operacija konvoliuciniuose neuroniniuose tinkluose, leidžianti aptikti vietinius duomenų bruožus, tokius kaip kražtai ar tekstūros

19
Q

Kokiu būdu veikia konvoliucija

A

Ji atliekama taikant “slankiojanti langą” (filtrą), kuris juda per įvesties duomenis, išgaudamas vietines savybes

20
Q

Konvoliuciniai neuroniniai tinklai (CNN)

A

Specializuoti neuroniniai tinklai, skirti vaizdinių duomenų apdorojimui.

21
Q

Kaip veikia CNN

A

Jie automatiškai išmoksta išgauti reikšmingas savybes iš paveikslelių, naudodami mažų dydžių filtrus (branduolius), kurie leidžia sumažinti parametrų skaičių ir skaičiavimo sudėtingumą

22
Q

Sutelkimas (pooling)

A

Sumažina erdvinį duomenų dydį, išlaikydamas svarbiausią informaciją.

23
Q

AlexNet

A

Pirmasis gilus CNN tinklas, pirmasis plačiai panaudojo ReLU aktyvacijas ir sudėtines konvoliuvines struktūras

24
Q

VGG, ResNet

A

VGG turėjo 16-19 sluoksnių tinklą, ResNet įvedė likutinius ryšius (skip connections), leidžiančius treniruoti labai gilius tinklus

25
Rekurentiniai neuroniniai tinklai (RNN)
Skirti sekoms apdoroti, jie išlaiko informaciją apie ankstesnes įvestis per vidinę būseną.
26
Rekurentinis neuronas
Gauna įvesti ne tik iš ankstesnio sluoksnio, bet ir iš savo ankstesnės būsenos
27
RNN būsena
Saugo informaciją apie ankstesnes įvestis, tarsi tinklo "atmintis", ji perduodama tarp laiko žingsnių
28
RNN būsenos atnaujinimas
Kiekviename laiko žingsnyje būsena atnaujinama naudojant dabartinę įvestį ir ankstesnę būsena, leidžiant modeliui sekti kontekstą laiko tėkmėje
29
Atgalinis sklidimas RNN tinkluose
Skirtas RNN mokymui, kai klaidos gradientai skaičiuojami per kelis laiko žingsnius
30
Sprogstantys gradientai
Situacija, kai gradientai tampa labai dideli, dėl ko svoriai atnaujinami pernelyg stipriai, tinklas tampa nebestabilus
31
Ilgos trumpalaikės atminties modelis (LSTM)
RNN variantas, kuris efektyviau valdo ilgalaikę informaciją, naudodamas vidinę atmintį ir specialias sklendęs, taip išsprendžiant nykstančių gradientų problemą
32
LSTM sklendės (gates)
Yra trys pagrindinės sklendes - įvesties, pamiršimo ir išvesties, kurios reguliuoja kiek informacijos įsiminti, pamiršti ar perduoti, suteikiant lankstų informacijos valdymą
33
Transformerių neuroniniai tinklai
Gilių neuroninių tinklų architektūra, pagrįsta dėmesio (attention) mechanizmais
34
Dėmesio sutelkimo transformacija (attention)
Leidžia modeliam suteikti skirtingą svarbą įvesties sekos elementams, atsižvelgiant į jų tarpusavio ryšius
35
Dėmesio sutelkimo sau transformacija (self-attention)
Leidžia kiekvienam įvesties sekos elementui įvertinti visus kitus elementus ir nuspręsti, kuri informacija yra svarbiausia
36
Daugelio galvučių dėmesio sutelkimo transformacija (multihead-attention)
Tuo pačiu metu atliekamos kelios dėmesio operacijos su skirtingomis parametrų grupėmis
37
Operacijų skaičius reikalingas dėmesio sutelkimo transformacijai
Transformacijos skaičiavimų sudėtingumas didėja kvadratiškai pagal sekos ilgį (O(n²))
38
Pozicijos kodavimas
Būdas pridėti informaciją apie žodžiu eiliškumą, nes transformeriai savaime nesupranta sekos tvarkos
39
Transformerių neuroninių tinklų architektūros
Sudarytos iš enkoderiu ir dekoderių, kuriuose naudojami dėmesio mechanizmai ir feed-forward tinklai