Pirma dalis Flashcards

(45 cards)

1
Q

Mašininis mokymas

A

Algoritmų ir modelių kūrimas, leidžiantis DI sistemoms išmokti atlikti užduotis efektyviau

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Prižiūrimas mokymas

A

Modelis mokomas naudojant pažymėtus duomenis, kur kiekvienai įvesčiai yra žinoma teisinga išvestis

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Pusiau prižiūrimas mokymas

A

Naudojamas nedidelis kiekis pažymėtu duomenų kartu su dideliu kiekiu nepažymėtu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Neprižiūrimas mokymas

A

Naudojamas nepažymėtas duomenų rinkinys ir modelis pats išmoksta jų struktūra bei ryšius tarp jų

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Skatinamasis mokymas

A

Modelis gauna arba atlygį arba bauda už savo veiksmus

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Duomenų skaidymas

A

Skirsto į 3 grupes - mokymosi, validavimo, testavimo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Klasifikavimas

A

Mašininio mokymo uždavinys, tikslas - priskirti įvesti vienai iš galimų klasių

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Dviejų klasių klasifikavimas

A

Objektų priskyrimas vienai iš dviejų galimų klasių

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Daugelio klasių klasifikavimas

A

Leidžia priskirti objektą vienai iš daugiau nei dviejų galimų klasių

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Klasifikavimo metrikos

A

Naudojamos įverinti klasifikavimo modelio prognozių tikslumą

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Tikslumas (accuracy)

A

Parodo kokia dalis modelio prognozių buvo teisingos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Preciziškumas (precision)

A

Parodo, kokia dalis modelio prognozuotų teigiamų atveju yra tikrai teisingi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Atkūrimo statistika (recall)

A

Parodo, kokią dalį visų tikrųjų teigiamų atveju modelis sugebėjo atpažinti

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

F1 Statistika

A

Harmoninis tikslumo ir atkūrimo vidurkis

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Klasifikavimo lentelė (confusion matrix)

A

Matrica, kurioje pavaizduota, kiek prognoziu buvo teisingos ir klaidingos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Naivusis Bajeso klasifikatorius

A

Remiasi tikimybių teorija ir daro prielaida, kad požymiai tarpusavyje nepriklausomi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Sprendimų medis

A

Modelis, kuris priima sprendimus sekdamas šakomis pagal duomenų savybes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Sprendimų medžio veikimas

A

Mokymo metu išrenkamas duomenų kintamasis, pagal kurį duomenys padalijami į dvi grupes, tai atliekama kol pasiekiamas stabdymo kriterijus

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Sprendimų medžio stabdymo kriterijai

A

Pogrupyje lieka per mažai duomenų, skirtymo kokybė nebepagerėja, medis pasiekia nustatyta maksimalų gylį

20
Q

Atsitiktinis miškas

A

Naudoja daugybę sprendimų medžių, kiekviena su atsitiktinai parinktai duomenimis, galutinis rezultatas nustatomas pagal medžių balsavimą

21
Q

K artimiausių kaimynų algoritmas

A

Priskiria objektą tai klasei, kuriai priklauso dauguma artimiausių (k) kaimynų

22
Q

Atraminių vektorių metodas (SVM)

A

Ieško geriausios ribos, skiriančios skirtingas klases erdvėje

23
Q

Kaip parenkama SVM riba

A

Kad atstumas iki artimiausių duomenų taškų abiejose pusėse būtų kuo didesnis, artimiausi taškai vadinami atraminiais vektoriais

24
Q

Klasterizavimas

A

Neprižiūrimas mokymo metodas, skirtas grupiuoti panašius duomenų taškus į klasterius pagal savybes

25
K-vidurkių klasterizavimas
Paskirsto duomenis į k skaičių grupių, minimizuodamas atstumą tarp duomenų taškų ir jų klasterio centro
26
Aglomeracinis hierarchinis klasterizavimas
Pradeda nuo kiekvieno taško jų klasteryje ir sujungia du artimiausius, iki kol visi taškai yra viename klasteryje
27
Susiejimas
Apibrėžia, kaip skaičiuoti atstumą tarp klasterių aglomeracinio klasterizavimo metu
28
Susiejimo (linkage) tipai
Pilnas susiejimas - max atstumas Viengubas susiejimas - min atstumas Vidutinis susiejimas - vidurtinis atstumas Centroidų susiejimas Ward
29
Centroidų susiejimas
Atstumas tarp A ir B klasterių centroidų (vidutinių taškų)
30
Ward susiejimas
Jungia klasterius taip, kad mažėtų vidinė variacija (skirtumai klasterio viduje)
31
Dimensijų mažinimas
Metodas, leidžiantis sumažinti duomenų savybių skaičių, išlaikant svarbiausią informacija
32
Pagrindinių komponentų analizė (PCA)
Transformuoja duomenis į naują ašių rinkinį, pagrįsta duomenų dispersija ir išlaiko tik reikšmingiausius komponentus
33
Tiesinė regresija
Metodas, modeliuojantis priklausomybę tarp kintamųjų naudojant tiesinę funkciją
34
Mažiausių kvadratų metodas
Naudojamas, kad būtų rasta skirtumų tarp tikrųjų ir prognozuotų reikšmių suma, padeda rasti tokį modelį, kuris kuo tiksliau apibūdina bendra tendenciją
35
Dirbtiniai neuronų tinklai (DNN)
Biologinių neuronų veikimu įkvėpti modeliai, sudaryti iš tarpusavyje sujungtų dirbtinių neuronų sluoksnių
36
Svoriai
Nustato, kiek įtakos turi įvesties signalas kiekvienam neuronui
37
Postūmiai (bias)
Leidžia neuronui išmokti poslinkį nuo nulio, pridedant konstantą prie svorinių įvesčių sumų
38
Aktyvacijos funkcijos
Nusprendžia ar neuronas turėtų būti aktyvuotas ir įveda nelineariškumą į tinklą
39
Kam reikalingas nelinerališkumas
Be jo tinklas negalėtų modeliuoti sudėtingų priklausomybių
40
Perceptronas
Paprasčiausias neuroninis modelis, kuris apskaičiuoja svorinių įvesčių sumą, prideda postūmį ir taiko aktyvacijos funkciją
41
Tiesioginio sklydimo (feedforward) neuroniniai tinklai
Perduoda duomenis iš įvesties į išvestį vieną kryptimi, be grįžtamojo ryšio
42
Daugiasluoksnis perceptronas (MLP)
Perceptronų neuroninis tinklas su vienu ar keliais paslėptais sluoksčiai, gebantis modeliuoti sudėtingas nelineariškas priklausomybės tarp įvesties ir išvesties
43
Logistinė regresija
Klasifikavimo metodas, kuris naudoja sigmoidinę funkciją prognozuoti tikimybę, kad duomenys priklauso vienai ar kitai klasei
44
Neuroninių tinklų mokymas (training)
Procesas, kurio metu atnaujinami svoriai, remiantis klaida tarp prognozuotos ir tikros reikšmės
45
Atgalinio sklidimo algoritmas (backpropagation)
Apskaičiuoja klaidos gradientus kiekviename tinklo sluoksnyje ir perduoda juos atgal, kad būtų galima optimizuoti svorius