Teorija Flashcards
(45 cards)
Slabosti preiskovanja v globino v primerjavi s preiskovanjem v širino
Lahko zaide v neskončne veje in ne najde rešitve. Ni optimalno, saj ne zagotavlja najkrajše poti do rešitve.
Prednost preiskovanja v globino v primerjavi s širinskim preiskovanjem
Manjša prostorska zahtevnost, saj hrani le pot do trenutnega vozlišča.
Podobnosti med algoritmom širinskega preiskovanja in iterativnim poglabljanjem
Oba algoritma sta popolna in zagotavljata, da bosta našla rešitev, če ta obstaja.
Razlike med algoritmom širinskega preiskovanja in iterativnim poglabljanjem
Širinsko preiskovanje uporablja vrsto in hkrati razišče vsa vozlišča na isti globini. Iterativno poglabljanje kombinira širinsko in globinsko preiskovanje, ponavlja globinsko preiskovanje z vedno večjo dovoljeno globino.
Definicija optimistične hevristične funkcije h v algoritmu A*
Hevristična funkcija h je optimistična, če nikoli ne preceni dejanskih stroškov poti do cilja (h(n) ≤ h*(n)).
Zakaj smo zainteresirani za optimistične hevristične funkcije h v algoritmu A*
Optimistične funkcije zagotavljajo, da je A* popoln in optimalen, saj vedno najde najkrajšo pot.
Kaj pomeni pretirano prilagajanje (angl. overfitting) v strojnem učenju
Pretirano prilagajanje pomeni, da model preveč natančno sledi učnim podatkom, vključno s šumom in nepomembnimi vzorci.
Kaj so nezaželene posledice pretiranega prilagajanja
Model ima slabo generalizacijo na novih podatkih, kar vodi do slabše napovedne točnosti.
Kako se manifestirajo težave pri učenju odločitvenih dreves iz šumnih podatkov
Odločitvena drevesa se lahko naučijo šumnih vzorcev, kar vodi do pretiranega prilagajanja in slabe napovedne točnosti.
Kaj je osnovna ideja pri učenju dreves iz šumnih podatkov
Uporaba metod za obrezovanje dreves in tehnike, kot so omejitev globine drevesa, da se zmanjšajo vplivi šuma.
Na kaj se nanaša beseda »kratkovidnost« (angl. myopy) v gradnji odločitvenih dreves
Kratkovidnost pomeni, da odločitvena drevesa sprejemajo odločitve na podlagi lokalno optimalnih kriterijev, ki niso nujno globalno optimalni.
Za kaj se uporabljata metoda »prečno preverjanje« (angl. cross validation) in metoda »leave-one-out« v strojnem učenju
Prečno preverjanje in leave-one-out metoda se uporabljata za ocenjevanje napovedne točnosti modelov.
Postopek prečnega preverjanja (k-fold cross validation)
Podatki se razdelijo na k podmnožic, model se trenira k-krat, vsakič z drugo podmnožico kot testno.
Postopek leave-one-out
Posebna oblika prečnega preverjanja, kjer je k enako številu podatkovnih točk, kar pomeni, da se vsakič uporabi ena podatkovna točka kot testna.
Kaj pomeni parameter k v metodi prečnega preverjanja
Parameter k določa število podmnožic, v katere se razdelijo podatki za prečno preverjanje.
Bayesova formula za izračun pogojne verjetnosti P(A|B)
P(A|B) = \frac{P(B|A)P(A)}{P(B)}
Bayesova formula za izračun P(A|BC)
P(A|BC) = \frac{P(C|A)P(B|A)P(A)}{P(B)P(C)}
Naivna Bayesova formula za izračun P(A|BC)
P(A|BC) \approx P(A) \cdot P(B|A) \cdot P(C|A)
V čem je naivna Bayesova formula naivna
Predpostavlja neodvisnost med atributi, kar pogosto ni resnično.
Prednost naivne Bayesove formule
Preprosta in učinkovita za računanje ter pogosto daje dobre rezultate kljub poenostavitvi.
Kaj pomeni “optimistična hevristična funkcija”
Hevristična funkcija je optimistična, če je njena ocena stroškov do cilja manjša ali enaka dejanskim stroškom.
Zakaj smo pogosto zainteresirani za optimistične hevristične funkcije
Takšne funkcije zagotavljajo optimalnost in učinkovitost algoritmov, kot je A*.
Katera hevristična funkcija deluje bolje v A* algoritmu, če je h1(N) < h2(N)
A* bo deloval bolje s hevristiko h2, ker boljša ocena (bližje dejanskim stroškom) vodi do manj preiskovanih vozlišč in hitrejšega dosega cilja.
Kolikokrat več časa bo program potreboval za iskanje druge rešitve, če ima uniformno vejanje b = 5, prvo rešitev na globini 9 in drugo na globini 12
Razmerje T2:T1 je približno enako b^{12-9} = 5^3 = 125. Torej bo program potreboval približno 125-krat več časa.