Trečia dalis Flashcards
(25 cards)
Skaitmeninės natūralios kalbos apdorojimas
Kompiuterių gebėjimas suprasti, interpretuoti ir generuoti žmogaus kalbą
Žodžių įterpiniai
Vektoriniai žodžių atvaizdai atspindintys jų prasminius ryšius su kitais žodžiais
Didieji kalbos modeliai (LLM)
Didelio masto neuroniniai tinklai, treniruoti su milžiniškais tekstų rinkiniais, geba generuoti, užbaigti ir versti tekstus
Enkoderis
Paverčia įvesties seką į tankias reprezentacijas naudodamas self-attention ir feed-forward sluoksnius
Dekoderis
Generuoja išvestį naudodamas ankstesnius žingsnius ir enkoderio sukurtas reprezentacijas
Seka-seka architektūra (sequence-to-sequence)
Modeliai, kurie viena seką paverčia kita (sakinį anglų k. į lietuvių k.)
Turinio generavimas
Modeliai geba generuoti tekstą, vaizdus ar kitą turinį pagal pateiktą užklausą ar duomenis
Auto-enkoderis
Modelis, išmokstantis sumažinti duomenų dimensijas ir atkurti juos į pradinę formą
Variancinis auto-enkoderis (variational autoencoder)
Tikimybinė autoenkoderio versija, mokanti modeliuoti duomenų pasiskirstymą
Generatyviniai priešiški tinklai (GAN)
Sudaryti iš generatoriaus ir diskriminatoriaus, kurie konkuruoja, kad būtų sukurtas kuo tikroviškesnis turinys.
Difuziniai (diffusion) modeliai
Mokomi atkurti duomenis , žingsnis po žingsnio šalindami triukšmą atvirkštiniu būdu
Skatinamasis mokymas
Mokymosi tipas, kai agentas mokosi veikti aplinkoje, kad gautų kuo didesnį atlygį
Agentas, aplinka, būsena, veiksmas, atlygis
Agentas veikia aplinkoje, kurioje yra tam tikroje būsenoje, atlieka veiksmus ir už juos gauna atlygį
Strategija (policy)
Apibrėžia, kaip agentas elgiasi esant tam tikrai būsenai - tai funkcija kuri parenka veiksmus
Marlovo prielaida
Teigia, kad būsena visiškai apibūdina visą reikiamą informaciją apie praeitį, t.y. ateities prognozė priklauso tik nuo dabartinės būsenos, o ne nuo visos istorijos
Vertės funkcija
Įvertina tikėtina bendrą atlygį, kurį agentas gali gauti nuo tam tikros būsenos ar veikimo
Strategijos įteracijų algoritmas
Iteratyviai tobulina strategiją, atsisžvelgdamas į esamą vertės funkciją, kol randama optimali strategija
Verčių (value) įteracijų algoritmas
Iteratyviai atnaujina vertės funkciją pagal Bellmano lygtį, kol pasiekiama kovergacija
DQN neuroninis tinklas
Naudoja neuroninį tinklą, kad prognozuotų veiksmų vertes (Q reikšmes). Tai leidžia taikyti skatinamąjį mokymą sudėtingose situacijose su didele būsena ir veiksmų erdve
Grafų neuroniniai tinklai (GNN)
Apdoroja duomenis, turinčius grafų struktūrą, mokosi iš viršūnių sąvybių ir jų ryšių struktūros
Viršūnės (nodes), briaunos (edges)
Grafai sudaryti iš viršūnių ir jas jungiančių briaunų (ryšių)
Viršūnių, briaunų ir viso grafo savybių prognozavimas
GNN tinklai gali prognozuoti savybes konkrečioms viršūnėms, ryšiams ar visam grafui
Gretimumo (adjacency) matrica
Aprašo, kurios grafų viršūnės yra tarpusavyje sujungtos
Lygiareikšmiškumas perstatymas (permutation equivariance)
GNN savybė užtikrinti, kad rezultatai išliktų tie patys, nepriklausomai nuo viršūnių išdėstymo tvarkos