12. Flashcards

(7 cards)

1
Q

Transformerių neuroniniai tinklai

A

Gilių neuroninių tinklų architektūra, pagrįsta dėmesio mechanizmais

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Dėmesio sutelkimo transformacija

A

Mechanizmas leidžia modeliams suteikti skirtingą svarbą skirtingiems įvesties sekos elementams, atsižvelgiant į jų tarpusavio ryšius

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Dėmesio sutelkimo sau transformacija

A

Leidžia kiekvienam įvesties sekos elementui įvertinti visus kitus elementus ir nuspręsti, kuri informaciją svarbiausia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Daugelio galvučių dėmesio sutelkimo transformacija

A

Tuo pačiu metu atliekamos kelios dėmesio operacijos su skirtingomis parametrų grupėmis

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Operacijų skaičius reikalingas dėmesio sutelkimo transformacija

A

Sudėtingumas didėja kvadratiškai pagal sekos ilgį (O(n^2))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Pozicijos kodavimas

A

Būdas pridėti informaciją apie žodžio eiliškuma, kadangi transformeriai savaime nesupranta sekos tvarkos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Transformerių neuroninių tinklų architektūros

A

Sudarytos iš enkoderių ir dekoderių, kuriuose naudojami dėmesio mechanizmai ir feed-forward tinklai

How well did you know this?
1
Not at all
2
3
4
5
Perfectly