MC_exam_kJan_24 Flashcards
NB! GPT GENERERTE SVAR! (11 cards)
Hva er hensikten med å bruke en forhåndstrent modell pretrained model i de tidlige stadiene av
dyplæringsprosjekter?
A. Å redusere mengden treningsdata som behøves
B. Å øke modellens kompleksitet
C. Å validere modellens ytelse på nye, uavhengige datasett
D. Å undervise studenter i grunnleggende programmering
A. Å redusere mengden treningsdata som behøves.
Hva er viktige egenskaper ved aktiveringsfunksjoner i nevrale nettverk?
1. De tillater nettverket å lære komplekse mønstre i data.
2. De introduserer ikke linearitet i modellen.
3. De sørgerfor at nettverket alltid konvergerer raskt under trening
- Tillater nettverket å lære komplekse mønstre
Uten ikke-lineære aktiveringsfunksjoner ville et dypt nettverk bare vært et sammenhengende lineært kart – uansett hvor mange lag, kunne det maksimalt representere én enkel lineær transformasjon. Ved å innføre ikke-linearitet i hvert lag kan nettverket lære og komponere svært komplekse funksjoner ut fra dataene. - De introduserer ikke linearitet i modellen
Eksakt formulert: aktiveringsfunksjonene fjerner lineæriteten (eller sagt annerledes, de legger ikke til lineæritet). Hensikten er å bryte opp de lineære transformasjonene (vektsum + bias) slik at man får et kraftigere, ikke-lineært uttrykkskraft.
Hvilken rolle spiller “kunstige nevroner” i utviklingen av dyplæringsmodeller?
A. De brukes kun for å representere og overføre inndata til det første laget i et nevralt nettverk, uten å delta i selve læringsprosessen.
B. De danner grunnlaget for nevrale nettverk ved å etterligne funksjonaliteten til biologiske nevroner (tenk: menneskers hjerneceller)
C. De brukes til å lagre data i et nevralt nettverk
D. De fungerer som en del av optimaliseringsalgoritmen for å redusere feil i modellen
B. De danner grunnlaget for nevrale nettverk ved å etterligne funksjonaliteten til biologiske nevroner (tenk: menneskers hjerneceller)
Kunstige nevroner er de grunnleggende byggeklossene i nevrale nettverk. De etterligner – i enklere form – funksjonen til biologiske nevroner ved å ta inn signaler (vektet sum av inputs pluss bias), kjøre dette gjennom en aktiveringsfunksjon, og sende resultatet videre til neste lag. Dette gjør at dype nettverk kan lære hierarkiske, komplekse representasjoner av data.
Hvorfor de andre alternativene er feil:
A: Kunstige nevroner deltar aktivt i læringsprosessen ved å justere sine vekter og bias under trening, ikke bare å videresende input.
C: De lagrer ikke “data” permanent; de holder bare vekter og bias som tilpasses for å representere mønstre i treningsdataene.
D: Optimaliseringsalgoritmen (f.eks. SGD eller Adam) oppdaterer vektene, men selve kunstige nevronene er ikke en del av optimeringsrutinens mekanikk – de er strukturen som optimeres.
Hva karakteriserer en dyplæringsmodell sammenlignet med tradisjonelle maskinlæringsmodeller? Velg alternativet som er mest presist.
A. Bruken av større mengde data for trening
B. Evnen til å utføre lineære beregninger mer effektivt
C. Bruken av kunstige nevrale nettverk med flere lag for å lære mønstre i data
D. Strengere krav til type og kvalitet på inndata
C. Bruken av kunstige nevrale nettverk med flere lag for å lære mønstre i data.
Dyplæringsmodeller skiller seg fra tradisjonelle maskinlæringsmodeller (som for eksempel beslutningstrær, SVM eller lineær regresjon) ved at de består av flere lag med kunstige nevroner. Hvert lag lærer et hierarki av representasjoner – fra enkle trekk i de første lagene til stadig mer komplekse mønstre i dypere lag – noe som gir svært stor uttrykkskraft i å modellere komplekse datafordelinger.
A (større datamengder) er ofte et praktisk behov for dyplæring, men er ikke hva som karakteriserer den underliggende metoden.
B (effektiv lineær beregning) rammer ikke kjernen – dyplæringsnettverk gjør tvert imot mange ikke-lineære transformasjoner.
D (strengere krav til inndata) kan være en utfordring, men er heller en konsekvens enn en definisjon av hva dyplæring er.
Hvilke to hovedutfordringer kan oppstå ved bruk av dyplæring i produksjon?
1. Overfitting på treningsdata
2. Manglende evnetil å håndtere store datamengder
3. Domene-skift, hvor produksjonsdata avviker fra treningsdata
4. Forhøypresisjon i prediksjonene
- Overfitting på treningsdata og 3. Domene-skift, hvor produksjonsdata avviker fra treningsdata.
Overfitting: Modellen tilpasser seg støy og spesifikke mønstre i treningssettet, slik at den presterer dårlig på nye data i produksjon.
Domene-skift: Når distribusjonen eller egenskapene til dataene modellen møter i produksjon avviker fra det den ble trent på, vil ytelsen ofte forringes betydelig.
De andre alternativene er mindre sentrale utfordringer:
- Manglende evne til å håndtere store datamengder: Tvert imot er dyplæring kjent for å utnytte store datasett effektivt.
- Forhøy presisjon i prediksjonene: Høy presisjon er normalt sett en fordel, ikke en utfordring.
Hva kjennetegner en effektiv implementering av en dyplæringsmodell i en webapplikasjon?
- Bruk av komplekse modeller for å oppnå høyest mulig nøyaktighet
- Implementering av modeller som er designet for å håndtere inndata med minimalt behov for kompleks
preprosessering. - Vektlegging av hurtighet og responsivitet i modellens utførelse for å sikre smidig brukeropplevelse i
webmiljøet. - Utelukkende fokus på brukergrensesnittets grafisk design
- Ingen overvåking av modellens ytelse etter utrulling
- Implementering av modeller som er designet for å håndtere inndata med minimalt behov for kompleks preprosessering.
Dette reduserer både utviklingstid og kjøretidskostnad, og forenkler pipeline-en i webapplikasjonen.
3.Vektlegging av hurtighet og responsivitet i modellens utførelse for å sikre smidig brukeropplevelse i webmiljøet.
Lav latenstid (millisekunder) og evne til horisontal skalering er avgjørende for at tjenesten oppleves rask og tilgjengelig.
Hvordan representeres et gråskalabilde på en datamaskin, og hva med et fargebilde?
A. Gråskalabilder representert som en 2D array av piksler; fargebilder representert som en 3Darray av piksler.
B. Både gråskalabilder og fargebilder representert som en enkelt rekke med pikselverdier.
C. Gråskalabilder representert som en enkelt rekke med pikselverdier; fargebilder representert som en 2D
array.
D. Både gråskalabilder og fargebilder representert som 3D
arrays av piksler.
Riktig svar er A.
Et gråskalabilde lagres typisk som en to-dimensjonal matrise (H × W), hvor hver celle inneholder én intensitetsverdi (f.eks. 0–255).
Et fargebilde lagres som en tredimensjonal matrise (H × W × C), der C er antall kanaler (ofte 3 for Rød–Grønn–Blå).
De andre alternativene stemmer ikke med den vanlige praktiske representasjonen:
B: En éndimensjonal vektor kan brukes internt i enkelte algoritmer, men er ikke den primære organiseringen.
C: Gråskalabilder er ikke flatet helt ut til én rekke i standard representasjon.
D: Gråskalabilder krever ikke en ekstra kanaldimensjon, så de er 2D, ikke 3D.
Hva er forskjellen mellom rang “rank” og form “shape” til en tensor, og hvordan bestemmer du rangen ut fra
formen?
A. Rang er antall elementer i en tensor, mens form er dimensjonene til tensoren; rangen er lik lengden av formen.
B. Rang er antall dimensjoner i tensoren, form er størrelsen på hver dimensjon; rangen er lik antall elementer i formen.
C. Rang og form refererer til det samme konseptet; begge beskriver antall dimensjoner
D. Rang er størrelsen på den største dimensjonen, mens form er en liste over størrelser av alle dimensjoner; rangen er det største tallet i formen.
Riktig svar er B.
Form (“shape”) til en tensor er en liste (eller et tuppel) av heltall som angir størrelsen langs hver akse, f.eks. (3, 224, 224) for en bildebatch med 3 kanaler og 224×224 piksler.
Rang (“rank”) er antall akser (dimensjoner) i tensoren. Det vil si lengden på shape-listen.
For en tensor med shape (d₁, d₂, …, dₙ) er rangen n, altså antall elementer i formen.
Hva beskriver best konseptet “gradient descent” i kontekts av trening av dyplæringsmodeller?
A. En metode for å øke hastigheten på modellens prediksjoner
B. En optimaliseringsalgoritme som brukes til å minimere en kostnadsfunksjon
C. En teknikk for å balansere vektene mellom ulike lag i et nevralt nettverk
D. En prosess for å velge de mest signifikante egenskapene features i inndataene
Riktig svar er B. En optimaliseringsalgoritme som brukes til å minimere en kostnadsfunksjon.
Forklaring:
Gradient descent beregner gradienten (den deriverte) av kostnadsfunksjonen med hensyn på modellens parametere (vekter og bias) og justerer parametrene i retning motsatt gradient for å redusere feilen steg for steg.
Dette gjentas iterativt til modellen konvergerer mot et (lokalt) minimum i feil-landskapet.
Hvorfor de andre alternativene er feil:
A. Handler om inferenshastighet, ikke om treningsoptimalisering.
C. Det er ikke en teknikk for «å balansere» vekter mellom lag, men en generell metode for å oppdatere alle parametere basert på gradient.
D. Feature-utvalg (feature selection) er en egen prosess før modelltrening, ikke selve optimaliseringsalgoritmen under trening.
Hva er “stride” i sammenheng med et konvolusjonelt nevralt nettverk CNN designet for bilder?
A. Antall piksler vi flytter filteret for hver gang det brukes
B. Antall ganger et filter blir anvendt på inndataene
C. Bredden av filterne benyttet i nettverket
D. Antallet filtere som brukes i et konvolusjonslag
Riktig svar er A. Antall piksler vi flytter filteret for hver gang det brukes.
I et konvolusjonslag bestemmer “stride” hvor langt (i piksler) kjernen (filteret) forskyves når den glir over inndatabildet. Med stride = 1 flyttes filteret én piksel av gangen, med stride = 2 hopper det to piksler, og så videre. Dette påvirker både størrelsen på utdatakartet (feature map) og mengden overlapping mellom påfølgende konvolusjoner.
Hva er “tokenization” og hvorfor trenger vi det?
A. Konverteringen av tekst til fonetiske enheter
B. Delingen av tekst i setninger og avsnitt for strukturell analyse
C. Brytingen av tekst ned i mindre enheter som ord eller subord for videre prosessering
D. Kryptering av tekst for å beskytte data
C. Brytingen av tekst ned i mindre enheter som ord eller subord for videre prosessering.
Hvorfor vi trenger tokenization:
Maskinlesbarhet: De fleste NLP-modeller opererer på diskrete enheter (tokens), ikke rå tekststrenger. Ved å tokenisere får vi en liste med tokens som kan mapperes til tall (via ordlister eller subord-bytelister).
Håndtering av språkets struktur: Tokenization fanger opp grensene mellom ord, subord og tegnsetting, noe som er essensielt for at modeller skal lære korrekte mønstre.
Effektivitet og konsistens: Ved å konsolidere hyppige mønstre (som vanlige prefikser/suffikser) i subord-vokabularer (f.eks. BPE eller WordPiece) reduseres vokabularets størrelse, samtidig som modellen kan generalisere til nye ord ved å sette sammen kjente subord.
Forbehandling: Tokenization er det første steget i NLP-pipelinen før lemmatisering, stemming, fjerning av stoppord eller vektorisering. Uten tokenization vil ikke videre tekstbehandling eller embedding-teknikker fungere korrekt.