5. Grunderna i Maskininlärning - AI II Flashcards
(91 cards)
Vad är den grundläggande frågan inom maskininlärning?
Förståelsen av balansen mellan generalisering och optimering.
Vilka utvärderingsmetoder används för maskininlärningsmodeller?
Olika metoder för att mäta modellens prestanda och generalisering.
Vad är bästa praxis för att förbättra modellanpassning?
Tekniker och strategier för att göra modellen mer effektiv vid inlärning.
Vad är bästa praxis för att uppnå bättre generalisering?
Metoder för att säkerställa att modellen fungerar bra på ny, osedd data.
Vad är skillnaden mellan prediktion och hypotestestning?
Prediktion innebär att använda en modell för att förutsäga framtida data.
Hypotestestning handlar om att analysera om en modell fungerar som förväntat och om dess resultat är statistiskt signifikanta.
Vad är optimering i maskininlärning?
Optimering innebär att justera en modell så att den presterar bra på träningsdatan.
Vad är generalisering i maskininlärning?
Generalisering handlar om hur bra en modell fungerar på ny, osedd data.
Varför kan man inte direkt kontrollera generalisering?
För att en modell lär sig från träningsdata. Om den anpassas för mycket till träningsdatan uppstår överanpassning (overfitting), vilket försämrar generaliseringen.
Vad är overfitting (överanpassning)?
När en modell lär sig för mycket detaljer från träningsdatan och inte fungerar bra på ny data.
Hur kan vi förbättra en modells generaliseringsförmåga?
Använd mer träningsdata
Reguljärisering (L1/L2)
Tidigare stoppning (early stopping)
Dataaugmentation
Dropout (för neurala nätverk)
Vad är ett träningsdataset?
Träningsdatan är den data modellen lär sig ifrån. Modellen använder detta dataset för att justera sina parametrar, alltså sina interna regler, så att den blir bättre på att känna igen mönster.
Exempel: Om vi tränar en modell att känna igen katter och hundar används tusentals bilder av katter och hundar tillsammans med rätt etikett (“katt” eller “hund”). Modellen lär sig att koppla vissa mönster i bilderna till rätt etikett.
Vad är ett valideringsdataset?
Valideringsdatan används för att finjustera modellen under träningen. Modellen tränas på träningsdatan, men testas samtidigt på valideringsdatan för att se om den fungerar bra.
Varför behövs detta?
Om modellen presterar dåligt på valideringsdatan kan vi justera hyperparametrar som t.ex. hur snabbt den lär sig eller hur komplex den ska vara.
Det hjälper oss att upptäcka överanpassning (när modellen bara memorerar träningsdata istället för att förstå den).
Exempel: Om vi tränar en bildigenkänningsmodell testar vi den efter varje träningssteg på nya bilder (som inte fanns i träningsdatan) för att se om den fortfarande presterar bra.
Vad är ett testdataset?
Testdatan används efter att träningen är klar för att mäta hur bra modellen presterar på helt ny data som den aldrig har sett tidigare.
Varför behövs detta?
Det ger en riktig bild av hur modellen kommer att fungera i verkligheten.
Om modellen fungerar bra på träningsdatan men dåligt på testdatan betyder det att den inte generaliserar bra.
Exempel: Om vi har tränat en modell på katt- och hundbilder, ger vi den helt nya bilder som den aldrig sett förut och ser hur bra den kan avgöra om det är en katt eller en hund.
Vad är hyperparametrar i maskininlärning?
Hyperparametrar är inställningar vi väljer innan vi tränar modellen och som påverkar hur den lär sig. De justeras inte automatiskt av modellen, utan vi måste välja dem manuellt.
Exempel på hyperparametrar:
Inlärningstakt (learning rate): Hur snabbt modellen förändrar sina regler när den lär sig.
Antal lager i ett neuralt nätverk: Fler lager gör modellen mer kraftfull men kan också leda till överanpassning.
Batch-storlek: Hur många datapunkter som används i varje träningssteg.
Jämförelse: Tänk på hyperparametrar som receptet för att baka ett bröd – vi måste bestämma ingredienserna och mängderna innan vi börjar baka.
Vad är en loss function i maskininlärning?
En loss function mäter hur fel en modell är genom att jämföra dess förutsägelser med de faktiska värdena. Modellen försöker minimera detta fel under träningen.
Exempel:
Mean Squared Error (MSE) – används ofta vid regression för att mäta hur långt förutsägelserna är från de faktiska värdena.
Cross-entropy loss – används vid klassificeringsproblem för att mäta hur bra modellen gissar rätt kategori.
Vad visar en loss-kurva i maskininlärning?
En loss-kurva visar hur modellens fel minskar under träningen.
Vad vi vill se:
Träningsförlusten (blå linje) och valideringsförlusten (orange linje) ska båda minska över tid.
Om valideringsförlusten slutar minska eller börjar öka, kan det betyda överanpassning (overfitting).
Vad är en accuracy-kurva i maskininlärning?
En accuracy-kurva visar hur modellens noggrannhet förbättras under träningen.
Hur tolkar vi den?
Båda linjerna (träning och validering) ska öka och stabiliseras.
Om träningsnoggrannheten är mycket hög men valideringsnoggrannheten är låg → modellen kan ha överanpassat sig.
Vad betyder det att en modell “tränas”?
När en modell tränas betyder det att den justerar sina parametrar för att bli bättre på att göra förutsägelser.
Hur går det till?
Modellen gör en förutsägelse.
Loss function beräknar felet.
Modellen justerar sina parametrar (t.ex. vikter) med en algoritm som gradient descent.
Processen upprepas i flera epochs tills modellen blir bra på att förutsäga rätt.
Vad är generaliserbarhet i maskininlärning?
Generaliserbarhet är modellens förmåga att prestera bra på ny, osedd data – alltså inte bara på den data den tränades på.
Exempel:
Om vi tränar en modell att känna igen hundar, och den sedan kan känna igen hundar i nya bilder den aldrig sett förut, då har den bra generalisering.
När uppnår en modell god generalisering?
När den effektivt lär sig de verkliga mönstren i datan istället för att bara memorera träningsdatan.
Dålig generalisering: Modellen har bara lärt sig specifika detaljer från träningsdatan och fungerar dåligt på ny data.
Bra generalisering: Modellen har förstått de generella reglerna som gäller för problemet.
Hur uppnår man bra generalisering?
Genom att hitta en balans mellan modellens komplexitet och hur mycket data den har tränats på.
Sätt att förbättra generalisering:
Undvik överanpassning (overfitting) – gör modellen varken för simpel eller för avancerad.
Använd tillräckligt med träningsdata – mer data hjälper modellen att förstå verkliga mönster.
Reguljärisering – tekniker som gör modellen mer robust, t.ex. L1/L2-regularisering eller dropout.
Vad är optimering i maskininlärning?
Optimering är processen där modellen justerar sina parametrar för att minska fel och göra bättre förutsägelser. Den försöker minimera förlustfunktionen så att den blir mer noggrann.
Exempel:
Om en modell försöker förutsäga huspriser men gör stora fel, kommer optimeringen att justera modellen så att den blir bättre på att förutsäga priser.
När sker optimering?
Optimering sker under träningen av modellen. Varje gång modellen tränas och ser ny data uppdateras dess parametrar för att förbättra noggrannheten.
Exempel:
En modell tränas på tusentals bilder av hundar och katter. Efter varje omgång justeras dess parametrar för att bli bättre på att känna igen djuren.
Hur fungerar optimering i maskininlärning?
Modellen uppdaterar sina parametrar stegvis genom att använda en optimeringsalgoritm. Det sker iterativt tills modellen når en bra balans mellan fel och prestanda.
Vanliga optimeringsmetoder:
Gradient Descent – en algoritm som stegvis minskar felet.
Adam Optimizer – en mer avancerad variant av Gradient Descent som justerar inlärningstakten automatiskt.