Prov 4 AI Flashcards
(24 cards)
Vad är syftet med data augmentation i CNN?
Syftet är att konstgjort öka storleken på träningsdatasetet genom att skapa nya variationer av befintliga bilder, till exempel genom att rotera, spegla eller zooma dem. Detta minskar risken för överanpassning (overfitting), eftersom modellen lär sig mer generella mönster istället för att “lära sig utantill”.
Exempel: En bild på en katt kan roteras eller speglas för att ge modellen mer variation att träna på, trots att det är samma katt.
Vad betyder ensemble i Random Forest?
Det innebär att man använder flera modeller (beslutsträd) tillsammans för att göra en gemensam förutsägelse. Genom att kombinera flera svaga modeller får man ofta en starkare och mer träffsäker modell.
Exempel: Om varje träd gissar på om ett e-postmeddelande är spam eller inte, röstar alla träd och det mest populära svaret väljs.
Vad är bagging?
Bagging står för “Bootstrap Aggregating”. Det betyder att man tränar varje beslutsträd på en slumpmässigt vald delmängd av datan, ofta med återläggning. Det gör modellen mer robust och minskar risken för överanpassning.
Exempel: Om man har 1000 rader i datan, kan varje träd tränas på 700 slumpmässiga rader.
Hur fattar en Random Forest beslut?
Varje träd i skogen röstar om resultatet, och det alternativ som får flest röster blir modellens slutgiltiga beslut. Detta kallas majoritetsröstning.
Exempel: Om 7 av 10 träd säger att ett mejl är spam – då klassificeras det som spam
Vad menas med uppdelning vid attribut/features?
Vad är en nod i ett beslutsträd?
- Det betyder att modellen väljer vilka egenskaper i datan (features) som bäst skiljer mellan olika utfall. Den delar upp datan i grenar vid varje nod beroende på värdet på ett attribut.
Exempel: Ett beslutsträd som avgör om ett djur kan flyga kanske först frågar: “Har det vingar?” Om ja → gå vidare åt ett håll, om nej → ett annat håll. - En nod är en punkt i trädet där ett beslut fattas, t.ex. “Är temperaturen > 20°C?”. Trädet fortsätter sedan olika beroende på svaret.
Vad står NLP för?
Natural Language Processing – ett område inom AI som gör att datorer kan förstå, tolka och generera mänskligt språk.
Ge tre tillämpningar av NLP.
Översättning (t.ex. Google Translate), chattbotar (t.ex. kundtjänst), och röststyrning (t.ex. Siri eller Alexa).
Vad är tokenization?
Tokenisering innebär att dela upp en text i mindre delar, ofta ord eller orddelar. Dessa “tokens” används sedan i språkmodellen.
Exempel: “Jag gillar glass” → [“Jag”, “gillar”, “glass”]
Vad är ett bi-gram?
Ett bi-gram är en sekvens av två ord som ofta förekommer tillsammans.
Exempel: “jag gillar”, “gillar glass”
Vad används n-gram till i NLP?
För att förutsäga sannolikheten för nästa ord i en mening genom att analysera föregående 1, 2 eller flera ord.
Vad är en språkmodell?
En modell som lär sig språkets struktur och sannolikheten för olika ordkombinationer, och kan generera eller analysera text.
Vad är en RNN?
En Recurrent Neural Network är ett neuralt nätverk anpassat för sekvenser. Den har “minne” av tidigare data i sekvensen vilket är viktigt för t.ex. text eller musik.
Exempel: I meningen “Jag gillar att”, behöver modellen veta de tidigare orden för att gissa att nästa ord kanske är “läsa”.
Vad är en LSTM?
Long Short-Term Memory är en typ av RNN som kan komma ihåg viktig information under längre tid. Den använder “grindar” för att styra vad som sparas och glöms.
Exempel: I en lång mening kan LSTM komma ihåg subjektet och matcha det med rätt verb längre fram.
Varför används RNN ofta i språkmodeller?
Eftersom språk är sekventiellt – ordens betydelse beror på ordningen – är RNN bra på att bevara och använda den informationen när texten behandlas.
Vad står LLM för och vad gör en sådan modell?
Large Language Model. Det är en AI-modell tränad på enorma mängder text för att förstå och generera språk.
Exempel: GPT är en LLM som kan skriva uppsatser, koda, svara på frågor m.m.
Vad är GPT?
Generative Pre-trained Transformer. En avancerad språkmodell som först tränas på en stor mängd text (pre-trained) och sedan används för att generera ny text.
Vad menas med ”generativ” i GPT?
Att modellen inte bara analyserar text utan också kan skapa helt ny text som är grammatiskt och innehållsmässigt relevant.
Exempel: Skriv en dikt eller generera ett mejlsvar.
Vad är transformer-arkitektur?
En modellstruktur som hanterar hela sekvensen samtidigt (inte steg för steg som RNN), och använder något som kallas “self-attention” för att avgöra vilka ord som är viktiga.
Vad är etik inom AI?
Etik handlar om att se till att AI används på ett rättvist, säkert och ansvarsfullt sätt. Det innefattar frågor som: Ska AI få fatta beslut om människor? Hur undviker vi diskriminering?
Vilka är Asimovs tre robotlagar?
1) En robot får inte skada en människa.
2) Den måste lyda människor, så länge det inte skadar någon.
3) Den ska skydda sig själv, så länge det inte bryter mot de två första lagarna.
Vad betyder FAT enligt Shin?
Att AI-system ska vara Fair (rättvisa), Accountable (någon ansvarar), och Transparent (beslut går att förstå).
Exempel: Ett AI-system som nekar lån ska kunna förklara varför.
Vad vill EU:s AI Act göra?
Reglera AI beroende på hur stor risk den innebär. Vissa AI-system förbjuds helt, medan andra måste uppfylla särskilda krav. Målet är att skydda människors säkerhet och rättigheter.
Vad är ett exempel på General Purpose AI?
GPT eller liknande modeller som kan användas till många uppgifter: skriva text, sammanfatta, översätta, etc.
Vad säger Tegmark om AI:s mål?
Att vi måste vara noggranna med vilka mål vi ger AI – det måste stämma med mänskliga värderingar, annars kan AI bli farlig även om den gör exakt vad vi säger.