2. Introduktion II - AI II Flashcards
(42 cards)
Vad innebär Deep Learning (DL)?
Deep Learning (DL) är en delmängd av Machine Learning (ML).
Den använder flerskiktade neurala nätverk för att lära sig från data.
DL har revolutionerat områden som bildigenkänning, naturlig språkförståelse och robotik.
Hur är Deep Learning relaterat till Machine Learning och AI?
AI är ett övergripande fält för att skapa intelligenta system.
Machine Learning (ML) är en underkategori inom AI som använder data för att lära sig mönster.
Deep Learning (DL) är en avancerad form av ML som använder neuronala nätverk för att automatiskt extrahera funktioner från data.
Hur förhåller sig Generativ AI till Deep Learning?
Generativ AI är en delmängd av Deep Learning.
Använder modeller som GANs (Generative Adversarial Networks) och Transformers för att generera ny data (exempelvis text, bilder, ljud).
Exempel på generativ AI: ChatGPT, DALL·E, Midjourney.
Vad är LLMs och hur förhåller de sig till Generativ AI?
Large Language Models (LLMs) är en typ av generativ AI som använder djupa neurala nätverk för att förstå och generera mänskligt språk.
Exempel: GPT-4, BERT, LLaMA, Gemini.
De tränas på enorma mängder textdata och används i applikationer som chattbotar, översättningar och textgenerering.
Varför är Big Data viktigt för Deep Learning?
Deep Learning kräver stora mängder data för att lära sig effektiva mönster.
Big Data ger den mängd information som krävs för att träna moderna neurala nätverk.
Tekniker som GPU-beräkningar och molntjänster gör det möjligt att hantera dessa stora dataset.
Hur utvecklas ett Single-Layer Perceptron (SLP) till ett Multi-Layer Perceptron (MLP)?
SLP har endast ett lager och kan lösa linjärt separerbara problem. Genom att lägga till fler lager (dolda lager) blir det ett MLP, vilket gör det möjligt att lösa mer komplexa och icke-linjära problem.
Vad skiljer ett Multi-Layer Perceptron (MLP) från ett Deep Neural Network (DNN)?
MLP har oftast få lager, medan DNN har många dolda lager vilket möjliggör djupare representationer och mer avancerad inlärning av data.
Varför behövs Convolutional Neural Networks (CNNs) för bildigenkänning istället för vanliga DNNs?
DNNs hanterar data som en platt struktur, medan CNNs använder konvolutionella lager för att identifiera spatiala mönster i bilder, vilket gör dem bättre lämpade för bildigenkänning.
Hur hänger CNNs ihop med Object Detectors?
Object Detectors bygger på CNNs genom att lägga till mekanismer som identifierar och lokaliserar objekt i en bild, t.ex. genom modeller som YOLO eller Faster R-CNN.
Hur hänger DNNs ihop med Transformers?
Transformers är en vidareutveckling av DNNs där själv-uppmärksamhet används istället för traditionella lager. De används mycket i språkmodeller som ChatGPT och BERT.
Varför används Transformers istället för CNNs inom vissa AI-områden?
CNNs är optimerade för bilder medan Transformers, som bygger på själv-uppmärksamhet, är bättre för sekvensbaserad data (t.ex. NLP). Transformers har även börjat ersätta CNNs i vissa bildmodeller (t.ex. Vision Transformers - ViT).
Vad är ett CNN och varför används det för bildigenkänning?
Ett CNN är en typ av neuralt nätverk som är bra på att analysera bilder. Det fungerar genom att använda konvolutionella lager som extraherar viktiga mönster i en bild, t.ex. kanter och former, och bygger upp en förståelse steg för steg.
Hur bearbetar ett CNN en bild?
Första lagren hittar enkla mönster som kanter och hörn.
Mellanlagren identifierar mer komplexa delar, som former och texturer.
Sista lagren sammanställer informationen och avgör vad bilden föreställer.
Hur är CNNs inspirerade av den mänskliga hjärnan?
CNNs efterliknar hjärnans synbark (visual cortex), där olika delar av hjärnan hanterar olika delar av en bild – från enkla kanter till hela objekt.
Vad är XAI (Explainable AI) och varför är det viktigt för CNNs?
XAI är metoder som gör AI-system mer förståeliga för människor. CNNs är som en ”black box” där det är svårt att förstå exakt hur de fattar beslut. XAI kan hjälpa oss att visualisera vilka delar av en bild nätverket fokuserar på.
Varför är CNNs bättre än vanliga DNNs (Deep Neural Networks) för bildanalys?
CNNs utnyttjar konvolution för att bearbeta bilder mer effektivt genom att fokusera på lokala mönster, medan vanliga DNNs skulle behöva extremt mycket mer data och beräkningar.
Vad gör Object Detection Networks?
De identifierar och lokaliserar objekt i en bild genom att rita upp avgränsningsrutor (bounding boxes) och tilldela sannolikheter för varje objekt.
Vad är en utmaning med realtidsobjektdetektering?
Att hantera flera objekt i en bild samtidigt och snabbt nog för applikationer som självkörande bilar och övervakning.
Hur hittar och klassificerar ett neuralt nätverk objekt i en bild?
Genom att använda bounding boxes för att rama in objekt och beräkna klasssannolikheter för varje detekterat objekt.
Ge exempel på användningsområden för Object Detection. Hur används Object Detection i självkörande bilar?
Självkörande bilar, övervakningssystem, ansiktsigenkänning och medicinsk bildanalys.
Det används för att identifiera fotgängare, trafikskyltar, andra fordon och vägmärken i realtid för att fatta säkra beslut.
Hur relaterar Object Detection till AI?
Det är en del av datorseende (Computer Vision) och använder deep learning-algoritmer för att känna igen och tolka bilder.
Vad används CNN-baserade nätverk och Object Detectors till inom AI?
De används för synbaserad AI, inklusive detektering av ansikten och objekt i en scen.
Hur fungerar Face och Emotion Recognition Software?
AI analyserar ansiktsdrag och känslouttryck med hjälp av CNN och deep learning för att identifiera och tolka ansiktsuttryck.
Vad är ett exempel på vision-baserad AI i vardagen?
Google Lens och smarta glasögon kan identifiera objekt och ge information i realtid med hjälp av datorseende.