MC_exam_k_24 Flashcards

(12 cards)

1
Q

I konteksten av trening av nevrale nettverk, hva refererer begrepet ‘epoch’ til? / In the context of training neural
networks, what does the term ‘epoch’ refer to?

A. Antall lag i nettverket / The number of layers in the network

B. Én fullstendig gjennomgang av hele treningsdatasettet / One complete pass through the entire training
dataset

C. Antall nevroner i et lag / The number of neurons in a layer

D. Tiden det tar å trene modellen / The time taken to train the model

A

B. Én fullstendig gjennomgang av hele treningsdatasettet / One complete pass through the entire training
dataset

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Hva refererer begrepet “learning rate” til i konteksten av trening av et nevralt nettverk? / What does the term “learning
rate” refer to in the context of training a neural network?

A. Prosentandelen av data reservert for validering under trening / The percentage of data reserved for
validation during training

B. Skrittlengden som brukes for å oppdatere vekter under backpropagation / The step size used for updating
weights during backpropagation

C. Hastigheten som treningseksempler mates inn i nettverket / The rate at which training examples are fed
into the network

D. Antall treningsepoker som kreves for å oppnå konvergens / The number of training epochs required to
achieve convergence

A

B. Skrittlengden som brukes for å oppdatere vekter under backpropagation / The step size used for updating
weights during backpropagation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Hvilken av følgende aktiveringsfunksjoner er mest brukt i skjulte lag i dype nevrale nettverk på grunn av dens evne til
å redusere problemet med forsvinnende gradienter? / Which of the following activation functions is most commonly
used in hidden layers of deep neural networks due to its ability to mitigate the vanishing gradient problem?

A. Sigmoid
B. Hyperbolic Tangent (tanh)
C. Rectified Linear Unit (ReLU)
D. Softmax

A

C. Rectified Linear Unit (ReLU)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hva er hovedformålet med å bruke dropout under trening av et nevralt nettverk? / Which of the following is a primary
purpose of applying dropout during the training of a neural network?

A. Å akselerere trening ved å redusere antall trenbare parametere / To accelerate training by reducing the
number of trainable parameters

B. Å forbedre modellytelsen ved å fokusere på de viktigste egenskapene / To improve model performance by
focusing on the most important features

C. Å forhindre overtilpasning ved å tilfeldig deaktivere nevroner under trening / To prevent overfitting by
randomly deactivating neurons during training

D. Å øke nettverkets kapasitet ved å dynamisk legge til flere lag / To increase the network’s capacity by
adding more layers dynamically

A

C. Å forhindre overtilpasning ved å tilfeldig deaktivere nevroner under trening / To prevent overfitting by
randomly deactivating neurons during training

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Hvilke av følgende påstander om batch-størrelse i trening av nevrale nettverk er korrekte? Velg alle som gjelder. /
Which of the following statements about batch size in neural network training are correct? Select all that apply.

  1. Mindre batch-størrelser kan føre til mer støyende gradientoppdateringer, som kan hjelpe med å unnslippe
    lokale minima / Smaller batch sizes can lead to noisier gradient updates, which may help escape local
    minima.
  2. Større batch-størrelser krever ofte mer minne men gir mer stabile gradientoppdateringer / Larger batch
    sizes often require more memory but provide more stable gradient updates.
  3. Mindre batch-størrelser reduserer alltid treningstiden sammenlignet med større batch-størrelser / Smaller
    batch sizes always reduce training time compared to larger batch sizes.
  4. Større batch-størrelser kan utnytte maskinvareakselerasjon bedre for trening / Larger batch sizes can
    make better use of hardware acceleration for training.
A

1,2,4

  1. Mindre batch-størrelser kan føre til mer støyende gradientoppdateringer, som kan hjelpe med å unnslippe
    lokale minima / Smaller batch sizes can lead to noisier gradient updates, which may help escape local
    minima.
  2. Større batch-størrelser krever ofte mer minne men gir mer stabile gradientoppdateringer / Larger batch
    sizes often require more memory but provide more stable gradient updates.
  3. Større batch-størrelser kan utnytte maskinvareakselerasjon bedre for trening / Larger batch sizes can
    make better use of hardware acceleration for training.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

I et Konvolusjonelt Nevralt Nettverk (CNN), hva er hovedformålet med pooling-laget? / In a Convolutional Neural
Network (CNN), what is the primary purpose of the pooling layer?
3 of 9

A. Å redusere dimensjonaliteten av feature maps mens viktig informasjon bevares / To reduce the
dimensionality of the feature maps while preserving important information

B. Å introdusere ikke-linearitet i modellen / To introduce non-linearity into the model

C. Å øke antallet trenbare parametere i nettverket / To increase the number of trainable parameters in the
network

D. Å normalisere feature maps til en standard skala / To normalize the feature maps to a standard scale

A

A. Å redusere dimensjonaliteten av feature maps mens viktig informasjon bevares / To reduce the
dimensionality of the feature maps while preserving important information

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Hvilke av følgende strategier kan hjelpe med å redusere overtilpasning i en deep learning-modell? Velg alle som
gjelder. / Which of the following strategies can help reduce overfitting in a deep learning model? Select all that apply.

  1. Øke antall lag i modellen / Increasing the number of layers in the model
  2. Samle inn mer treningsdata / Collecting more training data
  3. Benytte data-augmentering / Applying data augmentation
A
  1. Samle inn mer treningsdata / Collecting more training data
  2. Benytte data-augmentering / Applying data augmentation
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Hva er fordelene med å bruke transfer learning i deep learning-prosjekter? Velg alle som gjelder. / What are the
benefits of using transfer learning in deep learning projects? Select all that apply.

  1. Reduserer mengden merket data som trengs for trening / Reduces the amount of labeled data needed for
    training
  2. Øker hastigheten på treningsprosessen ved å bruke forhåndstrente modeller / Speeds up the training
    process by using pre-trained models
  3. Gir alltid bedre ytelse enn trening fra bunnen av / Always results in better performance than training from
    scratch
  4. Tillater finjustering av modeller for spesifikke oppgaver / Allows fine-tuning models for specific tasks
A

1, 2, 4
1. Reduserer mengden merket data som trengs for trening / Reduces the amount of labeled data needed for
training

  1. Øker hastigheten på treningsprosessen ved å bruke forhåndstrente modeller / Speeds up the training
    process by using pre-trained models
  2. Tillater finjustering av modeller for spesifikke oppgaver / Allows fine-tuning models for specific tasks
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Hvilke av følgende er vanlige teknikker brukt i data-augmentering for bildedatasett? Velg alle som gjelder. / Which of
the following are common techniques used in data augmentation for image datasets? Select all that apply.

  1. Random cropping
  2. Rotation
  3. Feature scaling
  4. Horizontal flipping
A
  1. Random cropping
  2. Rotation
  3. Horizontal flipping
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hvilke av følgende påstander om tapsfunksjoner i nevrale nettverk er korrekte? Velg alle som gjelder. / Which of the
following statements about loss functions in neural networks are correct? Select all that apply.

  1. Mean squared error (MSE)-loss er vanlig brukt for regresjonsoppgaver / The mean squared error (MSE)
    loss is commonly used for regression tasks.
  2. Cross-entropy-loss brukes utelukkende for binær klassifikasjon / The cross-entropy loss is used
    exclusively for binary classification problems.
  3. Tapsfunksjoner brukes kun under evalueringsfasen av et nevralt nettverk / Loss functions are only used
    during the evaluation phase of a neural network.
  4. Tapsfunksjoner måler hvor godt modellens prediksjoner samsvarer med fasit under trening /
    Loss functions measure how well the model’s predictions align with the ground truth during training.
A

1 og 4
1. Mean squared error (MSE)-loss er vanlig brukt for regresjonsoppgaver / The mean squared error (MSE) is commonly used for regression tasks.

  1. Tapsfunksjoner måler hvor godt modellens prediksjoner samsvarer med fasit under trening / Loss functions measure how well the model’s predictions align with the ground truth during training.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hvilke av følgende teknikker kan brukes til å tolke og visualisere prediksjonene til et konvolusjonelt nevralt nettverk
(CNN)? Velg alle som gjelder. / Which of the following techniques can be used to interpret and visualize the
predictions of a convolutional neural network (CNN)? Select all that apply.

  1. Grad-CAM (Gradient-weighted Class Activation Mapping)
  2. Feature maps fra mellomliggende lag / Feature maps from intermediate layers
  3. Batch Normalization
  4. Data-augmentering / Data Augmentation
A
  1. Grad-CAM (Gradient-weighted Class Activation Mapping)
  2. Feature maps fra mellomliggende lag / Feature maps from intermediate layers
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hvilken av følgende nevrale nettverksarkitekturer er best egnet for sekvensdata, som tekst eller tidsserier? / Which of
the following neural network architectures is best suited for sequence data, such as text or time series?

A. Convolutional Neural Networks (CNNs)

B. Recurrent Neural Networks (RNNs)

C. Generative Adversarial Networks (GANs)

D. Fully Connected Networks (FCNs)

A

B. Recurrent Neural Networks (RNNs)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly