Arquitetura perceptron Flashcards

(30 cards)

1
Q

O que é um modelo Multilayer Perceptron (MLP) em redes neurais?

A

Um MLP é uma rede neural com múltiplas camadas, incluindo uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. [00:04:16]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Qual o papel das funções de ativação não lineares em MLPs?

A

Funções de ativação não lineares são cruciais, pois sem elas, uma rede multi-camadas se comportaria como uma rede linear de camada única. [00:02:09, 00:02:23]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Quais são os tipos de funções de ativação discutidas no vídeo?

A

Linear

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Para que é usada a função de ativação Linear?

A

Saída direta da entrada. [00:05:21]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

O que a função de ativação Step (Degrau) faz?

A

Função não linear que sai 1 se a entrada estiver acima de um limite e 0 caso contrário. [00:05:33]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Para que é útil a função de ativação Sigmoid/Logistic?

A

Função contínua que espreme valores entre 0 e 1, útil para representar probabilidades ou taxas de disparo de neurônios. [00:05:47]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Qual a característica da função de ativação Tangente Hiperbólica (tanh)?

A

Similar à sigmoide, mas sai valores entre -1 e 1. [00:06:25]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Qual a vantagem da função de ativação ReLU (Rectified Linear Unit)?

A

Sai a entrada se for positiva e 0 caso contrário. É computacionalmente eficiente e ajuda a mitigar o problema do gradiente de desaparecimento. [00:06:43]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Para que é usada a função de ativação Softmax?

A

Usada na camada de saída para classificação multi-classe, transformando saídas em uma distribuição de probabilidade. [00:07:15]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Como um MLP resolve o problema XOR?

A

As camadas ocultas transformam os dados de entrada em uma nova representação onde o problema se torna linearmente separável para a camada de saída. [00:08:00, 00:14:08]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

O que são topologias alternativas de MLP com conexões residuais (skip connections)?

A

Topologias com conexões residuais permitem que entradas ou saídas de certas camadas ignorem camadas intermediárias, o que pode levar a redes mais eficientes. [00:14:58, 00:15:28]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
26
27
28
29
30