Arquitetura perceptron Flashcards
(30 cards)
O que é um modelo Multilayer Perceptron (MLP) em redes neurais?
Um MLP é uma rede neural com múltiplas camadas, incluindo uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. [00:04:16]
Qual o papel das funções de ativação não lineares em MLPs?
Funções de ativação não lineares são cruciais, pois sem elas, uma rede multi-camadas se comportaria como uma rede linear de camada única. [00:02:09, 00:02:23]
Quais são os tipos de funções de ativação discutidas no vídeo?
Linear
Para que é usada a função de ativação Linear?
Saída direta da entrada. [00:05:21]
O que a função de ativação Step (Degrau) faz?
Função não linear que sai 1 se a entrada estiver acima de um limite e 0 caso contrário. [00:05:33]
Para que é útil a função de ativação Sigmoid/Logistic?
Função contínua que espreme valores entre 0 e 1, útil para representar probabilidades ou taxas de disparo de neurônios. [00:05:47]
Qual a característica da função de ativação Tangente Hiperbólica (tanh)?
Similar à sigmoide, mas sai valores entre -1 e 1. [00:06:25]
Qual a vantagem da função de ativação ReLU (Rectified Linear Unit)?
Sai a entrada se for positiva e 0 caso contrário. É computacionalmente eficiente e ajuda a mitigar o problema do gradiente de desaparecimento. [00:06:43]
Para que é usada a função de ativação Softmax?
Usada na camada de saída para classificação multi-classe, transformando saídas em uma distribuição de probabilidade. [00:07:15]
Como um MLP resolve o problema XOR?
As camadas ocultas transformam os dados de entrada em uma nova representação onde o problema se torna linearmente separável para a camada de saída. [00:08:00, 00:14:08]
O que são topologias alternativas de MLP com conexões residuais (skip connections)?
Topologias com conexões residuais permitem que entradas ou saídas de certas camadas ignorem camadas intermediárias, o que pode levar a redes mais eficientes. [00:14:58, 00:15:28]