Inteligência Artificial e Machine Learning Flashcards
(40 cards)
A Inteligência Artificial (IA) é um subcampo do Aprendizado de Máquina (Machine Learning) focado na criação de sistemas que simulam a capacidade humana de tomar decisões.
ERRADO. Justificativa: A relação é inversa. O Aprendizado de Máquina (Machine Learning) é que é um subcampo da Inteligência Artificial (IA). A IA é a área ampla que busca criar agentes inteligentes, e o ML é uma das principais abordagens para atingir esse objetivo, permitindo que os sistemas aprendam com dados.
No aprendizado supervisionado, um algoritmo é treinado com um conjunto de dados não rotulados, cabendo ao próprio modelo a tarefa de encontrar estruturas e padrões ocultos.
ERRADO. Justificativa: Esta é a definição de aprendizado não supervisionado. O aprendizado supervisionado utiliza dados previamente rotulados, ou seja, dados em que a resposta correta já é conhecida e fornecida durante o treinamento, como um gabarito.
A tarefa de classificar e-mails como ‘spam’ ou ‘não spam’ é um exemplo clássico de aplicação de um algoritmo de regressão no aprendizado supervisionado.
ERRADO. Justificativa: A tarefa de classificar e-mails em categorias discretas (‘spam’/’não spam’) é um exemplo de classificação, não de regressão. A regressão é utilizada para prever valores numéricos contínuos, como o preço de um imóvel ou a temperatura de amanhã.
A identificação de transações financeiras fraudulentas, que se desviam do padrão de gastos de um cliente, é uma aplicação típica do aprendizado não supervisionado, especificamente da técnica de detecção de anomalias.
CERTO. Justificativa: A detecção de anomalias é uma tarefa do aprendizado não supervisionado, pois o sistema analisa um grande volume de dados (transações) sem rótulos prévios de ‘fraude’ para identificar padrões de normalidade. Qualquer transação que fuja drasticamente desse padrão é sinalizada como uma anomalia (potencial fraude).
O aprendizado por reforço é caracterizado por um agente que aprende a tomar decisões em um ambiente por meio de tentativa e erro, buscando maximizar uma recompensa definida, sendo um método inadequado para o treinamento de IAs para jogos como xadrez.
ERRADO. Justificativa: A primeira parte da assertiva está correta; o aprendizado por reforço funciona com base em um sistema de agente, ambiente e recompensa. Contudo, ele é extremamente adequado e eficaz para o treinamento de IAs em jogos de estratégia, como xadrez e Go, sendo o método utilizado por sistemas famosos como o AlphaGo.
O Microsoft Copilot é um assistente de IA desenvolvido pela Microsoft que utiliza, em sua base tecnológica, os grandes modelos de linguagem (LLMs) criados pela OpenAI, como o GPT-4.
CERTO. Justificativa: A afirmação está correta. A Microsoft é uma parceira estratégica e investidora da OpenAI. O Copilot é a marca sob a qual a Microsoft integra a tecnologia da OpenAI em seu ecossistema de produtos (Windows, Office 365, GitHub), funcionando como um assistente de IA.
O ChatGPT, desenvolvido pela Meta, e o Llama, desenvolvido pela OpenAI, são os principais modelos de linguagem concorrentes no mercado de IA generativa.
ERRADO. Justificativa: A assertiva inverte os desenvolvedores. O ChatGPT é o produto da OpenAI (baseado no modelo GPT). O modelo Llama é desenvolvido pela Meta (empresa-mãe do Facebook, Instagram e WhatsApp).
A principal estratégia da Meta com sua IA é a integração de seu assistente, baseado no modelo Llama, em suas plataformas de redes sociais, como WhatsApp e Instagram, e em dispositivos como óculos inteligentes.
CERTO. Justificativa: A estratégia da Meta é exatamente essa: alavancar sua gigantesca base de usuários em suas redes sociais para popularizar e integrar seu assistente de IA, o Meta AI, que é alimentado pelo modelo de linguagem Llama.
O processo de ‘inferência’ em Machine Learning refere-se à etapa de treinamento do modelo, na qual ele ajusta seus parâmetros com base nos dados de entrada.
ERRADO. Justificativa: Inferência é o processo de utilizar um modelo já treinado para fazer previsões sobre dados novos, que não foram vistos durante o treinamento. A etapa de ajuste de parâmetros com base nos dados de entrada é chamada de ‘treinamento’.
Em um problema de regressão logística, o objetivo do modelo é prever um valor numérico contínuo, como a idade de uma pessoa com base em uma foto.
ERRADO. Justificativa: A regressão logística, apesar do nome, é um algoritmo de classificação. Seu objetivo é prever a probabilidade de um resultado binário (ex: Sim/Não, 1/0, Doente/Saudável). Para prever um valor contínuo como a idade, seria utilizada uma técnica de regressão linear.
A técnica de ‘clusterização’ é um método de aprendizado supervisionado, pois requer que os grupos (clusters) sejam pré-definidos nos dados de treinamento.
ERRADO. Justificativa: A clusterização é um método de aprendizado não supervisionado. O algoritmo não conhece os grupos previamente; sua função é justamente identificar e criar esses agrupamentos com base na similaridade intrínseca dos dados.
Deep Learning (Aprendizagem Profunda) é um subcampo do Machine Learning que utiliza redes neurais com múltiplas camadas (profundas) para aprender representações complexas de dados, sendo especialmente eficaz em tarefas como reconhecimento de imagem e voz.
CERTO. Justificativa: Exatamente. O Deep Learning é uma especialização do Machine Learning que emprega ‘redes neurais profundas’ (com muitas camadas ocultas) para modelar padrões de alta complexidade, sendo a tecnologia por trás de muitos avanços recentes em IA.
Uma rede neural artificial é um modelo computacional inspirado na estrutura e funcionamento do cérebro humano, composto por nós interconectados chamados de neurônios, organizados em camadas.
CERTO. Justificativa: Esta é a definição fundamental de uma rede neural artificial. Ela tenta simular, de forma simplificada, a maneira como os neurônios biológicos processam e transmitem sinais.
O termo ‘Transformer’, presente na sigla GPT (Generative Pre-trained Transformer), refere-se a uma arquitetura de rede neural particularmente eficiente no processamento de dados sequenciais, como textos em linguagem natural.
CERTO. Justificativa: A arquitetura Transformer, introduzida em 2017, revolucionou o Processamento de Linguagem Natural (PLN). Sua capacidade de lidar com relações de longo alcance em sequências de dados a tornou a base para os mais avançados LLMs, como o GPT.
O GitHub Copilot, uma ferramenta de IA para desenvolvedores, é um produto do Google, projetado para competir diretamente com as ferramentas de desenvolvimento da Microsoft.
ERRADO. Justificativa: O GitHub Copilot é um produto da Microsoft (pois o GitHub pertence à Microsoft) e utiliza a tecnologia da OpenAI. Ele é uma ferramenta que complementa o ecossistema de desenvolvimento da Microsoft, não um concorrente do Google nesse contexto.
O principal diferencial competitivo do modelo de linguagem Llama, da Meta, é sua natureza proprietária e de código fechado, em contraste com a abordagem de código aberto da OpenAI.
ERRADO. Justificativa: A situação é, em grande parte, o oposto. A Meta tem se destacado por lançar versões do Llama com uma licença mais aberta, permitindo que a comunidade de desenvolvedores o utilize e modifique. A OpenAI, por outro lado, mantém seus modelos mais avançados (como o GPT-4) como proprietários e de código fechado.
O sobreajuste (overfitting) ocorre quando um modelo de Machine Learning aprende os dados de treinamento de forma tão específica, incluindo ruídos e detalhes irrelevantes, que perde a capacidade de generalizar para novos dados.
CERTO. Justificativa: O overfitting é um problema comum em ML. O modelo se torna um ‘decorador’ dos dados de treino em vez de um ‘aprendiz’ dos padrões gerais, resultando em um excelente desempenho no treino, mas um desempenho ruim em dados do mundo real.
Para combater o sobreajuste (overfitting), uma das técnicas utilizadas é a validação cruzada (cross-validation), que divide o conjunto de dados em várias partes, usando-as para treinar e validar o modelo de forma rotativa.
CERTO. Justificativa: A validação cruzada é uma técnica robusta para avaliar a capacidade de generalização de um modelo e ajudar a mitigar o overfitting. Ela garante que o modelo seja testado em diferentes subconjuntos dos dados, fornecendo uma estimativa mais realista de seu desempenho.
O Processamento de Linguagem Natural (PLN) é uma área da IA que se concentra exclusivamente na geração de texto, como a escrita de artigos ou e-mails.
ERRADO. Justificativa: O PLN é muito mais amplo. Além da geração de texto, ele engloba a compreensão da linguagem (análise de sentimento, extração de informações), tradução automática, sumarização, reconhecimento de fala e a interação geral entre computadores e a linguagem humana.
A acurácia é sempre a melhor métrica para avaliar um modelo de classificação, mesmo em cenários com dados desbalanceados (onde uma classe é muito mais frequente que a outra).
ERRADO. Justificativa: A acurácia pode ser enganosa em dados desbalanceados. Por exemplo, se um modelo prevê 99% das vezes ‘não é fraude’ em um dataset com 99% de transações legítimas, ele terá 99% de acurácia, mas pode não identificar nenhuma fraude. Métricas como precisão, recall e F1-score são mais adequadas nesses casos.
O aprendizado por transferência (transfer learning) é uma técnica na qual um modelo pré-treinado em uma tarefa com grande volume de dados é reutilizado como ponto de partida para uma nova tarefa relacionada, economizando tempo e recursos computacionais.
CERTO. Justificativa: Essa é a essência do aprendizado por transferência. Em vez de treinar um modelo do zero, aproveita-se o ‘conhecimento’ adquirido em uma tarefa (ex: um modelo treinado para reconhecer milhões de imagens genéricas) para acelerar o aprendizado em uma tarefa mais específica (ex: reconhecer tipos de viaturas policiais).
Os LLMs, como o GPT-4, geram suas respostas com base em um verdadeiro entendimento e consciência do mundo, raciocinando de forma análoga à humana.
ERRADO. Justificativa: Esta é uma concepção incorreta e crucial para provas. LLMs não ‘entendem’ ou ‘sabem’ no sentido humano. Eles são modelos estatísticos extremamente avançados que calculam a probabilidade da próxima palavra em uma sequência, com base nos padrões aprendidos em seus vastos dados de treinamento. A coerência de suas respostas é resultado de padrões probabilísticos, não de raciocínio consciente.
O ‘prompt de comando’ (ou simplesmente ‘prompt’) em uma interação com um LLM refere-se à instrução ou pergunta inicial fornecida pelo usuário, que serve como entrada para o modelo gerar uma resposta.
CERTO. Justificativa: O prompt é o ponto de partida da interação. A qualidade e a clareza do prompt (a chamada ‘engenharia de prompt’) são fundamentais para obter resultados precisos e relevantes do modelo de linguagem.
A IA Generativa é um ramo da Inteligência Artificial que se limita a replicar dados existentes, sem a capacidade de criar conteúdo novo ou original.
ERRADO. Justificativa: O oposto é verdadeiro. A principal característica da IA Generativa é justamente sua capacidade de criar conteúdo novo e original que não existia nos dados de treinamento, como imagens, músicas, textos e códigos, com base nos padrões aprendidos.