aws saa Flashcards
(414 cards)
Uma empresa coleta dados de temperatura, umidade e pressão atmosférica em cidades de vários continentes. O volume médio de dados que a empresa coleta de cada site diariamente é de 500 GB. Cada site tem uma conexão de Internet de alta velocidade. A empresa quer agregar os dados de todos esses sites globais o mais rápido possível em um único bucket do Amazon S3. A solução deve minimizar a complexidade operacional. Qual solução atende a esses requisitos? A. Ative o S3 Transfer Acceleration no bucket S3 de destino. Use uploads multipartes para carregar dados do site diretamente para o bucket S3 de destino.B. Carregue os dados de cada site para um bucket S3 na região mais próxima. Use a replicação entre regiões do S3 para copiar objetos para o bucket S3 de destino. Em seguida, remova os dados do bucket S3 de origem.C. Agende tarefas do dispositivo AWS Snowball Edge Storage Optimized diariamente para transferir dados de cada site para a região mais próxima. Use a replicação entre regiões do S3 para copiar objetos para o bucket S3 de destino.D. Faça upload dos dados de cada site para uma instância do Amazon EC2 na região mais próxima. Armazene os dados em um volume do Amazon Elastic Block Store (Amazon EBS). Em intervalos regulares, tire um snapshot do EBS e copie-o para a região que contém o bucket S3 de destino. Restaure o volume do EBS nessa região.
Resposta correta: A O S3 Transfer Acceleration é a melhor solução porque é mais rápido, bom para alta velocidade. O Transfer Acceleration foi projetado para otimizar as velocidades de transferência de todo o mundo para os buckets do S3.
Uma empresa precisa da capacidade de analisar os arquivos de log de seu aplicativo proprietário. Os logs são armazenados no formato JSON em um bucket do Amazon S3. As consultas serão simples e serão executadas sob demanda. Um arquiteto de soluções precisa executar a análise com alterações mínimas na arquitetura existente. O que o arquiteto de soluções deve fazer para atender a esses requisitos com a MENOR quantidade de sobrecarga operacional? A. Use o Amazon Redshift para carregar todo o conteúdo em um só lugar e executar as consultas SQL conforme necessário.B. Use o Amazon CloudWatch Logs para armazenar os logs. Execute consultas SQL conforme necessário no console do Amazon CloudWatch.C. Use o Amazon Athena diretamente com o Amazon S3 para executar as consultas conforme necessário.D. Use o AWS Glue para catalogar os logs. Use um cluster Apache Spark temporário no Amazon EMR para executar as consultas SQL conforme necessário.
Resposta correta: C https://docs.aws.amazon.com/athena/latest/ug/what-is.html O Amazon Athena é um serviço de consulta interativo que facilita a análise de dados diretamente no Amazon Simple Storage Service (Amazon S3) usando SQL padrão. Com algumas ações no AWS Management Console, você pode apontar o Athena para seus dados armazenados no Amazon S3 e começar a usar SQL padrão para executar consultas ad-hoc e obter resultados em segundos.Resposta correta: C
Uma empresa usa o AWS Organizations para gerenciar várias contas da AWS para diferentes departamentos. A conta de gerenciamento tem um bucket do Amazon S3 que contém relatórios de projeto. A empresa quer limitar o acesso a este bucket S3 somente a usuários de contas dentro da organização no AWS Organizations. Qual solução atende a esses requisitos com a MENOR quantidade de sobrecarga operacional? A. Adicione a chave de condição global aws PrincipalOrgID com uma referência ao ID da organização à política de bucket S3.B. Crie uma unidade organizacional (UO) para cada departamento. Adicione a chave de condição global aws:PrincipalOrgPaths à política de bucket S3.C. Use o AWS CloudTrail para monitorar os eventos CreateAccount, InviteAccountToOrganization, LeaveOrganization e RemoveAccountFromOrganization. Atualize a política de bucket S3 adequadamente.D. Marque cada usuário que precisa de acesso ao bucket S3. Adicione a chave de condição global aws:PrincipalTag à política de bucket do S3.
Resposta correta: A aws:PrincipalOrgID Valida se o principal que acessa o recurso pertence a uma conta em sua organização. https://aws.amazon.com/blogs/security/control-access-to-aws-resources-by-using-the-aws-organization-of-iam-principals/
Um aplicativo é executado em uma instância do Amazon EC2 em uma VPC. O aplicativo processa logs armazenados em um bucket do Amazon S3. A instância do EC2 precisa acessar o bucket do S3 sem conectividade com a Internet. Qual solução fornecerá conectividade de rede privada ao Amazon S3? A. Crie um endpoint de VPC de gateway para o bucket do S3.B. Transmita os logs para o Amazon CloudWatch Logs. Exporte os logs para o bucket S3.C. Crie um perfil de instância no Amazon EC2 para permitir acesso ao S3.D. Crie uma API do Amazon API Gateway com um link privado para acessar o endpoint S3.
Resposta correta: A Um endpoint de VPC de gateway é uma conexão entre sua VPC e um serviço da AWS que permite conectividade privada ao serviço. Um endpoint de VPC de gateway para S3 permite que a instância EC2 acesse o bucket S3 sem exigir conectividade com a Internet.
Uma empresa está hospedando um aplicativo da Web na AWS usando uma única instância do Amazon EC2 que armazena documentos enviados pelo usuário em um volume do Amazon EBS. Para melhor escalabilidade e disponibilidade, a empresa duplicou a arquitetura e criou uma segunda instância do EC2 e um volume do EBS em outra Zona de Disponibilidade, colocando ambos atrás de um Balanceador de Carga de Aplicativo. Após concluir essa alteração, os usuários relataram que, cada vez que atualizavam o site, conseguiam ver um subconjunto de seus documentos ou outro, mas nunca todos os documentos ao mesmo tempo. O que um arquiteto de soluções deve propor para garantir que os usuários vejam todos os seus documentos de uma vez? A. Copiar os dados para que ambos os volumes do EBS contenham todos os documentosB. Configurar o Application Load Balancer para direcionar um usuário ao servidorr com os documentosC. Copie os dados de ambos os volumes do EBS para o Amazon EFS. Modifique o aplicativo para salvar novos documentos no Amazon EFSD. Configure o Application Load Balancer para enviar a solicitação para ambos os servidores. Retorne cada documento do servidor correto
Resposta correta: C O Amazon Elastic File System (EFS) é um serviço de armazenamento de arquivos totalmente gerenciado que permite aos usuários armazenar e acessar dados na nuvem da Amazon. O EFS é acessível pela rede e pode ser montado em várias instâncias do Amazon EC2. Ao copiar os dados de ambos os volumes EBS para o EFS e modificar o aplicativo para salvar novos documentos no EFS, os usuários poderão acessar todos os seus documentos ao mesmo tempo.
Uma empresa usa o NFS para armazenar grandes arquivos de vídeo em armazenamento conectado à rede local. Cada arquivo de vídeo varia em tamanho de 1 MB a 500 GB. O armazenamento total é de 70 TB e não está mais crescendo. A empresa decide migrar os arquivos de vídeo para o Amazon S3. A empresa deve migrar os arquivos de vídeo o mais rápido possível, usando a menor largura de banda de rede possível. Qual solução atenderá a esses requisitos? A. Crie um bucket S3. Crie uma função do IAM que tenha permissões para gravar no bucket S3. Use a AWS CLI para copiar todos os arquivos localmente para o bucket do S3.B. Crie um trabalho do AWS Snowball Edge. Receba um dispositivo Snowball Edge no local. Use o cliente Snowball Edge para transferir dados para o dispositivo. Retorne o dispositivo para que a AWS possa importar os dados para o Amazon S3.C. Implemente um S3 File Gateway no local. Crie um ponto de extremidade de serviço público para se conectar ao S3 File Gateway. Crie um bucket do S3. Crie um novo compartilhamento de arquivos NFS no S3 File Gateway. Aponte o novo compartilhamento de arquivos para o bucket do S3. Transfira os dados do compartilhamento de arquivos NFS existente para o S3 File Gateway.D. Configure uma conexão do AWS Direct Connect entre a rede local e a AWS. Implante um S3 File Gateway no local. Crie uma interface virtual pública (VIF) para se conectar ao S3 File Gateway. Crie um bucket do S3. Crie um novo compartilhamento de arquivos NFS no S3 File Gateway. Aponte o novo compartilhamento de arquivo para o bucket S3. Transfira os dados do compartilhamento de arquivo NFS existente para o S3 File Gateway.
Resposta selecionada: B Vamos analisar isso: B. Em um dispositivo Snowball Edge, você pode copiar arquivos com uma velocidade de até 100 Gbps. 70 TB levarão cerca de 5.600 segundos, muito rápido, menos de 2 horas. A desvantagem é que levará de 4 a 6 dias úteis para receber o dispositivo e, em seguida, outros 2 a 3 dias úteis para enviá-lo de volta e para a AWS mover os dados para o S3 quando chegarem a eles. Tempo total: 6 a 9 dias úteis. Largura de banda usada: 0. C. O File Gateway usa a Internet, então a velocidade máxima será de no máximo 1 Gbps, então levará no mínimo 6,5 dias e você usará 70 TB de largura de banda da Internet. D. Você pode atingir velocidades de até 10 Gbps com Direct Connect. Tempo total de 15,5 horas e você usará 70 TB de largura de banda. No entanto, o interessante é que a pergunta não especifica que tipo de largura de banda? O Direct Connect não usa sua largura de banda de Internet, pois você terá uma conectividade peer to peer dedicada entre seu local e a Nuvem AWS, então, tecnicamente, você não está usando sua largura de banda pública. Os requisitos são um pouco vagos, mas acho que B é a resposta mais apropriada, embora D também possa estar correta se o uso da largura de banda se referir estritamente à sua conectividade pública.
Uma empresa tem um aplicativo que ingere mensagens recebidas. Dezenas de outros aplicativos e microsserviços consomem rapidamente essas mensagens. O número de mensagens varia drasticamente e às vezes aumenta repentinamente para 100.000 a cada segundo. A empresa quer desacoplar a solução e aumentar a escalabilidade. Qual solução atende a esses requisitos? A. Persista as mensagens no Amazon Kinesis Data Analytics. Configure os aplicativos do consumidor para ler e processar as mensagens.B. Implemente o aplicativo de ingestão em instâncias do Amazon EC2 em um grupo de dimensionamento automático para dimensionar o número de instâncias do EC2 com base nas métricas da CPU.C. Escreva as mensagens no Amazon Kinesis Data Streams com um único fragmento. Use uma função do AWS Lambda para pré-processar mensagens e armazená-las no Amazon DynamoDB. Configurare os aplicativos do consumidor para ler do DynamoDB para processar as mensagens.D. Publique as mensagens em um tópico do Amazon Simple Notification Service (Amazon SNS) com várias assinaturas do Amazon Simple Queue Service (Amazon SQS). Configure os aplicativos do consumidor para processar as mensagens das filas.
Selecione a resposta D. Padrão de Fan Out do SNS https://docs.aws.amazon.com/sns/latest/dg/sns-common-scenarios.html (A está errada. O Kinesis Analysis não ‘persiste’ por si só.)
Uma empresa está migrando um aplicativo distribuído para a AWS. O aplicativo atende a cargas de trabalho variáveis. A plataforma legada consiste em um servidor primário que coordena trabalhos em vários nós de computação. A empresa quer modernizar o aplicativo com uma solução que maximize a resiliência e a escalabilidade. Como um arquiteto de soluções deve projetar a arquitetura para atender a esses requisitos? A. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como um destino para os trabalhos. Implemente os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o EC2 Auto Scaling para usar o dimensionamento programado.B. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como um destino para os trabalhos. Implemente os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o EC2 Auto Scaling com base no tamanho da fila.C. Implemente o servidor primário e os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o AWS CloudTrail como um destino para os trabalhos. Configurar o EC2 Auto Scaling com base na carga no servidor primário.D. Implementar o servidor primário e os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configurar o Amazon EventBridge (Amazon CloudWatch Events) como um destino para os trabalhos. Configurar o EC2 Auto Scaling com base na carga nos nós de computação.
Resposta selecionada: B A resposta parece ser B para mim: A: não faz sentido programar o auto-scaling C: Não tenho certeza de como o CloudTrail seria útil neste caso, de forma alguma. D: O EventBridge não é realmente usado para esta finalidade, não seria muito confiável
Uma empresa está executando um servidor de arquivos SMB em seu data center. O servidor de arquivos armazena arquivos grandes que são acessados com frequência nos primeiros dias após a criação dos arquivos. Após 7 dias, os arquivos raramente são acessados. O tamanho total dos dados está aumentando e está próximo da capacidade total de armazenamento da empresa. Um arquiteto de soluções deve aumentar o espaço de armazenamento disponível da empresa sem perder o acesso de baixa latência aos arquivos acessados mais recentemente. O arquiteto de soluções também deve fornecer gerenciamento do ciclo de vida do arquivo para evitar problemas futuros de armazenamento. Qual solução atenderá a esses requisitos? A. Use o AWS DataSync para copiar dados com mais de 7 dias do servidor de arquivos SMB para a AWS.B. Crie um Amazon S3 File Gateway para estender o espaço de armazenamento da empresa. Crie uma política de ciclo de vida do S3 para fazer a transição dos dados para o S3 Glacier Deep Archive após 7 dias.C. Crie um sistema de arquivos do Amazon FSx for Windows File Server para estender o espaço de armazenamento da empresa.D. Instale um utilitário no computador de cada usuário para acessar o Amazon S3. Crie uma política de ciclo de vida do S3 para fazer a transição dos dados para o S3 Glacier Flexible Retrieval após 7 dias.
Resposta selecionada: B A resposta B está correta. Baixa latência é necessária apenas para arquivos mais novos. Além disso, o File GW fornece acesso de baixa latência armazenando em cache arquivos acessados com frequência localmente, então a resposta é B
Uma empresa está construindo um aplicativo da web de comércio eletrônico na AWS. O aplicativo envia informações sobre novos pedidos para uma API REST do Amazon API Gateway para processamento. A empresa quer garantir que os pedidos sejam processados na ordem em que são recebidos. Qual solução atenderá a esses requisitos? A. Use uma integração do API Gateway para publicar uma mensagem em um tópico do Amazon Simple Notification Service (Amazon SNS) quando o aplicativo receber um pedido. Assine uma função do AWS Lambda no tópico para executar o processamento.B. Use uma integração do API Gateway para enviar uma mensagem a uma fila FIFO do Amazon Simple Queue Service (Amazon SQS) quando o aplicativo receber um pedido. Configure a fila FIFO do SQS para invocar uma função do AWS Lambda para processamento.C. Use um autorizador do API Gateway para bloquear quaisquer solicitações enquanto o aplicativo processa um pedido.D. Use uma integração do API Gateway para enviar uma mensagem a uma fila padrão do Amazon Simple Queue Service (Amazon SQS) quando o aplicativo receber um pedido. Configure a fila padrão do SQS para invocar uma função do AWS Lambda para processamento.
Resposta selecionada: B Acho que as respostas erradas estão aqui intencionalmente como uma forma de nos aprofundarmos no tópico e obtermos mais conhecimento ou talvez eu esteja dando muito crédito a elas.
Uma empresa tem um aplicativo que roda em instâncias do Amazon EC2 e usa um banco de dados do Amazon Aurora. As instâncias do EC2 se conectam ao banco de dados usando nomes de usuário e senhas que são armazenados localmente em um arquivo. A empresa quer minimizar a sobrecarga operacional do gerenciamento de credenciais. O que um arquiteto de soluções deve fazer para atingir esse objetivo? A. Use o AWS Secrets Manager. Ative a rotação automática.B. Use o AWS Systems Manager Parameter Store. Ative a rotação automática.C. Crie um bucket do Amazon S3 para armazenar objetos criptografados com uma chave de criptografia do AWS Key Management Service (AWS KMS). Migre o arquivo de credenciais para o bucket do S3. Aponte o aplicativo para o bucket do S3.D. Crie um volume criptografado do Amazon Elastic Block Store (Amazon EBS) para cada instância do EC2. Anexe o novo volume do EBS a cada instância do EC2. Migre o arquivo de credenciais para o novo volume do EBS. Aponte o aplicativo para o novo volume do EBS.
Resposta selecionada: A O AWS Secrets Manager é um serviço de gerenciamento de segredos que permite armazenar, gerenciar e girar segredos, como credenciais de banco de dados, chaves de API e chaves SSH. O Secrets Manager ajuda a proteger seus segredos, girando-os automaticamente de acordo com uma programação que você especificar. Isso pode ajudar a minimizar a sobrecarga operacional de gerenciar e girar segredos, bem como reduzir o risco de segredos serem comprometidos. Com o Secrets Manager, você pode armazenar os nomes de usuário e senhas para seu banco de dados Amazon Aurora em um local central e fazer com que eles sejam girados automaticamente em uma programação que você especificar. As instâncias do EC2 podem então recuperar os segredos conforme necessário, em vez de ter que armazená-los localmente em um arquivo.
Uma empresa global hospeda seu aplicativo da Web em instâncias do Amazon EC2 por trás de um Application Load Balancer (ALB). O aplicativo da Web tem dados estáticos e dinâmicos. A empresa armazena seus dados estáticos em um bucket do Amazon S3. A empresa quer melhorar o desempenho e reduzir a latência para os dados estáticos e dinâmicos. A empresa está usando seu próprio nome de domínio registrado no Amazon Route 53. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Crie uma distribuição do Amazon CloudFront que tenha o bucket do S3 e o ALB como origens. Configure o Route 53 para rotear o tráfego para a distribuição do CloudFront.B. Crie uma distribuição do Amazon CloudFront que tenha o ALB como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o bucket do S3 como um ponto de extremidade Configure o Route 53 para rotear o tráfego para a distribuição do CloudFront.C. Crie uma distribuição do Amazon CloudFront que tenha o bucket do S3 como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o ALB e a distribuição do CloudFront como endpoints. Crie um nome de domínio personalizado que aponte para o nome DNS do acelerador. Use o nome de domínio personalizado como um endpoint para o aplicativo da web.D. Crie uma distribuição do Amazon CloudFront que tenha o ALB como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o bucket do S3 como endpoint. Crie dois nomes de domínio. Aponte um nome de domínio para o nome DNS do CloudFront para conteúdo dinâmico. Aponte o outro nome de domínio para o nome DNS do acelerador para conteúdo estático. Use os nomes de domínio como endpoints para o aplicativo da web.
A resposta éA Explicação - AWS Global Accelerator vs CloudFront • Ambos usam a rede global da AWS e seus locais de ponta ao redor do mundo • Ambos os serviços se integram ao AWS Shield para proteção contra DDoS. • CloudFront • Melhora o desempenho para conteúdo armazenável em cache (como imagens e vídeos) • Conteúdo dinâmico (como aceleração de API e entrega dinâmica de site) • O conteúdo é servido na ponta • Global Accelerator • Melhora o desempenho para uma ampla gama de aplicativos por TCP ou UDP • Proxy de pacotes na ponta para aplicativos em execução em uma ou mais regiões da AWS. • Bom ajuste para casos de uso não HTTP, como jogos (UDP), IoT (MQTT) ou Voz sobre IP • Bom para casos de uso HTTP que exigem endereços IP estáticos • Bom para casos de uso HTTP que exigem failover regional rápido e determinístico
Uma empresa realiza manutenção mensal em sua infraestrutura AWS. Durante essas atividades de manutenção, a empresa precisa rotacionar as credenciais para seus bancos de dados Amazon RDS for MySQL em várias regiões AWS. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Armazene as credenciais como segredos no AWS Secrets Manager. Use replicação de segredos multirregionais para as regiões necessárias. Configure o Secrets Manager para rotacionar os segredos em uma programação.B. Armazene as credenciais como segredos no AWS Systems Manager criando um parâmetro de string seguro. Use a replicação de segredos multirregionais para as regiões necessárias. Configure o Systems Manager para rotacionar os segredos em uma programação.C. Armazene as credenciais em um bucket do Amazon S3 que tenha criptografia do lado do servidor (SSE) habilitada. Use o Amazon EventBridge (Amazon CloudWatch Events) para invocar uma função do AWS Lambda para rotacionar as credenciais.D. Criptografe as credenciais como segredos usando chaves gerenciadas pelo cliente multirregionais do AWS Key Management Service (AWS KMS). Armazene os segredos em uma tabela global do Amazon DynamoDB. Use uma função do AWS Lambda para recuperar os segredos do DynamoDB. Use o RDSAPI para rotacionar os segredos.
Resposta selecionada: A O AWS Secrets Manager é um serviço de gerenciamento de segredos que permite armazenar, gerenciar e rotacionar segredos, como credenciais de banco de dados, chaves de API e chaves SSH. O Secrets Manager pode ajudar a minimizar a sobrecarga operacional da rotação de credenciais para seus bancos de dados Amazon RDS for MySQL em várias regiões. Com o Secrets Manager, você pode armazenar as credenciais como segredos e usar a replicação de segredos multirregionais para replicar os segredos para as regiões necessárias. Você pode então configurar o Secrets Manager para rotacionar os segredos em uma programação para que as credenciais sejam rotacionadas automaticamente sem a necessidade de intervenção manual. Isso pode ajudar a reduzir o risco de segredos serem comprometidos e minimizar a sobrecarga operacional do gerenciamento de credenciais.
Uma empresa executa um aplicativo de comércio eletrônico em instâncias do Amazon EC2 por trás de um Application Load Balancer. As instâncias são executadas em um grupo de Auto Scaling do Amazon EC2 em várias Zonas de Disponibilidade. O grupo de Auto Scaling é dimensionado com base nas métricas de utilização da CPU. O aplicativo de comércio eletrônico armazena os dados da transação em um banco de dados MySQL 8.0 hospedado em uma grande instância do EC2. O desempenho do banco de dados diminui rapidamente conforme a carga do aplicativo aumenta. O aplicativo manipula mais solicitações de leitura do que transações de gravação. A empresa quer uma solução que dimensione automaticamente o banco de dados para atender à demanda de cargas de trabalho de leitura imprevisíveis, mantendo alta disponibilidade. Qual solução atenderá a esses requisitos? A. Use o Amazon Redshift com um único nó para funcionalidade de líder e computação.B. Use o Amazon RDS com uma implantação Single-AZ Configure o Amazon RDS para adicionar instâncias de leitor em uma Zona de Disponibilidade diferente.C. Use o Amazon Aurora com uma implantação Multi-AZ. Configurar o Aurora Auto Scaling com réplicas do Aurora.D. Usar o Amazon ElastiCache para Memcached com instâncias spot do EC2.
Resposta selecionada: C A opção C, usar o Amazon Aurora com uma implantação Multi-AZ e configurar o Aurora Auto Scaling com Aurora Replicas, seria a melhor solução para atender aos requisitos. O Aurora é um banco de dados relacional totalmente gerenciado e compatível com MySQL, projetado para alto desempenho e alta disponibilidade. As implantações Multi-AZ do Aurora mantêm automaticamente uma réplica de espera síncrona em uma Zona de Disponibilidade diferente para fornecer alta disponibilidade. Além disso, o Aurora Auto Scaling permite que você dimensione automaticamente o número de réplicas do Aurora em resposta a cargas de trabalho de leitura, permitindo que você atenda à demanda de cargas de trabalho de leitura imprevisíveis, mantendo alta disponibilidade. Isso forneceria uma solução automatizada para dimensionar o banco de dados para atender à demanda do aplicativo, mantendo alta disponibilidade.
Uma empresa migrou recentemente para a AWS e deseja implementar uma solução para proteger o tráfego que flui para dentro e para fora da VPC de produção. A empresa tinha um servidor de inspeção em seu data center local. O servidor de inspeção executou operações específicas, como inspeção de fluxo de tráfego e filtragem de tráfego. A empresa quer ter as mesmas funcionalidades na Nuvem AWS. Qual solução atenderá a esses requisitos? A. Use o Amazon GuardDuty para inspeção e filtragem de tráfego na VPC de produção.B. Use o Espelhamento de Tráfego para espelhar o tráfego da VPC de produção para inspeção e filtragem de tráfego.C. Use o Firewall de Rede AWS para criar as regras necessárias para inspeção e filtragem de tráfego para a VPC de produção.D. Use o Gerenciador de Firewall AWS para criar as regras necessárias para inspeção e filtragem de tráfego para a VPC de produção
Resposta correta: C AWS Network Firewall é um firewall de rede gerenciado e com estado e um serviço de detecção e prevenção de intrusão para sua nuvem privada virtual (VPC) que você criou na Amazon Virtual Private Cloud (Amazon VPC). Com o Network Firewall, você pode filtrar o tráfego no perímetro da sua VPC. Isso inclui filtrar o tráfego que vai e vem de um gateway de internet, gateway NAT ou por VPN ou AWS Direct Connect.
Uma empresa hospeda um data lake na AWS. O data lake consiste em dados no Amazon S3 e Amazon RDS para PostgreSQL. A empresa precisa de uma solução de relatórios que forneça visualização de dados e inclua todas as fontes de dados dentro do data lake. Somente a equipe de gerenciamento da empresa deve ter acesso total a todas as visualizações. O restante da empresa deve ter apenas acesso limitado. Qual solução atenderá a esses requisitos? A. Crie uma análise no Amazon QuickSight. Conecte todas as fontes de dados e crie novos conjuntos de dados. Publique painéis para visualizar os dados. Compartilhe os painéis com as funções IAM apropriadas.B. Crie uma análise no Amazon QuickSight. Conecte todas as fontes de dados e crie novos conjuntos de dados. Publique painéis para visualizar os dados. Compartilhe os painéis com os usuários e grupos apropriados.C. Crie uma tabela e um rastreador do AWS Glue para os dados no Amazon S3. Crie um trabalho de extração, transformação e carregamento (ETL) do AWS Glue para produzir relatórios. Publique os relatórios no Amazon S3. Use as políticas de bucket do S3 para limitar o acesso aos relatórios.D. Crie uma tabela e um rastreador do AWS Glue para os dados no Amazon S3. Use o Amazon Athena Federated Query para acessar dados no Amazon RDS para PostgreSQL. Gere relatórios usando o Amazon Athena. Publique os relatórios no Amazon S3. Use as políticas de bucket do S3 para limitar o acesso aos relatórios.
Resposta selecionada: B O QuickSight é um painel de BI que pode combinar dados de várias fontes, incluindo S3 e PostgreSQL. https://docs.aws.amazon.com/quicksight/latest/user/supported-data-sources.html https://docs.aws.amazon.com/quicksight/latest/user/welcome.html Você pode compartilhar painéis do QuickSight com: - usuários específicos e usuários grupos - todos na sua conta AWS - qualquer pessoa na Internet https://docs.aws.amazon.com/quicksight/latest/user/sharing-a-dashboard.html
Uma empresa está implementando um novo aplicativo de negócios. O aplicativo é executado em duas instâncias do Amazon EC2 e usa um bucket do Amazon S3 para armazenamento de documentos. Um arquiteto de soluções precisa garantir que as instâncias do EC2 possam acessar o bucket do S3. O que o arquiteto de soluções deve fazer para atender a esse requisito? A.Crie uma função do IAM que conceda acesso ao bucket S3 Anexe a função às instâncias do EC2.B.Crie uma política do IAM que conceda acesso. ao bucket S3. Anexe a política às instâncias do EC2.C. Crie um grupo IAM que conceda acesso ao bucket do S3. Anexe o grupo às instâncias do EC2.D.Crie um usuário IAM que conceda acesso ao bucket S3. Anexe a conta do usuário às instâncias EC2..
Resposta correta: A
Uma equipe de desenvolvimento de aplicativos está projetando um microsserviço que converterá grandes imagens para imagens menores e compactadas Quando um usuário carrega uma imagem por meio da interface da web, o microsserviço deve armazenar a imagem em um bucket do Amazon S3, processar e compactar a imagem com uma função AWS Lambda e armazenar a imagem em seu formato compactado em. um bucket S3 diferente. Um arquiteto de soluções precisa projetar uma solução que use componentes duráveis e sem estado para processar as imagens automaticamente. Qual combinação de ações atenderá a esses requisitos (escolha duas). A. Crie uma fila do Amazon Simple Queue Service (Amazon SQS) Configure o bucket S3 para enviar uma notificação à fila SQS quando uma imagem for carregada no bucket S3. B. Configure a função Lambda para usar a fila do Amazon Simple Queue Service (Amazon SQS) como origem de invocação. Quando a mensagem SQS for processada com êxito, exclua a mensagem da fila. C. Configure a função Lambda para monitorar o bucket S3 para novos uploads. Quando uma imagem carregada for detectada, grave o nome do arquivo em um arquivo de texto na memória e use o arquivo de texto para controlar as imagens que foram processadas.D.Inicie uma instância do Amazon EC2 para monitorar uma fila do Amazon Simple Queue Service (Amazon SQS). Quando itens são adicionados à fila, registre o nome do arquivo em um arquivo de texto na instância do EC2 e invoque a função Lambda.E.Configure um Amazon EventBridge (Amazon CloudWatch Events) para monitorar o bucket S3. Quando uma imagem é carregada, envie um alerta para um tópico do Amazon Ample Notification Service (Amazon SNS) com o endereço de e-mail do proprietário do aplicativo para processamento posterior.
Resposta correta: AB AB está OK. Pode ser feito de forma mais direta. Basta conectar o evento S3 ao Lambda e pronto. Não acho que precisamos do SQS ou algo assim.
Uma empresa tem um aplicativo da Web de três camadas que é implantado na AWS. Os servidores da Web são implantados em uma sub-rede pública em uma VPC. Os servidores de aplicativos e servidores de banco de dados são implantados em sub-redes privadas na mesma VPC. A empresa implantou um dispositivo de firewall virtual de terceiros do AWS Marketplace em uma VPC de inspeção. O dispositivo é configurado com uma interface IP que pode aceitar pacotes IP. Um arquiteto de soluções precisa integrar o aplicativo da Web ao dispositivo para inspecionar todo o tráfego para o aplicativo antes que ele chegue ao servidor da Web. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie um balanceador de carga de rede na sub-rede pública da VPC do aplicativo para rotear o tráfego para o dispositivo para inspeção de pacotes.B. Crie um balanceador de carga de aplicativo na sub-rede pública da VPC do aplicativo para rotear o tráfego para o dispositivo para inspeção de pacotes.C. Implemente um gateway de trânsito no VP de inspeçãoConfigure tabelas de rota para rotear os pacotes de entrada pelo gateway de trânsito.D. Implemente um balanceador de carga de gateway no VPC de inspeção. Crie um ponto de extremidade do Gateway Load Balancer para receber os pacotes de entrada e encaminhá-los ao dispositivo.
Resposta selecionada: D A solução com menor sobrecarga operacional seria a opção D: implantar um gateway Load Balancer na VPC de inspeção. Crie um endpoint do Gateway Load Balancer para receber os pacotes recebidos e encaminhá-los para o dispositivo. Um Gateway Load Balancer é um balanceador de carga de camada de rede totalmente gerenciado que roteia o tráfego para destinos em VPCs e redes locais. Ele foi projetado para lidar com milhões de solicitações por segundo, mantendo alto desempenho e baixas latências. Ele também se integra ao Amazon VPC para permitir que o tráfego flua entre seus data centers locais e suas VPCs.
Uma empresa deseja melhorar sua capacidade de clonar grandes quantidades de dados de produção em um ambiente de teste na mesma região da AWS Os dados são armazenados em instâncias do Amazon EC2 em volumes do Amazon Elastic Block Store (Amazon EBS). As modificações nos dados clonados não devem afetar o ambiente de produção. desempenho de E/S consistentemente alto. Um arquiteto de soluções precisa minimizar o tempo necessário para clonar os dados de produção no ambiente de teste. Qual solução atenderá a esses requisitos? A. Tire snapshots do EBS dos volumes de produção do EBS. Restaure os snapshots em volumes de armazenamento de instâncias do EC2 no ambiente de teste.B. Configure os volumes de produção do EBS para usar o EBS. Recurso Multi-Attach. Obtenha snapshots do EBS dos volumes do EBS de produção. Anexe os volumes do EBS de produção às instâncias do EC2 no ambiente de teste.C. Obtenha snapshots do EBS dos volumes do EBS de produção. Crie e inicialize novos volumes EBS. Anexe os novos volumes do EBS às instâncias do EC2 no ambiente de teste antes de restaurar os volumes dos snapshots do EBS de produção.D.Tire snapshots do EBS dos volumes do EBS de produção. Ative o recurso de restauração rápida de snapshots do EBS nos snapshots do EBS. Restaure os snapshots em novos volumes do EBS. Anexe os novos volumes do EBS às instâncias do EC2 no ambiente de teste.
Resposta correta: D
Uma empresa de comércio eletrônico deseja lançar um site de uma oferta por dia na AWS. Cada dia apresentará exatamente um produto em promoção por um período de 24 horas. A empresa quer ser capaz de lidar com milhões de solicitações a cada hora com latência de milissegundos durante os horários de pico. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use o Amazon S3 para hospedar o site completo em diferentes buckets do S3. Adicione distribuições do Amazon CloudFront. Defina os buckets do S3 como origens para as distribuições. Armazene os dados do pedido no Amazon S3.B. Implante o site completo em instâncias do Amazon EC2 que são executadas em grupos de Auto Scaling em várias Zonas de Disponibilidade. Adicione um Application Load Balancer (ALB) para distribuir o tráfego do site. Adicione outro ALB para as APIs de backend. Armazene os dados no Amazon RDS para MySQL.C. Migre o aplicativo completo para ser executado em contêineres. Hospede os contêineres no Amazon Elastic Kubernetes Service (Amazon EKS). Use o Kubernetes Cluster Autoscaler para aumentar e diminuir o número de pods para processar picos de tráfego. Armazene os dados no Amazon RDS para MySQL.D. Use um bucket do Amazon S3 para hospedar o conteúdo estático do site. Implante uma distribuição do Amazon CloudFront. Defina o bucket do S3 como a origem. Use as funções do Amazon API Gateway e do AWS Lambda para as APIs de backend. Armazene os dados no Amazon DynamoDB.
Resposta correta: D
Um arquiteto de soluções está usando o Amazon S3 para projetar a arquitetura de armazenamento de um novo aplicativo de mídia digital. Os arquivos de mídia devem ser resilientes à perda de uma Zona de Disponibilidade. Alguns arquivos são acessados com frequência, enquanto outros raramente são acessados em um padrão imprevisível. O arquiteto de soluções deve minimizar os custos de armazenamento e recuperação dos arquivos de mídia. Qual opção de armazenamento atende a esses requisitos? A. S3 StandardB. S3 Intelligent-Tiering C. S3 Standard-Infrequent Access (S3 Standard-IA)D. S3 One Zone-Infrequent Access (S3 One Zone-IA)
Resposta correta: B
Uma empresa está armazenando arquivos de backup usando o armazenamento Amazon S3 Standard. Os arquivos são acessados com frequência por 1 mês. No entanto, os arquivos não são acessados após 1 mês. A empresa deve manter os arquivos indefinidamente. Qual solução de armazenamento atenderá a esses requisitos de forma MAIS econômica? A. Configure o S3 Intelligent-Tiering para migrar objetos automaticamente.B. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês.C. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Standard-Infrequent Access (S3 Standard-IA) após 1 mês.D. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 One Zone-Infrequent Access (S3 One Zone-IA) após 1 mês.
Resposta selecionada: B A solução de armazenamento que atenderá a esses requisitos de forma mais econômica é B: Criar uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês. O Amazon S3 Glacier Deep Archive é uma classe de armazenamento Amazon S3 segura, durável e de custo extremamente baixo para retenção de longo prazo de dados que raramente são acessados e para os quais tempos de recuperação de várias horas são aceitáveis. É a opção de armazenamento de menor custo no Amazon S3, tornando-a uma escolha econômica para armazenar arquivos de backup que não são acessados após 1 mês. Você pode usar uma configuração do S3 Lifecycle para fazer a transição automática de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês. Isso minimizará os custos de armazenamento para os arquivos de backup que não são acessados com frequência.
Uma empresa observa um aumento nos custos do Amazon EC2 em sua fatura mais recente. A equipe de cobrança percebe um dimensionamento vertical indesejado de tipos de instância para algumas instâncias do EC2. Um arquiteto de soluções precisa criar um gráfico comparando os últimos 2 meses de custos do EC2 e executar uma análise aprofundada para identificar a causa raiz do dimensionamento vertical. Como o arquiteto de soluções deve gerar as informações com a MENOR sobrecarga operacional? A. Use os orçamentos da AWS para criar um relatório de orçamento e comparar os custos do EC2 com base nos tipos de instância.B. Use o recurso de filtragem granular do Cost Explorer para executar uma análise aprofundada dos custos do EC2 com base nos tipos de instância.C. Use gráficos do painel de gerenciamento de custos e faturamento da AWS para comparar os custos do EC2 com base nos tipos de instância dos últimos 2 meses.D. Use os relatórios de custo e uso da AWS para criar um relatório e enviá-lo para um bucket do Amazon S3. Use o Amazon QuickSight com o Amazon S3 como fonte para gerar um gráfico interativo com base em tipos de instância.
A resposta correta é B: O arquiteto de soluções pode usar o AWS Cost Explorer para gerar um gráfico comparando os últimos 2 meses de custos do EC2. Esta ferramenta permite que o usuário visualize e analise dados de custo e uso, e pode ser usada para identificar a causa raiz deo dimensionamento vertical. Além disso, o arquiteto de soluções pode usar métricas do CloudWatch para monitorar o uso de recursos das instâncias específicas em questão e identificar qualquer comportamento anormal. Esta solução teria sobrecarga operacional mínima, pois utiliza serviços AWS integrados que não exigem configuração ou manutenção adicional.