NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Preparação para o exame DAS-C01: Materiais de estudo e testes de simulação, AWS Certified Data Analytics | SPOTO

Prepare-se eficazmente para o Exame DAS-C01 com os Materiais de Estudo e Testes Simulados da SPOTO' para o AWS Certified Data Analytics - Specialty (DAS-C01). Esta certificação é crucial para profissionais em funções de análise de dados, afirmando sua capacidade de utilizar os serviços da AWS para projetar, proteger e gerenciar soluções de análise. Os nossos materiais de estudo abrangem uma série de tópicos, incluindo perguntas e respostas para o exame, testes práticos, exemplos de perguntas e lixeiras para o exame, garantindo uma compreensão completa dos conceitos-chave. Aceda a materiais de exame, respostas e um simulador de exame para cenários de prática realistas. Beneficie de perguntas de exame online e de exames de simulação para avaliar a sua preparação e melhorar o desempenho no exame. O SPOTO fornece os recursos e o suporte necessários para se destacar no exame AWS Certified Data Analytics - Specialty (DAS-C01) e avançar em sua carreira em análise de dados.

Faça outros exames online

Pergunta #1
Uma empresa que monitoriza as condições meteorológicas a partir de locais de construção remotos está a configurar uma solução para recolher dados de temperatura das duas estações meteorológicas seguintes. Estação A, que tem 10 sensores Estação B, que tem cinco sensores Estas estações meteorológicas foram colocadas por especialistas no assunto no local. Cada sensor tem uma identificação única. Os dados recolhidos de cada sensor serão recolhidos utilizando o Amazon Kinesis Data Streams. Com base no débito total de dados de entrada e de saída, um único fluxo de dados do Amazon Kinesis
A.
B.
C.
D.
E.
Ver resposta
Resposta correta: C
Pergunta #2
Uma companhia de seguros tem dados brutos em formato JSON que são enviados sem uma programação predefinida através de um fluxo de entrega Amazon Kinesis Data Firehose para um bucket Amazon S3. Um rastreador do AWS Glue está programado para ser executado a cada 8 horas para atualizar o esquema no catálogo de dados das tabelas armazenadas no bucket do S3. Os analistas de dados analisam os dados usando o Apache Spark SQL no Amazon EMR configurado com o AWS Glue Data Catalog como metastore. Os analistas de dados dizem que, ocasionalmente, os dados que recebem são obsoletos. Um engenheiro de dados
A. Crie um esquema externo com base no AWS Glue Data Catalog no cluster existente do Amazon Redshift para consultar novos dados no Amazon S3 com o Amazon Redshift Spectrum
B. Use o Amazon CloudWatch Events com a expressão rate (1 hour) para executar o rastreador do AWS Glue a cada hora
C. Usando a CLI do AWS, modifique o cronograma de execução do rastreador do AWS Glue de 8 horas para 1 minuto
D. Execute o rastreador do AWS Glue a partir de uma função do AWS Lambda acionada por uma notificação de evento S3:ObjectCreated:* no bucket do S3
Ver resposta
Resposta correta: B
Pergunta #3
Uma empresa de recursos humanos mantém um cluster Amazon Redshift de 10 nós para executar consultas de análise nos dados da empresa. O cluster do Amazon Redshift contém uma tabela de produtos e uma tabela de transações, e ambas as tabelas têm uma coluna product_sku. As tabelas têm mais de 100 GB de tamanho. A maioria das consultas é executada em ambas as tabelas. Qual estilo de distribuição a empresa deve usar para as duas tabelas para obter o desempenho ideal da consulta?
A. Um estilo de distribuição EVEN para ambas as tabelas
B. Um estilo de distribuição KEY para ambas as tabelas
C. Um estilo de distribuição ALL para a tabela de produtos e um estilo de distribuição EVEN para a tabela de transacções
D. Um estilo de distribuição EVEN para a tabela de produtos e um estilo de distribuição KEY para a tabela de transacções
Ver resposta
Resposta correta: C
Pergunta #4
Uma empresa tem uma unidade de negócio que carrega ficheiros .csv para um bucket Amazon S3. A equipa da plataforma de dados da empresa configurou um rastreador AWS Glue para fazer a descoberta e criar tabelas e esquemas. Uma tarefa do AWS Glue escreve dados processados das tabelas criadas numa base de dados do Amazon Redshift. A tarefa do AWS Glue trata do mapeamento de colunas e da criação da tabela do Amazon Redshift de forma adequada. Quando a tarefa do AWS Glue é executada novamente por qualquer motivo em um dia, registros duplicados são introduzidos na tabela do Amazon Redshift. Qual solução w
A. Modifique o trabalho do AWS Glue para copiar as linhas em uma tabela de preparação
B. Adicione comandos SQL para substituir as linhas existentes na tabela principal como postactions na classe DynamicFrameWriter
C. Carregue os dados inseridos anteriormente em um banco de dados MySQL no AWS Glue jo
D. Executar uma operação upsert no MySQL e copiar os resultados para a tabela do Amazon Redshift
E. Usar a API DataFrame dropDuplicates() do Apache Spark para eliminar duplicatas e, em seguida, gravar os dados no Amazon Redshift
F. Utilize a transformação incorporada ResolveChoice do AWS Glue para selecionar o valor mais recente da coluna
Ver resposta
Resposta correta: B
Pergunta #5
Um hospital utiliza dispositivos de sensores médicos vestíveis para recolher dados dos pacientes. O hospital está a arquitetar uma solução quase em tempo real que possa ingerir os dados de forma segura e em escala. A solução também deve ser capaz de remover as informações de saúde protegidas (PHI) do paciente dos dados de fluxo contínuo e armazenar os dados em armazenamento durável. Qual a solução que satisfaz estes requisitos com o menor custo operacional?
A. Ingerir os dados utilizando o Amazon Kinesis Data Streams, que invoca uma função AWS Lambda utilizando a Kinesis Client Library (KCL) para remover todos os PH
B. Escrever os dados no Amazon S3
C. Ingerir os dados utilizando o Amazon Kinesis Data Firehose para escrever os dados no Amazon S3
D. Ingerir os dados utilizando o Amazon Kinesis Data Streams para escrever os dados no Amazon S3
E. Ingerir os dados utilizando o Amazon Kinesis Data Firehose para escrever os dados no Amazon S3
Ver resposta
Resposta correta: A
Pergunta #6
Três equipas de analistas de dados utilizam o Apache Hive num cluster do Amazon EMR com o EMR File System (EMRFS) para consultar os dados armazenados no bucket Amazon S3 de cada equipa. O cluster EMR tem o Kerberos ativado e está configurado para autenticar utilizadores do Active Directory da empresa. Os dados são altamente sensíveis, pelo que o acesso deve ser limitado aos membros de cada equipa. Quais etapas satisfazem os requisitos de segurança?
A. Para as instâncias do Amazon EC2 do cluster EMR, crie uma função de serviço que não conceda acesso ao Amazon S3
B. Adicione as funções IAM adicionais à função EMR do cluster para a política de confiança do EC2
C. Criar um mapeamento de configuração de segurança para as funções IAM adicionais para grupos de utilizadores do Active Directory para cada equipa
D. Para as instâncias do Amazon EC2 do cluster EMR, crie uma função de serviço que não conceda acesso ao Amazon S3
E. Adicionar a função de serviço para as instâncias EC2 do cluster EMR às políticas de confiança para a função IAM adicional
F. Crie um mapeamento de configuração de segurança para as funções IAM adicionais para grupos de utilizadores do Active Directory para cada equipa
Ver resposta
Resposta correta: D
Pergunta #7
Uma empresa lançou um serviço que produz milhões de mensagens todos os dias e utiliza o Amazon Kinesis Data Streams como serviço de streaming. A empresa usa o SDK do Kinesis para gravar dados no Kinesis Data Streams. Alguns meses após o lançamento, um analista de dados descobriu que o desempenho de gravação foi significativamente reduzido. O analista de dados investigou as métricas e determinou que o Kinesis está a limitar os pedidos de escrita. O analista de dados deseja resolver esse problema sem alterações significativas na arquitetura. Qual ac
A. Aumente o período de retenção dos fluxos de dados do Kinesis para reduzir a limitação
B. Substituir o mecanismo de ingestão de dados baseado na API do Kinesis pelo Kinesis Agent
C. Aumente o número de shards no fluxo usando a API UpdateShardCount
D. Escolher chaves de partição de forma a resultar numa distribuição uniforme dos registos pelos fragmentos
E. Personalizar o código da aplicação para incluir a lógica de repetição para melhorar o desempenho
Ver resposta
Resposta correta: D
Pergunta #8
Uma empresa tem 1 milhão de documentos digitalizados armazenados como ficheiros de imagem no Amazon S3. Os documentos contêm formulários de candidatura dactilografados com informações que incluem o nome e o apelido do candidato, a data da candidatura, o tipo de candidatura e o texto da candidatura. A empresa desenvolveu um algoritmo de aprendizagem automática para extrair os valores de metadados dos documentos digitalizados. A empresa pretende permitir que os analistas de dados internos analisem e encontrem candidaturas utilizando o nome do candidato, a data da candidatura ou o tipo de candidatura
A. Para cada imagem, utilize etiquetas de objeto para adicionar os metadados
B. Utilize o Amazon S3 Select para recuperar os ficheiros com base no nome do candidato e na data de candidatura
C. Indexar os metadados e a localização Amazon S3 do ficheiro de imagem no Amazon Elasticsearch Service
D. Armazenar os metadados e a localização no Amazon S3 do ficheiro de imagem numa tabela do Amazon Redshift
E. Permitir que os analistas de dados executem consultas ad-hoc na tabela
F. Armazene os metadados e a localização no Amazon S3 dos ficheiros de imagem num ficheiro Apache Parquet no Amazon S3 e defina uma tabela no AWS Glue Data Catalo G
Ver resposta
Resposta correta: C

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: