NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Impulsione a sua preparação para a certificação com os testes de simulação DAS-C01, AWS Certified Data Analytics | SPOTO

Você deseja se tornar um AWS Certified Data Analytics Specialist? A preparação para o exame DAS-C01 pode ser uma tarefa assustadora, mas com os recursos certos, pode aumentar significativamente as suas hipóteses de sucesso. Os testes simulados DAS-C01 do SPOTO foram concebidos para lhe proporcionar uma experiência de preparação para o exame abrangente e eficaz. Estes testes de simulação oferecem uma vasta gama de perguntas e respostas, meticulosamente elaboradas para refletir o exame de certificação DAS-C01 real. Ao praticar com estas perguntas de amostra, ganhará exposição aos vários tópicos abordados no exame, incluindo recolha de dados, armazenamento de dados, processamento de dados, modelação de dados, visualização de dados e segurança de dados. Os testes simulados DAS-C01 da SPOTO são mais do que apenas lixeiras; são materiais de exame cuidadosamente selecionados que simulam o ambiente real do exame. Com explicações detalhadas para cada pergunta, não só aprenderá as respostas correctas, como também obterá uma compreensão mais profunda dos conceitos subjacentes.
Faça outros exames online

Pergunta #1
Uma empresa está a planear criar um lago de dados no Amazon S3. A empresa pretende criar um armazenamento em camadas com base em padrões de acesso e objectivos de custos. A solução deve incluir suporte para ligações JDBC de clientes antigos, gestão de metadados que permita a federação para controlo de acesso e ETL baseado em lotes utilizando PySpark e Scala. A gestão operacional deve ser limitada. Que combinação de componentes pode atender a esses requisitos? (Escolha três.)
A. Catálogo de dados AWS Glue para gestão de metadados
B. Amazon EMR com Apache Spark para ETL
C. AWS Glue para ETL baseado em Scala
D. Amazon EMR com Apache Hive para clientes JDBC
E. Amazon Athena para consulta de dados no Amazon S3 utilizando controladores JDBC
F. Amazon EMR com Apache Hive, utilizando um Amazon RDS com metastore com suporte compatível com MySQL
Ver resposta
Resposta correta: A
Pergunta #2
Uma empresa desenvolveu várias tarefas AWS Glue para validar e transformar os seus dados do Amazon S3 e carregá-los no Amazon RDS para MySQL em lotes, uma vez por dia. Os trabalhos de ETL lêem os dados do S3 usando um DynamicFrame. Atualmente, os programadores de ETL estão a enfrentar desafios no processamento apenas dos dados incrementais em cada execução, uma vez que a tarefa AWS Glue processa todos os dados de entrada do S3 em cada execução. Qual abordagem permitiria que os desenvolvedores resolvessem o problema com o mínimo de esforço de codificação?
A. Faça com que as tarefas ETL leiam os dados do Amazon S3 usando um DataFrame
B. Habilitar marcadores de trabalho nos trabalhos do AWS Glue
C. Criar lógica personalizada nas tarefas ETL para controlar os objectos S3 processados
D. Fazer com que as tarefas ETL eliminem os objectos ou dados processados do Amazon S3 após cada execução
Ver resposta
Resposta correta: B
Pergunta #3
Uma vez por mês, uma empresa recebe um ficheiro .csv de 100 MB comprimido com gzip. O ficheiro contém 50.000 registos de listagem de propriedades e está armazenado no Amazon S3 Glacier. A empresa precisa que seu analista de dados consulte um subconjunto dos dados para um fornecedor específico. Qual é a solução mais económica?
A. Carregue os dados no Amazon S3 e consulte-os com o Amazon S3 Select
B. Consultar os dados do Amazon S3 Glacier diretamente com o Amazon Glacier Select
C. Carregar os dados para o Amazon S3 e consultá-los com o Amazon Athena
D. Carregar os dados para o Amazon S3 e consultá-los com o Amazon Redshift Spectrum
Ver resposta
Resposta correta: B
Pergunta #4
Uma empresa utiliza o Amazon Redshift para as suas necessidades de armazenamento de dados. As tarefas ETL são executadas todas as noites para carregar dados, aplicar regras comerciais e criar tabelas agregadas para relatórios. As equipas de análise de dados, ciência de dados e business intelligence da empresa utilizam o armazém de dados durante o horário comercial normal. A gestão da carga de trabalho está definida como automática e existem filas de espera separadas para cada equipa com a prioridade definida como NORMAL. Recentemente, ocorreu um pico súbito de consultas de leitura da equipa de análise de dados, pelo menos duas vezes por dia,
A. Aumente a prioridade de consulta para HIGHEST para a fila de análise de dados
B. Configure a fila de análise de dados para permitir o escalonamento de simultaneidade
C. Criar uma regra de monitorização de consultas para adicionar mais capacidade de cluster para a fila de análise de dados quando as consultas estão à espera de recursos
D. Use o salto de fila de consulta de gerenciamento de carga de trabalho para encaminhar a consulta para a próxima fila correspondente
Ver resposta
Resposta correta: C
Pergunta #5
Uma empresa de publicidade tem um lago de dados que é construído no Amazon S3. A empresa usa o AWS Glue Data Catalog para manter os metadados. O lago de dados tem vários anos e seu tamanho geral aumentou exponencialmente à medida que fontes de dados e metadados adicionais são armazenados no lago de dados. O administrador do lago de dados pretende implementar um mecanismo para simplificar a gestão de permissões entre o Amazon S3 e o catálogo de dados para os manter sincronizados
A. Definir as permissões do AWS Identity and Access Management (1AM) para o AWS Glue
B. Utilização das autorizações AWS Lake Formation
C. Gerir as permissões do AWS Glue e do S3 utilizando as políticas de compartimento
D. Utilizar pools de utilizadores do Amazon Cognito
Ver resposta
Resposta correta: AC
Pergunta #6
Uma aplicação de streaming está a ler dados do Amazon Kinesis Data Streams e a escrever imediatamente os dados num bucket do Amazon S3 a cada 10 segundos. O aplicativo está lendo dados de centenas de shards. O intervalo de lote não pode ser alterado devido a um requisito separado. Os dados estão a ser acedidos pelo Amazon Athena. Os utilizadores estão a ver uma degradação no desempenho da consulta à medida que o tempo avança. Que ação pode ajudar a melhorar o desempenho da consulta?
A. Fundir os ficheiros no Amazon S3 para formar ficheiros maiores
B. Aumentar o número de shards no Kinesis Data Streams
C. Adicionar mais memória e capacidade de CPU à aplicação de streaming
D. Escrever os ficheiros em vários buckets S3
Ver resposta
Resposta correta: D
Pergunta #7
Uma empresa de retalho online utiliza o Amazon Redshift para armazenar o histórico de transacções de vendas. A empresa é obrigada a encriptar os dados em repouso nos clusters para cumprir a Norma de Segurança de Dados da Indústria de Cartões de Pagamento (PCI DSS). Uma política de governação empresarial exige a gestão de chaves de encriptação utilizando um módulo de segurança de hardware (HSM) no local. Qual solução atende a esses requisitos?
A. Criar e gerenciar chaves de criptografia usando o AWS CloudHSM Classi
B. Inicie um cluster do Amazon Redshift em um VPC com a opção de usar o CloudHSM Classic para gerenciamento de chaves
C. Criar uma VPC e estabelecer uma ligação VPN entre a VPC e a rede local
D. Criar uma ligação HSM e um certificado de cliente para o HS no local
E. Inicie um cluster na VPC com a opção de usar o HSM local para armazenar chaves
F. Crie uma conexão HSM e um certificado de cliente para o HS local G
Ver resposta
Resposta correta: A
Pergunta #8
Uma companhia aérea tem vindo a recolher métricas sobre as actividades de voo para análise. Uma prova de conceito recentemente concluída demonstra como a empresa fornece informações aos analistas de dados para melhorar a pontualidade das partidas. A prova de conceito utilizou objectos no Amazon S3, que continham as métricas em formato .csv, e utilizou o Amazon Athena para consultar os dados. À medida que a quantidade de dados aumenta, o analista de dados pretende otimizar a solução de armazenamento para melhorar o desempenho da consulta. Quais opções o analista de dados deve usar para im
A. Adicione uma cadeia de caracteres aleatória ao início das chaves no S3 para obter mais taxa de transferência entre partições
B. Use um bucket S3 na mesma conta que o Athena
C. Comprimir os objectos para reduzir a transferência de dados I/O
D. Use um bucket S3 na mesma região que o Athena
E. Pré-processar os dados
F. Pré-processar os dados
Ver resposta
Resposta correta: BC
Pergunta #9
Uma empresa de retalho online está a migrar o seu sistema de relatórios para o AWS. O sistema antigo da empresa executa o processamento de dados em transacções online utilizando uma série complexa de consultas Apache Hive aninhadas. Os dados transaccionais são exportados do sistema online para o sistema de relatórios várias vezes por dia. Os esquemas nos ficheiros são estáveis entre actualizações. Um analista de dados deseja migrar rapidamente o processamento de dados para o AWS, portanto, qualquer alteração de código deve ser minimizada. Para manter os custos de armazenamento baixos, o analista de dados decide armazenar t
A. Crie um catálogo de dados do AWS Glue para gerenciar o metadado do Hive
B. Criar um rastreador AWS Glue no Amazon S3 que é executado quando os dados são actualizados para garantir que as alterações de dados são actualizadas
C. Crie um cluster do Amazon EMR e use os metadados no Catálogo de dados do AWS Glue para executar consultas de processamento do Hive no Amazon EMR
D. Criar um catálogo de dados do AWS Glue para gerenciar o metadado do Hive
E. Criar um cluster do Amazon EMR com habilitação de visualização consistente
F. Execute a sincronização do emrfs antes de cada etapa de análise para garantir que as alterações de dados sejam atualizadas G
Ver resposta
Resposta correta: BD
Pergunta #10
Uma empresa de transportes utiliza sensores IoT ligados a camiões para recolher dados de veículos para a sua frota global de entregas. Atualmente, a empresa envia os dados dos sensores em pequenos ficheiros .csv para o Amazon S3. Os arquivos são então carregados em um cluster Amazon Redshift de 10 nós com duas fatias por nó e consultados usando o Amazon Athena e o Amazon Redshift. A empresa deseja otimizar os arquivos para reduzir o custo de consulta e também melhorar a velocidade de carregamento de dados no cluster do Amazon Redshift. Qual solução atende a t
A. Use o AWS Glue para converter todos os arquivos de
B. COPIAR o ficheiro para o Amazon Redshift e consultar o ficheiro com o Athena a partir do Amazon S3
C. Utilizar o Amazon EMR para converter cada ficheiro
D. COPIAR os ficheiros para o Amazon Redshift e consultar o ficheiro com o Athena a partir do Amazon S3
E. Use o AWS Glue para converter os arquivos de
F. COPIAR o ficheiro para o Amazon Redshift e consultar o ficheiro com o Athena a partir do Amazon S3
Ver resposta
Resposta correta: B
Pergunta #11
Uma empresa está a criar um serviço para monitorizar frotas de veículos. A empresa recolhe dados IoT de um dispositivo em cada veículo e carrega os dados para o Amazon Redshift quase em tempo real. Os proprietários de frotas carregam ficheiros .csv que contêm dados de referência dos veículos para o Amazon S3 em alturas diferentes ao longo do dia. Um processo noturno carrega os dados de referência do veículo do Amazon S3 para o Amazon Redshift. A empresa junta os dados IoT do dispositivo e os dados de referência do veículo para gerar relatórios e painéis de controlo. Proprietário da frota
A. Utilize as notificações de eventos S3 para acionar uma função AWS Lambda para copiar os dados de referência do veículo para o Amazon Redshift imediatamente quando os dados de referência são carregados para o Amazon S3
B. Criar e agendar um trabalho do AWS Glue Spark para ser executado a cada 5 minutos
C. A tarefa insere dados de referência no Amazon Redshift
D. Enviar dados de referência para o fluxo de dados do Amazon Kinesis
E. Configurar o fluxo de dados do Kinesis para carregar diretamente os dados de referência no Amazon Redshift em tempo real
F. Enviar os dados de referência para uma sequência de entrega do Amazon Kinesis Data Firehose G
Ver resposta
Resposta correta: D
Pergunta #12
Uma empresa analisa dados históricos e precisa de consultar dados que estão armazenados no Amazon S3. Novos dados são gerados diariamente como ficheiros .csv que são armazenados no Amazon S3. Os analistas da empresa estão a utilizar o Amazon Athena para realizar consultas SQL num subconjunto recente dos dados globais. A quantidade de dados que é ingerida no Amazon S3 aumentou substancialmente ao longo do tempo, e a latência da consulta também aumentou. Quais soluções a empresa poderia implementar para melhorar o desempenho da consulta? (Escolha duas.)
A. Use o MySQL Workbench em uma instância do Amazon EC2 e conecte-se ao Athena usando um conetor JDBC ou ODBC
B. Execute a consulta a partir do MySQL Workbench em vez de executar diretamente o Athena
C. Utilizar o Athena para extrair os dados e armazená-los diariamente no formato Apache Parquet
D. Consultar os dados extraídos
E. Executar uma tarefa ETL diária do AWS Glue para converter os ficheiros de dados em Apache Parquet e particionar o ficheiro convertido
F. Crie um rastreador periódico do AWS Glue para rastrear automaticamente os dados particionados diariamente
Ver resposta
Resposta correta: B
Pergunta #13
Uma empresa de análise de media consome um fluxo de publicações nas redes sociais. Os posts são enviados para um fluxo de dados do Amazon Kinesis particionado em user_id. Uma função AWS Lambda recupera os registos e valida o conteúdo antes de carregar os posts para um cluster do Amazon Elasticsearch. O processo de validação precisa de receber os posts de um determinado utilizador pela ordem em que foram recebidos. Um analista de dados reparou que, durante as horas de ponta, os posts da plataforma de redes sociais demoram mais de uma hora a aparecer no cluster do Elasticsear
A. Migrar o processo de validação para o Amazon Kinesis Data Firehose
B. Migrar os consumidores Lambda de iteradores de fluxo de dados padrão para um consumidor de fluxo HTTP/2
C. Aumentar o número de fragmentos no fluxo
D. Configure várias funções Lambda para processar o fluxo
Ver resposta
Resposta correta: D

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: