NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Prática de exame DAS-C01 facilitada: os mais recentes exames simulados, AWS Certified Data Analytics | SPOTO

A obtenção da certificação AWS Certified Data Analytics - Specialty é um marco para os profissionais de dados, validando sua experiência em aproveitar os serviços da AWS para soluções orientadas por dados. No entanto, o exame DAS-C01 pode ser um desafio, e uma preparação adequada é crucial. Os exames simulados mais recentes da SPOTO oferecem uma forma abrangente e conveniente de obter a certificação DAS-C01. Estes exames simulados são meticulosamente concebidos para refletir o formato do exame real, proporcionando-lhe uma experiência de teste realista. Com uma vasta coleção de perguntas e respostas do exame, ganhará exposição a uma vasta gama de tópicos abrangidos pela certificação, incluindo recolha de dados, processamento, modelação, visualização e segurança. Os exames de simulação da SPOTO são mais do que simples lixeiras; são materiais de exame cuidadosamente elaborados que simulam cenários do mundo real, ajudando-o a aplicar os seus conhecimentos em contextos práticos. A prática regular com estas perguntas de exame online e perguntas de amostra não só reforçará a sua compreensão, como também aumentará a sua confiança e as suas capacidades de gestão do tempo. As explicações detalhadas que acompanham cada pergunta garantem que não só aprende as respostas correctas, como também adquire uma compreensão mais profunda dos conceitos subjacentes. Além disso, estes exames de simulação servem como ferramentas de preparação para o exame inestimáveis, permitindo-lhe identificar os seus pontos fortes e fracos, permitindo-lhe concentrar os seus esforços de estudo de forma eficaz.
Faça outros exames online

Pergunta #1
Uma empresa está a planear fazer uma prova de conceito para um projeto de aprendizagem automática (ML) utilizando o Amazon SageMaker com um subconjunto de dados existentes no local alojados no armazém de dados de 3 TB da empresa. Para parte do projeto, o AWS Direct Connect é estabelecido e testado. Para preparar os dados para o ML, os analistas de dados estão a efetuar a curadoria de dados. Os analistas de dados pretendem executar vários passos, incluindo mapeamento, eliminação de campos nulos, resolução de escolhas e divisão de campos. A empresa precisa da solução mais rápida para curar
A. Ingerir dados no Amazon S3 usando o AWS DataSync e usar scrips do Apache Spark para curar os dados em um cluster do Amazon EMR
B. Armazenar os dados seleccionados no Amazon S3 para processamento de ML
C. Criar tarefas ETL personalizadas no local para selecionar os dados
D. Utilizar o AWS DMS para ingerir dados no Amazon S3 para processamento de ML
E. Ingerir dados no Amazon S3 usando o AWS DM
F. Utilize o AWS Glue para efetuar a curadoria de dados e armazenar os dados no Amazon S3 para processamento de ML
Ver resposta
Resposta correta: B
Pergunta #2
Uma empresa pretende fornecer aos seus analistas de dados um acesso ininterrupto aos dados no seu cluster Amazon Redshift. Todos os dados são transmitidos para um bucket do Amazon S3 com o Amazon Kinesis Data Firehose. Um trabalho do AWS Glue programado para ser executado a cada 5 minutos emite um comando COPY para mover os dados para o Amazon Redshift. A quantidade de dados entregues é irregular ao longo do dia, e a utilização do cluster é alta durante determinados períodos. O comando COPY geralmente é concluído em alguns segundos. No entanto, quando a carga spi
A. Aumentar o número de recuperações
B. Diminuir o valor do tempo limite
C. Aumentar a simultaneidade dos trabalhos
D. Manter o número de tentativas em 0
E. Aumentar a simultaneidade dos trabalhos
F. Manter o número de tentativas em 0
Ver resposta
Resposta correta: B
Pergunta #3
Um especialista em análise de dados está a configurar a gestão de cargas de trabalho em modo manual para um ambiente Amazon Redshift. O especialista em análise de dados está a definir regras de monitorização de consultas para gerir o desempenho do sistema e a experiência do utilizador de um cluster do Amazon Redshift. Que elementos devem incluir cada regra de monitorização de consultas?
A. Um nome de regra exclusivo, uma condição de tempo de execução de consulta e uma função AWS Lambda para reenviar quaisquer consultas falhadas nas horas de folga
B. Um nome de fila, um nome de regra único e uma condição de paragem baseada em predicados
C. Um nome de regra único, um a três predicados e uma ação
D. Um nome de carga de trabalho, um nome de regra exclusivo e uma condição baseada no tempo de execução da consulta
Ver resposta
Resposta correta: A
Pergunta #4
Uma empresa tem um departamento de marketing e um departamento financeiro. Os departamentos estão a armazenar dados no Amazon S3 nas suas próprias contas AWS em Organizações AWS. Ambos os departamentos usam o AWS Lake Formation para catalogar e proteger seus dados. Os departamentos têm algumas bases de dados e tabelas que partilham nomes comuns. O departamento de marketing precisa de aceder de forma segura a algumas tabelas do departamento financeiro. Quais são as duas etapas necessárias para esse processo? (Escolha duas.)
A. O departamento financeiro concede permissões de Formação de Lago para as tabelas da conta externa do departamento de marketing
B. O departamento financeiro cria permissões de IAM entre contas para a tabela da função do departamento de marketing
C. O departamento de marketing cria uma função IAM que tem permissões para as tabelas Formação do lago
Ver resposta
Resposta correta: C
Pergunta #5
Uma empresa tem uma aplicação que utiliza a biblioteca de clientes do Amazon Kinesis (KCL) para ler registos de um fluxo de dados do Kinesis. Após uma campanha de marketing bem-sucedida, o aplicativo teve um aumento significativo no uso. Como resultado, um analista de dados teve que dividir alguns fragmentos no fluxo de dados. Quando os fragmentos foram divididos, a aplicação começou a lançar esporadicamente um erro ExpiredIteratorExceptions. O que o analista de dados deve fazer para resolver isso?
A. Aumente o número de threads que processam os registos de fluxo
B. Aumentar as unidades de capacidade de leitura provisionadas atribuídas à tabela Amazon DynamoDB do fluxo
C. Aumentar as unidades de capacidade de gravação provisionadas atribuídas à tabela do Amazon DynamoDB do fluxo
D. Diminuir as unidades de capacidade de gravação provisionadas atribuídas à tabela Amazon DynamoDB do fluxo
Ver resposta
Resposta correta: A
Pergunta #6
Uma empresa de tecnologia está a criar um dashboard que visualiza e analisa dados sensíveis ao tempo. Os dados serão recebidos através do Amazon Kinesis Data Firehose com o intervalo de manteiga definido para 60 segundos. O painel deve suportar dados quase em tempo real. Qual solução de visualização atenderá a esses requisitos?
A. Seleccione o Amazon Elasticsearch Service (Amazon ES) como ponto final para o Kinesis Data Firehos
B. Configurar um dashboard do Kibana utilizando os dados no Amazon ES com as análises e visualizações pretendidas
C. Selecionar o Amazon S3 como ponto final para o Kinesis Data Firehos
D. Ler os dados num bloco de notas Jupyter do Amazon SageMaker e efetuar as análises e visualizações pretendidas
E. Selecionar o Amazon Redshift como ponto final para o Kinesis Data Firehos
F. Ligar o Amazon QuickSight with SPICE ao Amazon Redshift para criar as análises e visualizações pretendidas
Ver resposta
Resposta correta: A

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: