NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

2024 Preparação para o exame DAS-C01: Testes práticos e materiais de estudo, AWS Certified Data Analytics | SPOTO

A preparação para o exame 2024 DAS-C01: Practice Tests & Study Materials for AWS Certified Data Analytics - Specialty (DAS-C01) é crucial para profissionais em funções de análise de dados. Essa certificação verifica a experiência em aproveitar os serviços da AWS para projetar, criar, proteger e gerenciar soluções de análise para extrair insights acionáveis dos dados. Os nossos materiais de estudo abrangentes incluem perguntas e respostas para o exame, testes práticos, exemplos de perguntas e lixeiras para o exame, garantindo uma preparação completa. Com foco na prática e preparação para o exame, os nossos recursos incluem materiais e respostas para o exame, juntamente com um simulador de exame para cenários de teste realistas. Aceda a questões de exame online e beneficie de exames de simulação para avaliar a sua preparação. Confie no SPOTO para obter estratégias eficazes de preparação para o exame, adaptadas para se destacar no exame AWS Certified Data Analytics - Specialty (DAS-C01)

Faça outros exames online

Pergunta #1
Uma empresa utiliza instâncias do Amazon EC2 para receber ficheiros de fornecedores externos ao longo do dia. No final de cada dia, as instâncias EC2 combinam os arquivos em um único arquivo, executam a compactação gzip e carregam o arquivo único em um bucket do Amazon S3. O tamanho total de todos os ficheiros é de aproximadamente 100 GB por dia. Quando os arquivos são carregados para o Amazon S3, um trabalho do AWS Batch executa um comando COPY para carregar os arquivos em um cluster do Amazon Redshift. Qual solução MAIS acelerará o processo COPY?
A. Carregue os ficheiros individuais para o Amazon S3
B. ividir os ficheiros de modo a que o número de ficheiros seja igual a um múltiplo do número de fatias no cluster Redshift
C. ividir os ficheiros de modo a que cada ficheiro utilize 50% do armazenamento livre em cada nó de computação no cluster Redshift
D. plique a fragmentação dividindo os arquivos de modo que as colunas DISTKEY com os mesmos valores vão para o mesmo arquivo
Ver resposta
Resposta correta: B
Pergunta #2
Uma empresa utiliza o Amazon Connect para gerir o seu centro de contacto. A empresa utiliza o Salesforce para gerir os seus dados de gestão das relações com os clientes (CRM). A empresa tem de criar um pipeline para ingerir dados do Amazon Connect e do Salesforce num lago de dados construído no Amazon S3. Qual solução atenderá a esse requisito com o MENOR custo operacional?
A. Utilizar o Amazon Kinesis Data Streams para ingerir os dados do Amazon Connect
B. Usar o Amazon Kinesis Data Firehose para ingerir os dados do Amazon Connect
C. Utilizar o Amazon Kinesis Data Firehose para ingerir os dados do Amazon Connect
D. Utilizar o Amazon AppFlow para ingerir os dados do Amazon Connect
Ver resposta
Resposta correta: B
Pergunta #3
Uma empresa quer usar um lago de dados hospedado no Amazon S3 para fornecer serviços de análise de dados históricos. O lago de dados consiste em 800 tabelas, mas espera-se que cresça para milhares de tabelas. Mais de 50 departamentos utilizam as tabelas, e cada departamento tem centenas de utilizadores. Diferentes departamentos precisam de acesso a tabelas e colunas específicas. Qual solução atenderá a esses requisitos com o MENOR custo operacional?
A. Crie uma função 1AM para cada departamento
B. rie um cluster do Amazon Redshift para cada departamento
C. rie uma função 1AM para cada departamento
D. riar um cluster do Amazon EMR para cada departamento
E. icheiros S3 relevantes
Ver resposta
Resposta correta: C
Pergunta #4
Uma empresa de retalho de sapatilhas sediada nos EUA lançou o seu sítio Web global. Todos os dados de transação são armazenados no Amazon RDS e os dados de transação históricos com curadoria são armazenados no Amazon Redshift na região us-east-1. A equipa de Business Intelligence (BI) pretende melhorar a experiência do utilizador fornecendo um painel de controlo para tendências de sapatilhas. A equipa de BI decide utilizar o Amazon QuickSight para apresentar os dashboards do site. Durante o desenvolvimento, uma equipa no Japão aprovisionou o Amazon QuickSight na região nordeste-1. A equipa está a ter dificuldades
A. No console do Amazon Redshift, escolha configurar snapshots entre regiões e defina a região de destino como ap-northeast-1
B. Criar um ponto de extremidade VPC da VPC do Amazon QuickSight para a VPC do Amazon Redshift para que o Amazon QuickSight possa aceder aos dados do Amazon Redshift
C. Criar uma cadeia de ligação de ponto final do Amazon Redshift com informações da Região na cadeia e utilizar esta cadeia de ligação no Amazon QuickSight para ligar ao Amazon Redshift
D. Crie um novo grupo de segurança para o Amazon Redshift em us-east-1 com uma regra de entrada que autoriza o acesso a partir do intervalo de endereços IP apropriado para os servidores do Amazon QuickSight em ap-northeast-1
Ver resposta
Resposta correta: D
Pergunta #5
Uma empresa pretende melhorar a satisfação dos utilizadores do seu sistema de casa inteligente, adicionando mais funcionalidades ao seu motor de recomendação. Cada sensor envia de forma assíncrona os seus dados JSON aninhados para o Amazon Kinesis Data Streams utilizando a Kinesis Producer Library (KPL) em Java. As estatísticas de um conjunto de sensores avariados mostraram que, quando um sensor está a funcionar mal, os seus dados registados nem sempre são enviados para a nuvem. A empresa precisa de uma solução que ofereça uma análise quase em tempo real dos dados dos sensores mais actualizados. O
A. Defina a propriedade RecordMaxBufferedTime do KPL como "1" para desativar o armazenamento em buffer no lado do sensor
B. Enviar os dados enriquecidos para um conjunto de fluxos de dados do Kinesis e ativar a funcionalidade de transformação de dados para aplanar o ficheiro JSON
C. Instanciar um cluster Amazon Redshift de armazenamento denso e usá-lo como destino para o fluxo de entrega do Kinesis Data Firehose
D. Atualizar o código dos sensores para utilizar a chamada PutRecord/PutRecords da API Kinesis Data Streams com o AWS SDK para Jav
E. Utilizar o Kinesis Data Analytics para enriquecer os dados com base num script SQL de deteção de anomalias desenvolvido pela empresa
F. Direcionar a saída da aplicação KDA para um fluxo de entrega do Kinesis Data Firehose, ativar a funcionalidade de transformação de dados para aplanar o ficheiro JSON e definir o destino do Kinesis Data Firehose para um cluster do Amazon Elasticsearch Service
Ver resposta
Resposta correta: A
Pergunta #6
Uma empresa de fabrico tem vindo a recolher dados de sensores IoT de dispositivos no seu chão de fábrica há um ano e está a armazenar os dados no Amazon Redshift para análise diária. Um analista de dados determinou que, com uma taxa de ingestão esperada de cerca de 2 TB por dia, o cluster será subdimensionado em menos de 4 meses. É necessária uma solução a longo prazo. O analista de dados indicou que a maioria das consultas apenas faz referência aos 13 meses de dados mais recentes, mas também há relatórios trimestrais que precisam de consultar todos os dados g
A. Criar uma tarefa diária no AWS Glue para DESCARREGAR registos com mais de 13 meses para o Amazon S3 e eliminar esses registos do Amazon Redshif
B. Criar uma tabela externa no Amazon Redshift para apontar para a localização S3
C. Utilize o Amazon Redshift Spectrum para se juntar a dados com mais de 13 meses
D. Tirar um instantâneo do cluster do Amazon Redshift
E. Restaurar o cluster para um novo cluster utilizando nós de armazenamento densos com capacidade de armazenamento adicional
F. Executar uma instrução CREATE TABLE AS SELECT (CTAS) para mover registos com mais de 13 meses para dados particionados trimestralmente no Amazon Redshift Spectrum com suporte do Amazon S3
Ver resposta
Resposta correta: ACE
Pergunta #7
Uma empresa tem 10-15 ficheiros .csv não comprimidos no Amazon S3. A empresa está a avaliar o Amazon Athena como um motor de consulta único. A empresa pretende transformar os dados para otimizar o tempo de execução da consulta e os custos de armazenamento. Qual a opção de formato e compressão de dados que satisfaz estes requisitos?
A. CSV comprimido com zip
B. JSON comprimido com bzip2
C. Apache Parquet comprimido com Snappy
D. Apache Avro comprimido com LZO
Ver resposta
Resposta correta: B
Pergunta #8
Uma empresa está a criar uma solução analítica que inclui o Amazon S3 como armazenamento de data lake e o Amazon Redshift para armazenamento de dados. A empresa pretende utilizar o Amazon Redshift Spectrum para consultar os dados que estão armazenados no Amazon S3. Que passos deve a empresa seguir para melhorar o desempenho quando utiliza o Amazon Redshift Spectrum para consultar os ficheiros de dados do S3? (Seleccione TRÊS ) Utilizar compressão gzip com tamanhos de ficheiro individuais de 1-5 GB
A. Utilizar um formato de ficheiro de armazenamento colunar
B. Particionar os dados com base nos predicados de consulta mais comuns
C. ividir os dados em ficheiros de tamanho KB
D. anter todos os ficheiros com aproximadamente o mesmo tamanho
E. Utilizar formatos de ficheiro que não sejam divisíveis
Ver resposta
Resposta correta: BCD
Pergunta #9
Uma organização governamental central está a recolher eventos de várias aplicações internas utilizando o Amazon Managed Streaming for Apache Kafka (Amazon MSK). A organização configurou um tópico Kafka separado para cada aplicativo para separar os dados. Por motivos de segurança, o cluster do Kafka foi configurado para permitir apenas dados criptografados por TLS e criptografa os dados em repouso. Uma atualização recente do aplicativo mostrou que um dos aplicativos foi configurado incorretamente, resultando na gravação de dados em um tópico do Kafka que
A. Crie um grupo de segurança Amazon EC2 diferente para cada aplicação
B. Instale o Kafka Connect em cada instância de aplicação e configure cada instância do Kafka Connect para escrever apenas num tópico específico
C. Use ACLs do Kafka e configure permissões de leitura e gravação para cada tópico
D. Criar um grupo de segurança Amazon EC2 diferente para cada aplicação
Ver resposta
Resposta correta: B
Pergunta #10
Uma empresa de jogos móveis pretende capturar dados da sua aplicação de jogos e disponibilizar os dados para análise imediata. O tamanho do registo de dados será de aproximadamente 20 KB. A empresa está preocupada em obter uma taxa de transferência óptima de cada dispositivo. Além disso, a empresa quer desenvolver uma aplicação de processamento de fluxo de dados com taxa de transferência dedicada para cada consumidor
A. Faça com que a aplicação chame a API PutRecords para enviar dados para o Amazon Kinesis Data Streams
B. Faça com que o aplicativo chame a API PutRecordBatch para enviar dados para o Amazon Kinesis Data Firehose
C. Fazer com que a aplicação utilize a biblioteca de produtores do Amazon Kinesis (KPL) para enviar dados para o Kinesis Data Firehose
D. Faça com que o aplicativo chame a API PutRecords para enviar dados para o Amazon Kinesis Data Streams
Ver resposta
Resposta correta: D
Pergunta #11
Um especialista em análise de dados está criando um pipeline de ingestão de ETL automatizado usando o AWS Glue para ingerir arquivos compactados que foram carregados em um bucket do Amazon S3. O pipeline de ingestão deve suportar o processamento incremental de dados. Qual recurso do AWS Glue o especialista em análise de dados deve usar para atender a esse requisito?
A. Fluxos de trabalho
B. Accionadores
C. Marcadores de emprego
D. Classificadores
Ver resposta
Resposta correta: B
Pergunta #12
Uma empresa de retalho está a criar a sua solução de data warehouse utilizando o Amazon Redshift. Como parte desse esforço, a empresa está a carregar centenas de ficheiros para a tabela de factos criada no seu cluster Amazon Redshift. A empresa pretende que a solução atinja o maior rendimento e utilize de forma optimizada os recursos do cluster ao carregar dados para a tabela de factos da empresa. Como a empresa deve atender a esses requisitos?
A. Utilize vários comandos COPY para carregar os dados no cluster do Amazon Redshift
B. Use S3DistCp para carregar vários arquivos no HDFS (Hadoop Distributed File System) e use um HDFSconnector para ingerir os dados no cluster do Amazon Redshift
C. Use comandos LOAD iguais ao número de nós do cluster do Amazon Redshift e carregue os dados em paralelo em cada nó
D. Use um único comando COPY para carregar os dados no cluster do Amazon Redshift
Ver resposta
Resposta correta: B
Pergunta #13
Uma universidade pretende utilizar o Amazon Kinesis Data Firehose para recolher lotes formatados em JSON de leituras da qualidade da água no Amazon S3. As leituras são de 50 sensores espalhados por um lago local. Os alunos irão consultar os dados armazenados utilizando o Amazon Athena para observar as alterações numa métrica capturada ao longo do tempo, como a temperatura ou a acidez da água. O interesse pelo estudo aumentou, o que levou a universidade a reconsiderar a forma como os dados serão armazenados. Que formato de dados e opções de particionamento reduzirão MAIS significativamente o c
A. Armazenar os dados no formato Apache Avro utilizando a compressão Snappy
B. Particionar os dados por ano, mês e dia
C. Armazenar os dados no formato Apache ORC sem compressão
D. Armazenar os dados no formato Apache Parquet utilizando a compressão Snappy
E. Particionar os dados por sensor, ano, mês e dia
Ver resposta
Resposta correta: B
Pergunta #14
Uma empresa de cuidados de saúde utiliza ferramentas de dados e análise do AWS para recolher, ingerir e armazenar dados de registos de saúde electrónicos (EHR) sobre os seus pacientes. Os dados brutos do EHR são armazenados no Amazon S3 no formato JSON particionado por hora, dia e ano e são actualizados a cada hora. A empresa deseja manter o catálogo de dados e os metadados em um AWS Glue Data Catalog para poder acessar os dados usando o Amazon Athena ou o Amazon Redshift Spectrum para análise. Ao definir tabelas no Data Catalog, a empresa tem os seguintes r
A. Execute um rastreador do AWS Glue que se conecta a um ou mais armazenamentos de dados, determina as estruturas de dados e grava tabelas no Catálogo de dados
B. Use o console do AWS Glue para criar manualmente uma tabela no Catálogo de dados e agendar uma função do AWS Lambda para atualizar as partições da tabela de hora em hora
C. Use a operação CreateTable da API do AWS Glue para criar uma tabela no Data Catalo
D. Crie um rastreador do AWS Glue e especifique a tabela como a origem
E. Criar um catálogo Apache Hive no Amazon EMR com a definição do esquema da tabela no Amazon S3 e atualizar a partição da tabela com um trabalho agendado
F. Migre o catálogo Hive para o Catálogo de dados
Ver resposta
Resposta correta: C
Pergunta #15
Uma empresa de redes sociais está a utilizar ferramentas de business intelligence para analisar dados para previsão. A empresa está a utilizar o Apache Kafka para ingerir dados. A empresa pretende criar dashboards dinâmicos que incluam informações de aprendizagem automática (ML) para prever as principais tendências empresariais. Os dashboards devem mostrar dados recentes em lote que não tenham mais de 75 minutos. Várias equipas da empresa pretendem visualizar os dashboards utilizando o Amazon QuickSight com informações de ML. Qual solução atenderá a esses requisitos?
A. Substituir o Kafka pelo Amazon Managed Streaming for Apache Kafka (Amazon MSK)
B. Substituir o Kafka por um fluxo de dados do Amazon Kinesis
C. Configurar o Kafka-Kinesis-Connector para publicar os dados num fluxo de entrega do Amazon Kinesis Data Firehose
D. Configure o Kafka-Kinesis-Connector para publicar os dados em um fluxo de entrega do Amazon Kinesis Data Firehose
Ver resposta
Resposta correta: C
Pergunta #16
Uma empresa de transportes utiliza sensores IoT ligados a camiões para recolher dados de veículos para a sua frota global de entregas. Atualmente, a empresa envia os dados dos sensores em pequenos ficheiros .csv para o Amazon S3. Os arquivos são então carregados em um cluster AmazonRedshift de 10 nós com duas fatias por nó e consultados usando o Amazon Athena e o Amazon Redshift. A empresa deseja otimizar os arquivos para reduzir o custo da consulta e também melhorar a velocidade de carregamento de dados no cluster do Amazon Redshift
A. Use o AWS Glue para converter todos os arquivos de
B. Utilize o Amazon EMR para converter cada ficheiro
C. Use o AWS Glue para converter os arquivos de
D. Utilize o AWS Glue para converter os ficheiros de
Ver resposta
Resposta correta: D

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: