NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Domine os exames DAS-C01 com perguntas de exame e materiais de estudo, AWS Certified Data Analytics | SPOTO

Supere os exames DAS-C01 com as perguntas e materiais de estudo do SPOTO' para o AWS Certified Data Analytics - Specialty (DAS-C01). Essa certificação é vital para profissionais em funções de análise de dados, verificando sua experiência em aproveitar os serviços da AWS para projetar, proteger e gerenciar soluções de análise. Os nossos materiais de estudo abrangentes incluem perguntas e respostas para o exame, testes práticos e dumps para o exame, garantindo uma compreensão profunda dos conceitos-chave. Aceda a exemplos de perguntas, materiais de exame e respostas para melhorar a prática e a preparação para o exame. Utilize o nosso simulador de exame para obter cenários de teste realistas e melhorar o desempenho no exame. Beneficie-se das perguntas do exame on-line e dos exames simulados para avaliar a prontidão e se destacar no exame AWS Certified Data Analytics - Specialty (DAS-C01). O SPOTO fornece as ferramentas e o suporte necessários para ter sucesso na sua carreira de análise de dados

Faça outros exames online

Pergunta #1
Uma empresa aloja uma base de dados PostgreSQL no local que contém dados históricos. Um aplicativo herdado interno usa o banco de dados para atividades somente leitura. A equipa comercial da empresa pretende mover os dados para um lago de dados no Amazon S3 o mais rapidamente possível e enriquecer os dados para análise. A empresa configurou uma conexão AWS Direct Connect entre seu VPC e sua rede local. Um especialista em análise de dados tem de conceber uma solução que atinja os objectivos da equipa comercial com o mínimo de custos operacionais
A. Carregue os dados da base de dados PostgreSQL no local para o Amazon S3 utilizando um processo de carregamento em lote personalizado
B. Utilizar o rastreador do AWS Glue para catalogar os dados no Amazon S3
C. Utilizar o Amazon Athena para consultar os dados
D. Criar uma base de dados Amazon RDS para PostgreSQL e utilizar o AWS Database Migration Service (AWS DMS) para migrar os dados para o Amazon RD
E. Use o AWS Data Pipeline para copiar e enriquecer os dados da tabela do Amazon RDS for PostgreSQL e mover os dados para o Amazon S3
F. Configurar um rastreador do AWS Glue para usar uma conexão JDBC para catalogar os dados nos bancos de dados locais G
Ver resposta
Resposta correta: A
Pergunta #2
Um analista de dados executa um grande número de consultas de linguagem de manipulação de dados (DML) utilizando o Amazon Athena com o controlador JDBC. Recentemente, uma consulta falhou após ser executada por 30 minutos. A consulta devolveu a seguinte mensagem Java.sql.SGLException: Query timeout O analista de dados não precisa imediatamente dos resultados da consulta. No entanto, o analista de dados precisa de uma solução a longo prazo para este problema
A. Dividir a consulta em consultas mais pequenas para pesquisar subconjuntos de dados mais pequenos
B. Nas definições do Athena, ajuste o limite de tempo limite da consulta DML
C. Na consola Service Quotas, solicite um aumento para o tempo limite de consulta DML
D. Guardar as tabelas como ficheiros
Ver resposta
Resposta correta: D
Pergunta #3
Uma empresa pretende enriquecer os registos de aplicações quase em tempo real e utilizar o conjunto de dados enriquecido para análise posterior. A aplicação está a ser executada em instâncias do Amazon EC2 em várias zonas de disponibilidade e a armazenar os seus registos utilizando o Amazon CloudWatch Logs. A fonte de enriquecimento é armazenada em uma tabela do Amazon DynamoDB. Qual solução atende aos requisitos para a coleta e o enriquecimento de eventos?
A. Use uma assinatura do CloudWatch Logs para enviar os dados para o Amazon Kinesis Data Firehos
B. Use o AWS Lambda para transformar os dados no fluxo de entrega do Kinesis Data Firehose e enriquecê-los com os dados na tabela do DynamoDB
C. Configurar o Amazon S3 como o destino de entrega do Kinesis Data Firehose
D. Exportar os registos brutos para o Amazon S3 de hora a hora, utilizando o AWS CL
E. Usar rastreadores do AWS Glue para catalogar o log
F. Configurar uma ligação AWS Glue para a tabela DynamoDB e configurar uma tarefa ETL AWS Glue para enriquecer os dados G
Ver resposta
Resposta correta: A
Pergunta #4
Uma empresa bancária está atualmente a utilizar um cluster Amazon Redshift com nós de armazenamento denso (DS) para armazenar dados sensíveis. Uma auditoria descobriu que o cluster não está encriptado. Os requisitos de conformidade indicam que uma base de dados com dados confidenciais deve ser encriptada através de um módulo de segurança de hardware (HSM) com rotação automática de chaves. Que combinação de etapas é necessária para atingir a conformidade? (Escolha duas.)
A. Configure uma ligação de confiança com o HSM utilizando um certificado de cliente e servidor com rotação automática de chaves
B. Modificar o cluster com uma opção de encriptação HSM e rotação automática de chaves
C. Criar um novo cluster Amazon Redshift encriptado por HSM e migrar os dados para o novo cluster
D. Ativar o HSM com rotação de chaves através do AWS CLI
E. Ativar a encriptação Elliptic Curve Diffie-Hellman Ephemeral (ECDHE) no HSM
Ver resposta
Resposta correta: C
Pergunta #5
Uma empresa utiliza um cluster Amazon EMR com 50 nós para processar dados operacionais e disponibilizar os dados aos analistas de dados. Estas tarefas são executadas todas as noites, utilizam o Apache Hive com a estrutura Apache Jez como modelo de processamento e escrevem os resultados no Hadoop Distributed File System (HDFS). Nas últimas semanas, as tarefas estão a falhar e a produzir a seguinte mensagem de erro: "O ficheiro só pôde ser replicado para 0 nós em vez de 1"
A. Monitorizar a métrica HDFSUtilization
B. Se o valor ultrapassar um limiar definido pelo utilizador, adicionar nós de tarefa ao cluster EMR
C. Monitorizar a métrica HDFSUtilization Se o valor ultrapassar um limiar definido pelo utilizador, adicionar nós principais ao cluster EMR
D. Monitorizar a métrica MemoryAllocatedMB
E. Se o valor ultrapassar um limiar definido pelo utilizador, adicionar nós de tarefa ao cluster EMR
F. Monitorize a métrica MemoryAllocatedMB G
Ver resposta
Resposta correta: D
Pergunta #6
Uma empresa está a migrar de um cluster Apache Hadoop no local para um cluster Amazon EMR. O cluster funciona apenas durante o horário comercial. Devido a um requisito da empresa para evitar falhas intradiárias do cluster, o cluster EMR deve estar altamente disponível. Quando o cluster é encerrado no final de cada dia útil, os dados devem persistir. Quais configurações permitiriam que o cluster EMR atendesse a esses requisitos? (Escolha três.)
A. Sistema de ficheiros EMR (EMRFS) para armazenamento
B. Sistema de ficheiros distribuídos Hadoop (HDFS) para armazenamento
C. Catálogo de dados do AWS Glue como metastore para o Apache Hive
D. Base de dados MySQL no nó principal como metastore para o Apache Hive
E. Vários nós mestres numa única zona de disponibilidade
F. Vários nós principais em várias zonas de disponibilidade
Ver resposta
Resposta correta: D
Pergunta #7
Uma empresa farmacêutica global recebe resultados de testes de novos medicamentos de várias instalações de testes em todo o mundo. Os resultados são enviados em milhões de objectos JSON de 1 KB para um bucket Amazon S3 pertencente à empresa. A equipa de engenharia de dados precisa de processar esses ficheiros, convertê-los para o formato Apache Parquet e carregá-los no Amazon Redshift para que os analistas de dados possam efetuar relatórios de dashboard. A equipa de engenharia utiliza o AWS Glue para processar os objectos, o AWS Step Functions para orquestração de processos e o Amazo
A. Utilizar o AWS Lambda para agrupar os ficheiros pequenos em ficheiros maiores
B. Gravar os ficheiros de volta no Amazon S3
C. Usar a opção de agrupamento de arquivo de quadro dinâmico do AWS Glue ao ingerir o arquivo de entrada bruto
D. Processar os ficheiros e carregá-los em tabelas do Amazon Redshift
E. Utilize o comando COPY do Amazon Redshift para mover os ficheiros do Amazon S3 para as tabelas do Amazon Redshift diretamente
F. Processar os ficheiros no Amazon Redshift
Ver resposta
Resposta correta: C
Pergunta #8
Um banco está a utilizar o Amazon Managed Streaming for Apache Kafka (Amazon MSK) para preencher dados em tempo real num data lake O data lake é construído no Amazon S3 e os dados devem estar acessíveis a partir do data lake no prazo de 24 horas Microsserviços diferentes produzem mensagens para tópicos diferentes no cluster O cluster é criado com 8 TB de armazenamento Amazon Elastic Block Store (Amazon EBS) e um período de retenção de 7 dias O volume de transacções do cliente triplicou recentemente e a monitorização do disco forneceu um alerta de que o
A. Utilizar a consola do Amazon MSK para triplicar o armazenamento do corretor e reiniciar o cluster
B. Crie um alarme do Amazon CloudWatch que monitore a métrica KafkaDataLogsDiskUsed
C. Criar uma configuração personalizada do Amazon MSK Definir o parâmetro de horas de retenção do registo para 48 Atualizar o cluster com o novo ficheiro de configuração
D. Triplicar o número de consumidores para garantir que os dados sejam consumidos assim que forem adicionados a um tópico
Ver resposta
Resposta correta: C
Pergunta #9
Uma empresa de retalho está a criar a sua solução de data warehouse utilizando o Amazon Redshift. Como parte desse esforço, a empresa está a carregar centenas de ficheiros para a tabela de factos criada no seu cluster Amazon Redshift. A empresa pretende que a solução atinja o maior rendimento e utilize de forma optimizada os recursos do cluster ao carregar dados para a tabela de factos da empresa. Como a empresa deve atender a esses requisitos?
A. Utilize vários comandos COPY para carregar os dados no cluster do Amazon Redshift
B. Use S3DistCp para carregar vários arquivos no HDFS (Hadoop Distributed File System) e use um conetor HDFS para ingerir os dados no cluster do Amazon Redshift
C. Use comandos LOAD iguais ao número de nós do cluster do Amazon Redshift e carregue os dados em paralelo em cada nó
D. Use um único comando COPY para carregar os dados no cluster do Amazon Redshift
Ver resposta
Resposta correta: ACE
Pergunta #10
Uma empresa armazena ficheiros formatados em Apache Parquet no Amazon S3 A empresa utiliza um AWS Glue Data Catalog para armazenar os metadados da tabela e o Amazon Athena para consultar e analisar os dados As tabelas têm um grande número de partições As consultas só são executadas em pequenos subconjuntos de dados na tabela Um analista de dados adiciona novas partições de tempo à tabela à medida que chegam novos dados Foi pedido ao analista de dados que reduzisse o tempo de execução da consulta Qual a solução que proporcionará a MAIOR redução no tempo de execução da consulta?
A. Converta os ficheiros Parquet para o formato de ficheiro csv e, em seguida, tente consultar os dados novamente
B. Converta os ficheiros Parquet para o formato de ficheiro Apache ORC
C. Em seguida, tente consultar os dados novamente
D. Utilizar a projeção de partições para acelerar o processamento da tabela particionada
E. Adicionar mais partições para serem utilizadas sobre o tabl
F. Em seguida, filtre por duas partições e coloque todas as colunas na cláusula WHERE
Ver resposta
Resposta correta: A
Pergunta #11
Um retalhista online está a reconstruir o seu sistema de gestão de inventário e o seu sistema de reordenamento de inventário para reordenar automaticamente os produtos utilizando os fluxos de dados do Amazon Kinesis. O sistema de gerenciamento de inventário usa a Kinesis Producer Library (KPL) para publicar dados em um fluxo. O sistema de reordenação de inventário usa a Kinesis Client Library (KCL) para consumir dados do fluxo. O fluxo foi configurado para ser dimensionado conforme necessário. Pouco antes da implantação da produção, o varejista descobre que o sistema de reordenação de estoque
A. O produtor tem um tempo limite relacionado com a rede
B. O valor do fluxo para a métrica IteratorAgeMilliseconds é demasiado elevado
C. Houve uma alteração no número de shards, processadores de registos ou ambos
D. A propriedade de configuração AggregationEnabled foi definida como true
E. A propriedade de configuração max_records foi definida para um número demasiado elevado
Ver resposta
Resposta correta: C
Pergunta #12
Uma empresa de telecomunicações está à procura de uma solução de deteção de anomalias para identificar chamadas fraudulentas. A empresa utiliza atualmente o Amazon Kinesis para transmitir registos de chamadas de voz num formato JSON da sua base de dados local para o Amazon S3. O conjunto de dados existente contém registos de chamadas de voz com 200 colunas. Para detetar chamadas fraudulentas, a solução teria de analisar apenas 5 dessas colunas. A empresa está interessada numa solução económica que utilize o AWS e que exija um esforço mínimo e experiência em deteção de anomalias
A. Use um trabalho do AWS Glue para transformar os dados de JSON em Apache Parque
B. Utilize os rastreadores do AWS Glue para descobrir o esquema e criar o catálogo de dados do AWS Glue
C. Utilizar o Amazon Athena para criar uma tabela com um subconjunto de colunas
D. Utilizar o Amazon QuickSight para visualizar os dados e, em seguida, utilizar a deteção de anomalias com base na aprendizagem automática do Amazon QuickSight
E. Utilizar o Kinesis Data Firehose para detetar anomalias num fluxo de dados do Kinesis, executando consultas SQL que calculam uma pontuação de anomalia para todas as chamadas e armazenam o resultado no Amazon RD
F. Use o Amazon Athena para criar um conjunto de dados e o Amazon QuickSight para visualizar os resultados
Ver resposta
Resposta correta: B
Pergunta #13
Uma empresa pretende melhorar a satisfação dos utilizadores do seu sistema de casa inteligente, adicionando mais funcionalidades ao seu motor de recomendação. Cada sensor envia de forma assíncrona os seus dados JSON aninhados para o Amazon Kinesis Data Streams utilizando a Kinesis Producer Library (KPL) em Java. As estatísticas de um conjunto de sensores avariados mostraram que, quando um sensor está a funcionar mal, os seus dados registados nem sempre são enviados para a nuvem. A empresa precisa de uma solução que ofereça uma análise quase em tempo real dos dados dos sensores mais actualizados. O
A. Defina a propriedade RecordMaxBufferedTime do KPL como "1" para desativar o armazenamento em buffer no lado do sensor
B. Enviar os dados enriquecidos para um conjunto de fluxos de dados do Kinesis e ativar a funcionalidade de transformação de dados para aplanar o ficheiro JSON
C. Instanciar um cluster Amazon Redshift de armazenamento denso e usá-lo como destino para o fluxo de entrega do Kinesis Data Firehose
D. Atualizar o código dos sensores para utilizar a chamada PutRecord/PutRecords da API Kinesis Data Streams com o AWS SDK para Jav
E. Utilizar o Kinesis Data Analytics para enriquecer os dados com base num script SQL de deteção de anomalias desenvolvido pela empresa
F. Direcionar a saída da aplicação KDA para um fluxo de entrega do Kinesis Data Firehose, ativar a funcionalidade de transformação de dados para aplanar o ficheiro JSON e definir o destino do Kinesis Data Firehose para um cluster do Amazon Elasticsearch Service
Ver resposta
Resposta correta: B
Pergunta #14
Uma empresa com um site de streaming de vídeo pretende analisar o comportamento do utilizador para fazer recomendações aos utilizadores em tempo real Os dados de clickstream estão a ser enviados para o Amazon Kinesis Data Streams e os dados de referência estão armazenados no Amazon S3 A empresa pretende uma solução que possa utilizar cenas SQL padrão A solução também deve fornecer uma forma de consultar dados de referência pré-calculados enquanto faz recomendações Qual é a solução que satisfaz estes requisitos?
A. Use um trabalho de shell do AWS Glue Python para processar dados de entrada dos fluxos de dados do Kinesis Use a biblioteca Boto3 para gravar dados no Amazon Redshift
B. Usar o AWS Glue streaming and Scale para processar dados de entrada do Kinesis Data Streams Usar o conetor do AWS Glue para gravar dados no Amazon Redshift
C. Utilizar o Amazon Kinesis Data Analytics para criar uma tabela na aplicação com base nos dados de referência Processar dados de entrada de Kinesis Data Streams Utilizar um fluxo de dados para escrever resultados no Amazon Redshift
D. Utilizar o Amazon Kinesis Data Analytics para criar uma tabela na aplicação com base nos dados de referênciaProcessar dados de entrada dos fluxos de dados do Kinesis Utilizar um fluxo de entrega do Amazon Kinesis Data Firehose para escrever resultados no Amazon Redshift
Ver resposta
Resposta correta: B
Pergunta #15
Um analista de dados está a conceber um dashboard do Amazon QuickSight utilizando dados de vendas centralizados que residem no Amazon Redshift. O dashboard deve ser restrito para que um vendedor em Sydney, Austrália, possa ver apenas a visualização da Austrália e que um vendedor em Nova Iorque possa ver apenas os dados dos Estados Unidos (EUA). O que o analista de dados deve fazer para garantir que a segurança de dados apropriada esteja em vigor?
A. Coloque as fontes de dados para a Austrália e os EUA em conjuntos de capacidades SPICE separados
B. Configure um grupo de segurança VPC do Amazon Redshift para a Austrália e os EUA
C. Implemente o QuickSight Enterprise edition para implementar a segurança ao nível da linha (RLS) na tabela de vendas
D. Implemente o QuickSight Enterprise edition e configure grupos de segurança VPC diferentes para a Austrália e os EUA
Ver resposta
Resposta correta: BD
Pergunta #16
Uma empresa de meios de comunicação social pretende efetuar a aprendizagem automática e a análise dos dados que residem no seu lago de dados Amazon S3. Existem dois requisitos de transformação de dados que permitirão aos consumidores da empresa criar relatórios: Transformações diárias de 300 GB de dados com diferentes formatos de ficheiro que aterram no Amazon S3 a uma hora programada. Transformações únicas de terabytes de dados arquivados que residem no lago de dados S3. Qual é a combinação de soluções que satisfaz de forma económica os requisitos da empresa para tra
A. Para dados de entrada diários, use os rastreadores do AWS Glue para verificar e identificar o esquema
B. Para os dados de entrada diários, utilize o Amazon Athena para analisar e identificar o esquema
C. Para dados de entrada diários, utilize o Amazon Redshift para efetuar transformações
D. Para dados de entrada diários, use fluxos de trabalho do AWS Glue com trabalhos do AWS Glue para realizar transformações
E. Para dados arquivados, utilize o Amazon EMR para efetuar transformações de dados
F. Para dados arquivados, utilize o Amazon SageMaker para efetuar transformações de dados
Ver resposta
Resposta correta: B
Pergunta #17
Uma empresa de fabrico tem muitos dispositivos loT em diferentes instalações em todo o mundo A empresa está a utilizar o Amazon Kinesis Data Streams para recolher os dados dos dispositivos A equipa de operações da empresa começou a observar muitas excepções WnteThroughputExceeded A equipa de operações determina que o motivo é o número de registos que estão a ser escritos em determinados fragmentos Os dados contêm o ID do dispositivo, a data de captura, o tipo de medição, o valor da medição e o ID da instalação O ID da instalação é utilizado como a partição k
A. Alterar a chave de partição do ID da instalação para uma chave gerada aleatoriamente
B. Aumentar o número de fragmentos
C. Arquivar os dados do lado dos produtores
D. Alterar a chave de partição de ID da instalação para data de captura
Ver resposta
Resposta correta: A

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: