NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

2024 Questões de exame e testes práticos DAS-C01 atualizados, AWS Certified Data Analytics | SPOTO

Alcance o sucesso no 2024 Updated DAS-C01 Exam Questions & Testes práticos para AWS Certified Data Analytics - Specialty (DAS-C01) com SPOTO. Essa certificação é essencial para profissionais em funções de análise de dados, validando sua proficiência em aproveitar os serviços da AWS para projetar, proteger e gerenciar soluções de análise. Os nossos recursos abrangentes incluem perguntas e respostas para o exame, testes práticos e dumps para o exame, garantindo uma preparação completa. Obtenha acesso a exemplos de perguntas, materiais de exame e respostas para melhorar a sua prática e preparação para o exame. Utilize o nosso simulador de exame para cenários de teste realistas e avalie a sua preparação com perguntas de exame online e exames simulados. O SPOTO fornece as ferramentas e o suporte necessários para se destacar no exame AWS Certified Data Analytics - Specialty (DAS-C01) e avançar sua carreira em análise de dados

Faça outros exames online

Pergunta #1
Uma empresa armazena os seus dados de vendas e marketing que incluem informações de identificação pessoal (PII) no Amazon S3. A empresa permite que os seus analistas iniciem o seu próprio cluster Amazon EMR e executem relatórios analíticos com os dados. Para cumprir os requisitos de conformidade, a empresa tem de garantir que os dados não estão acessíveis ao público durante todo este processo. Um engenheiro de dados protegeu o Amazon S3, mas tem de garantir que os clusters EMR individuais criados pelos analistas não são expostos à Internet pública. Que solução deve
A. Criar uma configuração de segurança EMR e assegurar que a configuração de segurança é associada aos clusters EMR quando estes são criados
B. Verifique regularmente o grupo de segurança dos clusters EMR para garantir que ele não permite o tráfego de entrada do IPv4 0
C. Ativar a definição de bloqueio de acesso público para o Amazon EMR ao nível da conta antes de ser criado qualquer cluster EMR
D. Use o AWS WAF para bloquear o acesso público da Internet aos clusters EMR em toda a linha
Ver resposta
Resposta correta: C
Pergunta #2
Uma empresa bancária está atualmente a utilizar o Amazon Redshift para dados sensíveis. Uma auditoria descobriu que o cluster atual não está encriptado. A conformidade exige que uma base de dados com dados sensíveis seja encriptada utilizando um módulo de segurança de hardware (HSM) com chaves geridas pelo cliente
A. Criar um novo cluster Amazon Redshift encriptado por HSM e migrar os dados para o novo cluster
B. Modifique o grupo de parâmetros DB com as definições de encriptação adequadas e, em seguida, reinicie o cluster
C. Ativar a encriptação HSM no Amazon Redshift utilizando a linha de comandos
D. Modifique o cluster do Amazon Redshift a partir da consola e active a encriptação utilizando a opção HSM
Ver resposta
Resposta correta: A
Pergunta #3
Uma empresa aloja uma aplicação Apache Flink no local. A aplicação processa dados de vários clusters do Apache Kafka. A empresa migrou algumas dessas fontes para o AWS e agora quer migrar a aplicação Flink. A empresa deve garantir que os dados que residem em bancos de dados dentro da VPC não atravessem a Internet
A. Implementar o Flink no Amazon EC2 dentro da VPC da empresa Criar clusters do Amazon Managed Streaming for Apache Kafka (Amazon MSK) na VPC para recolher dados provenientes de aplicações e bases de dados dentro da VPC Utilizar o Amazon Kinesis Data Streams para recolher dados provenientes da Internet pública Configurar o Flink para ter fontes do Kinesis Data Streams, do Amazon MSK e de quaisquer clusters Kafka locais utilizando o AWS Client VPN ou o AWS Direct Connect
B. Implementar o Flink no Amazon EC2 dentro do VPC da empresa Utilizar o Amazon Kinesis Data Streams para recolher dados provenientes de aplicações e bases de dados dentro do VPC e da Internet pública Configurar o Flink para ter fontes do Kinesis Data Streams e de quaisquer clusters Kafka no local, utilizando o AWS Client VPN ou o AWS Direct Connect
C. Crie uma aplicação Amazon Kinesis Data Analytics carregando o ficheiro Flink jar compilado Utilize o Amazon Kinesis Data Streams para recolher dados provenientes de aplicações e bases de dados dentro da VPC e da Internet pública Configure a aplicação Kinesis Data Analytics para ter fontes do Kinesis Data Streams e de quaisquer clusters Kafka no local utilizando o AWS Client VPN ou o AWS Direct Connect
D. Criar uma aplicação Amazon Kinesis Data Analytics carregando o ficheiro Flink jar compilado Criar clusters Amazon Managed Streaming for Apache Kafka (Amazon MSK) no VPC da empresa para recolher dados provenientes de aplicações e bases de dados no VPC Utilizar fluxos de dados Amazon Kinesis para recolher dados provenientes da Internet pública Configurar a aplicação Kinesis Data Analytics para ter fontes do fluxo de dados Kinesis
E. Amazon MSK e quaisquer clusters Kafka no local, utilizando o AWS Client VPN ou o AWS Direct Connect
Ver resposta
Resposta correta: D
Pergunta #4
Um banco deseja migrar um data warehouse Teradata para o AWS Cloud O banco precisa de uma solução para ler grandes quantidades de dados e requer o melhor desempenho possível. A solução também deve manter a separação entre armazenamento e computação Qual solução atende a esses requisitos?
A. Utilizar o Amazon Athena para consultar os dados no Amazon S3
B. Utilizar o Amazon Redshift com nós de computação densos para consultar os dados no armazenamento gerido pelo Amazon Redshift
C. Utilizar o Amazon Redshift com nós RA3 para consultar os dados no armazenamento gerido pelo Amazon Redshift
D. Utilizar o PrestoDB no Amazon EMR para consultar os dados no Amazon S3
Ver resposta
Resposta correta: B
Pergunta #5
Uma empresa de eletricidade está a implementar milhares de contadores inteligentes para obter actualizações em tempo real sobre o consumo de energia. A empresa está a utilizar o Amazon Kinesis Data Streams para recolher os fluxos de dados dos contadores inteligentes. A aplicação do consumidor utiliza a Kinesis Client Library (KCL) para recuperar os dados do fluxo. A empresa tem apenas uma aplicação de consumo. A empresa observa uma média de 1 segundo de latência desde o momento em que um registo é escrito no fluxo até ao momento em que o registo é lido por uma aplicação de consumo.
A. Usar fan-out aprimorado no Kinesis Data Streams
B. Aumentar o número de shards para o fluxo de dados do Kinesis
C. Reduzir o atraso de propagação substituindo as predefinições do KCL
D. Desenvolver consumidores utilizando o Amazon Kinesis Data Firehose
Ver resposta
Resposta correta: C
Pergunta #6
Uma empresa de software aloja uma aplicação no AWS e são lançadas novas funcionalidades semanalmente. Como parte do processo de teste da aplicação, deve ser desenvolvida uma solução que analise os registos de cada instância do Amazon EC2 para garantir que a aplicação está a funcionar como esperado após cada implementação. A solução de recolha e análise deve estar altamente disponível com a capacidade de apresentar novas informações com atrasos mínimos. Qual método a empresa deve usar para coletar e analisar os logs?
A. Ativar a monitorização detalhada no Amazon EC2, utilizar o agente Amazon CloudWatch para armazenar registos no Amazon S3 e utilizar o Amazon Athena para uma análise de registos rápida e interactiva
B. Utilizar o agente Amazon Kinesis Producer Library (KPL) no Amazon EC2 para recolher e enviar dados para o Kinesis Data Streams para enviar os dados para o Amazon Elasticsearch Service e visualizá-los utilizando o Amazon QuickSight
C. Utilizar o agente Amazon Kinesis Producer Library (KPL) no Amazon EC2 para recolher e enviar dados para o Kinesis Data Firehose para continuar a enviar os dados para o Amazon Elasticsearch Service e o Kibana
D. Utilizar as subscrições do Amazon CloudWatch para obter acesso a um feed de registos em tempo real e fazer com que os registos sejam entregues ao Amazon Kinesis Data Streams para enviar os dados para o Amazon Elasticsearch Service e o Kibana
Ver resposta
Resposta correta: C
Pergunta #7
Uma empresa desenvolveu várias tarefas AWS Glue para validar e transformar os seus dados do Amazon S3 e carregá-los no Amazon RDS para MySQL em lotes uma vez por dia. Os trabalhos de ETL lêem os dados do S3 usando um DynamicFrame. Atualmente, os programadores de ETL estão a ter dificuldades em processar apenas os dados incrementais em cada execução, uma vez que a tarefa AWS Glue processa todos os dados de entrada do S3 em cada execução
A. Faça com que as tarefas ETL leiam os dados do Amazon S3 usando um DataFrame
B. Habilitar marcadores de trabalho nos trabalhos do AWS Glue
C. Criar lógica personalizada nas tarefas ETL para controlar os objectos S3 processados
D. Fazer com que as tarefas ETL eliminem os objectos ou dados processados do Amazon S3 após cada execução
Ver resposta
Resposta correta: D
Pergunta #8
Um hospital utiliza dispositivos de sensores médicos vestíveis para recolher dados dos pacientes. O hospital está a arquitetar uma solução quase em tempo real que possa ingerir os dados de forma segura e em escala. A solução também deve ser capaz de remover as informações de saúde protegidas (PHI) dos pacientes dos dados de fluxo contínuo e armazenar os dados em armazenamento durável
A. Ingerir os dados utilizando o Amazon Kinesis Data Streams, que invoca uma função AWS Lambda utilizando a Kinesis Client Library (KCL) para remover todas as PHI
B. Ingerir os dados utilizando o Amazon Kinesis Data Firehose para escrever os dados no Amazon S3
C. Ingerir os dados utilizando o Amazon Kinesis Data Streams para escrever os dados no Amazon S3
D. Ingerir os dados utilizando o Amazon Kinesis Data Firehose para escrever os dados no Amazon S3
Ver resposta
Resposta correta: C
Pergunta #9
Uma empresa lançou um serviço que produz milhões de mensagens todos os dias e usa o Amazon Kinesis Data Streams como serviço de streaming. A empresa usa o Kinesis SDK para gravar dados no Kinesis Data Streams. Alguns meses após o lançamento, um analista de dados descobriu que o desempenho de gravação foi significativamente reduzido. O analista de dados investigou as métricas e determinou que o Kinesis está a estrangular os pedidos de escrita. O analista de dados deseja resolver esse problema sem alterações significativas na arquitetura. Quais ações
A. Aumente o período de retenção dos fluxos de dados do Kinesis para reduzir a limitação
B. Substituir o mecanismo de ingestão de dados baseado na API do Kinesis pelo Kinesis Agent
C. Aumente o número de shards no fluxo usando a API UpdateShardCount
D. Escolher chaves de partição de forma a resultar numa distribuição uniforme dos registos pelos fragmentos
E. Personalizar o código da aplicação para incluir a lógica de repetição para melhorar o desempenho
Ver resposta
Resposta correta: AC
Pergunta #10
Uma empresa precisa de armazenar objectos que contenham dados de registo em formato JSON. Os objectos são gerados por oito aplicações executadas no AWS. Seis das aplicações geram um total de 500 KiB de dados por segundo, e duas das aplicações podem gerar até 2 MiB de dados por segundo.Um engenheiro de dados pretende implementar uma solução escalável para capturar e armazenar dados de utilização num bucket Amazon S3. Os objectos de dados de utilização têm de ser reformatados, convertidos para o formato .csv e depois comprimidos antes de serem armazenados no Amazon S3
A. Configure um fluxo de entrega do Amazon Kinesis Data Firehose para cada aplicação
B. Configure um fluxo de dados do Amazon Kinesis com um fragmento por aplicativo
C. Configure um fluxo de dados do Amazon Kinesis para cada aplicação
D. Armazenar objetos de dados de uso em uma tabela do Amazon DynamoDB
Ver resposta
Resposta correta: B
Pergunta #11
Uma empresa tem uma unidade de negócios que carrega arquivos .csv para um bucket do Amazon S3. A equipa da plataforma de dados da empresa configurou um rastreador AWS Glue para fazer a descoberta e criar tabelas e esquemas. Um trabalho do AWS Glue grava dados processados das tabelas criadas em um banco de dados do Amazon Redshift. A tarefa do AWS Glue trata do mapeamento de colunas e da criação da tabela do AmazonRedshift de forma adequada. Quando a tarefa AWS Glue é executada novamente por qualquer motivo em um dia, registros duplicados são introduzidos na tabela do Amazon Redshift
A. Modifique o trabalho do AWS Glue para copiar as linhas em uma tabela de preparação
B. Carregue os dados inseridos anteriormente em um banco de dados MySQL no trabalho do AWS Glue
C. Use a API DataFrame dropDuplicates() do Apache Spark para eliminar duplicatas e, em seguida, gravar os dados no Amazon Redshift
D. Use a transformação incorporada do AWS Glue ResolveChoice para selecionar o valor mais recente da coluna
Ver resposta
Resposta correta: B
Pergunta #12
Uma empresa pretende utilizar um algoritmo automático de aprendizagem automática de máquinas (ML) Random Cut Forest (RCF) para visualizar cenários complexos do mundo real, tais como a deteção de sazonalidade e tendências, a exclusão de outers e a imputação de valores em falta. A equipa que trabalha neste projeto não é técnica e procura uma solução pronta a utilizar que exija o MENOS possível de despesas de gestão
A. Utilize uma transformação AWS Glue ML para criar uma previsão e, em seguida, utilize o Amazon QuickSight para visualizar os dados
B. Utilize o Amazon QuickSight para visualizar os dados e, em seguida, utilize a previsão baseada em ML para prever as principais métricas empresariais
C. Utilize um AMI de ML pré-construído do AWS Marketplace para criar previsões e, em seguida, utilize o Amazon QuickSight para visualizar os dados
D. Utilizar campos calculados para criar uma nova previsão e, em seguida, utilizar o Amazon QuickSight para visualizar os dados
Ver resposta
Resposta correta: A
Pergunta #13
Uma empresa tem várias instâncias do Amazon EC2 atrás de um Application Load Balancer (ALB) A empresa pretende que a sua equipa de Infra-estruturas de TI analise os endereços IP que entram no ALB da empresa O ALB está configurado para armazenar registos de acesso no Amazon S3 Os registos de acesso criam cerca de 1 TB de dados todos os dias e o acesso aos dados será pouco frequente A empresa necessita de uma solução que seja escalável, rentável e com requisitos de manutenção mínimos Qual é a solução que cumpre estes requisitos?
A. Copiar os dados para o Amazon Redshift e consultar os dados
B. Utilizar o Amazon EMR e o Apache Hive para consultar os dados do S3
C. Utilizar o Amazon Athena para consultar os dados S3
D. Utilizar o Amazon Redshift Spectrum para consultar os dados S3
Ver resposta
Resposta correta: D
Pergunta #14
Uma empresa tem um cluster encriptado do Amazon Redshift. A empresa activou recentemente os registos de auditoria do Amazon Redshift e precisa de garantir que os registos de auditoria também são encriptados em repouso. Os registos são conservados durante 1 ano. O auditor consulta os registos uma vez por mês. Qual é a forma MAIS económica de cumprir estes requisitos?
A. Encriptar o bucket do Amazon S3 onde os registos estão armazenados utilizando o AWS Key Management Service (AWS KMS)
B. Consultar os dados conforme necessário
C. Desativar a encriptação no cluster do Amazon Redshift, configurar o registo de auditoria e encriptar o cluster do Amazon Redshift
D. Utilizar o Amazon Redshift Spectrum para consultar os dados conforme necessário
E. Ativar a encriptação predefinida no bucket do Amazon S3 onde os registos são armazenados, utilizando a encriptação AES-256
F. Copiar os dados para o cluster Amazon Redshift a partir do Amazon S3 numa base diária G
Ver resposta
Resposta correta: B
Pergunta #15
Uma empresa de serviços financeiros precisa de agregar dados diários de transacções de acções das bolsas num armazenamento de dados. A empresa exige que os dados sejam transmitidos diretamente para o armazenamento de dados, mas também permite ocasionalmente que os dados sejam modificados utilizando SQL. A solução deve integrar consultas analíticas complexas, executadas com latência mínima. A solução deve fornecer um painel de controlo de business intelligence que permita a visualização dos principais contribuintes para as anomalias nos preços das acções. Que solução satisfaz os requisitos da empresa?
A. Utilizar o Amazon Kinesis Data Firehose para transmitir dados para o Amazon S3
B. Utilizar o Amazon Kinesis Data Streams para transmitir dados para o Amazon Redshif
C. Utilizar o Amazon Redshift como fonte de dados para o Amazon QuickSight para criar um painel de controlo de business intelligence
D. Utilizar o Amazon Kinesis Data Firehose para transmitir dados para o Amazon Redshif
E. Utilizar o Amazon Redshift como fonte de dados para o Amazon QuickSight para criar um painel de controlo de business intelligence
F. Utilizar o Amazon Kinesis Data Streams para transmitir dados para o Amazon S3
Ver resposta
Resposta correta: CD
Pergunta #16
Uma empresa está a construir um lago de dados e precisa de ingerir dados de uma base de dados relacional que tem dados de séries temporais. A empresa quer usar serviços gerenciados para realizar isso. O processo precisa ser agendado diariamente e trazer dados incrementais apenas da fonte para o Amazon S3. Qual é a abordagem MAIS econômica para atender a esses requisitos?
A. Use o AWS Glue para se conectar à fonte de dados usando drivers JDBC
B. Use o AWS Glue para se conectar à fonte de dados usando drivers JDBC
C. Use o AWS Glue para se conectar à fonte de dados usando drivers JDBC e ingerir todo o conjunto de dados
D. Use o AWS Glue para se conectar à fonte de dados usando drivers JDBC e ingerir os dados completos
Ver resposta
Resposta correta: B
Pergunta #17
Uma grande universidade adoptou o objetivo estratégico de aumentar a diversidade entre os estudantes inscritos. A equipa de análise de dados está a criar um painel de controlo com visualizações de dados para permitir que as partes interessadas vejam as tendências históricas. Todo o acesso tem de ser autenticado utilizando o Microsoft Active Directory. Todos os dados em trânsito e em repouso devem ser encriptados. Qual solução atende a esses requisitos?
A. Amazon QuickSight Standard edition configurado para executar a federação de identidade usando SAML 2
B. Amazon QuickSight Enterprise edition configurado para realizar a federação de identidade utilizando SAML 2
C. O Amazon QuckSight Standard edition usa o AD Connector para autenticar usando o Active Directory
D. O Amazon QuickSight Enterprise edition usa o AD Connector para autenticar usando o Active Directory
Ver resposta
Resposta correta: A
Pergunta #18
Uma empresa utiliza o Amazon Redshift como armazém de dados. Uma nova tabela inclui algumas colunas que contêm dados sensíveis e algumas colunas que contêm dados não sensíveis. Os dados na tabela serão eventualmente referenciados por várias consultas existentes que são executadas muitas vezes por dia. Um especialista em análise de dados deve garantir que apenas os membros da equipa de auditoria da empresa possam ler as colunas que contêm dados sensíveis. Todos os outros utilizadores devem ter acesso apenas de leitura às colunas que contêm dados não sensíveis
A. Conceder à equipa de auditoria permissão para ler a partir da tabela
B. Conceder a todos os utilizadores permissões só de leitura para as colunas que contêm dados não sensíveis
C. Conceder a todos os utilizadores permissões só de leitura para as colunas que contêm dados não sensíveis
D. Conceder à equipa de auditoria permissão para ler a tabela
Ver resposta
Resposta correta: D
Pergunta #19
Uma empresa de dados de mercado agrega fontes de dados externas para criar uma visão detalhada do consumo de produtos em diferentes países. A empresa pretende vender estes dados a entidades externas através de uma subscrição. Para atingir este objetivo, a empresa tem de disponibilizar os seus dados de forma segura a entidades externas que também sejam utilizadores do AWS. O que a empresa deve fazer para atender a esses requisitos com o MENOR custo operacional?
A. Armazenar os dados no Amazon S3
B. Armazenar os dados no Amazon S3
C. Carregar os dados para o AWS Data Exchange para armazenamento
D. Partilhar os dados utilizando URLs pré-assinados para segurança
E. Carregar os dados para o AWS Data Exchange para armazenamento
F. Partilhe os dados utilizando o assistente de partilha do AWS Data Exchange
Ver resposta
Resposta correta: A
Pergunta #20
Uma equipa de cientistas de dados planeia analisar dados de tendências de mercado para a nova estratégia de investimento da sua empresa. Os dados de tendências provêm de cinco fontes de dados diferentes em grandes volumes. A equipa pretende utilizar o Amazon Kinesis para apoiar o seu caso de utilização. A equipa utiliza consultas do tipo SQL para analisar tendências e pretende enviar notificações com base em determinados padrões significativos nas tendências. Além disso, os cientistas de dados pretendem guardar os dados no Amazon S3 para arquivamento e reprocessamento histórico, e utilizar o AWS managed
A. Publicar dados num fluxo de dados do Kinesis
B. Implementar uma aplicação personalizada utilizando a Kinesis Client Library (KCL) para analisar tendências e enviar notificações utilizando o Amazon SN
C. Configure o Kinesis Data Firehose no fluxo de dados do Kinesis para persistir os dados em um bucket S3
D. Publicar dados num fluxo de dados do Kinesis
E. Implantar o Kinesis Data Analytic no fluxo para analisar tendências e configurar uma função AWS Lambda como uma saída para enviar notificações usando o Amazon SN
F. Configure o Kinesis Data Firehose no fluxo de dados do Kinesis para persistir os dados em um bucket S3
Ver resposta
Resposta correta: C
Pergunta #21
Uma empresa de fabrico tem vindo a recolher dados de sensores IoT de dispositivos no seu chão de fábrica há um ano e está a armazenar os dados no Amazon Redshift para análise diária. Um analista de dados determinou que, com uma taxa de ingestão esperada de cerca de 2 TB por dia, o cluster será subdimensionado em menos de 4 meses. É necessária uma solução de longo prazo. O analista de dados indicou que a maioria das consultas faz referência apenas aos 13 meses mais recentes de dados, mas também há relatórios trimestrais que precisam consultar toda a geração de dados
A. Criar uma tarefa diária no AWS Glue para DESCARREGAR registos com mais de 13 meses para o Amazon S3 e eliminar esses registos do Amazon Redshift
B. Tirar um instantâneo do cluster do Amazon Redshift
C. Executar uma instrução CREATE TABLE AS SELECT (CTAS) para mover registos com mais de 13 meses para dados particionados trimestralmente no Amazon Redshift Spectrum com suporte do Amazon S3
D. Descarregue todas as tabelas no Amazon Redshift para um bucket do Amazon S3 usando o S3 Intelligent-Tiering
Ver resposta
Resposta correta: B
Pergunta #22
Um especialista em análise de dados está a criar um pipeline de ingestão ETL automatizado utilizando o AWS Glue para ingerir ficheiros comprimidos que foram carregados para um bucket Amazon S3. O pipeline de ingestão deve suportar o processamento de dados incremental. Qual recurso do AWS Glue o especialista em análise de dados deve usar para atender a esse requisito?
A. Fluxos de trabalho
B. Accionadores
C. Marcadores de emprego
D. Classificadores
Ver resposta
Resposta correta: D

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: