NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Obtenha sucesso com as perguntas práticas do Microsoft DP-203, Microsoft Azure Data Engineering Associate | SPOTO

Prepare-se para triunfar no exame de certificação DP-203 com a nossa extensa coleção de perguntas práticas concebidas especificamente para o seu sucesso. A nossa plataforma oferece uma variedade de recursos, incluindo testes práticos, acesso gratuito a testes, perguntas de exames online, exemplos de perguntas, lixeiras de exames e exames simulados. Ao utilizar os nossos testes práticos mais recentes, pode melhorar a sua preparação para o exame e aumentar as suas hipóteses de passar no exame de certificação com distinção. Após a conclusão bem-sucedida do exame DP-203, os candidatos receberão a estimada certificação Microsoft Certified: Azure Data Engineer Associate. Este exame avalia a proficiência em quatro áreas principais: conceção e implementação de armazenamento de dados, desenvolvimento de soluções de processamento de dados, implementação de medidas de segurança de dados e otimização da eficiência do armazenamento e processamento de dados. Confie nos nossos materiais de exame para o guiar no sentido de alcançar os seus objectivos de certificação.
Faça outros exames online

Pergunta #1
Você tem um pool de SQL dedicado do Azure Synapse Analytics. Precisa de garantir que os dados no pool são encriptados em repouso. A solução NÃO deve exigir a modificação das aplicações que consultam os dados. O que é que deve fazer?
A. Ativar a encriptação em repouso para a conta Azure Data Lake Storage Gen2
B. Ativar a Encriptação de Dados Transparente (TDE) para a piscina
C. Utilize uma chave gerida pelo cliente para ativar a encriptação dupla para o espaço de trabalho do Azure Synapse
D. Criar um cofre de chaves do Azure na subscrição do Azure para conceder acesso ao conjunto
Ver resposta
Resposta correta: A
Pergunta #2
Está a planear implementar um contentor do Azure Data Lake Storage Gen2 que conterá ficheiros CSV. O tamanho dos ficheiros irá variar com base no número de eventos que ocorrem por hora. Os tamanhos dos ficheiros variam entre 4,KB e 5 GB. É necessário garantir que os ficheiros armazenados no contentor são optimizados para o processamento em lote. O que deve fazer?
A. Comprimir os ficheiros
B. Fundir os ficheiros
C. Converter os ficheiros em JSON
D. Converter os ficheiros para Avro
Ver resposta
Resposta correta: A
Pergunta #3
Nota: Esta pergunta faz parte de uma série de perguntas que apresentam o mesmo cenário. Cada pergunta da série contém uma solução única que pode atingir os objectivos indicados. Alguns conjuntos de perguntas podem ter mais do que uma solução correcta, enquanto outros podem não ter uma solução correcta. Depois de responder a uma pergunta neste cenário, NÃO poderá voltar a ela. Como resultado, estas perguntas não aparecerão no ecrã de revisão. Tem uma conta de Armazenamento do Azure que contém 100 GB de ficheiros. Os ficheiros co
A. Sim
B. Não
Ver resposta
Resposta correta: ADF
Pergunta #4
Você tem uma instância do Azure Factory denominada DF1 que contém um pipeline denominado PL1. PL1 inclui um acionador de janela de tombamento. Você cria cinco clones de PL1. Você configura cada pipeline clone para usar uma fonte de dados diferente. É necessário garantir que as programações de execução do pipeline clone correspondam à programação de execução de PL1. O que você deve fazer?
A. Adicione um novo acionador a cada pipeline clonado
B. Associe cada pipeline clonado a um acionador existente
C. Criar uma dependência de acionamento da janela de tombamento para o acionamento de PL1
D. Modifique a configuração Concurrency de cada pipeline
Ver resposta
Resposta correta: A
Pergunta #5
Você tem uma assinatura do Azure que contém um servidor Microsoft SQL lógico chamado Server1. O Server1 hospeda um pool dedicado de SQL do Azure Synapse Analytics chamado Pool1. É necessário recomendar uma solução de TDE (Transparent Data Encryption) para o Server1. A solução deve atender aos seguintes requisitos: Controlar a utilização de chaves de encriptação. Manter o acesso de aplicações cliente ao Pool1 no caso de uma interrupção do datacenter do Azure que afecte a disponibilidade das chaves de encriptação. O que deve incluir na recomendação
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: BC
Pergunta #6
Está a desenvolver uma solução que irá transmitir para o Azure Stream Analytics. A solução terá dados de streaming e dados de referência. Que tipo de entrada deve ser usado para os dados de referência?
A. Azure Cosmos DB
B. Armazenamento de Blobs do Azure
C. Hub IoT do Azure
D. Hubs de Eventos do Azure
Ver resposta
Resposta correta: A
Pergunta #7
Está a conceber uma tabela do Azure Databricks. A tabela ingerirá uma média de 20 milhões de eventos de streaming por dia. Você precisa manter os eventos na tabela para uso em trabalhos de pipeline de carregamento incremental no Azure Databricks. A solução deve minimizar os custos de armazenamento e os tempos de carregamento incremental. O que deve incluir na solução?
A. Partição por campos DateTime
B. Afundar no armazenamento do Azure Queue
C. Incluir uma coluna de marca de água
D. Utilizar um formato JSON para o armazenamento de dados físicos
Ver resposta
Resposta correta: B
Pergunta #8
Você tem uma assinatura do Azure que contém os seguintes recursos: * Um locatário do Azure Active Directory (Azure AD) que contém um grupo de segurança chamado Group1. * Um pool de SQL do Azure Synapse Analytics chamado Pool1. Você precisa controlar o acesso do Group1 a colunas e linhas específicas em uma tabela no Pool1. Quais comandos Transact-SQL você deve usar? Para responder, selecione as opções apropriadas na área de resposta. NOTA: Cada uma das opções apropriadas na área de respostas.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: A
Pergunta #9
Está a conceber uma tabela de dimensão para um armazém de dados. A tabela acompanhará o valor dos atributos da dimensão ao longo do tempo e preservará o histórico dos dados, adicionando novas linhas à medida que os dados forem alterados. Que tipo de dimensão de alteração lenta (SCD) deve ser utilizado?
A. Tipo 0
B. Tipo 1
C. Tipo 2
D. Tipo 3
Ver resposta
Resposta correta: B
Pergunta #10
Você está projetando uma tabela de fatos chamada FactPurchase em um pool de SQL dedicado do Azure Synapse Analytics. A tabela contém compras de fornecedores para uma loja de retalho. A FactPurchase conterá as seguintes colunas. FactPurchase terá 1 milhão de linhas de dados adicionadas diariamente e conterá três anos de dados. As consultas Transact-SQL semelhantes à seguinte consulta serão executadas diariamente. SELECT SupplierKey, StockItemKey, COUNT(*) FROM FactPurchase WHERE DateKey >= 20210101 AND DateKey <= 20210131 GROUP By Supplie
A. round-robin
B. replicado
C. distribuído por hash em DateKey
D. distribuído por hash no PurchaseKey
Ver resposta
Resposta correta: A
Pergunta #11
Você tem uma conta de Armazenamento do Azure e um data warehouse no Azure Synapse Analytics na região Sul do Reino Unido. Você precisa copiar dados de blob da conta de armazenamento para o data warehouse usando o Azure Data Factory. A solução deve atender aos seguintes requisitos: Garantir que os dados permaneçam na região UK South em todos os momentos. Minimizar o esforço administrativo. Que tipo de tempo de execução de integração deve ser usado?
A. Tempo de execução da integração do Azure
B. Tempo de execução da integração Azure-SSIS
C. Tempo de execução da integração auto-hospedada
Ver resposta
Resposta correta: C
Pergunta #12
Tem uma conta Azure Data Lake Storage Gen2 para toda a empresa. O data lake é acessível apenas por meio de uma rede virtual do Azure chamada VNET1. Você está criando um pool SQL no Azure Synapse que usará dados do data lake. A sua empresa tem uma equipa de vendas. Todos os membros da equipa de vendas estão num grupo do Azure Active Directory chamado Sales. Os controlos POSIX são utilizados para atribuir o acesso do grupo Vendas aos ficheiros no lago de dados. Você planeja carregar dados para o pool SQL a cada hora. Você precisa garantir que o
A. Adicione a identidade gerida ao grupo Vendas
B. Utilizar a identidade gerida como credenciais para o processo de carregamento de dados
C. Criar uma assinatura de acesso partilhado (SAS)
D. Adicione a sua conta do Azure Active Directory (Azure AD) ao grupo Vendas
E. Utilizar a assinatura de acesso restrito (SAS) como credencial para o processo de carregamento de dados
F. Criar uma identidade gerida
Ver resposta
Resposta correta: BCF
Pergunta #13
Está a conceber uma solução que copiará ficheiros Parquet armazenados numa conta de armazenamento Blob do Azure para uma conta Azure Data Lake Storage Gen2. Os dados serão carregados diariamente para o lago de dados e usarão uma estrutura de pastas de {Year}/{Month}/{Day}/. É necessário projetar um carregamento diário de dados do Azure Data Factory para minimizar a transferência de dados entre as duas contas. Quais são as duas configurações que devem ser incluídas no design? Cada resposta correcta apresenta parte da solução. NOTA: Cada seleção correcta vale um p
A. Elimine os ficheiros no destino antes de carregar novos dados
B. Filtrar pela data da última modificação dos ficheiros de origem
C. Eliminar os ficheiros de origem depois de serem copiados
D. Especificar um padrão de nomenclatura de ficheiros para o destino
Ver resposta
Resposta correta: A
Pergunta #14
Está a conceber a estrutura de pastas para um contentor Azure Data Lake Storage Gen2. Os utilizadores consultarão os dados utilizando uma variedade de serviços, incluindo Azure Databricks e pools de SQL sem servidor do Azure Synapse Analytics. Os dados serão protegidos por área temática. A maioria das consultas incluirá dados do ano ou do mês atual. Que estrutura de pastas deve recomendar para suportar consultas rápidas e segurança de pastas simplificada?
A. /{SubjectArea}/{DataSource}/{DD}/{MM}/{YYYYY}/{FileData}_{YYYYY}_{MM}_{DD}
B. /{DD}/{MM}/{YYYY}/{SubjectArea}/{DataSource}/{FileData}_{YYYY}_{MM}_{DD}
C. /{YYYY}/{MM}/{DD}/{SubjectArea}/{DataSource}/{FileData}_{YYYY}_{MM}_{DD}
D. /{SubjectArea}/{DataSource}/{YYYY}/{MM}/{DD}/{FileData}_{YYYY}_{MM}_{DD}
Ver resposta
Resposta correta: D
Pergunta #15
Você precisa criar uma tabela particionada em um pool de SQL dedicado do Azure Synapse Analytics. Como você deve concluir a instrução Transact-SQL? Para responder, arraste os valores apropriados para os destinos corretos. Cada valor pode ser utilizado uma vez, mais do que uma vez ou não ser utilizado de todo. Pode ser necessário arrastar a barra de divisão entre os painéis ou deslocar-se para ver o conteúdo. NOTA: Cada seleção correta vale um ponto.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: A
Pergunta #16
Nota: Esta pergunta faz parte de uma série de perguntas que apresentam o mesmo cenário. Cada pergunta da série contém uma solução única que pode atingir os objectivos indicados. Alguns conjuntos de perguntas podem ter mais do que uma solução correcta, enquanto outros podem não ter uma solução correcta. Depois de responder a uma pergunta desta secção, NÃO poderá voltar a ela. Como resultado, estas perguntas não aparecerão no ecrã de revisão. Está a conceber uma solução do Azure Stream Analytics que irá analisar o Twitter
A. Sim
B. Não
Ver resposta
Resposta correta: B
Pergunta #17
Você precisa criar um pipeline do Azure Data Factory para processar dados para os três departamentos a seguir na sua empresa: Comércio eletrónico, retalho e grossista. A solução deve garantir que os dados também possam ser processados para toda a empresa. Como deve completar o script de fluxo de dados do Data Factory? Para responder, arraste os valores apropriados para os alvos correctos. Cada valor pode ser usado uma vez, mais de uma vez ou não ser usado. Pode ser necessário arrastar a barra de divisão entre os painéis ou rolar para visualizar o conteúdo. NOTA: Cada valor correto é
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: B
Pergunta #18
Está a criar um trabalho do Azure Stream Analytics para identificar quanto tempo um utilizador passa a interagir com uma funcionalidade numa página Web. O trabalho recebe eventos com base nas acções do utilizador na página Web. Cada linha de dados representa um evento. Cada evento tem um tipo de "início" ou "fim". É necessário calcular a duração entre os eventos de início e de fim. Como deve completar a consulta? Para responder, seleccione as opções adequadas na área de resposta. NOTA: Cada seleção correcta vale um ponto.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: A
Pergunta #19
Você tem um pool de SQL dedicado do Azure Synapse Analytics que contém uma tabela chamada Table1. Tem ficheiros que são ingeridos e carregados num contentor Azure Data Lake Storage Gen2 chamado contentor1. Planeia inserir dados dos ficheiros no Table1 e no contentor do Azure Data Lake Storage Gen2 denominado contentor1. Planeia inserir dados dos ficheiros na Table1 e transformar os dados. Cada linha de dados nos ficheiros produzirá uma linha na camada de serviço da Table1. Você precisa garantir que quando os dados de origem
A. Sim
B. Não
Ver resposta
Resposta correta: A
Pergunta #20
Tem um pool de SQL no Azure Synapse. Um utilizador relata que as consultas no pool demoram mais tempo do que o esperado a serem concluídas. Você precisa adicionar monitoramento ao armazenamento subjacente para ajudar a diagnosticar o problema. Quais são as duas métricas que deve monitorizar? Cada resposta correta apresenta parte da solução. NOTA: Cada seleção correta vale um ponto.
A. Percentagem de utilização da cache
B. Limite de DWU
C. Tamanho do armazenamento de instantâneos
D. Consultas activas
E. Percentagem de acerto da cache
Ver resposta
Resposta correta: B

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: