NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Microsoft DP-203 Dumps & Mock Exam para o sucesso, Microsoft Azure Data Engineering Associate | SPOTO

Obtenha sucesso no exame de certificação Microsoft DP-203 com a nossa ampla gama de materiais de estudo, incluindo dumps de exame e exames simulados. A nossa plataforma oferece testes práticos, recursos de teste gratuitos, perguntas de exame online, exemplos de perguntas, perguntas e respostas de exame e muito mais. Utilize os nossos exames simulados para simular cenários de exames reais e melhorar a sua preparação para a certificação DP-203. Ao passar no exame DP-203, os candidatos obtêm a estimada certificação Microsoft Certified: Azure Data Engineer Associate, validando a experiência na conceção e implementação de armazenamento de dados, desenvolvendo soluções de processamento de dados, garantindo a segurança dos dados e optimizando o armazenamento e processamento de dados. Com os nossos testes práticos mais recentes, estará bem preparado para passar no exame de certificação e avançar na sua carreira em engenharia de dados do Azure.
Faça outros exames online

Pergunta #1
Quais componentes do Azure Data Factory você recomenda usar juntos para importar os dados de inventário diário do servidor SQL para o armazenamento do Azure Data Lake? Para responder, selecione as opções apropriadas na área de respostas. NOTA: Cada seleção correcta vale um ponto.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: B
Pergunta #2
Está a planear ingerir dados de redes sociais de streaming utilizando o Azure Stream Analytics. Os dados serão armazenados em ficheiros no Armazenamento do Azure Data Lake e, em seguida, consumidos utilizando o Azure Datiabricks e o PolyBase no Azure Synapse Analytics. É necessário recomendar um formato de saída de dados do Stream Analytics para garantir que as consultas do Databricks e do PolyBase em relação aos ficheiros encontram o menor número possível de erros. A solução deve garantir que os blocos possam ser consultados rapidamente e que as informações de tipo de dados sejam mantidas. Quando
A. Parquet
B. Avro
C. CSV
D. JSON
Ver resposta
Resposta correta: A
Pergunta #3
Uma empresa está a planear criar uma base de dados SQL do Azure para suportar uma aplicação de missão crítica. A aplicação precisa de estar altamente disponível e não ter qualquer degradação de desempenho durante as janelas de manutenção. Qual das seguintes tecnologias pode ser utilizada para implementar esta solução?(Escolha 3)
A. Escalão de serviço Premium
B. Conjuntos de escalas de máquinas virtuais
C. Escalão de serviço básico
D. Sincronização de dados SQL
E. Grupos de disponibilidade sempre ativa
F. Configuração redundante de zona
Ver resposta
Resposta correta: aef
Pergunta #4
02.Uma empresa tem uma solução SaaS que utiliza a Base de Dados SQL do Azure com pools elásticos. A solução contém uma base de dados dedicada para cada organização de clientes. As organizações de clientes têm picos de utilização em diferentes períodos do ano. Você precisa implementar o pool elástico do Banco de Dados SQL do Azure para minimizar o custo. Que opção ou opções devem ser configuradas?
A. Apenas o número de transacções
B. DTUs apenas por base de dados
C. Apenas o número de bases de dados
D. penas utilização da CPU
E. DTUs e dimensão máxima dos dados
Ver resposta
Resposta correta: e
Pergunta #5
Está a conceber um conjunto de SQL dedicado do Azure Synapse Analytics. Tem de garantir que pode auditar o acesso a informações pessoalmente identificáveis (PII). O que deve incluir na solução?
A. mascaramento dinâmico de dados
B. Segurança ao nível das linhas (RLS)
C. classificações de sensibilidade
D. segurança ao nível da coluna
Ver resposta
Resposta correta: A
Pergunta #6
Você cria um pipeline do Azure Data Factory para mover dados de um contêiner do Azure Data Lake Storage Gen2 para um banco de dados em um pool de SQL dedicado do Azure Synapse Analytics. Os dados no contêiner são armazenados na seguinte estrutura de pastas. /in/{YYYY}/{MM}/{DD}/{HH}/{mm} A pasta mais antiga é /in/2021/01/01/00/00. A pasta mais recente é /in/2021/01/15/01/45. É necessário configurar um acionador de pipeline para atender aos seguintes requisitos: Os dados existentes devem ser carregados. Os dados devem ser carregados a cada 30 minutos. Os dados que chegarem mais tarde
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: D
Pergunta #7
06.Uma empresa gere várias bases de dados do Microsoft SQL Server no local. É necessário migrar as bases de dados para o Microsoft Azure utilizando um processo de cópia de segurança do Microsoft SQL Server. Que tecnologia de dados deve utilizar?
A. Base de dados SQL do Azure única
B. Armazém de dados SQL do Azure
C. zure Cosmos DB
D. nstância gerida da base de dados SQL do Azure
E. Cluster do HDInsight Spark
Ver resposta
Resposta correta: d
Pergunta #8
Você tem uma fábrica de dados do Azure. Precisa de examinar as falhas de pipeline dos últimos 60 dias. O que você deve usar?
A. a folha do registo de actividades do recurso Data Factory
B. a aplicação Monitorizar e gerir no Data Factory
C. a folha de estado do recurso para o recurso Data Factory
D. Monitor Azure
Ver resposta
Resposta correta: A
Pergunta #9
Uma equipa interna está a desenvolver uma nova aplicação. O documento de conceção especifica que os dados devem ser representados utilizando nós e relações em estruturas gráficas. Os elementos de dados individuais são relativamente pequenos, pelo que é necessário recomendar uma solução de armazenamento de dados adequada. Que solução deve recomendar?
A. Blobs de armazenamento do Azure
B. Cosmos DB
C. Armazenamento do Lago de Dados do Azure
D. HBase no HDInsight
Ver resposta
Resposta correta: b
Pergunta #10
Você usa o Azure Data Factory para preparar os dados a serem consultados pelos pools de SQL sem servidor do Azure Synapse Analytics. Os arquivos são inicialmente ingeridos em uma conta do Azure Data Lake Storage Gen2 como 10 pequenos arquivos JSON. Cada ficheiro contém os mesmos atributos de dados e dados de uma subsidiária da sua empresa. É necessário mover os ficheiros para uma pasta diferente e transformar os dados para cumprir os seguintes requisitos: Fornecer os tempos de consulta mais rápidos possíveis. Inferir automaticamente o esquema a partir dos ficheiros subjacentes. Como deve o
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: C
Pergunta #11
Tem uma conta de Armazenamento do Azure Data Lake que tem um ponto final de serviço de rede virtual configurado. Você planeja usar o Azure Data Factory para extrair dados da conta de armazenamento do Data Lake. Em seguida, os dados serão carregados para um data warehouse no Azure Synapse Analytics usando o PolyBase. Qual é o método de autenticação que deve utilizar para aceder ao Armazenamento do Lago de Dados?
A. autenticação de chave de acesso partilhada
B. autenticação de identidade gerida
C. autenticação de chave de conta
D. autenticação do principal de serviço
Ver resposta
Resposta correta: A
Pergunta #12
Você está criando um fluxo de dados do Azure Data Factory que ingerirá dados de um arquivo CSV, converterá colunas em tipos de dados especificados e inserirá os dados em uma tabela em um pool de SQL dedicado do Azure Synapse Analytic. O arquivo CSV contém três colunas denominadas nome de usuário, comentário e data. O fluxo de dados já contém o seguinte: Uma transformação de origem. Uma transformação de Coluna Derivada para definir os tipos de dados apropriados. Uma transformação de sink para aterrar os dados no pool. É necessário garantir que o fluxo de dados
A. Ao fluxo de dados, adicione uma transformação de sumidouro para escrever as linhas num ficheiro no armazenamento de blob
B. No fluxo de dados, adicione uma transformação Conditional Split para separar as linhas que causarão erros de truncamento
C. Ao fluxo de dados, adicione uma transformação de filtro para filtrar as linhas que causarão erros de truncagem
D. Adicione uma transformação de seleção para selecionar apenas as linhas que causarão erros de truncagem
Ver resposta
Resposta correta: B
Pergunta #13
Você tem uma conta do Azure Data Lake Storage Gen2 que contém um arquivo JSON para clientes. O arquivo contém dois atributos chamados FirstName e LastName. Você precisa copiar os dados do arquivo JSON para uma tabela do Azure Synapse Analytics usando o Azure Databricks. Uma nova coluna deve ser criada para concatenar os valores FirstName e LastName. Você cria os seguintes componentes: Uma tabela de destino no Azure Synapse Um contêiner de armazenamento de Blob do Azure Uma entidade de serviço Quais são as cinco ações que você deve executar em se
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: A
Pergunta #14
Nota: Esta pergunta faz parte de uma série de perguntas que apresentam o mesmo cenário. Cada pergunta da série contém uma solução única que pode atingir os objectivos indicados. Alguns conjuntos de perguntas podem ter mais do que uma solução correcta, enquanto outros podem não ter uma solução correcta. Depois de responder a uma pergunta desta secção, NÃO poderá voltar a ela. Como resultado, estas perguntas não aparecerão no ecrã de revisão. Está a planear criar um espaço de trabalho Azure Databricks com uma estrutura em camadas.
A. Sim
B. Não
Ver resposta
Resposta correta: A
Pergunta #15
Tem um armazém de dados no local que inclui as seguintes tabelas de factos. Ambas as tabelas têm as seguintes colunas: DateKey, ProductKey, RegionKey. Existem 120 chaves de produto exclusivas e 65 chaves de região exclusivas. As consultas que usam o data warehouse levam muito tempo para serem concluídas. Você planeja migrar a solução para usar o Azure Synapse Analytics. Você precisa garantir que a solução baseada no Azure otimize o desempenho da consulta e minimize a distorção de processamento. O que você deve recomendar? Para responder, selecione a opção apropriada
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: B
Pergunta #16
Tem um contentor Azure Data Lake Storage Gen2 que contém 100 TB de dados. Você precisa garantir que os dados no contêiner estejam disponíveis para cargas de trabalho de leitura em uma região secundária se ocorrer uma interrupção na região primária. A solução deve minimizar os custos. Que tipo de redundância de dados deve ser usado?
A. Armazenamento redundante por zona (ZRS)
B. Armazenamento geo-redundante de acesso de leitura (RA-GRS)
C. Armazenamento localmente redundante (LRS)
D. Armazenamento geo-redundante (GRS)
Ver resposta
Resposta correta: A
Pergunta #17
A equipa de engenharia de dados gere clusters do Azure HDInsight. A equipe gasta muito tempo criando e destruindo clusters diariamente porque a maior parte do processo de pipeline de dados é executada em minutos. Você precisa implementar uma solução que implante vários clusters do HDInsight com o mínimo de esforço. O que deve ser implementado?
A. Bases de dados do Azure
B. Gestor de Tráfego do Azure
C. Modelos do Gestor de Recursos do Azure
D. Interface Web do utilizador Ambari
Ver resposta
Resposta correta: c
Pergunta #18
Você é um engenheiro de dados para um Azure SQL DatabasE. Você escreve as seguintes instruções SQL:CREATE TABLE Customer (CustomerID int IDENTITY PRIMARY KEY,GivenName varchar(100) MASKED WITH (FUNCTION = 'partial(2, "XX",0)') NULL,SurName varchar(100) NOT NULL,Phone varchar(12) MASKED WITH (FUNCTION = 'default()')INSERT Customer (GivenName, SurName, Phon
A.
B.
C.
D.
E.
Ver resposta
Resposta correta: d
Pergunta #19
Você tem um trabalho do Azure Stream Analytics que recebe dados de fluxo de cliques de um hub de eventos do Azure. Você precisa definir uma consulta no trabalho do Stream Analytics. A consulta deve atender aos seguintes requisitos: Contar o número de cliques em cada janela de 10 segundos com base no país de um visitante. Certifique-se de que cada clique NÃO é contado mais do que uma vez. Como deve definir a consulta?
A. SELECT Country, Avg(*) AS AverageFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, SlidingWindow(second, 10)
B. SELECT Country, Count(*) AS CountFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, TumblingWindow(second, 10)
C. SELECT Country, Avg(*) AS AverageFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, HoppingWindow(second, 10, 2)
D. SELECT Country, Count(*) AS CountFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, SessionWindow(second, 5, 10)
Ver resposta
Resposta correta: A
Pergunta #20
Você tem um banco de dados SQL do Azure chamado Database1 e dois hubs de eventos do Azure chamados HubA e HubB. Os dados consumidos de cada fonte são mostrados na tabela a seguir. É necessário implementar o Azure Stream Analytics para calcular a tarifa média por milha por condutor. Como deve configurar a entrada do Stream Analytics para cada fonte? Para responder, seleccione as opções adequadas na área de resposta. NOTA: Cada seleção correcta vale um ponto.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: A
Pergunta #21
Que oferta fornece processamento paralelo scale-out e acelera drasticamente o desempenho de clusters analíticos quando integrada com o IBM Flash System?
A. Armazenamento de objectos em nuvem da IBM
B. IBM Spectrum Accelerate
C. Escala IBM Spectrum
D. IBM Spectrum Connect
Ver resposta
Resposta correta: c
Pergunta #22
Uma empresa tem um data warehousE SQL do Azure. Eles querem usar o PolyBase para recuperar dados de uma conta de armazenamento de Blob do Azure e ingerir no Azure SQL data warehousE. Os ficheiros são armazenados em formato parquet. Os dados precisam ser carregados em uma tabela chamada lead2pass_sales. Quais das seguintes ações precisam ser executadas para implementar esse requisito?(Escolha 4)
A. Criar um formato de ficheiro externo que mapeie para os ficheiros baseados em parquet
B. Carregar os dados para uma tabela de preparação
C. Criar uma tabela externa denominada lead2pass_sales_details
D. Criar uma fonte de dados externa para a conta de armazenamento de Blob do Azure
E. Criar uma chave mestra na base de dados
F. Configurar o Polybase para utilizar a conta de armazenamento Blob do Azure
Ver resposta
Resposta correta: bcde
Pergunta #23
Você está criando dimensões para um data warehouse em um pool de SQL dedicado do Azure Synapse Analytics. Você cria uma tabela usando a instrução Transact-SQL mostrada na exibição a seguir. Use os menus suspensos para selecionar a opção de resposta que completa cada instrução com base nas informações apresentadas no gráfico. OBSERVAÇÃO: cada seleção correta vale um ponto.
A. Masterizado
B. Não dominado
Ver resposta
Resposta correta: B
Pergunta #24
Está a conceber uma solução de análise estatística que irá utilizar funções Python proprietárias1 personalizadas em dados quase em tempo real dos Hubs de Eventos do Azure. Você precisa recomendar qual serviço do Azure usar para realizar a análise estatística. A solução deve minimizar a latência. O que deve recomendar?
A. Análise de Fluxo do Azure
B. Base de dados SQL do Azure
C. Bases de dados do Azure
D. Análise de sinapse do Azure
Ver resposta
Resposta correta: D
Pergunta #25
Você tem um pool de SQL dedicado do Azure Synapse Analystics que contém uma tabela chamada Contatos. Contactos contém uma coluna chamada Telefone. É necessário garantir que os utilizadores de uma função específica apenas vêem os últimos quatro dígitos de um número de telefone quando consultam a coluna Telefone. O que você deve incluir na solução?
A. um valor por defeito
B. mascaramento dinâmico de dados
C. Segurança ao nível das linhas (RLS)
D. encriptação de colunas
E. partições de tabelas
Ver resposta
Resposta correta: A

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: