¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

Microsoft DP-203 Dumps & Mock Exam for Success, Microsoft Azure Data Engineering Associate | SPOTO

Consiga el éxito en el examen de certificación Microsoft DP-203 con nuestra completa gama de materiales de estudio, incluidos los volcados de examen y los simulacros de examen. Nuestra plataforma ofrece pruebas prácticas, recursos de prueba gratuitos, preguntas de examen en línea, preguntas de muestra, preguntas y respuestas de examen y mucho más. Utilice nuestros exámenes de prueba para simular situaciones reales de examen y mejorar su preparación para la certificación DP-203.Al aprobar el examen DP-203, los candidatos obtienen la estimada certificación Microsoft Certified: Azure Data Engineer Associate, que valida la experiencia en el diseño y la implementación del almacenamiento de datos, el desarrollo de soluciones de procesamiento de datos, la garantía de la seguridad de los datos y la optimización del almacenamiento y el procesamiento de datos. Con nuestros últimos exámenes de práctica, estará bien preparado para aprobar el examen de certificación y avanzar en su carrera en la ingeniería de datos de Azure.
Realizar otros exámenes en línea

Cuestionar #1
¿Qué componentes de Azure Data Factory debería recomendar utilizar juntos para importar los datos de inventario diarios del servidor SQL a Azure Data Lake Storage? Para responder, seleccione las opciones adecuadas en el área de respuestas. NOTA: Cada selección correcta vale un punto.
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: B
Cuestionar #2
Usted planea ingerir datos de streaming de medios sociales mediante el uso de Azure Stream Analytics. Los datos se almacenarán en archivos en Azure Data Lake Storage y, a continuación, se consumirán mediante Azure Datiabricks y PolyBase en Azure Synapse Analytics. Debe recomendar un formato de salida de datos de Stream Analytics para garantizar que las consultas de Databricks y PolyBase contra los archivos encuentren el menor número posible de errores. La solución debe garantizar que los mosaicos se puedan consultar rápidamente y que se conserve la información del tipo de datos. En
A. Parquet
B. Avro
C. CSV
D. JSON
Ver respuesta
Respuesta correcta: A
Cuestionar #3
Una empresa está planeando crear una base de datos Azure SQL para dar soporte a una aplicación de misión crítica. La aplicación necesita estar altamente disponible y no tener ninguna degradación de rendimiento durante las ventanas de mantenimiento.Cuál de las siguientes tecnologías se puede utilizar para implementar esta solución?(Elija 3)
A. Nivel de servicio Premium
B. Conjuntos de escalas de máquinas virtuales
C. Nivel de servicio básico
D. Sincronización de datos SQL
E. Grupos de Disponibilidad Always On
F. Configuración redundante por zonas
Ver respuesta
Respuesta correcta: aef
Cuestionar #4
02.Una empresa tiene una solución SaaS que utiliza Azure SQL Database con pools elásticos. La solución contiene una base de datos dedicada para cada organización cliente. Las organizaciones de clientes tienen picos de uso en diferentes periodos del año. Necesita implementar el pool elástico de Azure SQL Database para minimizar el coste. ¿Qué opción u opciones debe configurar?
A. ólo número de transacciones
B. DTUs sólo por base de datos
C. ólo número de bases de datos
D. Sólo uso de CPU
E. DTUs y tamaño máximo de datos
Ver respuesta
Respuesta correcta: e
Cuestionar #5
Está diseñando un grupo SQL dedicado a Azure Synapse Analytics. Necesita asegurarse de que puede auditar el acceso a la información de identificación personal (PII). Qué debe incluir en la solución?
A. enmascaramiento dinámico de datos
B. seguridad a nivel de filas (RLS)
C. clasificaciones de sensibilidad
D. seguridad a nivel de columna
Ver respuesta
Respuesta correcta: A
Cuestionar #6
Cree una canalización de Azure Data Factory para mover datos desde un contenedor Azure Data Lake Storage Gen2 a una base de datos en un grupo SQL dedicado de Azure Synapse Analytics. Los datos del contenedor se almacenan en la siguiente estructura de carpetas. /in/{YYYY}/{MM}/{DD}/{HH}/{mm} La carpeta más antigua es /in/2021/01/01/00/00. La carpeta más reciente es /in/2021/01/15/01/45. Debe configurar un activador de canalización para que cumpla los siguientes requisitos: Deben cargarse los datos existentes. Los datos deben cargarse cada 30 minutos. Los da
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: D
Cuestionar #7
06.Una empresa gestiona varias bases de datos de Microsoft SQL Server locales. Necesita migrar las bases de datos a Microsoft Azure mediante un proceso de copia de seguridad de Microsoft SQL Server. Qué tecnología de datos debe utilizar?
A. ase de datos única Azure SQL Database
B. lmacén de datos Azure SQL
C. zure Cosmos DB
D. Instancia gestionada de Azure SQL Database
E. Clúster HDInsight Spark
Ver respuesta
Respuesta correcta: d
Cuestionar #8
Usted tiene una fábrica de datos Azure. Necesita examinar los fallos de canalización de los últimos 60 días. ¿Qué debería utilizar?
A. la hoja de registro de actividad del recurso Data Factory
B. la aplicación Supervisar y gestionar de Data Factory
C. la hoja de estado del recurso Data Factory
D. Azure Monitor
Ver respuesta
Respuesta correcta: A
Cuestionar #9
Un equipo interno está desarrollando una nueva aplicación. El documento de diseño especifica que los datos deben representarse mediante nodos y relaciones en estructuras gráficas. Los elementos de datos individuales son relativamente pequeños, por lo que debe recomendar una solución de almacenamiento de datos adecuada. ¿Qué solución debe recomendar?
A. Bloques de almacenamiento Azure
B. Cosmos DB
C. Almacén Azure Data Lake
D. HBase en HDInsight
Ver respuesta
Respuesta correcta: b
Cuestionar #10
Se utiliza Azure Data Factory para preparar los datos que se consultarán mediante los grupos SQL sin servidor de Azure Synapse Analytics. Los archivos se ingieren inicialmente en una cuenta Azure Data Lake Storage Gen2 como 10 pequeños archivos JSON. Cada archivo contiene los mismos atributos de datos y datos de una filial de su empresa. Necesita mover los archivos a una carpeta diferente y transformar los datos para cumplir los siguientes requisitos: Proporcionar los tiempos de consulta más rápidos posibles. Inferir automáticamente el esquema a partir de los archivos subyacentes. ¿Cómo debería y
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: C
Cuestionar #11
Tiene una cuenta Azure Data Lake Storage que tiene configurado un punto final de servicio de red virtual. Tiene previsto utilizar Azure Data Factory para extraer datos de la cuenta de almacenamiento de Data Lake. A continuación, los datos se cargarán en un almacén de datos en Azure Synapse Analytics mediante PolyBase. ¿Qué método de autenticación debe utilizar para acceder a Data Lake Storage?
A. autenticación de clave de acceso compartida
B. autenticación de identidad gestionada
C. autenticación de clave de cuenta
D. autenticación principal de servicio
Ver respuesta
Respuesta correcta: A
Cuestionar #12
Está creando un flujo de datos de Azure Data Factory que incorporará datos de un archivo CSV, asignará columnas a tipos de datos especificados e insertará los datos en una tabla de un grupo SQL dedicado de Azure Synapse Analytic. El archivo CSV contiene tres columnas denominadas nombre de usuario, comentario y fecha. El flujo de datos ya contiene lo siguiente Una transformación de origen. Una transformación de columna derivada para establecer los tipos de datos adecuados. Una transformación de sumidero para aterrizar los datos en el pool. Debe asegurarse de que el flujo de datos
A. Al flujo de datos, añada una transformación sink para escribir las filas en un archivo en almacenamiento blob
B. Al flujo de datos, añada una transformación Conditional Split para separar las filas que causarán errores de truncamiento
C. Al flujo de datos, añada una transformación de filtro para filtrar las filas que causarán errores de truncamiento
D. Añada una transformación select para seleccionar sólo las filas que causarán errores de truncamiento
Ver respuesta
Respuesta correcta: B
Cuestionar #13
Tiene una cuenta Azure Data Lake Storage Gen2 que contiene un archivo JSON para clientes. El archivo contiene dos atributos denominados FirstName y LastName. Debe copiar los datos del archivo JSON en una tabla de Azure Synapse Analytics mediante Azure Databricks. Se debe crear una nueva columna que concatene los valores FirstName y LastName. Se crean los siguientes componentes: Una tabla de destino en Azure Synapse Un contenedor de almacenamiento Azure Blob Un service principal ¿Qué cinco acciones debe realizar en se
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: A
Cuestionar #14
Nota: Esta pregunta forma parte de una serie de preguntas que presentan el mismo escenario. Cada pregunta de la serie contiene una solución única que podría cumplir los objetivos establecidos. Algunas series de preguntas podrían tener más de una solución correcta, mientras que otras podrían no tener ninguna solución correcta. Después de responder a una pregunta de esta sección, NO podrá volver a ella. Como resultado, estas preguntas no aparecerán en la pantalla de revisión. Usted planea crear un espacio de trabajo Azure Databricks que tiene una estructura escalonada.
A. Sí
B. No
Ver respuesta
Respuesta correcta: A
Cuestionar #15
Tiene un almacén de datos local que incluye las siguientes tablas de hechos. Ambas tablas tienen las siguientes columnas DateKey, ProductKey, RegionKey. Hay 120 claves de producto únicas y 65 claves de región únicas. Las consultas que utilizan el almacén de datos tardan mucho tiempo en completarse. Usted planea migrar la solución para utilizar Azure Synapse Analytics. Debe asegurarse de que la solución basada en Azure optimiza el rendimiento de las consultas y minimiza el sesgo de procesamiento. ¿Qué debe recomendar? Para responder, seleccione la opción adecuada
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: B
Cuestionar #16
Tiene un contenedor Azure Data Lake Storage Gen2 que contiene 100 TB de datos. Debe asegurarse de que los datos del contenedor estén disponibles para cargas de trabajo de lectura en una región secundaria si se produce una interrupción en la región principal. La solución debe minimizar los costes. ¿Qué tipo de redundancia de datos debe utilizar?
A. almacenamiento redundante por zonas (ZRS)
B. almacenamiento georredundante de acceso de lectura (RA-GRS)
C. almacenamiento redundante local (LRS)
D. almacenamiento georredundante (GRS)
Ver respuesta
Respuesta correcta: A
Cuestionar #17
El equipo de ingeniería de datos gestiona clústeres de Azure HDInsight. El equipo dedica una gran cantidad de tiempo a crear y destruir clústeres a diario porque la mayor parte del proceso de canalización de datos se ejecuta en minutos.Necesita implementar una solución que despliegue varios clústeres de HDInsight con el mínimo esfuerzo. ¿Qué debería implementar?
A. Azure Databricks
B. Azure Traffic Manager
C. Plantillas de Azure Resource Manager
D. Interfaz de usuario web de Ambari
Ver respuesta
Respuesta correcta: c
Cuestionar #18
Usted es un ingeniero de datos para una Azure SQL DatabasE. Usted escribe las siguientes sentencias SQL:CREATE TABLE Customer (CustomerID int IDENTITY PRIMARY KEY,GivenName varchar(100) MASKED WITH (FUNCTION = 'partial(2, "XX",0)') NULL,SurName varchar(100) NOT NULL,Phone varchar(12) MASKED WITH (FUNCTION = 'default()')INSERT Customer (GivenName, SurName, Phon
A.
B.
C.
D.
E.
Ver respuesta
Respuesta correcta: d
Cuestionar #19
Tiene un trabajo de Azure Stream Analytics que recibe datos de flujo de clics de un concentrador de eventos de Azure. Debe definir una consulta en el trabajo de Stream Analytics. La consulta debe cumplir los siguientes requisitos: Contar el número de clics dentro de cada ventana de 10 segundos en función del país de un visitante. Asegúrese de que cada clic NO se cuenta más de una vez. ¿Cómo debe definir la consulta?
A. SELECT Country, Avg(*) AS AverageFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, SlidingWindow(second, 10)
B. SELECT Country, Count(*) AS CountFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, TumblingWindow(second, 10)
C. SELECT Country, Avg(*) AS AverageFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, HoppingWindow(second, 10, 2)
D. SELECT Country, Count(*) AS CountFROM ClickStream TIMESTAMP BY CreatedAt GROUP BY Country, SessionWindow(second, 5, 10)
Ver respuesta
Respuesta correcta: A
Cuestionar #20
Tiene una base de datos Azure SQL denominada Database1 y dos concentradores de eventos Azure denominados HubA y HubB. Los datos consumidos de cada fuente se muestran en la siguiente tabla. Necesita implementar Azure Stream Analytics para calcular la tarifa media por milla por conductor. ¿Cómo debe configurar la entrada de Stream Analytics para cada fuente? Para responder, seleccione las opciones adecuadas en el área de respuestas. NOTA: Cada selección correcta vale un punto.
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: A
Cuestionar #21
¿Qué oferta proporciona procesamiento paralelo escalable y acelera drásticamente el rendimiento de los clústeres de análisis cuando se integra con IBM Flash System?
A. Almacenamiento de objetos en la nube de IBM
B. IBM Spectrum Accelerate
C. IBM Spectrum Scale
D. IBM Spectrum Connect
Ver respuesta
Respuesta correcta: c
Cuestionar #22
Una empresa tiene un almacén de datos Azure SQL. Desean utilizar PolyBase para recuperar datos de una cuenta de almacenamiento Azure Blob e ingerirlos en el almacén de datos Azure SQL. Los archivos se almacenan en formato parquet. Los datos deben cargarse en una tabla llamada lead2pass_sales.¿Cuál de las siguientes acciones debe realizarse para implementar este requisito?(Elija 4)
A. Crear un formato de archivo externo que se corresponda con los archivos basados en parquet
B. Cargar los datos en una tabla de preparación
C. Crear una tabla externa llamada lead2pass_sales_details
D. Crear una fuente de datos externa para la cuenta de almacenamiento Azure Blob
E. Crear una clave maestra en la base de datos
F. Configurar Polybase para utilizar la cuenta de almacenamiento Azure Blob
Ver respuesta
Respuesta correcta: bcde
Cuestionar #23
Está creando dimensiones para un almacén de datos en un grupo SQL dedicado de Azure Synapse Analytics. Cree una tabla utilizando la sentencia Transact-SQL que se muestra en el siguiente gráfico. Utilice los menús desplegables para seleccionar la opción de respuesta que complete cada sentencia basándose en la información presentada en el gráfico. NOTA: Cada selección correcta vale un punto.
A. Masterizado
B. No dominado
Ver respuesta
Respuesta correcta: B
Cuestionar #24
Estás diseñando una solución de análisis estadístico que utilizará funciones Python propietarias1 personalizadas en datos casi en tiempo real de Azure Event Hubs. Debe recomendar qué servicio de Azure utilizar para realizar el análisis estadístico. La solución debe minimizar la latencia. ¿Qué debe recomendar?
A. Azure Stream Analytics
B. Base de datos Azure SQL
C. Azure Databricks
D. Azure Synapse Analytics
Ver respuesta
Respuesta correcta: D
Cuestionar #25
Tiene un grupo SQL dedicado de Azure Synapse Analystics que contiene una tabla denominada Contactos. Contactos contiene una columna llamada Teléfono. Debe asegurarse de que los usuarios de una función específica solo vean los últimos cuatro dígitos de un número de teléfono cuando consulten la columna Teléfono. ¿Qué debe incluir en la solución?
A. un valor por defecto
B. enmascaramiento dinámico de datos
C. seguridad a nivel de filas (RLS)
D. encriptación de columnas
E. particiones de tablas
Ver respuesta
Respuesta correcta: A

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: