¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

Preparación para el examen DAS-C01: materiales de estudio y pruebas simuladas, AWS Certified Data Analytics | SPOTO

Prepárate eficazmente para el examen DAS-C01 con SPOTO's Study Materials & Mock Tests for AWS Certified Data Analytics - Specialty (DAS-C01). Esta certificación es crucial para los profesionales que desempeñan funciones de análisis de datos, ya que afirma su capacidad de utilizar los servicios de AWS para diseñar, proteger y administrar soluciones de análisis. Nuestros materiales de estudio cubren una amplia gama de temas, incluidas preguntas y respuestas del examen, pruebas prácticas, preguntas de muestra y volcados del examen, lo que garantiza una comprensión exhaustiva de los conceptos clave. Acceda a materiales de examen, respuestas y un simulador de examen para practicar en escenarios realistas. Benefíciese de las preguntas de examen en línea y de los simulacros de examen para evaluar su preparación y mejorar su rendimiento en el examen. SPOTO proporciona los recursos y el soporte necesarios para sobresalir en el examen AWS Certified Data Analytics - Specialty (DAS-C01) y avanzar en su carrera en el análisis de datos.

 

Realizar otros exámenes en línea

Cuestionar #1
Una empresa que supervisa las condiciones meteorológicas desde obras remotas está configurando una solución para recopilar datos de temperatura de las dos estaciones meteorológicas siguientes. Estación A, que tiene 10 sensores Estación B, que tiene cinco sensores Estas estaciones meteorológicas fueron colocadas por expertos en la materia in situ. Cada sensor tiene un identificador único. Los datos recogidos de cada sensor se recopilarán utilizando Amazon Kinesis Data Streams. En función del rendimiento total de datos entrantes y salientes, un único flujo de datos de Amazon Kinesis
A.
B.
C.
D.
E.
Ver respuesta
Respuesta correcta: C
Cuestionar #2
Una compañía de seguros tiene datos sin procesar en formato JSON que se envían sin una programación predefinida a través de una transmisión de entrega de Amazon Kinesis Data Firehose a un bucket de Amazon S3. Un rastreador de AWS Glue está programado para ejecutarse cada 8 horas para actualizar el esquema en el catálogo de datos de las tablas almacenadas en el bucket de S3. Los analistas de datos analizan los datos con Apache Spark SQL en Amazon EMR configurado con el catálogo de datos de AWS Glue como metastore. Los analistas de datos afirman que, en ocasiones, los datos que reciben son obsoletos. Un ingeniero de datos
A. Cree un esquema externo basado en el catálogo de datos de AWS Glue en el clúster de Amazon Redshift existente para consultar datos nuevos en Amazon S3 con Amazon Redshift Spectrum
B. Utilice Amazon CloudWatch Events con la expresión rate (1 hour) para ejecutar el rastreador de AWS Glue cada horA
C. Mediante la CLI de AWS, modifique la programación de ejecución del rastreador de AWS Glue de 8 horas a 1 minuto
D. Ejecute el rastreador de AWS Glue desde una función de AWS Lambda activada por una notificación de evento S3:ObjectCreated:* en el bucket de S3
Ver respuesta
Respuesta correcta: B
Cuestionar #3
Una empresa de recursos humanos mantiene un clúster de Amazon Redshift de 10 nodos para ejecutar consultas analíticas en los datos de la empresa. El clúster de Amazon Redshift contiene una tabla de productos y una tabla de transacciones, y ambas tablas tienen una columna product_sku. Las tablas tienen un tamaño de más de 100 GB. La mayoría de las consultas se ejecutan en ambas tablas. ¿Qué estilo de distribución debe utilizar la empresa para las dos tablas a fin de lograr un desempeño óptimo de las consultas?
A. Un estilo de distribución PAR para ambas tablas
B. Un estilo de distribución CLAVE para ambas tablas
C. Un estilo de distribución ALL para la tabla de productos y un estilo de distribución EVEN para la tabla de transacciones
D. Un estilo de distribución PAR para la tabla de productos y un estilo de distribución CLAVE para la tabla de transacciones
Ver respuesta
Respuesta correcta: C
Cuestionar #4
Una empresa tiene una unidad de negocio que carga archivos .csv en un bucket de Amazon S3. El equipo de la plataforma de datos de la compañía ha configurado un rastreador de AWS Glue para realizar la detección y crear tablas y esquemas. Un trabajo de AWS Glue escribe los datos procesados de las tablas creadas en una base de datos de Amazon Redshift. El trabajo de AWS Glue gestiona la asignación de columnas y crea la tabla de Amazon Redshift de forma adecuada. Cuando el trabajo de AWS Glue se vuelve a ejecutar por cualquier motivo en un día, se introducen registros duplicados en la tabla de Amazon Redshift. ¿Qué solución
A. Modificar el trabajo de AWS Glue para copiar las filas en un tablero de preparación
B. Añadir comandos SQL para reemplazar las filas existentes en la tabla principal como postacciones en la clase DynamicFrameWriter
C. Cargar los datos previamente insertados en una base de datos MySQL en el jo de AWS Glue
D. Realice una operación upsert en MySQL y copie los resultados en la tabla de Amazon Redshift
E. Utilice la API dropDuplicates() de DataFrame de Apache Spark para eliminar duplicados y, a continuación, escriba los datos en Amazon Redshift
F. Utilice la transformación integrada AWS Glue ResolveChoice para seleccionar el valor más reciente de la columnA
Ver respuesta
Respuesta correcta: B
Cuestionar #5
Un hospital utiliza dispositivos de sensores médicos portátiles para recopilar datos de los pacientes. El hospital está diseñando una solución casi en tiempo real que pueda introducir los datos de forma segura a gran escala. La solución también debe ser capaz de eliminar la información sanitaria protegida (PHI) del paciente de los datos de flujo y almacenar los datos en un almacenamiento duradero. ¿Qué solución cumple estos requisitos con la menor sobrecarga operativa?
A. Ingesta de los datos mediante Amazon Kinesis Data Streams, que invoca una función de AWS Lambda mediante Kinesis Client Library (KCL) para eliminar todos los PH
B. Escribir los datos en Amazon S3
C. Ingerir los datos con Amazon Kinesis Data Firehose para escribirlos en Amazon S3
D. Ingerir los datos con Amazon Kinesis Data Streams para escribirlos en Amazon S3
E. Ingerir los datos con Amazon Kinesis Data Firehose para escribirlos en Amazon S3
Ver respuesta
Respuesta correcta: A
Cuestionar #6
Tres equipos de analistas de datos utilizan Apache Hive en un clúster de Amazon EMR con el sistema de archivos de EMR (EMRFS) para consultar los datos almacenados en el bucket de Amazon S3 de cada equipo. El clúster de EMR tiene Kerberos habilitado y está configurado para autenticar usuarios del Active Directory corporativo. Los datos son altamente sensibles, por lo que el acceso debe limitarse a los miembros de cada equipo. ¿Qué pasos satisfarán los requisitos de seguridad?
A. Para las instancias de Amazon EC2 del clúster de EMR, cree una función de servicio que no conceda acceso a Amazon S3
B. Añada las funciones IAM adicionales a la función EMR del clúster para el control de confianza EC2
C. Cree una asignación de configuración de seguridad para las funciones adicionales de IAM a los grupos de usuarios de Active Directory para cada equipo
D. Para las instancias de Amazon EC2 del clúster de EMR, cree un rol de servicio que no conceda acceso a Amazon S3
E. Añada la función de servicio para las instancias EC2 del clúster EMR a las políticas de confianza para la función adicional de IAM
F. Cree una asignación de configuración de seguridad para los roles IAM adicionales a los grupos de usuarios de Active Directory para cada equipo
Ver respuesta
Respuesta correcta: D
Cuestionar #7
Una empresa lanzó un servicio que produce millones de mensajes cada día y utiliza Amazon Kinesis Data Streams como servicio de streaming. La empresa utiliza el SDK de Kinesis para escribir datos en Kinesis Data Streams. Unos meses después del lanzamiento, un analista de datos descubrió que el desempeño de escritura se había reducido significativamente. El analista de datos investigó las métricas y determinó que Kinesis está estrangulando las solicitudes de escritura. El analista de datos desea solucionar este problema sin realizar cambios significativos en la arquitectura. ¿Qué ac
A. Aumente el periodo de retención de Kinesis Data Streams para reducir el estrangulamiento
B. Sustituir el mecanismo de ingestión de datos basado en la API de Kinesis por Kinesis Agent
C. Aumentar el número de fragmentos en el flujo utilizando la API UpdateShardCount
D. Elegir las claves de partición de forma que se consiga una distribución uniforme de los registros entre los shards
E. Personalizar el código de la aplicación para incluir la lógica de reintento para mejorar el rendimiento
Ver respuesta
Respuesta correcta: D
Cuestionar #8
Una empresa tiene 1 millón de documentos escaneados almacenados como archivos de imagen en Amazon S3. Los documentos contienen formularios de solicitud mecanografiados con información que incluye el nombre del solicitante, el apellido del solicitante, la fecha de solicitud, el tipo de solicitud y el texto de la solicitud. La empresa ha desarrollado un algoritmo de aprendizaje automático para extraer los valores de metadatos de los documentos escaneados. La empresa quiere permitir a los analistas de datos internos analizar y encontrar solicitudes utilizando el nombre del solicitante, la fecha de solicitud o el tipo de solicitud
A. Para cada imagen, utilice etiquetas de objeto para añadir el metadato
B. Utilice Amazon S3 Select para recuperar los archivos en función del nombre del solicitante y la fecha de solicitud
C. Indexe los metadatos y la ubicación de Amazon S3 del archivo de imagen en Amazon Elasticsearch Service
D. Almacenar los metadatos y la ubicación de Amazon S3 del archivo de imagen en un tablero de Amazon Redshift
E. Permitir que los analistas de datos ejecuten consultas ad hoc en la tablA
F. Almacene los metadatos y la ubicación de Amazon S3 de los archivos de imagen en un archivo Apache Parquet en Amazon S3 y defina una tabla en AWS Glue Data Catalo G
Ver respuesta
Respuesta correcta: C

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: