¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

2024 Preparación para el examen DAS-C01: Pruebas prácticas y materiales de estudio, AWS Certified Data Analytics | SPOTO

La preparación para el examen DAS-C01 2024: Practice Tests & Study Materials for AWS Certified Data Analytics - Specialty (DAS-C01) es crucial para los profesionales que desempeñan funciones de análisis de datos. Esta certificación verifica la experiencia en el uso de los servicios de AWS para diseñar, crear, proteger y administrar soluciones de análisis con el fin de extraer información procesable de los datos. Nuestros completos materiales de estudio incluyen preguntas y respuestas de exámenes, pruebas prácticas, preguntas de muestra y volcados de exámenes, lo que garantiza una preparación exhaustiva. Nuestros recursos, centrados en la práctica y la preparación de los exámenes, incluyen materiales de examen y respuestas, junto con un simulador de examen para situaciones de prueba realistas. Accede a preguntas de examen en línea y benefíciate de simulacros de examen para medir tu preparación. Confía en SPOTO para obtener estrategias efectivas de preparación para el examen diseñadas para sobresalir en el examen AWS Certified Data Analytics - Specialty (DAS-C01).

Preparación del examen

Realizar otros exámenes en línea

Cuestionar #1
Una empresa utiliza instancias de Amazon EC2 para recibir archivos de proveedores externos a lo largo de cada día. Al final de cada día, las instancias EC2 combinan los archivos en un único archivo, realizan la compresión gzip y cargan el archivo único en un bucket de Amazon S3. El tamaño total de todos los archivos es de aproximadamente 100 GB cada día. Cuando los archivos se cargan en Amazon S3, un trabajo por lotes de AWS ejecuta un comando COPY para cargar los archivos en un clúster de Amazon Redshift. ¿Qué solución acelerará MÁS el proceso COPY?
A. ube los archivos individuales a Amazon S3
B. ividir los archivos para que el número de archivos sea igual a un múltiplo del número de rebanadas en el clúster de Redshift
C. ivida los archivos de forma que cada archivo utilice el 50% del almacenamiento libre en cada nodo informático del clúster de Redshift
D. plique sharding dividiendo los archivos para que las columnas DISTKEY con los mismos valores vayan al mismo archivo
Ver respuesta
Respuesta correcta: B
Cuestionar #2
Una empresa utiliza Amazon Connect para administrar su centro de contacto. La empresa utiliza Salesforce para administrar sus datos de gestión de relaciones con los clientes (CRM). La empresa debe crear una canalización para incorporar datos de Amazon Connect y Salesforce en un lago de datos que se construye en Amazon S3. ¿Qué solución cumplirá este requisito con la MENOR sobrecarga operativa?
A. Utilice Amazon Kinesis Data Streams para ingerir los datos de Amazon Connect
B. Utilice Amazon Kinesis Data Firehose para ingerir los datos de Amazon Connect
C. Utilice Amazon Kinesis Data Firehose para ingerir los datos de Amazon Connect
D. Utilice Amazon AppFlow para ingerir los datos de Amazon Connect
Ver respuesta
Respuesta correcta: B
Cuestionar #3
Una empresa desea utilizar un lago de datos alojado en Amazon S3 para proporcionar servicios de análisis de datos históricos. El lago de datos consta de 800 tablas, pero se espera que crezca hasta miles de tablas. Más de 50 departamentos utilizan las tablas y cada departamento tiene cientos de usuarios. Los distintos departamentos necesitan acceder a tablas y columnas específicas. ¿Qué solución cumplirá estos requisitos con la MENOR sobrecarga operativa?
A. ree un rol 1AM para cada departamento
B. ree un clúster de Amazon Redshift para cada departamento
C. ree un rol 1AM para cada departamento
D. ree un clúster de Amazon EMR para cada departamento
E. rchivos S3 relevantes
Ver respuesta
Respuesta correcta: C
Cuestionar #4
Una empresa de venta de zapatillas con sede en EE. UU. lanzó su sitio web global. Todos los datos de las transacciones se almacenan en Amazon RDS y los datos históricos de las transacciones se almacenan en Amazon Redshift en la región us-east-1. El equipo de inteligencia empresarial (BI) desea mejorar la experiencia del usuario proporcionando un panel de tendencias de zapatillas. El equipo de BI decide utilizar Amazon QuickSight para renderizar los paneles del sitio web. Durante el desarrollo, un equipo de Japón aprovisionó Amazon QuickSight en la región ap- noreste-1. El equipo tiene dificultades
A. En la consola de Amazon Redshift, elija configurar snapshots entre regiones y establezca la región de destino como ap-northeast-1
B. Cree un punto de enlace de VPC desde la VPC de Amazon QuickSight a la VPC de Amazon Redshift para que Amazon QuickSight pueda obtener acceso a los datos de Amazon Redshift
C. Cree una cadena de conexión de punto de enlace de Amazon Redshift con información de la región en la cadena y utilice esta cadena de conexión en Amazon QuickSight para conectarse a Amazon Redshift
D. Cree un nuevo grupo de seguridad para Amazon Redshift en us-east-1 con una regla de entrada que autorice el acceso desde el rango de direcciones IP adecuado para los servidores de Amazon QuickSight en ap-northeast-1
Ver respuesta
Respuesta correcta: D
Cuestionar #5
Una empresa desea mejorar la satisfacción del usuario de su sistema doméstico inteligente añadiendo más características a su motor de recomendaciones. Cada sensor envía de forma asíncrona sus datos JSON anidados a Amazon Kinesis Data Streams mediante Kinesis Producer Library (KPL) en Java. Las estadísticas de un conjunto de sensores averiados mostraron que, cuando un sensor funciona mal, sus datos registrados no siempre se envían a la nube. La empresa necesita una solución que ofrezca análisis casi en tiempo real de los datos de los sensores más actualizados. Whi
A. Establezca la propiedad RecordMaxBufferedTime del KPL en "1" para desactivar el almacenamiento en búfer en el lado del sensor
B. Empuje los datos enriquecidos a una flota de flujos de datos de Kinesis y active la función de transformación de datos para aplanar el archivo JSON
C. Instancie un clúster de almacenamiento denso de Amazon Redshift y utilícelo como destino para la transmisión de entrega de Kinesis Data Firehose
D. Actualizar el código de los sensores para utilizar la llamada PutRecord/PutRecords de la API de flujos de datos de Kinesis con el SDK de AWS para Jav
E. Utilizar Kinesis Data Analytics para enriquecer los datos basándose en un script SQL de detección de anomalías desarrollado por la empresa
F. Dirija la salida de la aplicación KDA a un flujo de entrega de Kinesis Data Firehose, active la función de transformación de datos para aplanar el archivo JSON y establezca el destino de Kinesis Data Firehose en un clúster de Amazon Elasticsearch Service
Ver respuesta
Respuesta correcta: A
Cuestionar #6
Una empresa de fabricación lleva un año recopilando datos de sensores IoT de dispositivos de su planta de producción y los almacena en Amazon Redshift para su análisis diario. Un analista de datos ha determinado que, con una tasa de ingestión prevista de unos 2 TB al día, el clúster estará infradimensionado en menos de 4 meses. Se necesita una solución a largo plazo. El analista de datos ha indicado que la mayoría de las consultas solo hacen referencia a los últimos 13 meses de datos, aunque también hay informes trimestrales que necesitan consultar todos los datos g
A. Crear un trabajo diario en AWS Glue para DESCARGAR registros de más de 13 meses a Amazon S3 y eliminar esos registros de Amazon Redshif
B. Crear una tabla externa en Amazon Redshift para que apunte a la locación de S3
C. Utilice Amazon Redshift Spectrum para unirse a datos con una antigüedad superior a 13 meses
D. Tomar una instantánea del clúster de Amazon Redshift
E. Restaurar el cluster en un nuevo cluster utilizando nodos de almacenamiento denso con capacidad de almacenamiento adicional
F. Ejecute una sentencia CREATE TABLE AS SELECT (CTAS) para mover los registros con una antigüedad superior a 13 meses a datos trimestrales particionados en Amazon Redshift Spectrum respaldados por Amazon S3
Ver respuesta
Respuesta correcta: ACE
Cuestionar #7
Una empresa tiene entre 10 y 15 archivos .csv sin comprimir en Amazon S3. La empresa está evaluando Amazon Athena como motor de consultas único. La empresa desea transformar los datos para optimizar el tiempo de ejecución de las consultas y los costos de almacenamiento
A. CSV comprimido con zip
B. JSON comprimido con bzip2
C. Apache Parquet comprimido con Snappy
D. Apache Avro comprimido con LZO
Ver respuesta
Respuesta correcta: B
Cuestionar #8
Una empresa está creando una solución analítica que incluye Amazon S3 como almacenamiento de lago de datos y Amazon Redshift para el almacenamiento de datos. La empresa desea utilizar Amazon Redshift Spectrum para consultar los datos almacenados en Amazon S3. ¿Qué pasos debe seguir la empresa para mejorar el rendimiento cuando utilice Amazon Redshift Spectrum para consultar los archivos de datos de S3? (Seleccione TRES) Utilizar compresión gzip con tamaños de archivo individuales de 1-5 GB
A. tilizar un formato de archivo de almacenamiento en columnas
B. articionar los datos en función de los predicados de consulta más comunes
C. ividir los datos en archivos de tamaño KB
D. Mantener todos los archivos del mismo tamaño
E. tilizar formatos de archivo no divisibles
Ver respuesta
Respuesta correcta: BCD
Cuestionar #9
Una organización gubernamental central está recopilando eventos de varias aplicaciones internas mediante Amazon Managed Streaming para Apache Kafka (Amazon MSK). La organización ha configurado un tema de Kafka independiente para cada aplicación con el fin de separar los datos. Por motivos de seguridad, el clúster de Kafka se ha configurado para permitir únicamente datos cifrados mediante TLS y cifra los datos en reposo
A. Cree un grupo de seguridad de Amazon EC2 diferente para cada aplicación
B. Instale Kafka Connect en cada instancia de aplicación y configure cada instancia de Kafka Connect para que escriba únicamente en un tema específico
C. Utilice ACL de Kafka y configure permisos de lectura y escritura para cada temA
D. Cree un grupo de seguridad de Amazon EC2 diferente para cada aplicación
Ver respuesta
Respuesta correcta: B
Cuestionar #10
Una empresa de juegos para móviles desea capturar datos de su aplicación de juegos y ponerlos a disposición para su análisis inmediato. A la empresa le preocupa conseguir un rendimiento óptimo de cada dispositivo. Además, la empresa quiere desarrollar una aplicación de procesamiento de flujos de datos con un rendimiento dedicado para cada consumidor
A. Haga que la aplicación llame a la API PutRecords para enviar datos a Amazon Kinesis Data Streams
B. Haga que la aplicación llame a la API PutRecordBatch para enviar datos a Amazon Kinesis Data Firehose
C. Haga que la aplicación utilice Amazon Kinesis Producer Library (KPL) para enviar datos a Kinesis Data Firehose
D. Hacer que la aplicación llame a la API PutRecords para enviar datos a Amazon Kinesis Data Streams
Ver respuesta
Respuesta correcta: D
Cuestionar #11
Un especialista en análisis de datos está creando una canalización de ingestión ETL automatizada con AWS Glue para ingestar archivos comprimidos que se han cargado en un bucket de Amazon S3. La canalización de ingestión debe admitir el procesamiento de datos incremental. ¿Qué característica de AWS Glue debe utilizar el especialista en análisis de datos para cumplir este requisito?
A. Flujos de trabajo
B. Desencadenantes
C. Marcadores de trabajo
D. Clasificadores
Ver respuesta
Respuesta correcta: B
Cuestionar #12
Una empresa minorista está creando su solución de almacén de datos con Amazon Redshift. Como parte de ese esfuerzo, la compañía está cargando cientos de archivos en la tabla de hechos creada en su clúster de Amazon Redshift. La empresa desea que la solución alcance el máximo rendimiento y utilice de forma óptima los recursos del clúster al cargar datos en la tabla de hechos de la empresa. ¿Cómo debe cumplir la empresa estos requisitos?
A. Utilice varios comandos COPY para cargar los datos en el clúster de Amazon Redshift
B. Utilizar S3DistCp para cargar varios archivos en el sistema de archivos distribuidos Hadoop (HDFS) y utilizar un HDFSconnector para ingerir los datos en el clúster de Amazon Redshift
C. Utilice comandos LOAD iguales al número de nodos de clúster de Amazon Redshift y cargue los datos en paralelo en cada nodo
D. Utilice un único comando COPY para cargar los datos en el clúster de Amazon Redshift
Ver respuesta
Respuesta correcta: B
Cuestionar #13
Una universidad pretende utilizar Amazon Kinesis Data Firehose para recopilar lotes de lecturas de calidad del agua con formato JSON en Amazon S3. Las lecturas proceden de 50 sensores repartidos por un lago local. Los estudiantes consultarán los datos almacenados mediante Amazon Athena para observar los cambios en una métrica capturada a lo largo del tiempo, como la temperatura del agua o la acidez. El interés por el estudio ha crecido, lo que ha llevado a la universidad a reconsiderar cómo se almacenarán los datos. ¿Qué opciones de formato y partición de datos reducirán MÁS significativamente la c
A. Almacenar los datos en formato Apache Avro utilizando la compresión Snappy
B. Divida los datos por año, mes y díA
C. Almacenar los datos en formato Apache ORC sin compresión
D. Almacenar los datos en formato Apache Parquet utilizando compresión Snappy
E. Divida los datos por sensor, año, mes y díA
Ver respuesta
Respuesta correcta: B
Cuestionar #14
Una compañía de atención médica utiliza herramientas de datos y análisis de AWS para recopilar, ingerir y almacenar datos de registros de salud electrónicos (EHR) sobre sus pacientes. Los datos EHR sin procesar se almacenan en Amazon S3 en formato JSON divididos por hora, día y año, y se actualizan cada hora. La empresa desea mantener el catálogo de datos y los metadatos en un catálogo de datos de AWS Glue para poder obtener acceso a los datos mediante Amazon Athena o Amazon Redshift Spectrum para el análisis. Al definir tablas en el catálogo de datos, la empresa tiene los siguientes r
A. Ejecute un rastreador de AWS Glue que se conecte a uno o varios almacenes de datos, determine las estructuras de datos y escriba tablas en el catálogo de datos
B. Utilice la consola de AWS Glue para crear manualmente una tabla en el catálogo de datos y programar una función de AWS Lambda para actualizar las particiones de la tabla cada horA
C. Utilice la operación CreateTable de la API de AWS Glue para crear una tabla en el catalo de datos
D. Cree un rastreador de AWS Glue y especifique la tabla como origen
E. Crear un catálogo de Apache Hive en Amazon EMR con la definición del esquema de tabla en Amazon S3 y actualizar la partición de la tabla con un jo programado
F. Migre el catálogo Hive al Catálogo de Datos
Ver respuesta
Respuesta correcta: C
Cuestionar #15
Una empresa de redes sociales utiliza herramientas de inteligencia empresarial para analizar datos con fines de previsión. La empresa utiliza Apache Kafka para la ingesta de datos y desea crear cuadros de mando dinámicos que incluyan información de aprendizaje automático (ML) para predecir tendencias empresariales clave. Los cuadros de mando deben mostrar datos recientes por lotes que no tengan más de 75 minutos de antigüedad. Varios equipos de la empresa desean ver los paneles utilizando Amazon QuickSight con información de ML. ¿Qué solución cumplirá estos requisitos?
A. ustituya Kafka por Amazon Managed Streaming para Apache Kafka (Amazon MSK)
B. ustituya Kafka por una transmisión de datos de Amazon Kinesis
C. onfigure el conector Kafka-Kinesis para publicar los datos en una transmisión de entrega de Amazon Kinesis Data Firehose
D. Configurar el conector Kafka-Kinesis para publicar los datos en una transmisión de entrega de Amazon Kinesis Data Firehose
Ver respuesta
Respuesta correcta: C
Cuestionar #16
Una empresa de transportes utiliza sensores IoT conectados a camiones para recopilar datos de vehículos de su flota de reparto global. Actualmente, la empresa envía los datos de los sensores en pequeños archivos .csv a Amazon S3. A continuación, los archivos se cargan en un clúster de AmazonRedshift de 10 nodos con dos segmentos por nodo y se consultan mediante Amazon Athena y Amazon Redshift. La empresa desea optimizar los archivos para reducir el costo de las consultas y mejorar la velocidad de carga de datos en el clúster de Amazon Redshift
A. Utilice AWS Glue para convertir todos los archivos de
B. Utilice Amazon EMR para convertir cada archivo
C. Utilice AWS Glue para convertir los archivos de
D. Utilizar AWS Glue para convertir los archivos de
Ver respuesta
Respuesta correcta: D

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: