¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

Domine los exámenes DAS-C01 con preguntas de examen y materiales de estudio, AWS Certified Data Analytics | SPOTO

Master the DAS-C01 exams with SPOTO's Exam Questions & Study Materials for AWS Certified Data Analytics - Specialty (DAS-C01). Esta certificación es vital para los profesionales que desempeñan funciones de análisis de datos, ya que verifica su experiencia en el aprovechamiento de los servicios de AWS para el diseño, la seguridad y la administración de soluciones de análisis. Nuestros completos materiales de estudio incluyen preguntas y respuestas del examen, pruebas prácticas y volcados del examen, que garantizan una comprensión profunda de los conceptos clave. Acceda a preguntas de muestra, materiales de examen y respuestas para mejorar la práctica y la preparación del examen. Utilice nuestro simulador de examen para realizar pruebas realistas y mejorar su rendimiento. Benefíciese de las preguntas de examen online y de los exámenes de prueba para medir su preparación y sobresalir en el examen AWS Certified Data Analytics - Specialty (DAS-C01). SPOTO proporciona las herramientas y el soporte necesarios para tener éxito en su carrera de análisis de datos

Realizar otros exámenes en línea

Cuestionar #1
Una empresa aloja una base de datos PostgreSQL local que contiene datos históricos. Una aplicación heredada interna utiliza la base de datos para actividades de solo lectura. El equipo empresarial de la compañía desea trasladar los datos a un lago de datos en Amazon S3 lo antes posible y enriquecer los datos para el análisis. La empresa ha configurado una conexión de AWS Direct Connect entre su VPC y su red on-premise. Un especialista en análisis de datos debe diseñar una solución que logre los objetivos del equipo empresarial con el menor coste operativo posible
A. Cargar los datos de la base de datos PostgreSQL local en Amazon S3 mediante un proceso de carga por lotes personalizado
B. Utilizar el rastreador de AWS Glue para catalogar los datos en Amazon S3
C. Utilizar Amazon Athena para consultar los datos
D. Crear una base de datos de Amazon RDS para PostgreSQL y utilizar AWS Database Migration Service (AWS DMS) para migrar los datos a Amazon RD
E. Utilice AWS Data Pipeline para copiar y enriquecer los datos de la tabla de Amazon RDS para PostgreSQL y mover los datos a Amazon S3
F. Configurar un rastreador de AWS Glue para utilizar una conexión JDBC para catalogar los datos en las bases de datos on-premise G
Ver respuesta
Respuesta correcta: A
Cuestionar #2
Un analista de datos ejecuta un gran número de consultas en lenguaje de manipulación de datos (DML) utilizando Amazon Athena con el controlador JDBC. Recientemente, una consulta falló después de ejecutarse durante 30 minutos. La consulta devolvió el siguiente mensaje Java.sql.SGLException: Query timeout El analista de datos no necesita inmediatamente los resultados de la consulta Sin embargo, el analista de datos necesita una solución a largo plazo para este problema ¿Qué solución cumplirá estos requisitos?
A. Dividir la consulta en consultas más pequeñas para buscar subconjuntos de datos más pequeños
B. En la configuración de Athena, ajuste el límite de tiempo de espera de la consulta DML
C. En la consola Cuotas de servicio, solicite un aumento del tiempo de espera de la consulta DML
D. Guardar las tablas como archivos
Ver respuesta
Respuesta correcta: D
Cuestionar #3
Una empresa desea enriquecer los logs de la aplicación casi en tiempo real y utilizar el conjunto de datos enriquecido para análisis posteriores. La aplicación se ejecuta en instancias de Amazon EC2 en varias zonas de disponibilidad y almacena sus logs mediante Amazon CloudWatch Logs. La fuente de enriquecimiento se almacena en una tabla de Amazon DynamoDB. ¿Qué solución cumple los requisitos para la recopilación y el enriquecimiento de eventos?
A. Utilizar una suscripción a CloudWatch Logs para enviar los datos a Amazon Kinesis Data Firehos
B. Utilice AWS Lambda para transformar los datos de la transmisión de entrega de Kinesis Data Firehose y enriquecerlos con los datos de la tabla de DynamoDB
C. Configurar Amazon S3 como destino de entrega de Kinesis Data Firehose
D. Exportar los registros sin procesar a Amazon S3 cada hora mediante AWS CL
E. Utilizar rastreadores AWS Glue para catalogar el registro
F. Configure una conexión de AWS Glue para la tabla de DynamoDB y configure un trabajo ETL de AWS Glue para enriquecer los datos G
Ver respuesta
Respuesta correcta: A
Cuestionar #4
Una empresa bancaria utiliza actualmente un clúster de Amazon Redshift con nodos de almacenamiento denso (DS) para almacenar datos confidenciales. Una auditoría descubrió que el clúster no está cifrado. Los requisitos de conformidad establecen que una base de datos con datos confidenciales debe cifrarse mediante un módulo de seguridad de hardware (HSM) con rotación de claves automatizada. ¿Qué combinación de pasos se requiere para lograr el cumplimiento? (Elija dos.)
A. Establezca una conexión de confianza con HSM utilizando un certificado de cliente y servidor con rotación automática de claves
B. Modificar el clúster con una opción de cifrado HSM y rotación automática de claves
C. Cree un nuevo clúster de Amazon Redshift cifrado con HSM y migre los datos al nuevo clúster
D. Habilitar HSM con rotación de claves a través de la CLI de AWS
E. Active el cifrado efímero de curva elíptica Diffie-Hellman (ECDHE) en el HSM
Ver respuesta
Respuesta correcta: C
Cuestionar #5
Una empresa utiliza un clúster de Amazon EMR con 50 nodos para procesar datos operativos y ponerlos a disposición de los analistas de datos Estos trabajos se ejecutan cada noche utilizando Apache Hive con el marco Apache Jez como modelo de procesamiento y escriben los resultados en Hadoop Distributed File System (HDFS) En las últimas semanas, los trabajos están fallando y están produciendo el siguiente mensaje de error "File could only be replicated to 0 nodes instead of 1" Un especialista en análisis de datos comprueba los registros de DataNode los registros de NameNode y la conectividad de red
A. Monitorizar la métrica HDFSUtilization
B. Si el valor supera un umbral definido por el usuario, añadir nodos de tarea al clúster EMR
C. Monitoriza el metri
D. Monitoree el metri MemoryAllocatedMB
E. Si el valor supera un umbral definido por el usuario, añadir nodos de tarea al clúster EMR
F. Monitor the MemoryAllocatedMB metri G
Ver respuesta
Respuesta correcta: D
Cuestionar #6
Una empresa está migrando de un clúster de Apache Hadoop on-premise a un clúster de Amazon EMR. El clúster solo funciona durante el horario laboral. Debido al requisito de la empresa de evitar fallos de clúster intradiarios, el clúster de EMR debe tener una alta disponibilidad. Cuando el clúster se cierra al final de cada día laborable, los datos deben persistir. ¿Qué configuraciones permitirían al cluster EMR cumplir con estos requisitos? (Elija tres.)
A. Sistema de archivos EMR (EMRFS) para almacenamiento
B. Sistema de archivos distribuidos Hadoop (HDFS) para almacenamiento
C. Catálogo de datos de AWS Glue como metastore para Apache Hive
D. Base de datos MySQL en el nodo maestro como metastore para Apache Hive
E. Múltiples nodos maestros en una única Zona de Disponibilidad
F. Múltiples nodos maestros en múltiples Zonas de Disponibilidad
Ver respuesta
Respuesta correcta: D
Cuestionar #7
Una compañía farmacéutica global recibe los resultados de las pruebas de nuevos medicamentos de varias instalaciones de pruebas de todo el mundo. Los resultados se envían en millones de objetos JSON de 1 KB a un bucket de Amazon S3 propiedad de la empresa. El equipo de ingeniería de datos necesita procesar esos archivos, convertirlos al formato Apache Parquet y cargarlos en Amazon Redshift para que los analistas de datos realicen informes de paneles. El equipo de ingeniería utiliza AWS Glue para procesar los objetos, AWS Step Functions para la orquestación de procesos y Amazo
A. Utilizar AWS Lambda para agrupar los archivos pequeños en archivos más grandes
B. Volver a escribir los archivos en Amazon S3
C. Utilizar la opción de agrupación dinámica de archivos de trama de AWS Glue durante la ingesta del archivo de entrada sin procesar
D. Procesar los archivos y cargarlos en tablas de Amazon Redshift
E. Utilice el comando COPY de Amazon Redshift para mover los archivos de Amazon S3 a las tablas de Amazon Redshift directamente
F. Procesar los archivos en Amazon Redshift
Ver respuesta
Respuesta correcta: C
Cuestionar #8
Un banco está utilizando Amazon Managed Streaming para Apache Kafka (Amazon MSK) para poblar datos en tiempo real en un lago de datos El lago de datos se construye en Amazon S3, y los datos deben ser accesibles desde el lago de datos dentro de las 24 horas Diferentes microservicios producen mensajes a diferentes temas en el clúster El clúster se crea con 8 TB de almacenamiento de Amazon Elastic Block Store (Amazon EBS) y un período de retención de 7 días El volumen de transacciones de los clientes se ha triplicado recientemente y la monitorización de disco ha proporcionado una alerta de que el
A. Utilice la consola de Amazon MSK para triplicar el almacenamiento del agente y reiniciar el clúster
B. Crear una alarma de Amazon CloudWatch que monitorice la métrica KafkaDataLogsDiskUsed Vaciar automáticamente los mensajes más antiguos cuando el valor de esta métrica supere el 85%
C. Crear una configuración personalizada de Amazon MSK Establecer el parámetro de horas de retención de logs en 48 Actualizar el clúster con el nuevo archivo de configuración
D. Triplicar el número de consumidores para garantizar que los datos se consumen en cuanto se añaden a un temA
Ver respuesta
Respuesta correcta: C
Cuestionar #9
Una empresa minorista está creando su solución de almacén de datos con Amazon Redshift. Como parte de ese esfuerzo, la compañía está cargando cientos de archivos en la tabla de hechos creada en su clúster de Amazon Redshift. La compañía desea que la solución alcance el máximo rendimiento y utilice de manera óptima los recursos del clúster al cargar datos en la tabla de hechos de la compañía. ¿Cómo debe cumplir la empresa estos requisitos?
A. Utilice varios comandos COPY para cargar los datos en el clúster de Amazon Redshift
B. Utilizar S3DistCp para cargar varios archivos en el sistema de archivos distribuidos Hadoop (HDFS) y utilizar un conector HDFS para ingerir los datos en el clúster de Amazon Redshift
C. Utilice comandos LOAD iguales al número de nodos de clúster de Amazon Redshift y cargue los datos en paralelo en cada nodo
D. Utilice un único comando COPY para cargar los datos en el clúster de Amazon Redshift
Ver respuesta
Respuesta correcta: ACE
Cuestionar #10
Una empresa almacena archivos con formato Apache Parquet en Amazon S3 La empresa utiliza un catálogo de datos de AWS Glue para almacenar los metadatos de la tabla y Amazon Athena para consultar y analizar los datos Las tablas tienen un gran número de particiones Las consultas solo se ejecutan en pequeños subconjuntos de datos de la tabla Un analista de datos añade nuevas particiones temporales a la tabla a medida que llegan nuevos datos Se ha pedido al analista de datos que reduzca el tiempo de ejecución de la consulta ¿Qué solución proporcionará la MAYOR reducción del tiempo de ejecución de la consulta?
A. Convierta los archivos Parquet al formato de archivo csv y, a continuación, intente consultar los datos de nuevo
B. Convertir los archivos Parquet a la forma de archivo ORC de Apache
C. A continuación, intente consultar los datos de nuevo
D. Utilizar la proyección de particiones para acelerar el procesamiento de la tabla particionada
E. Añadir más particiones que se utilizarán sobre la tabla
F. A continuación, filtre sobre dos particiones y ponga todas las columnas en la cláusula WHERE
Ver respuesta
Respuesta correcta: A
Cuestionar #11
Un minorista online está reconstruyendo su sistema de gestión de inventario y su sistema de reordenación de inventario para reordenar automáticamente los productos mediante el uso de Amazon Kinesis Data Streams. El sistema de gestión de inventario utiliza la biblioteca Kinesis Producer Library (KPL) para publicar datos en una transmisión. El sistema de reordenación de inventario utiliza la biblioteca de clientes de Kinesis (KCL) para consumir datos de la transmisión. El flujo se ha configurado para escalarse según sea necesario. Justo antes de la implantación en producción, el minorista descubre que el sistema de reordenación de inventario
A. El productor tiene un tiempo de espera relacionado con la red
B. El valor del flujo para la métrica IteratorAgeMilliseconds es demasiado alto
C. Se ha producido un cambio en el número de fragmentos, procesadores de registros o ambos
D. La propiedad de configuracion AggregationEnabled fue puesta a true
E. La propiedad de configuración max_records se ha establecido en un número demasiado alto
Ver respuesta
Respuesta correcta: C
Cuestionar #12
Una empresa de telecomunicaciones busca una solución de detección de anomalías para identificar llamadas fraudulentas. Actualmente, la empresa utiliza Amazon Kinesis para transmitir registros de llamadas de voz en formato JSON desde su base de datos on-premise a Amazon S3. El conjunto de datos existente contiene registros de llamadas de voz con 200 columnas. Para detectar llamadas fraudulentas, la solución tendría que examinar solo 5 de estas columnas. La empresa está interesada en una solución rentable que utilice AWS y que requiera un esfuerzo mínimo y experiencia en la detección de anomalías
A. Utilizar un trabajo de AWS Glue para transformar los datos de JSON a Apache Parque
B. Utilizar rastreadores de AWS Glue para descubrir el esquema y crear el catalo de datos de AWS Glue
C. Utilizar Amazon Athena para crear una tabla con un subconjunto de columnas
D. Utilice Amazon QuickSight para visualizar los datos y, a continuación, utilice la detección de anomalías basada en aprendizaje automático de Amazon QuickSight
E. Utilizar Kinesis Data Firehose para detectar anomalías en un flujo de datos de Kinesis mediante la ejecución de consultas SQL, que calculan una puntuación de anomalía para todas las llamadas y almacenan el resultado en Amazon RD
F. Utilice Amazon Athena para crear un conjunto de datos y Amazon QuickSight para visualizar los resultados
Ver respuesta
Respuesta correcta: B
Cuestionar #13
Una empresa desea mejorar la satisfacción del usuario de su sistema doméstico inteligente añadiendo más características a su motor de recomendaciones. Cada sensor envía de forma asíncrona sus datos JSON anidados a Amazon Kinesis Data Streams mediante Kinesis Producer Library (KPL) en Java. Las estadísticas de un conjunto de sensores averiados mostraron que, cuando un sensor funciona mal, sus datos registrados no siempre se envían a la nube. La empresa necesita una solución que ofrezca análisis casi en tiempo real de los datos de los sensores más actualizados. Whi
A. Establezca la propiedad RecordMaxBufferedTime del KPL en "1" para desactivar el almacenamiento en búfer en el lado del sensor
B. Empuje los datos enriquecidos a una flota de flujos de datos de Kinesis y active la función de transformación de datos para aplanar el archivo JSON
C. Instancie un clúster de almacenamiento denso de Amazon Redshift y utilícelo como destino para la transmisión de entrega de Kinesis Data Firehose
D. Actualizar el código de los sensores para utilizar la llamada PutRecord/PutRecords de la API de flujos de datos de Kinesis con el SDK de AWS para Jav
E. Utilizar Kinesis Data Analytics para enriquecer los datos basándose en un script SQL de detección de anomalías desarrollado por la empresa
F. Dirija la salida de la aplicación KDA a un flujo de entrega de Kinesis Data Firehose, active la función de transformación de datos para aplanar el archivo JSON y establezca el destino de Kinesis Data Firehose en un clúster de Amazon Elasticsearch Service
Ver respuesta
Respuesta correcta: B
Cuestionar #14
Una empresa con un sitio web de streaming de vídeo desea analizar el comportamiento de los usuarios para realizar recomendaciones a los usuarios en tiempo real Los datos de clickstream se envían a Amazon Kinesis Data Streams y los datos de referencia se almacenan en Amazon S3 La empresa desea una solución que pueda utilizar quenes SQL estándar La solución también debe proporcionar una forma de consultar datos de referencia precalculados mientras se realizan recomendaciones ¿Qué solución cumple estos requisitos?
A. Utilizar un trabajo shell de AWS Glue Python para procesar los datos entrantes de Kinesis Data Streams Utilizar la biblioteca Boto3 para escribir datos en Amazon Redshift
B. Utilizar AWS Glue streaming y Scale para procesar los datos entrantes de Kinesis Data Streams Utilizar el conector de AWS Glue para escribir datos en Amazon Redshift
C. Utilizar Amazon Kinesis Data Analytics para crear una tabla en la aplicación basada en los datos de referencia Procesar los datos entrantes de Kinesis Data Streams Utilizar una transmisión de datos para escribir los resultados en Amazon Redshift
D. Utilizar Amazon Kinesis Data Analytics para crear una tabla en la aplicación basada en los datos de referenciaProcesar los datos entrantes de Kinesis Data Streams Utilizar una transmisión de entrega de Amazon Kinesis Data Firehose para escribir los resultados en Amazon Redshift
Ver respuesta
Respuesta correcta: B
Cuestionar #15
Un analista de datos está diseñando un panel de Amazon QuickSight con datos de ventas centralizados que residen en Amazon Redshift. El panel debe restringirse para que un vendedor de Sídney (Australia) solo pueda ver la vista de Australia y para que un vendedor de Nueva York solo pueda ver los datos de Estados Unidos (EE. UU.). ¿Qué debe hacer el analista de datos para garantizar que se aplica la seguridad de datos adecuada?
A. Coloca las fuentes de datos de Australia y EE
B. Configure un grupo de seguridad VPC de Amazon Redshift para Australia y EE
C. Despliegue la edición QuickSight Enterprise para implementar la seguridad a nivel de filas (RLS) en la tabla de ventas
D. Implemente la edición QuickSight Enterprise y configure diferentes grupos de seguridad VPC para Australia y Estados Unidos
Ver respuesta
Respuesta correcta: BD
Cuestionar #16
Una empresa de medios de comunicación desea realizar aprendizaje automático y análisis de los datos que residen en su lago de datos de Amazon S3. Existen dos requisitos de transformación de datos que permitirán a los consumidores de la compañía crear informes: Transformaciones diarias de 300 GB de datos con diferentes formatos de archivo que aterrizan en Amazon S3 a una hora programada. Transformaciones únicas de terabytes de datos archivados que residen en el lago de datos de S3. ¿Qué combinación de soluciones satisface de forma rentable los requisitos de la empresa para tra
A. Para los datos entrantes diarios, utilice rastreadores de AWS Glue para escanear e identificar el esquemA
B. Para los datos entrantes diarios, utilice Amazon Athena para escanear e identificar el esquemA
C. Para los datos entrantes diarios, utilice Amazon Redshift para realizar transformaciones
D. Para los datos entrantes diarios, utilice flujos de trabajo de AWS Glue con trabajos de AWS Glue para realizar transformaciones
E. Para los datos archivados, utilice Amazon EMR para realizar transformaciones de datos
F. Para los datos archivados, utilice Amazon SageMaker para realizar transformaciones de datos
Ver respuesta
Respuesta correcta: B
Cuestionar #17
Una empresa de fabricación tiene muchos dispositivos loT en diferentes instalaciones de todo el mundo La empresa está utilizando Amazon Kinesis Data Streams para recopilar los datos de los dispositivos El equipo de operaciones de la empresa ha comenzado a observar muchas excepciones WnteThroughputExceeded El equipo de operaciones determina que el motivo es el número de registros que se están escribiendo en determinados shards Los datos contienen ID de dispositivo fecha de captura tipo de medición, valor de medición e ID de instalación El ID de instalación se utiliza como partición k
A. Cambiar la clave de partición de ID de instalación a una clave generada aleatoriamente
B. Aumentar el número de fragmentos
C. Archivar los datos de los productores
D. Cambiar la clave de partición de ID de instalación a fecha de captura
Ver respuesta
Respuesta correcta: A

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: