¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

2024 Preguntas y Pruebas Prácticas Actualizadas del Examen DAS-C01, AWS Certified Data Analytics | SPOTO

Consigue el éxito en el examen DAS-C01 actualizado de 2024 Preguntas yamp; Pruebas de práctica para AWS Certified Data Analytics - Specialty (DAS-C01) con SPOTO. Esta certificación es esencial para los profesionales que desempeñan funciones de análisis de datos, ya que valida su competencia en el aprovechamiento de los servicios de AWS para el diseño, la seguridad y la administración de soluciones de análisis. Nuestros completos recursos incluyen preguntas y respuestas de exámenes, pruebas prácticas y volcados de exámenes, lo que garantiza una preparación exhaustiva. Obtenga acceso a preguntas de muestra, materiales de examen y respuestas para mejorar la práctica y la preparación del examen. Utilice nuestro simulador del examen para los escenarios realistas de la prueba y evalúe su preparación con preguntas en línea del examen y exámenes simulados. SPOTO proporciona las herramientas y el soporte necesarios para sobresalir en el examen AWS Certified Data Analytics - Specialty (DAS-C01) y avanzar en su carrera en el análisis de datos.

Realizar otros exámenes en línea

Cuestionar #1
Una empresa almacena sus datos de ventas y marketing que incluyen información de identificación personal (PII) en Amazon S3. La empresa permite a sus analistas lanzar su propio clúster de Amazon EMR y ejecutar informes analíticos con los datos. Para cumplir los requisitos de conformidad, la empresa debe asegurarse de que los datos no sean accesibles públicamente durante todo este proceso. Un ingeniero de datos ha protegido Amazon S3, pero debe asegurarse de que los clústeres de EMR individuales creados por los analistas no estén expuestos a Internet. ¿Qué solución debería
A. Cree una configuración de seguridad de EMR y asegúrese de que la configuración de seguridad esté asociada a los clústeres de EMR cuando se creen
B. Compruebe regularmente el grupo de seguridad de los clusters EMR para asegurarse de que no permite tráfico entrante desde IPv4 0
C. Habilite la configuración de bloqueo de acceso público para Amazon EMR a nivel de cuenta antes de crear cualquier clúster de EMR
D. Usar AWS WAF para bloquear el acceso publico de internet a los clusters EMR
Ver respuesta
Respuesta correcta: C
Cuestionar #2
Una empresa bancaria utiliza actualmente Amazon Redshift para datos confidenciales. Una auditoría descubrió que el clúster actual no está cifrado. La conformidad exige que una base de datos con datos confidenciales se cifre mediante un módulo de seguridad de hardware (HSM) con claves gestionadas por el cliente
A. Cree un nuevo clúster de Amazon Redshift cifrado con HSM y migre los datos al nuevo clúster
B. Modifique el grupo de parámetros DB con la configuración de cifrado adecuada y, a continuación, reinicie el clúster
C. Habilitar el cifrado HSM en Amazon Redshift mediante la línea de comandos
D. Modificar el clúster de Amazon Redshift desde la consola y habilitar el cifrado mediante la opción HSM
Ver respuesta
Respuesta correcta: A
Cuestionar #3
Una empresa aloja una aplicación Apache Flink en sus instalaciones. La aplicación procesa datos de varios clústeres de Apache Kafka. Los datos proceden de diversas fuentes, como aplicaciones web, aplicaciones móviles y bases de datos operativas. La empresa ha migrado algunas de estas fuentes a AWS y ahora desea migrar la aplicación Flink. La compañía debe asegurarse de que los datos que residen en bases de datos dentro de la VPC no atraviesan Internet La aplicación debe ser capaz de procesar todos los datos que provienen de t
A. Implementar Flink en Amazon EC2 dentro de la VPC de la empresa Crear clústeres de Amazon Managed Streaming para Apache Kafka (Amazon MSK) en la VPC para recopilar datos que procedan de aplicaciones y bases de datos dentro de la VPC Utilizar Amazon Kinesis Data Streams para recopilar datos que procedan de la Internet pública Configurar Flink para que tenga fuentes de Kinesis Data Streams Amazon MSK y cualquier clúster de Kafka local mediante AWS Client VPN o AWS Direct Connect
B. Implementar Flink en Amazon EC2 dentro de la VPC de la empresa Utilizar Amazon Kinesis Data Streams para recopilar datos que procedan de aplicaciones y bases de datos dentro de la VPC y de la Internet pública Configurar Flink para que tenga fuentes de Kinesis Data Streams y cualquier clúster de Kafka on-premise mediante AWS Client VPN o AWS Direct Connect
C. Crear una aplicación Amazon Kinesis Data Analytics cargando el archivo jar de Flink compilado Utilizar Amazon Kinesis Data Streams para recopilar datos que procedan de aplicaciones y bases de datos dentro de la VPC y la Internet pública Configurar la aplicación Kinesis Data Analytics para que tenga fuentes de Kinesis Data Streams y cualquier clúster de Kafka on-premise utilizando AWS Client VPN o AWS Direct Connect
D. Crear una aplicación Amazon Kinesis Data Analytics cargando el archivo jar de Flink compilado Crear clústeres de Amazon Managed Streaming para Apache Kafka (Amazon MSK) en la VPC de la empresa para recopilar datos que procedan de aplicaciones y bases de datos dentro de la VPC Utilizar Amazon Kinesis Data Streams para recopilar datos que procedan de la Internet pública Configurar la aplicación Kinesis Data Analytics para que tenga fuentes de Kinesis Data Stream
E. Amazon MSK y cualquier clúster de Kafka local mediante AWS Client VPN o AWS Direct Connect
Ver respuesta
Respuesta correcta: D
Cuestionar #4
Un banco quiere migrar un almacén de datos Teradata a la nube de AWS El banco necesita una solución para leer grandes cantidades de datos y requiere el mayor rendimiento posible. La solución también debe mantener la separación entre almacenamiento e informática ¿Qué solución cumple estos requisitos?
A. Utilizar Amazon Athena para consultar los datos en Amazon S3
B. Utilizar Amazon Redshift con nodos informáticos densos para consultar los datos en el almacenamiento administrado de Amazon Redshift
C. Utilizar Amazon Redshift con nodos RA3 para consultar los datos en el almacenamiento administrado de Amazon Redshift
D. Utilizar PrestoDB en Amazon EMR para consultar los datos en Amazon S3
Ver respuesta
Respuesta correcta: B
Cuestionar #5
Una compañía eléctrica está desplegando miles de medidores inteligentes para obtener actualizaciones en tiempo real sobre el consumo de energía. La empresa utiliza Amazon Kinesis Data Streams para recopilar las transmisiones de datos de los contadores inteligentes. La aplicación del consumidor utiliza la biblioteca de clientes de Kinesis (KCL) para recuperar los datos de los flujos. La empresa solo tiene una aplicación de consumidor. La compañía observa un promedio de 1 segundo de latencia desde el momento en que se escribe un registro en la transmisión hasta que la aplicación del consumidor lee el registro.
A. Utilizar el fan-out mejorado en Kinesis Data Streams
B. Aumentar el número de fragmentos para el flujo de datos Kinesis
C. Reducir el retardo de propagación anulando la configuración por defecto de la KCL
D. Desarrollar consumidores utilizando Amazon Kinesis Data Firehose
Ver respuesta
Respuesta correcta: C
Cuestionar #6
Una compañía de software aloja una aplicación en AWS, y semanalmente se lanzan nuevas características. Como parte del proceso de prueba de la aplicación, se debe desarrollar una solución que analice los logs de cada instancia de Amazon EC2 para garantizar que la aplicación funciona según lo esperado después de cada despliegue. La solución de recopilación y análisis debe estar altamente disponible con la capacidad de mostrar nueva información con retrasos mínimos. ¿Qué método debe utilizar la empresa para recopilar y analizar los logs?
A. Habilite la monitorización detallada en Amazon EC2, utilice el agente de Amazon CloudWatch para almacenar logs en Amazon S3 y utilice Amazon Athena para obtener análisis de logs rápidos e interactivos
B. Utilice el agente de Amazon Kinesis Producer Library (KPL) en Amazon EC2 para recopilar y enviar datos a Kinesis Data Streams para enviarlos a Amazon Elasticsearch Service y visualizarlos con Amazon QuickSight
C. Utilice el agente de Amazon Kinesis Producer Library (KPL) en Amazon EC2 para recopilar y enviar datos a Kinesis Data Firehose para enviarlos posteriormente a Amazon Elasticsearch Service y KibanA
D. Utilice las suscripciones a Amazon CloudWatch para obtener acceso a una fuente de logs en tiempo real y enviar los logs a Amazon Kinesis Data Streams para enviar los datos a Amazon Elasticsearch Service y KibanA
Ver respuesta
Respuesta correcta: C
Cuestionar #7
Una empresa ha desarrollado varios trabajos de AWS Glue para validar y transformar sus datos de Amazon S3 y cargarlos enAmazon RDS para MySQL en lotes una vez al día. Los trabajos ETL leen los datos de S3 mediante un DynamicFrame. Actualmente, los desarrolladores de ETL tienen dificultades para procesar solo los datos incrementales en cada ejecución, ya que el trabajo de AWS Glue procesa todos los datos de entrada de S3 en cada ejecución
A. Haga que los trabajos ETL lean los datos de Amazon S3 utilizando un DataFrame
B. Habilitar marcadores de trabajo en los trabajos de AWS Glue
C. Cree una lógica personalizada en los trabajos ETL para realizar un seguimiento de los objetos S3 procesados
D. Hacer que los trabajos ETL eliminen los objetos o datos procesados de Amazon S3 después de cada ejecución
Ver respuesta
Respuesta correcta: D
Cuestionar #8
Un hospital utiliza sensores médicos portátiles para recoger datos de los pacientes. El hospital está diseñando una solución casi en tiempo real que pueda ingerir los datos de forma segura a gran escala. La solución también debe ser capaz de eliminar la información sanitaria protegida (PHI) de los pacientes de los datos transmitidos y almacenarlos de forma duradera
A. Ingerir los datos mediante Amazon Kinesis Data Streams, que invoca una función de AWS Lambda con Kinesis Client Library (KCL) para eliminar todos los PHI
B. Ingerir los datos con Amazon Kinesis Data Firehose para escribirlos en Amazon S3
C. Ingerir los datos con Amazon Kinesis Data Streams para escribirlos en Amazon S3
D. Ingerir los datos con Amazon Kinesis Data Firehose para escribirlos en Amazon S3
Ver respuesta
Respuesta correcta: C
Cuestionar #9
Una empresa lanzó un servicio que produce millones de mensajes cada día y utiliza Amazon Kinesis Data Streams como servicio de streaming. La empresa utiliza el SDK de Kinesis para escribir datos en Kinesis Data Streams. Unos meses después del lanzamiento, un analista de datos descubrió que el rendimiento de escritura se había reducido significativamente. El analista de datos investigó las métricas y determinó que Kinesis está estrangulando las solicitudes de escritura. El analista de datos desea solucionar este problema sin realizar cambios significativos en la arquitectura
A. Aumente el periodo de retención de Kinesis Data Streams para reducir el estrangulamiento
B. Sustituir el mecanismo de ingestión de datos basado en la API de Kinesis por Kinesis Agent
C. Aumentar el número de fragmentos en el flujo utilizando la API UpdateShardCount
D. Elegir las claves de partición de forma que se consiga una distribución uniforme de los registros entre los shards
E. Personalizar el código de la aplicación para incluir la lógica de reintento para mejorar el rendimiento
Ver respuesta
Respuesta correcta: AC
Cuestionar #10
Una empresa necesita almacenar objetos que contengan datos de logs en formato JSON. Los objetos son generados por ocho aplicaciones que se ejecutan en AWS. Seis de las aplicaciones generan un total de 500 KiB de datos por segundo, y dos de las aplicaciones pueden generar hasta 2 MiB de datos por segundo.Un ingeniero de datos desea implementar una solución escalable para capturar y almacenar datos de uso en un bucket de Amazon S3. Los objetos de datos de uso deben reformatearse, convertirse a formato .csv y comprimirse antes de almacenarse en Amazon S3
A. Configure una transmisión de entrega de Amazon Kinesis Data Firehose para cada aplicación
B. Configure una transmisión de datos de Amazon Kinesis con un fragmento por aplicación
C. Configure una transmisión de datos de Amazon Kinesis para cada aplicación
D. Almacenar objetos de datos de uso en una tabla de Amazon DynamoDB
Ver respuesta
Respuesta correcta: B
Cuestionar #11
Una empresa tiene una unidad de negocio que carga archivos .csv a un bucket de Amazon S3. El equipo de la plataforma de datos de la compañía ha configurado un rastreador de AWS Glue para realizar la detección y crear tablas y esquemas. Un trabajo de AWS Glue escribe los datos procesados de las tablas creadas en una base de datos de Amazon Redshift. El trabajo de AWS Glue gestiona la asignación de columnas y crea la tabla de AmazonRedshift de forma adecuada. Cuando el trabajo de AWS Glue se vuelve a ejecutar por cualquier motivo en un día, se introducen registros duplicados en la tabla de Amazon Redshift
A. Modifique el trabajo de AWS Glue para copiar las filas en una tabla de preparación
B. Cargue los datos insertados anteriormente en una base de datos MySQL en el trabajo de AWS Glue
C. Utilice la API dropDuplicates() de DataFrame de Apache Spark para eliminar duplicados y, a continuación, escriba los datos en Amazon Redshift
D. Utilice la transformación integrada AWS Glue ResolveChoice para seleccionar el valor más reciente de la columnA
Ver respuesta
Respuesta correcta: B
Cuestionar #12
Una empresa desea utilizar un algoritmo automático de aprendizaje automático (ML) Random Cut Forest (RCF) para visualizar escenarios complejos del mundo real, como la detección de estacionalidad y tendencias, la exclusión de valores externos y la imputación de valores perdidos. El equipo que trabaja en este proyecto no es técnico y busca una solución lista para usar que requiera la MENOR cantidad de gastos generales de gestión
A. Utilice una transformación de AWS Glue ML para crear una previsión y, a continuación, utilice Amazon QuickSight para visualizar los datos
B. Utilizar Amazon QuickSight para visualizar los datos y, a continuación, utilizar previsiones basadas en ML para pronosticar las métricas empresariales clave
C. Utilice una AMI de ML preconstruida de AWS Marketplace para crear previsiones y, a continuación, utilice Amazon QuickSight para visualizar los datos
D. Utilice campos calculados para crear una nueva previsión y, a continuación, utilice Amazon QuickSight para visualizar los datos
Ver respuesta
Respuesta correcta: A
Cuestionar #13
Una empresa tiene varias instancias de Amazon EC2 detrás de un Application Load Balancer (ALB) La empresa quiere que su equipo de infraestructura de TI analice las direcciones IP que entran en el ALB de la empresa El ALB está configurado para almacenar logs de acceso en Amazon S3 Los logs de acceso crean aproximadamente 1 TB de datos cada día, y el acceso a los datos será poco frecuente La empresa necesita una solución que sea escalable, rentable y con requisitos de mantenimiento mínimos ¿Qué solución cumple estos requisitos?
A. Copiar los datos en Amazon Redshift y consultar los datos
B. Utilizar Amazon EMR y Apache Hive para consultar los datos de S3
C. Utilizar Amazon Athena para consultar los datos de S3
D. Utilizar Amazon Redshift Spectrum para consultar los datos de S3
Ver respuesta
Respuesta correcta: D
Cuestionar #14
Una empresa tiene un clúster de Amazon Redshift cifrado. La empresa ha habilitado recientemente los logs de auditoría de Amazon Redshift y necesita asegurarse de que los logs de auditoría también estén cifrados en reposo. Los registros se conservan durante 1 año. El auditor consulta los registros una vez al mes. ¿Cuál es la forma MÁS rentable de cumplir estos requisitos?
A. Cifre el bucket de Amazon S3 donde se almacenan los logs mediante AWS Key Management Service (AWS KMS)
B. Consultar los datos según sea necesario
C. Deshabilitar el cifrado en el clúster de Amazon Redshift, configurar el registro de auditoría y cifrar el clúster de Amazon Redshift
D. Utilizar Amazon Redshift Spectrum para consultar los datos según sea necesario
E. Habilitar el cifrado por defecto en el bucket de Amazon S3 donde se almacenan los logs mediante cifrado AES-256
F. Copie los datos en el clúster de Amazon Redshift desde Amazon S3 diariamente
Ver respuesta
Respuesta correcta: B
Cuestionar #15
Una empresa de servicios financieros necesita agregar datos diarios de operaciones bursátiles de las bolsas a un almacén de datos. La empresa requiere que los datos se transmitan directamente al almacén de datos, pero también permite ocasionalmente que los datos se modifiquen mediante SQL. La solución debe integrar consultas analíticas complejas que se ejecuten con una latencia mínima. La solución debe proporcionar un panel de inteligencia empresarial que permita visualizar los principales factores que contribuyen a las anomalías en los precios de las acciones. ¿Qué solución cumple los requisitos de la empresa?
A. Utilice Amazon Kinesis Data Firehose para transmitir datos a Amazon S3
B. Utilizar Amazon Kinesis Data Streams para transmitir datos a Amazon Redshif
C. Utilizar Amazon Redshift como fuente de datos de Amazon QuickSight para crear un panel de inteligencia empresarial
D. Utilizar Amazon Kinesis Data Firehose para transmitir datos a Amazon Redshif
E. Utilizar Amazon Redshift como fuente de datos de Amazon QuickSight para crear un panel de inteligencia empresarial
F. Utilizar Amazon Kinesis Data Streams para transmitir datos a Amazon S3
Ver respuesta
Respuesta correcta: CD
Cuestionar #16
Una empresa está construyendo un lago de datos y necesita ingerir datos de una base de datos relacional que tiene datos de series temporales. La empresa desea utilizar servicios administrados para lograrlo. El proceso debe programarse a diario y solo debe traer datos incrementales del origen a Amazon S3. ¿Cuál es el enfoque MÁS rentable para cumplir estos requisitos?
A. Utilice AWS Glue para conectarse al origen de datos mediante controladores JDBC
B. Utilice AWS Glue para conectarse al origen de datos mediante controladores JDBC
C. Utilice AWS Glue para conectarse al origen de datos mediante controladores JDBC e ingiera el conjunto de datos completo
D. Utilice AWS Glue para conectarse al origen de datos mediante controladores JDBC e ingerir los datos completos
Ver respuesta
Respuesta correcta: B
Cuestionar #17
Una gran universidad ha adoptado el objetivo estratégico de aumentar la diversidad entre los estudiantes matriculados. El equipo de análisis de datos está creando un panel con visualizaciones de datos para que las partes interesadas puedan ver las tendencias históricas. Todos los accesos deben autenticarse mediante Microsoft Active Directory. Todos los datos en tránsito y en reposo deben estar cifrados. ¿Qué solución cumple estos requisitos?
A. Amazon QuickSight Standard edition configurado para realizar la federación de identidades mediante SAML 2
B. Amazon QuickSight Enterprise edition configurado para realizar la federación de identidades mediante SAML 2
C. Amazon QuckSight Standard edition con AD Connector para autenticar mediante Active Directory
D. Amazon QuickSight Enterprise edition mediante AD Connector para autenticar mediante Active Directory
Ver respuesta
Respuesta correcta: A
Cuestionar #18
Una empresa utiliza Amazon Redshift como almacén de datos. Una nueva tabla incluye algunas columnas que contienen datos confidenciales y algunas columnas que contienen datos no confidenciales. Un especialista en análisis de datos debe asegurarse de que solo los miembros del equipo de auditoría de la empresa puedan leer las columnas que contienen datos confidenciales. Todos los demás usuarios deben tener acceso de sólo lectura a las columnas que contienen datos no confidenciales
A. Conceder al equipo de auditoría permiso para leer de la tablA
B. Conceder a todos los usuarios permisos de sólo lectura para las columnas que contienen datos no confidenciales
C. Conceder a todos los usuarios permisos de sólo lectura para las columnas que contienen datos no sensibles
D. Conceder al equipo de auditoría permiso de lectura de la tablA
Ver respuesta
Respuesta correcta: D
Cuestionar #19
Una empresa de datos de mercado agrega fuentes de datos externas para crear una visión detallada del consumo de productos en distintos países. La empresa desea vender estos datos a partes externas a través de una suscripción. Para lograr este objetivo, la empresa necesita que sus datos estén disponibles de forma segura para las partes externas que también son usuarios de AWS. ¿Qué debería hacer la compañía para cumplir estos requisitos con la MENOR sobrecarga operativa?
A. Almacenar los datos en Amazon S3
B. Almacenar los datos en Amazon S3
C. Cargar los datos en AWS Data Exchange para su almacenamiento
D. Compartir los datos utilizando URL preasignadas por seguridad
E. Cargar los datos en AWS Data Exchange para su almacenamiento
F. Comparta los datos mediante el asistente de uso compartido de AWS Data Exchange
Ver respuesta
Respuesta correcta: A
Cuestionar #20
Un equipo de científicos de datos planea analizar datos de tendencias de mercado para la nueva estrategia de inversión de su empresa. Los datos de tendencias proceden de cinco fuentes de datos diferentes en grandes volúmenes. El equipo desea utilizar Amazon Kinesis para respaldar su caso de uso. El equipo utiliza consultas de tipo SQL para analizar las tendencias y desea enviar notificaciones en función de determinados patrones significativos en las tendencias. Además, los científicos de datos desean guardar los datos en Amazon S3 para archivarlos y volver a procesarlos históricamente, y utilizar AWS managed
A. Publicar datos en un flujo de datos Kinesis
B. Implementar una aplicación personalizada utilizando la biblioteca de clientes Kinesis (KCL) para analizar tendencias y enviar notificaciones utilizando Amazon SN
C. Configure Kinesis Data Firehose en el flujo de datos de Kinesis para persistir los datos en un bucket de S3
D. Publicar datos en un flujo de datos Kinesis
E. Implemente Kinesis Data Analytic en la transmisión para analizar tendencias y configure una función de AWS Lambda como salida para enviar notificaciones mediante Amazon SN
F. Configure Kinesis Data Firehose en la transmisión de datos de Kinesis para persistir los datos en un bucket de S3
Ver respuesta
Respuesta correcta: C
Cuestionar #21
Una empresa de fabricación lleva un año recopilando datos de sensores IoT de dispositivos de su planta de producción y los almacena en Amazon Redshift para su análisis diario. Un analista de datos ha determinado que, con una tasa de ingestión prevista de unos 2 TB diarios, el clúster estará infradimensionado en menos de 4 meses. Se necesita una solución a largo plazo. El analista de datos ha indicado que la mayoría de las consultas solo hacen referencia a los últimos 13 meses de datos, aunque también hay informes trimestrales que necesitan consultar todos los datos generados
A. Cree una tarea diaria en AWS Glue para DESCARGAR registros de más de 13 meses en Amazon S3 y eliminar esos registros de Amazon Redshift
B. Realice una snapshot del clúster de Amazon Redshift
C. Ejecute una sentencia CREATE TABLE AS SELECT (CTAS) para mover los registros con una antigüedad superior a 13 meses a los datos trimestrales particionados en Amazon Redshift Spectrum respaldados por Amazon S3
D. Descargue todas las tablas de Amazon Redshift en un bucket de Amazon S3 mediante S3 Intelligent-Tiering
Ver respuesta
Respuesta correcta: B
Cuestionar #22
Un especialista en análisis de datos está creando una canalización de ingestión ETL automatizada con AWS Glue para ingestar archivos comprimidos que se han cargado en un bucket de Amazon S3. La canalización de ingestión debe admitir el procesamiento incremental de datos. Qué característica de AWS Glue debe utilizar el especialista en análisis de datos para cumplir este requisito?
A. Flujos de trabajo
B. Desencadenantes
C. Marcadores de trabajo
D. Clasificadores
Ver respuesta
Respuesta correcta: D

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: