¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

Apruebe sus preguntas y pruebas prácticas de certificación MLS-C01, Aprendizaje automático certificado de AWS | SPOTO

El examen AWS Certified Machine Learning-Specialty (MLS-C01) está dirigido a profesionales en funciones de desarrollo o ciencia de datos, y valida sus habilidades en la creación, capacitación, optimización e implementación de modelos de aprendizaje automático en la infraestructura de AWS. El acceso a estos recursos mejora la preparación para el examen, aumenta la confianza y mejora la probabilidad de aprobar el examen de certificación MLS-C01. SPOTO ofrece un paquete completo de preparación para el examen MLS-C01, que incluye pruebas de práctica y preguntas de certificación MLS-C01. Estos recursos cubren una gama de asuntos tales como preguntas del examen, preguntas de la muestra, y vertederos del examen, asegurando la preparación cuidadosa para el examen MLS-C01.
Realizar otros exámenes en línea

Cuestionar #1
Un especialista en aprendizaje automático está desarrollando un modelo de recomendación de vídeos personalizado para una aplicación El conjunto de datos utilizado para entrenar este modelo es muy grande, con millones de puntos de datos, y está hospedado en un bucket de Amazon S3 El especialista desea evitar cargar todos estos datos en una instancia de notebook de Amazon SageMaker porque tardaría horas en moverlos y excedería el volumen de Amazon EBS de 5 GB adjunto en la instancia de notebook. ¿Qué enfoque permite al especialista utilizar todos los datos para entrenar el modelo?
A. Cargar un subconjunto más pequeño de datos en el cuaderno SageMaker y entrenar localmente
B. Confirme que el código de entrenamiento se está ejecutando y que los parámetros del modelo parecen razonables
C. Inicie un trabajo de formación de SageMaker con el conjunto de datos completo del bucket de S3 utilizando el modo de entrada Pipe
D. Lanzar una instancia de Amazon EC2 con una AMI de AWS Deep Learning y adjuntar el bucket de S3 a lainstanc
E. Entrenar con una pequeña cantidad de datos para verificar el código de entrenamiento y los hiperparámetros
F. G
Ver respuesta
Respuesta correcta: C
Cuestionar #2
Un científico de datos desea obtener información en tiempo real sobre un flujo de datos de archivos GZIP. Qué solución permitiría el uso de SQL para consultar el flujo con la MENOR latencia?
A. Amazon Kinesis Data Analytics con una función de AWS Lambda para transformar los datos
B. AWS Glue con un script ETL personalizado para transformar los datos
C. Una biblioteca de clientes de Amazon Kinesis para transformar los datos y guardarlos en un clúster de Amazon ES
D. Amazon Kinesis Data Firehose para transformar los datos y colocarlos en un bucket de Amazon S3
Ver respuesta
Respuesta correcta: A
Cuestionar #3
P22: Una cadena minorista ha estado ingiriendo registros de compras de su red de 20 000 tiendas en Amazon S3 mediante Amazon Kinesis Data Firehose. Para apoyar el entrenamiento de un modelo de aprendizaje automático mejorado, los registros de entrenamiento requerirán transformaciones nuevas pero sencillas, y algunos atributos se combinarán. El modelo debe volver a entrenarse diariamente. Dado el gran número de almacenes y la ingestión de datos heredados, ¿qué cambio requerirá la MENOR cantidad de esfuerzo de desarrollo?
A. Exigir que los almacenes pasen a capturar sus datos localmente en AWS Storage Gateway para cargarlos en Amazon S3 y, a continuación, utilizar AWS Glue para realizar la transformación
B. Implemente un clúster de Amazon EMR que ejecute Apache Spark con la lógica de transformación y haga que el clúster se ejecute cada día en los registros acumulados en Amazon S3, generando registros nuevos/transformados en Amazon S3
C. Crear una flota de instancias de Amazon EC2 con la lógica de transformación, hacer que transformen los registros de datos que se acumulan en Amazon S3 y enviar los registros transformados a Amazon S3
D. Inserte una transmisión de Amazon Kinesis Data Analytics aguas abajo de la transmisión de Kinesis Data Firehose que transforme los atributos de registro sin procesar en valores transformados simples mediante SQL
Ver respuesta
Respuesta correcta: D
Cuestionar #4
Un especialista en aprendizaje automático debe crear un proceso para consultar un conjunto de datos en Amazon S3 mediante Amazon Athena El conjunto de datos contiene más de 800 000 registros almacenados como archivos CSV de texto sin formato Cada registro contiene 200 columnas y tiene un tamaño aproximado de 15 MB La mayoría de las consultas abarcarán de 5 a 10 columnas únicamente ¿Cómo debe transformar el conjunto de datos el especialista en aprendizaje automático para minimizar el tiempo de ejecución de la consulta?
A. Convertir los registros al formato Apache Parquet
B. Convertir los registros a formato JSON
C. Convertir los registros al formato GZIP CSV
D. Convertir los registros a formato XML
Ver respuesta
Respuesta correcta: A
Cuestionar #5
Un gran fabricante de bienes de consumo tiene a la venta los siguientes productos ? 34 pastas dentífricas diferentes ? 48 variantes diferentes de cepillos de dientes ? 43 variantes diferentes de enjuagues bucales El historial completo de ventas de todos estos productos está disponible en Amazon S3 Actualmente, la empresa utiliza modelos de medias móviles autorregresivas integradas (ARIMA) personalizados para predecir la demanda de estos productos La empresa desea predecir la demanda de un nuevo producto que se lanzará próximamente ¿Qué solución debería utilizar un modelo de aprendizaje automático para predecir la demanda de un nuevo producto que se lanzará próximamente?
A. Entrene un modelo ARIMA personalizado para prever la demanda del nuevo producto
B. Entrenar un algoritmo DeepAR de Amazon SageMaker para prever la demanda del nuevo producto
C. Entrenar un algoritmo de agrupación k-means de Amazon SageMaker para prever la demanda del nuevo producto
D. Entrenar un modelo XGBoost personalizado para prever la demanda del nuevo producto
Ver respuesta
Respuesta correcta: C
Cuestionar #6
P21: Un especialista en aprendizaje automático está configurando Amazon SageMaker para que varios científicos de datos puedan obtener acceso a cuadernos, entrenar modelos e implementar puntos de enlace. Para garantizar el mejor desempeño operativo, el especialista necesita poder realizar un seguimiento de la frecuencia con la que los científicos implementan modelos, la utilización de la GPU y la CPU en los puntos de enlace de SageMaker implementados y todos los errores que se generan cuando se invoca un punto de enlace. ¿Qué servicios están integrados con Amazon SageMaker para realizar un seguimiento de esta información? (Elija dos.)
A. AWS CloudTrail
B. Salud de AWS
C. Asesor de confianza de AWS
D. Amazon CloudWatch
E. Configuración de AWS
Ver respuesta
Respuesta correcta: AD
Cuestionar #7
Una empresa de servicios financieros está construyendo un sólido lago de datos sin servidor en Amazon S3. El lago de datos debe ser flexible y cumplir los siguientes requisitos: * Admitir consultas de datos antiguos y nuevos en Amazon S3 a través de Amazon Athena y Amazon Redshift Spectrum. * Admitir canalizaciones ETL basadas en eventos. * Proporcionar una forma rápida y sencilla de comprender los metadatos. ¿Qué enfoque cumple estos requisitos?
A. Utilice un rastreador de AWS Glue para rastrear datos de S3, una función de AWS Lambda para activar un trabajo ETL de AWS Glue y un catálogo de datos de AWS Glue para buscar y descubrir metadatos
B. Utilice un rastreador de AWS Glue para rastrear datos de S3, una función de AWS Lambda para activar un trabajo por lotes de AWS y un metastore externo de Apache Hive para buscar y descubrir metadatos
C. Utilice un rastreador de AWS Glue para rastrear datos de S3, una alarma de Amazon CloudWatch para activar un trabajo de AWS Batch y un catálogo de datos de AWS Glue para buscar y descubrir metadatos
D. Utilice un rastreador de AWS Glue para rastrear datos de S3, una alarma de Amazon CloudWatch para activar un trabajo ETL de AWS Glue y un metastore externo de Apache Hive para buscar y descubrir metadatos
Ver respuesta
Respuesta correcta: C
Cuestionar #8
Un Especialista en Aprendizaje Automático está construyendo un modelo de regresión logística que predecirá si una persona pedirá o no una pizza. El especialista intenta construir el modelo óptimo con un umbral de clasificación ideal. ¿Qué técnica de evaluación de modelos debería utilizar el especialista para comprender cómo afectarán los diferentes umbrales de clasificación al rendimiento del modelo?
A. Curva receiver operating characteristic (ROC)
B. Tasa de clasificación errónea
C. Error cuadrático medio (RM&)
D. Norma L1
Ver respuesta
Respuesta correcta: B

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: