¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

MLS-C01 Exam Practice Made Easy: Latest Mock Exams, AWS Certified Machine Learning | SPOTO

El examen AWS Certified Machine Learning-Specialty (MLS-C01) es un hito importante para los profesionales de TI que desempeñan funciones de desarrollo o ciencia de datos. Se centra en evaluar las habilidades de los candidatos para crear, entrenar, ajustar e implementar modelos de aprendizaje automático con la nube de AWS. Esta certificación demuestra el dominio de los servicios de AWS para tareas de ML, como Amazon SageMaker, AWS Lambda y Amazon S3. Para la preparación del examen, los candidatos pueden beneficiarse de una variedad de recursos, incluidas preguntas y respuestas del examen, pruebas prácticas, preguntas de muestra y volcados de examen. Estos materiales ayudan a familiarizarse con el formato del examen, comprender los conceptos clave y practicar la resolución de problemas en condiciones de examen. Además, la utilización de simuladores de examen y preguntas de examen en línea mejora la preparación y la confianza. SPOTO ofrece los últimos simuladores de examen para la certificación MLS-C01, proporcionando a los candidatos simulaciones de examen realistas y valiosas oportunidades de práctica. El acceso a estos recursos puede hacer que la práctica del examen sea fácil y efectiva, lo que conduce a resultados exitosos en el examen.
Realizar otros exámenes en línea

Cuestionar #1
Un Especialista en Aprendizaje Automático desea determinar la configuración adecuada de SageMakerVariant Invocations Per Instance para una configuración de escalado automático de endpoints. El especialista ha realizado una prueba de carga en una única instancia y ha determinado que el pico de solicitudes por segundo (RPS) sin degradación del servicio es de aproximadamente 20 RPS. Como se trata de la primera implementación, el especialista tiene la intención de establecer el factor de seguridad de invocación en 0,5. Basándose en los parámetros indicados y dado que el ajuste de invocaciones por instancia se mide..
A. 10
B. 30
C. 600
D. 2,400
Ver respuesta
Respuesta correcta: C
Cuestionar #2
Un equipo de Data Science está diseñando un repositorio de conjuntos de datos en el que almacenará una gran cantidad de datos de entrenamiento utilizados habitualmente en sus modelos de aprendizaje automático. Como los científicos de datos pueden crear un número arbitrario de nuevos conjuntos de datos cada día, la solución tiene que escalar automáticamente y ser rentable. Además, debe ser posible explorar los datos mediante SQL. ¿Qué esquema de almacenamiento es el MÁS adaptado a esta situación?
A. Almacenar conjuntos de datos como archivos en Amazon S3
B. Almacenar conjuntos de datos como archivos en un volumen de Amazon EBS adjunto a una instancia de Amazon EC2
C. Almacenar conjuntos de datos como tablas en un clúster multinodo de Amazon Redshift
D. Almacenar conjuntos de datos como tablas globales en Amazon DynamoDB
Ver respuesta
Respuesta correcta: B
Cuestionar #3
El gráfico que se muestra procede de un modelo forestal para probar una serie temporal. Considerando únicamente el gráfico, ¿qué conclusión debería sacar un especialista en aprendizaje automático sobre el comportamiento del modelo?
A. El modelo predice bien tanto la tendencia como la estacionalidad
B. El modelo predice bien la tendencia, pero no la estacionalidad
C. El modelo predice bien la estacionalidad, pero no la tendenciA
D. El modelo no predice bien la tendencia ni la estacionalidad
Ver respuesta
Respuesta correcta: B
Cuestionar #4
Mientras trabaja en un proyecto de red neuronal, un especialista en aprendizaje automático descubre que algunas características de los datos tienen una magnitud muy alta, por lo que estos datos se ponderan más en la función de coste ¿Qué debería hacer el especialista para garantizar una mejor convergencia durante la retropropagación?
A. Reducción de la dimensionalidad
B. Normalización de datos
C. Regulación de modelos
D. Aumento de datos para la clase minoritaria
Ver respuesta
Respuesta correcta: D
Cuestionar #5
Un especialista en aprendizaje automático está implementando una red bayesiana completa en un conjunto de datos que describe el transporte público en la ciudad de Nueva York. Una de las variables aleatorias es discreta y representa el número de minutos que los neoyorquinos esperan un autobús dado que los autobuses pasan cada 10 minutos, con una media de 3 minutos. ¿Qué distribución de probabilidad a priori debería utilizar el especialista en ML para esta variable?
A. Distribución de Poisson ,
B. Distribución uniforme
C. Distribución normal
D. Distribución binomial
Ver respuesta
Respuesta correcta: D
Cuestionar #6
Un especialista en aprendizaje automático está empaquetando un modelo ResNet personalizado en un contenedor Docker para que la empresa pueda aprovechar Amazon SageMaker para el entrenamiento. El especialista está utilizando instancias de Amazon EC2 P3 para entrenar el modelo y necesita configurar correctamente el contenedor Docker para aprovechar las GPU NVIDIA. ¿Qué debe hacer el especialista?
A. Agrupa los controladores NVIDIA con la imagen Docker
B. Cree el contenedor Docker para que sea compatible con NVIDIA-Docker
C. Organizar la estructura de archivos del contenedor Docker para ejecutar en instancias de GPU
D. Establecer el indicador GPU en el cuerpo de la solicitud CreateTrainingJob de Amazon SageMaker
Ver respuesta
Respuesta correcta: C
Cuestionar #7
Un especialista en aprendizaje automático está trabajando con una gran empresa de ciberseguridad que gestiona eventos de seguridad en tiempo real para empresas de todo el mundo La empresa de ciberseguridad quiere diseñar una solución que le permita utilizar el aprendizaje automático para puntuar eventos maliciosos como anomalías en los datos a medida que se ingieren La empresa también quiere ser capaz de guardar los resultados en su lago de datos para su posterior procesamiento y análisis ¿Cuál es la forma MÁS eficiente de realizar estas tareas?
A. Ingerir los datos mediante Amazon Kinesis Data Firehose y utilizar Amazon Kinesis Data Analytics Random Cut Forest (RCF) para la detección de anomalías
B. Ingerir los datos en Apache Spark Streaming utilizando Amazon EM
C. y utilizar Spark MLlib con k-means para realizar la detección de anomalías A continuación, almacenar los resultados en un Apache Hadoop Distributed File System (HDFS) utilizando Amazon EMR con un factor de replicación de tres como el lago de datos
D. Ingerir los datos y almacenarlos en Amazon S3 Utilice AWS Batch junto con las AMI de aprendizaje profundo de AWS para entrenar un modelo k-means con TensorFlow en los datos de Amazon S3
E. Ingerir los datos y almacenarlos en Amazon S3
Ver respuesta
Respuesta correcta: A

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: