¿NO QUIERES PERDERTE NADA?

Consejos para aprobar el examen de certificación

Últimas noticias sobre exámenes e información sobre descuentos.

Curado y actualizado por nuestros expertos.

Sí, envíame el boletín.

Apruebe el examen AWS fácilmente con las preguntas prácticas MLS-C01 actualizadas

Prepárate eficazmente para el examen SPOTO AWS MLS-C01 con nuestra completa colección de preguntas y respuestas de examen adaptadas para el éxito. Nuestras preguntas de examen cubren temas clave esenciales para la certificación AWS Certified Machine Learning - Specialty, lo que garantiza una preparación exhaustiva y confianza el día del examen. Acceda a valiosos recursos de examen y materiales de estudio diseñados para mejorar sus conocimientos sobre la creación, capacitación, optimización e implementación de modelos de aprendizaje automático en la plataforma de AWS. Nos centramos en proporcionarle las herramientas y los conocimientos necesarios para aprobar con éxito, demostrando su experiencia en la implementación de iniciativas de aprendizaje automático basadas en la nube.

Certificación de aprendizaje automático - Especialidad

Realizar otros exámenes en línea

Cuestionar #1
Un fabricante de motores de automóviles recopila datos de los coches mientras se conducen. Los datos recogidos incluyen la hora, la temperatura del motor, las revoluciones por minuto (RPM) y otras lecturas de los sensores. La empresa quiere predecir cuándo un motor va a tener un problema, de modo que pueda avisar a los conductores con antelación para que realicen el mantenimiento del motor. Los datos del motor se cargan en un lago de datos para su entrenamiento. ¿Cuál es el modelo predictivo MÁS adecuado que se puede implantar en producción?
A. ñadir etiquetas a lo largo del tiempo para indicar qué fallos del motor se producen y en qué momento en el futuro para convertir esto en un problema de aprendizaje supervisado
B. stos datos requieren un algoritmo de aprendizaje no supervisado
C. ñadir etiquetas a lo largo del tiempo para indicar qué fallos del motor se producen y en qué momento en el futuro para convertir esto en un problema de aprendizaje supervisado
D. stos datos ya están formulados como una serie temporal
Ver respuesta
Respuesta correcta: A
Cuestionar #2
Un científico de datos necesita identificar cuentas de usuario fraudulentas para la plataforma de comercio electrónico de una empresa. La compañía quiere poder determinar si una cuenta recién creada está asociada a un usuario fraudulento conocido previamente. El científico de datos utiliza AWS Glue para limpiar los logs de la aplicación de la compañía durante la ingesta
A. jecute la consulta integrada FindDuplicates de Amazon AthenA
B. rear una transformación de aprendizaje automático FindMatches en AWS Glue
C. rear un rastreador AWS Glue para inferir cuentas duplicadas en los datos de origen
D. uscar cuentas duplicadas en el catálogo de datos de AWS Glue
Ver respuesta
Respuesta correcta: B
Cuestionar #3
Una empresa minorista pretende utilizar el aprendizaje automático para categorizar nuevos productos. Se proporcionó al equipo de ciencia de datos un conjunto de datos etiquetados de productos actuales. El conjunto de datos incluye 1.200 productos. El conjunto de datos etiquetados tiene 15 características para cada producto, como las dimensiones del título, el peso y el precio. Cada producto está etiquetado como perteneciente a una de las seis categorías siguientes: libros, juegos, electrónica y películas
A. n modeloXGBoost en el que el parámetro objetivo se establece en multi:softmax
B. na red neuronal convolucional profunda (CNN) con una función de activación softmax para la última capa
C. Un bosque de regresión en el que el número de árboles es igual al número de categorías de productos
D. n modelo de previsión DeepAR basado en una red neuronal recurrente (RNN)
Ver respuesta
Respuesta correcta: A
Cuestionar #4
Un científico de datos utiliza una instancia de bloc de notas de Amazon SageMaker para llevar a cabo la exploración y el análisis de datos. Para ello, es necesario instalar en la instancia de bloc de notas determinados paquetes de Python que no están disponibles de forma nativa en Amazon SageMaker
A. nstale el agente de AWS Systems Manager en la instancia de Amazon EC2 subyacente y utilice Systems Manager Automation para ejecutar los comandos de instalación de paquetes
B. ree un archivo de cuaderno Jupyter (
C. tiliza el gestor de paquetes conda desde la consola del cuaderno Jupyter para aplicar los paquetes conda necesarios al núcleo por defecto del cuaderno
D. ree una configuración del ciclo de vida de Amazon SageMaker con comandos de instalación de paquetes y asigne la configuración del ciclo de vida a la instancia de bloc de notas
Ver respuesta
Respuesta correcta: D
Cuestionar #5
Un especialista en aprendizaje automático trabaja para una empresa de procesamiento de fruta y necesita crear un sistema que clasifique las manzanas en tres tipos. El especialista ha recopilado un conjunto de datos que contiene 150 imágenes de cada tipo de manzana y ha aplicado el aprendizaje por transferencia a una red neuronal que se preentrenó en ImageNet con este conjunto de datos.La empresa requiere al menos un 85% de precisión para poder utilizar el modelo.Tras una búsqueda exhaustiva en la cuadrícula, los hiperparámetros óptimos produjeron lo siguiente:-68% de precisión en el conjunto de entrenamiento-67
A. onvertir las imágenes a escala de grises y volver a entrenar el modelo
B. educir el número de elementos distintos de 10 a 2, construir el modelo e iterar
C. ega etiquetas de diferentes colores a cada elemento, vuelve a tomar las imágenes y construye el modelo
D. Aumentar los datos de entrenamiento para cada elemento utilizando variantes de imagen como inversiones y traslaciones, construir el modelo e iterar
Ver respuesta
Respuesta correcta: B
Cuestionar #6
Un especialista en aprendizaje automático ha completado una prueba de concepto para una empresa utilizando una pequeña muestra de datos y ahora está listo para implementar una solución integral en AWS con Amazon SageMaker. Los datos de entrenamiento históricos se almacenan en Amazon RDS. ¿Qué enfoque debe utilizar el especialista para entrenar un modelo con esos datos?
A. scribir una conexión directa a la base de datos SQL dentro del bloc de notas y extraer los datos
B. mpuje los datos desde Microsoft SQL Server a Amazon S3 utilizando una canalización de datos de AWS y proporcione la ubicación de S3 en el bloc de notas
C. ueva los datos a Amazon DynamoDB y configure una conexión a DynamoDB dentro del bloc de notas para extraer datos
D. over los datos a Amazon ElastiCache utilizando AWS DMS y configurar una conexión dentro del bloc de notas para tirar de los datos para un acceso rápido
Ver respuesta
Respuesta correcta: B
Cuestionar #7
Una empresa está creando un modelo de mantenimiento predictivo basado en aprendizaje automático (ML). Los datos se almacenan en un bucket de Amazon S3 totalmente privado que se cifra en reposo con CMK de AWS Key Management Service (AWS KMS). Un especialista en ML debe ejecutar el preprocesamiento de datos mediante un trabajo de procesamiento de Amazon SageMaker que se activa desde el código de un cuaderno de Amazon SageMaker. El trabajo debe leer datos de Amazon S3, procesarlos y volver a cargarlos en el mismo bucket de S3. El código de preprocesamiento se almacena en una imagen de contenedor
A. ree una función de IAM que tenga permisos para crear trabajos de procesamiento de Amazon SageMaker, acceso de lectura y escritura de S3 al bucket de S3 correspondiente y los permisos de KMS y ECR adecuados
B. ree una función IAM que tenga permisos para crear trabajos de Amazon SageMaker Processing
C. ree una función de IAM que tenga permisos para crear trabajos de Amazon SageMaker Processing y acceder a Amazon ECR
D. ree un rol IAM que tenga permisos para crear trabajos de Amazon SageMaker Processing
Ver respuesta
Respuesta correcta: D
Cuestionar #8
Un especialista en aprendizaje automático está trabajando con una gran empresa para aprovechar el aprendizaje automático en sus productos. La empresa quiere agrupar a sus clientes en categorías basándose en qué clientes cambiarán o no en los próximos 6 meses. La empresa ha etiquetado los datos disponibles para el especialista. ¿Qué tipo de modelo de aprendizaje automático debe utilizar el especialista para realizar esta tarea?
A. Regresión lineal
B. Clasificación
C. grupación
D. Aprendizaje por refuerzo
Ver respuesta
Respuesta correcta: B
Cuestionar #9
Un especialista en aprendizaje automático (ML) administra un punto de enlace de Amazon SageMaker de producción con la monitorización de modelos configurada. El monitor de modelos de Amazon SageMaker detecta infracciones en el punto de enlace de SageMaker, por lo que el especialista en ML vuelve a entrenar el modelo con el conjunto de datos más reciente. Este conjunto de datos es estadísticamente representativo del tráfico de producción actual. El especialista en ML observa que, incluso después de implementar el nuevo modelo de SageMaker y ejecutar el primer trabajo de monitorización, el punto de enlace de SageMaker sigue teniendo infracciones
A. Activar manualmente la tarea de supervisión para volver a evaluar la muestra de tráfico del punto final de SageMaker
B. Vuelva a ejecutar la tarea de línea de base del Monitor del modelo en el nuevo conjunto de entrenamiento
C. liminar el endpoint y volver a crearlo con la configuración original
D. Vuelva a entrenar el modelo utilizando una combinación del conjunto de entrenamiento original y el nuevo conjunto de entrenamiento
Ver respuesta
Respuesta correcta: B
Cuestionar #10
Una empresa utiliza imágenes de cámara de la parte superior de los artículos expuestos en los estantes de una tienda para determinar qué artículos se retiraron y cuáles quedan. Tras varias horas de etiquetado de datos, la empresa dispone de un total de 1.000 imágenes etiquetadas a mano que cubren 10 artículos distintos. ¿Qué método de aprendizaje automático satisface las necesidades a largo plazo de la empresa?
A. na estrategia de validación cruzada k-fold con k=5
B. na estrategia de validación cruzada k-fold estratificada con k=5
C. na estrategia de validación cruzada k-fold con k=5 y 3 repeticiones
D. Un reparto estratificado 80/20 entre formación y validación
Ver respuesta
Respuesta correcta: D
Cuestionar #11
Un especialista en aprendizaje automático debe construir un modelo supervisado de reconocimiento de imágenes para identificar un gato. El especialista en ML realiza algunas pruebas y registra los siguientes resultados para un clasificador de imágenes basado en una red neuronal:Número total de imágenes disponibles = 1.000Imágenes del conjunto de prueba = 100 (conjunto de prueba constante)El especialista en ML observa que, en más del 75% de las imágenes mal clasificadas, los gatos estaban sujetados boca abajo por sus dueños.Qué técnicas puede utilizar el especialista en ML para mejorar este error de prueba específico?
A. umentar los datos de entrenamiento añadiendo variación en la rotación de las imágenes de entrenamiento
B. umentar el número de épocas para el entrenamiento del modelo
C. umentar el número de capas de la red neuronal
D. umentar la tasa de abandono de la penúltima capA
Ver respuesta
Respuesta correcta: A
Cuestionar #12
Al enviar trabajos de formación de Amazon SageMaker utilizando uno de los algoritmos incorporados, ¿qué parámetros comunes DEBEN especificarse? (Elija tres.)
A. inarización
B. odificación en caliente
C. Tokenización
D. ransformación de normalización
Ver respuesta
Respuesta correcta: AEF
Cuestionar #13
Un especialista en aprendizaje automático está diseñando un sistema para mejorar las ventas de una empresa. El objetivo es utilizar la gran cantidad de información que la empresa tiene sobre el comportamiento de los usuarios y las preferencias de productos para predecir qué productos les gustarían a los usuarios basándose en la similitud de los usuarios con otros usuarios
A. onstruir un motor de recomendación de filtrado basado en contenido con Apache Spark ML en Amazon EMR
B. onstruir un motor de recomendación de filtrado colaborativo con Apache Spark ML en Amazon EMR
C. onstruir un motor de recomendación de filtrado basado en modelos con Apache Spark ML en Amazon EMR
D. onstruir un motor de recomendación de filtrado combinativo con Apache Spark ML en Amazon EMR
Ver respuesta
Respuesta correcta: B
Cuestionar #14
Una empresa está convirtiendo en imágenes un gran número de recibos en papel no estructurados. La empresa quiere crear un modelo basado en el procesamiento del lenguaje natural (PLN) para encontrar entidades relevantes como la fecha, la ubicación y las notas, así como algunas entidades personalizadas como los números de los recibos.La empresa está utilizando el reconocimiento óptico de caracteres (OCR) para extraer texto para el etiquetado de datos. La empresa utiliza el reconocimiento óptico de caracteres (OCR) para extraer el texto y etiquetar los datos
A. xtraiga texto de imágenes de recibos mediante Amazon Textract
B. xtraiga texto de imágenes de recibos utilizando un modelo de OCR de aprendizaje profundo de AWS Marketplace
C. xtraer texto de imágenes de recibos mediante Amazon Textract
D. xtraiga texto de imágenes de recibos mediante un modelo de OCR de aprendizaje profundo de AWS Marketplace
Ver respuesta
Respuesta correcta: C
Cuestionar #15
Un especialista en aprendizaje automático está aplicando un modelo de regresión lineal por mínimos cuadrados a un conjunto de datos con 1.000 registros y 50 características. Antes del entrenamiento, el especialista en ML se da cuenta de que dos características son perfectamente dependientes linealmente
A. Podría hacer que el algoritmo de retropropagación fallara durante el entrenamiento
B. odría crear una matriz singular durante la optimización, lo que no permite definir una solución única
C. Podría modificar la función de pérdida durante la optimización, provocando fallos durante el entrenamiento
D. Podría introducir dependencias no lineales en los datos, lo que podría invalidar los supuestos lineales del modelo
Ver respuesta
Respuesta correcta: C
Cuestionar #16
Una empresa de comercio electrónico quiere lanzar una nueva función de recomendación de productos basada en la nube para su aplicación web. Debido a la normativa sobre localización de datos, los datos confidenciales no deben salir de su centro de datos local, y el modelo de recomendación de productos debe entrenarse y probarse utilizando únicamente datos no confidenciales. La transferencia de datos a la nube debe utilizar IPsec. La aplicación web está alojada en las instalaciones con una base de datos PostgreSQL que contiene todos los datos. La empresa desea que los datos se carguen de forma segura en Amazon S3 e
A. ree un trabajo de AWS Glue para conectarse a la instancia de base de datos PostgreSQL
B. Cree un trabajo de AWS Glue para conectarse a la instancia de base de datos PostgreSQL
C. tilice AWS Database Migration Service (AWS DMS) con mapeo de tablas para seleccionar tablas PostgreSQL sin datos confidenciales a través de una conexión SSL
D. tilice la replicación lógica de PostgreSQL para replicar todos los datos en PostgreSQL en Amazon EC2 a través de AWS Direct Connect con una conexión VPN
Ver respuesta
Respuesta correcta: C
Cuestionar #17
Una empresa de fabricación tiene datos estructurados y no estructurados almacenados en un bucket de Amazon S3. Un especialista en aprendizaje automático desea utilizar SQL para ejecutar consultas en estos datos
A. tilizar AWS Data Pipeline para transformar los datos y Amazon RDS para ejecutar las consultas
B. tilizar AWS Glue para catalogar los datos y Amazon Athena para ejecutar consultas
C. tilizar AWS Batch para ejecutar ETL en los datos y Amazon Aurora para ejecutar las consultas
D. tilice AWS Lambda para transformar los datos y Amazon Kinesis Data Analytics para ejecutar consultas
Ver respuesta
Respuesta correcta: B
Cuestionar #18
Un especialista en aprendizaje automático de una empresa sensible a la seguridad está preparando un conjunto de datos para el entrenamiento de modelos. El conjunto de datos se almacena en Amazon S3 y contiene información de identificación personal (PII).El conjunto de datos:-Solo debe ser accesible desde una VPC.-No debe atravesar la Internet pública.Cómo se pueden satisfacer estos requisitos?
A. ree un punto final de VPC y aplique una política de acceso a bucket que restrinja el acceso al punto final de VPC dado y a la VPC
B. ree un punto final de VPC y aplique una política de acceso a buckets que permita el acceso desde el punto final de VPC dado y una instancia de Amazon EC2
C. Cree un punto final de VPC y utilice listas de control de acceso a la red (NACL) para permitir el tráfico entre el punto final de VPC y una instancia de Amazon EC2
D. rear un punto final de VPC y utilizar grupos de seguridad para restringir el acceso al punto final de VPC dado y a una instancia de Amazon EC2
Ver respuesta
Respuesta correcta: A
Cuestionar #19
Un especialista en aprendizaje automático está preparando datos para el entrenamiento en Amazon SageMaker. El especialista está utilizando uno de los algoritmos integrados de SageMaker para el entrenamiento. El conjunto de datos se almacena en formato .CSV y se transforma en una matriz numpy.array, lo que parece estar afectando negativamente a la velocidad del entrenamiento
A. tilice la función de transformación por lotes de SageMaker para transformar los datos de entrenamiento en un DataFrame
B. tilizar AWS Glue para comprimir los datos en el formato Apache Parquet
C. ransformar el conjunto de datos al formato protobuf RecordIO
D. tilice la función de optimización de hiperparámetros de SageMaker para optimizar automáticamente los datos
Ver respuesta
Respuesta correcta: C
Cuestionar #20
Un científico de datos utiliza una instancia de bloc de notas de Amazon SageMaker y necesita obtener acceso seguro a los datos almacenados en un bucket de Amazon S3 específico
A. ñade una política de bucket de S3 que permita los permisos GetObject, PutObject y ListBucket al ARN del cuaderno de Amazon SageMaker como principal
B. ifrar los objetos del bucket de S3 con una clave personalizada de AWS Key Management Service (AWS KMS) a la que solo tenga acceso el propietario del bloc de notas
C. djuntar la política a la función de IAM asociada al bloc de notas que permite las operaciones GetObject, PutObject y ListBucket al bucket de S3 específico
D. tilizar un script en una configuración de ciclo de vida para configurar la CLI de AWS en la instancia con un ID de clave de acceso y un secreto
Ver respuesta
Respuesta correcta: C
Cuestionar #21
Un especialista en aprendizaje automático almacena datos de sensores de suelo IoT en una tabla de Amazon DynamoDB y almacena datos de eventos meteorológicos como archivos JSON en Amazon S3. El conjunto de datos en DynamoDB tiene un tamaño de 10 GB y el conjunto de datos en Amazon S3 tiene un tamaño de 5 GB. El especialista desea entrenar un modelo en estos datos para ayudar a predecir los niveles de humedad del suelo en función de los eventos meteorológicos mediante Amazon SageMaker
A. nicie un clúster de Amazon EMR
B. Rastrear los datos con rastreadores de AWS Glue
C. abilite Amazon DynamoDB Streams en la tabla de sensores
D. Rastrear los datos con rastreadores de AWS Glue
Ver respuesta
Respuesta correcta: D
Cuestionar #22
Un especialista en aprendizaje automático debe analizar los comentarios de un sitio web de noticias con usuarios de todo el mundo. El especialista debe encontrar los temas más discutidos en los comentarios que están en inglés o en español.¿Qué pasos se podrían utilizar para realizar esta tarea? (Elija dos.)
A. tilice un algoritmo de Amazon SageMaker BlazingText para encontrar los temas independientemente del idiomA
B. tilizar un algoritmo seq2seq de Amazon SageMaker para traducir del español al inglés, si es necesario
C. tiliza Amazon Translate para traducir del español al inglés, si es necesario
D. tiliza Amazon Translate para traducir del español al inglés, si es necesario
E. tiliza Amazon Translate para traducir del español al inglés, si es necesario
Ver respuesta
Respuesta correcta: B
Cuestionar #23
Un científico de datos está trabajando en una aplicación que realiza análisis de sentimientos. La precisión de la validación es baja, y el científico de datos cree que la causa puede ser la riqueza del vocabulario y la baja frecuencia media de las palabras en el conjunto de datos
A. mazon Comprehend análisis sintáctico y detección de entidades
B. mazon SageMaker BlazingText modo cbow
C. Herramientas de lenguaje natural (NLTK): eliminación de las palabras vacías y de la raíz del texto
D. Vectorizador de frecuencia de términos y frecuencia inversa de documentos (TF-IDF) de Scikit-leam
Ver respuesta
Respuesta correcta: D
Cuestionar #24
Una cadena minorista ha estado ingiriendo registros de compras de su red de 20 000 tiendas en Amazon S3 mediante Amazon Kinesis Data Firehose. Para apoyar el entrenamiento de un modelo de aprendizaje automático mejorado, los registros de entrenamiento requerirán transformaciones nuevas pero sencillas, y algunos atributos se combinarán. Dado el gran número de tiendas y la ingestión de datos heredada, ¿qué cambio requerirá la MENOR cantidad de esfuerzo de desarrollo?
A. bandono escolar
B. érdida suave de L1
C. oftmax
D. nidades lineales rectificadas (ReLU)
Ver respuesta
Respuesta correcta: D
Cuestionar #25
Un especialista en aprendizaje automático desea incorporar un algoritmo personalizado a Amazon SageMaker. El especialista implementa el algoritmo en un contenedor Docker compatible con Amazon SageMaker. ¿Cómo debe empaquetar el especialista el contenedor Docker para que Amazon SageMaker pueda lanzar el entrenamiento correctamente?
A. odifica el archivo bash_profile en el contenedor y añade un comando bash para iniciar el programa de entrenamiento
B. tilizar CMD config en el Dockerfile para añadir el programa de formación como CMD de la imagen
C. onfigurar el programa de formación como un ENTRYPOINT llamado train
D. opiar el programa de formación en el directorio /opt/ml/train
Ver respuesta
Respuesta correcta: B
Cuestionar #26
Una empresa de telecomunicaciones está desarrollando una aplicación móvil para sus clientes. La empresa utiliza un punto de enlace hospedado en Amazon SageMaker para inferencias de modelos de aprendizaje automático. Los desarrolladores desean introducir una nueva versión del modelo para un número limitado de usuarios que se hayan suscrito a una función de vista previa de la aplicación. Después de probar la nueva versión del modelo como vista previa, los desarrolladores evaluarán su precisión. Si la nueva versión del modelo es más precisa, los desarrolladores deben ser capaces de liberar gradualmente la nueva versión
A. ctualice el tipo de datos ProductionVariant con la nueva versión del modelo mediante la operación CreateEndpointConfig con el parámetro InitialVariantWeight establecido en 0
B. onfigure dos puntos finales alojados en SageMaker que sirvan a las diferentes versiones del modelo
C. ctualice el tipo de datos DesiredWeightsAndCapacity con la nueva versión del modelo mediante la operación UpdateEndpointWeightsAndCapacities con el parámetro DesiredWeight establecido en 0
D. Configure dos puntos finales hospedados en SageMaker que sirvan a las diferentes versiones del modelo
Ver respuesta
Respuesta correcta: D
Cuestionar #27
Una empresa aprovisiona instancias de bloc de notas de Amazon SageMaker para su equipo de ciencia de datos y crea puntos de enlace de interfaz de Amazon VPC para garantizar la comunicación entre la VPC y las instancias de bloc de notas. Todas las conexiones a la API de Amazon SageMaker se contienen por completo y de forma segura mediante la red de AWS. Sin embargo, el equipo de ciencia de datos se da cuenta de que las personas fuera de la VPC aún pueden conectarse a las instancias de bloc de notas a través de Internet
A. odifique el grupo de seguridad de las instancias de notebook para permitir el tráfico sólo desde los rangos CIDR de la VPC
B. Cree una directiva de IAM que permita las acciones sagemaker:CreatePresignedNotebooklnstanceUrl y sagemaker:DescribeNotebooklnstance sólo desde los endpoints de la VPC
C. ñada una gateway NAT a la VP Convierta todas las subredes en las que se alojan las instancias de bloc de notas de Amazon SageMaker en subredes privadas
D. ambiar la ACL de red de la subred en la que se aloja el portátil para restringir el acceso a cualquier persona ajena a la VPC
Ver respuesta
Respuesta correcta: B
Cuestionar #28
Una startup tecnológica utiliza complejas redes neuronales profundas y computación en la GPU para recomendar los productos de la empresa a sus clientes actuales en función de sus hábitos e interacciones. Actualmente, la solución extrae cada conjunto de datos de un bucket de Amazon S3 antes de cargarlos en un modelo de TensorFlow extraído del repositorio Git de la empresa que se ejecuta localmente. A continuación, este trabajo se ejecuta durante varias horas mientras envía continuamente su progreso al mismo bucket de S3. El trabajo se puede pausar, reiniciar y continuar
A. mplementar la solución mediante AWS Deep Learning Containers y ejecutar el contenedor como un trabajo mediante AWS Batch en una instancia de subasta compatible con GPU
B. mplementar la solución utilizando una instancia de Amazon EC2 de bajo costo compatible con GPU y utilizar el programador de instancias de AWS para programar la tarea
C. mplementar la solución mediante AWS Deep Learning Containers, ejecutar la carga de trabajo mediante AWS Fargate ejecutándose en instancias de subasta y, a continuación, programar la tarea mediante el programador de tareas integrado
D. mplementar la solución utilizando Amazon ECS ejecutándose en Instancias Spot y programar la tarea utilizando el programador de servicios ECS
Ver respuesta
Respuesta correcta: C
Cuestionar #29
Un especialista en aprendizaje automático está trabajando con una gran empresa de ciberseguridad que gestiona eventos de seguridad en tiempo real para empresas de todo el mundo. La empresa de ciberseguridad quiere diseñar una solución que le permita utilizar el aprendizaje automático para puntuar eventos maliciosos como anomalías en los datos a medida que se ingieren. La empresa también quiere poder guardar los resultados en su lago de datos para su posterior procesamiento y análisis. ¿Cuál es la forma MÁS eficaz de realizar estas tareas?
A. ngeste los datos mediante Amazon Kinesis Data Firehose y utilice Amazon Kinesis Data Analytics Random Cut Forest (RCF) para la detección de anomalías
B. ngerir los datos en Apache Spark Streaming utilizando Amazon EMR y utilizar Spark MLlib con k-means para realizar la detección de anomalías
C. Ingerir los datos y almacenarlos en Amazon S3
D. Ingerir los datos y almacenarlos en Amazon S3
Ver respuesta
Respuesta correcta: A
Cuestionar #30
Un especialista en aprendizaje automático ha entrenado previamente un modelo de regresión logística con Scikit-learn en un equipo local y ahora desea implementarlo en producción solo para la inferencia
A. tilice una base de datos, como Amazon DynamoDB, para almacenar las imágenes y configure las políticas de IAM para restringir el acceso únicamente a los usuarios de IAM deseados
B. tilizar un lago de datos respaldado por Amazon S3 para almacenar las imágenes sin procesar y configurar los permisos mediante políticas de bucket
C. onfigurar Amazon EMR con Hadoop Distributed File System (HDFS) para almacenar los archivos y restringir el acceso a las instancias de EMR mediante políticas IAM
D. onfigurar Amazon EFS con políticas de IAM para que los datos estén disponibles para las instancias de Amazon EC2 propiedad de los usuarios de IAM
Ver respuesta
Respuesta correcta: A
Cuestionar #31
El gráfico que se muestra procede de un modelo de previsión para probar una serie temporal. Teniendo en cuenta sólo el gráfico, ¿qué conclusión debería sacar un especialista en aprendizaje automático sobre el comportamiento del modelo?
A. El modelo predice bien tanto la tendencia como la estacionalidad
B. l modelo predice bien la tendencia, pero no la estacionalidad
C. l modelo predice bien la estacionalidad, pero no la tendenciA
D. l modelo no predice bien la tendencia ni la estacionalidad
Ver respuesta
Respuesta correcta: A
Cuestionar #32
Un especialista en aprendizaje automático está construyendo un modelo de predicción para un gran número de características utilizando modelos lineales, como la regresión lineal y la regresión logística. Durante el análisis exploratorio de datos, el especialista observa que muchas características están muy correlacionadas entre sí, lo que puede hacer que el modelo sea inestable. ¿Qué debería hacerse para reducir el impacto de tener un número tan grande de características?
A. Realizar la codificación en un solo paso de características altamente correlacionadas
B. tilizar la multiplicación de matrices en características altamente correlacionadas
C. rear un nuevo espacio de características mediante el análisis de componentes principales (ACP)
D. plicar el coeficiente de correlación de Pearson
Ver respuesta
Respuesta correcta: C
Cuestionar #33
Una empresa de servicios financieros está creando un sólido lago de datos sin servidor en Amazon S3. El lago de datos debe ser flexible y cumplir los siguientes requisitos:-Soportar la consulta de datos antiguos y nuevos en Amazon S3 a través de Amazon Athena y Amazon Redshift Spectrum.-Soportar canalizaciones ETL impulsadas por eventos-Proporcionar una forma rápida y sencilla de comprender los metadatos¿Qué enfoque cumple estos requisitos?
A. tilice un rastreador de AWS Glue para rastrear datos de S3, una función de AWS Lambda para activar un trabajo ETL de AWS Glue y un catálogo de datos de AWS Glue para buscar y descubrir metadatos
B. tilice un rastreador de AWS Glue para rastrear datos de S3, una función de AWS Lambda para activar un trabajo por lotes de AWS y un metastore externo de Apache Hive para buscar y descubrir metadatos
C. tilice un rastreador de AWS Glue para rastrear datos de S3, una alarma de Amazon CloudWatch para activar un trabajo de AWS Batch y un catálogo de datos de AWS Glue para buscar y descubrir metadatos
D. Utilice un rastreador de AWS Glue para rastrear datos de S3, una alarma de Amazon CloudWatch para activar un trabajo ETL de AWS Glue y un metastore externo de Apache Hive para buscar y descubrir metadatos
Ver respuesta
Respuesta correcta: A
Cuestionar #34
Un especialista en aprendizaje automático está desarrollando un modelo de recomendación de vídeos personalizado para una aplicación. El conjunto de datos utilizado para entrenar este modelo es muy grande, con millones de puntos de datos, y está hospedado en un bucket de Amazon S3. El especialista desea evitar cargar todos estos datos en una instancia de bloc de notas de Amazon SageMaker porque tardaría horas en moverlos y excedería el volumen de Amazon EBS de 5 GB adjunto en la instancia de bloc de notas
A. argue un subconjunto más pequeño de los datos en el cuaderno SageMaker y entrene localmente
B. nicie una instancia de Amazon EC2 con una AMI de aprendizaje profundo de AWS y adjunte el bucket de S3 a la instanciA
C. tilice AWS Glue para entrenar un modelo con un pequeño subconjunto de los datos para confirmar que los datos serán compatibles con Amazon SageMaker
D. argue un subconjunto más pequeño de los datos en el cuaderno SageMaker y entrene localmente
Ver respuesta
Respuesta correcta: A
Cuestionar #35
Una empresa quiere predecir los precios de venta de las casas basándose en los datos históricos de ventas disponibles. La variable objetivo del conjunto de datos de la empresa es el precio de venta. Las características incluyen parámetros como el tamaño del solar, las medidas de la superficie habitable, las medidas de la superficie no habitable, el número de dormitorios, el número de baños, el año de construcción y el código postal. La empresa desea utilizar la regresión lineal multivariable para predecir los precios de venta de las casas
A. race un histograma de las características y calcule su desviación estándar
B. race un histograma de las características y calcule su desviación estándar
C. onstruir un mapa de calor que muestre la correlación del conjunto de datos consigo mismo
D. jecutar una comprobación de correlación de todas las características con la variable objetivo
Ver respuesta
Respuesta correcta: D
Cuestionar #36
Una empresa de transporte está recopilando datos de imágenes en directo de su flota de camiones en todo el mundo. Los datos crecen rápidamente y cada día se generan aproximadamente 100 GB de datos nuevos. La empresa desea explorar casos de uso de aprendizaje automático y, al mismo tiempo, garantizar que los datos solo sean accesibles para usuarios específicos de IAM
A. jecutar la autocorrelación en todas las características y eliminar las características altamente correlacionadas
B. ormalizar todos los valores numéricos para que estén entre 0 y 1
C. Utilizar un codificador automático o un análisis de componentes principales (ACP) para sustituir las características originales por otras nuevas
D. Agrupar los datos brutos mediante k-means y utilizar datos de muestra de cada agrupación para crear un nuevo conjunto de datos
Ver respuesta
Respuesta correcta: C
Cuestionar #37
Una empresa minorista desea combinar los pedidos de sus clientes con los datos de descripción de productos de su catálogo de productos. La estructura y el formato de los registros de cada conjunto de datos son diferentes. Un analista de datos intentó utilizar una hoja de cálculo para combinar los conjuntos de datos, pero el resultado fueron registros duplicados y registros que no se combinaron correctamente. La empresa necesita una solución que le permita combinar registros similares de los dos conjuntos de datos y eliminar los duplicados
A. tilice una función de AWS Lambda para procesar los datos
B. ree rastreadores de AWS Glue para leer y rellenar el catálogo de datos de AWS Glue
C. ree rastreadores de AWS Glue para leer y rellenar el catálogo de datos de AWS Glue
D. ree una transformación personalizada de AWS Lake Formation
Ver respuesta
Respuesta correcta: C
Cuestionar #38
Una empresa de medios de comunicación con un archivo muy grande de imágenes, texto, audio y vídeo sin etiquetar desea indexar sus activos para que el equipo de investigación pueda identificar rápidamente el contenido relevante. La empresa desea utilizar el aprendizaje automático para acelerar los esfuerzos de sus investigadores internos, que tienen una experiencia limitada en este campo
A. tilizar Amazon Rekognition, Amazon Comprehend y Amazon Transcribe para etiquetar datos en distintas categorías/clases
B. rear un conjunto de Tareas de Inteligencia Humana de Amazon Mechanical Turk para etiquetar todas las secuencias
C. tilizar Amazon Transcribe para convertir el habla en texto
D. Utilice la AMI de aprendizaje profundo de AWS y las instancias de GPU de Amazon EC2 para crear modelos personalizados para la transcripción de audio y el modelado de temas, y utilice la detección de objetos para etiquetar datos en categorías/clases distintas
Ver respuesta
Respuesta correcta: A
Cuestionar #39
Un especialista en aprendizaje automático debe desarrollar un modelo de clasificación para una empresa de servicios financieros. Un experto del dominio proporciona el conjunto de datos, que es tabular con 10.000 filas y 1.020 características. Durante el análisis exploratorio de datos, el especialista no encuentra valores perdidos y un pequeño porcentaje de filas duplicadas. Hay puntuaciones de correlación superiores a 0,9 para 200 pares de características. El valor medio de cada característica es similar a su percentil 50. ¿Qué estrategia de ingeniería de características debe utilizar el especialista en ML con Amazo
A. plicar la reducción de dimensionalidad mediante el algoritmo de análisis de componentes principales (ACP)
B. limine las características con puntuaciones de correlación bajas utilizando un cuaderno Jupyter
C. plicar la detección de anomalías mediante el algoritmo Random Cut Forest (RCF)
D. oncatenar las características con altas puntuaciones de correlación utilizando un cuaderno Jupyter
Ver respuesta
Respuesta correcta: A
Cuestionar #40
Una empresa financiera intenta detectar fraudes con tarjetas de crédito. La empresa observó que, de media, el 2% de las transacciones con tarjeta de crédito eran fraudulentas. Un científico de datos ha entrenado un clasificador a partir de los datos de un año de transacciones con tarjeta de crédito. El modelo debe distinguir las transacciones fraudulentas (positivas) de las normales (negativas). El objetivo de la empresa es capturar con precisión el mayor número posible de positivos. ¿Qué métricas debe utilizar el científico de datos para optimizar el modelo? (Elija dos.)
A. liminar los permisos de acceso a Amazon S3 del rol de ejecución de SageMaker
B. ifrar los pesos del modelo CNN
C. ifrar el conjunto de datos de entrenamiento y validación
D. abilitar el aislamiento de red para los trabajos de formación
Ver respuesta
Respuesta correcta: AB
Cuestionar #41
Un científico de datos intenta mejorar la precisión de un modelo de clasificación de red neuronal. El científico de datos desea ejecutar una tarea de ajuste de hiperparámetros de gran tamaño en Amazon SageMaker, pero las tareas de ajuste más pequeñas anteriores en el mismo modelo a menudo se ejecutan durante varias semanas. El especialista en ML desea reducir el tiempo de cómputo necesario para ejecutar el trabajo de ajuste. ¿Qué acciones reducirán MÁS el tiempo de cómputo para el trabajo de ajuste de hiperparámetros? (Seleccione DOS.)
A. tiliza la estrategia de ajuste Hyperband
B. umentar el número de hiperparámetros
C. stablecer un valor inferior para el parámetro MaxNumberOfTrainingJobs
D. tilizar la estrategia de ajuste de búsqueda en cuadrícula
E. stablezca un valor inferior para el parámetro MaxParallelTrainingJobs
Ver respuesta
Respuesta correcta: AC
Cuestionar #42
Un científico de datos debe crear una solución de ingesta y análisis sin servidor para datos de flujo en tiempo real a alta velocidad. El proceso de ingesta debe almacenar en búfer y convertir los registros entrantes de JSON a un formato columnar optimizado para consultas sin pérdida de datos. El almacén de datos de salida debe tener una alta disponibilidad, y los analistas deben poder ejecutar consultas SQL con los datos y conectarse a los paneles de inteligencia empresarial existentes
A. ree un esquema en el catálogo de datos de AWS Glue del formato de los datos entrantes
B. scriba cada registro JSON en una ubicación de almacenamiento en Amazon S3
C. scriba cada registro JSON en una ubicación de almacenamiento en Amazon S3
D. tilice Amazon Kinesis Data Analytics para ingerir los datos de streaming y realizar consultas SQL en tiempo real para convertir los registros a Apache Parquet antes de entregarlos a Amazon S3
Ver respuesta
Respuesta correcta: A
Cuestionar #43
Una empresa de servicios financieros desea adoptar Amazon SageMaker como su entorno de ciencia de datos predeterminado. Los científicos de datos de la compañía ejecutan modelos de aprendizaje automático (ML) en datos financieros confidenciales. La compañía está preocupada por la salida de datos y quiere que un ingeniero de ML proteja el entorno. ¿Qué mecanismos puede utilizar el ingeniero de ML para controlar la salida de datos de SageMaker? (Elija tres.)
A. Amazon EMR para el descubrimiento, enriquecimiento y transformación de datos-Amazon Athena para la consulta y análisis de los resultados en Amazon S3 utilizando SQL estándar-Amazon QuickSight para la elaboración de informes y la obtención de conocimientos
B. Amazon Kinesis Data Analytics para la ingesta de datos-Amazon EMR para el descubrimiento, enriquecimiento y transformación de datos-Amazon Redshift para la consulta y análisis de los resultados en Amazon S3
C. AWS Glue para el descubrimiento, enriquecimiento y transformación de datos-Amazon Athena para la consulta y análisis de los resultados en Amazon S3 utilizando SQL estándar-Amazon QuickSight para la elaboración de informes y la obtención de conocimientos
D. AWS Data Pipeline para la transferencia de datos-AWS Step Functions para orquestar trabajos de AWS Lambda para el descubrimiento, enriquecimiento y transformación de datos-Amazon Athena para realizar consultas y analizar los resultados en Amazon S3 mediante SQL estándar-Amazon QuickSight para la elaboración de informes y la obtención de perspectivas
Ver respuesta
Respuesta correcta: BDF
Cuestionar #44
Un equipo de Data Science está diseñando un repositorio de conjuntos de datos donde almacenará una gran cantidad de datos de entrenamiento utilizados habitualmente en sus modelos de aprendizaje automático. Como los científicos de datos pueden crear un número arbitrario de nuevos conjuntos de datos cada día, la solución tiene que escalar automáticamente y ser rentable. Además, debe ser posible explorar los datos mediante SQL. ¿Qué esquema de almacenamiento es el MÁS adaptado a este escenario?
A. El modelo debe ser completamente rediseñado porque es incapaz de gestionar los cambios en el inventario de productos
B. os hiperparámetros del modelo deben actualizarse periódicamente para evitar la derivA
C. El modelo debe reentrenarse periódicamente a partir de los datos originales, añadiendo un término de regularización para gestionar los cambios en el inventario de productos
D. El modelo debe reentrenarse periódicamente utilizando los datos de entrenamiento originales más nuevos datos a medida que cambia el inventario de productos
Ver respuesta
Respuesta correcta: A
Cuestionar #45
Una empresa está creando una aplicación de recuento de colas para un restaurante de comida rápida. La empresa quiere utilizar cámaras de vídeo que apunten a la fila de clientes en una caja registradora determinada para medir cuántas personas hay en la fila y enviar notificaciones a los gerentes si la fila se alarga demasiado. Las instalaciones del restaurante tienen un ancho de banda limitado para las conexiones a servicios externos y no pueden alojar varias secuencias de vídeo sin afectar a otras operaciones
A. nstale cámaras compatibles con Amazon Kinesis Video Streams para transmitir los datos a AWS a través de la conexión a Internet existente del restaurante
B. mplemente cámaras de AWS DeepLens en el restaurante para capturar vídeo
C. econocido
D. onstruir un modelo personalizado en Amazon SageMaker para reconocer el número de personas en una imagen
E. ree un modelo personalizado en Amazon SageMaker para reconocer el número de personas en una imagen
Ver respuesta
Respuesta correcta: A
Cuestionar #46
Un banco internacional necesita una solución para predecir si los clientes abandonarán el banco y elegirán otro. El banco utiliza un conjunto de datos para entrenar un modelo que prediga la pérdida de clientes. El conjunto de datos de entrenamiento tiene 1.000 filas. Un especialista en aprendizaje automático (ML) utiliza Amazon SageMaker Data Wrangler para entrenar un modelo de predicción de pérdida de clientes mediante un trabajo de entrenamiento de SageMaker. Tras el entrenamiento, el especialista en ML observa que el modelo solo devuelve falsos r
A. plicar la detección de anomalías para eliminar los valores atípicos del conjunto de datos de entrenamiento antes del entrenamiento
B. plicar la Técnica de Sobremuestreo Sintético de Minorías (SMOTE) al conjunto de datos de entrenamiento antes del entrenamiento
C. plicar normalización a las características del conjunto de datos de entrenamiento antes del entrenamiento
D. plicar un submuestreo al conjunto de datos de entrenamiento antes del entrenamiento
Ver respuesta
Respuesta correcta: B
Cuestionar #47
Un especialista en aprendizaje automático creó un modelo de aprendizaje profundo de clasificación de imágenes. Sin embargo, el especialista se encontró con un problema de sobreajuste en el que las precisiones de entrenamiento y prueba fueron del 99 % y el 75 %, respectivamente
A. mplementar una función de AWS Lambda para registrar las llamadas a la API de Amazon SageMaker en Amazon S3
B. Utilice AWS CloudTrail para registrar las llamadas a la API de Amazon SageMaker en Amazon S3
C. mplementar una función de AWS Lambda para registrar las llamadas a la API de Amazon SageMaker en AWS CloudTrail
D. Utilice AWS CloudTrail para registrar las llamadas a la API de Amazon SageMaker en Amazon S3
Ver respuesta
Respuesta correcta: B
Cuestionar #48
Una empresa minorista utiliza Amazon Personalize para ofrecer recomendaciones personalizadas de productos a sus clientes durante una campaña de marketing. La empresa observa un aumento significativo de las ventas de los artículos recomendados a los clientes existentes inmediatamente después de implementar una nueva versión de la solución, pero estas ventas disminuyen poco tiempo después de la implementación. Solo se dispone de datos históricos anteriores a la campaña de marketing para el entrenamiento
A. tilice el rastreador de eventos en Amazon Personalize para incluir interacciones de usuario en tiempo real
B. ñadir metadatos de usuario y utilizar la receta HRNN-Metadata en Amazon Personalize
C. mplementar una nueva solución utilizando el algoritmo de máquinas de factorización (FM) incorporado en Amazon SageMaker
D. ñade campos de tipo de evento y valor de evento al conjunto de datos de interacciones en Amazon Personalize
Ver respuesta
Respuesta correcta: A
Cuestionar #49
A un especialista en aprendizaje automático se le asigna un proyecto TensorFlow que utiliza Amazon SageMaker para la formación y necesita seguir trabajando durante un periodo prolongado sin acceso Wi-Fi
A. nstalar Python 3 y boto3 en su portátil y continuar el desarrollo del código utilizando ese entorno
B. escargue el contenedor Docker de TensorFlow utilizado en Amazon SageMaker de GitHub a su entorno local y utilice el SDK de Python de Amazon SageMaker para probar el código
C. escarga TensorFlow desde tensorflow
D. escargar el cuaderno SageMaker a su entorno local, luego instalar Jupyter Notebooks en su portátil y continuar el desarrollo en un cuaderno local
Ver respuesta
Respuesta correcta: B
Cuestionar #50
Un equipo de ciencia de datos de una gran empresa utiliza cuadernos de Amazon SageMaker para obtener acceso a los datos almacenados en buckets de Amazon S3. Al equipo de seguridad de TI le preocupa que las instancias de notebook con acceso a Internet creen una vulnerabilidad de seguridad en la que el código malicioso que se ejecuta en las instancias podría poner en peligro la privacidad de los datos. La compañía exige que todas las instancias permanezcan dentro de una VPC segura sin acceso a Internet, y el tráfico de comunicación de datos debe permanecer dentro de la red de AWS
A. socie el cuaderno de Amazon SageMaker con una subred privada en una VPC
B. socie el bloc de notas de Amazon SageMaker con una subred privada en una VPC
C. sociar la libreta de Amazon SageMaker con una subred privada en una VP Asegúrese de que la VPC tiene puntos finales de VPC de S3 y puntos finales de VPC de Amazon SageMaker asociados a ellA
D. Asociar el bloc de notas de Amazon SageMaker con una subred privada en una VPC
Ver respuesta
Respuesta correcta: C
Cuestionar #51
Una ciudad quiere controlar la calidad del aire para hacer frente a las consecuencias de la contaminación atmosférica. Un especialista en aprendizaje automático necesita pronosticar la calidad del aire en partes por millón de contaminantes para los próximos 2 días en la ciudad. Como se trata de un prototipo, solo se dispone de datos diarios del último año. ¿Qué modelo es MÁS probable que proporcione los mejores resultados en Amazon SageMaker?
A. tilice el algoritmo k-Nearest-Neighbors (kNN) de Amazon SageMaker en la serie temporal única consistente en el año completo de datos con un predictor_type de regresor
B. tilizar Amazon SageMaker Random Cut Forest (RCF) en la única serie temporal consistente en el año completo de datos
C. tilizar el algoritmo Linear Learner de Amazon SageMaker en la serie temporal única consistente en el año completo de datos con un predictor_type de regresor
D. tilizar el algoritmo Linear Learner de Amazon SageMaker en la serie temporal única consistente en el año completo de datos con un predictor_tipo de clasificador
Ver respuesta
Respuesta correcta: C
Cuestionar #52
Una empresa de fabricación de motores de aviación mide 200 parámetros de rendimiento en una serie temporal. Los ingenieros quieren detectar defectos de fabricación críticos casi en tiempo real durante las pruebas. Todos los datos deben almacenarse para su análisis fuera de línea. ¿Qué método sería el MÁS eficaz para realizar la detección de defectos casi en tiempo real?
A. tilice AWS IoT Analytics para la ingestión, el almacenamiento y el análisis posterior
B. tilice Amazon S3 para la ingesta, el almacenamiento y el análisis posterior
C. tilice Amazon S3 para la ingesta, el almacenamiento y el análisis posterior
D. tilice Amazon Kinesis Data Firehose para la ingesta y Amazon Kinesis Data Analytics Random Cut Forest (RCF) para realizar la detección de anomalías
Ver respuesta
Respuesta correcta: B
Cuestionar #53
Un especialista en aprendizaje automático está creando una nueva aplicación de procesamiento del lenguaje natural que procesa un conjunto de datos compuesto por un millón de frases. El objetivo es ejecutar Word2Vec para generar incrustaciones de las frases y permitir diferentes tipos de predicciones. A continuación se muestra un ejemplo del conjunto de datos: "El zorro marrón salta sobre el perro perezoso". ¿Cuáles de las siguientes operaciones debe realizar el especialista para limpiar y preparar correctamente los datos de forma repetible? (Elija tres.)
A. onvertir los documentos actuales a SSML con etiquetas de pronunciación
B. rear un léxico de pronunciación adecuado
C. arcas de voz de salida para guiar en la pronunciación
D. tilizar Amazon Lex para preprocesar los archivos de texto para la pronunciación
Ver respuesta
Respuesta correcta: BCF
Cuestionar #54
Un científico de datos necesita migrar un proceso ETL local existente a la nube. El proceso actual se ejecuta a intervalos de tiempo regulares y utiliza PySpark para combinar y formatear múltiples fuentes de datos de gran tamaño en una única salida consolidada para el procesamiento posterior.El Científico de Datos ha recibido los siguientes requisitos para la solución en la nube:-Combinar múltiples fuentes de datos.-Reutilizar la lógica PySpark existente.-Ejecutar la solución en el horario existente.-Minimizar el número de servidores que necesitarán ser gestionados.Wh
A. scriba los datos sin procesar en Amazon S3
B. scriba los datos sin procesar en Amazon S3
C. scriba los datos sin procesar en Amazon S3
D. Utilizar Amazon Kinesis Data Analytics para transmitir los datos de entrada y realizar consultas SQL en tiempo real en la transmisión para llevar a cabo las transformaciones necesarias en la transmisión
Ver respuesta
Respuesta correcta: D
Cuestionar #55
El especialista en aprendizaje automático de una empresa necesita mejorar la velocidad de entrenamiento de un modelo de previsión de series temporales mediante TensorFlow. El entrenamiento se implementa actualmente en una máquina con una sola GPU y tarda aproximadamente 23 horas en completarse. La precisión del modelo es aceptable, pero la empresa prevé un aumento continuo del tamaño de los datos de entrenamiento y la necesidad de actualizar el modelo cada hora, en lugar de cada día. La empresa también quiere minimizar el esfuerzo de codificación a
A. o cambies el código de TensorFlow
B. ambiar el código de TensorFlow para implementar un marco distribuido Horovod soportado por Amazon SageMaker
C. Cambiar al uso de un modelo DeepAR integrado de AWS SageMaker
D. rasladar la formación a Amazon EMR y distribuir la carga de trabajo en tantos equipos como sea necesario para alcanzar los objetivos empresariales
Ver respuesta
Respuesta correcta: B
Cuestionar #56
Dada la siguiente matriz de confusión para un modelo de clasificación de películas, ¿cuál es la frecuencia de clase verdadera para Romance y la frecuencia de clase predicha para Aventura?
A. a frecuencia de clase verdadera para Romance es 77
B. La frecuencia de clase verdadera para Romance es 57
C. a frecuencia de clase verdadera para Romance es 0
D. a frecuencia de clase verdadera para Romance es 77
Ver respuesta
Respuesta correcta: B
Cuestionar #57
Un especialista en aprendizaje automático está desarrollando un flujo de trabajo ETL diario que contiene varios trabajos ETL. El flujo de trabajo consta de los siguientes procesos:-Iniciar el flujo de trabajo tan pronto como se carguen los datos en Amazon S3.-Cuando todos los conjuntos de datos estén disponibles en Amazon S3, iniciar un trabajo ETL para unir los conjuntos de datos cargados con varios conjuntos de datos de tamaño terabyte ya almacenados en Amazon S3.-Almacenar los resultados de la unión de conjuntos de datos en Amazon S3.-Si falla uno de los trabajos, enviar una notificación al administrador.Qué configuración se..
A. tilice AWS Lambda para activar un flujo de trabajo de AWS Step Functions para esperar a que se completen las cargas de conjuntos de datos en Amazon S3
B. esarrolle el flujo de trabajo ETL con AWS Lambda para iniciar una instancia de bloc de notas de Amazon SageMaker
C. esarrolle el flujo de trabajo ETL utilizando AWS Batch para activar el inicio de los trabajos ETL cuando los datos se carguen en Amazon S3
D. tilice AWS Lambda para encadenar otras funciones de Lambda para leer y unir los conjuntos de datos en Amazon S3 en cuanto los datos se carguen en Amazon S3
Ver respuesta
Respuesta correcta: A
Cuestionar #58
Un científico de datos está entrenando un perceptrón multicapa (MLP) en un conjunto de datos con múltiples clases. La clase objetivo de interés es única en comparación con las demás clases del conjunto de datos, pero no consigue una métrica de recuperación aceptable. El científico de datos ya ha probado a variar el número y el tamaño de las capas ocultas del MLP, lo que no ha mejorado significativamente los resultados. Debe encontrar una solución para mejorar la recuperación lo antes posible. ¿Qué técnicas debería utilizar para cumplir estos requisitos?
A. ecopilar más datos utilizando Amazon Mechanical Turk y luego volver a entrenar
B. ntrenar un modelo de detección de anomalías en lugar de un MLP
C. ntrenar un modelo XGBoost en lugar de un MLP
D. Añadir pesos de clase a la función de pérdida del MLP y volver a entrenar
Ver respuesta
Respuesta correcta: D
Cuestionar #59
Un especialista en aprendizaje automático recibe un conjunto de datos estructurados sobre los hábitos de compra de los clientes de una empresa. El conjunto de datos contiene miles de columnas de datos y cientos de columnas numéricas para cada cliente. El especialista quiere identificar si existen agrupaciones naturales para estas columnas en todos los clientes y visualizar los resultados lo más rápidamente posible
A. ncrustar las características numéricas utilizando el algoritmo t-distributed stochastic neighbor embedding (t-SNE) y crear un gráfico de dispersión
B. jecute k-means utilizando la medida de distancia euclidiana para diferentes valores de k y cree un gráfico de codo
C. ncrustar las características numéricas utilizando el algoritmo t-distributed stochastic neighbor embedding (t-SNE) y crear un gráfico de líneas
D. jecute k-means utilizando la medida de distancia euclidiana para diferentes valores de k y cree gráficos de caja para cada columna numérica dentro de cada conglomerado
Ver respuesta
Respuesta correcta: A
Cuestionar #60
Una gran empresa operadora de redes móviles está construyendo un modelo de aprendizaje automático para predecir los clientes que probablemente se darán de baja del servicio. La empresa planea ofrecer un incentivo a estos clientes, ya que el coste de la baja es mucho mayor que el coste del incentivo.El modelo produce la siguiente matriz de confusión después de evaluarlo en un conjunto de datos de prueba de 100 clientes:Basándose en los resultados de la evaluación del modelo, ¿por qué es éste un modelo viable para la producción?
A.
B. a precisión del modelo es del 86%, inferior a la exactitud del modelo
C. l modelo tiene una precisión del 86% y el coste en que incurre la empresa como consecuencia de los falsos positivos es menor que el de los falsos negativos
D. a precisión del modelo es del 86%, superior a la exactitud del modelo
Ver respuesta
Respuesta correcta: A
Cuestionar #61
Un especialista en aprendizaje automático trabaja para una empresa de procesamiento de tarjetas de crédito y necesita predecir qué transacciones pueden ser fraudulentas casi en tiempo real. En concreto, el especialista debe entrenar un modelo que devuelva la probabilidad de que una transacción determinada pueda ser fraudulenta
A. lasificación del streaming
B. lasificación binaria
C. lasificación por categorías
D. Clasificación por regresión
Ver respuesta
Respuesta correcta: C
Cuestionar #62
El Especialista en Aprendizaje Automático está construyendo un modelo para predecir futuras tasas de empleo basándose en una amplia gama de factores económicos. Mientras explora los datos, el especialista se da cuenta de que la magnitud de las características de entrada varía mucho. El especialista no quiere que las variables con una magnitud mayor dominen el modelo. ¿Qué debe hacer el especialista para preparar los datos para el entrenamiento del modelo?
A. plique el binning cuantílico para agrupar los datos en bins categóricos para mantener cualquier relación en los datos sustituyendo la magnitud por la distribución
B. plicar la transformación producto cartesiano para crear nuevas combinaciones de campos independientes de la magnitud
C. plica la normalización para asegurar que cada campo tendrá una media de 0 y una varianza de 1 para eliminar cualquier magnitud significativA
D. plicar la transformación ortogonal sparse bigram (OSB) para aplicar una ventana deslizante de tamaño fijo para generar nuevas características de una magnitud similar
Ver respuesta
Respuesta correcta: C
Cuestionar #63
Un empleado encontró un videoclip con audio en las redes sociales de una empresa. El idioma utilizado en el vídeo es el español. El inglés es la lengua materna del empleado, que no entiende español. ¿Qué combinación de servicios es la MÁS eficaz para llevar a cabo la tarea?
A. mazon Transcribe, Amazon Translate y Amazon Comprehend
B. mazon Transcribe, Amazon Comprehend y Amazon SageMaker seq2seq
C. mazon Transcribe, Amazon Translate y Amazon SageMaker Neural Topic Model (NTM)
D. mazon Transcribe, Amazon Translate y Amazon SageMaker BlazingText
Ver respuesta
Respuesta correcta: A
Cuestionar #64
Durante el entrenamiento por mini lotes de una red neuronal para un problema de clasificación, un científico de datos observa que la precisión del entrenamiento oscila
A. La distribución de clases en el conjunto de datos está desequilibradA
B. l barajado de conjuntos de datos está desactivado
C. l tamaño del lote es demasiado grande
D. a tasa de aprendizaje es muy altA
Ver respuesta
Respuesta correcta: D
Cuestionar #65
Una empresa agrícola está interesada en utilizar el aprendizaje automático para detectar tipos específicos de malas hierbas en un campo de praderas de 100 acres. En la actualidad, la empresa utiliza cámaras montadas en tractores para capturar múltiples imágenes del campo en cuadrículas de 10 × 10. La empresa también tiene un gran conjunto de datos de entrenamiento que consiste en imágenes anotadas de clases populares de malas hierbas, como las de hoja ancha y las que no son de hoja ancha
A. repare las imágenes en formato RecordIO y cárguelas en Amazon S3
B. repare las imágenes en formato Apache Parquet y cárguelas en Amazon S3
C. repare las imágenes en formato RecordIO y cárguelas en Amazon S3
D. repare las imágenes en formato Apache Parquet y cárguelas en Amazon S3
Ver respuesta
Respuesta correcta: C
Cuestionar #66
Un científico de datos ha estado ejecutando una instancia de cuaderno de Amazon SageMaker durante unas semanas. Durante este tiempo, se ha lanzado una nueva versión de Jupyter Notebook junto con actualizaciones de software adicionales. El equipo de seguridad exige que todas las instancias de bloc de notas de SageMaker en ejecución utilicen las últimas actualizaciones de seguridad y software proporcionadas por SageMaker
A. lamar a la operación de la API CreateNotebookInstanceLifecycleConfig
B. rear una nueva instancia de bloc de notas de SageMaker y montar el volumen de Amazon Elastic Block Store (Amazon EBS) de la instancia original
C. etener y reiniciar la instancia de SageMaker notebook
D. Llamar a la operación API UpdateNotebookInstanceLifecycleConfig
Ver respuesta
Respuesta correcta: C
Cuestionar #67
Una empresa de comercio electrónico está automatizando la categorización de sus productos basándose en imágenes. Un científico de datos ha entrenado un modelo de visión por ordenador utilizando el algoritmo de clasificación de imágenes Amazon SageMaker. Las imágenes de cada producto se clasifican según líneas de productos específicas. La precisión del modelo es demasiado baja cuando se clasifican productos nuevos. Todas las imágenes de los productos tienen las mismas dimensiones y se almacenan en un bucket de Amazon S3. La empresa desea mejorar el modelo para poder utilizarlo con productos nuevos
A. as clases C y D son demasiado similares
B. El conjunto de datos es demasiado pequeño para la validación cruzadA
C. La distribución de los datos es asimétricA
D. El modelo está sobreajustado para las clases B y E
Ver respuesta
Respuesta correcta: BCE

Ver respuestas después del envío

Envíe su correo electrónico y WhatsApp para obtener las respuestas a sus preguntas.

Nota: asegúrese de que su ID de correo electrónico y Whatsapp sean válidos para que pueda obtener los resultados correctos del examen.

Correo electrónico:
WhatsApp/número de teléfono: