NÃO QUER PERDER NADA?

Dicas para passar no exame de certificação

Últimas notícias sobre exames e informações sobre descontos

Curadoria e atualizada por nossos especialistas

Sim, me envie o boletim informativo

Passe suas perguntas de certificação MLS-C01 e testes práticos, AWS Certified Machine Learning | SPOTO

O exame AWS Certified Machine Learning-Specialty (MLS-C01) destina-se a profissionais em funções de Desenvolvimento ou Ciência de Dados, validando as suas competências na criação, formação, otimização e implementação de modelos de ML na infraestrutura da AWS. Ao utilizar os testes práticos e as perguntas de certificação MLS-C01 da SPOTO, os candidatos podem familiarizar-se com o formato do exame, testar os seus conhecimentos e identificar áreas de melhoria. O acesso a esses recursos melhora a preparação para o exame, aumenta a confiança e aumenta a probabilidade de aprovação no exame de certificação MLS-C01. A SPOTO oferece um pacote abrangente de preparação para o exame MLS-C01, incluindo testes práticos e perguntas de certificação MLS-C01. Esses recursos abrangem uma variedade de tópicos, como perguntas do exame, exemplos de perguntas e lixeiras do exame, garantindo uma preparação completa para o exame MLS-C01.
Faça outros exames online

Pergunta #1
Um especialista em aprendizagem automática está a desenvolver um modelo de recomendação de vídeo personalizado para uma aplicação. O conjunto de dados utilizado para treinar este modelo é muito grande, com milhões de pontos de dados, e está alojado num bucket do Amazon S3. O especialista pretende evitar carregar todos estes dados para uma instância de notebook do Amazon SageMaker, uma vez que demoraria horas a mover e excederia o volume de 5 GB do Amazon EBS anexado à instância do notebook. Qual abordagem permite que o Especialista use todos os dados para treinar o modelo?
A. Carregue um subconjunto mais pequeno dos dados para o bloco de notas SageMaker e treine localmente
B. Confirme que o código de treino está a ser executado e que os parâmetros do modelo parecem razoáveis
C. Inicie uma tarefa de treinamento do SageMaker usando o conjunto de dados completo do bucket S3 usando o modo de entrada Pipe
D. Inicie uma instância do Amazon EC2 com uma AMI do AWS Deep Learning e anexe o bucket S3 à instância
E. Treinar com uma pequena quantidade de dados para verificar o código de treino e o hiperparâmetro
F. Regresse ao Amazon SageMaker e treine utilizando o conjunto de dados completo G
Ver resposta
Resposta correta: C
Pergunta #2
Um cientista de dados pretende obter informações em tempo real sobre um fluxo de dados de ficheiros GZIP. Que solução permitiria a utilização de SQL para consultar o fluxo com a MENOR latência?
A. Amazon Kinesis Data Analytics com uma função AWS Lambda para transformar os dados
B. AWS Glue com um script ETL personalizado para transformar os dados
C. Uma biblioteca cliente Amazon Kinesis para transformar os dados e guardá-los num cluster Amazon ES
D. Amazon Kinesis Data Firehose para transformar os dados e colocá-los num bucket do Amazon S3
Ver resposta
Resposta correta: A
Pergunta #3
Q22: Uma cadeia de retalho tem vindo a ingerir registos de compras da sua rede de 20 000 lojas para o Amazon S3 utilizando o Amazon Kinesis Data Firehose. Para apoiar a formação de um modelo de aprendizagem automática melhorado, os registos de formação necessitarão de transformações novas, mas simples, e alguns atributos serão combinados. O modelo precisa de ser treinado diariamente. Dado o grande número de lojas e a ingestão de dados herdados, qual alteração exigirá a MENOR quantidade de esforço de desenvolvimento?
A. Exigir que as lojas passem a capturar os seus dados localmente no AWS Storage Gateway para carregamento no Amazon S3 e, em seguida, utilizar o AWS Glue para efetuar a transformação
B. Implemente um cluster Amazon EMR que execute o Apache Spark com a lógica de transformação e faça com que o cluster seja executado todos os dias nos registos acumulados no Amazon S3, enviando registos novos/transformados para o Amazon S3
C. Criar uma frota de instâncias do Amazon EC2 com a lógica de transformação, fazer com que transformem os registos de dados acumulados no Amazon S3 e enviar os registos transformados para o Amazon S3
D. Inserir um fluxo do Amazon Kinesis Data Analytics a jusante do fluxo do Kinesis Data Firehose que transforma atributos de registo brutos em valores transformados simples utilizando SQL
Ver resposta
Resposta correta: D
Pergunta #4
Um Especialista em Aprendizagem Automática tem de criar um processo para consultar um conjunto de dados no Amazon S3 utilizando o Amazon Athena O conjunto de dados contém mais de 800 000 registos armazenados como ficheiros CSV de texto simples Cada registo contém 200 colunas e tem aproximadamente 1 5 MB de tamanho A maioria das consultas abrangerá apenas 5 a 10 colunas Como é que o Especialista em Aprendizagem Automática deve transformar o conjunto de dados para minimizar o tempo de execução da consulta?
A. Converter os registos para o formato Apache Parquet
B. Converter os registos para o formato JSON
C. Converter os registos para o formato GZIP CSV
D. Converter os registos para o formato XML
Ver resposta
Resposta correta: A
Pergunta #5
Um grande fabricante de bens de consumo tem os seguintes produtos à venda ? 34 variantes diferentes de pasta de dentes ? 48 variantes diferentes de escovas de dentes ? 43 variantes diferentes de elixir bucal Todo o histórico de vendas de todos estes produtos está disponível no Amazon S3 Atualmente, a empresa está a utilizar modelos de média móvel integrada auto-regressiva (ARIMA) personalizados para prever a procura destes produtos A empresa pretende prever a procura de um novo produto que será lançado em breve Que solução deve um modelo de aprendizagem automática
A. Treinar um modelo ARIMA personalizado para prever a procura do novo produto
B. Treinar um algoritmo DeepAR do Amazon SageMaker para prever a procura do novo produto
C. Treinar um algoritmo de agrupamento k-means do Amazon SageMaker para prever a procura do novo produto
D. Treinar um modelo XGBoost personalizado para prever a procura do novo produto
Ver resposta
Resposta correta: C
Pergunta #6
Q21: Um especialista em aprendizagem automática está a configurar o Amazon SageMaker para que vários cientistas de dados possam aceder a blocos de notas, treinar modelos e implementar pontos finais. Para garantir o melhor desempenho operacional, o Especialista precisa de ser capaz de controlar a frequência com que os Cientistas estão a implementar modelos, a utilização de GPU e CPU nos pontos finais do SageMaker implementados e todos os erros que são gerados quando um ponto final é invocado. Quais serviços são integrados ao Amazon SageMaker para rastrear essas informações? (Escolha dois.)
A. AWS CloudTrail
B. Saúde AWS
C. Consultor de confiança da AWS
D. Amazon CloudWatch
E. Configuração AWS
Ver resposta
Resposta correta: AD
Pergunta #7
Uma empresa de serviços financeiros está a criar um lago de dados sem servidor robusto no Amazon S3. O lago de dados deve ser flexível e atender aos seguintes requisitos: * Suportar a consulta de dados antigos e novos no Amazon S3 através do Amazon Athena e do Amazon Redshift Spectrum. * Suportar pipelines ETL orientados por eventos. * Fornecer uma forma rápida e fácil de compreender os metadados. Qual abordagem atende a esses requisitos?
A. Use um rastreador do AWS Glue para rastrear dados do S3, uma função do AWS Lambda para acionar um trabalho ETL do AWS Glue e um catálogo de dados do AWS Glue para pesquisar e descobrir metadados
B. Use um rastreador do AWS Glue para rastrear dados do S3, uma função do AWS Lambda para acionar um trabalho do AWS Batch e um metastore externo do Apache Hive para pesquisar e descobrir metadados
C. Use um rastreador do AWS Glue para rastrear dados do S3, um alarme do Amazon CloudWatch para acionar um trabalho do AWS Batch e um catálogo de dados do AWS Glue para pesquisar e descobrir metadados
D. Use um rastreador do AWS Glue para rastrear dados do S3, um alarme do Amazon CloudWatch para acionar um trabalho ETL do AWS Glue e um metastore externo do Apache Hive para pesquisar e descobrir metadados
Ver resposta
Resposta correta: C
Pergunta #8
Um especialista em aprendizagem automática está a construir um modelo de regressão logística que irá prever se uma pessoa irá ou não encomendar uma pizza. O especialista está a tentar criar o modelo ideal com um limiar de classificação ideal. Que técnica de avaliação de modelos deve o Especialista utilizar para compreender o impacto que diferentes limites de classificação terão no desempenho do modelo?
A. Curva caraterística de funcionamento do recetor (ROC)
B. Taxa de erros de classificação
C. Raiz do erro quadrático médio (RM&)
D. Norma L1
Ver resposta
Resposta correta: B

Ver as respostas após o envio

Por favor, envie seu e-mail e WhatsApp para obter respostas às perguntas.

Observação: certifique-se de que seu ID de e-mail e Whatsapp sejam válidos para que você possa obter os resultados corretos do exame.

E-mail:
WhatsApp/número de telefone: