2024 년 업데이트 된 MLS-C01 시험 문제 및 모의고사, AWS 인증 기계 학습 | SPOTO
SPOTO의 업데이트 된 연습 문제와 시험 문제로 2024 년 MLS-C01 시험에서 성공할 수 있도록 준비하십시오. AWS 공인 머신러닝-스페셜티(MLS-C01) 자격증은 개발 또는 데이터 과학 직무의 전문가를 위해 맞춤화되어 있으며, AWS 클라우드에서 머신러닝 모델을 구축, 교육, 미세 조정 및 배포하는 기술을 검증합니다. 시험 문제와 정답을 마스터하여 머신러닝 애플리케이션을 위한 AWS 서비스 활용에 능숙함을 입증하세요. 연습 문제와 시험 덤프를 활용하여 종합적인 준비와 지식 평가가 가능합니다. 무료 시험 자료와 시험 시뮬레이터에 액세스하여 시험 연습과 준비 상태를 향상하세요. SPOTO는 샘플 문제와 모의고사를 포함한 다양한 리소스를 제공하여 MLS-C01 시험에서 뛰어난 성적을 거두고 역동적인 머신러닝 분야에서 커리어를 발전시킬 수 있도록 도와드립니다. 자신감을 가지고 준비하고 SPOTO의 지원으로 인증 목표를 달성하세요.
머신 러닝 전문가가 ROC 곡선 아래 면적(AUC)을 객관적 지표로 삼아 AmazonSageMaker를 사용해 트리 기반 앙상블 모델의 하이퍼파라미터 튜닝 작업을 시작하고 있습니다. 이 워크플로는 결국 24시간마다 부실해지는 데이터에 대한 클릭을 모델링하기 위해 매일 밤 하이퍼파라미터를 재훈련하고 조정하는 에이파이프라인에 배포될 것입니다. 이러한 모델을 훈련하는 데 걸리는 시간을 줄이고 궁극적으로 비용을 절감하기 위해 전문가는 입력 하이퍼파라미터를 재구성하려고 합니다
A. 가장 중요한 입력 피처가 가우시안인지 여부를 보여주는 히스토그램입니다
B. 많은 입력 변수를 읽기 쉬운 차원으로 시각화하기 위해 t 분산 확률 이웃 임베딩(t-SNE)을 사용하는 대상 변수별로 색상이 지정된 점이 있는 분산형 차트로, 많은 수의 입력 변수를 시각화합니다
C. 각 훈련 반복에 대한 목표 지표의 성능을 보여주는 분산형 차트입니다
D. 최대 트리 깊이와 객관적 지표 간의 상관관계를 보여주는 산점도입니다
답변 보기
정답:
B
질문 #2
한 부동산 회사가 새 주택의 가격을 예측하는 새로운 제품을 출시합니다. 부동산 및 가격에 대한 과거 데이터는 Amazon S3 버킷에 .csv 형식으로 저장되어 있습니다. 데이터에는 헤더, 일부 범주형 필드 및 일부 누락된 값이 있습니다. 이 회사의 데이터 과학자들은 일반적인 오픈 소스 라이브러리와 함께 Python을 사용하여 누락된 값을 0으로 채웠습니다. 데이터 과학자들은 모든 범주형 필드를 삭제하고 오픈 소스 선형 회귀 알고리즘을 사용하여 모델을 학습시켰습니다
A. S3 버킷에 대한 액세스 권한이 있는 Amazon Elastic Container Service(Amazon ECS)에 대한 서비스 연결 역할을 생성합니다
B. 노트북과 연결된 새 IAM 역할이 있는 Amazon SageMaker 노트북을 만듭니다
C. Amazon S3, Amazon SageMaker 및 AWS Lambda에 대한 액세스 권한이 있는 IAM 역할을 만듭니다
D. S3 버킷에 대한 액세스 권한이 있는 Amazon SageMaker의 IAM 역할을 생성합니다
답변 보기
정답:
A
질문 #3
한 데이터 과학자가 아마존 세이지메이커에 내장된 블레이징 텍스트 알고리즘을 사용해 텍스트 분류 모델을 훈련하고 있습니다. 데이터 세트에는 카테고리 A에 300개, 카테고리 B에 292개, 카테고리 C에 240개, 카테고리 D에 258개, 카테고리 E에 310개의 샘플이 있는 5개의 클래스가 있으며, 데이터 과학자는 데이터를 섞고 테스트를 위해 10%를 분할합니다. 모델을 훈련한 후 데이터 과학자는 훈련 및 테스트 세트에 대한 혼동 행렬을 생성합니다. 데이터 과학자는 어떤 결론을 내릴 수 있을까요?
A. 클래스 C와 D는 너무 비슷합니다
B. 데이터 집합이 너무 작아서 홀드아웃 교차 검증을 수행할 수 없습니다
C. 데이터 분포가 왜곡되어 있습니다
D. 이 모델은 클래스 B와 E에 과적합합니다
답변 보기
정답:
B
질문 #4
머신 러닝 전문가가 모델을 실험하는 동안 다음과 같은 통계를 발견했습니다. 이 실험에서 전문가는 무엇을 알 수 있을까요?
A. 실험 1의 모델은 분산 오차가 높았으나 정규화를 통해 실험 3에서 감소했습니다
B. 실험 1의 모델은 정규화를 통해 실험 3에서 편향 오차가 크게 감소했습니다
C. 실험 1의 모델은 높은 편향 오차와 높은 분산 오차를 보였으나 실험 3에서 정규화를 통해 감소했습니다
D. 실험 1의 모델은 무작위 노이즈 오류가 높았으나 실험 3에서는 정규화를 통해 감소했습니다
답변 보기
정답:
C
질문 #5
한 회사가 사용 가능한 과거 판매 데이터를 기반으로 주택의 판매 가격을 예측하려고 합니다. 회사 데이터 집합의 대상 변수는 판매 가격입니다. 여기에는 부지 크기, 거실 면적 측정값, 비거실 면적 측정값, 침실 수, 욕실 수, 건축 연도 및 우편 번호와 같은 매개 변수가 포함됩니다. 이 회사는 주택 판매 가격을 예측하기 위해 다변수 선형 회귀를 사용하려고 하는데, 머신 러닝 전문가가 비현실적인 기능을 제거하려면 어떤 단계를 거쳐야 하나요?
A. 피처의 히스토그램을 그려서 표준 편차를 계산합니다
B. 피처의 히스토그램을 그려서 표준 편차를 계산합니다
C. 데이터 세트의 상관 관계를 보여주는 히트 맵을 작성합니다
D. 목표 변수에 대한 모든 피처의 상관관계 검사를 실행합니다
답변 보기
정답:
D
질문 #6
한 회사에서 사용자 행동을 사기성 또는 정상으로 분류하고자 합니다. 내부 조사에 따르면 머신 러닝 전문가는 계정 연령과 거래 월이라는 두 가지 특징을 기반으로 이진 분류기를 구축하고자 합니다. 이러한 특징에 대한 클래스 분포는 제공된 그림에 나와 있으며, 이 정보를 바탕으로 사기 클래스에 대해 가장 높은 회상률을 보이는 모델은 무엇인가요?
A. 의사 결정 트리
B. 선형 서포트 벡터 머신(SVM)
C. 나이브 베이지안 분류기
D. 시그모이드 활성화 기능이 있는 단일 퍼셉트론
답변 보기
정답:
C
질문 #7
한 제조 회사는 머신러닝(ML) 모델을 사용하여 품질 문제를 감지합니다. 이 모델은 각 생산 단계가 끝날 때마다 회사 제품을 촬영한 이미지를 사용합니다. 이 회사는 생산 현장에 평균 초당 한 장의 이미지를 생성하는 수천 대의 기계를 보유하고 있으며, 한 대의 제조 기계로 성공적인 파일럿을 운영했습니다. 파일럿을 위해 머신 러닝 전문가들은 AWS IoT Greengrass를 실행하는 산업용 PC를 사용하여 이미지를 Amazon에 업로드하는 장기 실행 AWS Lambda 기능을 사용했습니다
A. 프로덕션 사이트와 가장 가까운 AWS 리전 간에 10Gbps AWS 다이렉트 커넥트 연결을 설정합니다
B. 이미지를 압축하고 압축된 파일을 Amazon S3에 업로드하기 위해 AWS IoT Greengrass에서 실행되는 장기 실행 Lambda 함수를 확장합니다
C. 세이지메이커에 자동 스케일링을 사용합니다
D. 각 머신에 설치된 산업용 PC에서 실행 중인 AWS IoT Greengrass 코어에 Lambda 함수와 ML 모델을 배포합니다
답변 보기
정답:
D
질문 #8
한 머신러닝 전문가가 이미지 분류 딥러닝 모델을 구축했습니다. 그러나 이 전문가는 훈련 및 테스트 정확도가 각각 99%와 75%r인 과적합 문제에 직면했습니다. 이 전문가는 이 문제를 어떻게 해결해야 하며 그 이유는 무엇일까요?
A. 최적화 프로세스가 로컬 최소값에 갇혀 있기 때문에 학습 속도를 높여야 합니다
B. 모델이 충분히 일반화되지 않았기 때문에 평탄화 레이어에서의 드롭아웃률을 높여야 합니다
C. 모델이 충분히 복잡하지 않으므로 평평한 레이어 옆의 밀도가 높은 레이어의 치수를 늘려야 합니다
D. 글로벌 최소값에 도달하기 전에 최적화 프로세스가 종료되었으므로 에포크 수를 늘려야 합니다
답변 보기
정답:
D
질문 #9
한 소매업체는 글로벌 온라인 마켓플레이스를 통해 제품을 판매하고 있습니다. 이 회사는 머신 러닝(ML)을 사용해 고객 피드백을 분석하고 개선이 필요한 특정 영역을 파악하고자 합니다. 한 개발자가 온라인 마켓플레이스에서 고객 리뷰를 수집하여 Amazon S3 버킷에 저장하는 도구를 구축했습니다. 이 과정에서 40개의 리뷰로 구성된 데이터 세트가 생성되는데, ML 모델을 구축하는 데이터 과학자는 데이터 세트의 크기를 늘리기 위해 추가 데이터 소스를 식별해야 합니다. 어떤 데이터 소스를 사용해야 할까요?
A. 고객과 회사의 고객 서비스 상담원이 주고받은 이메일
B. 회사 또는 제품 이름이 포함된 소셜 미디어 게시물
C. 공개적으로 사용 가능한 뉴스 기사 모음
D. 공개적으로 사용 가능한 고객 리뷰 모음
E. 회사의 제품 판매 수익 수치
F. 회사 제품에 대한 사용 설명서
답변 보기
정답:
BDF
질문 #10
데이터 과학자는 고속 실시간 스트리밍 데이터를 위한 서버리스 수집 및 분석 솔루션을 만들어야 합니다. 수집 프로세스는 들어오는 레코드를 버퍼링하고 데이터 손실 없이 쿼리에 최적화된 열 형식으로 JSON에서 변환해야 합니다. 출력 데이터 저장소는 가용성이 높아야 하며, 분석가는 데이터에 대해 SQL 쿼리를 실행하고 기존 비즈니스 인텔리전스 대시보드에 연결할 수 있어야 합니다. 데이터 과학자는 이러한 요구 사항을 충족하기 위해 어떤 솔루션을 구축해야 할까요?
A. 들어오는 데이터 형식의 AWS Glue 데이터 카탈로그에서 스키마를 생성합니다
B. Amazon Kinesis 데이터 파이어호스 전송 스트림을 사용해 데이터를 스트리밍하고 AWS Glue 데이터 카탈로그를 사용해 데이터를 Apache Parquet 또는 ORC 형식으로 변환한 후 Amazon S3로 전송합니다
C. 각 JSON 레코드를 Amazon S3의 준비 위치에 씁니다
D. 각 JSON 레코드를 Amazon S3의 스테이징 위치에 씁니다
E. 분석가에게 RDS 데이터베이스에서 대시보드를 쿼리하고 실행하도록 합니다
F. Amazon Kinesis 데이터 분석을 사용하여 스트리밍 데이터를 수집하고 실시간 SQL 쿼리를 수행하여 Amazon S3로 전송하기 전에 레코드를 Apache Parquet으로 변환합니다
답변 보기
정답:
C
질문 #11
한 데이터 과학자가 일련의 검사 결과를 바탕으로 환자의 특정 질병 여부를 예측하는 이진 분류기를 개발하고 있습니다. 데이터 과학자는 모집단에서 무작위로 선택된 400명의 환자 데이터를 가지고 있습니다. 이 질병은 인구의 3%에서 발견됩니다. 데이터 과학자는 어떤 교차 검증 전략을 채택해야 합니까?
A. K=5의 k배수 교차 검증 전략
B. K=5의 계층화된 k-배수 교차 검증 전략
C. K=5, 3번 반복하는 k배수 교차 검증 전략
D. 교육과 검증의 80/20 계층화 분할
답변 보기
정답:
B
질문 #12
보안에 민감한 회사의 머신 러닝 전문가가 모델 학습을 위한 데이터 세트를 준비하고 있습니다. 이 데이터 세트는 Amazon S3에 저장되어 있으며 개인 식별 정보(Pll)를 포함하고 있습니다. 데이터 세트: * VPC에서만 액세스할 수 있어야 합니다. * 공용 인터넷을 통과하지 않아야 합니다. 이러한 요구 사항을 어떻게 충족할 수 있나요?
A. VPC 엔드포인트를 만들고 지정된 VPC 엔드포인트와 VPC에 대한 액세스를 제한하는 버킷 액세스 정책을 적용합니다
B. VPC 엔드포인트를 생성하고 지정된 VPC 엔드포인트와 Amazon EC2 인스턴스에서 액세스를 허용하는 버킷 액세스 정책을 적용합니다
C. VPC 엔드포인트를 생성하고 NACL(네트워크 액세스 제어 목록)을 사용하여 지정된 VPC 엔드포인트와 Amazon EC2 인스턴스 간의 트래픽만 허용합니다
D. VPC 엔드포인트를 생성하고 보안 그룹을 사용하여 지정된 VPC 엔드포인트와 Amazon EC2 인스턴스에 대한 액세스를 제한합니다
답변 보기
정답:
B
질문 #13
분류 문제에 대한 신경망의 미니 배치 훈련 중에 데이터 과학자가 훈련 정확도가 진동하는 것을 발견했습니다. 이 문제의 가장 가능성이 높은 원인은 무엇인가요?
A. 데이터 집합의 클래스 분포가 불균형합니다
B. 데이터 세트 셔플링이 비활성화됨
C. 배치 크기가 너무 큽니다
D. 학습률이 매우 높습니다
답변 보기
정답:
C
질문 #14
한 회사에서 사용자 행동을 사기 또는 정상으로 분류하고자 합니다. 머신 러닝 전문가는 내부 조사를 바탕으로 계정 연령(x로 표시)과 거래 월(y로 표시)이라는 두 가지 특징을 기반으로 이진 분류기를 구축합니다. 클래스 분포는 제공된 그림에 설명되어 있습니다. 포지티브 클래스는 빨간색으로 표시되어 있고 네거티브 클래스는 검은색으로 표시되어 있습니다. 어떤 모델이 가장 높은 정확도를 가질까요?
A. 선형 서포트 벡터 머신(SVM)
B. 의사 결정 트리
C. 방사형 기저 함수 커널을 사용한 SVM(서포트 벡터 머신)
D. 탄 활성화 기능이 있는 단일 퍼셉트론
답변 보기
정답:
C
질문 #15
머신 러닝 전문가는 Amazon Athena를 사용하여 Amazon S3에서 데이터 세트를 쿼리하는 프로세스를 구축해야 합니다. 데이터 세트에는 일반 텍스트 CSV 파일로 저장된 80만 개 이상의 레코드가 포함되어 있습니다. 각 레코드는 200개의 열을 포함하며 크기는 약 1.5MB입니다. 대부분의 쿼리는 5~10개의 열에만 걸쳐 있습니다. 머신 러닝 전문가가 쿼리 런타임을 최소화하기 위해 데이터 세트를 어떻게 변환해야 할까요?
A. 레코드를 Apache Parquet 형식으로 변환합니다
B. 레코드를 JSON 형식으로 변환합니다
C. 레코드를 GZIP CSV 형식으로 변환합니다
D. 레코드를 XML 형식으로 변환합니다
답변 보기
정답:
A
질문 #16
한 도시에서 대기 오염의 결과를 해결하기 위해 대기 질을 모니터링하려고 합니다 머신 러닝 전문가가 도시의 향후 2일간 오염 물질의 백만분의 1 단위로 대기 질을 예측해야 합니다 프로토타입이므로 지난 1년간의 일일 데이터만 사용할 수 있습니다 Amazon SageMaker에서 가장 좋은 결과를 제공할 가능성이 높은 모델은 무엇일까요?
A. 전체 연도의 데이터로 구성된 단일 시계열에 예측자_유형의 회귀 모형으로 Amazon SageMaker k-Nearest-Neighbors(kNN) 알고리즘을 사용합니다
B. 전체 1년간의 데이터로 구성된 단일 시계열에 Amazon SageMaker 랜덤 컷 포레스트(RCF)를 사용합니다
C. 전체 연도의 데이터로 구성된 단일 시계열에 예측자_유형의 회귀 모형으로 Amazon SageMaker 선형 학습자 알고리즘을 사용합니다
D. 분류기 유형이 예측자 유형인 데이터의 전체 연도로 구성된 단일 시계열에 Amazon SageMaker 선형 학습자 알고리즘을 사용합니다
답변 보기
정답:
A
질문 #17
한 게임 회사가 무료로 게임을 시작할 수 있지만 특정 기능을 사용하려면 비용을 지불해야 하는 온라인 게임을 출시했습니다. 이 회사는 신규 사용자가 1년 이내에 유료 사용자가 될지 여부를 예측하는 자동화된 시스템을 구축해야 합니다. 이 회사는 1백만 명의 사용자로부터 레이블이 지정된 데이터 세트를 수집했습니다. 학습 데이터 세트는 1,000개의 양성 샘플(1년 이내에 유료로 전환한 사용자)과 999,000개의 음성 샘플(유료 기능을 사용하지 않은 사용자)로 구성됩니다. E
A. 모델이 더 많은 기능을 학습할 수 있도록 무작위 숲에 더 깊은 나무를 추가합니다
B. 테스트 데이터 세트의 샘플 사본을 학습 데이터 세트에 포함시킵니다
C. 양성 샘플을 복제하고 복제된 데이터에 소량의 노이즈를 추가하여 더 많은 양성 샘플을 생성합니다
D. 오탐이 오탐보다 비용 값에 더 큰 영향을 미치도록 비용 함수를 변경합니다
E. 오탐이 오탐보다 비용 값에 더 큰 영향을 미치도록 비용 함수를 변경합니다
답변 보기
정답:
CD
질문 #18
머신 러닝 전문가가 교육을 위해 Amazon SageMaker를 사용하는 TensorFlow 프로젝트를 배정받았는데 Wi-Fi에 액세스할 수 없는 상태에서 장시간 작업을 계속해야 합니다. 이 스페셜리스트가 작업을 계속하려면 어떤 접근 방식을 사용해야 하나요?
A. 노트북에 Python 3 및 boto3를 설치하고 해당 환경을 사용하여 코드 개발을 계속합니다
B. Amazon SageMaker에서 사용되는 TensorFlow Docker 컨테이너를 GitHub에서 로컬 환경으로 다운로드하고 Amazon SageMaker Python SDK를 사용하여 코드를 테스트합니다
C. Tensorflow
D. 세이지메이커 노트북을 로컬 환경에 다운로드한 다음 노트북에 주피터 노트북을 설치하고 로컬 노트북에서 개발을 계속합니다
답변 보기
정답:
B
질문 #19
한 기계 학습 전문가가 백만 개의 문장으로 구성된 데이터 세트를 처리하는 새로운 자연어 처리 애플리케이션을 만들고 있습니다. 목표는 Word2Vec을 실행하여 문장의 임베딩을 생성하고 다양한 유형의 예측을 가능하게 하는 것입니다. 다음은 데이터 세트의 예입니다. "갈색 여우가 게으른 개를 뛰어넘는다." 다음 중 전문가가 반복 가능한 방식으로 데이터를 정확하게 살균하고 준비하기 위해 수행해야 하는 작업은 무엇입니까? (3가지를 선택하십시오)?
A. 품사 태깅을 수행하고 동작 동사와 명사만 유지합니다
B. 문장을 소문자로 만들어 모든 단어를 정규화합니다
C. 영어 중단어 사전을 사용하여 중단어를 제거합니다
D. "quck"의 타이포그래피를 "quick"으로 수정합니다
E. 문장의 모든 단어를 한 번에 인코딩합니다
F. 문장을 단어로 토큰화합니다
답변 보기
정답:
D
질문 #20
한 머신 러닝 전문가가 분류 문제에 대해 나이브 베이지안 모델과 전체 베이지안 네트워크 중 어떤 모델을 구축할지 결정하고 있습니다. 전문가가 각 특징 간의 피어슨 상관 계수를 계산한 결과 절대값이 0.1에서 0.95 사이라는 것을 발견했습니다. 이 상황에서 기본 데이터를 설명하는 모델은 무엇일까요?
A. 순진한 베이지안 모델은 피처가 모두 조건부 독립적이기 때문입니다
B. 모든 피처가 조건부 독립적이므로 전체 베이지안 네트워크입니다
C. 일부 기능이 통계적으로 종속적이기 때문에 순진한 베이지안 모델입니다
D. 일부 기능이 통계적으로 종속적이기 때문에 전체 베이지안 네트워크입니다
답변 보기
정답:
C
질문 #21
한 회사에서 머신 러닝(ML) 시스템에 대한 감사를 강화하고자 합니다. 감사 시스템은 ML 모델이 사용하는 기능에 대한 메타데이터 분석을 수행할 수 있어야 합니다. 감사 솔루션은 메타데이터를 분석하는 보고서를 생성해야 합니다. 또한 솔루션은 데이터 민감도 및 기능의 저작자를 설정할 수 있어야 합니다. 최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇일까요? 최소한의 개발 노력으로 요구 사항을 충족하는 솔루션은 Amazon SageM을 사용하는 것입니다
A. 아마존 세이지메이커 피처 스토어를 사용하여 피처를 선택합니다
B. 아마존 세이지메이커 기능 스토어를 사용하여 ML 모델이 사용하는 현재 기능에 대한 기능 그룹을 설정합니다
C. 아마존 세이지메이커 기능 스토어를 사용하여 사용자 지정 알고리즘을 적용하여 회사에 필요한 기능 수준 메타데이터를 분석합니다
D. 아마존 세이지메이커 기능 스토어를 사용하여 ML 모델이 사용하는 현재 기능에 대한 기능 그룹을 설정합니다
답변 보기
정답:
D
질문 #22
기본 제공 알고리즘 중 하나를 사용하여 Amazon SageMaker 교육 작업을 제출할 때 반드시 지정해야 하는 공통 매개 변수는 무엇인가요? (세 가지를 선택하세요.)
A. Amazon S3 버킷에서 학습 데이터의 위치를 식별하는 학습 채널입니다
B. Amazon S3 버킷에서 유효성 검사 데이터의 위치를 식별하는 유효성 검사 채널입니다
C. 사용자를 대신하여 작업을 수행하기 위해 Amazon SageMaker가 맡을 수 있는 IAM 역할입니다
D. 사용된 알고리즘에 대해 문서화된 JSON 배열의 하이퍼파라미터
E. 트레이닝을 CPU 또는 GPU를 사용하여 실행할지 여부를 지정하는 Amazon EC2 인스턴스 클래스입니다
F. Amazon S3 버킷에서 학습된 모델이 지속될 위치를 지정하는 출력 경로입니다
답변 보기
정답:
AEF
질문 #23
데이터 과학자는 고속 실시간 스트리밍 데이터를 위한 서버리스 수집 및 분석 솔루션을 만들어야 하며, 수집 프로세스는 들어오는 레코드를 버퍼링하고 데이터 손실 없이 JSON에서 쿼리에 최적화된 열 형식으로 변환해야 합니다. 출력 데이터 저장소는 가용성이 높아야 하며, 분석가는 데이터에 대해 SQL 쿼리를 실행하고 기존 비즈니스 인텔리전스 대시보드에 연결할 수 있어야 합니다. 데이터 과학자가 이러한 요구 사항을 충족하기 위해 구축해야 하는 솔루션은 무엇일까요?
A. 들어오는 데이터 형식의 AWS Glue 데이터 카탈로그에 스키마를 생성합니다
B. 각 JSON 레코드를 Amazon S3의 준비 위치에 씁니다
C. 각 JSON 레코드를 Amazon S3의 준비 위치에 씁니다
D. Amazon Kinesis 데이터 분석을 사용하여 스트리밍 데이터를 수집하고 실시간 SQL 쿼리를 수행하여 Amazon S3로 전송하기 전에 레코드를 Apache Parquet으로 변환합니다
답변 보기
정답:
A
질문 #24
한 머신 러닝 전문가가 IoT 토양 센서 데이터를 Amazon DynamoDB 테이블에 저장하고 기상 이벤트 데이터를 Amazon S3에 JSON 파일로 저장합니다. DynamoDB의 데이터 세트는 10GB 크기이고 Amazon S3의 데이터 세트는 5GB 크기입니다. 이 전문가는 이 데이터에 대한 모델을 훈련하여 기상 이벤트의 함수로서 토양 수분 수준을 예측하는 데 도움이 되는 Amazon SageMaker를 사용하려고 합니다. 어떤 솔루션이 가장 적은 관리 오버헤드로 Amazon SageMaker 모델을 훈련하는 데 필요한 변환을 수행하나요?
A. Amazon EMR 클러스터를 시작합니다
B. AWS Glue 크롤러를 사용해 데이터를 크롤링합니다
C. 센서 테이블에서 Amazon DynamoDB 스트림을 활성화합니다
D. AWS Glue 크롤러를 사용해 데이터를 크롤링합니다
답변 보기
정답:
C
질문 #25
한 머신 러닝 전문가가 목표 지표로 ROC 곡선 아래 면적(AUC)을 사용하여 Amazon SageMaker를 사용하여 트리 기반 앙상블 모델의 하이퍼파라미터 튜닝 작업을 시작합니다. 이 워크플로는 결국 24시간마다 부실해지는 데이터의 클릭을 모델링하기 위해 매일 밤 하이퍼파라미터를 재훈련하고 조정하는 파이프라인에 배포됩니다. 이러한 모델을 훈련하는 시간을 줄이고 궁극적으로 비용을 줄이기 위해 전문가는 입력 h를 재구성하려고 합니다
A. 가장 중요한 입력 피처가 가우시안인지 여부를 보여주는 히스토그램입니다
B. (-분산 확률 이웃 임베딩(I-SNE)을 사용하여 많은 입력 변수를 읽기 쉬운 차원으로 시각화하는 대상 변수별로 색상이 지정된 점이 있는 분산형 차트로, 많은 수의 입력 변수를 시각화합니다
C. 각 훈련 반복에 대한 목표 지표의 성능을 보여주는 산점도(각 훈련 반복에 대한 목표 지표의 성능
D. 최대 트리 깊이와 객관적 지표 간의 상관관계를 보여주는 산점도입니다
답변 보기
정답:
B
제출 후 답변 보기
질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.
참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.