아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

2024 DAS-C01 시험 준비: 모의고사 및 학습 자료, AWS 공인 데이터 분석 | SPOTO

2024 DAS-C01 시험 준비: 모의고사 & AWS Certified Data Analytics - Specialty(DAS-C01)를 위한 학습 자료는 데이터 분석 역할의 전문가에게 매우 중요합니다. 이 자격증은 데이터에서 실행 가능한 인사이트를 추출하기 위해 분석 솔루션을 설계, 구축, 보안 및 관리하기 위한 AWS 서비스 활용에 대한 전문성을 검증합니다. 시험 문제와 답, 모의고사, 샘플 문제, 시험 덤프가 포함된 종합적인 학습 자료로 철저한 준비를 보장합니다. 시험 연습과 준비에 중점을 둔 자료에는 시험 자료와 답안, 실제와 같은 시험 시나리오를 위한 시험 시뮬레이터가 포함되어 있습니다. 온라인 시험 문제에 액세스하고 모의고사를 통해 준비 상태를 측정하세요. 스팟오의 효과적인 시험 준비 전략으로 AWS Certified Data Analytics - Specialty (DAS-C01) 시험에 합격하세요.

다른 온라인 시험에 응시하세요

질문 #1
한 회사에서 매일 외부 공급업체로부터 파일을 받기 위해 Amazon EC2 인스턴스를 사용합니다. 하루가 끝나면 EC2 인스턴스는 파일을 단일 파일로 결합하고 gzip 압축을 수행한 다음 단일 파일을 Amazon S3 버킷에 업로드합니다. 모든 파일의 총 크기는 매일 약 100GB입니다. 파일이 Amazon S3에 업로드되면 AWS 배치 작업에서 COPY 명령을 실행하여 파일을 Amazon Redshift 클러스터에 로드합니다. 어떤 솔루션이 COPY 프로세스를 가장 가속화할까요?
A. 개별 파일을 Amazon S3에 업로드합니다
B. 파일 수가 Redshift 클러스터의 슬라이스 수의 배수와 같도록 파일을 분할합니다
C. 각 파일이 Redshift 클러스터의 각 컴퓨팅 노드에서 사용 가능한 스토리지의 50%를 사용하도록 파일을 분할합니다
동일한 값을 가진 DISTKEY 열이 동일한 파일로 이동하도록 파일을 분할하여 D. ply 샤딩을 수행합니다
답변 보기
정답: B
질문 #2
회사가 Amazon Connect를 사용하여 컨택 센터를 관리합니다. 이 회사는 고객 관계 관리(CRM) 데이터를 관리하기 위해 Salesforce를 사용합니다. 이 회사는 Amazon Connect 및 Salesforce의 데이터를 Amazon S3에 구축된 데이터 레이크로 수집하는 파이프라인을 구축해야 합니다. 운영 오버헤드가 가장 적으면서 이 요구 사항을 충족하는 솔루션은 무엇인가요?
A. 아마존 키네시스 데이터 스트림을 사용하여 아마존 커넥트 데이터를 수집합니다
B. Amazon Kinesis 데이터 파이어호스를 사용하여 Amazon Connect 데이터를 수집합니다
C. Amazon Kinesis 데이터 파이어호스를 사용하여 Amazon Connect 데이터를 수집합니다
D. Amazon AppFlow를 사용하여 Amazon Connect 데이터를 수집합니다
답변 보기
정답: B
질문 #3
한 회사가 과거 데이터에 대한 분석 서비스를 제공하기 위해 Amazon S3에서 호스팅되는 데이터 레이크를 사용하려고 합니다. 데이터 레이크는 800개의 테이블로 구성되어 있지만 수천 개의 테이블로 늘어날 것으로 예상됩니다. 50개 이상의 부서에서 이 테이블을 사용하며 각 부서에는 수백 명의 사용자가 있습니다. 여러 부서에서 특정 테이블과 열에 액세스해야 합니다. 운영 오버헤드가 가장 적으면서 이러한 요구 사항을 충족하는 솔루션은 무엇일까요?
A. 각 부서에 대해 1AM 역할을 생성합니다
B. 각 부서에 대해 Amazon Redshift 클러스터를 생성합니다
C. 부서에 대해 1AM 역할을 생성합니다
D. 각 부서에 대해 Amazon EMR 클러스터를 생성합니다
E. 련 S3 파일
답변 보기
정답: C
질문 #4
미국에 본사를 둔 한 운동화 소매 회사가 글로벌 웹사이트를 출시했습니다. 모든 거래 데이터는 Amazon RDS에 저장되며, 선별된 과거 거래 데이터는 미국 동부-1 지역의 Amazon Redshift에 저장됩니다. 비즈니스 인텔리전스(BI) 팀은 운동화 트렌드에 대한 대시보드를 제공하여 사용자 경험을 향상시키고자 합니다. BI 팀은 웹사이트 대시보드를 렌더링하기 위해 Amazon QuickSight를 사용하기로 결정합니다. 개발 중에 일본의 한 팀이 ap- 동북-1에서 Amazon QuickSight를 프로비저닝했습니다. 이 팀은 다음과 같은 어려움을 겪고 있습니다
A. Amazon Redshift 콘솔에서 교차 지역 스냅샷을 구성하도록 선택하고 대상 지역을 ap-northeast-1로 설정합니다
B. Amazon QuickSight가 Amazon Redshift의 데이터에 액세스할 수 있도록 Amazon QuickSight VPC에서 Amazon Redshift VPC로 VPC 엔드포인트를 생성합니다
C. 문자열에 Region 정보가 포함된 Amazon Redshift 엔드포인트 연결 문자열을 생성하고 Amazon QuickSight에서 이 연결 문자열을 사용하여 Amazon Redshift에 연결합니다
D. Ap-northeast-1에 있는 Amazon QuickSight 서버의 적절한 IP 주소 범위에서 액세스를 승인하는 인바운드 규칙을 사용하여 us-east-1에 Amazon Redshift에 대한 새 보안 그룹을 만듭니다
답변 보기
정답: D
질문 #5
한 회사가 추천 엔진에 더 많은 기능을 추가하여 스마트 홈 시스템에 대한 사용자 만족도를 높이고자 합니다. 각 센서는 Java의 KPL(Kinesis Producer Library)을 사용하여 중첩된 JSON 데이터를 Amazon Kinesis 데이터 스트림에 비동기적으로 푸시합니다. 고장난 센서 세트의 통계에 따르면 센서가 오작동할 때 기록된 데이터가 항상 클라우드로 전송되지 않는 것으로 나타났습니다. 이 회사는 가장 최신 센서의 데이터를 거의 실시간으로 분석할 수 있는 솔루션이 필요했습니다. Whi
A. 센서 측에서 버퍼링을 비활성화하려면 KPL의 RecordMaxBufferedTime 속성을 "1"로 설정하고, 회사에서 개발한 이상 징후 탐지 SQL 스크립트를 기반으로 데이터를 보강하려면 Kinesis 데이터 분석을 사용합니다
B. 강화된 데이터를 여러 Kinesis 데이터 스트림으로 푸시하고 데이터 변환 기능을 활성화하여 JSON 파일을 평탄화합니다
C. 고집적 스토리지 Amazon Redshift 클러스터를 인스턴스화하여 Kinesis 데이터 파이어호스 전송 스트림의 대상으로 사용하세요
D. 센서 코드를 업데이트하여 Kinesis 데이터 스트림 API의 PutRecord/PutRecords 호출을 Jav용 AWS SDK로 사용하도록 합니다
E. 회사에서 개발한 이상 징후 탐지 SQL 스크립트를 기반으로 데이터를 보강하기 위해 Kinesis 데이터 분석을 사용합니다
F. KDA 애플리케이션의 출력을 Kinesis 데이터 파이어호스 전송 스트림으로 보내고, 데이터 변환 기능을 활성화하여 JSON 파일을 평탄화하고, Kinesis 데이터 파이어호스 대상을 아마존 엘라스틱서치 서비스 클러스터로 설정합니다
답변 보기
정답: A
질문 #6
한 제조 회사는 1년 동안 공장 현장의 장치에서 IoT 센서 데이터를 수집해 왔으며, 매일 분석을 위해 Amazon Redshift에 데이터를 저장하고 있습니다. 데이터 분석가는 하루 약 2TB의 예상 수집 속도로 볼 때 4개월 이내에 클러스터의 크기가 부족해질 것이라고 판단했습니다. 장기적인 해결책이 필요합니다. 데이터 분석가는 대부분의 쿼리가 가장 최근 13개월의 데이터만 참조하지만, 모든 데이터를 쿼리해야 하는 분기별 보고서도 있다고 지적했습니다
A. AWS Glue에서 일일 작업을 생성하여 13개월이 지난 레코드를 Amazon S3로 언로드하고 Amazon Redshif에서 해당 레코드를 삭제합니다
B. Amazon Redshift에서 S3 위치를 가리키도록 외부 테이블을 만듭니다
C. 13개월이 지난 데이터에 조인하려면 Amazon Redshift Spectrum을 사용합니다
D. Amazon Redshift 클러스터의 스냅샷 찍기
E. 추가 스토리지 용량이 있는 고밀도 스토리지 노드를 사용하여 클러스터를 새 클러스터로 복원합니다
F. 13개월이 지난 레코드를 Amazon S3가 지원하는 Amazon Redshift Spectrum의 분기별 파티션 데이터로 이동하기 위해 CREATE TABLE AS SELECT(CTAS) 문을 실행합니다
답변 보기
정답: ACE
질문 #7
한 회사가 Amazon S3에 10~15개의 압축되지 않은 .csv 파일을 보유하고 있습니다. 이 회사는 일회성 쿼리 엔진으로 Amazon Athena를 평가하고 있습니다. 이 회사는 쿼리 런타임 및 저장 비용을 최적화하기 위해 데이터를 변환하려고 하는데, 이러한 요구 사항을 충족하는 데이터 형식 및 압축 옵션은 무엇인가요?
A. Zip으로 압축된 CSV
B. Bzip2로 압축된 JSON
C. 스내피로 압축된 아파치 패킷
D. LZO로 압축된 Apache Avro
답변 보기
정답: B
질문 #8
한 회사에서 데이터 레이크 스토리지로 Amazon S3와 데이터 웨어하우징을 위한 Amazon Redshift를 포함하는 분석 솔루션을 구축하고 있습니다. 이 회사는 Amazon Redshift Spectrum을 사용하여 Amazon S3에 저장된 데이터를 쿼리하려고 합니다. 이 회사가 Amazon Redshift Spectrum을 사용하여 S3 데이터 파일을 쿼리할 때 성능을 개선하기 위해 취해야 할 단계는 무엇인가요? (3개 선택) 1~5GB의 개별 파일 크기로 gzip 압축 사용
A. 열 형식의 저장 파일 형식을 사용합니다
B. 가장 일반적인 쿼리 술어를 기준으로 데이터를 분할합니다
C. 이터를 KB 크기의 파일로 분할합니다
D. 모든 파일은 같은 크기로 유지합니다
E. 분할할 수 없는 파일 형식을 사용합니다
답변 보기
정답: BCD
질문 #9
한 중앙 정부 기관은 Amazon Managed Streamingfor Apache Kafka(Amazon MSK)를 사용해 다양한 내부 애플리케이션에서 이벤트를 수집하고 있습니다. 이 조직은 데이터를 분리하기 위해 각 애플리케이션에 대해 별도의 Kafka 토픽을 구성했습니다. 보안상의 이유로 Kafka 클러스터는 TLS로 암호화된 데이터만 허용하도록 구성되었으며 저장된 데이터는 암호화됩니다. 최근 애플리케이션 업데이트에서 애플리케이션 중 하나가 잘못 구성되어 Kafka 토픽에 데이터가 쓰여지는 것으로 나타났습니다
A. 각 애플리케이션에 대해 서로 다른 Amazon EC2 보안 그룹을 만듭니다
B. 각 애플리케이션 인스턴스에 카프카 커넥트를 설치하고 특정 주제에만 쓰도록 각 카프카 커넥트 인스턴스를 구성합니다
C. Kafka ACL을 사용하고 각 주제에 대한 읽기 및 쓰기 권한을 구성합니다
D. 각 애플리케이션에 대해 서로 다른 Amazon EC2 보안 그룹을 만듭니다
답변 보기
정답: B
질문 #10
한 모바일 게임 회사가 게임 앱에서 데이터를 캡처하여 즉시 분석에 사용할 수 있도록 하려고 합니다. 데이터 레코드 크기는 약 20KB입니다. 이 회사는 각 디바이스에서 최적의 처리량을 달성하는 것에 대해 고민하고 있습니다. 또한 이 회사는 각 소비자를 위한 전용 처리량을 갖춘 데이터 스트림 처리 애플리케이션을 개발하고자 하는데, 어떤 솔루션이 이 목표를 달성할 수 있을까요?
A. 앱이 PutRecords API를 호출하여 Amazon Kinesis 데이터 스트림으로 데이터를 전송하도록 합니다
B. 앱이 PutRecordBatch API를 호출하여 Amazon Kinesis Data Firehose로 데이터를 전송하도록 합니다
C. 앱이 Amazon KPL(Kinesis Producer Library)을 사용하여 데이터를 Kinesis Data Firehose로 전송하도록 합니다
D. 앱이 PutRecords API를 호출하여 Amazon Kinesis 데이터 스트림으로 데이터를 전송하도록 합니다
답변 보기
정답: D
질문 #11
한 데이터 분석 전문가가 Amazon S3 버킷에 업로드된 압축 파일을 수집하기 위해 AWS Glue를 사용해 자동화된 ETL 수집 파이프라인을 구축하고 있습니다. 수집 파이프라인은 증분 데이터 처리를 지원해야 하는데, 데이터 분석 전문가가 이 요구 사항을 충족하기 위해 어떤 AWS Glue 기능을 사용해야 하나요?
A. 워크플로
B. 트리거
C. 작업 북마크
D. 분류기
답변 보기
정답: B
질문 #12
한 소매업체가 Amazon Redshift를 사용해 데이터 웨어하우스 솔루션을 구축하고 있습니다. 그 노력의 일환으로, 이 회사는 Amazon Redshift 클러스터에서 생성된 팩트 테이블에 수백 개의 파일을 로드하고 있습니다. 이 회사는 이 솔루션이 회사의 팩트 테이블에 데이터를 로드할 때 최고의 처리량을 달성하고 클러스터 리소스를 최적으로 사용하길 원합니다. 이 회사는 이러한 요구 사항을 어떻게 충족해야 할까요?
A. 여러 COPY 명령을 사용하여 Amazon Redshift 클러스터에 데이터를 로드합니다
B. S3DistCp를 사용하여 여러 파일을 Hadoop 분산 파일 시스템(HDFS)에 로드하고 HDFSconnector를 사용하여 Amazon Redshift 클러스터로 데이터를 수집합니다
C. Amazon Redshift 클러스터 노드 수와 동일한 LOAD 명령을 사용하여 각 노드에 데이터를 병렬로 로드합니다
D. 단일 COPY 명령을 사용하여 데이터를 Amazon Redshift 클러스터에 로드합니다
답변 보기
정답: B
질문 #13
한 대학에서 Amazon Kinesis Data Firehose를 사용하여 Amazon S3에서 JSON 형식의 수질 판독값 배치를 수집하려고 합니다. 이 판독값은 지역 호수에 흩어져 있는 50개의 센서에서 얻은 것입니다. 학생들은 Amazon Athena를 사용하여 저장된 데이터를 쿼리하여 수온이나 산도 등 시간에 따른 캡처된 메트릭의 변화를 관찰합니다. 이 연구에 대한 관심이 높아지면서 대학은 데이터 저장 방식을 재고하게 되었습니다. 어떤 데이터 형식과 파티셔닝을 선택하면 가장 크게 줄일 수 있을까요?
A. 스내피 압축을 사용하여 Apache Avro 형식으로 데이터를 저장합니다
B. 연도, 월, 일별로 데이터를 분할합니다
C. 압축을 사용하지 않고 Apache ORC 형식으로 데이터를 저장합니다
D. 스내피 압축을 사용하여 데이터를 아파치 마루 형식으로 저장합니다
E. 센서, 연도, 월, 일별로 데이터를 분할합니다
답변 보기
정답: B
질문 #14
한 의료 서비스 회사는 AWS 데이터와 분석 도구를 사용하여 환자의 전자 건강 기록(EHR) 데이터를 수집, 수집, 저장합니다. 원시 EHR 데이터는 시간, 일, 연도별로 분할된 JSON 형식으로 Amazon S3에 저장되며 매시간 업데이트됩니다. 이 회사는 분석을 위해 Amazon Athena 또는 Amazon Redshift Spectrum을 사용하여 데이터에 액세스할 수 있도록 데이터 카탈로그와 메타데이터를 AWS Glue 데이터 카탈로그에 유지하고자 합니다. 데이터 카탈로그에서 테이블을 정의할 때 회사는 다음과 같은 r
A. 하나 이상의 데이터 저장소에 연결하고, 데이터 구조를 결정하고, 데이터 카탈로그에 테이블을 작성하는 AWS Glue 크롤러를 실행합니다
B. AWS Glue 콘솔을 사용하여 데이터 카탈로그에서 테이블을 수동으로 생성하고 AWS Lambda 함수가 매시간 테이블 파티션을 업데이트하도록 예약합니다
C. 데이터 카탈로에서 테이블을 생성하려면 AWS Glue API CreateTable 작업을 사용합니다
D. AWS Glue 크롤러를 생성하고 테이블을 소스로 지정합니다
E. Amazon S3의 테이블 스키마 정의를 사용하여 Amazon EMR에서 Apache Hive 카탈로그를 생성하고 예약된 조로 테이블 파티션을 업데이트합니다
F. Hive 카탈로그를 데이터 카탈로그로 마이그레이션합니다
답변 보기
정답: C
질문 #15
한 소셜 미디어 회사가 비즈니스 인텔리전스 도구를 사용해 예측을 위한 데이터를 분석하고 있습니다. 이 회사는 Apache Kafka를 사용하여 데이터를 수집하고 있습니다. 이 회사는 주요 비즈니스 동향을 예측하기 위해 머신 러닝(ML) 인사이트를 포함하는 동적 대시보드를 구축하려고 합니다. 대시보드는 75분 이내의 최근 일괄 처리된 데이터를 표시해야 합니다. 회사의 여러 팀이 ML 인사이트가 포함된 Amazon QuickSight를 사용하여 대시보드를 보기를 원합니다. 어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Kafka를 Apache Kafka용 Amazon 관리형 스트리밍(Amazon MSK)으로 교체합니다
B. Kafka를 Amazon Kinesis 데이터 스트림으로 대체합니다
C. 데이터를 Amazon Kinesis Data Firehose 전송 스트림에 게시하도록 Kafka-Kinesis-Connector를 구성합니다
D. 데이터를 Amazon Kinesis Data Firehose 전송 스트림에 게시하도록 Kafka-Kinesis-Connector를 구성합니다
답변 보기
정답: C
질문 #16
한 운송 회사는 트럭에 부착된 IoT 센서를 사용하여 전 세계 배송 차량에 대한 차량 데이터를 수집합니다. 이 회사는 현재 센서 데이터를 작은 .csv 파일로 Amazon S3로 전송합니다. 그런 다음 파일은 노드당 두 개의 슬라이스로 구성된 10노드 AmazonRedshift 클러스터에 로드되고 Amazon Athena와 Amazon Redshift를 모두 사용하여 쿼리됩니다. 이 회사는 파일을 최적화하여 쿼리 비용을 절감하고 Amazon Redshift 클러스터에 데이터를 로드하는 속도를 개선하고자 합니다
A. AWS Glue를 사용하여
B. Amazon EMR을 사용하여 각
C. AWS Glue를 사용하여 파일을
D. AWS Glue를 사용하여 파일을
답변 보기
정답: D

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: