아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

DAS-C01 시험 준비 : 학습 자료 및 모의고사, AWS 인증 데이터 분석 | SPOTO

스포투의 AWS 인증 데이터 분석 - 스페셜티(DAS-C01) 교재와 모의고사로 DAS-C01 시험에 효과적으로 대비할 수 있습니다. 이 인증은 데이터 분석 역할의 전문가에게 매우 중요하며 분석 솔루션을 설계, 보안 및 관리하기 위해 AWS 서비스를 활용할 수있는 능력을 확인합니다. 학습 자료는 시험 문제와 답, 모의고사, 샘플 문제, 시험 덤프 등 다양한 주제를 다루고 있어 핵심 개념을 철저히 이해할 수 있도록 도와줍니다. 시험 자료, 답안, 시험 시뮬레이터를 통해 현실적인 연습 시나리오를 경험해 보세요. 온라인 시험 문제와 모의고사를 통해 준비 상태를 평가하고 시험 성적을 향상하세요. SPOTO는 AWS 공인 데이터 분석 - 스페셜티(DAS-C01) 시험에서 뛰어난 성적을 거두고 데이터 분석 분야에서 경력을 쌓는 데 필요한 리소스와 지원을 제공합니다.

다른 온라인 시험에 응시하세요

질문 #1
원격 건설 현장에서 기상 조건을 모니터링하는 한 회사가 다음 두 기상 관측소에서 온도 데이터를 수집하는 솔루션을 설정하고 있습니다. 센서 10개가 있는 스테이션 A 센서 5개가 있는 스테이션 B 이 기상 관측소는 현장 전문가가 배치했습니다. 각 센서에는 고유 ID가 있습니다. 각 센서에서 수집된 데이터는 Amazon Kinesis 데이터 스트림을 사용하여 수집됩니다. 총 수신 및 발신 데이터 처리량을 기준으로, 하나의 Amazon Kinesis 데이터 스트림이
B. 검토 결과, 총 스트림 처리량이 여전히 할당된 키네시스 데이터 스트림 처리량보다 적은 것으로 확인되었습니다
A. 키네시스 데이터 스트림의 샤드 수를 늘려 병렬 처리 수준을 높입니다
B. 두 개의 샤드로 스테이션 A에 대한 별도의 키네시스 데이터 스트림을 생성하고 스테이션 A 센서 데이터를 새 스트림으로 스트리밍합니다
C. 스테이션 이름 대신 센서 ID를 사용하도록 파티션 키를 수정합니다
D. 스테이션 A의 센서 수를 10개에서 5개로 줄입니다
답변 보기
정답: C
질문 #2
한 보험 회사는 미리 정의된 일정 없이 Amazon Kinesis Data Firehose 전송 스트림을 통해 Amazon S3 버킷으로 전송되는 JSON 형식의 원시 데이터를 보유하고 있습니다. AWS Glue 크롤러가 8시간마다 실행되어 S3 버킷에 저장된 테이블의 데이터 카탈로그에서 스키마를 업데이트하도록 예약되어 있습니다. 데이터 분석가들은 AWS Glue 데이터 카탈로그를 메타스토어로 설정한 Amazon EMR에서 Apache Spark SQL을 사용해 데이터를 분석합니다. 데이터 분석가들은 때때로 그들이 수신하는 데이터가 오래되었다고 말합니다. 데이터 엔지니어
A. 기존 Amazon Redshift 클러스터에 AWS Glue 데이터 카탈로그를 기반으로 외부 스키마를 생성하여 Amazon Redshift Spectrum으로 Amazon S3의 새 데이터를 쿼리합니다
B. Amazon CloudWatch 이벤트에 rate(1시간) 식을 사용하여 1시간마다 AWS Glue 크롤러를 실행합니다
C. AWS CLI를 사용하여 AWS Glue 크롤러의 실행 스케줄을 8시간에서 1분으로 수정합니다
D. S3 버킷의 S3:ObjectCreated:* 이벤트 알림에 의해 트리거된 AWS Lambda 함수에서 AWS Glue 크롤러를 실행합니다
답변 보기
정답: B
질문 #3
한 인적 자원 회사는 회사 데이터에 대한 분석 쿼리를 실행하기 위해 10노드 Amazon Redshift 클러스터를 유지 관리합니다. Amazon Redshift 클러스터에는 제품 테이블과 트랜잭션 테이블이 포함되어 있으며, 두 테이블 모두 product_sku 열이 있습니다. 이 두 테이블의 크기는 100GB가 넘습니다. 대부분의 쿼리는 두 테이블 모두에서 실행됩니다. 최적의 쿼리 성능을 달성하려면 두 테이블에 대해 어떤 배포 스타일을 사용해야 하나요?
A. 두 테이블에 대한 균등 분포 스타일
B. 두 테이블의 KEY 배포 스타일
C. 제품 테이블의 ALL 분포 스타일 및 트랜잭션 테이블의 EVEN 분포 스타일
D. 제품 테이블에 대한 균등 분포 스타일과 트랜잭션 테이블에 대한 키 분포 스타일
답변 보기
정답: C
질문 #4
한 회사에는 Amazon S3 버킷에 .csv 파일을 업로드하는 사업부가 있습니다. 이 회사의 데이터 플랫폼 팀은 검색을 수행하고 테이블과 스키마를 생성하기 위해 AWS Glue 크롤러를 설정했습니다. AWS Glue 작업은 생성된 테이블에서 처리된 데이터를 Amazon Redshift 데이터베이스에 씁니다. AWS Glue 작업은 열 매핑을 처리하고 Amazon Redshift 테이블을 적절하게 생성합니다. 하루 중 어떤 이유로든 AWS Glue 작업이 다시 실행되면 중복 레코드가 Amazon Redshift 테이블에 도입됩니다. 어떤 솔루션이
A. AWS Glue 작업을 수정하여 행을 스테이징 탭에 복사합니다
B. 기본 테이블의 기존 행을 포스트 액션으로 대체하는 SQL 명령을 DynamicFrameWriter 클래스에 추가합니다
C. 이전에 삽입한 데이터를 AWS Glue jo의 MySQL 데이터베이스에 로드합니다
D. MySQL에서 업서트 작업을 수행하고 그 결과를 Amazon Redshift 테이블에 복사합니다
E. Apache Spark의 DataFrame dropDuplicates() API를 사용하여 중복을 제거한 다음 Amazon Redshift에 데이터를 씁니다
F. AWS Glue ResolveChoice 기본 제공 트랜스폼을 사용하여 열의 가장 최근 값을 선택합니다
답변 보기
정답: B
질문 #5
한 병원에서 웨어러블 의료 센서 디바이스를 사용하여 환자로부터 데이터를 수집합니다. 이 병원은 대규모로 데이터를 안전하게 수집할 수 있는 실시간에 가까운 솔루션을 설계하고 있습니다. 또한 이 솔루션은 스트리밍 데이터에서 환자의 보호 대상 건강 정보(PHI)를 제거하고 데이터를 내구성 있는 스토리지에 저장할 수 있어야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇일까요?
A. 아마존 키네시스 데이터 스트림을 사용하여 데이터를 수집하고, 키네시스 클라이언트 라이브러리(KCL)를 사용하여 AWS 람다 함수를 호출하여 모든 PH를 제거합니다
B. Amazon S3에 데이터를 씁니다
C. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
D. Amazon Kinesis 데이터 스트림을 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
E. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
답변 보기
정답: A
질문 #6
세 팀의 데이터 분석가들이 EMR 파일 시스템(EMRFS)이 있는 Amazon EMR 클러스터에서 Apache Hive를 사용하여 각 팀의 Amazon S3 버킷에 저장된 데이터를 쿼리합니다. EMR 클러스터에는 Kerberos가 활성화되어 있으며 회사 Active Directory에서 사용자를 인증하도록 구성되어 있습니다. 데이터는 매우 민감하므로 각 팀의 구성원만 액세스할 수 있도록 제한해야 합니다. 어떤 단계가 보안 요구 사항을 충족하나요?
A. EMR 클러스터 Amazon EC2 인스턴스의 경우 Amazon S3에 대한 액세스 권한을 부여하지 않는 서비스 역할을 만들고, 각 팀의 특정 버킷에 대한 액세스 권한을 부여하는 세 개의 추가 IAM 역할을 만듭니다
B. EC2 트러스트 정책에 대한 클러스터의 EMR 역할에 추가 IAM 역할을 추가합니다
C. 각 팀의 추가 IAM 역할에 대한 보안 구성 매핑을 Active Directory 사용자 그룹에 만듭니다
D. EMR 클러스터 Amazon EC2 인스턴스의 경우 Amazon S3에 대한 액세스 권한을 부여하지 않는 서비스 역할을 만들고, 각 팀의 특정 버킷에 대한 액세스 권한을 부여하는 세 개의 추가 IAM 역할을 만듭니다
E. 추가 IAM 역할에 대한 트러스트 정책에 EMR 클러스터 EC2 인스턴스에 대한 서비스 역할을 추가합니다
F. 각 팀의 Active Directory 사용자 그룹에 대한 추가 IAM 역할에 대한 보안 구성 매핑을 생성합니다
답변 보기
정답: D
질문 #7
한 회사가 매일 수백만 개의 메시지를 생성하는 서비스를 시작했으며 스트리밍 서비스로 Amazon Kinesis 데이터 스트림을 사용하고 있습니다. 이 회사는 Kinesis SDK를 사용해 Kinesis 데이터 스트림에 데이터를 씁니다. 출시 몇 달 후, 데이터 분석가는 쓰기 성능이 현저히 저하되는 것을 발견했습니다. 데이터 분석가는 메트릭을 조사한 결과 Kinesis가 쓰기 요청을 스로틀링하고 있다고 판단했습니다. 데이터 분석가는 아키텍처를 크게 변경하지 않고 이 문제를 해결하고자 합니다. 어떤 ac
A. 스로틀링을 줄이기 위해 키네시스 데이터 스트림 보존 기간을 늘립니다
B. 키네시스 API 기반 데이터 수집 메커니즘을 키네시스 에이전트로 교체합니다
C. UpdateShardCount API를 사용하여 스트림의 샤드 수를 늘립니다
D. 샤드 전체에 레코드가 균일하게 분포되는 방식으로 파티션 키를 선택합니다
E. 성능 향상을 위해 재시도 로직을 포함하도록 애플리케이션 코드를 사용자 지정합니다
답변 보기
정답: D
질문 #8
한 회사에는 Amazon S3에 이미지 파일로 저장된 스캔 문서가 100만 개 있습니다. 이 문서에는 지원자 이름, 지원자 성, 지원 날짜, 지원 유형, 지원서 텍스트 등의 정보가 포함된 타이핑된 지원서가 포함되어 있습니다. 이 회사는 스캔한 문서에서 메타데이터 값을 추출하는 머신러닝 알고리즘을 개발했습니다. 이 회사는 내부 데이터 분석가가 지원자 이름, 지원 날짜 또는 지원서를 사용하여 지원서를 분석하고 찾을 수 있도록 하려고 합니다
A. 각 이미지에 대해 객체 태그를 사용하여 메타데이터를 추가합니다
B. Amazon S3 Select를 사용하여 신청자 이름과 신청 날짜를 기준으로 파일을 검색합니다
C. 이미지 파일의 메타데이터와 Amazon Elasticsearch Service의 Amazon S3 위치를 색인하고 데이터 분석가들이 Kibana를 사용해 Elasticsearch 클러스터에 쿼리를 제출할 수 있도록 합니다
D. 이미지 파일의 메타데이터와 Amazon S3 위치를 Amazon Redshift 탭에 저장합니다
E. 데이터 분석가가 테이블에서 임시 쿼리를 실행할 수 있도록 허용합니다
F. 이미지 파일의 메타데이터와 Amazon S3 위치를 Amazon S3의 Apache Parquet 파일에 저장하고 AWS Glue Data Catalo에 테이블을 정의합니다
답변 보기
정답: C

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: