아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

DAS-C01 모의고사, AWS 인증 데이터 분석으로 자격증 준비 강화하기 | SPOTO

AWS 공인 데이터 분석 전문가가 되고 싶으신가요? DAS-C01 시험을 준비하는 것은 어려운 작업이 될 수 있지만 올바른 리소스를 사용하면 성공 확률을 크게 높일 수 있습니다. SPOTO의 DAS-C01 모의 테스트는 포괄적이고 효과적인 시험 준비 경험을 제공하도록 설계되었습니다. 이 모의고사는 실제 DAS-C01 인증 시험을 반영하도록 세심하게 제작 된 다양한 시험 문제와 답변을 제공합니다. 이러한 샘플 문제로 연습하면 데이터 수집, 데이터 저장, 데이터 처리, 데이터 모델링, 데이터 시각화 및 데이터 보안을 포함하여 시험에서 다루는 다양한 주제에 노출 될 수 있습니다. SPOTO의 DAS-C01 모의고사는 단순한 시험 덤프가 아니라 실제 시험 환경을 시뮬레이션하여 엄선된 시험 자료입니다. 각 문제에 대한 자세한 설명을 통해 정답을 배울 수 있을 뿐만 아니라 기본 개념을 더 깊이 이해할 수 있습니다.
다른 온라인 시험에 응시하세요

질문 #1
한 회사가 Amazon S3에 데이터 레이크를 만들 계획입니다. 이 회사는 액세스 패턴과 비용 목표에 따라 계층화된 스토리지를 만들고자 합니다. 이 솔루션에는 레거시 클라이언트의 JDBC 연결 지원, 액세스 제어를 위한 페더레이션을 허용하는 메타데이터 관리, PySpark 및 Scala를 사용하는 배치 기반 ETL이 포함되어야 합니다. 운영 관리는 제한적이어야 합니다. 이러한 요구 사항을 충족할 수 있는 구성 요소의 조합은 무엇인가요? (세 가지를 선택하세요.)
A. 메타데이터 관리를 위한 AWS Glue 데이터 카탈로그
B. ETL용 아파치 스파크가 포함된 Amazon EMR
C. 스칼라 기반 ETL을 위한 AWS 글루
D. JDBC 클라이언트용 Apache Hive가 포함된 Amazon EMR
E. JDBC 드라이버를 사용하여 Amazon S3에서 데이터를 쿼리하기 위한 Amazon Athena
F. MySQL 호환 지원 메타스토어를 갖춘 Amazon RDS를 사용하는 Apache Hive가 포함된 Amazon EMR
답변 보기
정답: A
질문 #2
한 회사에서 Amazon S3의 데이터를 검증하고 변환하여 매일 한 번씩 일괄적으로 Amazon RDS for MySQL에 로드하기 위해 여러 AWS Glue 작업을 개발했습니다. ETL 작업은 동적 프레임을 사용해 S3 데이터를 읽습니다. 현재 ETL 개발자들은 AWS Glue 작업이 매 실행마다 모든 S3 입력 데이터를 처리하기 때문에 매 실행마다 증분 데이터만 처리하는 데 어려움을 겪고 있습니다. 개발자가 최소한의 코딩 작업으로 이 문제를 해결할 수 있는 접근 방식은 무엇일까요?
A. ETL 작업이 데이터 프레임을 사용하여 Amazon S3에서 데이터를 읽도록 합니다
B. AWS Glue 작업에서 작업 북마크를 사용 설정합니다
C. 처리된 S3 개체를 추적하기 위해 ETL 작업에 사용자 지정 로직을 만듭니다
D. ETL 작업이 각 실행 후 처리된 개체 또는 데이터를 Amazon S3에서 삭제하도록 합니다
답변 보기
정답: B
질문 #3
한 달에 한 번, 한 회사에서 gzip으로 압축된 100MB .csv 파일을 받습니다. 이 파일에는 50,000개의 부동산 목록 레코드가 포함되어 있으며 Amazon S3 Glacier에 저장되어 있습니다. 이 회사는 데이터 분석가가 특정 공급업체에 대한 데이터의 하위 집합을 쿼리해야 합니다. 가장 비용 효율적인 솔루션은 무엇인가요?
A. Amazon S3에 데이터를 로드하고 Amazon S3 Select로 쿼리합니다
B. Amazon Glacier Select를 사용하여 Amazon S3 Glacier의 데이터를 직접 쿼리합니다
C. Amazon S3에 데이터를 로드하고 Amazon Athena로 쿼리합니다
D. Amazon S3에 데이터를 로드하고 Amazon Redshift Spectrum으로 쿼리합니다
답변 보기
정답: B
질문 #4
한 회사에서 데이터 웨어하우징을 위해 Amazon Redshift를 사용합니다. ETL 작업은 매일 밤 실행되어 데이터를 로드하고, 비즈니스 규칙을 적용하고, 보고용 집계 테이블을 만듭니다. 이 회사의 데이터 분석, 데이터 과학, 비즈니스 인텔리전스 팀은 정규 업무 시간 동안 데이터 웨어하우스를 사용합니다. 워크로드 관리는 자동으로 설정되어 있으며, 우선순위가 보통으로 설정된 별도의 대기열이 각 팀에 존재합니다. 최근 데이터 분석 팀의 읽기 쿼리가 갑자기 급증하여 매일 최소 두 번 이상 발생하고 있습니다,
A. 데이터 분석 대기열의 쿼리 우선 순위를 가장 높음으로 높입니다
B. 동시성 확장을 사용하도록 데이터 분석 대기열을 구성합니다
C. 쿼리 모니터링 규칙을 만들어 쿼리가 리소스를 대기 중일 때 데이터 분석 대기열에 더 많은 클러스터 용량을 추가합니다
D. 워크로드 관리 쿼리 대기열 호핑을 사용하여 쿼리를 다음 일치하는 대기열로 라우팅합니다
답변 보기
정답: C
질문 #5
한 광고 회사가 Amazon S3에 구축된 데이터 레이크를 보유하고 있습니다. 이 회사는 AWS Glue 데이터 카탈로그를 사용해 메타데이터를 유지 관리합니다. 데이터 레이크는 몇 년이 지났고 데이터 레이크에 추가 데이터 소스와 메타데이터가 저장되면서 전체 규모가 기하급수적으로 증가했습니다. 데이터 레이크 관리자는 Amazon S3와 데이터 카탈로그 간의 권한 관리를 간소화하여 동기화 상태를 유지하는 메커니즘을 구현하고자 합니다. 최소한의 개발로 권한 관리를 간소화할 수 있는 솔루션은 무엇일까요?
A. AWS Glue에 대한 AWS ID 및 액세스 관리(1AM) 권한 설정
B. AWS 레이크 형성 권한 사용
C. 버킷 정책을 사용하여 AWS Glue 및 S3 권한 관리하기
D. Amazon Cognito 사용자 풀을 사용합니다
답변 보기
정답: AC
질문 #6
스트리밍 애플리케이션이 Amazon Kinesis 데이터 스트림에서 데이터를 읽고 10초마다 즉시 Amazon S3 버킷에 데이터를 쓰고 있습니다. 이 애플리케이션은 수백 개의 샤드에서 데이터를 읽고 있습니다. 별도의 요구 사항으로 인해 배치 간격을 변경할 수 없습니다. 데이터는 Amazon Athena에서 액세스하고 있습니다. 시간이 지남에 따라 쿼리 성능이 저하되는 것을 사용자가 목격하고 있습니다. 쿼리 성능을 개선하는 데 도움이 될 수 있는 조치는 무엇인가요?
A. Amazon S3에서 파일을 병합하여 더 큰 파일을 만듭니다
B. 키네시스 데이터 스트림의 샤드 수를 늘립니다
C. 스트리밍 애플리케이션에 메모리 및 CPU 용량을 더 추가합니다
D. 여러 개의 S3 버킷에 파일을 씁니다
답변 보기
정답: D
질문 #7
한 온라인 소매 회사는 Amazon Redshift를 사용해 과거 판매 거래를 저장합니다. 이 회사는 PCI DSS(결제 카드 산업 데이터 보안 표준)를 준수하기 위해 클러스터에 저장된 데이터를 암호화해야 합니다. 기업 거버넌스 정책에 따라 온프레미스 하드웨어 보안 모듈(HSM)을 사용하여 암호화 키를 관리해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇인가요?
A. AWS CloudHSM Classi를 사용하여 암호화 키 생성 및 관리
B. 키 관리를 위해 CloudHSM Classic을 사용하는 옵션이 있는 VPC에서 Amazon Redshift 클러스터를 시작합니다
C. VPC를 생성하고 VPC와 온프레미스 네트워크 간에 VPN 연결을 설정합니다
D. 온프레미스 HS에 대한 HSM 연결 및 클라이언트 인증서를 만듭니다
E. 온-프레미스 HSM을 사용하여 키를 저장하는 옵션을 사용하여 VPC에서 클러스터를 시작합니다
F. 온프레미스 HS에 대한 HSM 연결 및 클라이언트 인증서를 생성합니다
답변 보기
정답: A
질문 #8
한 항공사가 분석을 위해 비행 활동에 대한 메트릭을 수집하고 있습니다. 최근에 완료된 개념 증명은 이 회사가 정시 출발을 개선하기 위해 데이터 분석가에게 인사이트를 제공하는 방법을 보여줍니다. 개념 증명에서는 메트릭을 .csv 형식으로 포함하는 Amazon S3의 개체를 사용했으며, 데이터 쿼리에는 Amazon Athena를 사용했습니다. 데이터의 양이 증가함에 따라 데이터 분석가는 쿼리 성능을 개선하기 위해 스토리지 솔루션을 최적화하고자 합니다. 데이터 분석가는 어떤 옵션을 사용해야 하나요?
A. 파티션 간 처리량을 늘리려면 S3의 키 시작 부분에 무작위 문자열을 추가하세요
B. Athena와 동일한 계정에서 S3 버킷을 사용합니다
C. 오브젝트를 압축하여 데이터 전송 I/O를 줄입니다
D. 아테나와 동일한 리전에서 S3 버킷을 사용합니다
E. 쿼리에 필요한 문서 키만 가져와서 I/O를 줄이기 위해
F. 전제 조건에 필요한 데이터 블록만 가져와서 I/O를 줄이기 위해
답변 보기
정답: BC
질문 #9
한 온라인 리테일 회사가 보고 시스템을 AWS로 마이그레이션하고 있습니다. 이 회사의 레거시 시스템은 복잡한 일련의 중첩된 Apache Hive 쿼리를 사용하여 온라인 거래에 대한 데이터 처리를 실행합니다. 트랜잭션 데이터는 하루에 여러 번 온라인 시스템에서 보고 시스템으로 내보내집니다. 파일의 스키마는 업데이트 간에 안정적입니다. 데이터 분석가는 데이터 처리를 AWS로 신속하게 마이그레이션하고자 하므로 코드 변경을 최소화해야 합니다. 스토리지 비용을 낮게 유지하기 위해 데이터 분석가는 다음을 저장하기로 결정합니다
A. Hive 메타데이터를 관리하기 위해 AWS Glue 데이터 카탈로그를 생성합니다
B. 데이터가 새로 고쳐질 때 실행되어 데이터 변경 사항이 업데이트되도록 하는 Amazon S3에 AWS Glue 크롤러를 생성합니다
C. Amazon EMR 클러스터를 생성하고 AWS Glue 데이터 카탈로그의 메타데이터를 사용하여 Amazon EMR에서 Hive 처리 쿼리를 실행합니다
D. Hive 메타데이터를 관리하기 위한 AWS Glue 데이터 카탈로그 생성
E. 일관된 보기를 활성화하여 Amazon EMR 클러스터 만들기
F. 각 분석 단계 전에 emrfs 동기화를 실행하여 데이터 변경 사항이 업데이트되었는지 확인합니다 G
답변 보기
정답: BD
질문 #10
한 운송 회사는 트럭에 부착된 IoT 센서를 사용하여 전 세계 배송 차량에 대한 차량 데이터를 수집합니다. 이 회사는 현재 센서 데이터를 작은 .csv 파일로 Amazon S3로 전송합니다. 그런 다음 파일은 노드당 두 개의 슬라이스로 구성된 10노드 Amazon Redshift 클러스터에 로드되고 Amazon Athena와 Amazon Redshift를 모두 사용하여 쿼리됩니다. 이 회사는 파일을 최적화하여 쿼리 비용을 절감하고 Amazon Redshift 클러스터로 데이터를 로드하는 속도를 개선하고자 합니다. 어떤 솔루션이
A. AWS Glue를 사용하여
B. 파일을 Amazon Redshift에 복사하고 Amazon S3에서 Athena로 파일을 쿼리합니다
C. Amazon EMR을 사용하여 각
D. 파일을 Amazon Redshift에 복사하고 Amazon S3에서 Athena로 파일을 쿼리합니다
E. AWS Glue를 사용하여
F. 파일을 Amazon Redshift에 복사하고 Amazon S3에서 Athena로 파일을 쿼리합니다
답변 보기
정답: B
질문 #11
한 회사가 차량 차량을 모니터링하는 서비스를 구축하고 있습니다. 이 회사는 각 차량의 장치에서 IoT 데이터를 수집하고 거의 실시간으로 Amazon Redshift에 데이터를 로드합니다. 차량 소유자는 차량 참조 데이터가 포함된 .csv 파일을 하루 중 다른 시간에 Amazon S3에 업로드합니다. 야간 프로세스는 차량 참조 데이터를 Amazon S3에서 Amazon Redshift로 로드합니다. 회사는 디바이스의 IoT 데이터와 차량 참조 데이터를 결합하여 보고 및 대시보드를 강화합니다. 차량 소유
A. S3 이벤트 알림을 사용하여 참조 데이터가 Amazon S3에 업로드되면 즉시 차량 참조 데이터를 Amazon Redshift로 복사하는 AWS Lambda 함수를 트리거합니다
B. 5분마다 실행되도록 AWS Glue Spark 작업을 생성하고 예약합니다
C. 작업은 참조 데이터를 Amazon Redshift에 삽입합니다
D. 아마존 키네시스 데이터 스트림으로 참조 데이터 보내기
E. 참조 데이터를 Amazon Redshift에 실시간으로 직접 로드하도록 Kinesis 데이터 스트림을 구성합니다
F. 참조 데이터를 Amazon Kinesis 데이터 파이어호스 전송 스트리트로 전송합니다
답변 보기
정답: D
질문 #12
한 회사에서 과거 데이터를 분석하기 위해 Amazon S3에 저장된 데이터를 쿼리해야 합니다. 새로운 데이터는 매일 Amazon S3에 저장되는 .csv 파일로 생성됩니다. 이 회사의 분석가들은 전체 데이터의 최근 하위 집합에 대해 SQL 쿼리를 수행하기 위해 Amazon Athena를 사용하고 있습니다. 시간이 지남에 따라 Amazon S3로 수집되는 데이터의 양이 크게 증가했으며 쿼리 지연 시간도 증가했습니다. 쿼리 성능을 개선하기 위해 회사에서 구현할 수 있는 솔루션은 무엇인가요? (두 가지를 선택하세요.)
A. Amazon EC2 인스턴스에서 MySQL Workbench를 사용하고 JDBC 또는 ODBC 커넥토를 사용하여 Athena에 연결합니다
B. 아테나 대신 MySQL 워크벤치에서 직접 쿼리를 실행합니다
C. Athena를 사용하여 데이터를 추출하고 일 단위로 Apache Parquet 형식으로 저장합니다
D. 추출된 데이터를 쿼리합니다
E. 매일 AWS Glue ETL 작업을 실행하여 데이터 파일을 Apache Parquet로 변환하고 변환된 파일을 파티션합니다
F. 정기적인 AWS Glue 크롤러를 생성하여 매일 파티션된 데이터를 자동으로 크롤링합니다
답변 보기
정답: B
질문 #13
한 미디어 분석 회사가 소셜 미디어 게시물 스트림을 소비합니다. 게시물은 user_id를 기준으로 분할된 Amazon Kinesis 데이터 스트림으로 전송됩니다. AWS Lambda 함수가 레코드를 검색하고 콘텐츠의 유효성을 검사한 후 게시물을 Amazon Elasticsearch 클러스터에 로드합니다. 유효성 검사 프로세스는 특정 사용자에 대한 게시물을 수신한 순서대로 수신해야 합니다. 한 데이터 분석가는 피크 시간대에 소셜 미디어 플랫폼 게시물이 Elasticsear에 표시되는 데 1시간 이상 걸린다는 사실을 발견했습니다
A. 유효성 검사 프로세스를 아마존 키네시스 데이터 파이어호스로 마이그레이션합니다
B. 람다 소비자를 표준 데이터 스트림 반복자에서 HTTP/2 스트림 소비자로 마이그레이션합니다
C. 스트림의 샤드 수를 늘립니다
D. 스트림을 처리할 여러 개의 람다 함수를 구성합니다
답변 보기
정답: D

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: