아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

시험 문제 및 학습 자료로 DAS-C01 시험 마스터, AWS 인증 데이터 분석 | SPOTO

스포터의 시험 문제 및 학습 자료로 DAS-C01 시험을 마스터하세요 - AWS 인증 데이터 분석 - 스페셜티(DAS-C01)를 위한 시험 문제 및 학습 자료. 이 자격증은 분석 솔루션을 설계, 보안 및 관리하기 위해 AWS 서비스를 활용하는 데 있어 전문성을 검증하는 데이터 분석 역할의 전문가에게 필수적입니다. 종합적인 학습 자료에는 시험 문제와 답안, 모의고사, 시험 덤프가 포함되어 있어 핵심 개념을 깊이 있게 이해할 수 있습니다. 샘플 문제, 시험 자료, 답안을 통해 시험 연습과 준비를 강화할 수 있습니다. 시험 시뮬레이터를 활용하여 현실적인 시험 시나리오를 경험하고 시험 성적을 향상하세요. 온라인 시험 문제와 모의고사를 통해 준비 상태를 측정하고 AWS Certified Data Analytics - Specialty(DAS-C01) 시험에서 탁월한 성과를 거둘 수 있습니다. SPOTO는 데이터 분석 경력에서 성공하는 데 필요한 도구와 지원을 제공합니다.

다른 온라인 시험에 응시하세요

질문 #1
한 회사에서 기록 데이터가 포함된 온프레미스 PostgreSQL 데이터베이스를 호스팅하고 있습니다. 내부 레거시 애플리케이션은 읽기 전용 활동에 데이터베이스를 사용합니다. 이 회사의 비즈니스 팀은 가능한 한 빨리 데이터를 Amazon S3의 데이터 레이크로 옮기고 분석을 위해 데이터를 보강하고자 합니다. 이 회사는 VPC와 온프레미스 네트워크 사이에 AWS 다이렉트 커넥트 연결을 설정했습니다. 데이터 분석 전문가는 최소한의 운영 오버헤드로 비즈니스 팀의 목표를 달성할 수 있는 솔루션을 설계해야 합니다
A. 사용자 정의된 일괄 업로드 프로세스를 사용하여 온프레미스 PostgreSQL 데이터베이스에서 Amazon S3로 데이터를 업로드합니다
B. AWS Glue 크롤러를 사용하여 Amazon S3에서 데이터를 카탈로그화합니다
C. Amazon Athena를 사용하여 데이터를 쿼리합니다
D. PostgreSQL용 Amazon RDS 데이터베이스를 생성하고 AWS 데이터베이스 마이그레이션 서비스(AWS DMS)를 사용하여 데이터를 Amazon RD로 마이그레이션합니다
E. AWS 데이터 파이프라인을 사용하여 Amazon RDS for PostgreSQL 테이블에서 데이터를 복사 및 보강하고 데이터를 Amazon S3로 이동합니다
F. 온프레미스 데이터베이스의 데이터를 카탈로그화하기 위해 JDBC 연결을 사용하도록 AWS Glue 크롤러를 구성합니다
답변 보기
정답: A
질문 #2
한 데이터 분석가가 JDBC 드라이버와 함께 Amazon Athena를 사용하여 대량의 DML(데이터 조작 언어) 쿼리를 실행합니다. 최근에 쿼리가 30분 동안 실행된 후 실패했습니다. 쿼리에서 다음 메시지 Java.sql.SGLException이 반환되었습니다: 쿼리 시간 초과 데이터 분석가에게 쿼리 결과가 즉시 필요하지 않음 그러나 데이터 분석가에게는 이 문제에 대한 장기적인 해결책이 필요함 어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 쿼리를 더 작은 쿼리로 분할하여 더 작은 데이터 하위 집합을 검색합니다
B. Athena 설정에서 DML 쿼리 시간 제한을 조정합니다
C. 서비스 할당량 콘솔에서 DML 쿼리 시간 초과에 대한 증량을 요청합니다
D. 테이블을 압축된
답변 보기
정답: D
질문 #3
한 회사에서 애플리케이션 로그를 거의 실시간으로 보강하고 보강된 데이터 세트를 추가 분석에 사용하고자 합니다. 이 애플리케이션은 여러 가용 영역에 걸쳐 Amazon EC2 인스턴스에서 실행되고 있으며 Amazon CloudWatch Logs를 사용해 로그를 저장하고 있습니다. 보강 소스는 Amazon DynamoDB 테이블에 저장됩니다. 이벤트 수집 및 보강에 대한 요구 사항을 충족하는 솔루션은 무엇인가요?
A. CloudWatch Logs 구독을 사용하여 Amazon Kinesis 데이터 파이어호스로 데이터를 전송합니다
B. AWS Lambda를 사용하여 Kinesis Data Firehose 전송 스트림의 데이터를 변환하고 DynamoDB 탭의 데이터로 보강합니다
C. Amazon S3를 키네시스 데이터 파이어호스 전송 대상으로 구성합니다
D. AWS CL을 사용하여 시간 단위로 원시 로그를 Amazon S3로 내보냅니다
E. AWS Glue 크롤러를 사용하여 로그 카탈로그화하기
F. DynamoDB 테이블에 대한 AWS Glue 연결을 설정하고 데이터를 보강하기 위해 AWS Glue ETL 작업을 설정합니다
답변 보기
정답: A
질문 #4
한 은행 회사는 현재 민감한 데이터를 저장하기 위해 고밀도 스토리지(DS) 노드가 있는 Amazon Redshift 클러스터를 사용하고 있습니다. 감사 결과 클러스터가 암호화되지 않은 것으로 나타났습니다. 규정 준수 요건에 따르면 민감한 데이터가 있는 데이터베이스는 자동화된 키 순환 기능을 갖춘 하드웨어 보안 모듈(HSM)을 통해 암호화해야 합니다. 규정 준수를 달성하려면 어떤 단계의 조합이 필요하나요? (두 가지를 선택하세요.)
A. 자동 키 순환 기능이 있는 클라이언트 및 서버 인증서를 사용하여 HSM과 신뢰할 수 있는 연결을 설정합니다
B. HSM 암호화 옵션 및 자동 키 로테이션으로 클러스터를 수정합니다
C. HSM으로 암호화된 새 Amazon Redshift 클러스터를 생성하고 데이터를 새 클러스터로 마이그레이션합니다
D. AWS CLI를 통해 키 회전으로 HSM을 활성화합니다
E. HSM에서 타원 곡선 디피-헬만 임시(ECDHE) 암호화를 사용하도록 설정합니다
답변 보기
정답: C
질문 #5
한 회사에서 50개의 노드가 있는 Amazon EMR 클러스터를 사용하여 운영 데이터를 처리하고 데이터 분석가들이 데이터를 사용할 수 있도록 합니다. 이러한 작업은 Apache Jez 프레임워크가 포함된 Apache Hive를 처리 모델로 사용하고 결과를 Hadoop 분산 파일 시스템(HDFS)에 기록합니다. 지난 몇 주 동안 작업이 실패하고 다음 오류 메시지를 생성합니다. "파일이 1이 아닌 0 노드로만 복제될 수 있음" 데이터 분석 전문가가 DataNode 로그 및 네트워크 연결을 확인합니다
A. HDFS사용률 메트릭 모니터링
B. 값이 사용자 정의 임계값을 초과하는 경우 EMR 클러스터에 작업 노드를 추가합니다
C. HDFSUtilization metri
D. MemoryAllocatedMB 메트릭 모니터링
E. 값이 사용자 정의 임계값을 초과하는 경우 EMR 클러스터에 작업 노드를 추가합니다
F. 메모리 할당된 MB 메트릭을 모니터링합니다
답변 보기
정답: D
질문 #6
한 회사에서 온프레미스 Apache Hadoop 클러스터에서 Amazon EMR 클러스터로 마이그레이션하고 있습니다. 클러스터는 업무 시간 중에만 실행됩니다. 하루 중 클러스터 장애를 방지해야 하는 회사의 요구 사항으로 인해 EMR 클러스터는 고가용성이어야 합니다. 각 영업일이 끝날 때 클러스터가 종료되더라도 데이터는 유지되어야 합니다. EMR 클러스터가 이러한 요구 사항을 충족할 수 있는 구성은 무엇인가요? (세 가지를 선택하세요.)
A. 저장용 EMR 파일 시스템(EMRFS)
B. 스토리지용 Hadoop 분산 파일 시스템(HDFS)
C. 아파치 하이브의 메타스토어로 AWS 글루 데이터 카탈로그 사용
D. 아파치 하이브의 메타스토어로 마스터 노드에 있는 MySQL 데이터베이스
E. 단일 가용성 영역의 여러 마스터 노드
F. 여러 가용 영역에 있는 여러 마스터 노드
답변 보기
정답: D
질문 #7
한 글로벌 제약 회사는 전 세계의 다양한 테스트 시설에서 신약에 대한 테스트 결과를 받습니다. 결과는 수백만 개의 1KB 크기의 JSON 객체로 회사 소유의 Amazon S3 버킷으로 전송됩니다. 데이터 엔지니어링 팀은 이러한 파일을 처리하고 Apache Parquet 형식으로 변환한 다음 데이터 분석가가 대시보드 보고를 수행할 수 있도록 Amazon Redshift에 로드해야 합니다. 엔지니어링 팀은 개체를 처리하기 위해 AWS Glue를 사용하고, 프로세스 오케스트레이션을 위해 AWS Step Functions를 사용하며, Amazo
A. 작은 파일을 큰 파일로 그룹화하려면 AWS Lambda를 사용하세요
B. 파일을 Amazon S3에 다시 씁니다
C. 원시 입력 파일을 수집하는 동안 AWS Glue 동적 프레임 파일 그룹화 옵션 사용
D. 파일을 처리하고 Amazon Redshift 테이블에 로드합니다
E. Amazon Redshift COPY 명령을 사용하여 Amazon S3의 파일을 Amazon Redshift 테이블 directl로 이동합니다
F. Amazon Redshift에서 파일을 처리합니다
답변 보기
정답: C
질문 #8
한 은행에서 실시간 데이터를 데이터 레이크에 채우기 위해 Amazon MSK(Amazon Managed Streaming for Apache Kafka)를 사용하고 있습니다. 데이터 레이크는 Amazon S3에 구축되었으며, 데이터 레이크에서 24시간 이내에 데이터에 액세스할 수 있어야 합니다. 여러 마이크로서비스가 클러스터의 여러 주제에 메시지를 생성합니다. 클러스터는 8TB의 Amazon EBS(Amazon Elastic Block Store) 스토리지와 7일의 보존 기간으로 생성됩니다. 고객 거래량이 최근 3배로 증가했고 디스크 모니터링에서 경고 알림을 제공했습니다
A. Amazon MSK 콘솔을 사용하여 브로커 스토리지를 세 배로 늘리고 클러스터를 다시 시작합니다
B. 이 메트릭의 값이 85%를 초과하면 가장 오래된 메시지를 자동으로 플러시하는 Amazon CloudWatch 알람을 생성하여 KafkaDataLogsDiskUsed 메트릭을 모니터링합니다
C. 사용자 지정 Amazon MSK 구성 만들기 로그 보존 시간 매개변수를 48로 설정합니다
D. 소비자 수를 세 배로 늘려서 데이터가 주제에 추가되는 즉시 소비되도록 합니다
답변 보기
정답: C
질문 #9
한 소매업체가 Amazon Redshift를 사용해 데이터 웨어하우스 솔루션을 구축하고 있습니다. 그 노력의 일환으로, 이 회사는 Amazon Redshift 클러스터에서 생성된 팩트 테이블에 수백 개의 파일을 로드하고 있습니다. 이 회사는 이 솔루션이 회사의 팩트 테이블에 데이터를 로드할 때 최고의 처리량을 달성하고 클러스터 리소스를 최적으로 사용하길 원합니다. 이 회사는 이러한 요구 사항을 어떻게 충족해야 할까요?
A. 여러 COPY 명령을 사용하여 Amazon Redshift 클러스터에 데이터를 로드합니다
B. S3DistCp를 사용하여 여러 파일을 Hadoop 분산 파일 시스템(HDFS)에 로드하고 HDFS 커넥터를 사용하여 Amazon Redshift 클러스터로 데이터를 수집합니다
C. Amazon Redshift 클러스터 노드 수와 동일한 LOAD 명령을 사용하여 각 노드에 데이터를 병렬로 로드합니다
D. 단일 COPY 명령을 사용하여 데이터를 Amazon Redshift 클러스터에 로드합니다
답변 보기
정답: ACE
질문 #10
한 회사가 Amazon S3에 Apache Parquet 형식의 파일을 저장합니다 이 회사는 테이블 메타데이터를 저장하기 위해 AWS Glue 데이터 카탈로그를 사용하고 데이터를 쿼리하고 분석하기 위해 Amazon Athena를 사용합니다 테이블에는 많은 수의 파티션이 있습니다 쿼리는 테이블의 작은 데이터 하위 집합에서만 실행됩니다 데이터 분석가는 새 데이터가 도착하면 테이블에 새로운 시간 파티션을 추가합니다 데이터 분석가는 쿼리 런타임을 줄여야 한다는 요청을 받았습니다 어떤 솔루션이 가장 쿼리 런타임을 단축할 수 있을까요?
A. Parquet 파일을 csv 파일 형식으로 변환한 다음 데이터 쿼리를 다시 시도합니다
B. Parquet 파일을 Apache ORC 파일 형식으로 변환합니다
C. 그런 다음 데이터 쿼리를 다시 시도합니다
D. 파티션 투영을 사용하여 파티션된 테이블의 처리 속도를 높이세요
E. 탭 위에 사용할 파티션을 더 추가합니다
F. 그런 다음 두 파티션에 걸쳐 필터링하고 모든 열을 WHERE 절에 넣습니다
답변 보기
정답: A
질문 #11
한 온라인 소매업체가 Amazon Kinesis 데이터 스트림을 사용하여 자동으로 제품을 재주문할 수 있도록 재고 관리 시스템과 재고 재주문 시스템을 재구축하고 있습니다. 재고 관리 시스템은 KPL(Kinesis Producer Library)을 사용하여 데이터를 스트림에 게시합니다. 재고 재주문 시스템은 KCL(Kinesis 클라이언트 라이브러리)을 사용하여 스트림의 데이터를 소비합니다. 스트림은 필요에 따라 확장하도록 구성되었습니다. 프로덕션 배포 직전에 리테일러는 재고 재주문 시스템이
A. 프로듀서에 네트워크 관련 시간 초과가 발생했습니다
B. 스트림의 IteratorAgeMilliseconds 메트릭 값이 너무 높습니다
C. 샤드 수, 레코드 프로세서 또는 둘 다에 변경이 있었습니다
D. AggregationEnabled 구성 속성이 true로 설정되었습니다
E. Max_records 구성 속성이 너무 높은 숫자로 설정되었습니다
답변 보기
정답: C
질문 #12
한 통신 회사는 사기 통화를 식별하기 위한 이상 징후 탐지 솔루션을 찾고 있습니다. 이 회사는 현재 Amazon Kinesis를 사용해 온프레미스 데이터베이스에서 Amazon S3로 음성 통화 기록을 JSON 형식으로 스트리밍하고 있습니다. 기존 데이터 세트에는 200개의 열로 구성된 음성 통화 기록이 포함되어 있습니다. 사기 통화를 탐지하려면 이 솔루션은 이 중 5개 열만 살펴봐야 합니다. 이 회사는 최소한의 노력과 이상 징후 분석 경험이 필요한 AWS를 사용하는 비용 효율적인 솔루션에 관심이 있습니다
A. AWS Glue 작업을 사용하여 데이터를 JSON에서 Apache Parque로 변환합니다
B. AWS Glue 크롤러를 사용하여 스키마를 발견하고 AWS Glue 데이터 카탈로 구축하기
C. Amazon Athena를 사용하여 열의 하위 집합이 있는 테이블 만들기
D. Amazon QuickSight를 사용하여 데이터를 시각화한 다음 Amazon QuickSight 머신 러닝 기반 이상 징후 탐색을 사용하세요
E. 모든 호출에 대해 이상 징후 점수를 계산하고 Amazon RD에 출력을 저장하는 SQL 쿼리를 실행하여 Kinesis의 데이터 스트림에서 이상 징후를 탐지하는 Kinesis Data Firehose를 사용합니다
F. Amazon Athena를 사용해 데이터 세트를 빌드하고 Amazon QuickSight를 사용해 결과를 시각화합니다
답변 보기
정답: B
질문 #13
한 회사가 추천 엔진에 더 많은 기능을 추가하여 스마트 홈 시스템에 대한 사용자 만족도를 높이고자 합니다. 각 센서는 Java의 KPL(Kinesis Producer Library)을 사용하여 중첩된 JSON 데이터를 Amazon Kinesis 데이터 스트림에 비동기적으로 푸시합니다. 고장난 센서 세트의 통계에 따르면 센서가 오작동할 때 기록된 데이터가 항상 클라우드로 전송되지 않는 것으로 나타났습니다. 이 회사는 가장 최신 센서의 데이터를 거의 실시간으로 분석할 수 있는 솔루션이 필요했습니다. Whi
A. 센서 측에서 버퍼링을 비활성화하려면 KPL의 RecordMaxBufferedTime 속성을 "1"로 설정하고, 회사에서 개발한 이상 징후 탐지 SQL 스크립트를 기반으로 데이터를 보강하려면 Kinesis 데이터 분석을 사용합니다
B. 강화된 데이터를 여러 Kinesis 데이터 스트림으로 푸시하고 데이터 변환 기능을 활성화하여 JSON 파일을 평탄화합니다
C. 고집적 스토리지 Amazon Redshift 클러스터를 인스턴스화하여 Kinesis 데이터 파이어호스 전송 스트림의 대상으로 사용하세요
D. 센서 코드를 업데이트하여 Kinesis 데이터 스트림 API의 PutRecord/PutRecords 호출을 Jav용 AWS SDK로 사용하도록 합니다
E. 회사에서 개발한 이상 징후 탐지 SQL 스크립트를 기반으로 데이터를 보강하기 위해 Kinesis 데이터 분석을 사용합니다
F. KDA 애플리케이션의 출력을 Kinesis 데이터 파이어호스 전송 스트림으로 보내고, 데이터 변환 기능을 활성화하여 JSON 파일을 평탄화하고, Kinesis 데이터 파이어호스 대상을 아마존 엘라스틱서치 서비스 클러스터로 설정합니다
답변 보기
정답: B
질문 #14
비디오 스트리밍 웹사이트를 운영하는 회사가 사용자 행동을 분석하여 사용자에게 실시간으로 추천을 제공하고자 함 클릭스트림 데이터가 Amazon Kinesis 데이터 스트림으로 전송되고 참조 데이터가 Amazon S3에 저장됨 표준 SQL 쿼리를 사용할 수 있는 솔루션이 필요함 솔루션은 추천을 수행하는 동안 미리 계산된 참조 데이터를 조회하는 방법도 제공해야 함 어떤 솔루션이 이러한 요구 사항을 충족하나요?
A. AWS Glue Python 셸 작업을 사용하여 Kinesis 데이터 스트림에서 들어오는 데이터를 처리하기 Boto3 라이브러리를 사용하여 Amazon Redshift에 데이터 쓰기
B. AWS Glue 스트리밍 및 Scale을 사용하여 Kinesis 데이터 스트림에서 들어오는 데이터를 처리하기 AWS Glue 커넥터를 사용하여 Amazon Redshift에 데이터 쓰기
C. Amazon Kinesis 데이터 분석을 사용하여 참조 데이터를 기반으로 애플리케이션 내 테이블 생성 Kinesis 데이터 스트림에서 들어오는 데이터 처리 데이터 스트림을 사용하여 Amazon Redshift에 결과 쓰기
D. 참조 데이터를 기반으로 애플리케이션 내 테이블을 생성하기 위해 Amazon Kinesis 데이터 분석을 사용하기 위해 Kinesis 데이터 스트림에서 들어오는 데이터 처리하기 Amazon Kinesis 데이터 파이어호스 전송 스트림을 사용하여 Amazon Redshift에 결과 기록하기
답변 보기
정답: B
질문 #15
한 데이터 분석가가 Amazon Redshift에 있는 중앙 집중식 판매 데이터를 사용하여 Amazon QuickSight 대시보드를 디자인하고 있습니다. 대시보드는 호주 시드니의 영업 담당자는 호주 뷰만 볼 수 있고 뉴욕의 영업 담당자는 미국(US) 데이터만 볼 수 있도록 제한되어야 합니다. 데이터 분석가가 적절한 데이터 보안을 유지하려면 어떻게 해야 하나요?
A. 호주와 미국에 대한 데이터 소스를 별도의 SPICE 용량 풀에 배치합니다
B. 호주 및 미국에 대한 Amazon Redshift VPC 보안 그룹을 설정합니다
C. 판매 테이블에 RLS(행 수준 보안)를 구현하기 위해 QuickSight Enterprise 에디션을 배포합니다
D. QuickSight Enterprise 에디션을 배포하고 호주와 미국에 대해 서로 다른 VPC 보안 그룹을 설정합니다
답변 보기
정답: BD
질문 #16
한 미디어 회사가 Amazon S3 데이터 레이크에 있는 데이터에 대해 머신 러닝과 분석을 수행하고자 합니다. 회사 내 소비자들이 보고서를 작성할 수 있도록 하기 위한 두 가지 데이터 변환 요구 사항이 있습니다: 예약된 시간에 Amazon S3에 도착하는 다양한 파일 형식의 데이터 300GB를 매일 변환해야 합니다. S3 데이터 레이크에 있는 테라바이트 규모의 아카이브 데이터의 일회성 변환. 어떤 솔루션 조합이 회사의 트래픽 요구 사항을 비용 효율적으로 충족할 수 있을까요?
A. 매일 들어오는 데이터의 경우, AWS Glue 크롤러를 사용하여 스키마를 스캔하고 식별합니다
B. 매일 수신되는 데이터의 경우 Amazon Athena를 사용하여 스키마를 스캔하고 식별합니다
C. 매일 들어오는 데이터의 경우 Amazon Redshift를 사용하여 변환을 수행합니다
D. 매일 들어오는 데이터의 경우, AWS Glue 작업과 함께 AWS Glue 워크플로우를 사용하여 변환을 수행합니다
E. 보관된 데이터의 경우 Amazon EMR을 사용하여 데이터 변환을 수행합니다
F. 보관된 데이터의 경우 Amazon SageMaker를 사용하여 데이터 변환을 수행합니다
답변 보기
정답: B
질문 #17
한 제조 회사가 전 세계 여러 시설에 많은 loT 장치를 보유하고 있습니다. 이 회사는 Amazon Kinesis 데이터 스트림을 사용하여 장치에서 데이터를 수집하고 있습니다. 이 회사의 운영팀은 많은 WnteThroughputExceeded 예외를 관찰하기 시작했습니다. 운영팀은 그 이유가 특정 샤드에 기록되는 기록 수라고 판단합니다. 데이터에는 장치 ID 캡처 날짜 측정 유형, 측정 값 및 시설 ID가 포함됩니다. 시설 ID는 파티션 k로 사용됩니다
A. 파티션 키를 시설 ID에서 무작위로 생성된 키로 변경합니다
B. 파편 수 늘리기
C. 제작자 측의 데이터 보관
D. 파티션 키를 시설 ID에서 캡처 날짜로 변경합니다
답변 보기
정답: A

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: