아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

2024 년 업데이트 된 연습 테스트로 DAS-C01 시험에 합격, AWS 인증 데이터 분석 | SPOTO

AWS 공인 데이터 분석 - 스페셜티(DAS-C01) 자격증은 AWS 플랫폼에서 데이터 분석 솔루션을 설계, 구축, 보안 및 유지 관리하는 개인의 전문성을 검증합니다. 2024년 시험 주기의 성공을 위해서는 최신 시험 목표와 업계 동향을 최신 상태로 유지하는 것이 중요합니다. SPOTO는 DAS-C01 시험의 진화하는 요구 사항에 맞춰 정기적으로 업데이트되는 포괄적인 범위의 연습 문제, 시험 덤프 및 샘플 문제를 제공합니다. 시험 문제와 답, 온라인 시험 문제, 모의고사를 포함한 우리의 시험 자료는 현실적이고 몰입감 있는 시험 경험을 제공합니다. 응시자는 모의고사와 시험 시뮬레이터를 활용하여 부족한 지식을 파악하고, 자신의 강점을 강화하고, 효과적인 시험 전략을 개발할 수 있습니다. 시험 준비 리소스는 실제 시험 환경을 시뮬레이션하도록 설계되어 응시자가 직면할 수 있는 시험 형식, 문제 유형 및 시간 관리 문제에 잘 대비할 수 있도록 합니다.
다른 온라인 시험에 응시하세요

질문 #1
데이터 분석가가 AWS Glue를 사용해 200GB 데이터 세트를 구성, 정리, 유효성 검사 및 포맷하고 있습니다. 데이터 분석가는 표준 작업자 유형으로 작업을 실행하도록 트리거했습니다. 3시간이 지난 후에도 AWS Glue 작업 상태는 여전히 실행 중입니다. 작업 실행 로그에는 오류 코드가 표시되지 않습니다. 데이터 분석가는 오버프로비저닝 없이 작업 실행 시간을 개선하고자 합니다. 데이터 분석가는 어떤 조치를 취해야 하나요?
A. AWS Glue에서 작업 북마크를 활성화하여 데이터 처리 장치(DPU) 수를 추정합니다
B. AWS Glue에서 작업 메트릭을 활성화하여 데이터 처리 단위(DPU) 수를 추정합니다
C. AWS Glue에서 작업 메트릭을 활성화하여 데이터 처리 단위(DPU) 수를 추정합니다
D. AWS Glue에서 작업 북마크를 활성화하여 데이터 처리 장치(DPU) 수를 추정합니다
답변 보기
정답: B
질문 #2
한 전자상거래 회사가 비즈니스 인텔리전스 환경을 온프레미스에서 AWS 클라우드로 마이그레이션하고 있습니다. 이 회사는 퍼블릭 서브넷에서 Amazon Redshift와 Amazon QuickSight를 사용할 것입니다. 테이블은 이미 Amazon Redshift에 로드되어 있으며 SQL 도구로 액세스할 수 있습니다. 회사에서 처음으로 QuickSight를 시작합니다. 데이터 소스를 만드는 동안 데이터 분석 전문가가 모든 정보를 입력하고 연결의 유효성을 검사하려고 시도합니다. 다음 메시지와 함께 오류가 발생합니다: "c
A. Amazon Redshift 테이블에 SELECT 권한을 부여합니다
B. QuickSight IP 주소 범위를 Amazon Redshift 보안 그룹에 추가합니다
C. Amazon Redshift에 액세스하기 위해 QuickSight에 대한 IAM 역할을 만듭니다
D. 데이터 집합을 만들 때 QuickSight 관리자 사용자를 사용합니다
답변 보기
정답: C
질문 #3
한 금융 회사는 Amazon S3를 데이터 레이크로 사용하고 있으며 멀티노드 Amazon Redshift 클러스터를 사용하여 데이터 웨어하우스를 설정했습니다. 데이터 레이크의 데이터 파일은 각 데이터 파일의 데이터 소스에 따라 폴더로 구성되어 있습니다. 모든 데이터 파일은 각 데이터 파일 위치에 대해 별도의 COPY 명령을 사용하여 Amazon Redshift 클러스터의 하나의 테이블에 로드됩니다. 이 접근 방식을 사용하면 모든 데이터 파일을 Amazon Redshift로 로드하는 데 시간이 오래 걸립니다. 사용자는 비용이 거의 들지 않으면서도 더 빠른 솔루션을 원합니다
A. Amazon EMR을 사용하여 모든 데이터 파일을 하나의 폴더에 복사하고 COPY 명령을 실행하여 Amazon Redshift에 데이터를 로드합니다
B. 모든 데이터 파일을 Amazon Aurora에 병렬로 로드하고 AWS Glue 작업을 실행하여 Amazon Redshift에 데이터를 로드합니다
C. AWS Glue 작업을 사용하여 모든 데이터 파일을 하나의 폴더에 복사하고 COPY 명령을 실행하여 Amazon Redshift에 데이터를 로드합니다
D. 데이터 파일 위치가 포함된 매니페스트 파일을 생성하고 COPY 명령을 실행하여 Amazon Redshift에 데이터를 로드합니다
답변 보기
정답: D
질문 #4
한 대형 통신 회사가 AWS에서 실행되는 여러 데이터 소스에 대한 데이터 카탈로그와 메타데이터 관리를 설정할 계획입니다. 카탈로그는 데이터 저장소에 저장된 모든 개체의 메타데이터를 유지하는 데 사용될 것입니다. 데이터 저장소는 Amazon RDS 및 Amazon Redshift와 같은 구조화된 소스와 Amazon S3에 저장된 JSON 및 XML 파일과 같은 반구조화된 소스로 구성됩니다. 카탈로그는 정기적으로 업데이트되어야 하며, 개체 메타데이터의 변경 사항을 감지할 수 있어야 하고, 임대차 계약이 필요합니다
A. 아마존 오로라를 데이터 카탈로그로 사용
B. 여러 소스에서 테마데이터 정보를 연결 및 수집하고 Auror에서 데이터 카탈로그를 업데이트하는 AWS Lambda 함수를 만듭니다
C. 람다 기능을 주기적으로 예약합니다
D. 중앙 메타데이터 리포지토리로 AWS Glue 데이터 카탈로그 사용
E. AWS Glue 크롤러를 사용하여 여러 데이터 저장소에 연결하고 메타데이터 변경으로 데이터 카탈로그 업데이트하기
F. 크롤러를 주기적으로 예약하여 메타데이터 카탈로그를 업데이트합니다
답변 보기
정답: D
질문 #5
한 대형 차량 공유 회사는 전 세계 수천 명의 운전자가 매일 수백만 명의 고유 고객에게 서비스를 제공하고 있습니다. 이 회사는 기존 데이터 마트를 Amazon Redshift로 마이그레이션하기로 결정했습니다. 기존 스키마에는 다음 테이블이 포함되어 있습니다. 완료된 라이드에 대한 정보를 위한 트립 팩트 테이블. 운전자 프로필을 위한 운전자 차원 테이블. 고객 프로필 정보가 포함된 고객 팩트 테이블. 회사는 지역별 수익성을 조사하기 위해 날짜 및 목적지별로 운행 세부 정보를 분석합니다. 운전자 데이터
A. 여행 테이블에 DIST스타일 키(목적지)를 사용하고 데이터별로 정렬합니다
B. 드라이버 및 고객 테이블에 DISTSTYLE ALL을 사용합니다
C. 여행 테이블에 DISTSTYLE EVEN을 사용하고 데이터별로 정렬합니다
D. 드라이버 테이블에는 DISTSTYLE ALL을 사용하고 고객 테이블에는 DISTSTYLE EVEN을 사용합니다
E. 여행 테이블에 DIST스타일 키(목적지)를 사용하고 데이터별로 정렬합니다
F. 드라이버 테이블에 DISTSTYLE ALL을 사용합니다
답변 보기
정답: B
질문 #6
데이터 분석가가 애플리케이션에서 생성된 여러 데이터 세트에 걸쳐 데이터 시각화를 위해 Amazon QuickSight를 사용하고 있습니다. 각 애플리케이션은 별도의 Amazon S3 버킷에 파일을 저장합니다. AWS Glue 데이터 카탈로그는 Amazon S3의 모든 애플리케이션 데이터에 걸쳐 중앙 카탈로그로 사용됩니다. 새 애플리케이션은 별도의 S3 버킷에 데이터를 저장합니다. 새 애플리케이션 데이터 소스를 포함하도록 카탈로그를 업데이트한 후, 데이터 분석가는 Amazon Athena 테이블에서 새 Amazon QuickSight 데이터 소스를 생성했지만, 임포
A. Amazon QuickSight 콘솔 내에서 AWS Glue 데이터 카탈로그에 대한 권한을 편집합니다
B. Amazon QuickSight 콘솔 내에서 새 S3 버킷에 대한 권한을 편집합니다
C. AWS Glue 콘솔 내에서 AWS Glue 데이터 카탈로그에 대한 권한을 편집합니다
D. S3 콘솔 내에서 새 S3 버킷에 대한 권한을 편집합니다
답변 보기
정답: B
질문 #7
한 회사에서 애플리케이션 로그를 거의 실시간으로 보강하고 보강된 데이터 세트를 추가 분석에 사용하고자 합니다. 이 애플리케이션은 여러 가용 영역에 걸쳐 Amazon EC2 인스턴스에서 실행되고 있으며 Amazon CloudWatch Logs를 사용해 로그를 저장하고 있습니다. 보강 소스는 Amazon DynamoDB 테이블에 저장됩니다. 이벤트 수집 및 보강에 대한 요구 사항을 충족하는 솔루션은 무엇인가요?
A. CloudWatch Logs 구독을 사용하여 Amazon Kinesis 데이터 파이어호스로 데이터를 전송합니다
B. AWS Lambda를 사용하여 Kinesis Data Firehose 전송 스트림의 데이터를 변환하고 DynamoDB 탭의 데이터로 보강합니다
C. Amazon S3를 키네시스 데이터 파이어호스 전송 대상으로 구성합니다
D. AWS CL을 사용하여 시간 단위로 원시 로그를 Amazon S3로 내보냅니다
E. AWS Glue 크롤러를 사용하여 로그 카탈로그화하기
F. DynamoDB 테이블에 대한 AWS Glue 연결을 설정하고 데이터를 보강하기 위해 AWS Glue ETL 작업을 설정합니다
답변 보기
정답: A
질문 #8
한 회사에서 Amazon Redshift를 데이터 웨어하우스로 사용하고 있습니다. 새 테이블에는 민감한 데이터가 포함된 열이 있습니다. 이 테이블의 데이터는 결국 하루에 여러 번 실행되는 여러 기존 쿼리에서 참조됩니다. 데이터 분석가는 새 테이블에 1,000억 행의 데이터를 로드해야 합니다. 그렇게 하기 전에 데이터 분석가는 감사 그룹의 구성원만 민감한 데이터가 포함된 열을 읽을 수 있는지 확인해야 합니다. 어떻게 하면 데이터 분석가가 최소한의 유지 관리 오버헤드로 이러한 요구 사항을 충족할 수 있을까요?
A. 모든 데이터를 새 테이블에 로드하고 감사 그룹에 탭에서 읽을 수 있는 권한을 부여합니다
B. 민감한 데이터가 포함된 열을 제외한 모든 데이터를 두 번째 탭에 로드합니다
C. 적절한 사용자에게 두 번째 테이블에 대한 읽기 전용 권한을 부여합니다
D. 모든 데이터를 새 테이블에 로드하고 감사 그룹에 탭에서 읽을 수 있는 권한을 부여합니다
E. GRANT SQL 명령을 사용하여 적절한 사용자에게 열의 하위 집합에 대한 읽기 전용 액세스를 허용합니다
F. 모든 데이터를 새 테이블에 로드하고 모든 사용자에게 중요하지 않은 열에 대한 읽기 전용 권한을 부여합니다
답변 보기
정답: C

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: