아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

2024 년 업데이트 된 DAS-C01 시험 문제 및 모의고사, AWS 인증 데이터 분석 | SPOTO

스포토와 함께 2024년 업데이트된 DAS-C01 시험 문제 및 모의고사로 AWS Certified Data Analytics - Specialty(DAS-C01)를 성공적으로 취득하세요. 이 자격증은 데이터 분석 역할의 전문가에게 필수적이며, 분석 솔루션을 설계, 보안 및 관리하기 위해 AWS 서비스를 활용하는 능력을 검증합니다. 시험 문제와 답안, 모의고사, 시험 덤프가 포함된 종합적인 리소스를 통해 철저한 준비를 할 수 있습니다. 샘플 문제, 시험 자료 및 답변에 액세스하여 시험 연습과 준비를 강화하세요. 시험 시뮬레이터를 활용하여 현실적인 시험 시나리오를 경험하고 온라인 시험 문제와 모의고사를 통해 준비 상태를 평가하세요. SPOTO는 AWS 공인 데이터 분석 - 스페셜티(DAS-C01) 시험에서 뛰어난 성적을 거두고 데이터 분석 분야에서 경력을 발전시키는 데 필요한 도구와 지원을 제공합니다.

다른 온라인 시험에 응시하세요

질문 #1
한 회사가 개인 식별 정보(PII)가 포함된 영업 및 마케팅 데이터를 Amazon S3에 저장합니다. 이 회사는 분석가들이 자체 Amazon EMR 클러스터를 시작하고 이 데이터로 분석 보고서를 실행할 수 있도록 허용합니다. 규정 준수 요건을 충족하기 위해 회사는 이 과정에서 데이터가 공개적으로 액세스되지 않도록 해야 합니다. 데이터 엔지니어가 Amazon S3를 보호하고 있지만 분석가가 만든 개별 EMR 클러스터가 공용 인터넷에 노출되지 않도록 해야 합니다. 어떤 솔루션이
A. EMR 보안 구성을 생성하고 생성 시 보안 구성이 EMR 클러스터와 연결되는지 확인합니다
B. EMR 클러스터의 보안 그룹을 정기적으로 확인하여 IPv4 0
C. EMR 클러스터를 생성하기 전에 계정 수준에서 Amazon EMR에 대한 공개 액세스 차단 설정을 활성화합니다
D. AWS WAF를 사용하여 EMR 클러스터에 대한 공용 인터넷 액세스를 전반적으로 차단합니다
답변 보기
정답: C
질문 #2
한 은행 회사는 현재 민감한 데이터에 Amazon Redshift를 사용하고 있습니다. 감사 결과 현재 클러스터가 암호화되지 않은 것으로 나타났습니다. 규정 준수를 위해서는 민감한 데이터가 있는 데이터베이스를 고객이 관리하는 키가 있는 하드웨어 보안 모듈(HSM)을 사용하여 암호화해야 하는데, 규정 준수를 위해 클러스터에서 어떤 수정이 필요하나요?
A. HSM으로 암호화된 Amazon Redshift 클러스터를 새로 생성하고 데이터를 새 클러스터로 마이그레이션합니다
B. 적절한 암호화 설정으로 DB 파라미터 그룹을 수정한 후 클러스터를 다시 시작합니다
C. 명령줄을 사용하여 Amazon Redshift에서 HSM 암호화를 활성화합니다
D. 콘솔에서 Amazon Redshift 클러스터를 수정하고 HSM 옵션을 사용하여 암호화를 활성화합니다
답변 보기
정답: A
질문 #3
한 회사가 사내에서 Apache Flink 애플리케이션을 호스팅합니다. 이 애플리케이션은 여러 Apache Kafka 클러스터에서 데이터를 처리합니다. 데이터는 웹 애플리케이션 모바일 앱 및 운영 데이터베이스와 같은 다양한 소스에서 비롯됩니다. 회사는 이러한 소스 중 일부를 AWS로 마이그레이션했으며 이제 Flink 애플리케이션을 마이그레이션하려고 합니다. 회사는 VPC 내의 데이터베이스에 있는 데이터가 인터넷을 통과하지 않도록 해야 합니다. 애플리케이션은 다음에서 오는 모든 데이터를 처리할 수 있어야 합니다
A. 회사 VPC 내 Amazon EC2에서 Flink 구현하기 VPC에 Amazon MSK(Amazon Managed Streaming for Apache Kafka) 클러스터를 생성하여 VPC 내의 애플리케이션 및 데이터베이스에서 오는 데이터를 수집하기 Amazon Kinesis 데이터 스트림을 사용하여 공용 인터넷에서 오는 데이터를 수집하기 AWS 클라이언트 VPN 또는 AWS Direct Connect를 사용하여 Kinesis 데이터 스트림 Amazon MSK 및 모든 온프레미스 Kafka 클러스터에서 소스를 갖도록 Flink 구성하기
B. 회사 VPC 내의 Amazon EC2에서 Flink 구현 Amazon Kinesis 데이터 스트림을 사용하여 VPC 및 공용 인터넷 내의 애플리케이션과 데이터베이스에서 오는 데이터를 수집합니다
C. 컴파일된 Flink jar 파일을 업로드하여 Amazon Kinesis 데이터 분석 애플리케이션 생성 Amazon Kinesis 데이터 스트림을 사용하여 VPC 및 공용 인터넷 내의 애플리케이션과 데이터베이스에서 오는 데이터를 수집합니다
D. 컴파일된 Flink jar 파일을 업로드하여 Amazon Kinesis 데이터 분석 애플리케이션을 생성합니다
E. AWS 클라이언트 VPN 또는 AWS 다이렉트 커넥트를 사용하는 Amazon MSK 및 모든 온프레미스 카프카 클러스터
답변 보기
정답: D
질문 #4
은행에서 Teradata 데이터 웨어하우스를 AWS 클라우드로 마이그레이션하려고 합니다. 은행은 대량의 데이터를 읽기 위한 솔루션이 필요하며 가능한 최고의 성능을 필요로 합니다. 또한 솔루션은 스토리지와 컴퓨팅의 분리를 유지해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon Athena를 사용하여 Amazon S3에서 데이터 쿼리하기
B. 고집적 컴퓨팅 노드와 함께 Amazon Redshift를 사용하여 Amazon Redshift 관리형 스토리지의 데이터를 쿼리하세요
C. RA3 노드와 함께 Amazon Redshift를 사용하여 Amazon Redshift 관리형 스토리지의 데이터를 쿼리하세요
D. Amazon EMR의 PrestoDB를 사용하여 Amazon S3에서 데이터 쿼리하기
답변 보기
정답: B
질문 #5
한 전력 유틸리티 회사는 전력 소비에 대한 실시간 업데이트를 얻기 위해 수천 개의 스마트 계량기를 배포하고 있습니다. 이 회사는 Amazon Kinesis 데이터 스트림을 사용하여 스마트 계량기에서 데이터 스트림을 수집하고 있습니다. 소비자 애플리케이션은 KCL(Kinesis 클라이언트 라이브러리)을 사용하여 스트림 데이터를 검색합니다. 이 회사에는 소비자 애플리케이션이 하나만 있습니다. 이 회사는 레코드가 스트림에 기록되는 순간부터 소비자 애플리케이션에서 레코드를 읽을 때까지 평균 1초의 지연 시간을 관찰합니다.
A. 키네시스 데이터 스트림에서 향상된 팬아웃을 사용합니다
B. 키네시스 데이터 스트림의 샤드 수를 늘립니다
C. KCL 기본 설정을 재정의하여 전파 지연을 줄입니다
D. 아마존 키네시스 데이터 파이어호스를 사용하여 고객을 개발합니다
답변 보기
정답: C
질문 #6
한 소프트웨어 회사가 AWS에서 애플리케이션을 호스팅하며 매주 새로운 기능이 출시됩니다. 애플리케이션 테스트 프로세스의 일환으로 각 Amazon EC2 인스턴스의 로그를 분석하여 각 배포 후 애플리케이션이 예상대로 작동하는지 확인하는 솔루션을 개발해야 합니다. 수집 및 분석 솔루션은 지연을 최소화하면서 새로운 정보를 표시할 수 있는 고가용성 솔루션이어야 합니다. 로그를 수집하고 분석하는 데 어떤 방법을 사용해야 하나요?
A. Amazon EC2에서 세부 모니터링을 활성화하고, Amazon CloudWatch 에이전트를 사용하여 Amazon S3에 로그를 저장하고, Amazon Athena를 사용하여 빠른 대화형 로그 분석을 수행할 수 있습니다
B. Amazon EC2의 Amazon Kinesis Producer Library(KPL) 에이전트를 사용하여 데이터를 수집하고 Kinesis 데이터 스트림으로 전송하여 Amazon Elasticsearch Service로 데이터를 푸시하고 Amazon QuickSight를 사용하여 시각화합니다
C. Amazon EC2의 Amazon Kinesis Producer Library(KPL) 에이전트를 사용하여 데이터를 수집하고 Kinesis Data Firehose로 전송하여 Amazon Elasticsearch Service 및 Kibana로 데이터를 푸시합니다
D. Amazon CloudWatch 구독을 사용해 로그의 실시간 피드에 액세스하고 로그를 Amazon Kinesis 데이터 스트림으로 전송하여 Amazon Elasticsearch Service 및 Kibana로 데이터를 푸시하도록 합니다
답변 보기
정답: C
질문 #7
한 회사에서 Amazon S3의 데이터를 검증하고 변환하여 매일 한 번씩 일괄적으로 Amazon RDS for MySQL에 로드하기 위해 여러 AWS Glue 작업을 개발했습니다. ETL 작업은 동적 프레임을 사용해 S3 데이터를 읽습니다. 현재 ETL 개발자들은 AWS Glue 작업이 매 실행마다 모든 S3 입력 데이터를 처리하기 때문에 매 실행마다 증분 데이터만 처리하는 데 어려움을 겪고 있습니다. 개발자들이 코딩 작업을 최소화하면서 이 문제를 해결할 수 있는 접근 방식은 무엇일까요?
A. ETL 작업이 데이터 프레임을 사용하여 Amazon S3에서 데이터를 읽도록 합니다
B. AWS Glue 작업에서 작업 북마크를 사용 설정합니다
C. 처리된 S3 개체를 추적하기 위해 ETL 작업에 사용자 지정 로직을 만듭니다
D. ETL 작업이 각 실행 후 처리된 개체 또는 데이터를 Amazon S3에서 삭제하도록 합니다
답변 보기
정답: D
질문 #8
한 병원은 웨어러블 의료 센서 디바이스를 사용하여 환자로부터 데이터를 수집합니다. 병원은 대규모로 데이터를 안전하게 수집할 수 있는 실시간에 가까운 솔루션을 설계하고 있습니다. 또한 솔루션은 스트리밍 데이터에서 환자의 보호 대상 건강 정보(PHI)를 제거하고 데이터를 내구성 있는 스토리지에 저장할 수 있어야 합니다. 운영 오버헤드가 가장 적으면서 이러한 요구 사항을 충족하는 솔루션은 무엇일까요?
A. Amazon Kinesis 데이터 스트림을 사용하여 데이터를 수집하고, KCL(Kinesis 클라이언트 라이브러리)을 사용하여 AWS Lambda 함수를 호출하여 모든 PHI를 제거합니다
B. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
C. Amazon Kinesis 데이터 스트림을 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
D. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집하여 Amazon S3에 데이터를 씁니다
답변 보기
정답: C
질문 #9
한 회사가 매일 수백만 개의 메시지를 생성하는 서비스를 출시하고 스트리밍 서비스로 Amazon Kinesis 데이터 스트림을 사용하는데, 이 회사는 Kinesis SDK를 사용하여 Kinesis 데이터 스트림에 데이터를 씁니다. 출시 몇 달 후, 데이터 분석가는 쓰기 성능이 현저히 저하되는 것을 발견했습니다. 데이터 분석가는 메트릭을 조사한 결과 Kinesis가 쓰기 요청을 스로틀링하고 있다고 판단했습니다. 데이터 분석가는 아키텍처를 크게 변경하지 않고 이 문제를 해결하고자 합니다.어떤 조치를 취해야 하나요?
A. 스로틀링을 줄이기 위해 키네시스 데이터 스트림 보존 기간을 늘립니다
B. 키네시스 API 기반 데이터 수집 메커니즘을 키네시스 에이전트로 교체합니다
C. UpdateShardCount API를 사용하여 스트림의 샤드 수를 늘립니다
D. 샤드 전체에 레코드가 균일하게 분포되는 방식으로 파티션 키를 선택합니다
E. 성능 향상을 위해 재시도 로직을 포함하도록 애플리케이션 코드를 사용자 지정합니다
답변 보기
정답: AC
질문 #10
회사에서는 로그 데이터가 포함된 객체를 JSON 형식으로 저장해야 합니다. 이 객체는 AWS에서 실행되는 8개의 애플리케이션에서 생성됩니다. 이 중 6개 애플리케이션은 초당 총 500KB의 데이터를 생성하고, 2개 애플리케이션은 초당 최대 2MB의 데이터를 생성합니다.데이터 엔지니어는 사용량 데이터를 캡처하여 Amazon S3 버킷에 저장하는 확장 가능한 솔루션을 구현하고자 합니다. 사용량 데이터 개체를 다시 포맷하고 .csv 형식으로 변환한 다음 압축한 다음 Amazon S3에 저장해야 합니다
A. 각 애플리케이션에 대해 아마존 키네시스 데이터 파이어호스 전송 스트림을 구성합니다
B. 애플리케이션당 하나의 샤드로 Amazon Kinesis 데이터 스트림을 구성합니다
C. 각 애플리케이션에 대해 Amazon Kinesis 데이터 스트림을 구성합니다
D. 사용량 데이터 개체를 Amazon DynamoDB 테이블에 저장합니다
답변 보기
정답: B
질문 #11
한 회사에는 Amazon S3 버킷에 .csv 파일을 업로드하는 사업부가 있습니다. 회사의 데이터 플랫폼 팀은 검색을 수행하고 테이블과 스키마를 생성하기 위해 AWS Glue 크롤러를 설정했습니다. AWS Glue 작업은 생성된 테이블에서 처리된 데이터를 Amazon Redshift 데이터베이스에 씁니다. AWS Glue 작업은 열 매핑을 처리하고 AmazonRedshift 테이블을 적절하게 생성합니다. 하루 중 어떤 이유로든 AWS Glue 작업이 다시 실행되면 중복 레코드가 Amazon Redshift 테이블에 도입됩니다
A. AWS Glue 작업을 수정하여 행을 스테이징 테이블에 복사합니다
B. 이전에 삽입한 데이터를 AWS Glue 작업에서 MySQL 데이터베이스에 로드합니다
C. Apache Spark의 DataFrame dropDuplicates() API를 사용하여 중복을 제거한 다음 Amazon Redshift에 데이터를 씁니다
D. AWS Glue ResolveChoice 기본 제공 트랜스폼을 사용하여 열의 가장 최근 값을 선택합니다
답변 보기
정답: B
질문 #12
한 회사에서 자동 머신 러닝(ML) 랜덤 컷 포레스트(RCF) 알고리즘을 사용하여 계절성 및 추세 감지, 외곽값 제외, 결측값 대입 등 복잡한 실제 시나리오를 시각화하고자 합니다.이 프로젝트를 진행하는 팀은 비전문가로, 관리 오버헤드가 가장 적게 드는 즉시 사용 가능한 솔루션을 찾고 있습니다.이러한 요구 사항을 충족하는 솔루션은 무엇일까요?
A. AWS Glue ML 트랜스폼을 사용하여 예측을 생성한 다음 Amazon QuickSight를 사용하여 데이터를 시각화합니다
B. Amazon QuickSight를 사용하여 데이터를 시각화한 다음 ML 기반 예측을 사용하여 주요 비즈니스 메트릭을 예측합니다
C. AWS 마켓플레이스에서 사전 빌드된 ML AMI를 사용하여 예측을 생성한 다음 Amazon QuickSight를 사용하여 데이터를 시각화합니다
D. 계산된 필드를 사용하여 새 예측을 만든 다음 Amazon QuickSight를 사용하여 데이터를 시각화합니다
답변 보기
정답: A
질문 #13
한 회사에는 애플리케이션 로드 밸런서(ALB) 뒤에 여러 개의 Amazon EC2 인스턴스가 있습니다. 이 회사는 IT 인프라 팀이 회사의 ALB로 들어오는 IP 주소를 분석하기를 원합니다. ALB는 Amazon S3에 액세스 로그를 저장하도록 구성되어 있습니다. 액세스 로그는 매일 약 1TB의 데이터를 생성하며 데이터 액세스는 드물게 발생합니다. 이 회사는 확장 가능하고 비용 효율적이며 유지 관리 요구 사항이 최소화되는 솔루션이 필요합니다. 어떤 솔루션이 이러한 요구 사항을 충족하나요?
A. 데이터를 Amazon Redshift로 복사하고 데이터를 쿼리합니다
B. Amazon EMR 및 Apache Hive를 사용하여 S3 데이터 쿼리하기
C. Amazon Athena를 사용하여 S3 데이터 쿼리하기
D. Amazon Redshift Spectrum을 사용하여 S3 데이터 쿼리하기
답변 보기
정답: D
질문 #14
한 회사에 암호화된 Amazon Redshift 클러스터가 있습니다. 이 회사는 최근에 Amazon Redshift 감사 로그를 사용하도록 설정했으며, 미사용 시 감사 로그도 암호화해야 합니다. 로그는 1년 동안 보관됩니다. 감사자는 한 달에 한 번 로그를 쿼리합니다. 이러한 요구 사항을 충족하는 가장 비용 효율적인 방법은 무엇인가요?
A. AWS 키 관리 서비스(AWS KMS)를 사용하여 로그가 저장되는 Amazon S3 버킷을 암호화합니다
B. 필요에 따라 데이터를 쿼리합니다
C. Amazon Redshift 클러스터에서 암호화를 비활성화하고, 감사 로깅을 구성하고, Amazon Redshift 클러스터를 암호화합니다
D. 필요에 따라 Amazon Redshift Spectrum을 사용하여 데이터를 쿼리합니다
E. AES-256 암호화를 사용하여 로그가 저장되는 Amazon S3 버킷에서 기본 암호화를 사용하도록 설정합니다
F. 매일 기준으로 Amazon S3에서 Amazon Redshift 클러스터로 데이터를 복사합니다
답변 보기
정답: B
질문 #15
한 금융 서비스 회사는 거래소의 일일 주식 거래 데이터를 데이터 저장소에 집계해야 합니다. 이 회사는 데이터를 데이터 저장소로 직접 스트리밍해야 하지만 때때로 SQL을 사용하여 데이터를 수정할 수 있도록 허용해야 합니다. 솔루션은 최소한의 지연 시간으로 실행되는 복잡한 분석 쿼리를 통합해야 합니다. 솔루션은 주가 변동에 가장 크게 기여한 요인을 확인할 수 있는 비즈니스 인텔리전스 대시보드를 제공해야 합니다. 회사의 요구 사항을 충족하는 솔루션은 무엇인가요?
A. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon S3로 스트리밍합니다
B. 아마존 키네시스 데이터 스트림을 사용하여 아마존 레드시프에 데이터 스트리밍하기
C. Amazon Redshift를 Amazon QuickSight의 데이터 소스로 사용하여 비즈니스 인텔리전스 대시보드를 만듭니다
D. 아마존 키네시스 데이터 파이어호스를 사용하여 아마존 레드시프에 데이터 스트리밍하기
E. Amazon Redshift를 Amazon QuickSight의 데이터 소스로 사용하여 비즈니스 인텔리전스 대시보드를 만드세요
F. Amazon Kinesis 데이터 스트림을 사용하여 Amazon S3로 데이터를 스트리밍합니다
답변 보기
정답: CD
질문 #16
한 회사에서 데이터 레이크를 구축하고 있으며 시계열 데이터가 있는 관계형 데이터베이스에서 데이터를 수집해야 합니다. 이 회사는 이를 위해 관리형 서비스를 사용하려고 합니다. 이 프로세스는 매일 예약되어야 하며 소스에서 Amazon S3로 증분 데이터만 가져와야 합니다. 이러한 요구 사항을 충족하는 가장 비용 효율적인 접근 방식은 무엇인가요?
A. AWS Glue를 사용하여 JDBC 드라이버를 사용하여 데이터 소스에 연결합니다
B. AWS Glue를 사용하여 JDBC 드라이버를 사용하여 데이터 소스에 연결합니다
C. AWS Glue를 사용하여 JDBC 드라이버를 사용해 데이터 소스에 연결하고 전체 데이터 세트를 수집합니다
D. AWS Glue를 사용하여 JDBC 드라이버를 사용하여 데이터 소스에 연결하고 전체 데이터를 수집합니다
답변 보기
정답: B
질문 #17
한 대형 대학은 재학생의 다양성을 높이겠다는 전략적 목표를 채택했습니다. 데이터 분석 팀은 이해 관계자가 과거 추세를 볼 수 있도록 데이터 시각화가 포함된 대시보드를 만들고 있습니다. 모든 액세스는 Microsoft Active Directory를 사용하여 인증되어야 합니다. 전송 중이거나 미사용 중인 모든 데이터는 암호화되어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇인가요?
A. SAML 2
B. SAML 2
C. AD 커넥터를 사용하여 Active Directory를 사용하여 인증하는 Amazon QuckSight Standard 에디션: AWS KMS로 가져온 고객 제공 키를 사용하도록 Amazon QuickSight를 구성합니다
D. AD 커넥터를 사용하여 Active Directory를 사용하여 인증하는 Amazon QuickSight Enterprise 에디션: AWS KMS로 가져온 고객 제공 키를 사용하도록 Amazon QuickSight를 구성합니다
답변 보기
정답: A
질문 #18
한 회사에서 Amazon Redshift를 데이터 웨어하우스로 사용하고 있습니다. 새 테이블에는 민감한 데이터가 포함된 일부 열과 중요하지 않은 데이터가 포함된 일부 열이 포함되어 있습니다. 이 테이블의 데이터는 결국 매일 여러 번 실행되는 여러 기존 쿼리에서 참조됩니다. 데이터 분석 전문가는 회사의 감사 팀 구성원만 민감한 데이터가 포함된 열을 읽을 수 있도록 해야 합니다. 다른 모든 사용자는 중요하지 않은 데이터가 포함된 열에 대해 읽기 전용 액세스 권한을 가져야 합니다
A. 감사 팀에 테이블에서 읽을 수 있는 권한을 부여합니다
B. 모든 사용자에게 중요하지 않은 데이터가 포함된 열에 대한 읽기 전용 권한을 부여합니다
C. 모든 사용자에게 중요하지 않은 데이터가 포함된 열에 대해 읽기 전용 권한을 부여합니다
D. 감사 팀에 테이블에서 읽을 수 있는 권한을 부여합니다
답변 보기
정답: D
질문 #19
한 시장 데이터 회사가 외부 데이터 소스를 집계하여 여러 국가의 제품 소비에 대한 자세한 보기를 만듭니다. 이 회사는 구독을 통해 이 데이터를 외부 파트너에게 판매하고자 합니다. 이 목표를 달성하려면 AWS 사용자이기도 한 외부 파트너가 데이터를 안전하게 사용할 수 있도록 해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 어떻게 해야 할까요?
A. Amazon S3에 데이터를 저장합니다
B. Amazon S3에 데이터를 저장합니다
C. 저장용 AWS 데이터 교환에 데이터 업로드
D. 보안을 위해 미리 지정된 URL을 사용하여 데이터를 공유합니다
E. 저장용 AWS 데이터 교환에 데이터 업로드
F. AWS 데이터 교환 공유 마법사를 사용하여 데이터를 공유합니다
답변 보기
정답: A
질문 #20
한 데이터 과학자 팀이 회사의 새로운 투자 전략을 위해 시장 동향 데이터를 분석할 계획입니다. 트렌드 데이터는 5개의 서로 다른 데이터 소스에서 대량으로 수집됩니다. 이 팀은 사용 사례를 지원하기 위해 Amazon Kinesis를 활용하고자 합니다. 이 팀은 SQL과 유사한 쿼리를 사용하여 추세를 분석하고 추세의 특정 중요한 패턴을 기반으로 알림을 보내려고 합니다. 또한 데이터 과학자들은 보관 및 기록 재처리를 위해 데이터를 Amazon S3에 저장하고 AWS 관리형
A. 하나의 키네시스 데이터 스트리트에 데이터를 게시합니다
B. 트렌드 분석을 위해 KCL(Kinesis 클라이언트 라이브러리)을 사용하여 사용자 지정 애플리케이션을 배포하고 Amazon SN을 사용하여 알림을 전송합니다
C. 키네시스 데이터 스트림에서 키네시스 데이터 파이어호스를 구성하여 데이터를 S3 버킷에 지속시킵니다
D. 하나의 키네시스 데이터 스트리트에 데이터 게시
E. 트렌드 분석을 위해 스트림에 Kinesis 데이터 분석을 배포하고, Amazon SN을 사용하여 알림을 전송하는 출력으로 AWS Lambda 함수를 구성합니다
F. 데이터를 S3 버킷에 지속하도록 Kinesis 데이터 스트림에서 Kinesis 데이터 Firehose를 구성합니다
답변 보기
정답: C
질문 #21
한 제조 회사는 1년 동안 공장 현장의 장치에서 IoT 센서 데이터를 수집해 왔으며, 매일 분석을 위해 Amazon Redshift에 데이터를 저장하고 있습니다. 데이터 분석가는 하루 약 2TB의 예상 수집 속도로 볼 때 4개월 이내에 클러스터의 크기가 부족해질 것이라고 판단했습니다. 장기적인 해결책이 필요합니다. 데이터 분석가는 대부분의 쿼리가 최근 13개월의 데이터만 참조하지만, 모든 데이터를 쿼리해야 하는 분기별 보고서도 있다고 지적했습니다
A. AWS Glue에서 일일 작업을 생성하여 13개월이 지난 레코드를 Amazon S3로 언로드하고 Amazon Redshift에서 해당 레코드를 삭제합니다
B. Amazon Redshift 클러스터의 스냅샷을 찍습니다
C. 13개월이 지난 레코드를 Amazon S3로 지원되는 Amazon Redshift Spectrum의 분기별 파티션 데이터로 이동하려면 CREATE TABLE AS SELECT(CTAS) 문을 실행합니다
D. S3 지능형 계층화를 사용하여 Amazon Redshift의 모든 테이블을 Amazon S3 버킷으로 언로드합니다
답변 보기
정답: B
질문 #22
한 데이터 분석 전문가가 Amazon S3 버킷에 업로드된 압축 파일을 수집하기 위해 AWS Glue를 사용해 자동화된 ETL 수집 파이프라인을 구축하고 있습니다. 수집 파이프라인은 증분 데이터 처리를 지원해야 합니다. 이 요구 사항을 충족하기 위해 데이터 분석 전문가가 사용해야 하는 AWS Glue 기능은 무엇인가요?
A. 워크플로
B. 트리거
C. 작업 북마크
D. 분류기
답변 보기
정답: D

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: