아무것도 놓치고 싶지 않으신가요?

인증 시험 합격 팁

최신 시험 소식 및 할인 정보

전문가가 선별하고 최신 정보를 제공합니다.

예, 뉴스레터를 보내주세요

최신 프로페셔널 클라우드 아키텍트 연습 자료 및 시험 문제 2024, Google 프로페셔널 클라우드 아키텍트 | SPOTO

최신 2024년 모의고사 및 인증 문제로 프로페셔널 클라우드 아키텍트 자격증 시험을 준비하세요. 종합적인 리소스에는 실제 시험 환경을 시뮬레이션하도록 설계된 다양한 연습 문제와 모의 시험이 포함되어 있습니다. 시험 덤프와 샘플 문제에 액세스하여 주요 개념과 시나리오에 대한 이해를 강화하세요. 자세한 설명과 정답이 제공되므로 시험에 합격하는 데 필요한 모든 도구를 갖추게 됩니다. 온라인 시험 문제와 시험 시뮬레이터는 현실적인 연습을 제공하여 자신감을 키우고 성적을 향상시킬 수 있도록 도와줍니다. 시험 준비에 필요한 SPOTO를 믿고 쉽게 공인 프로페셔널 클라우드 아키텍트가 되는 데 성공하세요.
다른 온라인 시험에 응시하세요

질문 #1
뉴스 피드 웹 서비스에는 Google 앱 엔진에서 다음 코드가 실행되고 있습니다. 부하가 최고조에 달할 때 사용자가 이미 본 뉴스 기사를 볼 수 있다고 보고합니다. 이 문제의 가장 가능성이 높은 원인은 무엇인가요?
A. 세션 변수는 단일 인스턴스에만 로컬입니다
B. 클라우드 데이터스토어에서 세션 변수를 덮어쓰는 중입니다
C. 캐싱을 방지하기 위해 API의 URL을 수정해야 합니다
D. HTTP 만료 헤더를 -1로 설정하여 캐싱을 중지해야 합니다
답변 보기
정답: B
질문 #2
데이터베이스 관리팀에서 Google Compute Engine에서 실행되는 새 데이터베이스 서버의 성능을 개선하는 데 도움을 요청했습니다. 이 데이터베이스는 성능 통계를 가져오고 정규화하기 위한 것으로, Debian Linux에서 실행되는 MySQL로 구축되었습니다. 80GB의 SSD 영구 디스크가 있는 n1-standard-8 가상 머신이 있습니다. 이 시스템에서 더 나은 성능을 얻으려면 무엇을 변경해야 할까요?
A. 가상 머신의 메모리를 64GB로 늘립니다
B. PostgreSQL을 실행하는 새 가상 머신 만들기
C. SSD 영구 디스크 크기를 500GB로 동적으로 조정하기
D. 성능 메트릭 웨어하우스를 BigQuery로 마이그레이션하기
E. 데이터베이스에 일괄 삽입을 사용하도록 모든 배치 작업을 수정합니다
답변 보기
정답: B
질문 #3
운영 관리자가 J2EE 애플리케이션을 클라우드로 마이그레이션할 때 고려해야 할 권장 사례 목록을 요청합니다. 어떤 세 가지 사례를 추천하시겠습니까? 3개의 답을 선택하세요.
A. Google 앱 엔진에서 실행되도록 애플리케이션 코드를 포팅합니다
B. 클라우드 데이터 흐름을 애플리케이션에 통합하여 실시간 메트릭 캡처
C. 스택드라이버 디버거와 같은 모니터링 도구로 애플리케이션을 계측합니다
D. 클라우드 인프라를 안정적으로 프로비저닝하기 위한 자동화 프레임워크 선택
E. 스테이징 환경에서 자동화된 테스트 기능을 갖춘 지속적 통합 도구 배포
F. MySQL에서 Google Cloud Datastore 또는 Bigtable과 같은 관리형 NoSQL 데이터베이스로 마이그레이션하세요
답변 보기
정답: ADE
질문 #4
팀의 개발자 중 한 명이 아래 도커파일을 사용하여 Google 컨테이너 엔진에 애플리케이션을 배포했습니다. 그런데 애플리케이션 배포가 너무 오래 걸린다고 보고합니다. 앱의 기능에 부정적인 영향을 미치지 않고 배포 시간을 단축하기 위해 이 Docker파일을 최적화하려고 합니다. 다음 중 어떤 두 가지 조치를 취해야 하나요? 답 2개를 선택하세요.
A. Pip 실행 후 파이썬 제거
B. 요구 사항
C. 알파인 리눅스와 같이 슬림화된 기본 이미지 사용
D. Google 컨테이너 엔진 노드 풀에 더 큰 머신 유형 사용
E. 패키지 종속성(파이썬 및 pip)을 설치한 후 소스를 복사합니다
답변 보기
정답: D
질문 #5
클라우드로 마이그레이션하려는 Dress4Win의 계획의 일환으로, 트래픽 급증에 대응할 수 있도록 관리형 로깅 및 모니터링 시스템을 구축하고자 합니다. 이를 보장하고자 합니다: * 하루 중 사용량 증가와 감소를 처리하기 위해 인프라를 확장 및 축소해야 할 때 알림을 받을 수 있음 * 애플리케이션에서 오류를 보고하면 관리자에게 자동으로 알림을 받을 수 있습니다. * 애플리케이션의 한 부분을 디버깅하기 위해 집계된 로그를 필터링할 수 있습니다
A. 로깅, 알림, 인사이트, 디버그
B. 모니터링, 추적, 디버그, 로깅
C. 모니터링, 로깅, 경고, 오류 보고
D. 모니터링, 로깅, 디버그, 오류 보고서
답변 보기
정답: B
질문 #6
고객이 기존 기업 애플리케이션을 온프레미스 데이터 센터에서 Google Cloud Platform으로 이전하려는 경우. 비즈니스 소유자는 사용자 중단을 최소화해야 합니다. 비밀번호 저장에 대한 보안팀의 엄격한 요구 사항이 있습니다. 어떤 인증 전략을 사용해야 하나요?
A. G Suite 비밀번호 동기화를 사용하여 Google에 비밀번호를 복제합니다
B. SAML 2
C. Google 클라우드 디렉터리 동기화 도구를 사용하여 Google에서 사용자 프로비저닝하기
D. 사용자에게 회사 비밀번호와 일치하도록 Google 비밀번호를 설정하도록 요청합니다
답변 보기
정답: AC
질문 #7
Google 컴퓨트 엔진의 프로덕션 데이터베이스 가상 머신에는 데이터 파일용 ext4 형식의 영구 디스크가 있습니다. 데이터베이스의 저장 공간이 곧 부족해집니다. 다운타임을 최소화하면서 문제를 해결하려면 어떻게 해야 하나요?
A. Cloud Platform 콘솔에서 영구 디스크의 크기를 늘리고 Linux에서 resize2fs 명령을 사용합니다
B. 가상 머신을 종료하고 클라우드 플랫폼 콘솔을 사용하여 영구 디스크 크기를 늘린 다음 가상 머신을 다시 시작합니다
C. 클라우드 플랫폼 콘솔에서 영구 디스크의 크기를 늘리고 Linux에서 fdisk 명령을 사용하여 새 공간을 사용할 준비가 되었는지 확인합니다
D. 클라우드 플랫폼 콘솔에서 가상 머신에 연결된 새 영구 디스크를 생성하고, 포맷 및 마운트한 다음, 파일을 새 디스크로 이동하도록 데이터베이스 서비스를 구성합니다
E. 클라우드 플랫폼 콘솔에서 영구 디스크의 스냅샷을 생성합니다
답변 보기
정답: C
질문 #8
회사의 사용자 피드백 포털은 두 개의 영역에 걸쳐 복제된 표준 LAMP 스택으로 구성되어 있습니다. 이 포털은 us-central1 리전에 배포되며 데이터베이스를 제외한 모든 계층에서 자동 확장 관리 인스턴스 그룹을 사용합니다. 현재 일부 고객 그룹만 포털에 액세스할 수 있습니다. 포털은 이러한 조건에서 99,99%의 가용성 SLA를 충족합니다. 하지만 다음 분기에는 인증되지 않은 사용자를 포함한 모든 사용자가 포털을 사용할 수 있게 될 것입니다. 복원력을 개발해야 하는 경우
A. 기존 사용자 입력을 캡처하고 모든 레이어에서 자동 스케일이 트리거될 때까지 캡처된 사용자 로드를 재생합니다
B. 합성 무작위 사용자 입력을 생성하고, 적어도 하나의 레이어에서 자동 확장 로직이 트리거될 때까지 합성 부하를 재생하고, 두 영역에서 무작위 리소스를 종료하여 시스템에 '혼돈'을 도입합니다
C. 새 시스템을 더 많은 사용자 그룹에 노출하고 모든 계층에서 자동 스케일 로직이 트리거될 때까지 매일 그룹 크기를 늘립니다
D. 기존 사용자 입력을 캡처하고 리소스 사용률이 80%를 넘을 때까지 캡처된 사용자 부하를 재생합니다
답변 보기
정답: C
질문 #9
TerramEarth는 모든 연결된 트럭에 서버와 센서를 장착하여 원격 측정 데이터를 수집하고 있습니다. 내년에는 이 데이터를 사용하여 머신 러닝 모델을 훈련할 계획입니다. 이 데이터를 클라우드에 저장하면서 비용을 절감하고자 합니다. 어떻게 해야 할까요?
A. 차량의 컴퓨터가 시간별 스냅샷으로 데이터를 압축하여 Google 클라우드 스토리지(GCS) 니어라인 버킷에 저장하도록 합니다
B. 원격 분석 데이터를 실시간으로 데이터를 압축하는 스트리밍 데이터 흐름 작업으로 푸시하고 Google BigQuery에 저장합니다
C. 텔레메트리 데이터를 실시간으로 스트리밍 데이터 흐름 작업으로 푸시하여 데이터를 압축하고 Cloud Bigtable에 저장합니다
D. 차량의 컴퓨터가 시간별 스냅샷으로 데이터를 압축하여 GCS 콜드라인 버킷에 저장하도록 합니다
답변 보기
정답: D
질문 #10
한 운영 엔지니어가 데이터베이스 백업 파일의 사본을 원격으로 아카이브하는 견인 비용 솔루션을 만들고자 합니다. 데이터베이스 파일은 현재 데이터 센터에 저장된 압축된 타르 파일입니다. 어떻게 진행해야 할까요?
A. Gsutil을 사용하여 크론 스크립트를 만들어 파일을 콜드라인 스토리지 버킷에 복사합니다
B. Gsutil을 사용하여 크론 스크립트를 만들어 파일을 리전 스토리지 버킷에 복사합니다
C. 클라우드 스토리지 전송 서비스 작업을 생성하여 파일을 콜드라인 스토리지 버킷에 복사합니다
D. 클라우드 스토리지 전송 서비스 작업을 생성하여 파일을 리전 스토리지 버킷에 복사합니다
답변 보기
정답: A
질문 #11
한 수석 엔지니어가 레거시 데이터 센터에 가상 머신을 배포하는 사용자 지정 도구를 작성했습니다. 그는 이 사용자 지정 도구를 새로운 클라우드 환경으로 마이그레이션하려고 합니다. Google Cloud 배포 관리자의 도입을 지지하고 싶습니다. Cloud 배포 관리자로 마이그레이션할 때 발생할 수 있는 두 가지 비즈니스 위험은 무엇인가요? 답안 2개를 선택하세요.
A. Cloud 배포 관리자는 Python을 사용합니다
B. Cloud 배포 관리자 API는 향후 더 이상 사용되지 않을 수 있습니다
C. 클라우드 배포 관리자가 회사 엔지니어에게 익숙하지 않은 경우
D. Cloud 배포 관리자를 실행하려면 Google API 서비스 계정이 필요합니다
E. 클라우드 배포 관리자를 사용하여 클라우드 리소스를 영구 삭제할 수 있습니다
F. Cloud 배포 관리자는 Google Cloud 리소스 자동화만 지원합니다
답변 보기
정답: C
질문 #12
데이터 검색 속도를 높이기 위해 더 많은 차량이 셀룰러 연결로 업그레이드되어 ETL 프로세스로 데이터를 전송할 수 있게 됩니다. 현재 FTP 프로세스는 오류가 발생하기 쉬우며 연결이 실패하면 파일 시작부터 데이터 전송을 다시 시작하는데, 이는 자주 발생합니다. 솔루션의 안정성을 개선하고 셀룰러 연결에서 데이터 전송 시간을 최소화하고 싶습니다. 어떻게 해야 할까요?
A. 하나의 Google 컨테이너 엔진 클러스터의 FTP 서버를 사용합니다
B. 서로 다른 지역에 위치한 FTP 서버를 실행하는 여러 Google 컨테이너 엔진 클러스터를 사용합니다
C. HTTP를 통해 Google API를 사용하여 미국, 유럽, 아시아의 다른 Google 클라우드 다중 지역 스토리지 버킷 위치로 파일을 직접 전송합니다
D. HTTP를 통해 Google API를 사용하여 미국, 유럽, 아시아의 다른 Google 클라우드 리전 스토리지 버킷 위치로 파일을 직접 전송합니다
답변 보기
정답: C
질문 #13
회사에서 멀티 페타바이트 데이터 세트를 클라우드로 마이그레이션할 계획입니다. 데이터 집합은 하루 24시간 사용할 수 있어야 합니다. 비즈니스 분석가는 SQL 인터페이스 사용 경험만 있습니다. 분석이 용이하도록 데이터를 최적화하려면 데이터를 어떻게 저장해야 할까요?
A. 구글 빅쿼리에 데이터 로드
B. Google Cloud SQL에 데이터 삽입
C. 플랫 파일을 Google 클라우드 스토리지에 넣기
D. Google 클라우드 데이터스토어로 데이터 스트리밍
답변 보기
정답: A
질문 #14
TerramEarth의 2천만 대의 차량은 전 세계에 흩어져 있습니다. 차량의 위치에 따라 원격 분석 데이터는 Google 클라우드 스토리지(GCS)의 지역 버킷(미국, 유럽 또는 아시아)에 저장됩니다. CTO가 원시 원격 분석 데이터에 대한 보고서를 실행하여 차량이 100K 마일 후에 고장이 나는 이유를 파악해 달라고 요청했습니다. 모든 데이터에 대해 이 작업을 실행하려고 합니다. 이 작업을 실행하는 가장 비용 효율적인 방법은 무엇인가요?
A. 모든 데이터를 하나의 영역으로 이동한 다음 Cloud Dataproc 클러스터를 시작하여 작업을 실행합니다
B. 모든 데이터를 하나의 리전으로 이동한 다음 Google Cloud Dataproc 클러스터를 시작하여 작업을 실행합니다
C. 각 지역에서 클러스터를 실행하여 원시 데이터를 전처리하고 압축한 다음, 데이터를 다중 지역 버킷으로 이동하고 Dataproc 클러스터를 사용하여 작업을 완료합니다
D. 각 리전에서 클러스터를 실행하여 원시 데이터를 전처리하고 압축한 다음, 데이터를 리전 버킷으로 이동하고 Cloud Dataproc 클러스터를 사용하여 작업을 완료합니다
답변 보기
정답: C

제출 후 답변 보기

질문에 대한 답변을 얻으려면 이메일과 WhatsApp을 제출하세요.

참고: 올바른 시험 결과를 얻을 수 있도록 이메일 ID와 Whatsapp이 유효한지 확인하십시오.

이메일:
WhatsApp/전화번호: