不想錯過任何事?

通過認證考試的技巧

最新考試新聞和折扣資訊

由我們的專家策劃和更新

是的,請向我發送時事通訊

2024 次更新的 DAS-C01 考試問題和練習測試,AWS 認證數據分析 | SPOTO

通過 SPOTO,成功通過 2024 年更新的 AWS Certified Data Analytics - Specialty (DAS-C01) DAS-C01 考試問題和練習測試。該認證對於從事數據分析工作的專業人士至關重要,可驗證他們在利用 AWS 服務設計、保護和管理分析解決方案方面的能力。我們的綜合資源包括考試問題和答案、模擬測試和考試轉儲,確保全面的準備。訪問示例問題、考試材料和答案,加強考試練習和準備。利用我們的考試模擬器了解真實的測試場景,並通過在線試題和模擬考試評估您的準備情況。SPOTO 提供所需的工具和支持,幫助您在 AWS Certified Data Analytics - Specialty (DAS-C01) 考試中取得優異成績,並推動您在數據分析領域的職業發展。

參加其他線上考試

問題 #1
某公司將包含個人身份信息 (PII) 的銷售和營銷數據存儲在 Amazon S3 中。該公司允許其分析師啓動自己的 Amazon EMR 集羣,並使用這些數據運行分析報告。爲滿足合規要求,公司必須確保在整個過程中數據不被公開訪問。數據工程師已確保 Amazon S3 的安全,但必須確保分析師創建的各個 EMR 羣集不會暴露在公共互聯網上。哪種解決方案應
A. 建 EMR 安全配置,並確保在創建 EMR 羣集時將安全配置與之關聯。
B. 期檢查 EMR 羣集的安全組,確保它不允許來自 IPv4 0
C. 創建任何 EMR 羣集之前,在賬戶級別爲 Amazon EMR 啓用阻止公共訪問設置。
D. 用 AWS WAF 全面阻止對 EMR 羣集的公共互聯網訪問。
查看答案
正確答案: C
問題 #2
一家銀行公司目前正在使用 Amazon Redshift 處理敏感數據。審計發現,當前羣集未加密。合規性要求帶有敏感數據的數據庫必須使用帶有客戶管理密鑰的硬件安全模塊(HSM)進行加密。
A. 建新的 HSM 加密 Amazon Redshift 羣集,並將數據遷移到新羣集。
B. 適當的加密設置修改 DB 參數組,然後重新啓動羣集。
C. 用命令行在 Amazon Redshift 中啓用 HSM 加密。
D. 控制臺修改 Amazon Redshift 羣集,並使用 HSM 選項啓用加密。
查看答案
正確答案: A
問題 #3
某公司在公司內部託管了一個 Apache Flink 應用程序。該應用程序處理來自多個 Apache Kafka 集羣的數據。公司已將其中一些數據源遷移到 AWS,現在希望遷移 Flink 應用程序。公司必須確保駐留在 VPC 內數據庫中的數據不會穿越互聯網。
A. 公司 VPC 內的 Amazon EC2 上實施 Flink 在 VPC 中創建 Amazon Managed Streaming for Apache Kafka(Amazon MSK)羣集,以收集來自 VPC 內應用程序和數據庫的數據 使用 Amazon Kinesis Data Streams 收集來自公共互聯網的數據 通過使用 AWS Client VPN 或 AWS Direct Connect,配置 Flink 以獲得來自 Kinesis Data Streams Amazon MSK 和任何內部部署的 Kafka 羣集的數據源
B. 公司 VPC 內的 Amazon EC2 上實施 Flink 使用 Amazon Kinesis Data Streams 收集來自 VPC 內應用程序和數據庫以及公共互聯網的數據 通過使用 AWS Client VPN 或 AWS Direct Connect,配置 Flink 以獲得來自 Kinesis Data Streams 和任何內部部署的 Kafka 集羣的數據源
C. 過上傳編譯的 Flink jar 文件創建 Amazon Kinesis Data Analytics 應用程序 使用 Amazon Kinesis Data Streams 收集來自 VPC 和公共互聯網內應用程序和數據庫的數據 通過使用 AWS Client VPN 或 AWS Direct Connect 配置 Kinesis Data Analytics 應用程序,使其擁有來自 Kinesis Data Streams 和任何內部部署 Kafka 集羣的數據源
D. 公司的 VPC 中創建 Amazon Managed Streaming for Apache Kafka(Amazon MSK)集羣,以收集來自 VPC 中的應用程序和數據庫的數據 使用 Amazon Kinesis Data Streams 收集來自公共互聯網的數據 配置 Kinesis Data Analytics 應用程序,使其具有來自 Kinesis Data Stream 的數據源
E. 過使用 AWS Client VPN 或 AWS Direct Connect,亞馬遜 MSK 和任何內部部署的 Kafka 集羣
查看答案
正確答案: D
問題 #4
一家銀行希望將 Teradata 數據倉庫遷移到 AWS 雲。該銀行需要一個讀取大量數據的解決方案,並要求儘可能高的性能。該解決方案還必須保持存儲和計算的分離 哪種解決方案能滿足這些要求?
A. 用 Amazon Athena 查詢 Amazon S3 中的數據
B. 用帶有密集計算節點的 Amazon Redshift 來查詢 Amazon Redshift 託管存儲中的數據
C. 用帶有 RA3 節點的 Amazon Redshift 來查詢 Amazon Redshift 託管存儲中的數據
D. 用 Amazon EMR 上的 PrestoDB 查詢 Amazon S3 中的數據
查看答案
正確答案: B
問題 #5
一家電力公司正在部署數千個智能電錶,以獲取有關電力消耗的實時更新。該公司正在使用 Amazon Kinesis Data Streams 收集來自智能電錶的數據流。消費者應用程序使用 Kinesis 客戶端庫 (KCL) 來檢索數據流數據。該公司只有一個消費者應用程序。該公司觀察到,從記錄寫入數據流到消費者應用程序讀取記錄的平均延遲時間爲 1 秒。
A. Kinesis 數據流中使用增強扇出。
B. 加 Kinesis 數據流的分片數量。
C. 蓋 KCL 默認設置,減少傳播延遲。
D. 用 Amazon Kinesis Data Firehose 開發消費者。
查看答案
正確答案: C
問題 #6
一家軟件公司在 AWS 上託管了一個應用程序,每周都會發布新功能。作爲應用程序測試流程的一部分,必須開發一個解決方案來分析來自每個 Amazon EC2 實例的日誌,以確保應用程序在每次部署後都能按預期運行。收集和分析解決方案應具有高可用性,能夠以最小的延遲顯示新信息。公司應使用哪種方法來收集和分析日誌?
A. Amazon EC2 上啓用詳細監控,使用 Amazon CloudWatch 代理將日誌存儲在 Amazon S3 中,並使用 Amazon Athena 進行快速、交互式日誌分析。
B. 用 Amazon EC2 上的 Amazon Kinesis Producer Library (KPL) 代理收集數據並發送到 Kinesis Data Streams,進一步將數據推送到 Amazon Elasticsearch 服務,並使用 Amazon QuickSight 進行可視化。
C. 用 Amazon EC2 上的 Amazon Kinesis Producer Library (KPL) 代理收集數據並發送到 Kinesis Data Firehose,以進一步將數據推送到 Amazon Elasticsearch 服務和 Kibana。
D. 用 Amazon CloudWatch 訂閱訪問日誌的實時源,並將日誌交付到 Amazon Kinesis Data Streams,以進一步將數據推送到 Amazon Elasticsearch 服務和 Kibana。
查看答案
正確答案: C
問題 #7
某公司開發了多個 AWS Glue 作業,用於驗證和轉換亞馬遜 S3 中的數據,並每天一次分批將其加載到亞馬遜 RDS for MySQL 中。ETL 作業使用動態框架讀取 S3 數據。目前,ETL 開發人員在每次運行時僅處理增量數據方面遇到了挑戰,因爲 AWS Glue 作業會在每次運行時處理所有 S3 輸入數據。
A. ETL 作業使用 DataFrame 從 Amazon S3 讀取數據。
B. AWS Glue 作業上啓用作業書籤。
C. ETL 作業上創建自定義邏輯,以跟蹤已處理的 S3 對象。
D. ETL 作業在每次運行後從 Amazon S3 中刪除已處理的對象或數據。
查看答案
正確答案: D
問題 #8
一家醫院使用可穿戴醫療傳感器設備收集病人的數據。該醫院正在構建一個近實時的解決方案,能夠安全地大規模採集數據。該解決方案還應能從流數據中移除患者的受保護健康信息(PHI),並將數據存儲在耐用存儲中。
A. 用 Amazon Kinesis Data Streams 接收數據,該數據流會使用 Kinesis Client Library (KCL) 調用 AWS Lambda 函數來移除所有 PHI。將數據寫入 Amazon S3。
B. 用 Amazon Kinesis Data Firehose 接收數據,將數據寫入 Amazon S3。讓 Amazon S3 觸發一個 AWS Lambda 函數,解析傳感器數據以刪除 Amazon S3 中的所有 PHI。
C. 用 Amazon Kinesis 數據流將數據寫入 Amazon S3。讓數據流啓動一個 AWS Lambda 函數,解析傳感器數據並刪除 Amazon S3 中的所有 PHI。
D. 用 Amazon Kinesis Data Firehose 接收數據,將數據寫入 Amazon S3。實施轉換 AWS Lambda 函數,解析傳感器數據以移除所有 PHI。
查看答案
正確答案: C
問題 #9
一家公司推出了一項每天產生數百萬條消息的服務,並使用 Amazon Kinesis Data Streams 作爲流服務。公司使用 Kinesis SDK 將數據寫入 Kinesis 數據流。啓動幾個月後,數據分析師發現寫入性能明顯降低。數據分析師對指標進行了調查,確定 Kinesis 正在加速寫入請求。數據分析師希望在不對架構進行重大更改的情況下解決這個問題。
A. 加 Kinesis 數據流保留期,以減少節流。
B. Kinesis Agent 取代基於 Kinesis API 的數據攝取機制。
C. 用 UpdateShardCount API 增加數據流中的分片數量。
D. 擇分區鍵的方式應能使記錄在分區間均勻分布。
E. 製應用程序代碼,加入重試邏輯以提高性能。
查看答案
正確答案: AC
問題 #10
某公司需要以 JSON 格式存儲包含日誌數據的對象。這些對象由 AWS 中運行的八個應用程序生成。其中六個應用程序每秒總共生成 500 KiB 的數據,兩個應用程序每秒生成高達 2 MiB 的數據。一名數據工程師希望實施一個可擴展的解決方案,以捕獲並在亞馬遜 S3 存儲桶中存儲使用數據。使用數據對象需要重新格式化,轉換爲 .csv 格式,然後進行壓縮,才能存儲到亞馬遜 S3 中。
A. 每個應用程序配置 Amazon Kinesis Data Firehose 交付流。編寫 AWS Lambda 函數,爲每個應用程序從流中讀取日誌數據對象。讓函數執行重新格式化和
B. 置 Amazon Kinesis 數據流,每個應用程序使用一個分片。編寫一個 AWS Lambda 函數,從碎片中讀取使用數據對象。讓函數執行
C. 每個應用程序配置一個 Amazon Kinesis 數據流。編寫一個 AWS Lambda 函數,爲每個應用程序從數據流中讀取使用數據對象。讓函數執行
D. Amazon DynamoDB 表中存儲使用數據對象。配置 DynamoDB 流,將對象複製到 S3 存儲桶。配置 AWS Lambda 函數,以便在對象寫入 S3 存儲桶時觸發。讓該函數將對象轉換爲
查看答案
正確答案: B
問題 #11
某公司的一個業務部門將 .csv 文件上傳到亞馬遜 S3 存儲桶。公司的數據平臺團隊設置了一個 AWS Glue 爬蟲來進行發現,並創建表格和模式。AWS Glue 作業將已處理的數據從創建的表寫入 Amazon Redshift 數據庫。AWS Glue 作業會處理列映射,並適當創建 AmazonRedshift 表。當 AWS Glue 作業在一天內因任何原因重新運行時,會在 Amazon Redshift 表中引入重複記錄。
A. 改 AWS Glue 作業,將行複製到暫存表中。添加 SQL 命令,以替換主表中的現有行,作爲 DynamicFrameWriter 類中的後動作。
B. AWS Glue 作業中將先前插入的數據加載到 MySQL 數據庫。在 MySQL 中執行上插入操作,並將結果複製到 Amazon Redshift 表。
C. 用 Apache Spark 的 DataFrame dropDuplicates() API 消除重複數據,然後將數據寫入 Amazon Redshift。
D. 用 AWS Glue ResolveChoice 內置轉換選擇列的最新值。
查看答案
正確答案: B
問題 #12
一家公司希望使用自動機器學習 (ML) 隨機剪切森林 (RCF) 算法來可視化複雜的現實世界場景,例如檢測季節性和趨勢、排除異類和估算缺失值。
A. 用 AWS Glue ML 轉換創建預測,然後使用 Amazon QuickSight 對數據進行可視化。
B. 用 Amazon QuickSight 對數據進行可視化,然後使用由 ML 支持的預測來預測關鍵業務指標。
C. 用 AWS Marketplace 上的預構建 ML AMI 創建預測,然後使用 Amazon QuickSight 對數據進行可視化。
D. 用計算字段創建新的預測,然後使用 Amazon QuickSight 可視化數據。
查看答案
正確答案: A
問題 #13
某公司在應用負載平衡器 (ALB) 後面有幾個亞馬遜 EC2 實例,該公司希望其 IT 基礎架構團隊分析進入該公司 ALB 的 IP 地址,ALB 被配置爲將訪問日誌存儲在亞馬遜 S3 中,訪問日誌每天會產生約 1 TB 的數據,而對數據的訪問並不頻繁。
A. 數據複製到 Amazon Redshift 並查詢數據
B. 用 Amazon EMR 和 Apache Hive 查詢 S3 數據
C. 用 Amazon Athena 查詢 S3 數據
D. 用 Amazon Redshift Spectrum 查詢 S3 數據
查看答案
正確答案: D
問題 #14
某公司擁有一個加密的 Amazon Redshift 集羣。該公司最近啓用了 Amazon Redshift 審計日誌,需要確保審計日誌在靜態時也是加密的。日誌保留 1 年。審計員每月查詢一次日誌。滿足這些要求的最具成本效益的方法是什麼?
A. 用 AWS 密鑰管理服務 (AWS KMS) 加密存儲日誌的 Amazon S3 存儲桶。每天將數據從 Amazon S3 複製到 Amazon Redshift 集羣。
B. 據需要查詢數據。
C. 用 Amazon Redshift 羣集上的加密,配置審計日誌並加密 Amazon Redshift 羣集
D. 用 Amazon Redshift Spectrum 按要求查詢數據。
E. 存儲日誌的 Amazon S3 存儲桶上啓用默認加密,使用 AES-256 加密。
F. 天將數據從 Amazon S3 複製到 Amazon Redshift 集羣。根據需要查詢數據。H
查看答案
正確答案: B
問題 #15
一家金融服務公司需要將交易所的每日股票交易數據匯總到數據存儲中。該公司要求將數據直接流式傳輸到數據存儲中,但偶爾也允許使用 SQL 對數據進行修改。解決方案應集成複雜的分析查詢,以最小的延遲運行。解決方案必須提供一個商業智能儀錶盤,以便查看導致股價異常的主要因素。哪種解決方案能滿足公司的要求?
A. 用 Amazon Kinesis Data Firehose 將數據流傳輸到 Amazon S3。將 Amazon Athena 用作 Amazon QuickSight 的數據源,以創建商業智能儀錶板。
B. 用 Amazon Kinesis Data Streams 將數據流傳輸到 Amazon Redshif
C. Amazon Redshift 用作 Amazon QuickSight 的數據源,以創建商業智能儀錶板。
D. 用 Amazon Kinesis Data Firehose 將數據流傳輸到 Amazon Redshif
E. Amazon Redshift 用作 Amazon QuickSight 的數據源,以創建商業智能儀錶板。
F. 用 Amazon Kinesis Data Streams 將數據流傳輸到 Amazon S3。使用 Amazon Athena 作爲 Amazon QuickSight 的數據源,創建商業智能儀錶板。
查看答案
正確答案: CD
問題 #16
一家公司正在建設一個數據湖,需要從一個擁有時間序列數據的關係數據庫中獲取數據。公司希望使用託管服務來實現這一目標。要滿足這些要求,最具成本效益的方法是什麼?
A. 用 AWS Glue 通過 JDBC 驅動程序連接到數據源。僅使用作業書籤攝取增量記錄。
B. 用 AWS Glue 通過 JDBC 驅動程序連接到數據源。將最後更新的密鑰存儲在 Amazon DynamoDB 表中,並使用更新的密鑰作爲過濾器攝取數據。
C. 用 AWS Glue 使用 JDBC 驅動程序連接到數據源,並攝取整個數據集。使用適當的 Apache Spark 庫對數據集進行比較,並找出 delta。
D. 用 AWS Glue 使用 JDBC 驅動程序連接到數據源並攝取完整數據。使用 AWS DataSync 確保只將 delta 寫入 Amazon S3。
查看答案
正確答案: B
問題 #17
一所大型大學的戰略目標是提高在校學生的多樣性。數據分析團隊正在創建一個數據可視化儀錶盤,以便利益相關者查看歷史趨勢。所有訪問都必須使用 Microsoft Active Directory 進行身份驗證。所有傳輸和靜態數據都必須加密。哪種解決方案能滿足這些要求?
A. mazon QuickSight 標準版配置爲使用 SAML 2
B. mazon QuickSight 企業版配置爲使用 SAML 2
C. 置 Amazon QuickSight 以使用導入 AWS KMS 的客戶提供的密鑰。
D. 置 Amazon QuickSight 以使用導入 AWS KMS 的客戶提供的密鑰。
查看答案
正確答案: A
問題 #18
某公司使用 Amazon Redshift 作爲其數據倉庫。一個新表包含一些包含敏感數據的列和一些包含非敏感數據的列。數據分析專家必須確保只有公司審計團隊的成員才能讀取包含敏感數據的列。所有其他用戶必須對包含非敏感數據的列擁有隻讀訪問權限。
A. 予審計小組讀取表的權限。將包含非敏感數據的列加載到第二個表中。授予適當用戶對第二個表的只讀權限。
B. 包含非敏感數據的列授予所有用戶只讀權限。使用 GRANT SELECT 命令允許審計小組訪問包含敏感數據的列。
C. 包含非敏感數據的列授予所有用戶只讀權限。爲審計團隊附加一個 IAM 策略,其中包含一個明確的。允許訪問包含敏感數據的列的操作。
D. 予審計團隊讀取表的權限。創建包含非敏感數據列的表視圖。授予相應用戶對該視圖的只讀權限。
查看答案
正確答案: D
問題 #19
一家市場數據公司匯總外部數據源,以創建不同國家產品消費的詳細視圖。該公司希望通過訂閱將這些數據出售給外部方。爲了實現這一目標,該公司需要將其數據安全地提供給同時也是 AWS 用戶的外部方。公司應如何做才能以最少的運營開銷滿足這些要求?
A. 數據存儲在 Amazon S3 中。使用預籤名 URL 共享數據以確保安全。
B. 數據存儲在 Amazon S3 中。使用 S3 桶 ACL 共享數據。
C. 數據上傳到 AWS Data Exchange 進行存儲ag
D. 用預籤名 URL 共享數據,確保安全。
E. 數據上傳到 AWS Data Exchange 進行存儲
F. 用 AWS Data Exchange 共享嚮導共享數據。
查看答案
正確答案: A
問題 #20
一個數據科學家團隊計劃爲公司的新投資戰略分析市場趨勢數據。趨勢數據來自五個不同的數據源,數量龐大。該團隊希望利用 Amazon Kinesis 支持他們的用例。該團隊使用類似 SQL 的查詢來分析趨勢,並希望根據趨勢中的某些重要模式發送通知。此外,數據科學家還希望將數據保存到亞馬遜 S3 以進行存檔和歷史再處理,並使用 AWS 託管的
A. 一個 Kinesis 數據流發布數據
B. 用 Kinesis 客戶端庫 (KCL) 部署用於分析趨勢的自定義應用程序,並使用 Amazon SN 發送通知
C. Kinesis 數據流上配置 Kinesis Data Firehose,將數據持久化到 S3 存儲桶。
D. 數據發布到一個 Kinesis 數據流中
E. Kinesis Data Analytic 部署到數據流中以分析趨勢,並配置 AWS Lambda 函數作爲輸出,使用 Amazon SN 發送通知
F. Kinesis 數據流上配置 Kinesis Data Firehose,將數據持久化到 S3 存儲桶。G
查看答案
正確答案: C
問題 #21
一家製造公司從工廠車間的設備中收集物聯網傳感器數據已有一年時間,並將數據存儲在亞馬遜 Redshift 中進行日常分析。一名數據分析師確定,按照每天約 2 TB 的預期攝取率,該集羣將在不到 4 個月的時間內達到不足規模。需要一個長期的解決方案。數據分析師指出,大多數查詢只參考最近 13 個月的數據,但也有一些季度報告需要查詢生成的所有數據。
A. AWS Glue 中創建一個每日作業,將超過 13 個月的記錄卸載到 Amazon S3,並從 Amazon Redshift 中刪除這些記錄。在 Amazon Redshift 中創建一個外部表,指向 S3 位置。使用 Amazon Redshift Spectrum 連接到超過 13 個月的數據。
B. Amazon Redshift 羣集進行快照。使用具有額外存儲容量的密集存儲節點將羣集還原爲新羣集。
C. 行 CREATE TABLE AS SELECT (CTAS) 語句,將超過 13 個月的記錄移動到 Amazon S3 支持的 Amazon Redshift Spectrum 中的季度分區數據。
D. 用 S3 Intelligent-Tiering 將 Amazon Redshift 中的所有表卸載到 Amazon S3 存儲桶。使用 AWS Glue 抓取 S3 存儲桶位置,在 AWS Glue 數據目錄中創建外部表。使用 "自動擴展 "創建 Amazon EMR 集羣,以滿足任何日常分析需求,並使用 Amazon Athena 生成季度報告,兩者使用相同的 AWS Glue 數據目錄。
查看答案
正確答案: B
問題 #22
一名數據分析專家正在使用 AWS Glue 構建一個自動化 ETL 攝取管道,以攝取上傳到亞馬遜 S3 存儲桶的壓縮文件。該攝取管道應支持增量數據處理。數據分析專家應使用 AWS Glue 的哪項功能來滿足這一要求?
A. 作流程
B. 發器
C. 作書籤
D. 類器
查看答案
正確答案: D

提交後看答案

請提交您的電子郵件和WhatsApp以獲取問題的答案。

注意:請確保您的電子郵件 ID 和 Whatsapp 有效,以便您獲得正確的考試結果。

電子郵件:
WhatsApp/電話號碼: