不想錯過任何事?

通過認證考試的技巧

最新考試新聞和折扣資訊

由我們的專家策劃和更新

是的,請向我發送時事通訊

通過試題和學習材料掌握 DAS-C01 考試,AWS 數據分析認證 | SPOTO

使用SPOTO'的AWS數據分析認證--專業(DAS-C01)考試試題及學習材料掌握DAS-C01考試。該認證對於從事數據分析工作的專業人士至關重要,可驗證他們在利用 AWS 服務設計、保護和管理分析解決方案方面的專業知識。我們全面的學習材料包括考試問題和答案、模擬測試和考試轉儲,確保深入理解關鍵概念。訪問示例問題、考試材料和答案,加強考試練習和準備。利用我們的考試模擬器了解真實的測試場景,提高考試成績。從在線試題和模擬考試中獲益,以衡量準備情況並在 AWS Certified Data Analytics - Specialty (DAS-C01) 考試中取得優異成績。SPOTO 爲您提供在數據分析職業生涯中取得成功所需的工具和支持。

參加其他線上考試

問題 #1
某公司託管了一個包含歷史數據的內部 PostgreSQL 數據庫。一個內部傳統應用程序使用該數據庫進行只讀活動。公司的業務團隊希望儘快將數據轉移到 Amazon S3 中的數據湖,並豐富數據以進行分析。公司已在其 VPC 和內部網絡之間建立了 AWS Direct Connect 連接。數據分析專家必須設計一個解決方案,以最少的運營成本實現業務團隊的目標。
A. 用定製的批量上傳程序,將數據從內部部署的 PostgreSQL 數據庫上傳到 Amazon S3
B. 用 AWS Glue 爬蟲對亞馬遜 S3 中的數據進行編目。使用 AWS Glue 作業以 Apache Parquet 格式將結果豐富並存儲在單獨的 S3 存儲桶中。
C. 用 Amazon Athena 查詢數據。
D. 建 Amazon RDS for PostgreSQL 數據庫,並使用 AWS 數據庫遷移服務(AWS DMS)將數據遷移到 Amazon RD。
E. 用 AWS Data Pipeline 從 Amazon RDS for PostgreSQL 表中複製和豐富數據,並將數據移動到 Amazon S3。使用 Amazon Athena 查詢數據。
F.
查看答案
正確答案: A
問題 #2
一名數據分析師使用 Amazon Athena 和 JDBC 驅動程序運行大量數據操作語言 (DML) 查詢。最近,一個查詢在運行 30 分鐘後失敗。查詢返回了以下消息 Java.sql.SGLException:但是,數據分析師需要一個長期的解決方案來解決這個問題,哪種解決方案能滿足這些要求?
A. 查詢拆分成更小的查詢,以搜索更小的數據子集。
B. 雅典娜的設置中,調整 DML 查詢超時限制
C. "服務配額 "控制臺中,申請延長 DML 查詢超時時間
D. 表格保存爲壓縮的
查看答案
正確答案: D
問題 #3
一家公司希望近實時地豐富應用程序日誌,並使用豐富的數據集進行進一步分析。該應用程序在跨多個可用區的 Amazon EC2 實例上運行,並使用 Amazon CloudWatch Logs 存儲其日誌。豐富源存儲在 Amazon DynamoDB 表中。哪種解決方案能滿足事件收集和豐富的要求?
A. 用 CloudWatch 日誌訂閱將數據發送到 Amazon Kinesis Data Firehos
B. 用 AWS Lambda 轉換 Kinesis Data Firehose 傳輸流中的數據,並用 DynamoDB 標籤中的數據充實它。
C. Amazon S3 配置爲 Kinesis Data Firehose 發送目的地。
D. 用 AWS CL 每小時將原始日誌導出到 Amazon S3
E. 用 AWS Glue 爬蟲對日誌進行編目
F. DynamoDB 表設置 AWS Glue 連接,並設置 AWS Glue ETL 作業來豐富數據 G
查看答案
正確答案: A
問題 #4
一家銀行公司目前正在使用帶有密集存儲 (DS) 節點的 Amazon Redshift 集羣來存儲敏感數據。審計發現,該羣集未加密。合規性要求規定,敏感數據數據庫必須通過硬件安全模塊 (HSM) 進行加密,並自動進行密鑰輪換。實現合規性需要哪些步驟組合?(選擇兩項)。
A. 用帶有自動密鑰輪換功能的客戶端和服務器證書,與 HSM 建立可信連接。
B. 用 HSM 加密選項和自動密鑰輪換功能修改羣集。
C. 建新的 HSM 加密 Amazon Redshift 羣集,並將數據遷移到新羣集。
D. 過 AWS CLI 啓用帶密鑰輪換的 HSM。
E. HSM 中啓用橢圓曲線 Diffie-Hellman Ephemeral (ECDHE) 加密。
查看答案
正確答案: C
問題 #5
在過去幾周中,作業出現故障,並產生以下錯誤消息:"文件只能複製到 0 個節點,而不是 1 個節點。
A. 控 HDFSUtilization metri
B. 果數值超過用戶定義的閾值,則向 EMR 集羣添加任務節點
C. 控 HDFSUtilization metri
D. 控 MemoryAllocatedMB metri
E. 果數值超過用戶定義的閾值,則向 EMR 羣集添加任務節點
F. 控 MemoryAllocatedMB metri G
查看答案
正確答案: D
問題 #6
某公司正在從內部部署的 Apache Hadoop 集羣遷移到 Amazon EMR 集羣。該羣集僅在營業時間運行。由於公司要求避免盤中集羣故障,因此 EMR 集羣必須高度可用。當集羣在每個營業日結束時終止時,數據必須持續存在。哪些配置可使 EMR 羣集滿足這些要求?(請選擇三種)。
A. 於存儲的 EMR 文件系統(EMRFS)
B. 於存儲的 Hadoop 分布式文件系統(HDFS)
C. WS Glue 數據目錄作爲 Apache Hive 的元存儲
D. 主節點上的 MySQL 數據庫作爲 Apache Hive 的元存儲
E. 個可用區中的多個主節點
F. 個可用區中的多個主節點
查看答案
正確答案: D
問題 #7
一家全球性製藥公司從全球各地的測試機構接收新藥測試結果。這些結果以數百萬個 1 KB 大小的 JSON 對象形式發送到公司擁有的 Amazon S3 存儲桶。數據工程團隊需要處理這些文件,將其轉換爲 Apache Parquet 格式,並將其加載到 Amazon Redshift 中,以便數據分析師執行儀錶板報告。工程團隊使用 AWS Glue 處理對象,使用 AWS Step Functions 進行流程協調,並使用 Amazo
A. 用 AWS Lambda 將小文件分組爲大文件
B. 文件寫回 Amazon S3。使用 AWS Glue 處理文件,並將其加載到 Amazon Redshift 表中。
C. 攝取原始輸入文件時使用 AWS Glue 動態幀文件分組選項
D. 理文件並將其加載到 Amazon Redshift 表中。
E. 用 Amazon Redshift COPY 命令將文件從 Amazon S3 直接移動到 Amazon Redshift 表中。
F. Amazon Redshift 中處理文件。G
查看答案
正確答案: C
問題 #8
一家銀行使用 Amazon Managed Streaming for Apache Kafka(Amazon MSK)將實時數據填充到數據湖中。數據湖建立在 Amazon S3 上,數據必須在 24 小時內可從數據湖中訪問。
A. 用 Amazon MSK 控制臺將代理存儲增加三倍,並重新啓動羣集
B. 建一個 Amazon CloudWatch 報警,監控 KafkaDataLogsDiskUsed 指標 當該指標值超過 85% 時,自動清除最舊的報文
C. 建自定義 Amazon MSK 配置 將日誌保留時間參數設置爲 48 用新配置文件更新羣集
D. 消費者數量增加兩倍,確保數據一添加到主題中就會被消耗掉。
查看答案
正確答案: C
問題 #9
一家零售公司正在使用 Amazon Redshift 構建其數據倉庫解決方案。作爲這項工作的一部分,該公司正在將數百個文件加載到 Amazon Redshift 集羣中創建的事實表中。該公司希望在將數據加載到公司的事實表時,解決方案能夠實現最高吞吐量並優化使用集羣資源。公司應如何滿足這些要求?
A. 用多個 COPY 命令將數據加載到 Amazon Redshift 集羣。
B. 用 S3DistCp 將多個文件加載到 Hadoop 分布式文件系統 (HDFS),然後使用 HDFS 連接器將數據攝取到 Amazon Redshift 集羣。
C. 用與 Amazon Redshift 集羣節點數量相等的 LOAD 命令,將數據並行加載到每個節點。
D. 用一條 COPY 命令將數據加載到 Amazon Redshift 集羣。
查看答案
正確答案: ACE
問題 #10
某公司在 Amazon S3 中存儲 Apache Parquet 格式的文件,該公司使用 AWS Glue 數據目錄來存儲表元數據,並使用 Amazon Athena 來查詢和分析數據,表中有大量分區,查詢只在表中的小部分數據上運行,數據分析師在新數據到達時向表中添加新的時間分區,數據分析師被要求縮短查詢運行時間,哪種解決方案能最大幅度地縮短查詢運行時間?
A. Parquet 文件轉換爲 csv 文件格式。
B. Parquet 文件轉換爲 Apache ORC 文件格式
C. 後嘗試再次查詢數據
D. 用分區投影來加快分區表的處理速度
E. 選項卡上添加更多分區
F. 後過濾兩個分區,並將所有列放入 WHERE 子句中
查看答案
正確答案: A
問題 #11
一家在線零售商正在重建其庫存管理系統和庫存重新排序系統,以便使用亞馬遜 Kinesis 數據流自動重新排序產品。庫存管理系統使用 Kinesis 生產者庫(Kinesis Producer Library,KPL)向數據流發布數據。庫存重新排序系統使用 Kinesis 客戶端庫 (KCL) 從流中消費數據。數據流已配置爲按需擴展。就在生產部署前,零售商發現庫存重新排序
A. 產者出現了與網絡相關的超時。
B. 據流的 IteratorAgeMilliseconds 指標值過高。
C. 片、記錄處理器或兩者的數量都發生了變化。
D. ggregationEnabled 配置屬性被設置爲 true。
E. ax_records 配置屬性的設置值過高。
查看答案
正確答案: C
問題 #12
一家電信公司正在尋找一種異常檢測解決方案來識別欺詐電話。該公司目前使用 Amazon Kinesis 以 JSON 格式將語音呼叫記錄從內部數據庫流式傳輸到 Amazon S3。現有數據集包含 200 列語音呼叫記錄。要檢測欺詐性呼叫,解決方案只需查看其中的 5 列。該公司對使用 AWS 的高性價比解決方案很感興趣,該解決方案只需極少的工作量和異常檢測經驗即可實現。
A. 用 AWS Glue 作業將數據從 JSON 轉換爲 Apache Parque
B. 用 AWS Glue 爬蟲發現模式並構建 AWS Glue Data Catalo
C. 用 Amazon Athena 創建帶有列子集的表
D. 用 Amazon QuickSight 對數據進行可視化,然後使用 Amazon QuickSight 機器學習驅動的異常檢測。
E. 用 Kinesis Data Firehose,通過運行 SQL 查詢來檢測來自 Kinesis 的數據流中的異常,該查詢會計算所有調用的異常得分,並將輸出存儲在 Amazon RD 中。
F.
查看答案
正確答案: B
問題 #13
某公司希望通過爲其智能家居系統的推薦引擎添加更多功能來提高用戶滿意度。每個傳感器都使用 Java 中的 Kinesis Producer Library (KPL) 將其嵌套的 JSON 數據異步推送到 Amazon Kinesis 數據流中。一組故障傳感器的統計數據顯示,當傳感器發生故障時,其記錄的數據並不總是發送到雲端。公司需要一種解決方案,能夠對來自最新傳感器的數據進行近乎實時的分析。解決方案
A. KPL 的 RecordMaxBufferedTime 屬性設置爲 "1",以禁用傳感器端的緩衝。
B. 豐富的數據推送到 Kinesis 數據流中,並啓用數據轉換功能來扁平化 JSON 文件
C. nstantiate a dense storage Amazon Redshift cluster and use it as the destination for the Kinesis Data Firehose delivery stream
D. 新傳感器代碼,使用 Kinesis Data Streams API 的 PutRecord/PutRecords 調用和 AWS SDK for Jav
E. 據公司開發的異常檢測 SQL 腳本,使用 Kinesis 數據分析來豐富數據
F. KDA 應用程序的輸出導向 Kinesis Data Firehose 交付流,啓用數據轉換功能以扁平化 JSON 文件,並將 Kinesis Data Firehose 目的地設置爲 Amazon Elasticsearch 服務集羣。G
查看答案
正確答案: B
問題 #14
一家擁有視頻流網站的公司希望分析用戶行爲,以便實時向用戶提供推薦 點擊流數據被發送到 Amazon Kinesis Data Streams,參考數據被存儲在 Amazon S3 中 公司希望解決方案能夠使用標準 SQL quenes 解決方案還必須提供一種方法,以便在提供推薦時查找預先計算的參考數據 哪種解決方案能夠滿足這些要求?
A. 用 AWS Glue Python shell 作業處理來自 Kinesis 數據流的傳入數據 使用 Boto3 庫將數據寫入 Amazon Redshift
B. 用 AWS Glue 流和擴展處理來自 Kinesis 數據流的傳入數據 使用 AWS Glue 連接器將數據寫入 Amazon Redshift
C. 用 Amazon Kinesis Data Analytics 根據參考數據創建應用內表 處理從 Kinesis 數據流傳入的數據 使用數據流將結果寫入 Amazon Redshift
D. 用 Amazon Kinesis Data Analytics 根據參考數據創建應用內表處理來自 Kinesis 數據流的傳入數據使用 Amazon Kinesis Data Firehose 交付流將結果寫入 Amazon Redshift
查看答案
正確答案: B
問題 #15
一名數據分析師正在使用 Amazon Redshift 中的集中銷售數據設計 Amazon QuickSight 儀錶盤。必須對該儀錶盤進行限制,以便澳大利亞悉尼的銷售人員只能看到澳大利亞的視圖,而紐約的銷售人員只能看到美國的數據。數據分析師應如何確保適當的數據安全?
A. 澳大利亞和美國的數據源分別放入 SPICE 容量池。
B. 澳大利亞和美國建立 Amazon Redshift VPC 安全組。
C. 署 QuickSight 企業版,對銷售表實施行級安全(RLS)。
D. 署 QuickSight 企業版,並爲澳大利亞和美國設置不同的 VPC 安全組。
查看答案
正確答案: BD
問題 #16
一家媒體公司希望對亞馬遜 S3 數據湖中的數據進行機器學習和分析。有兩個數據轉換要求將使公司內部的消費者能夠創建報告:每天轉換 300 GB 不同文件格式的數據,並在預定時間登陸亞馬遜 S3。對駐留在 S3 數據湖中的數 TB 歸檔數據進行一次性轉換。哪種解決方案組合能經濟高效地滿足公司對數據轉換的要求?
A. 於每日傳入的數據,使用 AWS Glue 爬蟲掃描並識別模式。
B. 於每日傳入的數據,使用 Amazon Athena 掃描並識別模式。
C. 於每天傳入的數據,使用 Amazon Redshift 執行轉換。
D. 於每天傳入的數據,使用 AWS Glue 工作流和 AWS Glue 作業來執行轉換。
E. 於存檔數據,使用 Amazon EMR 執行數據轉換。
F. 於存檔數據,使用 Amazon SageMaker 執行數據轉換。
查看答案
正確答案: B
問題 #17
公司的運營團隊開始觀察到許多 WnteThroughputExceeded 異常,運營團隊認爲原因在於寫入某些分片的記錄數。
A. 分區密鑰從設備 ID 改爲隨機生成的密鑰
B. 加碎片數量
C. 數據歸檔到生產方
D. 分區密鑰從設備 ID 更改爲捕獲日期
查看答案
正確答案: A

提交後看答案

請提交您的電子郵件和WhatsApp以獲取問題的答案。

注意:請確保您的電子郵件 ID 和 Whatsapp 有效,以便您獲得正確的考試結果。

電子郵件:
WhatsApp/電話號碼: