不想錯過任何事?

通過認證考試的技巧

最新考試新聞和折扣資訊

由我們的專家策劃和更新

是的,請向我發送時事通訊

DAS-C01 考試準備:學習材料和模擬測試,AWS 數據分析認證 | SPOTO

使用SPOTO'的AWS數據分析認證--專業(DAS-C01)學習材料&模擬測試,有效地準備DAS-C01考試。該認證對於從事數據分析工作的專業人士至關重要,它肯定了他們利用 AWS 服務設計、保護和管理分析解決方案的能力。我們的學習材料涵蓋一系列主題,包括考試問題和答案、模擬測試、示例問題和考試轉儲,確保對關鍵概念的透徹理解。訪問考試材料、答案和考試模擬器,了解真實的練習場景。通過在線試題和模擬考試評估您的準備情況並提高考試成績。SPOTO 提供所需的資源和支持,幫助您在 AWS Certified Data Analytics - Specialty (DAS-C01) 考試中取得優異成績,並推動您在數據分析領域的職業發展。

參加其他線上考試

問題 #1
一家從遠程建築工地監控天氣狀況的公司正在建立一個解決方案,從以下兩個氣象站收集溫度數據。氣象站 A,有 10 個傳感器 氣象站 B,有 5 個傳感器 這些氣象站是由現場專題專家安置的。每個傳感器都有一個唯一的 ID。從每個傳感器收集到的數據將使用 Amazon Kinesis 數據流進行收集。根據總的進出數據吞吐量,單個 Amazon Kinesis 數據流
A.
B.
C.
D.
E.
查看答案
正確答案: C
問題 #2
一家保險公司有 JSON 格式的原始數據,這些數據通過 Amazon Kinesis Data Firehose 交付流發送到 Amazon S3 存儲桶,但沒有預定義的時間表。AWS Glue 爬蟲計劃每 8 小時運行一次,以更新 S3 存儲桶中存儲的表的數據目錄模式。數據分析師在亞馬遜 EMR 上使用 Apache Spark SQL 分析數據,並將 AWS Glue 數據目錄設置爲元存儲。數據分析師說,他們偶爾會收到過時的數據。數據工程師
A. 現有 Amazon Redshift 集羣上創建基於 AWS Glue 數據目錄的外部模式,以便使用 Amazon Redshift Spectrum 查詢 Amazon S3 中的新數據。
B. 用 Amazon CloudWatch Events 和速率(1 小時)表達式,每小時執行一次 AWS Glue 爬蟲。
C. 用 AWS CLI,將 AWS Glue 爬蟲的執行計劃從 8 小時修改爲 1 分鐘。
D. 過 S3 桶上的 S3:ObjectCreated:* 事件通知觸發的 AWS Lambda 函數運行 AWS Glue 爬蟲。
查看答案
正確答案: B
問題 #3
一家人力資源公司維護着一個 10 節點的 Amazon Redshift 集羣,用於對公司數據運行分析查詢。Amazon Redshift 集羣包含一個產品表和一個事務表,兩個表都有一個 product_sku 列。這些表的大小超過 100 GB。大多數查詢都在這兩個表上運行。公司應爲這兩個表使用哪種分布式以實現最佳查詢性能?
A. 個表格的 EVEN 分布樣式
B. 個表的 KEY 分布樣式
C. 品表採用 ALL 分布樣式,交易表採用 EVEN 分布樣式
D. 品表採用 EVEN 分布樣式,交易表採用 KEY 分布樣式
查看答案
正確答案: C
問題 #4
某公司的一個業務部門將 .csv 文件上傳到亞馬遜 S3 存儲桶。公司的數據平臺團隊設置了一個 AWS Glue 爬蟲來進行發現,並創建表格和模式。AWS Glue 作業將已處理的數據從創建的表寫入亞馬遜 Redshift 數據庫。AWS Glue 作業會處理列映射,並適當創建 Amazon Redshift 表。當 AWS Glue 作業在一天內因任何原因重新運行時,會將重複記錄引入 Amazon Redshift 表。哪種解決方案可以
A. 改 AWS Glue 作業,將行複製到暫存選項卡中。
B. DynamicFrameWriter 類中添加 SQL 命令,以替換主表中的現有行作爲後置操作。
C. 先前插入的數據加載到 AWS Glue jo 中的 MySQL 數據庫中
D. MySQL 中執行上插入操作,並將結果複製到 Amazon Redshift 表。
E. 用 Apache Spark 的 DataFrame dropDuplicates() API 消除重複數據,然後將數據寫入 Amazon Redshift。
F. 用 AWS Glue ResolveChoice 內置轉換選擇列的最新值。
查看答案
正確答案: B
問題 #5
一家醫院使用可穿戴醫療傳感器設備收集病人的數據。該醫院正在構建一個近實時解決方案,能夠安全地大規模採集數據。該解決方案還應能從流數據中刪除患者的受保護健康信息 (PHI),並將數據存儲在持久存儲中。哪種解決方案能滿足這些要求,而且運行開銷最小?
A. 用 Amazon Kinesis Data Streams 接收數據,調用 AWS Lambda 函數(使用 Kinesis Client Library (KCL))移除所有 PH
B. 數據寫入 Amazon S3。
C. 用 Amazon Kinesis Data Firehose 接收數據,將數據寫入 Amazon S3。讓 Amazon S3 觸發 AWS Lambda 函數,解析傳感器數據,刪除 Amazon S3 中的所有 PHI。
D. 用 Amazon Kinesis 數據流將數據寫入 Amazon S3。讓數據流啓動一個 AWS Lambda 函數,解析傳感器數據並刪除 Amazon S3 中的所有 PHI。
E. 用 Amazon Kinesis Data Firehose 接收數據,將數據寫入 Amazon S3。執行轉換 AWS Lambda 函數,解析傳感器數據以移除所有 PHI。
查看答案
正確答案: A
問題 #6
三個數據分析師團隊在亞馬遜 EMR 集羣上使用 Apache Hive 和 EMR 文件系統 (EMRFS) 來查詢存儲在各團隊亞馬遜 S3 存儲桶中的數據。EMR 集羣啓用了 Kerberos,並配置爲從公司 Active Directory 對用戶進行身份驗證。數據高度敏感,因此訪問權限必須僅限於每個團隊的成員。哪些步驟可以滿足安全要求?
A. EMR 羣集 Amazon EC2 實例創建一個不授予訪問 Amazon S3 權限的服務角色。
B. 羣集的 EMR 角色中爲 EC2 信託 polic 添加其他 IAM 角色
C. 每個團隊的附加 IAM 角色到 Active Directory 用戶組創建安全配置映射。
D. EMR 羣集 Amazon EC2 實例創建一個服務角色,不授予訪問 Amazon S3 的權限。
E. EMR 羣集 EC2 實例的服務角色添加到附加 IAM 角色的信任策略中
F. 每個團隊的其他 IAM 角色到 Active Directory 用戶組創建安全配置映射。G
查看答案
正確答案: D
問題 #7
某公司推出了一項服務,每天產生數百萬條信息,並使用 Amazon Kinesis Data Streams 作爲流服務。該公司使用 Kinesis SDK 向 Kinesis Data Streams 寫入數據。啓動幾個月後,數據分析師發現寫入性能明顯降低。數據分析師對指標進行了調查,確定 Kinesis 對寫入請求進行了節流。數據分析師希望在不對架構進行重大更改的情況下解決這個問題。哪種方法
A. 加 Kinesis 數據流保留期,以減少節流。
B. Kinesis Agent 取代基於 Kinesis API 的數據攝取機制。
C. 用 UpdateShardCount API 增加數據流中的分片數量。
D. 擇分區鍵的方式應能使記錄在分區間均勻分布。
E. 製應用程序代碼,加入重試邏輯以提高性能。
查看答案
正確答案: D
問題 #8
某公司在 Amazon S3 中以圖像文件的形式存儲了 100 萬份掃描文檔。這些文檔包含打字申請表,信息包括申請人名、申請人姓、申請日期、申請類型和申請文本。該公司開發了一種機器學習算法,用於從掃描文件中提取元數據值。該公司希望讓內部數據分析師能夠通過申請人姓名、申請日期或申請類型來分析和查找申請。
A. 用對象標記爲每幅圖像添加元數據
B. 用 Amazon S3 Select 根據申請人姓名和申請日期檢索文件。
C. 許數據分析師使用 Kibana 向 Elasticsearch 集羣提交查詢。
D. Amazon Redshift 標籤中存儲圖像文件的元數據和 Amazon S3 位置。
E. 許數據分析師在表上運行臨時查詢。
F. Amazon S3 的 Apache Parquet 文件中存儲圖像文件的元數據和 Amazon S3 位置,並在 AWS Glue Data Catalo 中定義一個表 G
查看答案
正確答案: C

提交後看答案

請提交您的電子郵件和WhatsApp以獲取問題的答案。

注意:請確保您的電子郵件 ID 和 Whatsapp 有效,以便您獲得正確的考試結果。

電子郵件:
WhatsApp/電話號碼: