數據科學家需要爲高速、實時的流數據創建一個無服務器攝取和分析解決方案。攝取流程必須緩衝傳入記錄,並將其從 JSON 轉換爲查詢優化的列格式,且不會丟失數據。輸出數據存儲必須高度可用,分析師必須能夠針對數據運行 SQL 查詢並連接到現有的商業智能儀錶板。數據科學家應該構建哪種解決方案來滿足要求?
A. AWS Glue 數據目錄中創建傳入數據形式的模式
B. 用 Amazon Kinesis Data Firehose 交付流來流式傳輸數據,並在將數據交付到 Amazon S3 之前使用 AWS Glue 數據目錄將數據轉換爲 Apache Parquet 或 ORC 格式。讓分析師使用 Amazon Athena 直接從 Amazon S3 查詢數據,並使用 Athena Java Database Connectivity (JDBC) 連接器連接到 Bl 工具。
C. 每條 JSON 記錄寫入 Amazon S3 中的暫存位置。使用 S3 Put 事件觸發 AWS Lambda 函數,將數據轉換爲 Apache Parquet 或 ORC 格式,並將數據寫入 Amazon S3 中的處理數據位置。讓分析師使用 Amazon Athena 直接從 Amazon S3 查詢數據,並使用 Athena Java Database Connectivity (JDBC) 連接器連接到 Bl 工具。
D. 每條 JSON 記錄寫入 Amazon S3 中的暫存位置。使用 S3 Put 事件觸發 AWS Lambda 函數,將數據轉換爲 Apache Parquet 或 ORC 格式,並插入 Amazon RDS PostgreSQL 數據庫。
E. 分析師從 RDS 數據庫中查詢和運行儀錶盤。
F. 用 Amazon Kinesis Data Analytics 接收流數據,並執行實時 SQL 查詢,將記錄轉換爲 Apache Parquet,然後再傳輸到 Amazon S3。讓分析師使用 Amazon Athena 直接從 Amazon S3 查詢數據,並使用 Athena Java Database Connectivity (JDBC) 連接器連接 Bl 工具。