データサイエンティストは、高速でリアルタイムのストリーミングデータのサーバーレス取り込みと分析ソリューションを作成する必要がある。取り込みプロセスでは、入力されたレコードをバッファリングし、JSONからクエリに最適化されたカラムナーフォーマットに変換する必要があります。出力データストアは可用性が高く、アナリストはデータに対してSQLクエリを実行し、既存のビジネスインテリジェンスダッシュボードに接続できなければなりません。この要件を満たすために、データサイエンティストはどのソリューションを構築すべきでしょうか?
A. AWS Glue Data Catalog に、受信データ形式のスキーマを作成する。
B. Amazon Kinesis Data Firehose配信ストリームを使用してデータをストリーミングし、Amazon S3に配信する前にAWS Glue Data Catalogを使用してデータをApache ParquetまたはORC形式に変換する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBlツールに接続する。
C. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用してAWS Lambda関数をトリガーし、データをApache ParquetまたはORCフォーマットに変換し、Amazon S3の処理済みデータロケーションにデータを書き込む。Analyst に Amazon Athena を使用して Amazon S3 から直接データをクエリさせ、Athena Java Database Connectivity (JDBC) コネクタを使用して Bl ツールに接続する。
D. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用して、データをApache ParquetまたはORC形式に変換し、Amazon RDS PostgreSQLデータベースに挿入するAWS Lambda関数をトリガーする。
E. アナリストに、RDS データベースからクエリを実行してダッシュボードを作成させる。
F. Amazon Kinesis Data Analyticsを使用してストリーミングデータを取り込み、リアルタイムのSQLクエリーを実行してレコードをApache Parquetに変換してからAmazon S3に配信する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBlツールに接続する。