Un científico de datos necesita crear una solución de ingesta y análisis sin servidor para datos de streaming de alta velocidad y en tiempo real. El proceso de ingestión debe almacenar en búfer y convertir los registros entrantes de JSON a un formato columnar optimizado para consultas sin pérdida de datos. El almacén de datos de salida debe tener una alta disponibilidad, y los analistas deben poder ejecutar consultas SQL con los datos y conectarse a los cuadros de mando de inteligencia empresarial existentes. ¿Qué solución debería crear el científico de datos para satisfacer los requisitos?
A. Cree un esquema en el catálogo de datos de AWS Glue del formulario de datos entrantes
B. Utilice una transmisión de entrega de Amazon Kinesis Data Firehose para transmitir los datos y transformarlos a formato Apache Parquet u ORC mediante el catálogo de datos de AWS Glue antes de entregarlos a Amazon S3
C. Escriba cada registro JSON en una ubicación de almacenamiento en Amazon S3
D. Escriba cada registro JSON en una ubicación de almacenamiento en Amazon S3
E. Hacer que los analistas consulten y ejecuten cuadros de mando desde la base de datos RDS
F. Utilice Amazon Kinesis Data Analytics para ingerir los datos de streaming y realizar consultas SQL en tiempo real para convertir los registros a Apache Parquet antes de entregarlos a Amazon S3