すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

2024更新 DAS-C01試験問題&模擬テスト, AWS Certified Data Analytics | SPOTO

SPOTOで2024年更新のAWS Certified Data Analytics - Specialty (DAS-C01)のDAS-C01試験問題と模擬試験で合格を勝ち取りましょう。この認定資格は、データ分析の専門家にとって不可欠であり、分析ソリューションの設計、セキュリティ保護、管理のためにAWSサービスを活用する能力を証明します。当社の包括的なリソースには、試験問題と解答、模擬試験、および試験ダンプが含まれており、徹底した準備を保証します。サンプル問題、試験資料、解答にアクセスして、試験の練習と準備を強化してください。当社の試験シミュレータを利用して現実的な試験シナリオを作成し、オンライン試験問題や模擬試験であなたの準備態勢を評価します。SPOTOは、AWS Certified Data Analytics - Specialty (DAS-C01)試験で優れた成績を収め、データ分析の分野でキャリアアップするために必要なツールとサポートを提供します。

他のオンライン試験を受ける

質問 #1
ある企業が、個人を特定できる情報(PII)を含む販売・マーケティングデータをAmazon S3に保存しています。同社は、アナリストが独自のAmazon EMRクラスタを起動し、そのデータで分析レポートを実行できるようにしています。コンプライアンス要件を満たすために、同社はこのプロセスを通じてデータが一般にアクセスできないようにする必要があります。データエンジニアはAmazon S3を確保しましたが、アナリストが作成した個々のEMRクラスタが公共のインターネットに公開されないようにしなければなりません。どのソリューションが適切でしょうか?
A. EMRセキュリティ構成を作成し、EMRクラスタの作成時にセキュリティ構成がEMRクラスタに関連付けられていることを確認します。
B. EMRクラスタのセキュリティグループを定期的にチェックし、IPv4 0
C. EMRクラスタを作成する前に、アカウントレベルでAmazon EMRのパブリックアクセスをブロックする設定を有効にします。
D. AWS WAFを使用して、EMRクラスタへのパブリックインターネットアクセスを全面的にブロックする。
回答を見る
正解: C
質問 #2
ある銀行会社は現在、機密データ用にAmazon Redshiftを使用している。監査の結果、現在のクラスタは暗号化されていないことがわかりました。コンプライアンスでは、機密データを含むデータベースは、顧客が管理するキーを持つハードウェアセキュリティモジュール(HSM)を使用して暗号化する必要があります。
A. 新しいHSM暗号化Amazon Redshiftクラスタを作成し、新しいクラスタにデータを移行します。
B. DBパラメータ・グループを適切な暗号化設定で変更し、クラスタを再起動します。
C. コマンドラインを使用してAmazon RedshiftでHSM暗号化を有効にします。
D. コンソールから Amazon Redshift クラスターを変更し、HSM オプションを使用して暗号化を有効にします。
回答を見る
正解: A
質問 #3
ある企業が、Apache Flinkアプリケーションを構内でホストしている。このアプリケーションは、複数の Apache Kafka クラスタからのデータを処理する。これらのソースのいくつかを AWS に移行し、今度は Flink アプリケーションを移行したい。同社は、VPC内のデータベースに存在するデータがインターネットを横断しないことを保証しなければならない。
A. VPC内のアプリケーションとデータベースから来るデータを収集するために、VPC内にAmazon Managed Streaming for Apache Kafka (Amazon MSK)クラスタを作成する。 公共インターネットから来るデータを収集するために、Amazon Kinesis Data Streamsを使用する。 AWS Client VPNまたはAWS Direct Connectを使用して、Kinesis Data Streams Amazon MSKとオンプレミスのKafkaクラスタからのソースを持つようにFlinkを構成する。
B. Amazon Kinesis Data Streamsを使用して、VPC内のアプリケーションとデータベース、およびパブリックインターネットから来るデータを収集する。 AWS Client VPNまたはAWS Direct Connectを使用して、Kinesis Data StreamsとオンプレミスのKafkaクラスタからのソースを持つようにFlinkを構成する。
C. コンパイル済みのFlink jarファイルをアップロードして、Amazon Kinesis Data Analyticsアプリケーションを作成する Amazon Kinesis Data Streamsを使用して、VPCおよびパブリックインターネット内のアプリケーションとデータベースからデータを収集する AWS Client VPNまたはAWS Direct Connectを使用して、Kinesis Data StreamsとオンプレミスのKafkaクラスタからのソースを持つようにKinesis Data Analyticsアプリケーションを構成する
D. コンパイルされたFlink jarファイルをアップロードして、Amazon Kinesis Data Analyticsアプリケーションを作成する。 VPC内のアプリケーションとデータベースから来るデータを収集するために、会社のVPC内にAmazon Managed Streaming for Apache Kafka (Amazon MSK)クラスタを作成する。 公共インターネットから来るデータを収集するために、Amazon Kinesis Data Streamsを使用する。 Kinesis Data Streamからのソースを持つように、Kinesis Data Analyticsアプリケーションを構成する。
E. AWS Client VPN または AWS Direct Connect を使用する Amazon MSK およびオンプレミスの Kafka クラスター
回答を見る
正解: D
質問 #4
ある銀行がTeradataデータウェアハウスをAWSクラウドに移行したいと考えている。また、ストレージとコンピュートの分離を維持する必要がある。これらの要件を満たすソリューションはどれか?
A. Amazon Athenaを使用して、Amazon S3のデータを照会する。
B. 密なコンピュートノードでAmazon Redshiftを使用し、Amazon Redshiftマネージドストレージのデータをクエリする。
C. RA3ノードでAmazon Redshiftを使用し、Amazon Redshiftマネージドストレージのデータをクエリする。
D. Amazon EMRのPrestoDBを使用して、Amazon S3のデータをクエリします。
回答を見る
正解: B
質問 #5
ある電力会社は、電力消費に関するリアルタイムの最新情報を得るために数千台のスマートメーターを導入している。同社はスマートメーターからデータストリームを収集するためにAmazon Kinesis Data Streamsを使用している。コンシューマー・アプリケーションは、Kinesis Client Library(KCL)を使用してストリーム・データを取得する。消費者向けアプリケーションは1つしかない。同社では、レコードがストリームに書き込まれてから、コンシューマー・アプリケーションによってレコードが読み取られるまで、平均1秒の待ち時間を観測している。
A. Kinesisデータストリームで拡張ファンアウトを使用する。
B. Kinesisデータストリームのシャード数を増やす。
C. KCLのデフォルト設定を上書きすることで、伝搬遅延を減らす。
D. Amazon Kinesis Data Firehoseを使用してコンシューマを開発する。
回答を見る
正解: C
質問 #6
あるソフトウェア会社は、AWS上でアプリケーションをホストしており、毎週新機能がリリースされる。アプリケーションのテストプロセスの一環として、各デプロイ後にアプリケーションが期待通りに動作していることを確認するために、各Amazon EC2インスタンスからのログを分析するソリューションを開発する必要がある。収集・分析ソリューションは、新しい情報を最小限の遅延で表示できる可用性の高いものでなければならない。ログの収集と分析には、どの方法を使用すべきでしょうか。
A. Amazon EC2で詳細な監視を有効にし、Amazon CloudWatchエージェントを使用してAmazon S3にログを保存し、Amazon Athenaを使用して高速でインタラクティブなログ分析を行う。
B. Amazon EC2上のAmazon Kinesis Producer Library (KPL)エージェントを使用してデータを収集し、Kinesis Data Streamsにデータを送信して、さらにAmazon Elasticsearch Serviceにデータをプッシュし、Amazon QuickSightを使用して可視化する。
C. Amazon EC2上のAmazon Kinesis Producer Library (KPL)エージェントを使用してデータを収集し、Kinesis Data Firehoseにデータを送信して、Amazon Elasticsearch ServiceとKibanaにデータをプッシュする。
D. Amazon CloudWatch サブスクリプションを使用して、ログのリアルタイムフィードにアクセスし、ログを Amazon Kinesis Data Streams に配信して、データを Amazon Elasticsearch Service と Kibana にプッシュします。
回答を見る
正解: C
質問 #7
ある企業は、Amazon S3からデータを検証・変換し、Amazon RDS for MySQLにロードするAWS Glueジョブを、毎日1回、バッチで複数開発している。ETLジョブはDynamicFrameを使用してS3データを読み込む。現在、ETL開発者は、AWS Glueジョブが各実行ですべてのS3入力データを処理するため、各実行で増分データのみを処理することに課題を感じています。どのアプローチが、開発者が最小限のコーディング作業で問題を解決できるでしょうか?
A. ETLジョブは、DataFrameを使用してAmazon S3からデータを読み込みます。
B. AWS Glueジョブのブックマークを有効にする。
C. ETLジョブにカスタムロジックを作成し、処理されたS3オブジェクトを追跡する。
D. ETLジョブは、各実行後に処理されたオブジェクトまたはデータをAmazon S3から削除します。
回答を見る
正解: D
質問 #8
ある病院では、患者からデータを収集するためにウェアラブル医療センサー機器を使用している。この病院は、データを安全に取り込むことができるニアリアルタイム・ソリューションを構築しています。このソリューションはまた、ストリーミング・データから患者の保護された医療情報(PHI)を除去し、データを耐久性のあるストレージに保存できなければなりません。どのソリューションが、最小の運用オーバーヘッドでこれらの要件を満たすでしょうか?
A. Amazon Kinesis Data Streamsを使用してデータを取り込み、Kinesis Client Library (KCL)を使用してAWS Lambda関数を呼び出し、すべてのPHIを削除する。Amazon S3にデータを書き込む。
B. Amazon Kinesis Data Firehoseを使ってデータをAmazon S3に書き込む。Amazon S3にセンサーデータを解析するAWS Lambda関数をトリガーさせ、Amazon S3内のすべてのPHIを削除する。
C. Amazon Kinesis Data Streamsを使ってデータをAmazon S3に書き込む。データストリームは、センサーデータを解析し、Amazon S3内のすべてのPHIを削除するAWS Lambda関数を起動します。
D. Amazon Kinesis Data Firehoseを使ってデータをAmazon S3に書き込む。センサーデータを解析してすべてのPHIを削除する変換AWS Lambda関数を実装する。
回答を見る
正解: C
質問 #9
ある企業が毎日数百万件のメッセージを生成するサービスを立ち上げ、ストリーミング・サービスとしてAmazon Kinesis Data Streamsを使用している。同社はKinesis SDKを使用してKinesis Data Streamsにデータを書き込んでいる。同社はKinesis SDKを使用してKinesis Data Streamsにデータを書き込んでいます。立ち上げから数カ月後、データアナリストが書き込みパフォーマンスが大幅に低下していることを発見しました。データアナリストはメトリクスを調査し、Kinesisが書き込みリクエストをスロットリングしていると判断した。データアナリストは、アーキテクチャに大きな変更を加えることなく、この問題に対処したいと考えています。
A. Kinesis Data Streamsの保持期間を長くして、スロットリングを減らす。
B. Kinesis APIベースのデータ取り込みメカニズムをKinesis Agentに置き換える。
C. UpdateShardCount API を使用して、ストリーム内のシャードの数を増やす。
D. シャード間で均一なレコード分布になるようにパーティション・キーを選択する。
E. パフォーマンスを向上させるために、再試行ロジックを含むようにアプリケーションコードをカスタマイズする。
回答を見る
正解: AC
質問 #10
ある企業は、ログデータを含むオブジェクトを JSON 形式で保存する必要がある。オブジェクトは、AWSで稼働する8つのアプリケーションによって生成される。そのうちの6つのアプリケーションは1秒間に合計500KiBのデータを生成し、そのうちの2つのアプリケーションは1秒間に最大2MiBのデータを生成することができます。あるデータエンジニアは、Amazon S3バケットに使用量データをキャプチャして保存するためのスケーラブルなソリューションを実装したいと考えています。利用データオブジェクトは再フォーマットされ、.csv形式に変換され、Amazon S3に保存される前に圧縮される必要がある。
A. 各アプリケーション用に Amazon Kinesis Data Firehose 配信ストリームを構成する。各アプリケーションのストリームからログデータオブジェクトを読み取るAWS Lambda関数を記述する。関数に再フォーマットと
B. アプリケーションごとに1つのシャードを持つAmazon Kinesisデータストリームを構成する。シャードから使用量データオブジェクトを読み取るAWS Lambda関数を書く。関数は、データの
C. 各アプリケーションに対してAmazon Kinesisデータストリームを構成する。各アプリケーションのストリームから使用量データオブジェクトを読み取る AWS Lambda 関数を記述します。関数は、データの
D. 利用データオブジェクトをAmazon DynamoDBテーブルに格納する。オブジェクトをS3バケットにコピーするためにDynamoDBストリームを構成する。オブジェクトがS3バケットに書き込まれたときにトリガーされるようにAWS Lambda関数を構成する。関数はオブジェクトを
回答を見る
正解: B
質問 #11
ある企業が、Amazon S3バケットに.csvファイルをアップロードしています。会社のデータプラットフォームチームは、AWS Glueクローラーをセットアップし、ディスカバリーを行い、テーブルとスキーマを作成する。AWS Glueジョブは、作成されたテーブルから処理されたデータをAmazon Redshiftデータベースに書き込む。AWS Glueジョブは、カラムマッピングとAmazonRedshiftテーブルの作成を適切に処理します。AWS Glueジョブが1日のうちに何らかの理由で再実行されると、重複レコードがAmazon Redshiftテーブルに導入されます。
A. AWS Glue ジョブを変更して、ステージングテーブルに行をコピーする。メインテーブルの既存の行を置き換える SQL コマンドを、DynamicFrameWriter クラスの postaction として追加する。
B. AWS Glueジョブで、以前に挿入したデータをMySQLデータベースにロードする。MySQLでupsert操作を行い、結果をAmazon Redshiftのテーブルにコピーする。
C. Apache SparkのDataFrame dropDuplicates()APIを使って重複を排除し、Amazon Redshiftにデータを書き込む。
D. AWS Glue ResolveChoice 組み込みの変換を使用して、列の最新の値を選択します。
回答を見る
正解: B
質問 #12
ある企業が、自動機械学習(ML)ランダムカットフォレスト(RCF)アルゴリズムを使用して、季節性や傾向の検出、外れ値の除外、欠損値の代入など、複雑な実世界のシナリオを可視化したいと考えています。このプロジェクトに取り組んでいるチームは技術者ではなく、管理オーバーヘッドが最も少なくて済む、すぐに使えるソリューションを探しています。
A. AWS Glue ML トランスフォームを使用して予測を作成し、Amazon QuickSight を使用してデータを可視化します。
B. Amazon QuickSightを使ってデータを可視化し、MLを使った予測で主要なビジネス指標を予測する。
C. AWS MarketplaceからプレビルドのML AMIを使用して予測を作成し、Amazon QuickSightを使用してデータを可視化する。
D. 計算フィールドを使用して新しい予測を作成し、Amazon QuickSightを使用してデータを視覚化します。
回答を見る
正解: A
質問 #13
ある企業では、アプリケーション・ロード・バランサー(ALB)の背後に複数のAmazon EC2インスタンスを配置しています。ALBは、アクセス・ログをAmazon S3に保存するように構成されています。アクセス・ログは毎日約1TBのデータを作成し、データへのアクセスは頻繁ではありません。
A. Amazon Redshiftにデータをコピーし、クエリを実行する。
B. Amazon EMR と Apache Hive を使用して、S3 データをクエリします。
C. Amazon Athenaを使ってS3データをクエリする。
D. Amazon Redshift Spectrumを使用して、S3データをクエリします。
回答を見る
正解: D
質問 #14
ある企業は暗号化されたAmazon Redshiftクラスタを持っています。同社は最近Amazon Redshiftの監査ログを有効にし、監査ログが静止状態でも暗号化されていることを確認する必要があります。ログは1年間保持されます。監査人は月に1回ログを照会します。これらの要件を満たすための最も費用対効果の高い方法は何でしょうか?
A. AWS Key Management Service (AWS KMS)を使用して、ログが保存されているAmazon S3バケットを暗号化する。Amazon S3からAmazon Redshiftクラスタに毎日データをコピーする。
B. 必要に応じてデータを照会する。
C. Amazon Redshiftクラスタの暗号化を無効にし、監査ログを構成し、Amazon Redshiftクラスタを暗号化する。
D. Amazon Redshift Spectrumを使用して、必要に応じてデータをクエリする。
E. ログが保存されているAmazon S3バケットで、AES-256暗号化を使用してデフォルトの暗号化を有効にする。
F. 毎日Amazon S3からAmazon Redshiftクラスタにデータをコピーする G
回答を見る
正解: B
質問 #15
ある金融サービス会社が、取引所から日々の株式取引データをデータストアに集約する必要がある。同社はデータをデータストアに直接ストリーミングすることを要求しているが、SQLを使用してデータを変更することもできる。ソリューションは、最小限のレイテンシーで実行される複雑な分析クエリを統合する必要があります。ソリューションは、株価の異常の主な要因を表示できるビジネス・インテリジェンス・ダッシュボードを提供する必要があります。どのソリューションがこの会社の要件を満たすでしょうか?
A. Amazon Kinesis Data Firehoseを使ってAmazon S3にデータをストリーミングする。Amazon AthenaをAmazon QuickSightのデータソースとして使用し、ビジネスインテリジェンスダッシュボードを作成する。
B. Amazon Kinesis Data Streamsを使ってAmazon Redshifにデータをストリーミングする。
C. Amazon QuickSightのデータソースとしてAmazon Redshiftを使用し、ビジネスインテリジェンスダッシュボードを作成します。
D. Amazon Kinesis Data Firehoseを使ってAmazon Redshifにデータをストリーミングする。
E. Amazon QuickSightのデータソースとしてAmazon Redshiftを使用し、ビジネスインテリジェンスダッシュボードを作成する。
F. Amazon Kinesis Data Streamsを使ってAmazon S3にデータをストリーミングする。Amazon AthenaをAmazon QuickSightのデータソースとして使用し、ビジネスインテリジェンスダッシュボードを作成する。
回答を見る
正解: CD
質問 #16
ある企業がデータレイクを構築中で、時系列データを持つリレーショナルデータベースからデータを取り込む必要がある。同社はこれを達成するためにマネージドサービスを使用したいと考えています。このプロセスは毎日スケジュールされる必要があり、ソースからの増分データのみをAmazon S3に取り込む必要があります。これらの要件を満たすための最も費用対効果の高いアプローチは何ですか?
A. AWS Glueを使用して、JDBCドライバを使用してデータソースに接続する。ジョブブックマークを使用して増分レコードのみを取り込む。
B. AWS Glueを使用して、JDBCドライバを使用してデータソースに接続する。最後に更新されたキーをAmazon DynamoDBテーブルに保存し、更新されたキーをフィルターとして使用してデータをインジェストする。
C. AWS Glue を使用して、JDBC ドライバを使用してデータソースに接続し、データセット全体を取り込む。適切な Apache Spark ライブラリを使用してデータセットを比較し、差分を見つける。
D. AWS Glue を使用して、JDBC ドライバを使用してデータソースに接続し、完全なデータを取り込む。AWS DataSyncを使用して、デルタのみがAmazon S3に書き込まれるようにする。
回答を見る
正解: B
質問 #17
ある大規模大学では、在籍学生の多様性を高めるという戦略目標を掲げている。データ分析チームは、利害関係者が過去の傾向を閲覧できるように、データを視覚化したダッシュボードを作成しています。すべてのアクセスは、Microsoft Active Directoryを使用して認証する必要があります。転送中および静止中のデータはすべて暗号化する必要があります。これらの要件を満たすソリューションはどれか。
A. SAML 2
B. SAML 2
C. ActiveDirectoryを使用して認証するためにAD Connectorを使用するAmazon QuckSight Standardエディション。AWS KMSにインポートされた顧客提供のキーを使用するようにAmazon QuickSightを構成します。
D. AD Connectorを使用してActive Directoryを使用して認証するAmazon QuickSight Enterpriseエディション。AWS KMSにインポートされた顧客提供のキーを使用するようにAmazon QuickSightを構成します。
回答を見る
正解: A
質問 #18
ある企業がAmazon Redshiftをデータウェアハウスとして使用している。新しいテーブルには、機密データを含むいくつかの列と、非機密データを含むいくつかの列があります。データ分析のスペシャリストは、会社の監査チームのメンバーだけが機密データを含む列を読めるようにしなければなりません。データ分析の専門家は、会社の監査チームのメンバーだけが機密データを含む列を読めるようにしなければなりません。
A. 監査チームにテーブルからの読み取り権限を与える。非機密データを含む列を 2 番目のテーブルにロードします。適切なユーザに、2 番目のテーブルの読み取り専用権限を付与します。
B. 非機密データを含む列に対して、すべてのユーザに読み取り専用権限を付与する。GRANT SELECT コマンドを使用して、監査チームに機密データを含む列へのアクセスを許可する。
C. 非機密データを含む列に対して、すべてのユーザに読み取り専用権限を付与する。監査チームに明示的な IAM ポリシーを添付する。機密データを含む列へのアクセスを許可するアクションを設定する。
D. 監査チームにテーブルからの読み取り権限を付与する。非機密データを含む列を含むテーブルのビューを作成します。そのビューに対して、適切なユーザに読み取り専用権限を付与する。
回答を見る
正解: D
質問 #19
ある市場データ会社が、外部データソースを集約して、各国の製品消費に関する詳細なビューを作成している。同社は、このデータをサブスクリプションを通じて外部に販売したいと考えている。この目標を達成するために、同社はAWSユーザーでもある外部の関係者がデータを安全に利用できるようにする必要がある。運用上のオーバーヘッドを最小限に抑えながらこれらの要件を満たすために、同社は何をすべきでしょうか?
A. Amazon S3にデータを保存する。セキュリティのために署名されたURLを使用してデータを共有する。
B. Amazon S3にデータを保存する。S3バケットACLを使用してデータを共有する。
C. データをAWS Data Exchangeにアップロードして保存する。
D. セキュリティのために署名済みのURLを使用してデータを共有する。
E. データをAWS Data Exchangeにアップロードして保存する。
F. AWS Data Exchange共有ウィザードを使用してデータを共有します。
回答を見る
正解: A
質問 #20
データサイエンティストのチームが、自社の新しい投資戦略のために市場トレンドデータの分析を計画している。トレンドデータは5つの異なるデータソースから大量に送られてくる。チームはAmazon Kinesisを利用してユースケースをサポートしたいと考えている。チームはSQLのようなクエリーを使用してトレンドを分析し、トレンドの特定の重要なパターンに基づいて通知を送信したいと考えている。さらに、データサイエンティストは、アーカイブと履歴の再処理のためにAmazon S3にデータを保存し、AWSのマネージドサービスを使用したいと考えている。
A. データを1つのKinesisデータストリームにパブリッシュする
B. Kinesis Client Library (KCL) を使用してカスタムアプリケーションをデプロイし、Amazon SN
C. KinesisデータストリームでKinesis Data Firehoseを構成し、データをS3バケットに永続化する。
D. データを1つのKinesisデータストリーにパブリッシュする
E. トレンドを分析するためにKinesis Data Analyticをストリームにデプロイし、Amazon SNを使用して通知を送信するための出力としてAWS Lambda関数を構成します。
F. F
回答を見る
正解: C
質問 #21
ある製造会社は、1年前から工場内のデバイスからIoTセンサーデータを収集し、毎日分析するためにAmazon Redshiftにデータを保存している。データアナリストは、1日あたり約2TBの取り込みレートを想定した場合、4ヶ月以内にクラスタのサイズが不足すると判断した。長期的なソリューションが必要です。データアナリストによると、ほとんどのクエリは直近の13カ月分のデータしか参照しないが、すべてのデータをクエリする必要がある四半期レポートもある。
A. AWS Glueで毎日ジョブを作成し、13ヶ月以上前のレコードをAmazon S3にUNLOADし、それらのレコードをAmazon Redshiftから削除する。Amazon Redshiftで外部テーブルを作成し、S3の場所を指定します。Amazon Redshift Spectrumを使用して、13ヶ月より古いデータに結合する。
B. Amazon Redshiftクラスタのスナップショットを取る。ストレージ容量を追加した高密度ストレージノードを使用して、クラスタを新しいクラスタにリストアする。
C. CREATE TABLE AS SELECT (CTAS) ステートメントを実行し、13ヶ月より古いレコードをAmazon S3でバックアップされたAmazon Redshift Spectrumの四半期ごとにパーティショニングされたデータに移動します。
D. S3 Intelligent-Tieringを使用して、Amazon RedshiftのすべてのテーブルをAmazon S3バケットにアンロードする。AWS Glueを使用してS3バケットの場所をクロールし、AWS Glue Data Catalogに外部テーブルを作成する。日々の分析ニーズにはAuto Scalingを使用してAmazon EMRクラスタを作成し、四半期レポートにはAmazon Athenaを使用し、どちらも同じAWS Glue Data Catalogを使用する。
回答を見る
正解: B
質問 #22
データ分析のスペシャリストが、Amazon S3バケットにアップロードされた圧縮ファイルを取り込むために、AWS Glueを使用して自動化されたETL取り込みパイプラインを構築している。インジェストパイプラインは、増分データ処理をサポートする必要があります。この要件を満たすために、データ分析のスペシャリストが使用すべきAWS Glueの機能はどれですか?
A. ワークフロー
B. トリガー
C. 仕事のしおり
D. 分類器
回答を見る
正解: D

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: