すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

DAS-C01模擬試験で資格取得の準備をしよう, AWS認定データ分析|SPOTO

AWS認定Data Analyticsスペシャリストを目指していますか?DAS-C01試験の準備をするのは大変な作業ですが、適切なリソースを使用すれば、合格の可能性を大幅に高めることができます。SPOTOのDAS-C01模擬試験は、包括的かつ効果的な試験準備を提供するように設計されています。弊社のDAS-C01模擬試験問題集は精確に実際試験の範囲を絞ります。これらの模擬問題で練習することにより、データ収集、データ保管、データ処理、データモデリング、データ可視化、データセキュリティなど、試験で取り上げられるさまざまなトピックに触れることができます。SPOTOのDAS-C01模擬試験は単なる試験問題集ではなく、実際の試験環境を模擬した演習問題です。各問題の詳細な解説によって、あなたは正解を学ぶだけでなく、基礎となる概念についても深く理解することができます。
他のオンライン試験を受ける

質問 #1
ある企業がAmazon S3でデータレイクの構築を計画している。同社は、アクセスパターンとコスト目標に基づいて階層化されたストレージを作成したいと考えている。ソリューションには、レガシークライアントからのJDBC接続のサポート、アクセス制御のためのフェデレーションを可能にするメタデータ管理、PySparkとScalaを使用したバッチベースのETLが含まれていなければならない。運用管理は限定的でなければならない。これらの要件を満たすコンポーネントの組み合わせはどれか。(3つ選んでください)。
A. AWS Glue Data Catalogによるメタデータ管理
B. Amazon EMRとApache SparkによるETL
C. ScalaベースのETLのためのAWS Glue
D. JDBCクライアント用のApache Hiveを使用したAmazon EMR
E. JDBCドライバを使用してAmazon S3のデータをクエリするためのAmazon Athena
F. MySQL互換のバックアップされたメタストアを持つAmazon RDSを使用したApache HiveによるAmazon EMR
回答を見る
正解: A
質問 #2
ある企業は、Amazon S3からデータを検証・変換し、Amazon RDS for MySQLにロードするAWS Glueジョブを、毎日1回、バッチで複数開発している。ETLジョブはDynamicFrameを使用してS3データを読み込む。現在、ETL開発者は、AWS Glueジョブが各実行ですべてのS3入力データを処理するため、各実行で増分データのみを処理することに課題を感じている。開発者が最小限のコーディング作業でこの問題を解決するには、どのアプローチが有効でしょうか?
A. ETLジョブは、DataFrameを使用してAmazon S3からデータを読み込みます。
B. AWS Glueジョブのブックマークを有効にする。
C. ETLジョブにカスタムロジックを作成し、処理されたS3オブジェクトを追跡する。
D. ETLジョブは、各実行後に処理されたオブジェクトまたはデータをAmazon S3から削除します。
回答を見る
正解: B
質問 #3
月に一度、ある会社はgzipで圧縮された100MBの.csvファイルを受け取る。ファイルには50,000件の物件リストレコードが含まれ、Amazon S3 Glacierに保存されている。同社は、データアナリストが特定のベンダーについてデータのサブセットをクエリする必要があります。最も費用対効果の高いソリューションは何でしょうか?
A. Amazon S3にデータをロードし、Amazon S3 Selectでクエリを実行します。
B. Amazon Glacier Selectを使って、Amazon S3 Glacierのデータを直接クエリする。
C. Amazon S3にデータをロードし、Amazon Athenaでクエリを実行する。
D. Amazon S3にデータをロードし、Amazon Redshift Spectrumでクエリを実行する。
回答を見る
正解: B
質問 #4
ある企業はデータウェアハウスのニーズにAmazon Redshiftを使用している。ETLジョブは毎晩実行され、データをロードし、ビジネスルールを適用し、レポート用の集計テーブルを作成します。同社のデータ分析、データサイエンス、ビジネスインテリジェンスの各チームは、通常の業務時間中にデータウェアハウスを使用しています。ワークロード管理は自動に設定され、各チームごとに個別のキューが存在し、優先順位はNORMALに設定されている。最近、データ分析チームからの読み取りクエリが突然急増し、少なくとも毎日2回発生しています、
A. データ分析キューのクエリ優先度をHIGHESTに上げる。
B. データ分析キューを構成し、同時実行スケーリングを有効にする。
C. クエリ監視ルールを作成して、クエリがリソースを待機しているときに、データ分析キューのクラスタ容量を追加します。
D. ワークロード管理クエリキューホッピングを使用して、クエリを次にマッチするキューにルーティングします。
回答を見る
正解: C
質問 #5
ある広告会社はAmazon S3上にデータレイクを構築している。同社はAWS Glue Data Catalogを使ってメタデータを管理している。データレイクは数年前のもので、データソースとメタデータが追加でデータレイクに保存されたため、全体のサイズは指数関数的に増加している。データレイクの管理者は、Amazon S3とデータカタログ間の権限管理を簡素化し、同期を保つ仕組みを実装したいと考えています。 最小限の開発で権限管理を簡素化できるソリューションはどれでしょうか?
A. AWS Identity and Access Management (1AM) 権限を設定する tor AWS Glue
B. AWSレイクフォーメーションの使用許可
C. バケットポリシーを使ってAWS GlueとS3の権限を管理する
D. Amazon Cognitoユーザープールを使用する。
回答を見る
正解: AC
質問 #6
あるストリーミング・アプリケーションがAmazon Kinesis Data Streamsからデータを読み込み、10秒ごとにAmazon S3バケットにデータを書き込んでいる。アプリケーションは数百のシャードからデータを読み込んでいる。バッチ間隔は別の要件により変更できない。データはAmazon Athenaでアクセスされている。時間の経過とともにクエリパフォーマンスが低下している。クエリパフォーマンスを向上させるには、どのアクションが有効ですか?
A. Amazon S3にあるファイルをマージして、より大きなファイルにする。
B. Kinesis Data Streamsのシャード数を増やす。
C. ストリーミングアプリケーションにメモリとCPUの容量を追加する。
D. 複数のS3バケットにファイルを書き込む。
回答を見る
正解: D
質問 #7
あるオンライン小売企業は、Amazon Redshiftを使用して過去の売上トランザクションを保存しています。同社は、Payment Card Industry Data Security Standard(PCI DSS)に準拠するため、クラスタ内の静止データを暗号化する必要があります。コーポレートガバナンスポリシーでは、オンプレミスのハードウェアセキュリティモジュール(HSM)を使用した暗号化キーの管理を義務付けています。これらの要件を満たすソリューションはどれか。
A. AWS CloudHSM Classiを使用した暗号化キーの作成と管理
B. 鍵管理にCloudHSM Classicを使用するオプションのあるVPCでAmazon Redshiftクラスターを起動します。
C. VPCを作成し、VPCとオンプレミス・ネットワーク間のVPN接続を確立する。
D. オンプレミスHSのHSM接続とクライアント証明書を作成する
E. 鍵の保存にオンプレミスのHSMを使用するオプションを指定して、VPCでクラスタを起動する。
F. H
回答を見る
正解: A
質問 #8
ある航空会社は、分析用にフライトに関する指標を収集している。最近完了した概念実証は、定時出発を改善するためにデータアナリストに洞察を提供する方法を示している。概念実証では、.csv形式のメトリクスを含むAmazon S3のオブジェクトを使用し、データのクエリにAmazon Athenaを使用した。データ量が増えるにつれて、データアナリストはクエリのパフォーマンスを向上させるためにストレージソリューションを最適化したいと考えています。データアナリストは、クエリのパフォーマンスを向上させるために、どのオプションを使用すべきでしょうか?
A. パーティション間のスループットを上げるために、S3でキーの先頭にランダムな文字列を追加する。
B. Athenaと同じアカウントのS3バケットを使用する。
C. データ転送I/Oを減らすためにオブジェクトを圧縮する。
D. Athenaと同じリージョンにあるS3バケットを使用する。
E.
F.
回答を見る
正解: BC
質問 #9
あるオンライン小売企業は、レポーティングシステムをAWSに移行しようとしている。同社のレガシーシステムは、複雑なネストされた一連の Apache Hive クエリを使用してオンライントランザクションのデータ処理を実行している。トランザクションデータは1日に数回、オンラインシステムからレポートシステムにエクスポートされます。ファイル内のスキーマは更新間で安定しています。データアナリストは、データ処理を迅速にAWSに移行したいと考えているため、コードの変更は最小限に抑える必要がある。ストレージコストを低く抑えるために、データアナリストはt
A. Hiveメタデータを管理するAWS Glue Data Catalogを作成する
B. データの更新時に実行されるAWS GlueクローラーをAmazon S3上に作成し、データの変更が更新されるようにする。
C. Amazon EMRクラスタを作成し、AWS Glueデータカタログのメタデータを使用して、Amazon EMRでHive処理クエリを実行します。
D. AWS Glue Data Catalogを作成し、Hiveメタデータを管理する。
E. 一貫したビューを有効にするAmazon EMRクラスタを作成する
F. 各分析ステップの前にemrfs syncを実行し、データの変更が更新されるようにする G
回答を見る
正解: BD
質問 #10
ある運送会社は、トラックに取り付けたIoTセンサーを使って、世界規模の配送車両の車両データを収集している。同社は現在、センサーデータを小さな.csvファイルでAmazon S3に送信している。ファイルはその後、1ノードあたり2スライスの10ノードAmazon Redshiftクラスタにロードされ、Amazon AthenaとAmazon Redshiftの両方を使用してクエリされる。同社は、クエリのコストを削減し、Amazon Redshiftクラスタへのデータロードの速度を向上させるためにファイルを最適化したいと考えています。どのソリューションが
A. AWS Glueを使用して、すべてのファイルを
B. Amazon RedshiftにファイルをCOPYし、Amazon S3からAthenaでファイルをクエリする。
C. Amazon EMRを使用して、各
D. Amazon RedshiftにファイルをCOPYし、Amazon S3からAthenaでファイルをクエリする。
E. AWS Glue を使用して、ファイルを
F. F
回答を見る
正解: B
質問 #11
ある企業が、車両群を監視するサービスを構築している。同社は各車両のデバイスからIoTデータを収集し、ほぼリアルタイムでAmazon Redshiftにデータをロードする。車両の所有者は、車両の参照データを含む.csvファイルをAmazon S3に1日中異なる時間にアップロードする。毎晩のプロセスで、Amazon S3からAmazon Redshiftに車両参照データがロードされる。同社は、デバイスからのIoTデータと車両参照データを結合し、レポートやダッシュボードを作成する。車両所有者
A. S3 イベント通知を使用して、参照データが Amazon S3 にアップロードされたときに、直ちに車両参照データを Amazon Redshift にコピーする AWS Lambda 関数をトリガーします。
B. AWS Glue Sparkジョブを作成し、5分ごとに実行するようにスケジュールする。
C. このジョブはAmazon Redshiftに参照データを挿入します。
D. Amazon Kinesisデータストリームに参照データを送る
E. Kinesisデータストリームを構成して、参照データをAmazon Redshiftにリアルタイムで直接ロードする。
F. 参照データをAmazon Kinesis Data Firehose配信ストリーアに送る G
回答を見る
正解: D
質問 #12
ある企業が過去のデータを分析し、Amazon S3に保存されているデータを照会する必要があります。新しいデータは、Amazon S3に保存されている.csvファイルとして毎日生成されます。同社のアナリストは、Amazon Athenaを使用して、データ全体の最近のサブセットに対してSQLクエリを実行しています。Amazon S3に取り込まれるデータ量は時間とともに大幅に増加し、クエリのレイテンシも増加しています。クエリのパフォーマンスを向上させるために、どのソリューションを導入できますか?(2つ選んでください)。
A. Amazon EC2 インスタンスで MySQL Workbench を使用し、JDBC または ODBC コネクタを使用して Athena に接続する。
B. Athena から直接ではなく、MySQL Workbench からクエリを実行する。
C. Athena を使用してデータを抽出し、Apache Parquet フォーマットで日次ベースで保存する。
D. 抽出されたデータを照会する。
E. AWS Glue ETL ジョブを毎日実行し、データファイルを Apache Parquet に変換し、変換したファイルをパーティション分割する。
F. 定期的にAWS Glueクローラーを作成し、パーティショニングされたデータを毎日自動的にクロールする。G
回答を見る
正解: B
質問 #13
あるメディア分析会社がソーシャルメディア投稿のストリームを消費している。投稿は user_id でパーティショニングされた Amazon Kinesis データストリームに送信される。AWS Lambda関数がレコードを取得し、投稿をAmazon Elasticsearchクラスタにロードする前にコンテンツを検証する。検証プロセスでは、指定されたユーザーの投稿を受信順に受け取る必要があります。あるデータアナリストは、ピーク時にソーシャルメディアプラットフォームの投稿がElasticsearに表示されるまでに1時間以上かかることに気づきました。
A. 検証プロセスをAmazon Kinesis Data Firehoseに移行する。
B. Lambdaコンシューマーを標準のデータストリームイテレーターからHTTP/2ストリームコンシューマーに移行する。
C. ストリーム内のシャードの数を増やす。
D. ストリームを処理する複数のLambda関数を構成する。
回答を見る
正解: D

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: