すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

模擬試験でDAS-C01に合格しよう!2024年更新、AWS Certified Data Analytics|SPOTO

AWS Certified Data Analytics - Specialty(DAS-C01)認定資格は、AWSプラットフォーム上でのデータ分析ソリューションの設計、構築、セキュリティ保護、および保守に関する専門知識を認定するものです。2024年の試験サイクルで成功するためには、最新の試験目標と業界動向を常に把握することが重要です。SPOTOはDAS-C01試験の進歩する要件に合わせるために定期的にアップデートされる模擬試験、試験問題集とサンプル問題を提供しています。弊社のDAS-C01試験問題集は精確に実際試験の範囲を絞ります。弊社の模擬試験および試験シミュレーターを利用することによって、受験者は知識のギャップを認識し、自分の長所を強化し、効果的な受験戦略を立てることができます。当社の試験準備リソースは、実際の試験環境をシミュレートするように設計されており、受験者が遭遇する可能性のある形式、問題タイプ、時間管理の課題に対して十分な準備ができることを保証します。
他のオンライン試験を受ける

質問 #1
あるデータアナリストが AWS Glue を使って、200GB のデータセットを整理、クレンジング、検証、フォーマットしている。データアナリストは、Standard ワーカータイプでジョブを実行するようにトリガーしました。3時間後、AWS GlueのジョブステータスはまだRUNNINGです。ジョブの実行ログにはエラーコードはありません。データアナリストは、オーバープロビジョニングせずにジョブの実行時間を改善したいと考えています。データアナリストはどのアクションを取るべきか?
A. AWS Glueのジョブブックマークを有効にして、データ処理ユニット(DPU)数を見積もる。プロファイルされたメトリクスに基づいて、executor- cores ジョブパラメータの値を増やします。
B. AWS Glueのジョブメトリクスを有効にして、データ処理ユニット(DPU)数を見積もる。プロファイルされたメトリクスに基づいて、最大キャパシティジョブパラメータの値を増やします。
C. AWS Glueでジョブメトリクスを有効にして、データ処理ユニット(DPU)数を見積もる。プロファイルされたメトリクスに基づいて、spark
D. AWS Glueのジョブブックマークを有効にして、データ処理ユニット(DPU)の数を見積もる。プロファイルされたメトリクスに基づいて、num- executors ジョブパラメータの値を増やします。
回答を見る
正解: B
質問 #2
あるeコマース企業が、ビジネスインテリジェンス環境をオンプレミスからAWSクラウドに移行しようとしている。同社はパブリックサブネットのAmazon RedshiftとAmazon QuickSightを使用する。テーブルは既にAmazon Redshiftにロードされており、SQLツールでアクセスできる。同社は初めてQuickSightを起動する。データソースの作成中に、データ分析のスペシャリストがすべての情報を入力し、接続を検証しようとしました。次のメッセージのエラーが発生しました:「データ・ソースの作成
A. Amazon RedshiftテーブルにSELECT権限を付与する。
B. QuickSightのIPアドレス範囲をAmazon Redshiftのセキュリティグループに追加します。
C. QuickSightがAmazon RedshiftにアクセスするためのIAMロールを作成します。
D. データセットの作成にはQuickSight管理者ユーザーを使用してください。
回答を見る
正解: C
質問 #3
ある金融会社はAmazon S3をデータレイクとして使用し、マルチノードのAmazon Redshiftクラスタを使用してデータウェアハウスを構築しました。データレイク内のデータファイルは、各データファイルのデータソースに基づいてフォルダに編成されています。すべてのデータファイルは、データファイルの場所ごとに個別のCOPYコマンドを使用して、Amazon Redshiftクラスタの1つのテーブルにロードされます。このアプローチでは、Amazon Redshiftへの全てのデータファイルのロードには長い時間がかかります。ユーザは、ほとんど、あるいは全く影響を与えることなく、より高速なソリューションを求めています。
A. Amazon EMRを使用して、すべてのデータファイルを1つのフォルダにコピーし、COPYコマンドを発行してAmazon Redshiftにデータをロードします。
B. すべてのデータファイルをAmazon Auroraに並行してロードし、AWS Glueジョブを実行してAmazon Redshiftにデータをロードする。
C. AWS Glueジョブを使用して、すべてのデータファイルを1つのフォルダにコピーし、COPYコマンドを発行してAmazon Redshiftにデータをロードします。
D. データファイルの場所を含むマニフェストファイルを作成し、COPYコマンドを発行してAmazon Redshiftにデータをロードします。
回答を見る
正解: D
質問 #4
ある大手通信会社は、AWS上で稼働する複数のデータソースに対して、データカタログとメタデータ管理のセットアップを計画している。カタログは、データストアに格納されているすべてのオブジェクトのメタデータを管理するために使用される。データストアは、Amazon RDSやAmazon Redshiftのような構造化ソースと、Amazon S3に格納されたJSONやXMLファイルのような半構造化ソースで構成されている。カタログは定期的に更新され、オブジェクトのメタデータの変更を検出できなければなりません。
A. Amazon Auroraをデータ・カタロとして使用する。
B. AWS Lambda関数を作成し、複数のソースからメタデータ情報を接続・収集し、Aurorのデータカタログを更新する。
C. ラムダ関数を定期的にスケジュールする。
D. AWS Glue Data Catalog を中央メタデータリポジトリとして使用する。
E. AWS Glue クローラーを使用して複数のデータストアに接続し、メタデータの変更でデータカタログを更新する。
F. F
回答を見る
正解: D
質問 #5
ある大手ライドシェア企業は、数千人のドライバーを世界中に抱え、毎日数百万人のユニークな顧客にサービスを提供しています。同社は既存のデータマートをAmazon Redshiftに移行することにしました。既存のスキーマには以下のテーブルがあります。完了した乗車に関する情報のためのtripsファクトテーブル。運転手のプロファイルを格納するdriversディメンションテーブル。顧客プロファイル情報を保持する顧客ファクトテーブル。同社は、地域別の収益性を調べるために、日付と目的地別にトリップの詳細を分析します。運転手データ
A. トリップテーブルにDISTSTYLE KEY(目的地)を使用し、datでソートします。
B. 運転手テーブルと顧客テーブルにDISTSTYLE ALLを使用する。
C. トリップテーブルにDISTSTYLE EVENを使用し、datでソートする。
D. driversテーブルにDISTSTYLE ALLを使用します。customersテーブルにDISTSTYLE EVENを使用します。
E. トリップテーブルにDISTSTYLE KEY (目的地)を使用し、datでソートします。
F. G
回答を見る
正解: B
質問 #6
あるデータアナリストは、アプリケーションによって生成された複数のデータセットをAmazon QuickSightで可視化しています。各アプリケーションは、個別のAmazon S3バケット内にファイルを保存する。AWS Glue Data Catalogは、Amazon S3内のすべてのアプリケーションデータのセントラルカタログとして使用されます。新しいアプリケーションは、そのデータを別のS3バケット内に保存する。新しいアプリケーションデータソースを含むようにカタログを更新した後、データアナリストは、Amazon Athenaテーブルから新しいAmazon QuickSightデータソースを作成しましたが、インポ
A. Amazon QuickSightコンソールからAWS Glue Data Catalogの権限を編集します。
B. Amazon QuickSightコンソールから新しいS3バケットの権限を編集します。
C. AWS GlueコンソールからAWS Glue Data Catalogの権限を編集する。
D. S3コンソールから新しいS3バケットのパーミッションを編集します。
回答を見る
正解: B
質問 #7
ある企業は、アプリケーションのログをほぼリアルタイムでリッチ化し、リッチ化されたデータセットをさらなる分析に使用したいと考えている。アプリケーションは、複数のアベイラビリティゾーンにまたがるAmazon EC2インスタンスで実行され、Amazon CloudWatch Logsを使用してログを保存している。エンリッチメントソースは、Amazon DynamoDBテーブルに格納されています。どのソリューションがイベント収集とエンリッチメントの要件を満たしていますか?
A. CloudWatch Logsサブスクリプションを使用して、Amazon Kinesis Data Firehosにデータを送信する。
B. AWS Lambdaを使用して、Kinesis Data Firehose配信ストリームのデータを変換し、DynamoDBタブ内のデータとリッチ化する。
C. Kinesis Data Firehoseの配信先としてAmazon S3を構成する。
D. AWS CLを使用して、生のログを1時間ごとにAmazon S3にエクスポートします。
E. AWS Glue クローラーを使用して、ログをカタログ化する。
F. F
回答を見る
正解: A
質問 #8
ある企業がAmazon Redshiftをデータウェアハウスとして使用している。新しいテーブルには機密データを含むカラムがあります。このテーブルのデータは最終的に、1日に何度も実行される複数の既存のクエリによって参照されることになる。データアナリストは1000億行のデータを新しいテーブルにロードする必要がある。その前に、データアナリストは、監査グループのメンバーだけが機密データを含む列を読み取れるようにしなければなりません。データアナリストは、メンテナンスのオーバーヘッドを最小限に抑えながら、これらの要件を満たすにはどうすればよいでしょうか?
A. すべてのデータを新しいテーブルにロードし、監査グループにそのテーブルからの読み取り権限を付与する。
B. 機密データを含む列を除くすべてのデータを2番目のタブにロードする。
C. 適切なユーザに、2 番目のテーブルに対する読み取り専用権限を付与する。
D. すべてのデータを新しいテーブルにロードし、監査グループにそのテーブルからの読み取り権限を付与する。
E. GRANT SQL コマンドを使用して、適切なユーザーに列のサブセットへの読み取り専用アクセスを許可します。
F. 監査グループに、機密データ列への明示的なALLOWアクセスを持つIAMポリシーをアタッチする。G
回答を見る
正解: C

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: