すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

DAS-C01試験対策:学習教材&模擬試験、AWS認定データ分析|SPOTO

SPOTO'のAWS Certified Data Analytics - Specialty (DAS-C01)の学習教材と模擬試験で、DAS-C01試験に効果的に備えましょう。この認定資格は、データ分析のプロフェッショナルにとって非常に重要であり、分析ソリューションの設計、セキュリティ保護、管理のためにAWSサービスを利用する能力を証明します。弊社の学習教材は、試験問題と解答、模擬試験、サンプル問題、試験ダンプなど、さまざまなトピックをカバーしており、重要な概念を完全に理解することができます。試験の資料、解答、現実的な練習シナリオのための試験シミュレータにアクセスします。オンライン試験問題や模擬試験で、あなたの準備態勢を評価し、試験のパフォーマンスを向上させます。SPOTOは、AWS Certified Data Analytics - Specialty (DAS-C01)試験で優れた成績を収め、データ分析の分野でキャリアアップするために必要なリソースとサポートを提供します。

他のオンライン試験を受ける

質問 #1
遠隔地の建設現場から気象状況を監視している会社が、以下の2つの測候所から気温データを収集するソリューショ ンを設定している。ステーションA(センサー10個) ステーションB(センサー5個) これらのウェザーステーションは、現場の専門家によって設置された。各センサーには固有のIDがある。各センサーから収集されたデータは、Amazon Kinesis Data Streamsを使用して収集される。送受信データの合計スループットに基づいて、1つのAmazon Kinesisデータ・ストリー
B. 検証の結果、ストリームの総スループットが割り当てられたKinesis Data Streamsのスループットを下回っていることが確認されました。データ収集の品質要件を維持しながら、ソリューションの全体的なコストと複雑さを増加させることなく、このボトルネックを解決するにはどうすればよいでしょうか?
A. Kinesis Data Streamsのシャード数を増やして並列度を上げる。
B. Station A 用に 2 つのシャードを持つ別の Kinesis データストリームを作成し、Station A のセンサーデータを新しいストリームにストリーミングする。
C. ステーション名の代わりにセンサーIDを使用するようにパーティションキーを変更する。
D. ステーション A のセンサーの数を 10 個から 5 個に減らす。
回答を見る
正解: C
質問 #2
ある保険会社はJSON形式の生データをAmazon Kinesis Data Firehose配信ストリームを通してAmazon S3バケットに定義済みのスケジュールなしで送信している。S3バケットに格納されたテーブルのデータカタログのスキーマを更新するために、AWS Glueクローラーが8時間ごとに実行されるようにスケジュールされている。データアナリストは、AWS Glue Data Catalogをメタストアとして設定したAmazon EMR上でApache Spark SQLを使ってデータを分析する。データアナリストによると、時折、受け取ったデータが古くなることがあるという。データエンジニア
A. Amazon Redshift SpectrumでAmazon S3にある新しいデータをクエリするために、既存のAmazon Redshiftクラスタ上にAWS Glue Data Catalogに基づいた外部スキーマを作成する。
B. Amazon CloudWatch Eventsでrate (1 hour)式を使い、1時間ごとにAWS Glueクローラーを実行する。
C. AWS CLIを使用して、AWS Glueクローラーの実行スケジュールを8時間から1分に変更します。
D. S3バケットのS3:ObjectCreated:*イベント通知をトリガーにAWS Lambda関数からAWS Glueクローラを実行する。
回答を見る
正解: B
質問 #3
ある人材会社は、会社のデータに対して分析クエリを実行するために、10ノードのAmazon Redshiftクラスタを維持しています。Amazon Redshiftクラスタには商品テーブルとトランザクションテーブルがあり、どちらのテーブルにもproduct_skuカラムがあります。テーブルのサイズは100GBを超えています。クエリの大部分は両方のテーブルで実行されます。最適なクエリパフォーマンスを達成するために、2つのテーブルにどの分散スタイルを使用する必要がありますか?
A. 両テーブルのEVEN分配スタイル
B. 両テーブルのKEY配布スタイル
C. C
D. 商品テーブルにはEVEN分散スタイル、トランザクションテーブルにはKEY分散スタイルを指定する。
回答を見る
正解: C
質問 #4
ある企業が、Amazon S3バケットに.csvファイルをアップロードしている。同社のデータプラットフォームチームは、AWS Glueクローラーをセットアップし、ディスカバリーを行い、テーブルとスキーマを作成する。AWS Glueジョブは、作成されたテーブルから処理されたデータをAmazon Redshiftデータベースに書き込む。AWS Glueジョブはカラムマッピングを処理し、Amazon Redshiftのテーブルを適切に作成します。AWS Glueジョブが1日のうちに何らかの理由で再実行されると、重複レコードがAmazon Redshiftテーブルに導入されます。どのような解決策がありますか?
A. AWS Glueジョブを変更し、ステージングタブに行をコピーします。
B. メイン・テーブルの既存の行を置換する SQL コマンドを、DynamicFrameWriter クラスの postaction として追加します。
C. AWS Glue jo 内の MySQL データベースに、以前に挿入したデータをロードする。
D. MySQLでupsert操作を行い、結果をAmazon Redshiftのテーブルにコピーする。
E. Apache SparkのDataFrame dropDuplicates()APIを使って重複を排除し、Amazon Redshiftにデータを書き込む。
F. AWS Glue ResolveChoice 組み込みの変換を使用して、列の最新の値を選択します。
回答を見る
正解: B
質問 #5
ある病院では、患者からデータを収集するためにウェアラブル医療センサー機器を使用している。この病院は、データを安全に取り込むことができる、ほぼリアルタイムのソリューションを構築している。このソリューションはまた、ストリーミング・データから患者の保護された医療情報(PHI)を削除し、データを耐久性のあるストレージに保存できる必要があります。運用上のオーバーヘッドを最小限に抑えながら、これらの要件を満たすソリューションはどれか。
A. Amazon Kinesis Data Streamsを使用してデータを取り込み、Kinesis Client Library (KCL)を使用してAWS Lambda関数を呼び出し、すべてのPHを削除する。
B. Amazon S3にデータを書き込む。
C. Amazon Kinesis Data Firehoseを使ってデータをAmazon S3に書き込む。Amazon S3にセンサーデータを解析するAWS Lambda関数をトリガーさせ、Amazon S3内のすべてのPHIを削除する。
D. Amazon Kinesis Data Streamsを使ってデータをAmazon S3に書き込む。データストリームは、センサーデータを解析し、Amazon S3内のすべてのPHIを削除するAWS Lambda関数を起動します。
E. Amazon Kinesis Data Firehoseを使ってデータをAmazon S3に書き込む。センサーデータを解析してすべてのPHIを削除する変換AWS Lambda関数を実装する。
回答を見る
正解: A
質問 #6
データアナリストの3つのチームは、各チームのAmazon S3バケット内に保存されたデータをクエリするために、EMRファイルシステム(EMRFS)とAmazon EMRクラスタ上でApache Hiveを使用しています。EMRクラスタはKerberosを有効にしており、企業のActive Directoryからユーザーを認証するように構成されている。データは非常に機密性が高いため、各チームのメンバーにアクセスを制限する必要があります。セキュリティ要件を満たす手順はどれか。
A. EMRクラスタのAmazon EC2インスタンスに対して、Amazon S3へのアクセスを許可しないサービス・ロールを作成する。
B. EC2トラストポリシーのクラスタのEMRロールに、追加のIAMロールを追加する。
C. 各チームの Active Directory ユーザーグループに、追加の IAM ロールのセキュリティ構成マッピングを作成する。
D. EMRクラスタAmazon EC2インスタンスに対して、Amazon S3へのアクセスを許可しないサービスロールを作成する。
E. 追加IAMロールの信頼ポリシーに、EMRクラスタEC2インスタンスのサービスロールを追加する。
F. 各チームのActive Directoryユーザーグループに、追加のIAMロールのセキュリティ構成マッピングを作成する。G
回答を見る
正解: D
質問 #7
ある企業が毎日何百万ものメッセージを生成するサービスを立ち上げ、ストリーミング・サービスとしてAmazon Kinesis Data Streamsを使用している。同社はKinesis SDKを使ってKinesis Data Streamsにデータを書き込んでいる。立ち上げから数カ月後、データアナリストが書き込みパフォーマンスが大幅に低下していることを発見した。データアナリストはメトリクスを調査し、Kinesisが書き込みリクエストをスロットリングしていると判断した。データアナリストは、アーキテクチャに大きな変更を加えることなく、この問題に対処したいと考えています。どの
A. Kinesis Data Streamsの保持期間を長くして、スロットリングを減らす。
B. Kinesis APIベースのデータ取り込みメカニズムをKinesis Agentに置き換える。
C. UpdateShardCount API を使用して、ストリーム内のシャードの数を増やす。
D. シャード間で均一なレコード分布になるようにパーティション・キーを選択する。
E. パフォーマンスを向上させるために、再試行ロジックを含むようにアプリケーションコードをカスタマイズする。
回答を見る
正解: D
質問 #8
ある会社は、100万枚のスキャン文書をAmazon S3に画像ファイルとして保存している。この文書には、申請者の姓名、申請日、申請タイプ、申請テキストを含む情報を含むタイプライターの申請書が含まれている。同社は、スキャンした書類からメタデータの値を抽出する機械学習アルゴリズムを開発した。同社は、社内のデータアナリストが、申請者名、申請日、申請タイプを使用して申請書を分析・検索できるようにしたいと考えています。
A. 各画像について、オブジェクトタグを使ってメタデータを追加する。
B. Amazon S3 Selectを使用して、申請者名と申請日に基づいてファイルを取得します。
C. データアナリストがKibanaを使用してElasticsearchクラスタにクエリを送信できるようにします。
D. 画像ファイルのメタデータとAmazon S3のロケーションをAmazon Redshiftのタブに保存します。
E. データアナリストがテーブルに対してアドホッククエリを実行できるようにする。
F. 画像ファイルのメタデータと Amazon S3 の場所を Amazon S3 の Apache Parquet ファイルに保存し、AWS Glue Data Catalo にテーブルを定義する G
回答を見る
正解: C

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: