すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

試験問題&学習教材でDAS-C01をマスターしよう|AWS認定データ分析|SPOTO

SPOTO'のAWS Certified Data Analytics - Specialty (DAS-C01)の試験問題と学習教材で、DAS-C01試験をマスターしましょう。この認定資格は、データ分析のプロフェッショナルにとって不可欠であり、分析ソリューションの設計、セキュリティ保護、管理のためにAWSサービスを活用する専門知識を証明します。当社の包括的な学習教材には、試験問題と解答、模擬試験、試験ダンプが含まれており、重要な概念を深く理解することができます。サンプル問題、試験資料、解答にアクセスして、試験の練習と準備を強化します。当社の試験シミュレーターを利用して、現実的な試験シナリオを作成し、試験の成績を向上させます。AWS Certified Data Analytics - Specialty (DAS-C01)試験の準備状況を確認するためのオンライン試験問題や模擬試験を活用できます。SPOTOは、データ分析のキャリアを成功させるために必要なツールとサポートを提供します。

他のオンライン試験を受ける

質問 #1
ある会社が、過去のデータを含むオンプレミスの PostgreSQL データベースをホストしています。社内のレガシーアプリケーションが、読み取り専用でこのデータベースを使用している。同社のビジネスチームは、できるだけ早くAmazon S3のデータレイクにデータを移行し、分析用にデータをリッチ化したいと考えている。同社はVPCとオンプレミスネットワークの間にAWS Direct Connect接続を設定している。データ分析のスペシャリストは、最小限の運用負荷でビジネスチームの目標を達成するソリューションを設計しなければならない。
A. カスタマイズしたバッチアップロードプロセスを使用して、オンプレミスのPostgreSQLデータベースからAmazon S3にデータをアップロードする。
B. AWS Glueクローラーを使用して、Amazon S3にデータをカタログ化する。AWSのGlueジョブを使用して、結果をApache Parquet形式で別のS3バケットにリッチ化して保存する。
C. Amazon Athenaを使ってデータを照会する。
D. Amazon RDS for PostgreSQLデータベースを作成し、AWS Database Migration Service(AWS DMS)を使用してAmazon RDにデータを移行する。
E. AWS Data Pipelineを使用して、Amazon RDS for PostgreSQLテーブルからデータをコピーしてリッチ化し、Amazon S3にデータを移動する。Amazon Athenaを使ってデータをクエリする。
F. F
回答を見る
正解: A
質問 #2
あるデータアナリストが、Amazon AthenaとJDBCドライバを使用して、大量のデータ操作言語(DML)クエリを実行しています。最近、あるクエリが 30 分間実行された後に失敗しました。クエリは以下のメッセージを返しました:クエリタイムアウト データアナリストはクエリ結果をすぐに必要としませんが、データアナリストはこの問題の長期的な解決策が必要です。
A. クエリをより小さなクエリに分割し、より小さなデータのサブセットを検索する。
B. Athena の設定で、DML クエリのタイムアウト制限を調整します。
C. サービス・クォータ・コンソールで、DMLクエリ・タイムアウトの増加を要求する。
D. テーブルを圧縮
回答を見る
正解: D
質問 #3
ある企業は、アプリケーションのログをほぼリアルタイムでリッチ化し、リッチ化されたデータセットをさらなる分析に使用したいと考えている。アプリケーションは、複数のアベイラビリティゾーンにまたがるAmazon EC2インスタンスで実行され、Amazon CloudWatch Logsを使用してログを保存している。エンリッチメントソースは、Amazon DynamoDBテーブルに格納されています。どのソリューションがイベント収集とエンリッチメントの要件を満たしていますか?
A. CloudWatch Logsサブスクリプションを使用して、Amazon Kinesis Data Firehosにデータを送信する。
B. AWS Lambdaを使用して、Kinesis Data Firehose配信ストリームのデータを変換し、DynamoDBタブ内のデータとリッチ化する。
C. Kinesis Data Firehoseの配信先としてAmazon S3を構成する。
D. AWS CLを使用して、生のログを1時間ごとにAmazon S3にエクスポートします。
E. AWS Glue クローラーを使用して、ログをカタログ化する。
F. F
回答を見る
正解: A
質問 #4
ある銀行会社は現在、機密データを保存するためにデンシスストレージ(DS)ノードを備えたAmazon Redshiftクラスタを使用している。監査の結果、このクラスタは暗号化されていないことが判明しました。コンプライアンス要件では、機密データを含むデータベースは、自動キーローテーションを備えたハードウェアセキュリティモジュール(HSM)を介して暗号化されなければならないとされています。コンプライアンスを達成するために必要な手順の組み合わせはどれか。(2つ選んでください)。
A. 自動キーローテーション付きのクライアント証明書とサーバー証明書を使用して、HSMとの信頼された接続を設定する。
B. HSM暗号化オプションと自動キーローテーションを使用してクラスタを変更する。
C. 新しいHSM暗号化Amazon Redshiftクラスタを作成し、新しいクラスタにデータを移行する。
D. AWS CLIを使用してキーローテーション付きHSMを有効にする。
E. HSMでECDHE(Elliptic Curve Diffie-Hellman Ephemeral)暗号化を有効にする。
回答を見る
正解: C
質問 #5
ある企業では、50ノードのAmazon EMRクラスタを使用して業務データを処理し、データアナリストがデータを利用できるようにしています。これらのジョブは、処理モデルとしてApache JezフレームワークとApache Hiveを使用して毎晩実行され、結果をHadoop分散ファイルシステム(HDFS)に書き込みます。
A. HDFSUtilizationメトリを監視する
B. 値がユーザー定義のしきい値を超えた場合、タスクノードをEMRクラスタに追加します。
C. HDFSUtilization metri
D. MemoryAllocatedMBメトリを監視する。
E. 値がユーザー定義のしきい値を超えた場合、タスクノードをEMRクラスタに追加します。
F. G
回答を見る
正解: D
質問 #6
ある企業がオンプレミスのApache HadoopクラスタからAmazon EMRクラスタに移行しようとしている。クラスタは営業時間中のみ稼働する。日中のクラスタ障害を避けるという会社の要件により、EMRクラスタは高可用性でなければなりません。各営業日の終了時にクラスタが終了しても、データは持続する必要があります。EMRクラスタがこれらの要件を満たすことができる構成はどれですか。(3つ選びなさい)。
A. ストレージ用EMRファイルシステム(EMRFS)
B. ストレージ用Hadoop分散ファイルシステム(HDFS)
C. Apache HiveのメタストアとしてのAWS Glue Data Catalog
D. Apache Hiveのメタストアとしてマスターノード上のMySQLデータベース
E. 単一のアベイラビリティ・ゾーン内の複数のマスター・ノード
F. 複数のアベイラビリティ・ゾーンにおける複数のマスター・ノード
回答を見る
正解: D
質問 #7
あるグローバル製薬会社は、世界中の様々な試験施設から新薬の試験結果を受け取る。その結果は、同社が所有するAmazon S3バケットに1KBサイズのJSONオブジェクトとして数百万単位で送信される。データエンジニアリングチームは、これらのファイルを処理し、Apache Parquet形式に変換し、データアナリストがダッシュボードレポートを実行するためにAmazon Redshiftにロードする必要があります。エンジニアリングチームは、オブジェクトを処理するためにAWS Glue、プロセスのオーケストレーションのためにAWS Step Functions、そしてAmazoを使用している。
A. AWS Lambdaを使用して、小さなファイルを大きなファイルにグループ化する。
B. Amazon S3にファイルを書き戻す。AWS Glueを使ってファイルを処理し、Amazon Redshiftのテーブルにロードする。
C. 生の入力ファイルを取り込む際に、AWS Glueのダイナミックフレームファイルグループ化オプションを使用する。
D. ファイルを処理し、Amazon Redshiftのテーブルにロードする。
E. Amazon RedshiftのCOPYコマンドを使用して、Amazon S3からAmazon Redshiftのテーブルに直接ファイルを移動します。
F. Amazon Redshiftでファイルを処理する。G
回答を見る
正解: C
質問 #8
ある銀行では、Amazon Managed Streaming for Apache Kafka(Amazon MSK)を使用して、リアルタイムのデータをデータレイクに入力しています。データレイクはAmazon S3上に構築されており、データは24時間以内にデータレイクからアクセスできなければなりません。
A. Amazon MSKコンソールを使用して、ブローカーストレージをトリプル化し、クラスタを再起動します。
B. KafkaDataLogsDiskUsed メトリックを監視する Amazon CloudWatch アラームを作成する このメトリックの値が 85% を超えると、最も古いメッセージを自動的にフラッシュする
C. カスタムAmazon MSK構成を作成する ログ保持時間パラメータを48に設定する 新しい構成ファイルでクラスタを更新する
D. データがトピックに追加されるとすぐに消費されるように、コンシューマの数を3倍にする。
回答を見る
正解: C
質問 #9
ある小売企業は、Amazon Redshiftを使ってデータウェアハウス・ソリューションを構築している。その一環として、同社はAmazon Redshiftクラスタに作成されたファクトテーブルに何百ものファイルをロードしています。同社は、データを同社のファクトテーブルにロードする際に、ソリューションが最高のスループットを達成し、クラスタリソースを最適に使用することを望んでいます。これらの要件を満たすにはどうすればよいでしょうか。
A. 複数のCOPYコマンドを使用して、Amazon Redshiftクラスタにデータをロードします。
B. S3DistCpを使用して複数のファイルをHadoop分散ファイルシステム(HDFS)にロードし、HDFSコネクタを使用してAmazon Redshiftクラスタにデータを取り込みます。
C. Amazon Redshiftクラスタノードの数と同じ数のLOADコマンドを使用し、各ノードに並行してデータをロードします。
D. 単一のCOPYコマンドを使用して、Amazon Redshiftクラスタにデータをロードします。
回答を見る
正解: ACE
質問 #10
ある企業が、Apache ParquetフォーマットのファイルをAmazon S3に保存している 同社は、AWS Glueデータカタログを使用してテーブルのメタデータを保存し、Amazon Athenaを使用してデータのクエリと分析を行っている テーブルには多数のパーティションがある クエリは、テーブル内のデータの小さなサブセットに対してのみ実行される データアナリストは、新しいデータが到着すると、テーブルに新しい時間パーティションを追加する データアナリストは、クエリの実行時間を短縮するよう求められている クエリの実行時間を最も短縮できるソリューションはどれか?
A. Parquetファイルをcsvファイル形式に変換し、再度クエリを実行してください。
B. ParquetファイルをApache ORCファイル形式に変換する。
C. 次に、再度データを照会します。
D. パーティション・プロジェクションを使用して、パーティション分割されたテーブルの処理を高速化する。
E. テーブルの上に使用するパーティションを追加する。
F. 次に、2つのパーティションでフィルタリングし、すべてのカラムをWHERE句に入れる。
回答を見る
正解: A
質問 #11
あるオンライン小売業者は、Amazon Kinesis Data Streamsを使用して、在庫管理システムと在庫再注文システムを再構築し、商品を自動的に再注文している。在庫管理システムは、Kinesis Producer Library(KPL)を使用してデータをストリームに公開します。在庫再注文システムはKinesis Client Library (KCL)を使用してストリームからデータを消費します。ストリームは必要に応じて拡張できるように構成されている。本番導入の直前、小売業者は在庫再注文システムがKinesis Producer Library (KPL)を使用していることを発見します。
A. プロデューサにネットワーク関連のタイムアウトがある。
B. ストリームのIteratorAgeMillisecondsの値が高すぎる。
C. シャード数、レコードプロセッサ数、またはその両方に変更があった。
D. AggregationEnabled構成プロパティがtrueに設定されている。
E. max_records構成プロパティが高すぎる数値に設定されています。
回答を見る
正解: C
質問 #12
ある通信会社は、不正通話を特定するための異常検知ソリューションを探している。同社は現在、Amazon Kinesisを使用して、オンプレミスのデータベースからAmazon S3にJSON形式で音声通話記録をストリーミングしている。既存のデータセットには、200カラムの音声通話記録が含まれている。不正通話を検出するためには、このうち5つのカラムだけを調べる必要がある。同社は、AWSを使用し、最小限の労力と異常検知の経験を必要とする費用対効果の高いソリューションに関心を持っている。
A. AWS Glueジョブを使用して、データをJSONからApache Parqueに変換する。
B. AWS Glueクローラを使用してスキーマを検出し、AWS Glue Data Cataloを構築する。
C. Amazon Athenaを使用して、以下のカラムのサブセットを持つテーブルを作成する。
D. Amazon QuickSightを使用してデータを可視化し、Amazon QuickSightの機械学習を利用した異常検知を使用する。
E. Kinesis Data Firehoseを使用して、SQLクエリを実行することで、Kinesisからのデータストリームの異常を検出します。
F. F
回答を見る
正解: B
質問 #13
ある企業は、レコメンデーション・エンジンに機能を追加することで、スマート・ホーム・システムのユーザー満足度を向上させたいと考えている。各センサーは、JavaのKinesis Producer Library(KPL)を使用して、ネスト化されたJSONデータをAmazon Kinesis Data Streamsに非同期でプッシュする。故障したセンサーの統計から、センサーが故障している場合、その記録データが常にクラウドに送信されるわけではないことがわかった。同社は、最新のセンサーからのデータをほぼリアルタイムで分析できるソリューションを必要としています。Whi
A. KPLのRecordMaxBufferedTimeプロパティを "1 "に設定し、センサー側のバッファリングを無効にする。Kinesis Data Analyticsを使用して、自社開発の異常検知SQLスクリプトに基づいてデータをリッチ化する。
B. エンリッチされたデータをKinesisデータストリームのフリートにプッシュし、データ変換機能を有効にしてJSONファイルをフラットにする。
C. 密なストレージAmazon Redshiftクラスターをインスタンス化し、Kinesis Data Firehose配信ストリームの宛先として使用する。
D. AWS SDK for Javを使用してKinesis Data Streams APIからPutRecord/PutRecordsコールを使用するようにセンサーコードを更新する。
E. Kinesis Data Analyticsを使用して、会社が開発した異常検知SQLスクリプトに基づいてデータをリッチ化する。
F. F
回答を見る
正解: B
質問 #14
ビデオ・ストリーミング・ウェブサイトを運営する企業が、ユーザーの行動を分析してリアルタイムでユーザーに推奨を行いたいと考えています。 クリックストリーム・データはAmazon Kinesis Data Streamsに送信され、参照データはAmazon S3に保存されます。
A. AWS Glue Pythonシェルジョブを使用してKinesis Data Streamsからの受信データを処理する Boto3ライブラリを使用してAmazon Redshiftにデータを書き込む
B. AWS Glue streaming and Scaleを使用して、Kinesis Data Streamsからの受信データを処理する AWS Glueコネクタを使用して、Amazon Redshiftにデータを書き込む
C. Amazon Kinesis Data Analyticsを使用して、参照データに基づいてアプリケーション内テーブルを作成する Kinesis Data Streamsからの受信データを処理する データストリームを使用してAmazon Redshiftに結果を書き込む
D. Amazon Kinesis Data Analyticsを使用して、参照データに基づいてアプリケーション内テーブルを作成するKinesis Data Streamsからの受信データを処理するAmazon Kinesis Data Firehose配信ストリームを使用して、Amazon Redshiftに結果を書き込む
回答を見る
正解: B
質問 #15
あるデータアナリストは、Amazon Redshiftに存在する集中管理された販売データを使用して、Amazon QuickSightダッシュボードを設計しています。ダッシュボードは、オーストラリアのシドニーにいる営業担当者がオーストラリアのビューだけを見ることができ、ニューヨークにいる営業担当者が米国(US)のデータだけを見ることができるように制限する必要があります。データアナリストは、適切なデータセキュリティを確保するために何をすべきでしょうか?
A. オーストラリアと米国のデータソースを別々の SPICE キャパシティプールに配置する。
B. Amazon Redshift VPCのセキュリティグループをオーストラリアとアメリカに設定します。
C. QuickSightエンタープライズ・エディションを導入し、売上テーブルに行レベル・セキュリティ(RLS)を実装します。
D. QuickSight Enterprise Editionを導入し、オーストラリアと米国で異なるVPCセキュリティグループを設定します。
回答を見る
正解: BD
質問 #16
あるメディア企業が、Amazon S3データレイクにあるデータに対して機械学習と分析を行いたいと考えている。社内のコンシューマーがレポートを作成するためのデータ変換要件が2つある:スケジュールされた時間にAmazon S3にある異なるファイル形式の300GBのデータを毎日変換すること。S3データレイクに存在するテラバイトのアーカイブデータの1回限りの変換。どのソリューションの組み合わせが費用対効果に優れ、この企業のトラフィックの要件を満たすか。
A. 日々の受信データについては、AWS Glue クローラーを使用してスキーマをスキャンし、特定する。
B. 日々の受信データについては、Amazon Athenaを使用してスキーマをスキャンし、特定する。
C. 日々の受信データについては、Amazon Redshiftを使用して変換を実行する。
D. 毎日の受信データについては、AWS Glue ジョブを使用して変換を実行する AWS Glue ワークフローを使用します。
E. アーカイブされたデータについては、Amazon EMRを使用してデータ変換を実行する。
F. アーカイブされたデータについては、Amazon SageMakerを使ってデータ変換を行う。
回答を見る
正解: B
質問 #17
ある製造会社では、世界中のさまざまな施設に多数のloTデバイスがあります。この会社では、Amazon Kinesis Data Streamsを使用してデバイスからデータを収集しています。この会社の運用チームでは、多くのWnteThroughputExceeded例外が観測されるようになりました。運用チームは、特定のシャードに書き込まれるレコード数が原因であると判断します。
A. パーティション・キーを施設IDからランダムに生成されたキーに変更する。
B. シャードの数を増やす
C. 生産者側のデータをアーカイブする
D. パーティション・キーを施設IDからキャプチャ日に変更する。
回答を見る
正解: A

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: