すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

マイクロソフトDP-203練習問題で成功をつかむ、マイクロソフトAzureデータエンジニアリングアソシエイト|SPOTO

弊社のDP-203認定試験に対する成功のために、特別に用意された豊富な練習問題集を準備しています。弊社のプラットフォームは模擬試験、フリーアクセス、オンライン試験問題、サンプル問題、試験問題集及び模擬試験など様々な種類の資料を提供しております。弊社の最新の模擬試験問題集を利用すれば、試験の準備を強化することができ、そして認定試験に見事合格する可能性を高めることができます。DP-203認定試験に合格したら、Microsoft認定資格を授与されます:Azure Data Engineer Associate認定資格が授与されます。この試験では、データ ストレージの設計と実装、データ処理ソリューションの開発、データ セキュリティ対策の実装、データ ストレージと処理効率の最適化という 4 つの主要分野の習熟度を評価します。認定資格の目標達成に向けて、弊社の試験資料をご活用ください。
他のオンライン試験を受ける

質問 #1
Azure Synapse Analytics専用のSQLプールがあります。プール内のデータが静止時に暗号化されていることを確認する必要があります。データを照会するアプリケーションを変更する必要はありません。どうすればよいでしょうか。
A. Azure Data Lake Storage Gen2 アカウントの静止時の暗号化を有効にします。
B. プールの透過的データ暗号化(TDE)を有効にする。
C. 顧客管理キーを使用して、Azure Synapseワークスペースの二重暗号化を有効にする。
D. Azure サブスクリプションで Azure キー保管庫を作成し、プールへのアクセスを許可する。
回答を見る
正解: A
質問 #2
あなたは、CSVファイルを格納するAzure Data Lake Storage Gen2コンテナの実装を計画している。ファイルのサイズは、1時間あたりのイベント数に応じて変化します。ファイルサイズは、4.KB から 5 GB です。コンテナに格納されるファイルがバッチ処理に最適化されていることを確認する必要があります。どうすればよいでしょうか?
A. ファイルを圧縮する。
B. ファイルをマージする。
C. ファイルをJSONに変換する
D. ファイルをAvroに変換する。
回答を見る
正解: A
質問 #3
注:この問題は、同じシナリオを提示する一連の問題の一部です。このシリーズの各問題には、指定された目標を満たす可能性のあるユニークな解答が含まれています。問題によっては複数の正解がある場合もありますが、正解がない場合もあります。このシナリオの問題に解答した後、その問題に戻ることはできません。そのため、これらの問題はレビュー画面に表示されません。あなたは100GBのファイルを含むAzure Storageアカウントを持っています。ファイルは
A. はい
B. いいえ
回答を見る
正解: ADF
質問 #4
PL1には、タンブリングウィンドウのトリガが含まれています。PL1のクローンを5つ作成します。それぞれのクローンパイプラインが異なるデータソースを使用するように構成します。クローンパイプラインの実行スケジュールがPL1の実行スケジュールと一致するようにする必要があります。どうすればよいですか?
A. 各クローン化されたパイプラインに新しいトリガーを追加する。
B. クローンされた各パイプラインを既存のトリガーに関連付ける。
C. PL1のトリガに対してタンブリングウィンドウのトリガ依存関係を作成する。
D. 各パイプラインの同時実行設定を変更します。
回答を見る
正解: A
質問 #5
Server1という名前の論理Microsoft SQLサーバーを含むAzureサブスクリプションがあります。Server1は、Pool1という名前のAzure Synapse Analytics SQL専用プールをホストしています。Server1に透過的データ暗号化(TDE)ソリューションを推奨する必要があります。ソリューションは、次の要件を満たす必要があります:暗号化キーの使用状況を追跡する。暗号化キーの可用性に影響を与えるAzureデータセンターの停止が発生した場合でも、Pool1へのクライアントアプリのアクセスを維持する。推奨要件に何を含めるべきか
A. マスタード
B. マスターしていない
回答を見る
正解: BC
質問 #6
Azure Stream Analyticsにストリーミングするソリューションを開発しています。このソリューションには、ストリーミング・データと参照データの両方があります。参照データにはどの入力タイプを使用する必要がありますか?
A. Azure Cosmos DB
B. Azure Blobストレージ
C. Azure IoTハブ
D. Azure イベントハブ
回答を見る
正解: A
質問 #7
あなたはAzure Databricksテーブルを設計しています。このテーブルは、1日平均2,000万件のストリーミングイベントを取り込みます。Azure Databricksの増分ロードパイプラインジョブで使用するために、テーブル内のイベントを永続化する必要があります。ソリューションは、ストレージコストと増分ロード時間を最小限に抑える必要があります。ソリューションには何を含めるべきですか?
A. DateTime フィールドによるパーティション。
B. Azure Queueストレージにシンクする。
C. 透かしの列を含める。
D. 物理データの保存にJSON形式を使用する。
回答を見る
正解: B
質問 #8
以下のリソースを含むAzureサブスクリプションがあります: * Group1 という名前のセキュリティ グループを含む Azure Active Directory(Azure AD)テナント。 * Pool1 という名前の Azure Synapse Analytics SQL プール。あなたは、Pool1内のテーブルの特定の列と行へのGroup1のアクセスを制御する必要があります どのTransact-SQLコマンドを使用する必要がありますか?回答するには、回答領域で適切なオプションを選択します。注:解答エリアの各適切なオプションを選択してください。
A. マスタード
B. マスターしていない
回答を見る
正解: A
質問 #9
データ・ウェアハウスのディメンジョン・テーブルを設計しています。このテーブルは、時間の経過とともにディメンジョン属性の値を追跡し、データの変更に応じて新しい行を追加することで、データの履歴を保持します。どのタイプの徐変ディメンジョン (SCD) を使用する必要がありますか?
A. タイプ0
B. タイプ1
C. タイプ2
D. タイプ3
回答を見る
正解: B
質問 #10
Azure Synapse Analytics専用のSQLプールで、FactPurchaseという名前のファクトテーブルを設計しています。このテーブルには、小売店のサプライヤーからの購入が含まれます。FactPurchaseには以下のカラムが含まれます。FactPurchaseには、毎日100万行のデータが追加され、3年分のデータが含まれます。以下のクエリと同様の Transact-SQL クエリが毎日実行されます。SELECT SupplierKey, StockItemKey, COUNT(*) FROM FactPurchase WHERE DateKey >= 20210101 AND DateKey <= 20210131 GROUP By Supplie
A. ラウンドロビン
B. 複製
C. DateKeyでハッシュ分散される。
D. PurchaseKeyでのハッシュ分散
回答を見る
正解: A
質問 #11
Azure Storageアカウントと、UK SouthリージョンのAzure Synapse Analyticsのデータウェアハウスがあります。Azure Data Factoryを使用して、ストレージアカウントからデータウェアハウスにブロブデータをコピーする必要があります。このソリューションは、次の要件を満たす必要があります:データが常にUK Southリージョンに残るようにする。管理工数を最小限に抑える。どのタイプの統合ランタイムを使用する必要がありますか?
A. Azure 統合ランタイム
B. Azure-SSIS 統合ランタイム
C. セルフホスト・インテグレーション・ランタイム
回答を見る
正解: C
質問 #12
あなたは、企業全体のAzure Data Lake Storage Gen2アカウントを持っています。データレイクには、VNET1 という名前の Azure 仮想ネットワークからのみアクセスできます。あなたは、データレイクからのデータを使用するSQLプールをAzure Synapseで構築しています。貴社には営業チームがあります。営業チームのすべてのメンバーは、Salesという名前のAzure Active Directoryグループに属しています。POSIXコントロールは、Salesグループにデータレイク内のファイルへのアクセスを割り当てるために使用されます。あなたは、1時間ごとにSQLプールにデータをロードすることを計画しています。あなたは
A. 管理対象の ID を Sales グループに追加します。
B. データロードプロセスの認証情報として管理対象 ID を使用する。
C. 共有アクセス署名(SAS)を作成する。
D. Azure Active Directory (Azure AD) アカウントを Sales グループに追加します。
E. データロードプロセスの認証情報として、SAS(snared access signature)を使用する。
F. 管理された ID を作成する。
回答を見る
正解: BCF
質問 #13
あなたは、Azure Blobストレージアカウントに保存されているParquetファイルをAzure Data Lake Storage Gen2アカウントにコピーするソリューションを設計しています。データは毎日データレイクにロードされ、{年}/{月}/{日}/のフォルダ構造を使用します。2つのアカウント間のデータ転送を最小限に抑えるために、毎日のAzure Data Factoryデータロードを設計する必要があります。どの2つの構成を設計に含める必要がありますか?各正解はソリューションの一部を提示します。注:各正解の選択は1 pの価値があります。
A. 新しいデータを読み込む前に、保存先のファイルを削除してください。
B. ソースファイルの最終更新日でフィルタリングする。
C. コピー後のソースファイルを削除する。
D. 保存先のファイル命名パターンを指定する。
回答を見る
正解: A
質問 #14
あなたは、Azure Data Lake Storage Gen2 コンテナのフォルダ構造を設計しています。ユーザーは、Azure DatabricksやAzure Synapse AnalyticsサーバーレスSQLプールなど、さまざまなサービスを使用してデータを照会する。データは分野ごとに保護される。ほとんどのクエリには、今年または当月のデータが含まれます。高速クエリーと簡素化されたフォルダーセキュリティをサポートするには、どのフォルダー構造を推奨すべきでしょうか?
A. /{SubjectArea}/{DataSource}/{DD}/{MM}/{YYYY}/{FileData}_{YYY}_{MM}_{DD}
B. /{DD}/{MM}/{YYYY}/{SubjectArea}/{DataSource}/{FileData}_{YYY}_{MM}_{DD}
C. /{YYYY}/{MM}/{DD}/{SubjectArea}/{DataSource}/{FileData}_{YYYY}_{MM}_{DD}
D. /{SubjectArea}/{DataSource}/{YYYY}/{MM}/{DD}/{FileData}_{YYY}_{MM}_{DD}
回答を見る
正解: D
質問 #15
Azure Synapse Analytics専用SQLプールにパーティション テーブルを作成する必要があります。Transact-SQLステートメントをどのように完成させますか?適切な値を適切なターゲットにドラッグします。各値は、1 回だけ使用することも、複数回使用することも、まったく使用しないこともできます。ペイン間の分割バーをドラッグするか、コンテンツを表示するためにスクロールする必要があるかもしれません。注意: 各選択肢の正解は 1 ポイントに相当します。
A. マスタード
B. マスターしていない
回答を見る
正解: A
質問 #16
注:この問題は、同じシナリオを提示する一連の問題の一部です。このシリーズの各問題には、指定された目標を満たす可能性のあるユニークな解答が含まれています。問題によっては複数の正解がある場合もありますが、正解がない場合もあります。このセクションの問題に解答した後、その問題に戻ることはできません。そのため、これらの問題はレビュー画面に表示されません。あなたは、Twitter を分析する Azure Stream Analytics ソリューションを設計しています。
A. はい
B. いいえ
回答を見る
正解: B
質問 #17
次の3つの部門のデータを処理するために、Azure Data Factoryパイプラインを作成する必要があります:Eコマース、小売、卸売。このソリューションでは、会社全体のデータも処理できるようにする必要があります。データ ファクトリーのデータ フロー スクリプトはどのように作成する必要がありますか。答えとして、適切な値を適切なターゲットにドラッグします。各値は、1 回だけ使用することも、複数回使用することも、まったく使用しないこともできます。ペイン間で分割バーをドラッグするか、スクロールして内容を表示する必要がある場合があります。注:各正解のス
A. マスタード
B. マスターしていない
回答を見る
正解: B
質問 #18
Azure Stream Analyticsのジョブを構築して、ユーザーがWebページ上の機能とインタラクトしている時間を特定しようとしています。このジョブは、Web ページ上のユーザーのアクションに基づくイベントを受信します。データの各行はイベントを表します。各イベントには、「開始」または「終了」のいずれかのタイプがあります。開始イベントと終了イベントの間の期間を計算する必要があります。どのようにクエリを完成させますか?回答するには、回答エリアで適切なオプションを選択してください。注意: 各選択肢の正解は 1 ポイントです。
A. マスタード
B. マスターしていない
回答を見る
正解: A
質問 #19
Table1 という名前のテーブルを含む Azure Synapse Analytics 専用 SQL プールがあります。container1という名前のAzure Data Lake Storage Gen2コンテナに取り込まれ、ロードされたファイルがあります。ファイルから Table1 と container1 という名前の Azure Data Lake Storage Gen2 コンテナにデータを挿入する予定です。ファイルから Table1 にデータを挿入し、データを変換する予定です。ファイルの各データ行は、Table1 のサービングレイヤーに 1 行を生成します。ソース da
A. はい
B. いいえ
回答を見る
正解: A
質問 #20
Azure SynapseにSQLプールがあります。ユーザーから、プールに対するクエリの完了に予想以上に時間がかかるという報告がありました。この問題を診断するために、基礎となるストレージに監視を追加する必要があります。どの2つのメトリックを監視する必要がありますか?各正解は、ソリューションの一部を示します。注:各正解の選択は1ポイントに相当します。
A. キャッシュ使用率
B. DWU制限
C. スナップショットのストレージサイズ
D. アクティブクエリ
E. キャッシュヒット率
回答を見る
正解: B

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: