すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

AWS MLS-C01試験問題集|AWS認定デベロッパー - アソシエイト

AWS Certified Machine Learning - Specialty (MLS-C01)試験の準備をするには包括的なアプローチが必要です。準備を整える最も効果的な方法の1つは、高品質の試験問題と解答、テスト問題、模擬試験を活用することです。これらのリソースは、あなたの知識を評価するのに役立つだけでなく、試験の形式や予想される問題のタイプに関する貴重な洞察を提供します。 SPOTOのような評判の良いプロバイダーは、試験問題、試験準備ガイド、模擬試験を含む幅広い学習教材を提供しています。これらの教材は、各分野の専門家によって入念に作成され、最新の試験目的に対応しています。このような学習補助教材を使って、自分の長所と短所を確認し、改善が必要な分野に努力を集中することができます。さらに、SPOTOの模擬試験は実際の試験環境をシミュレートしており、自信をつけ、時間の制約や問題形式に慣れるのに役立ちます。これらの試験リソースを活用し、熱心に練習することで、AWS Certified Machine Learning - Specialty認定試験に初回受験で合格する可能性を高めることができます。
他のオンライン試験を受ける

質問 #1
オンライン図書館を運営するある企業は、Amazon Lexを使用して、カテゴリに基づいて推薦図書を提供するチャットボットを実装している。この意図は、Amazon DynamoDBテーブルに特定のカテゴリを指定して書籍タイトルのリストをクエリするAWS Lambda関数によって実現される。テストのために、カスタムスロットタイプとして実装されたカテゴリーは3つだけだ:機械学習(ML)のスペシャリストは、Amazon Lex caが "comedy"、"adventure"、"documentary "の3つのカテゴリをカスタムスロットのタイプとして実装しているため、リクエストを満たすことができない場合があることに気づく。
A. 列挙値リストの認識できない単語を、スロットタイプの新しい値として追加する。
B. 新しいカスタムスロットタイプを作成し、認識できない単語を列挙値としてこのスロットタイプに追加し、このスロットタイプをスロットに使用する。
C. データベース内のカスタム検索には、AMAZON
D. 認識できない単語をカスタムスロットタイプに同義語として追加する。
回答を見る
正解: D
質問 #2
ある医療画像処理会社が、患者のCTスキャン画像から気になる部分を検出するために、コンピュータ・ビジョン・モデルをトレーニングしたいと考えている。同社は、各患者にリンクされ、Amazon S3バケットに保存されているラベル付けされていないCTスキャンの大規模なコレクションを持っています。スキャン画像は、許可されたユーザーのみがアクセスできる必要がある。機械学習エンジニアがラベリングパイプラインを構築する必要がある。
A. 信頼度の低い予測をAmazon SageMaker Ground TruthにルーティングするようにAmazon Textractを設定する。ビジネス検証を実行する前に、これらの単語について手動レビューを実行する。
B. 非同期操作ではなく、Amazon Textractの同期操作を使用する。
C. 信頼性の低い予測をAmazon Augmented AI (Amazon A2I)にルーティングするようにAmazon Textractを設定する。ビジネス検証を行う前に、それらの単語について手動レビューを行う。
D. Amazon Rekognitionの画像内のテキストを検出する機能を使って、スキャンした画像からデータを抽出する。この情報をローン申請処理に使用する。
回答を見る
正解: C
質問 #3
機械学習のスペシャリストが、オンラインショッピングサイトの顧客データを受け取る。データには、人口統計、過去の訪問履歴、地域情報が含まれる。スペシャリストは、より良いサービスとスマートな推奨のためにウェブサイトを強化するために、顧客のショッピングパターン、好み、傾向を特定する機械学習アプローチを開発しなければなりません。
A. 顧客データベースのパターンを識別するために、与えられた離散データのコレクションに対する潜在的ディリクレ割り当て(LDA)。
B. 顧客データベースのパターンを識別するために、最低3つの層とランダムな初期重みを持つニューラルネットワーク。
C. 顧客データベースのパターンを特定するための、ユーザーとの相互作用と相関関係に基づく協調フィルタリング。
D. 顧客データベースのパターンを識別するためのランダムサブサンプルに対するランダムカットフォレスト(RCF)。
回答を見る
正解: C
質問 #4
クラウド接続されたデバイスを提供することで、健康的な睡眠パターンを促進する企業は現在、AWS上で睡眠追跡アプリケーションをホストしている。このアプリケーションは、デバイス・ユーザーからデバイスの使用情報を収集する。同社のデータ・サイエンス・チームは、ユーザーが同社のデバイスの利用をいつ止めるかを予測する機械学習モデルを構築している。このモデルからの予測は、ユーザーに連絡するための最適なアプローチを決定する下流のアプリケーションで使用される。
A. Amazon SageMakerで複数のモデルをビルドし、ホストする。複数の Amazon SageMaker エンドポイントを作成する。アプリケーション層で推論のために異なるモデルを呼び出すことをプログラムで制御する。
B. Amazon SageMakerで複数のモデルをビルドし、ホストする。複数のプロダクションバリアントでAmazon SageMakerエンドポイント構成を作成する。エンドポイント構成を更新することによって、複数のモデルによって提供される推論の部分をプログラムで制御する。
C. Amazon SageMaker Neoで複数のモデルを構築してホストし、異なるタイプの医療機器を考慮する。医療機器の種類に基づいて、推論のために呼び出されるモデルをプログラムで制御する。
D. Amazon SageMakerで複数のモデルを構築し、ホストする。複数のモデルにアクセスする単一のエンドポイントを作成します。Amazon SageMakerのバッチ変換を使用して、単一のエンドポイントを通して異なるモデルの起動を制御する。
回答を見る
正解: D
質問 #5
機械学習のスペシャリストは、トレーニングの準備のためにデータを移動し、変換する必要がある。データの一部はほぼリアルタイムで処理する必要があり、他のデータは1時間ごとに移動することができます。データのクリーニングとフィーチャーエンジニアリングを実行するために、既存のAmazon EMR MapReduceジョブがあります。
A. 推論コードでDockerイメージをビルドします。Dockerイメージにレジストリのホスト名をタグ付けし、Amazon ECRにアップロードする。
B. デプロイ用に圧縮された形式になるように、学習済みモデルをシリアライズします。Dockerイメージにレジストリのホスト名をタグ付けし、Amazon S3にアップロードします。
C. デプロイ用に圧縮された形式になるように、学習済みモデルをシリアライズします。イメージをビルドし、Docker Hubにアップロードします。
D. 推論コードでDockerイメージをビルドします。Docker Hubを設定し、Amazon ECRにイメージをアップロードします。
回答を見る
正解: BC
質問 #6
機械学習の専門家が、k = [1..10]に対するk-meansの結果を表示する以下のグラフを作成した:このグラフを考慮すると、kの最適な選択として何が妥当か?
A. 1
B. 4
C. 7
D. 10
回答を見る
正解: B
質問 #7
ある企業が、公開ウェブサイトで何千もの製品を販売しており、耐久性に問題がある可能性のある製品を自動的に特定したいと考えている。この会社には、日付、星評価、レビューテキスト、レビュー要約、顧客Eメールフィールドを持つレビューが1.000件あるが、多くのレビューは不完全で、空のフィールドがある。機械学習の専門家は、製品の耐久性に懸念を表明するレビューを識別するモデルを訓練しなければならない。最初のモデルは
A. Amazon Comprehendを使ってカスタム分類器をトレーニングする。
B. Amazon SageMakerでGluonとApache MXNetを使ってリカレントニューラルネットワーク(RNN)を構築する。
C. AmazonSageMakerのWord2Vecモードを使って、組み込みのBlazingTextモデルをトレーニングする。
D. Amazon SageMakerに組み込まれたseq2seqモデルを使用する。
回答を見る
正解: B
質問 #8
機械学習のスペシャリストが、人がピザを注文するかどうかを予測するロジスティック回帰モデルを構築しています。スペシャリストは、理想的な分類しきい値を持つ最適なモデルを構築しようとしています。異なる分類しきい値がモデルの性能にどのような影響を与えるかを理解するために、スペシャリストはどのようなモデル評価技法を使用すべきでしょうか?
A. 受信者動作特性(ROC)曲線
B. 誤分類率
C. 二乗平均平方根誤差(RMSE)
D. L1ノルム
回答を見る
正解: A
質問 #9
機械学習のスペシャリストが、Amazon SageMaker を使用して時系列予測を実行するモデルを構築しています。スペシャリストはモデルのトレーニングを終了し、モデルのバリアントに Auto Scaling を設定できるように、エンドポイントで負荷テストを実行する予定です。どのアプローチを使用すれば、スペシャリストは負荷テスト中にレイテンシ、メモリ使用率、CPU 使用率を確認できますか。
A. Amazon AthenaとAmazon QuickSightを活用して、Amazon S3に書き込まれたSageMakerのログをレビューし、生成されるログを可視化する。
B. AmazonSageMakerによって出力されるレイテンシ、メモリ使用率、およびCPU使用率のメトリクスに対する単一のビューを作成するために、Amazon CloudWatchダッシュボードを生成します。
C. カスタムAmazon CloudWatchログを構築し、Amazon ESとKibanaを活用して、Amazon SageMakerによって生成されたログデータをクエリして可視化する。
D. AmazonSageMakerによって生成されたAmazon CloudWatchログをAmazon ESに送信し、Kibanaを使用してログデータのクエリと可視化を行う。
回答を見る
正解: B
質問 #10
ある企業では、Amazon SageMakerにデフォルトで組み込まれている画像分類アルゴリズムでトレーニングを行っていますが、精度が低いことが分かっています。データサイエンスチームは、ResNetアーキテクチャの代わりにInceptionニューラルネットワークアーキテクチャを使用したいと考えています。(2つ選んでください)。
A. 最適化プロセスがローカルミニマムでトラップされたため、学習率を上げる必要があります。
B. モデルが十分に一般化されていないため、平坦化層でのドロップアウト率を上げる必要がある。
C. 平坦化レイヤーの隣にある高密度レイヤーの次元を上げる必要がある。
D. 最適化プロセスがグローバルミニマムに達する前に終了したため、エポック数を増やす必要がある。
回答を見る
正解: CD
質問 #11
ある大企業が、さまざまな業務指標から収集したデータを使ってレポートやダッシュボードを生成するBIアプリケーションを開発した。この企業は、経営幹部が自然言語を使用してレポートからデータを取得できるように、強化されたエクスペリエンスを提供したいと考えています。この会話型インタフェースを構築するために、どのサービスの組み合わせを使用できますか?
A. モデルを Amazon SageMaker ノートブックインスタンスにアップロードし、Amazon SageMaker HPO 機能を使用してモデルのハイパーパラメータを最適化します。
B. トレーニングセットにさらにデータを追加し、偏りを減らすために転移学習を使ってモデルを再トレーニングする。
C. ImageNetで事前に学習させた、より多くの層を持つニューラルネットワークモデルを使用し、分散を増やすために転移学習を適用する。
D. 現在のニューラルネットワークアーキテクチャを使って新しいモデルをトレーニングする。
回答を見る
正解: BEF
質問 #12
機械学習チームはAmazon SageMaker上で独自のトレーニングアルゴリズムを実行する。トレーニングアルゴリズムは外部アセットを必要とします。チームは、独自のアルゴリズムコードとアルゴリズム固有のパラメータの両方をAmazon SageMakerに提出する必要があります。Amazon SageMakerでカスタムアルゴリズムを構築するために、チームはどのようなサービスの組み合わせを使用する必要がありますか?(2つ選んでください)
A. 10
B. 30
C. 600
D. 2,400
回答を見る
正解: CE
質問 #13
ある製造会社は、ラベル付けされた大量の過去の販売データを持っている。この問題を解決するために,どの機械学習アプローチを使うべきか?
A. ロジスティック回帰
B. ランダムカットフォレスト(RCF)
C. 主成分分析(PCA)
D. 線形回帰
回答を見る
正解: B
質問 #14
あるオフィス・セキュリティ会社では、本社内の主要な場所に設置された100台のカメラを使って試験運用を行い、成功を収めました。カメラからの画像はAmazon S3にアップロードされ、Amazon Rekognitionを使用してタグ付けされ、結果はAmazon ESに保存された。同庁は現在、この試験運用を、世界各地のオフィスに設置された数千台のビデオカメラを使用する本番システムに拡大しようとしている。目標は、従業員以外が行った行動をリアルタイムで特定することです。
A. 各ローカルオフィスと各カメラでプロキシサーバーを使用し、RTSPフィードを固有のAmazon Kinesis Video Streamsビデオストリームにストリーミングする。各ストリーム上で、Amazon Rekognition Videoを使用し、既知の従業員のコレクションから顔を検出し、非従業員が検出された場合に警告するストリームプロセッサを作成する。
B. 各ローカルオフィスと各カメラでプロキシサーバーを使用し、RTSPフィードを固有のAmazon Kinesis Video Streamsビデオストリームにストリーミングする。各ストリーム上で、Amazon Rekognition Imageを使用して、既知の従業員のコレクションから顔を検出し、非従業員が検出された場合にアラートを出す。
C. AWS DeepLensカメラをインストールし、DeepLens_Kinesis_Videoモジュールを使用して、各カメラのAmazon Kinesis Video Streamsにビデオをストリーミングします。各ストリーム上で、Amazon Rekognition Videoを使用し、ストリームプロセッサを作成して、各ストリーム上のコレクションから顔を検出し、従業員以外が検出された場合にアラートを出す。
D. AWS DeepLensカメラをインストールし、DeepLens_Kinesis_Videoモジュールを使用して、各カメラのAmazon Kinesis Video Streamsにビデオをストリーミングする。各ストリームでAWS Lambda関数を実行し、画像の断片をキャプチャし、Amazon Rekognition Imageを呼び出して、既知の従業員のコレクションから顔を検出し、従業員以外が検出された場合にアラートを出す。
回答を見る
正解: A
質問 #15
機械学習のスペシャリストが、エンドポイントの自動スケーリング構成に適切な SageMakerVariantInvocationsPerInstance 設定を決定したいと考えています。このスペシャリストは、単一のインスタンスで負荷テストを実行し、サービス低下のないピークリクエスト/秒(RPS)が約20 RPSであることを決定しました。これは最初の展開であるため、スペシャリストは呼び出しの安全係数を0.5に設定するつもりである。
A. エネルギー分野に関連するニュース記事の大規模なコレクションで事前学習された用語頻度-逆文書頻度(TF-IDF)ベクトルによって単語を初期化する。
B. LSTMの代わりにゲーテッド・リカレント・ユニット(GRU)を使用し、検証損失が減少しなくなるまで学習プロセスを実行する。
C. 学習率を下げ、学習損失が減少しなくなるまで学習プロセスを実行する。
D. エネルギー部門に関連するニュース記事の大規模なコレクションで事前学習されたword2vec埋め込みによって単語を初期化する。
回答を見る
正解: C
質問 #16
ある銀行が低金利のクレジット・プロモーションを始めようとしている。その銀行は、最近経済的困難に見舞われた町にある。経済危機の影響を受けたのは銀行の顧客の一部だけであるため、銀行のクレジットチームはプロモーションの対象となる顧客を特定しなければならない。この銀行のデータサイエンスチームは、口座取引を分類し、与信履歴を理解するモデルを開発した。
A. Amazon SageMaker Studioを使用してモデルを再構築します。XGBoostトレーニングコンテナを使用してモデルトレーニングを実行するノートブックを作成します。エンドポイントにモデルをデプロイします。Amazon SageMaker Model Monitor を有効にして、推論を保存します。推論を使用して、モデルの動作を説明するのに役立つシャプレー値を作成します。特徴量と SHapley Additive exPlanations (SHAP) 値を示すチャートを作成し、特徴量がモデルの結果にどのように影響するかをクレジットチームに説明します。
B. Amazon SageMaker Studioを使用してモデルを再構築します。XGBoost トレーニングコンテナを使用してモデルトレーニングを実行するノートブックを作成します。Amazon SageMaker デバッガーを起動し、シャプレー値の計算と収集を行うように設定します。特徴量と SHapley Additive exPlanations (SHAP) 値を示すグラフを作成し、特徴量がモデルの結果にどのように影響するかをクレジットチームに説明します。
C. Amazon SageMakerノートブックインスタンスを作成します。ノートブックインスタンスと XGBoost ライブラリを使用して、モデルをローカルに再トレーニングします。Python XGBoost インタフェースの plot_importance() メソッドを使用して、特徴の重要度チャートを作成します。そのチャートを使って、特徴がモデルの結果にどのように影響するかをクレジットチームに説明します。
D. Amazon SageMaker Studioを使用してモデルを再構築する。XGBoost トレーニングコンテナを使用してモデルのトレーニングを実行するノートブックを作成します。エンドポイントにモデルをデプロイします。Amazon SageMaker Processing を使用してモデルをポスト分析し、クレジットチームのために機能の重要度説明可能性チャートを自動的に作成します。
回答を見る
正解: C
質問 #17
あるメーカーは、複雑なサプライチェーンの関係で多数の工場を運営しており、予期せぬ機械のダウンタイムによって複数の工場で生産が停止する可能性がある。データサイエンティストは、工場からのセンサーデータを分析し、先手を打ったメンテナンスが必要な機器を特定し、サービスチームを派遣して計画外のダウンタイムを防ぎたいと考えている。1台の機械から読み取れるセンサーデータには、温度、電圧、振動、回転数、圧力など、最大200のデータポイントが含まれる。
A. Amazon SageMakerでモデルをデプロイする。センサーデータをこのモデルを通して実行し、メンテナンスが必要なマシンを予測する。
B. AWS IoT Greengrass上のモデルを各工場にデプロイする。センサーデータをこのモデルに通し、メンテナンスが必要な機械を推測する。
C. モデルをAmazon SageMakerのバッチ変換ジョブにデプロイする。メンテナンスが必要なマシンを特定するために、日次バッチレポートで推論を生成する。
D. Amazon SageMakerでモデルをデプロイし、IoTルールを使用してAmazon DynamoDBテーブルにデータを書き込む。AWS Lambda関数でテーブルからDynamoDBストリームをコンシュームし、エンドポイントを呼び出す。
回答を見る
正解: B
質問 #18
機械学習のスペシャリストが、分類問題に対してナイーブベイズモデルを構築するか、完全なベイジアンネットワークを構築するかを決めています。スペシャリストは各特徴間のピアソン相関係数を計算し、それらの絶対値が0.1から0.95の間であることを発見します。
A. 素朴ベイズモデル。特徴はすべて条件付き独立である。
B. 特徴はすべて条件付き独立なので、完全なベイジアンネットワーク。
C. 素朴ベイズモデル。いくつかの特徴は統計的に依存しているため。
D. いくつかの特徴が統計的に依存しているため、完全なベイジアンネットワーク。
回答を見る
正解: D
質問 #19
データ・サイエンティストは線形回帰モデルを構築しており、結果のp値を使用して各係数の統計的有意性を評価します。データセットを調べると、データ・サイエンティストはほとんどの特徴が正規分布していることを発見します。線形回帰モデルの統計的仮定を満たすために、データ・サイエンティストはどのような変換を適用すべきですか?
A. 指数変換
B. 対数変換
C. 多項式変換
D. 正弦波変換
回答を見る
正解: B
質問 #20
データエンジニアは、顧客のクレジットカード情報を含むデータセットを使用してモデルを構築する必要があります。データエンジニアは、データが暗号化され、クレジットカード情報が安全であることをどのように保証できますか?
A. カスタム暗号化アルゴリズムを使用してデータを暗号化し、VPC内のAmazon SageMakerインスタンスにデータを保存します。SageMaker DeepAR アルゴリズムを使用して、クレジットカード番号をランダム化します。
B. IAMポリシーを使ってAmazon S3バケット上のデータを暗号化し、Amazon Kinesisを使ってクレジットカード番号を自動的に破棄し、偽のクレジットカード番号を挿入する。
C. AmazonSageMakerの起動設定を使用して、VPのSageMakerインスタンスにコピーされたデータを暗号化する。 SageMakerの主成分分析(PCA)アルゴリズムを使用して、クレジットカード番号の長さを短くする。
D. AWS KMSを使用してAmazon S3とAmazon SageMaker上のデータを暗号化し、AWS Glueを使用して顧客データからクレジットカード番号を再編集する。
回答を見る
正解: D
質問 #21
ある対話型オンライン辞書が、似たような文脈で使われる単語を表示するウィジェットを追加したいと考えている。機械学習のスペシャリストは、ウィジェットを動かすダウンストリームの最近傍モデルに単語の特徴を提供するよう求められています。
A. ワンホットワード符号化ベクトルを作成する。
B. アマゾン・メカニカル・タークを使って、すべての単語の類義語を作成する。
C. 他の単語との編集距離を格納する単語埋め込みベクトルを作成する。
D. 大規模なコーパスで事前に訓練された単語埋め込みをダウンロードする。
回答を見る
正解: D
質問 #22
機械学習の専門家が、ニューヨーク市の公共交通機関について記述したデータセットに、完全なベイジアンネットワークを実装している。確率変数の1つは離散的で、バスが10分ごとに循環し、平均が3分であることを仮定して、ニューヨーカーが何分バスを待つかを表します。
A. ポアソン分布
B. 一様分布
C. 正規分布
D. 二項分布
回答を見る
正解: A
質問 #23
機械学習のスペシャリストが、セキュリティが最大の関心事である政府ユーザー向けに概念実証を開発している。この専門家は、Amazon SageMakerを使用して、写真分類アプリケーション用の畳み込みニューラルネットワーク(CNN)モデルをトレーニングしています。この専門家は、訓練コンテナに誤ってインストールされた悪意のあるコードによってデータがアクセスされ、リモートホストに転送されないようにデータを保護したいと考えています。
A. AWS Identity and Access Management(IAM)を使用してワークフォースを作成する。Amazon Simple Queue Service (Amazon SQS)を使って、Amazon EC2のQueueイメージにラベリングツールを構築する。ラベリング手順を記述する。
B. Amazon Mechanical Turkのワークフォースとマニフェストファイルを作成する。Amazon SageMaker Ground Truthの組み込み画像分類タスクタイプを使用して、ラベリングジョブを作成する。ラベリングの指示を書きます。
C. プライベートワークフォースとマニフェストファイルを作成します。Amazon SageMaker Ground Truthの組み込みバウンディングボックスタスクタイプを使用して、ラベリングジョブを作成します。ラベリングの指示を書きます。
D. Amazon Cognitoでワークフォースを作成する。AWS AmplifyでラベリングWebアプリケーションを構築する。AWS Lambdaを使ってラベリングワークフローバックエンドを構築する。ラベリング指示を書く。
回答を見る
正解: D
質問 #24
機械学習のスペシャリストは、ストリーミング・データを取り込み、調査と分析のためにApache Parquetファイルに格納できる必要がある。このデータを取り込み、正しい形式で格納できるサービスはどれか?
A. AWS DMS
B. Amazon Kinesisデータストリーム
C. Amazon Kinesis Data Firehose
D. アマゾン・キネシス・データ・アナリティクス
回答を見る
正解: C
質問 #25
機械学習のスペシャリストは、AWS KMSを使用してサーバー側の暗号化で保護されたAmazon S3バケットにデータセットをアップロードします。MLスペシャリストは、Amazon S3から同じデータセットを読み取ることができるように、Amazon SageMakerノートブックインスタンスをどのように定義する必要がありますか?
A. すべてのHTTPインバウンド/アウトバウンドトラフィックを許可するセキュリティグループを定義し、それらのセキュリティグループをAmazon SageMakerノートブックインスタンスに割り当てます。
B. Amazon SageMakerノートブックインスタンスがVPCにアクセスできるように設定します。KMSキーポリシーで、ノートブックのKMSロールに権限を付与します。
C. データセットへのS3読み取りアクセスを持つIAMロールをAmazon SageMakerノートブックに割り当てます。KMSキーポリシーでそのロールに権限を付与する。
D. Amazon S3のデータを暗号化するために使用されるのと同じKMSキーを、Amazon SageMakerノートブックインスタンスに割り当てます。
回答を見る
正解: D
質問 #26
機械学習スペシャリストは、複数のデータサイエンティストがノートブックにアクセスし、モデルをトレーニングし、エンドポイントをデプロイできるように Amazon SageMaker を設定しています。最高の運用パフォーマンスを保証するために、スペシャリストは、サイエンティストがモデルをデプロイする頻度、デプロイされた SageMaker エンドポイントの GPU と CPU の使用率、およびエンドポイントが呼び出されたときに生成されるすべてのエラーを追跡できる必要があります。(2つ選んでください)
A. AmazonS3にロードするために、AWS Storage Gatewayでローカルにデータをキャプチャし、AWS Glueを使って変換するよう、ストアに要求する。
B. 変換ロジックでApache Sparkを実行するAmazon EMRクラスタをデプロイし、Amazon S3に蓄積されたレコードに対してクラスタを毎日実行させ、新しい/変換されたレコードをAmazon S3に出力する。
C. 変換ロジックを持つAmazon EC2インスタンスをスピンアップし、Amazon S3に蓄積されたデータレコードを変換させ、変換されたレコードをAmazon S3に出力する。
D. SQLを使用して生のレコード属性を単純な変換値に変換するKinesis Data Firehoseストリームの下流にAmazon Kinesis Data Analyticsストリームを挿入します。
回答を見る
正解: AD
質問 #27
データサイエンティストは、あるオンライン小売企業のためにAmazon SageMakerでカスタム推奨モデルを構築しなければならない。この会社の商品の性質上、顧客は5~10年に4~5商品しか購入しません。そのため、同社は安定した新規顧客の流れに依存しています。新規顧客が登録すると、同社は顧客の嗜好に関するデータを収集します。このユースケースのために、データサイエンティストはデータセットをどのようにトレーニングセットとテストセットに分けるべきでしょうか?
A. すべての相互作用データをシャッフルする。相互作用データの最後の10%をテストセット用に分割する。
B. 各ユーザーの直近10%のインタラクションを特定する。これらのインタラクションをテストセット用に分割する。
C. 交流データが最も少ない10%のユーザーを特定する。これらのユーザーからのすべてのインタラクションデータをテストセット用に分割する。
D. ランダムに10%のユーザーを選ぶ。これらのユーザーからのすべてのインタラクションデータをテストセット用に分割する。
回答を見る
正解: D
質問 #28
あるデータサイエンティストが、Amazon SageMaker 組み込みの BlazingText アルゴリズムを使ってテキスト分類モデルをトレーニングしています。データセットには 5 つのクラスがあり、カテゴリ A には 300 サンプル、カテゴリ B には 292 サンプル、カテゴリ C には 240 サンプル、カテゴリ D には 258 サンプル、カテゴリ E には 310 サンプルがあります。モデルをトレーニングした後,データサイエンティストはトレーニングセットとテストセットの混同行列を作成します.データサイエンティストはどのような結論を出すでしょうか?
A. 自己回帰積分移動平均(AIRMA)
B. 指数平滑化(ETS)
C. 畳み込みニューラルネットワーク - 分位回帰(CNN-QR)
D. 預言者
回答を見る
正解: A
質問 #29
機械学習のスペシャリストが、Amazon SageMaker を使用して、AUC(Area Under the ROC Curve:ROC曲線下面積)を目的指標とする、ツリーベースのアンサンブルモデルのハイパーパラメータチューニングジョブをキックオフする。このワークフローは最終的に、24 時間ごとに陳腐化するデータのクリックスルーをモデル化するために、毎晩ハイパーパラメータを再学習してチューニングするパイプラインに導入される。
A. 最も重要な入力特徴がガウシアンかどうかを示すヒストグラム。
B. t-Distributed Stochastic Neighbor Embedding (t-SNE)を使用して、多数の入力変数を読みやすい次元で視覚化した、ターゲット変数ごとにポイントを色分けした散布図。
C. 各訓練反復における目的指標のパフォーマンスを示す散布図。
D. 最大樹深と目的指標との相関を示す散布図。
回答を見る
正解: B
質問 #30
ある会社が顧客にオンライン・ショッピング・サービスを提供している。同社は、顧客が通常の場所とは異なる場所からサイトにアクセスした場合に追加情報を要求することで、サイトのセキュリティを強化したいと考えている。同社は、機械学習(ML)モデルを呼び出して、いつ追加情報を要求すべきかを決定するプロセスを更新したいと考えている。
A. Amazon SageMaker Ground Truth を使用して、各レコードにアクセス成功または失敗のラベルを付けます。Amazon SageMaker を使用して、因数分解マシン (FM) アルゴリズムを使用してバイナリ分類モデルをトレーニングします。
B. Amazon SageMakerを使用して、IP Insightsアルゴリズムを使用してモデルをトレーニングする。毎晩、新しいログデータを使用してモデルの更新と再トレーニングをスケジュールする。
C. Amazon SageMaker Ground Truthを使用して、各レコードをアクセス試行成功または失敗のいずれかとしてラベル付けする。Amazon SageMaker を使用して、IP Insights アルゴリズムを使用してバイナリ分類モデルをトレーニングします。
D. Amazon SageMakerを使用して、Object2Vecアルゴリズムを使用してモデルをトレーニングする。毎晩、新しいログデータを使用してモデルの更新と再トレーニングをスケジュールする。
回答を見る
正解: B
質問 #31
データサイエンティストは、GZIPファイルのデータストリームをリアルタイムで洞察したいと考えている。
A. Amazon Kinesis Data AnalyticsとAWS Lambda関数でデータを変換する。
B. AWS GlueとカスタムETLスクリプトでデータを変換する。
C. データを変換してAmazon ESクラスタに保存するAmazon Kinesisクライアントライブラリ。
D. Amazon Kinesis Data Firehoseでデータを変換し、Amazon S3バケットに入れる。
回答を見る
正解: A
質問 #32
ある商品カタログの編集長は、研究開発チームに、画像コレクション中の個人がその会社の小売ブランドを着用しているかどうかを検出するのに使用できる機械学習システムの構築を望んでいる。研究者はどの機械学習アルゴリズムを使用すれば、彼らの要求を最もよく満たすだろうか?
A. 潜在的ディリクレ割り当て(LDA)
B. リカレント・ニューラル・ネットワーク(RNN)
C. K平均
D. 畳み込みニューラルネットワーク(CNN)
回答を見る
正解: D
質問 #33
オンライン・ファッション企業で働く機械学習のスペシャリストが、同社のAmazon S3ベースのデータレイク用のデータ取り込みソリューションを構築したいと考えています。このスペシャリストは、次のような将来的な機能を可能にする取り込みメカニズム一式を作成したいと考えています。
A. AWS Glueによるデータカタログ、Amazon Kinesis Data StreamsとAmazon Kinesis Data Analyticsによるリアルタイムのデータ分析、Amazon Kinesis Data FirehoseによるAmazon ESへの配信によるクリックストリーム分析、Amazon EMRによるパーソナライズされた商品レコメンデーションの生成
B. データカタログとしてのAmazon Athena:Amazon Kinesis Data StreamsとAmazon Kinesis Data Analyticsによるほぼリアルタイムのデータインサイト、Amazon Kinesis Data Firehoseによるクリックストリーム分析、AWS Glueによるパーソナライズされた商品レコメンデーションの生成。
C. データカタログとしてのAWS Glue、過去のデータインサイトのためのAmazon Kinesis Data StreamsとAmazon Kinesis Data Analytics、クリックストリーム分析のためのAmazon ESへの配信のためのAmazon Kinesis Data Firehose、パーソナライズされた商品レコメンデーションを生成するためのAmazon EMR。
D. Amazon Athenaによるデータカタログ、Amazon Kinesis Data StreamsとAmazon Kinesis Data Analyticsによる過去のデータ分析、Amazon DynamoDBによるクリックストリーム分析、AWS Glueによるパーソナライズされた商品レコメンデーションの生成。
回答を見る
正解: A
質問 #34
あるデータサイエンティストが、ストリーミングWebトラフィックデータを取り込むパイプラインを開発している。データサイエンティストは、パイプラインの一部として、異常なWebトラフィックパターンを特定するプロセスを実装する必要があります。このパターンは下流でアラートとインシデントレスポンスに使用される。このデータサイエンティストは、必要に応じて、ラベル付けされていない履歴データにアクセスできます。このソリューションでは、次のことを行う必要があります。
A. 過去のウェブトラフィックデータを使用して、Amazon SageMakerのランダムカットフォレスト(RCF)組み込みモデルを使用して異常検知モデルをトレーニングする。Amazon Kinesis Data Streamを使用して、受信したWebトラフィックデータを処理する。前処理の AWS Lambda 関数をアタッチして、各レコードの異常スコアを計算するために RCF モデルを呼び出してデータエンリッチメントを実行する。
B. 過去のWebトラフィックデータを使用して、Amazon SageMaker組み込みのXGBoostモデルを使用して異常検出モデルをトレーニングする。Amazon Kinesisデータストリームを使用して、受信したWebトラフィックデータを処理する。前処理の AWS Lambda 関数をアタッチし、XGBoost モデルを呼び出して各レコードの異常スコアを計算することで、データのエンリッチメントを実行する。
C. Amazon Kinesis Data Firehoseを使ってストリーミングデータを収集する。配信ストリームをAmazon Kinesis Data Analyticsの入力ソースとしてマッピングする。k-Nearest Neighbors (kNN) SQLエクステンションを使用して、ストリーミングデータに対してリアルタイムで実行するSQLクエリを記述し、タンブリングウィンドウを使用して各レコードの異常スコアを計算する。
D. Amazon Kinesis Data Firehoseを使ってストリーミングデータを収集する。配信ストリームをAmazon Kinesis Data Analyticsの入力ソースとしてマッピングする。Amazon Random Cut Forest (RCF) SQLエクステンションを使用して、ストリーミングデータに対してリアルタイムで実行するSQLクエリを記述し、スライディングウィンドウを使用して各レコードの異常スコアを計算する。
回答を見る
正解: D
質問 #35
機械学習の専門家が、10種類の動物を分類する畳み込みニューラルネットワーク(CNN)を構築している。この専門家は、動物の入力画像を受け取り、それを一連の畳み込み層とプーリング層に通し、最後に10個のノードを持つ密な完全接続層に通すニューラルネットワークの一連の層を構築した。スペシャリストはニューラルネットワークから出力を得たいと考えている。
A. 二乗平均平方根誤差(RMSE)
B. 残差プロット
C. 曲線下面積
D. 混乱マトリックス
回答を見る
正解: C
質問 #36
ある企業が、ユーザーの行動を不正か正常かに分類したいと考えている。社内調査に基づき、機械学習スペシャリストは、口座の年齢と取引月という2つの特徴に基づくバイナリ分類器を構築したいと考えています。これらの特徴のクラス分布は、提供された図に示されています。この情報に基づいて、どのモデルが最も高い精度を持つでしょうか?
A. 尺度化指数線形ユニット(SELU)を用いた長期短期記憶(LSTM)モデル
B. ロジスティック回帰
C. 非線形カーネルを用いたサポートベクターマシン(SVM)
D. tanh活性化関数を用いたシングルパーセプトロン
回答を見る
正解: C
質問 #37
ある小売企業の開発者は、毎日の需要予測モデルを作成しています。同社は、1時間ごとの過去の需要データをAmazon S3バケットに保存しています。開発者は、自己回帰積分移動平均(ARIMA)アプローチがユースケースに適したモデルであることを検証したいと考えています。
A. Amazon SageMaker Data Wranglerを使用する。Amazon S3からデータをインポートする。時間ごとの欠損データをインプットします。Seasonal Trend分解を実行する。
B. Amazon SageMaker Autopilotを使用する。S3 データロケーションを指定した新しい実験を作成します。機械学習(ML)問題として ARIMA を選択します。モデルのパフォーマンスを確認します。
C. Amazon SageMaker Data Wranglerを使用する。Amazon S3からデータをインポートする。日次集計を使用してデータを再サンプルします。Seasonal Trend分解を実行する。
D. Amazon SageMaker Autopilotを使用する。S3 データの場所を指定する新しい実験を作成する。時間ごとの欠損値をインプットします。機械学習(ML)問題として ARIMA を選択します。モデルのパフォーマンスをチェックする。
回答を見る
正解: A
質問 #38
機械学習のスペシャリストが、カスタムResNetモデルをDockerコンテナにパッケージングし、Amazon SageMakerをトレーニングに活用しています。スペシャリストはモデルのトレーニングにAmazon EC2 P3インスタンスを使用しており、NVIDIA GPUを活用するためにDockerコンテナを適切に構成する必要があります。
A. NVIDIAドライバをDockerイメージにバンドルします。
B. NVIDIA-Dockerと互換性のあるDockerコンテナを構築します。
C. GPUインスタンス上で実行するために、Dockerコンテナのファイル構造を整理する。
D. Amazon SageMaker CreateTrainingJobリクエストボディにGPUフラグを設定します。
回答を見る
正解: B
質問 #39
あるペット保険会社のマーケティング・マネジャーは、新規顧客を獲得するため、ソーシャル・メディア上でターゲットを絞ったマーケティング・キャンペーンを開始する予定である。現在、同社はAmazon Auroraに以下のデータを持っている:-過去および既存の全顧客のプロファイル-過去および既存の全保険対象ペットのプロファイル-保険契約レベルの情報-受け取った保険料-支払った保険金ソーシャルメディア上で潜在的な新規顧客を特定するために、機械学習モデルを実装するためにどのような手順を踏むべきか?
A. 顧客プロファイルデータの回帰を使って、消費者セグメントの主要な特徴を理解する。ソーシャルメディア上の類似プロフィールを見つける
B. 顧客プロファイルデータのクラスタリングを使用して、消費者セグメントの主要な特性を理解する。ソーシャルメディア上の類似プロフィールを見つける
C. 消費者セグメントの主要な特性を理解するために、顧客プロファイルデータでレコメンデーションエンジンを使用する。ソーシャルメディア上で似たようなプロフィールを見つける。
D. 顧客プロファイルデータに決定木分類エンジンを使用して、消費者セグメントの主要な特性を理解する。ソーシャルメディア上の類似プロフィールを見つける。
回答を見る
正解: C
質問 #40
機械学習のスペシャリストは、Amazon Athenaを使用してAmazon S3上のデータセットをクエリするプロセスを構築する必要があります。データセットには、プレーンテキストのCSVファイルとして保存された80万件以上のレコードが含まれています。各レコードは200カラムを含み、サイズは約1.5MBです。機械学習のスペシャリストは、クエリの実行時間を最小化するために、どのようにデータセットを変換すべきでしょうか?
A. レコードをApache Parquet形式に変換する。
B. レコードをJSON形式に変換する。
C. レコードをGZIP CSV形式に変換する。
D. レコードをXML形式に変換する。
回答を見る
正解: A
質問 #41
ある不動産会社が、過去のデータセットに基づいて住宅価格を予測する機械学習モデルを作成したいと考えている。データセットには32の特徴が含まれています。どのモデルがビジネス要件を満たすでしょうか?
A. ロジスティック回帰
B. 線形回帰
C. K平均
D. 主成分分析(PCA)
回答を見る
正解: B
質問 #42
あるヘルスケア企業が、ニューラルネットワークを使ってX線画像を正常クラスと異常クラスに分類することを計画している。ラベル付けされたデータは、1,000枚の画像からなるトレーニングセットと200枚の画像からなるテストセットに分けられる。50の隠れ層を持つニューラルネットワークモデルを最初に訓練したところ、訓練集合では99%の精度が得られたが、テスト集合では55%の精度しか得られなかった。(3つ選べ)
A. 早期停止
B. 適切なシードによる重みのランダム初期化
C. エポック数を増やす
D. 100ニューロンで別のレイヤーを追加する
回答を見る
正解: BDF
質問 #43
機械学習のスペシャリストが、機械学習の分類モデルを互いに比較/評価するために一般的に使用すべきメトリクスは、次のうちどれですか?
A. リコール
B. 誤分類率
C. 平均絶対パーセント誤差(MAPE)
D. ROC曲線下面積(AUC)
回答を見る
正解: D
質問 #44
34種類の歯磨き粉-48種類の歯ブラシ-43種類のマウスウォッシュこれらの製品の全販売履歴は、Amazon S3で入手可能である。現在、同社は、これらの製品の需要を予測するために、特注の自己回帰積分移動平均(ARIMA)モデルを使用しています。同社は、間もなく発売される新製品の需要を予測したいと考えている。
A. 新製品の需要を予測するために、カスタムARIMAモデルをトレーニングする。
B. Amazon SageMaker DeepARアルゴリズムをトレーニングして、新製品の需要を予測する。
C. 新製品の需要を予測するために、Amazon SageMakerのk-meansクラスタリングアルゴリズムをトレーニングする。
D. 新製品の需要を予測するために、カスタムXGBoostモデルをトレーニングする。
回答を見る
正解: B
質問 #45
あるゲーム会社が、無料でプレイを開始できるが、特定の機能を使用する場合は課金が必要なオンラインゲームを立ち上げた。同社は、新規ユーザーが1年以内に有料ユーザーになるかどうかを予測する自動システムを構築する必要がある。トレーニングデータセットは、1,000のポジティブサンプル(1年以内に有料になったユーザー)と999,000のネガティブサンプル(有料機能を使わなかったユーザー)で構成される。
A. 年齢が0に設定されているデータセットからすべてのレコードを削除する。
B. 値が0のレコードの年齢フィールドの値を、データセットの平均値または中央値で置き換える。
C. データセットから年齢の特徴を削除し、残りの特徴を使ってモデルを訓練する。
D. k-meansクラスタリングを使用して、欠落した特徴を処理する。
回答を見る
正解: CD
質問 #46
ある企業がAmazon SageMakerを使って、マーケティングキャンペーン用の機械学習(ML)モデルをトレーニングし、ホストする。データの大半は機密性の高い顧客データである。データは静止状態で暗号化されなければならない。同社は、AWSにマスターキーのルート・オブ・トラストを維持させ、暗号化キーの使用状況をログに記録させたいと考えています。
A. AWSクラウドHSMに格納されている暗号化キーを使用して、MLのデータボリュームを暗号化し、Amazon S3にあるモデルの成果物とデータを暗号化します。
B. SageMaker組み込みの一時キーを使用して、MLデータボリュームを暗号化します。新しいAmazon Elastic Block Store (Amazon EBS)ボリュームのデフォルト暗号化を有効にする。
C. AWSキーマネージメントサービス(AWS KMS)のカスタマーマネージドキーを使用して、MLデータボリュームを暗号化し、Amazon S3のモデルアーティファクトとデータを暗号化します。
D. AWSセキュリティトークンサービス(AWS STS)を使用して、MLストレージボリュームを暗号化するための一時的なトークンを作成し、Amazon S3内のモデル成果物とデータを暗号化します。
回答を見る
正解: C
質問 #47
ある企業が、ユーザーの行動を不正か正常かのいずれかに分類したいと考えている。内部調査に基づき、機械学習の専門家が、2つの特徴(xで示されるアカウントの年齢とyで示される取引月)に基づいてバイナリ分類器を構築します。どのモデルが最も高い精度を持つでしょうか?
A. 線形サポートベクターマシン(SVM)
B. 決定木
C. 放射基底関数カーネルを用いたサポートベクターマシン(SVM)
D. Tanh活性化関数を持つ単一パーセプトロン
回答を見る
正解: C
質問 #48
あるデータサイエンスチームが、自然言語処理(NLP)アプリケーションの構築を計画している。このアプリケーションのテキストの前処理段階には、品詞タグ付けとキーフェーズの抽出が含まれる。前処理されたテキストは、データサイエンスチームがすでに作成し、Apache MXNetを使用してトレーニングしたカスタム分類アルゴリズムに入力されます。
A. Amazon Comprehendを品詞タグ付け、キーフェーズ抽出、分類タスクに使用する。
B. 品詞タグ付けにAmazon SageMakerのNLPライブラリを使用する。キーフェーズの抽出にAmazon Comprehendを使用する。Amazon SageMakerでAWS Deep Learning Containersを使ってカスタム分類器を構築する。
C. 品詞タグ付けとキーフェーズ抽出タスクにAmazon Comprehendを使用する。カスタム分類器を構築するために、Amazon SageMaker内蔵のLDA(Latent Dirichlet Allocation)アルゴリズムを使用する。
D. Amazon Comprehendを品詞タグ付けとキーフェーズ抽出タスクに使用する。AWS Deep Learning ContainersとAmazon SageMakerを使用して、カスタム分類器を構築する。
回答を見る
正解: B
質問 #49
あるオンライン販売業者が、1列のデータが30%欠落している大規模な複数列のデータセットを持っている。機械学習のスペシャリストは、データセット内の特定の列を使用することで、欠損したデータを再構築できると考えている。
A. リストワイズ削除
B. 前回観測値の繰り越し
C. マルチプルインピュテーション
D. 平均置換
回答を見る
正解: C
質問 #50
ある企業が新製品を発売することになり、ソーシャルメディア上で企業と新製品に関するコメントを監視する仕組みを構築する必要がある。同社はこのソリューションを迅速に実装する必要があり、メッセージの評価に必要なインフラとデータサイエンスのリソースを最小限に抑えたいと考えている。同社はすでに、ソーシャルメディアの投稿を収集するソリューションを導入している。
A. ソーシャルメディア投稿のコーパスからセンチメントを検出するために、BlazingTextアルゴリズムを使ってAmazon SageMakerでモデルをトレーニングする。AWS Lambdaから呼び出せるエンドポイントを公開する。投稿が S3 バケットに追加されたときに Lambda 関数をトリガーしてエンドポイントを呼び出し、Amazon DynamoDB テーブルとカスタム Amazon CloudWatch メトリックにセンチメントを記録する。CloudWatchアラームを使用して、アナリストにトレンドを通知する。
B. Amazon SageMakerで、ソーシャルメディアの投稿のコーパスに含まれるセマンティックコンテンツをモデル化するために、セマンティックセグメンテーションアルゴリズムを使用してモデルをトレーニングする。AWS Lambdaから呼び出せるエンドポイントを公開する。オブジェクトが S3 バケットに追加されたときに Lambda 関数をトリガーしてエンドポイントを呼び出し、Amazon DynamoDB テーブルにセンチメントを記録する。2番目のLambda関数をスケジュールして、最近追加されたレコードをクエリし、アナリストにトレンドを通知するためにAmazon Simple Notification Service (Amazon SNS)通知を送信する。
C. ソーシャルメディアの投稿がS3バケットに追加されたら、AWS Lambda関数をトリガーする。各投稿に対してAmazon Comprehendを呼び出し、メッセージのセンチメントをキャプチャし、Amazon DynamoDBのテーブルにセンチメントを記録する。最近追加されたレコードをクエリし、アナリストにトレンドを通知するためにAmazon Simple Notification Service (Amazon SNS)通知を送信するために、2番目のLambda関数をスケジュールする。
D. ソーシャルメディアの投稿がS3バケットに追加されると、AWS Lambda関数をトリガーする。各投稿に対してAmazon Comprehendを呼び出して、メッセージのセンチメントをキャプチャし、カスタムAmazon CloudWatchメトリックとS3にセンチメントを記録する。CloudWatchアラームを使用して、アナリストに傾向を通知する。
回答を見る
正解: D
質問 #51
データサイエンティストは、各患者とその治療計画について収集した情報に基づいて、将来の患者の転帰を予測する機械学習モデルを開発している。モデルは予測値として連続値を出力する必要があります。利用可能なデータには、4,000人の患者のラベル付き転帰が含まれる。この研究は、加齢とともに悪化することが知られている特定の疾患を持つ65歳以上の個人を対象として実施された。基礎となるデータをレビューしている間に
A. データセットをファイルとしてAmazon S3に保存する。
B. データセットを、Amazon EC2インスタンスに接続されたAmazon EBSボリュームにファイルとして格納する。
C. データセットをテーブルとしてマルチノードのAmazon Redshiftクラスタに格納する。
D. データセットをAmazon DynamoDBのグローバルテーブルとして保存する。
回答を見る
正解: D
質問 #52
ある会社が、毎日100TBの予測を生成する機械学習予測サービスを運営している。機械学習スペシャリストは、予測から毎日の精度-再現曲線の視覚化を生成し、読み取り専用バージョンをビジネスチームに転送する必要があります。
A. 毎日Amazon EMRワークフローを実行して、精密リコールデータを生成し、結果をAmazon S3に保存する。ビジネスチームにS3への読み取り専用アクセス権を与える。
B. アマゾンクイックサイトで毎日の精密リコールデータを作成し、その結果をビジネスチームと共有するダッシュボードで公開する。
C. 毎日Amazon EMRワークフローを実行し、精密リコールデータを生成し、結果をAmazon S3に保存する。Amazon QuickSightでアレイを可視化し、ビジネスチームと共有するダッシュボードで公開する。
D. アマゾンESで毎日の精密リコールデータを作成し、その結果をビジネスチームと共有するダッシュボードで公開する。
回答を見る
正解: C
質問 #53
機械学習のスペシャリストが、長時間稼働するAmazon EMRクラスタの作成を計画している。EMRクラスタには、マスターノード1台、コアノード10台、タスクノード20台があります。コストを節約するために、SpecialistはEMRクラスタでSpot Instancesを使用します。SpecialistはSpot Instancesでどのノードを起動すべきですか?
A. マスターノード
B. いずれかのコアノード
C. いずれかのタスクノード
D. コアノードとタスクノードの両方
回答を見る
正解: C
質問 #54
データサイエンティストは、教師あり学習タスクのモデリングフェーズに備えて、データセットを探索し、サニタイズした。統計的な分散は特徴間で大きく異なることがあり、時には数桁違うこともあります。モデリング・フェーズに進む前に、データ・サイエンティストは実データでの予測性能が可能な限り正確であることを確認したいと考えています。これらの要件を満たすために、データ・サイエンティストはどのような一連のステップを踏むべきでしょうか?
A. データセットにランダムサンプリングを適用する。そして、データセットを訓練セット、検証セット、テストセットに分割する。
B. データセットを訓練セット、検証セット、テストセットに分割する。次に、訓練セットを再スケーリングし、検証セットとテストセットにも同じスケーリングを適用する。
C. データセットを再スケールする。次に、データセットを訓練セット、検証セット、テストセットに分割する。
D. データセットを訓練セット、検証セット、テストセットに分割する。そして、訓練セット、検証セット、テストセットをそれぞれ独立に再スケーリングする。
回答を見る
正解: D
質問 #55
ある製造会社は、品質問題を検出するために機械学習(ML)モデルを使用している。このモデルは、各製造工程の最後に同社の製品を撮影した画像を使用する。同社は、製造現場に数千台の機械を設置し、平均して毎秒1枚の画像を生成している。同社は、1台の製造機械で試験運用を行い、成功を収めた。パイロットでは、MLのスペシャリストがAWS IoT Greengrassを実行する産業用PCと、画像をAmaにアップロードするAWS Lambda関数を使用した。
A. 本番サイトと最寄りのAWSリージョン間に10GbpsのAWS Direct Connect接続を設定する。Direct Connect接続を使用してイメージをアップロードします。SageMakerエンドポイントが使用するインスタンスのサイズとインスタンス数を増やします。
B. AWS IoT Greengrass上で実行される長時間実行Lambda関数を拡張して画像を圧縮し、圧縮ファイルをAmazon S3にアップロードする。推論パイプラインを実行する既存のLambda関数を呼び出す別のLambda関数を使用して、ファイルを解凍します。
C. SageMakerのオートスケーリングを使用する。本番サイトと最寄りのAWSリージョン間でAWS Direct Connect接続を設定する。Direct Connect接続を使用して画像をアップロードします。
D. 各マシンにインストールされている産業用PC上で動作しているAWS IoT Greengrassコア上に、Lambda関数とMLモデルをデプロイする。AWS IoT Greengrass上で動作する長時間実行Lambda関数を拡張し、キャプチャした画像でLambda関数を呼び出し、結果を直接Webサービスに転送するエッジコンポーネント上で推論を実行する。
回答を見る
正解: D
質問 #56
ある企業が、異なる部署のデータサイエンティストとエンジニアが Amazon SageMaker Studio ドメインにアクセスできる仕組みを構築しています。この企業は、データサイエンティストとエンジニアが企業認証情報を使用してログインできる中央プロキシアプリケーションを構築したいと考えています。プロキシアプリケーションは、会社の既存の ID プロバイダ (IdP) を使用してユーザーを認証します。このアプリケーションは、ユーザーを適切な SageMaker Studio ドメインにルーティングします。
A. SageMaker CreatePresignedDomainUrl APIを使用して、DynamoDBのテーブルに従ってドメインごとに署名済みURLを生成する。署名済みURLをプロキシアプリケーションに渡す。
B. SageMaker CreateHuman TaskUi API を使用して UI URL を生成します。その URL をプロキシ・アプリケーションに渡します。
C. Amazon SageMaker ListHumanTaskUis APIを使用して、すべてのUI URLをリストする。プロキシアプリケーションがURLを使用できるように、適切なURLをDynamoDBテーブルに渡す。
D. SageMaker CreatePresignedNotebookInstanceUrl API を使用して、署名済み URL を生成します。署名済み URL をプロキシアプリケーションに渡します。
回答を見る
正解: A
質問 #57
ある製造会社が機械学習の専門家に、不良部品を8つの不良タイプのいずれかに分類するモデルの開発を依頼した。同社は、欠陥の種類ごとにおよそ100,000枚の画像をトレーニング用に提供した。画像分類モデルの最初のトレーニング中に、専門家は検証精度が80%であるのに対し、トレーニング精度は90%であることに気づく。この種の画像分類の人間レベルの性能は約90%であることが知られている。
A. トレーニング時間が長い
B. ネットワークを大きくする
C. 別のオプティマイザを使う
D. 何らかの正則化を用いる
回答を見る
正解: D
質問 #58
ある企業が、Amazon SageMaker ホスティングサービスを使用するエンドポイントで、機械学習(ML)モデルをセットアップし、本番環境に導入しました。ML チームは、ワークロードの変更をサポートするために、SageMaker インスタンスの自動スケーリングを設定しました。テスト中、チームは新しいインスタンスの準備が整う前に追加のインスタンスが起動されていることに気づきました。この動作を早急に変更する必要があります。ML チームはこの問題をどのように解決できますか?
A. スケールインのクールダウン期間を短くする。インスタンスの設定最大容量を増やす。
B. SageMakerを使用して、現在のエンドポイントをマルチモデルエンドポイントに置き換える。
C. Amazon API GatewayとAWS Lambdaをセットアップして、SageMaker推論エンドポイントをトリガーします。
D. スケールアウト・アクティビティのクールダウン期間を長くする。
回答を見る
正解: D
質問 #59
機械学習のスペシャリストが、企業 VPC のプライベートサブネットで Amazon SageMaker notebook インスタンスを使用しています。ML スペシャリストは、Amazon SageMaker notebook インスタンスの Amazon EBS ボリュームに重要なデータを保存しており、その EBS ボリュームのスナップショットを取得する必要があります。しかし、MLスペシャリストは、VPC内でAmazon SageMakerノートブックインスタンスのEBSボリュームまたはAmazon EC2インスタンスを見つけることができません。
A. Amazon SageMakerノートブックインスタンスは、顧客アカウント内のEC2インスタンスに基づいていますが、VPCの外で実行されます。
B. Amazon SageMakerノートブックインスタンスは、顧客アカウント内のAmazon ECSサービスに基づいています。
C. Amazon SageMakerノートブックインスタンスは、AWSサービスアカウント内で実行されているEC2インスタンスに基づいています。
D. Amazon SageMakerノートブックインスタンスは、AWSサービスアカウント内で動作するAWS ECSインスタンスに基づいています。
回答を見る
正解: C
質問 #60
あるデータサイエンティストは、Amazon Forecastを使って小売企業の在庫需要の予測モデルを構築したいと考えています。その会社は、Amazon S3バケットに保存された.csvファイルとして、商品の過去の在庫需要のデータセットを提供しています。下の表はデータセットのサンプルです。データサイエンティストはこのデータをどのように変換すべきでしょうか?
A. モデルをM5インスタンスのバッチ変換ジョブとして再デプロイします。
B. モデルをM5インスタンスに再デプロイする。Amazon Elastic Inferenceをインスタンスにアタッチする。
C. モデルをP3dnインスタンスに再配置します。
D. P3インスタンスを使用して、Amazon Elastic Container Service(Amazon ECS)クラスタにモデルをデプロイします。
回答を見る
正解: A
質問 #61
ある企業が、ユーザーの行動を不正か正常かに分類したいと考えている。社内調査に基づき、機械学習スペシャリストは、口座の年齢と取引月という 2 つの特徴に基づくバイナリ分類器を構築したいと考えています。これらの特徴のクラス分布は、提供された図に示されています。この情報に基づいて、どのモデルが不正クラスに関して最も高い想起を持つでしょうか?
A. 決定木
B. 線形サポートベクターマシン(SVM)
C. ナイーブベイズ分類器
D. シグモイド活性化関数を持つシングルパーセプトロン
回答を見る
正解: C
質問 #62
ある保険会社が、カメラを使ってドライバーの行動を観察し、ドライバーが注意散漫に見えると警告を発する、自動車用の新しい装置を開発している。同社は、機械学習の専門家が機械学習モデルの訓練と評価に使用する、管理された環境で約10,000の訓練画像を作成した。モデル評価の間、専門家は、エポック数が増加するにつれて訓練エラー率が早く減少し、モデルが正確に未解決の推定を行っていないことに気づく。
A. CSVファイル
B. パーケットファイル
C. 圧縮JSON
D. レコードイオー
回答を見る
正解: BE
質問 #63
機械学習のスペシャリストが不正検出チームに配属され、XGBoostモデルをチューニングしなければならない。しかし、未知のデータでは期待通りに動作しません。既存のパラメータは以下のとおりです。オーバーフィッティングを避けるために、スペシャリストが従うべきパラメータチューニングガイドラインはどれですか?
A. max_depthパラメータの値を大きくする。
B. max_depthパラメータの値を下げる。
C. 目的をbinary:logisticに更新する。
D. min_child_weightパラメータの値を下げる。
回答を見る
正解: B
質問 #64
あるデータ・サイエンティストは、レコードID、200のカテゴリーのうちの最終結果、および最終結果の日付から成る保険レコードのセットを受け取った。請求内容に関する部分的な情報も提供されているが、200のカテゴリーのうちのいくつかについてのみである。各結果カテゴリーについて、過去3年間に分布する数百のレコードがある。データ・サイエンティストは、月ごとに各カテゴリーで予想されるクレーム件数を、数ヶ月前から予測したいと考えています。
A. 請求内容に基づく200のカテゴリーを教師あり学習で月別に分類。
B. クレームIDとタイムスタンプを用いた強化学習により、エージェントは各カテゴリーのクレーム件数を月ごとに識別する。
C. クレームIDとタイムスタンプを使用した予測により、各カテゴリーのクレーム数を月ごとに特定する。
D. クレーム内容の一部情報が提供されているカテゴリーについては教師あり学習による分類を行い、それ以外のカテゴリーについてはクレームIDとタイムスタンプを用いた予測を行う。
回答を見る
正解: C
質問 #65
あるデータ・サイエンティストは、金融取引が不正かどうかを分類する機械学習モデルを開発しています。データサイエンティストはデータに XGBoost アルゴリズムを適用し、訓練されたモデルを以前に見たことのない検証データセットに適用すると、次のような混同行列が得られます。モデルの精度は99.1%ですが、データ・サイエンティストはfalの数を減らす必要があります。
A. 前処理をn-gramを使うように変更する。
B. 最大の文の単語数よりも多くのノードをリカレント・ニューラル・ネットワーク(RNN)に追加する。
C. 注意メカニズムに関連するハイパーパラメータを調整する。
D. 異なるウェイト初期化タイプを選択する。
回答を見る
正解: DE
質問 #66
データサイエンティストは雇用データを分析する必要があります。このデータセットには、10種類の特徴にわたる人々の約1,000万件のオブザベーションが含まれています。予備分析の間に、データサイエンティストは収入と年齢の分布が正規分布ではないことに気づきます。所得レベルは予想通り右スキューを示し、より高い所得を持つ個人は少なくなっていますが、年齢分布も右スキューを示し、労働力に参加する高齢の個人は少なくなっています。
A. トレーニングに使用するミニバッチのトレーニングデータのランダム性を高める。
B. 全体のデータのうち、より高い割合をトレーニングデータセットに割り当てる。
C. L1またはL2正則化とドロップアウトをトレーニングに適用する。
D. ディープラーニングネットワークのレイヤーとユニット(ニューロン)の数を減らす
回答を見る
正解: BD
質問 #67
機械学習の専門家が、画像中の車種を識別するモデルを訓練している。スペシャリストは転移学習と、一般的な物体の画像で学習した既存のモデルを使いたいと考えています。スペシャリストは、異なる車種とモデルを含む画像の大規模なカスタムデータセットを照合しました。スペシャリストは、カスタムデータでモデルを再学習させるために、モデルを初期化するために何をすべきでしょうか?
A. 最後の完全連結層を含むすべての層の重みをランダムにしてモデルを初期化する。
B. すべての層で事前に訓練された重みでモデルを初期化し、最後の完全連結層を置き換える。
C. すべての層の重みをランダムにしてモデルを初期化し、最後の完全連結層を置き換える。
D. 最後の完全連結層を含むすべての層で事前に訓練された重みでモデルを初期化する。
回答を見る
正解: B
質問 #68
ある企業がウェブ広告のクリックから機械学習(ML)データをAmazon S3データレイクに取り込む。クリックデータは、Kinesis Producer Library(KPL)を使用してAmazon Kinesisデータストリームに追加される。データは、Amazon Kinesis Data Firehoseデリバリーストリームを使用して、データストリームからS3データレイクにロードされる。データ量が増えるにつれて、MLのスペシャリストはAmazon S3に取り込まれるデータの速度が比較的一定であることに気づきます。また、Kinesis Data Stream用のデータのバックログも増加している。
A. 配信ストリームが書き込むS3プレフィックスの数を増やす。
B. データストリームの保存期間を短くする。
C. データストリームのシャード数を増やす。
D. Kinesisクライアント・ライブラリ(KCL)を使用してコンシューマを追加する。
回答を見る
正解: C
質問 #69
法律事務所では、毎日何千もの契約を扱っている。すべての契約書には署名が必要だ。現在、弁護士が手作業ですべての契約書の署名をチェックしています。法律事務所は、各契約書の署名検出を自動化する機械学習(ML)ソリューションを開発しています。法律事務所は、各契約書の各ページの信頼スコアを生成するために、どのAmazon Textract APIアクションを使用できますか?
A. AnalyzeDocument APIアクションを使用します。FeatureTypesパラメータをSIGNATURESに設定する。各ページの信頼度スコアを返す。
B. ドキュメントに対してPrediction APIコールを使用する。各ページの署名と信頼度スコアを返す。
C. StartDocumentAnalysis APIアクションを使用して署名を検出する。各ページの信頼度スコアを返す。
D. GetDocumentAnalysis APIアクションを使用して署名を検出する。各ページの信頼度スコアを返す
回答を見る
正解: A
質問 #70
機械学習のスペシャリストが、Amazon SageMaker用のスケーラブルなデータストレージソリューションを設計しています。train.pyスクリプトとして実装された既存のTensorFlowベースのモデルがあり、現在TFRecordsとして保存されている静的なトレーニングデータに依存しています。Amazon SageMakerにトレーニングデータを提供するどの方法が、最も少ない開発オーバーヘッドでビジネス要件を満たすでしょうか?
A. Amazon SageMakerのスクリプトモードを使用し、train
B. Amazon SageMakerのスクリプトモードを使い、train
C. train
D. Amazon SageMakerが受け入れる形式でデータを準備する。AWS GlueまたはAWS Lambdaを使用してデータを再フォーマットし、Amazon S3バケットに格納します。
回答を見る
正解: B
質問 #71
このグラフは、ニューラルネットワークのエポックに対する訓練と検証の損失を示している。訓練されるネットワークは以下のとおりである:-2つの密な層、1つの出力ニューロン-各層に100ニューロン-100エポック-重みのランダムな初期化検証セットにおける精度の面でモデルの性能を向上させるために使用できるテクニックはどれか?
A. 線形回帰は不適切です。残差は一定の分散を持たない。
B. 線形回帰は不適切である。基礎データには外れ値がある。
C. 線形回帰が適切。残差の平均はゼロである。
D. 線形回帰が適切。残差は一定の分散を持つ。
回答を見る
正解: A
質問 #72
機械学習のスペシャリストが、機械学習パイプラインで処理されたすべての顧客訪問の分析を実行したいと考えているオンライン小売業者のために働いています。データはAmazon Kinesis Data Streamsによって最大100トランザクション/秒で取り込まれる必要があり、JSONデータブロブのサイズは100 KBです。このデータを正常に取り込むためにスペシャリストが使用すべきKinesis Data Streamsのシャードの最小数はいくつですか?
A. 1 欠片
B. 10 欠片
C. 破片100個
D. 1,000個の破片
回答を見る
正解: B
質問 #73
ある移動体通信事業者が、Amazon AthenaとAmazon S3を使用して、会社の業務を分析し最適化するための分析プラットフォームを構築しています。ソースシステムはリアルタイムで.CSV形式のデータを送信します。データエンジニアリングチームは、Amazon S3に保存する前にデータをApache Parquet形式に変換したいと考えています。
A. Amazon EC2インスタンス上でApache Kafka Streamsを使用して
B. Amazon Kinesis Data Streamsから
C. Amazon EMRクラスタでApache Spark Structured Streamingを使用して
D. Amazon Kinesis Data Streamsから
回答を見る
正解: B
質問 #74
ある図書館では、Amazon Rekognitionを利用した自動貸出システムを開発している。図書館メンバーの顔の画像はAmazon S3のバケットに保存されています。会員が本を借りるとき、Amazon Rekognition CompareFaces APIオペレーションは、Amazon S3に保存された顔と実際の顔を比較する。図書館は、静止時に画像が暗号化されていることを確認することで、セキュリティを向上させる必要がある。また、画像がAmazon Rekognitionで使用される場合、転送中に暗号化される必要があります。ライブラリはまた
A. S3バケットでサーバー側の暗号化を有効にする。AWSサポートチケットを提出し、AWSサポートが提供するプロセスに従って、サービス向上のためのイメージの使用を許可しないようにします。
B. 画像を保存するためにAmazon Rekognitionコレクションの使用に切り替える。CompareFaces API操作の代わりに、IndexFacesおよびSearchFacesByImage API操作を使用する。
C. 画像を保存するためのAmazon S3と、顔を比較するためのAmazon RekognitionのAWS GovCloud(US)リージョンの使用に切り替えます。VPN接続を設定し、VPNを介してのみAmazon Rekognition APIオペレーションを呼び出します。
D. S3バケットでクライアント側の暗号化を有効にする。VPN接続を設定し、VPNを介してのみAmazon Rekognition API操作を呼び出す。
回答を見る
正解: A
質問 #75
あるロジスティクス会社は、10カ所の倉庫にある1つの商品の来月の在庫必要量を予測するモデルを必要としています。機械学習の専門家がAmazon Forecastを使って、3年間の月次データから予測モデルを開発します。欠損データはありません。予測モデルの平均絶対パーセンテージエラー(MAPE)は、現在の人間の予測担当者によって生成されたMAPEよりもはるかに大きいです。
A. AWS GlueのETLジョブを使用して、データセットを対象の時系列データセットとアイテムのメタデータデータセットに分離する。両方のデータセットを
B. Amazon SageMakerのJupyterノートブックを使用して、データセットを関連する時系列データセットとアイテム・メタデータ・データセットに分離する。Amazon Auroraで両方のデータセットをテーブルとしてアップロードする。
C. AWSバッチジョブを使用して、データセットをターゲット時系列データセット、関連時系列データセット、アイテムメタデータデータセットに分離する。それらをローカルマシンからForecastに直接アップロードする。
D. Amazon SageMakerのJupyterノートブックを使って、データを最適化されたprotobuf recordIOフォーマットに変換する。このフォーマットのデータセットをAmazon S3にアップロードする。
回答を見る
正解: AD
質問 #76
ある企業が Amazon SageMaker 環境を構築しています。企業のデータセキュリティポリシーでは、インターネット経由の通信を許可していません。Amazon SageMakerノートブックインスタンスへの直接インターネットアクセスを有効にせずに、Amazon SageMakerサービスを有効にするにはどうすればよいですか?
A. 企業VPC内にNATゲートウェイを作成する。
B. Amazon SageMakerのトラフィックをオンプレミスのネットワーク経由でルーティングする。
C. 企業VP内にAmazon SageMaker VPCインターフェイスエンドポイントを作成する。
D. AmazonSageMakerをホストしているAmazon VPCとVPCピアリングを作成します。
回答を見る
正解: C

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: