すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

2024更新MLS-C01試験問題&模擬テスト、AWS認定機械学習|SPOTO

SPOTOの更新された模擬試験と試験問題で、2024年のMLS-C01試験に合格する準備をしましょう。AWS Certified Machine Learning-Specialty (MLS-C01)認定資格は、開発またはデータサイエンスの職務に従事するプロフェッショナルを対象としており、AWSクラウド上で機械学習モデルを構築、トレーニング、微調整、およびデプロイするスキルを検証します。試験問題と解答をマスターすることで、MLアプリケーションにAWSサービスを活用できることを証明します。包括的な準備と知識の評価のために、模擬試験と試験ダンプを活用します。無料の試験資料と試験シミュレータにアクセスして、試験の練習と準備態勢を強化します。SPOTOは、あなたがMLS-C01試験で優秀な成績を収め、機械学習のダイナミックな分野でキャリアアップできるように、サンプル問題や模擬試験を含むさまざまなリソースを提供します。SPOTOのサポートで自信を持って準備を進め、認定資格を取得してください。
他のオンライン試験を受ける

質問 #1
機械学習のスペシャリストが、AmazonSageMaker を使用して、AUC(Area Under the ROC Curve:ROC曲線下面積)を目的指標とするツリーベースのアンサンブルモデルのハイパーパラメータチューニングジョブをキックオフする。このワークフローは最終的に、24 時間ごとに陳腐化するデータのクリックスルーをモデル化するために、毎晩ハイパーパラメータの再トレーニングとチューニングを行うアピプラインに導入される。
A. 最も重要な入力特徴がガウシアンであるかどうかを示すヒストグラム。
B. t-Distributed Stochastic Neighbor Embedding (t-SNE)を使用して、多数の入力変数を読みやすい次元で可視化した、ターゲット変数で色分けされた点を持つ散布図。
C. 各トレーニング反復における目的指標のパフォーマンスを示す散布図。
D. 最大樹深と目的指標との相関を示す散布図。
回答を見る
正解: B
質問 #2
ある不動産会社が、新築住宅の価格を予測する新製品を発売する。物件と価格の履歴データは、Amazon S3バケットに.csv形式で保存されている。データにはヘッダー、いくつかのカテゴリーフィールド、いくつかの欠損値がある。同社のデータサイエンティストは、Pythonと一般的なオープンソースライブラリを使用して、欠損値をゼロで埋めました。データサイエンティストはカテゴリフィールドをすべて削除し、オープンソースの線形回帰アルゴを使用してモデルをトレーニングした。
A. S3バケットにアクセスできるAmazon Elastic Container Service(Amazon ECS)のサービス連携ロールを作成する。AWS Deep Learning Containersイメージに基づくECSクラスタを作成する。フィーチャーエンジニアリングを実行するコードを書きます。価格予測のためのロジスティック回帰モデルを、データセットのあるバケットを指定してトレーニングする。トレーニングが完了するまで待つ。推論を実行する。
B. Amazon SageMaker ノートブックを作成し、ノートブックに関連付けられた新しい IAM ロールを設定します。S3 バケットからデータセットを取り出します。特徴工学変換、回帰アルゴリズム、ハイパーパラメータのさまざまな組み合わせを調べる。ノートブック内のすべての結果を比較し、最も正確な構成を予測用のエンドポイントにデプロイします。
C. Amazon S3、Amazon SageMaker、および AWS Lambda にアクセスできる IAM ロールを作成します。SageMaker 組み込みの XGBoost モデルで、データセットのあるバケットを指すトレーニングジョブを作成します。ターゲットフィーチャとして価格を指定します。ジョブが完了するまで待ちます。モデルのアーティファクトを Lambda 関数にロードして、新築住宅の価格に関する推論を行います。
D. S3 バケットにアクセスできる Amazon SageMaker 用の IAM ロールを作成します。SageMaker Autopilot で、データセットのあるバケットを指す SageMaker AutoML ジョブを作成します。ターゲット属性として価格を指定します。ジョブが完了するまで待ちます。予測に最適なモデルをデプロイします。
回答を見る
正解: A
質問 #3
あるデータサイエンティストが、Amazon SageMaker 組み込みの BlazingText アルゴリズムを使って、テキスト分類モデルをトレーニングしています。データセットには5つのクラスがあり、カテゴリAには300サンプル、カテゴリBには292サンプル、カテゴリCには240サンプル、カテゴリDには258サンプル、カテゴリEには310サンプルがあります。モデルをトレーニングした後、データ・サイエンティストはトレーニング・セットとテスト・セットの融合行列を作成します。
A. CクラスとDクラスは似すぎている。
B. ホールドアウト・クロスバリデーションにはデータセットが小さすぎる。
C. データ分布は歪んでいる。
D. モデルはクラスBとEに対してオーバーフィットしている。
回答を見る
正解: B
質問 #4
機械学習のスペシャリストが、あるモデルの実験中に以下の統計量を発見した。スペシャリストは実験から何を得ることができますか?
A. 実験1のモデルは分散誤差が大きかったが、実験3では正則化によって分散誤差が減少した。 実験2は、実験1ではバイアス誤差が最小であることを示している。
B. 実験1のモデルはバイアス誤差が大きかったが、実験3では正則化によって減少した 実験2では、実験1の分散誤差が最小であることがわかる
C. 実験1では、高いバイアス誤差と高い分散誤差があったが、実験3では正則化によって減少した。 実験2では、高いバイアスは、モデルの層やニューロンを増やしても減少しないことが示された。
D. 実験1のモデルはランダム・ノイズの誤差が大きかったが、実験3では正則化によって減少した 実験2は、モデルの層やニューロンを増やしてもランダム・ノイズは減少しないことを示している
回答を見る
正解: C
質問 #5
ある会社が、入手可能な過去の販売データに基づいて住宅の販売価格を予測したいと考えている。会社のデータセットのターゲット変数は販売価格である。特徴量には、敷地面積、居住面積、非居住面積、寝室数、浴室数、建築年、郵便番号などのパラメータが含まれます。同社は、住宅販売価格を予測するために多変量線形回帰を利用したいと考えている。
A. 特徴のヒストグラムをプロットし、その標準偏差を計算する。分散が大きい特徴を削除する。
B. 特徴のヒストグラムをプロットし、その標準偏差を計算する。分散が小さい特徴を削除する。
C. データセットの相互相関を示すヒートマップを作成する。相互相関スコアが低い特徴を削除する。
D. ターゲット変数に対するすべてのフィーチャの相関チェックを実行する。ターゲット変数の相関スコアが低いフィーチャーを削除する。
回答を見る
正解: D
質問 #6
ある企業が、ユーザーの行動を不正か正常かに分類したいと考えている。社内調査に基づき、機械学習スペシャリストは、2つの特徴(口座の年齢と取引月)に基づいてバイナリ分類器を構築したいと考えています。これらの特徴のクラス分布は、提供された図に示されています。この情報に基づいて、どのモデルが不正クラスに関して最も高いリコールを持つでしょうか?
A. 決定木
B. 線形サポートベクターマシン(SVM)
C. ナイーブベイズ分類器
D. シグモイド活性化関数を持つシングルパーセプトロン
回答を見る
正解: C
質問 #7
ある製造会社は、品質問題を検出するために機械学習(ML)モデルを使用している。このモデルは、各製造工程の最後に同社の製品を撮影した画像を使用する。製造現場には何千台もの機械があり、平均して毎秒1枚の画像を生成している。パイロットでは、MLのスペシャリストは、画像をAmazonにアップロードする長時間稼働のAWS Lambda関数とAWS IoT Greengrassを実行する産業用PCを使用した。
A. 本番サイトと最寄りのAWSリージョン間に10GbpsのAWS Direct Connect接続を設定する。Direct Connect 接続を使用してイメージをアップロードします。インスタンスのサイズを大きくし、SageMaker エンドポイントが使用するインスタンスの数を増やします。
B. AWS IoT Greengrass上で実行される長時間実行Lambda関数を拡張して画像を圧縮し、圧縮ファイルをAmazon S3にアップロードする。推論パイプラインを実行する既存のLambda関数を呼び出す別のLambda関数を使用して、ファイルを解凍します。
C. SageMakerのオートスケーリングを使用する。本番サイトと最寄りのAWSリージョン間でAWS Direct Connect接続を設定します。Direct Connect 接続を使用して画像をアップロードします。
D. 各マシンにインストールされている産業用PC上で動作しているAWS IoT Greengrassコア上に、Lambda関数とMLモデルをデプロイする。AWS IoT Greengrass上で動作する長時間実行Lambda関数を拡張し、キャプチャした画像でLambda関数を呼び出し、結果を直接Webサービスに転送するエッジコンポーネント上で推論を実行する。
回答を見る
正解: D
質問 #8
機械学習のスペシャリストが画像分類ディープラーニングモデルを構築した。しかし、トレーニング精度が99%、テスト精度が75%rというオーバーフィッティングの問題が発生しました。スペシャリストはこの問題にどのように対処すべきでしょうか?
A. 最適化プロセスがローカル・ミニマムでトラップされたため、学習率を上げる必要がある。
B. モデルが十分に一般化されていないため、平坦化層での脱落率を上げるべきである。
C. 平坦化レイヤーの隣にある高密度レイヤーの次元を上げる必要がある。
D. 最適化プロセスがグローバルミニマムに達する前に終了したため、エポック数を増やす必要があります。
回答を見る
正解: D
質問 #9
ある小売企業は、グローバルなオンラインマーケットプレイスを通じて商品を販売している。同社は、機械学習(ML)を使って顧客からのフィードバックを分析し、特定の改善点を特定したいと考えている。ある開発者は、オンラインマーケットプレイスからカスタマーレビューを収集し、Amazon S3バケットに保存するツールを構築した。MLモデルを構築するデータサイエンティストは、データセットのサイズを増やすために追加のデータソースを特定する必要があります。
A. 顧客と同社の顧客サービス担当者が交換した電子メール
B. 企業名または製品名を含むソーシャルメディアへの投稿
C. 一般に公開されているニュース記事集
D. 一般に公開されているカスタマーレビューのコレクション
E. 会社の製品売上高
F. 自社製品の取扱説明書
回答を見る
正解: BDF
質問 #10
データサイエンティストは、高速でリアルタイムのストリーミングデータのサーバーレス取り込みと分析ソリューションを作成する必要がある。取り込みプロセスでは、入力されたレコードをバッファリングし、JSONからクエリに最適化されたカラムナーフォーマットに変換する必要があります。出力データストアは可用性が高く、アナリストはデータに対してSQLクエリを実行し、既存のビジネスインテリジェンスダッシュボードに接続できなければなりません。この要件を満たすために、データサイエンティストはどのソリューションを構築すべきでしょうか?
A. AWS Glue Data Catalog に、受信データ形式のスキーマを作成する。
B. Amazon Kinesis Data Firehose配信ストリームを使用してデータをストリーミングし、Amazon S3に配信する前にAWS Glue Data Catalogを使用してデータをApache ParquetまたはORC形式に変換する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBlツールに接続する。
C. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用してAWS Lambda関数をトリガーし、データをApache ParquetまたはORCフォーマットに変換し、Amazon S3の処理済みデータロケーションにデータを書き込む。Analyst に Amazon Athena を使用して Amazon S3 から直接データをクエリさせ、Athena Java Database Connectivity (JDBC) コネクタを使用して Bl ツールに接続する。
D. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用して、データをApache ParquetまたはORC形式に変換し、Amazon RDS PostgreSQLデータベースに挿入するAWS Lambda関数をトリガーする。
E. アナリストに、RDS データベースからクエリを実行してダッシュボードを作成させる。
F. Amazon Kinesis Data Analyticsを使用してストリーミングデータを取り込み、リアルタイムのSQLクエリーを実行してレコードをApache Parquetに変換してからAmazon S3に配信する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBlツールに接続する。
回答を見る
正解: C
質問 #11
あるデータ・サイエンティストは、一連のテスト結果から患者が特定の病気に罹患しているかどうかを予測するバイナリ分類器を開発しています。データ・サイエンティストは、母集団から無作為に選ばれた400人の患者のデータを持っています。データ・サイエンティストはどの交差検証戦略を採用すべきですか?
A. k=5のk倍クロスバリデーション戦略
B. k=5の層化kフォールド・クロスバリデーション戦略
C. k=5で3回繰り返すk-foldクロスバリデーション戦略
D. 訓練と検証を80/20の割合で分ける。
回答を見る
正解: B
質問 #12
セキュリティに敏感な企業の機械学習スペシャリストが、モデルトレーニング用のデータセットを準備している。データセットはAmazon S3に保存され、個人を特定できる情報(Pll)を含んでいる。データセットは * VPCからのみアクセス可能であること。 * 公共のインターネットを横断してはならない。これらの要件を満たすにはどうすればよいでしょうか?
A. VPCエンドポイントを作成し、指定されたVPCエンドポイントとVPCへのアクセスを制限するバケットアクセスポリシーを適用します。
B. VPCエンドポイントを作成し、指定されたVPCエンドポイントとAmazon EC2インスタンスからのアクセスを許可するバケットアクセスポリシーを適用する。
C. VPCエンドポイントを作成し、ネットワークアクセス制御リスト(NACL)を使用して、指定されたVPCエンドポイントとAmazon EC2インスタンス間のトラフィックのみを許可する。
D. VPCエンドポイントを作成し、セキュリティグループを使用して、指定されたVPCエンドポイントとAmazon EC2インスタンスへのアクセスを制限する。
回答を見る
正解: B
質問 #13
分類問題のためのニューラルネットワークのミニバッチ訓練中に、データサイエンティストは訓練精度が振動していることに気づきました。 この問題の最も可能性の高い原因は何ですか?
A. データセットのクラス分布が不均衡である。
B. データセットのシャッフルを無効にする
C. バッチサイズが大きすぎる。
D. 学習率は非常に高い
回答を見る
正解: C
質問 #14
ある会社は、ユーザーの行動を不正か正常かのどちらかに分類したい。内部調査に基づき、機械学習の専門家が、2つの特徴(xで示される口座の年齢とyで示される取引月)に基づいてバイナリ分類器を構築します。どのモデルが最も高い精度を持つでしょうか?
A. 線形サポートベクターマシン(SVM)
B. 決定木
C. 放射基底関数カーネルを用いたサポートベクターマシン(SVM)
D. Tanh活性化関数を持つシングルパーセプトロン
回答を見る
正解: C
質問 #15
機械学習スペシャリストは、Amazon Athenaを使用してAmazon S3上のデータセットをクエリするプロセスを構築する必要があります。データセットには、プレーンテキストのCSVファイルとして保存された80万件以上のレコードが含まれています。各レコードは200カラムを含み、サイズは約1.5MBです。機械学習スペシャリストは、クエリの実行時間を最小化するために、データセットをどのように変換すべきでしょうか?
A. レコードをApache Parquet形式に変換する。
B. レコードをJSON形式に変換する。
C. レコードをGZIP CSV形式に変換する。
D. レコードをXML形式に変換する。
回答を見る
正解: A
質問 #16
ある都市が大気汚染の影響に対処するために大気質を監視したいと考えています。 機械学習の専門家が、今後2日間の大気質を汚染物質の百万分の一単位で予測する必要があります。
A. Amazon SageMaker k-最近傍探索(kNN)アルゴリズムを、predictor_typeがregressorの1年間のデータからなる単一の時系列で使用します。
B. Amazon SageMakerランダムカットフォレスト(RCF)を1年間のデータからなる単一時系列に使用する。
C. Amazon SageMaker Linear Learner アルゴリズムを、predictor_type が regressor の、1 年分のデータからなる単一時系列に使用します。
D. Amazon SageMaker Linear Learner アルゴリズムを、predictor_type の分類器で、1年間のデータからなる単一の時系列に使用します。
回答を見る
正解: A
質問 #17
あるゲーム会社が、無料で始められるが、特定の機能を使う場合は有料となるオンラインゲームを立ち上げた。同社は、新規ユーザが1年以内に有料ユーザになるかどうかを予測する自動システムを構築する必要がある。トレーニングデータセットは、1,000のポジティブサンプル(1年以内に有料になったユーザー)と999,000のネガティブサンプル(有料機能を使わなかったユーザー)で構成されている。E
A. ランダムフォレストにさらにディープツリーを追加して、モデルがより多くの特徴を学習できるようにする。
B. テストデータセットのサンプルのコピーをトレーニングデータセットに含める。
C. 正サンプルを複製し、複製したデータに少量のノイズを加えることで、より多くの正サンプルを生成する。
D. 偽陰性の方が偽陽性よりもコスト値への影響が大きくなるように、コスト関数を変更する。
E. 偽陽性の方が偽陰性よりもコスト値への影響が大きくなるように、コスト関数を変更する。
回答を見る
正解: CD
質問 #18
機械学習のスペシャリストが、トレーニングのためにAmazon SageMakerを使用してTensorFlowプロジェクトを割り当てられ、Wi-Fiアクセスがない状態で長時間作業を続ける必要があります。スペシャリストは、作業を継続するためにどのアプローチを使用する必要がありますか?
A. ノートパソコンにPython3とboto3をインストールし、その環境を使ってコード開発を続ける。
B. Amazon SageMakerで使用しているTensorFlow DockerコンテナをGitHubからローカル環境にダウンロードし、Amazon SageMaker Python SDKを使用してコードをテストする。
C. SageMaker環境でTensorFlowカーネルをエミュレートするために、tensorflow
D. SageMaker ノートブックをローカル環境にダウンロードし、Jupyter ノートブックをラップトップにインストールして、ローカルノートブックで開発を続ける。
回答を見る
正解: B
質問 #19
機械学習のスペシャリストが、100万文からなるデータセットを処理する新しい自然言語処理アプリケーションを作成しています。目的は、Word2Vecを実行して、文の埋め込みを生成し、さまざまなタイプの予測を可能にすることです。
A. 品詞タグ付けを行い、動作動詞と名詞のみを残す。
B. 文章を小文字にして、すべての単語を正規化する。
C. 英語のストップワード辞書を使ってストップワードを取り除く。
D. "quck "のタイポグラフィを "quick "に訂正する。
E. 文中のすべての単語をワンホットでエンコードする
F. 文を単語にする。
回答を見る
正解: D
質問 #20
機械学習の専門家が,分類問題に対して素朴ベイズ・モデルを構築するか,完全ベイズ・ネットワークを構築するかを決めている.スペシャリストは各特徴間のピアソン相関係数を計算し、それらの絶対値が0.1から0.95の間であることを発見します。
A. 特徴量はすべて条件付き独立であるため、素朴ベイズモデル。
B. 特徴はすべて条件付き独立なので、完全なベイジアンネットワーク。
C. いくつかの特徴は統計的に依存しているので、素朴なベイズモデル。
D. いくつかの特徴は統計的に依存しているので、完全なベイジアンネットワーク。
回答を見る
正解: C
質問 #21
ある企業が機械学習(ML)システムの監査を強化したいと考えている。監査システムは、MLモデルが使用する機能のメタデータ分析を実行できなければならない。監査ソリューションは、メタデータを分析するレポートを生成しなければならない。また、フィーチャーのデータ感度と作成者を設定できなければなりません。最も少ない開発工数でこれらの要件を満たすソリューションはどれか。最も少ない開発労力で要件を満たすソリューションは、Amazon SageMを使用することです。
A. Amazon SageMakerフィーチャーストアを使用してフィーチャーを選択します。フィーチャーレベルのメタデータ分析を行うためのデータフローを作成する。Amazon DynamoDBテーブルを作成し、フィーチャーレベルのメタデータを保存します。Amazon QuickSightを使用してメタデータを分析する。
B. Amazon SageMakerフィーチャーストアを使用して、MLモデルが使用する現在のフィーチャーにフィーチャーグループを設定します。各フィーチャーに必要なメタデータを割り当てます。SageMaker Studio を使用して、メタデータを分析します。
C. Amazon SageMakerフィーチャーストアを使用して、カスタムアルゴリズムを適用し、企業が必要とするフィーチャーレベルのメタデータを分析する。Amazon DynamoDBテーブルを作成し、フィーチャーレベルのメタデータを保存します。Amazon QuickSightを使用してメタデータを分析する。
D. Amazon SageMakerフィーチャーストアを使用して、MLモデルが使用する現在のフィーチャーにフィーチャーグループを設定します。各フィーチャーに必要なメタデータを割り当てます。Amazon QuickSight を使用してメタデータを分析します。
回答を見る
正解: D
質問 #22
ビルトインアルゴリズムを使用して Amazon SageMaker トレーニングジョブを送信する場合、どの共通パラメータを指定する必要がありますか?(3つ選んでください)
A. Amazon S3バケット上のトレーニングデータの場所を特定するトレーニングチャンネル。
B. Amazon S3バケット上の検証データの場所を特定する検証チャネル。
C. Amazon SageMakerがユーザーの代わりにタスクを実行するために引き受けることができるIAMロール。
D. 使用されるアルゴリズムについて文書化されたJSON配列のハイパーパラメータ。
E. Amazon EC2のインスタンスクラスで、トレーニングをCPUとGPUのどちらで実行するかを指定する。
F. 学習済みモデルがAmazon S3バケットのどこに保存されるかを指定する出力パス。
回答を見る
正解: AEF
質問 #23
データサイエンティストは、高速でリアルタイムのストリーミングデータ用のサーバーレス取り込みと分析ソリューションを作成する必要があります。取り込みプロセスは、JSONから入力されたレコードをバッファリングし、クエリに最適化されたカラムナー形式に変換する必要があります。出力データストアは可用性が高く、アナリストはデータに対してSQLクエリを実行し、既存のビジネスインテリジェンスダッシュボードに接続できなければなりません。
A. AWS Glue Data Catalogで受信データ形式のスキーマを作成する。Amazon Kinesis Data Firehose配信ストリームを使用してデータをストリーミングし、Amazon S3に配信する前にAWS Glue Data Catalogを使用してデータをApache ParquetまたはORC形式に変換する。アナリストにAmazon Athenaを使用してAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
B. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用してAWS Lambda関数をトリガーし、データをApache ParquetまたはORC形式に変換し、Amazon S3の処理済みデータロケーションにデータを書き込む。アナリストにAmazon Athenaを使用してAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
C. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用して、データをApache ParquetまたはORC形式に変換し、Amazon RDS PostgreSQLデータベースに挿入するAWS Lambda関数をトリガーする。AnalystにRDSデータベースからクエリを実行させ、ダッシュボードを実行させる。
D. Amazon Kinesis Data Analyticsを使用してストリーミングデータを取り込み、リアルタイムのSQLクエリを実行してレコードをApache Parquetに変換してからAmazon S3に配信する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
回答を見る
正解: A
質問 #24
ある機械学習の専門家が、IoT土壌センサーデータをAmazon DynamoDBのテーブルに保存し、気象イベントデータをAmazon S3にJSONファイルとして保存している。DynamoDBのデータセットのサイズは10GBで、Amazon S3のデータセットのサイズは5GBです。スペシャリストは、Amazon SageMakerを使用して、気象イベントの関数として土壌水分レベルを予測するのに役立つように、このデータでモデルを訓練したいと考えています。どのソリューションが最も少ない管理オーバーヘッドでAmazon SageMakerモデルを訓練するために必要な変換を達成しますか?
A. Amazon EMRクラスタを起動する。DynamoDBテーブルとS3データ用にApache Hive外部テーブルを作成する。Hiveテーブルを結合し、結果をAmazon S3に書き出す。
B. AWS Glueクローラを使ってデータをクロールする。2つのテーブルをマージし、Amazon Redshiftクラスタに出力を書き込むAWS Glue ETLジョブを記述する。
C. センサーテーブルでAmazon DynamoDB Streamsを有効にする。ストリームを消費し、Amazon S3の既存の天気ファイルに結果を追加するAWS Lambda関数を記述します。
D. AWS Glue クローラーを使ってデータをクロールする。AWS Glue ETLジョブを作成し、2つのテーブルをマージし、Amazon S3にCSV形式で出力を書き込む。
回答を見る
正解: C
質問 #25
機械学習のスペシャリストが、Amazon SageMaker を使用して、AUC(Area Under the ROC Curve:ROC曲線下面積)を目的指標とする、ツリーベースのアンサンブルモデルのハイパーパラメータチューニングジョブをキックオフする このワークフローは、最終的には、24 時間ごとに陳腐化するデータのクリックスルーをモデル化するために、毎晩ハイパーパラメータの再学習とチューニングを行うパイプラインに導入されます。
A. 最も重要な入力特徴がガウシアンであるかどうかを示すヒストグラム。
B. 分散確率的近傍埋め込み(I-SNE)を使用して、多数の入力変数を読みやすい次元で可視化した、ターゲット変数で着色された点を持つ散布図。
C. 各訓練反復における目的指標のパフォーマンスを示す散布図。
D. 最大樹深と目的指標との相関を示す散布図。
回答を見る
正解: B

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: