すべての情報を見逃したくないですか?

認定試験に合格するためのヒント

最新の試験ニュースと割引情報

当社の専門家による厳選最新情報

はい、ニュースを送ってください

更新されたMLS-C01練習問題でAWS試験に簡単に合格する

弊社の総合的な試験問題集を利用して SPOTO AWS MLS-C01 を効果的に準備しましょう。弊社の試験問題はAWS Certified Machine Learning - Specialty認定に不可欠な主要トピックをカバーしており、徹底的な準備と試験当日の自信を保証します。AWSプラットフォーム上での機械学習モデルの構築、トレーニング、最適化、およびデプロイに関する理解を深めるために設計された貴重な試験リソースと学習教材にアクセスできます。私たちは、合格に必要なツールと知識を提供し、クラウドベースの機械学習イニシアチブの実装に関する専門知識を証明することに重点を置いています。

他のオンライン試験を受ける

質問 #1
ある自動車エンジンメーカーは、走行中の自動車からデータを収集している。収集されるデータには、タイムスタンプ、エンジン温度、毎分回転数(RPM)、その他のセンサー読み取り値などが含まれる。同社は、エンジンに問題が発生する時期を予測し、ドライバーに事前に通知してエンジンのメンテナンスを受けさせたいと考えている。エンジンのデータは、トレーニングのためにデータレイクにロードされます。実運用に導入できる最も適切な予測モデルはどれですか?
A. 教師あり学習の問題にするために、将来どの時期にどのエンジンの故障が発生するかを示すラベルを経時的に追加する。RNN(リカレント・ニューラル・ネットワーク)を使用してモデルを訓練し、エンジンが特定の故障のためにいつメンテナンスが必要になるかを認識する。
B. このデータには教師なし学習アルゴリズムが必要です。Amazon SageMaker k-meansを使ってデータをクラスタリングしてください。
C. どのエンジンの故障が将来のどの時点で発生するかを示すラベルを経時的に追加し、教師あり学習の問題に変える。畳み込みニューラルネットワーク(CNN)を使ってモデルを訓練し、エンジンがある故障でいつメンテナンスが必要になるかを認識する。
D. このデータはすでに時系列として定式化されています。Amazon SageMaker seq2seqを使って時系列をモデル化してください。
回答を見る
正解: A
質問 #2
あるデータサイエンティストは、ある企業のeコマースプラットフォームの不正ユーザーアカウントを特定する必要がある。この企業は、新しく作成されたアカウントが、以前から知られている不正ユーザーに関連付けられているかどうかを判断する機能を求めています。このデータサイエンティストは、AWS Glueを使用して、取り込み中に会社のアプリケーションログをクレンジングしています。
A. 組み込みのFindDuplicates Amazon Athenaクエリを実行します。
B. AWS GlueでFindMatches機械学習変換を作成する。
C. AWS Glueクローラーを作成し、ソースデータ内の重複アカウントを推測する。
D. AWS Glue Data Catalogで重複アカウントを検索する。
回答を見る
正解: B
質問 #3
ある小売企業が、機械学習を使って新商品を分類しようとしている。現行商品のラベル付きデータセットがデータサイエンスチームに提供された。データセットには1,200の商品が含まれている。ラベル付きデータセットには、タイトルの寸法、重量、価格など、各商品について15の特徴がある。各商品は、本、ゲーム、電化製品、映画など6つのカテゴリのうちの1つに属するものとしてラベル付けされている。訓練用に提供されたデータセットを使って新しい商品を分類するためには、どのモデルを使うべきか?
A. 目的パラメータをmulti:softmaxに設定したXGBoostモデル
B. 最終層にソフトマックス活性化関数を用いた深層畳み込みニューラルネットワーク(CNN)
C. 回帰林で、木の数を製品カテゴリーの数に等しく設定する。
D. リカレントニューラルネットワーク(RNN)に基づくDeepAR予測モデル
回答を見る
正解: A
質問 #4
あるデータサイエンティストが、Amazon SageMakerノートブックインスタンスを使用してデータ探索と分析を行っています。この場合、Amazon SageMaker でネイティブに利用できない特定の Python パッケージをノートブックインスタンスにインストールする必要があります。機械学習のスペシャリストは、データサイエンティストが使用するノートブックインスタンスで、必要なパッケージが自動的に利用できるようにするにはどうすればよいでしょうか?
A. AWS Systems Manager Agentを基盤となるAmazon EC2インスタンスにインストールし、Systems Manager Automationを使用してパッケージインストールコマンドを実行します。
B. 実行するパッケージインストールコマンドを含むセルを持つJupyterノートブックファイル(
C. Jupyterノートブックコンソールからcondaパッケージマネージャを使用して、必要なcondaパッケージをノートブックのデフォルトカーネルに適用します。
D. パッケージインストールコマンドを使用してAmazon SageMakerライフサイクル構成を作成し、ライフサイクル構成をノートブックインスタンスに割り当てます。
回答を見る
正解: D
質問 #5
ある機械学習の専門家が果物加工会社で働いており、リンゴを3つの種類に分類するシステムを構築する必要がある。この専門家は、リンゴの種類ごとに150枚の画像を含むデータセットを収集し、このデータセットを使ってImageNetで事前学習したニューラルネットワークに伝達学習を適用した。
A. 画像をグレースケールに変換し、モデルを再トレーニングする。
B. アイテムの数を10個から2個に減らし、モデルを構築し、反復する。
C. 各アイテムに異なる色のラベルを貼り、再度画像を撮影し、模型を作る。
D. 各アイテムの学習データを、反転や平行移動などの画像バリアントを使って補強し、モデルを構築し、反復する。
回答を見る
正解: B
質問 #6
機械学習のスペシャリストは、小さなデータサンプルを使用して、ある企業の概念実証を完了しました。そして今、スペシャリストはAmazon SageMakerを使用してAWSでエンドツーエンドのソリューションを実装する準備が整いました。過去の学習データはAmazon RDSに保存されています。スペシャリストは、そのデータを使用してモデルを学習するためにどのアプローチを使用する必要がありますか?
A. ノートブック内のSQLデータベースに直接接続し、データを取り込む。
B. AWSデータパイプラインを使用して、Microsoft SQL ServerからAmazon S3にデータをプッシュし、ノートブック内でS3の場所を指定します。
C. データをAmazon DynamoDBに移動し、ノートブック内でDynamoDBへの接続を設定してデータを取り込む。
D. AWSのDMSを使用してAmazon ElastiCacheにデータを移動し、高速アクセスのためにデータを取り込むための接続をノートブック内で設定する。
回答を見る
正解: B
質問 #7
ある企業が機械学習(ML)に基づく予測メンテナンスモデルを構築している。データは完全にプライベートな Amazon S3 バケットに保存され、AWS Key Management Service (AWS KMS) CMK によって静止時に暗号化されます。ML のスペシャリストは、Amazon SageMaker ノートブック内のコードからトリガーされる Amazon SageMaker Processing ジョブを使用して、データの前処理を実行する必要があります。ジョブは Amazon S3 からデータを読み込み、処理し、同じ S3 バケットにアップロードして戻します。前処理コードはコンテナイメージに格納されています。
A. Amazon SageMaker Processingジョブを作成する権限、関連するS3バケットへのS3読み取りおよび書き込みアクセス権、適切なKMSおよびECR権限を持つIAMロールを作成します。このロールを SageMaker ノートブックインスタンスにアタッチします。ノートブックから Amazon SageMaker Processing ジョブを作成します。
B. Amazon SageMaker Processingジョブの作成権限を持つIAMロールを作成します。そのロールを SageMaker notebook インスタンスにアタッチします。関連する S3 バケットへの読み取りと書き込みの権限、および適切な KMS と ECR の権限を持つ IAM ロールで、Amazon SageMaker Processing ジョブを作成します。
C. Amazon SageMaker Processingジョブを作成し、Amazon ECRにアクセスする権限を持つIAMロールを作成します。このロールを SageMaker notebook インスタンスにアタッチします。デフォルトの VP で S3 エンドポイントと KMS エンドポイントの両方を設定します。 ノートブックから Amazon SageMaker Processing ジョブを作成します。
D. Amazon SageMaker Processingジョブの作成権限を持つIAMロールを作成します。そのロールを SageMaker notebook インスタンスにアタッチします。デフォルトの VPC で S3 エンドポイントを設定します。適切な KMS および ECR 権限を持つ IAM ユーザーのアクセスキーとシークレットキーで Amazon SageMaker Processing ジョブを作成します。
回答を見る
正解: D
質問 #8
機械学習のスペシャリストが、ある大企業と協力して、製品に機械学習を活用しようとしている。同社は、今後6ヶ月以内に解約する顧客と解約しない顧客に基づいて、顧客をカテゴリーにグループ分けしたいと考えています。このタスクを達成するために、スペシャリストはどの機械学習モデル・タイプを使用すべきでしょうか?
A. 線形回帰
B. 分類
C. クラスタリング
D. 強化学習
回答を見る
正解: B
質問 #9
機械学習 (ML) のスペシャリストが、モデルモニタリングが設定された本番環境の Amazon SageMaker エンドポイントを管理しています。Amazon SageMaker モデルモニターが SageMaker エンドポイントで違反を検出したため、ML のスペシャリストは最新のデータセットでモデルを再トレーニングします。このデータセットは、現在の本番トラフィックを統計的に代表するものです。ML スペシャリストは、新しい SageMaker モデルをデプロイして最初の監視ジョブを実行した後でも、SageMaker エンドポイントにまだ違反があることに気づきました。
A. 手動で監視ジョブを起動し、SageMakerエンドポイントトラフィックサンプルを再評価します。
B. Model Monitorのベースラインジョブを新しいトレーニングセットで再度実行する。新しいベースラインを使用するようにモデルモニターを設定します。
C. エンドポイントを削除し、元の構成で再作成する。
D. 元のトレーニングセットと新しいトレーニングセットの組み合わせを使ってモデルを再トレーニングする。
回答を見る
正解: B
質問 #10
ある企業は、店頭に陳列された商品の上部をカメラで撮影し、どの商品が撤去され、どの商品がまだ残っているかを判断している。数時間のデータ・ラベリングの後、同社は10個の異なる品目を網羅する合計1,000枚の手作業によるラベル付け画像を手に入れた。学習結果は芳しくなかった。この会社の長期的なニーズを満たす機械学習アプローチはどれか?
A. k=5のk倍クロスバリデーション戦略
B. k=5の層別k倍クロスバリデーション戦略
C. k=5で3回繰り返すk-foldクロスバリデーション法
D. トレーニングと検証を80/20の層で分ける
回答を見る
正解: D
質問 #11
機械学習の専門家は、猫を識別するための教師あり画像認識モデルを構築する必要がある。MLスペシャリストはいくつかのテストを実行し、ニューラルネットワークベースの画像分類器について以下の結果を記録します:利用可能な画像の総数 = 1,000テストセットの画像 = 100(一定のテストセット)MLスペシャリストは、誤分類された画像の75%以上で、猫が飼い主に逆さまに抱かれていることに気づきます。
A. トレーニング画像に回転のバリエーションを加えてトレーニングデータを増やす。
B. モデルトレーニングのエポック数を増やす
C. ニューラルネットワークのレイヤー数を増やす。
D. 最後から2番目のレイヤーのドロップアウト率を上げる。
回答を見る
正解: A
質問 #12
組み込みアルゴリズムを使用して Amazon SageMaker トレーニングジョブを送信する場合、どの共通パラメータを指定しなければなりませんか?(3つ選んでください)
A. 二値化
B. ワンホットエンコーディング
C. トークン化
D. 正規化変換
回答を見る
正解: AEF
質問 #13
機械学習のスペシャリストが、ある企業の売上向上のためのシステムを設計している。その目的は、会社が持っているユーザーの行動や商品の好みに関する大量の情報を使って、他のユーザーとの類似性に基づいて、ユーザーがどの商品を好むかを予測することです。この目的を達成するために、スペシャリストは何をすべきでしょうか?
A. Amazon EMR上のApache Spark MLでコンテンツベースのフィルタリング推薦エンジンを構築する
B. Amazon EMR上でApache Spark MLを使って協調フィルタリング推薦エンジンを構築する。
C. Amazon EMR上でApache Spark MLを使ってモデルベースのフィルタリング推薦エンジンを構築する。
D. アマゾンEMR上でApache Spark MLを使用して組み合わせフィルタリング推薦エンジンを構築する。
回答を見る
正解: B
質問 #14
ある企業が、構造化されていない大量の紙の領収書を画像に変換している。同社は自然言語処理(NLP)に基づくモデルを作成し、日付、場所、メモなどの関連エンティティや、領収書番号などのカスタム・エンティティを検出したいと考えている。しかし、ドキュメントの構造やフォーマットはさまざまであり、同社はそれぞれのドキュメントに対して手動ワークフローを設定するという課題に直面している。
A. Amazon Textractを使ってレシート画像からテキストを抽出する。Amazon SageMaker BlazingText アルゴリズムを使用して、エンティティおよびカスタムエンティティのテキストを学習する。
B. AWS MarketplaceのディープラーニングOCRモデルを使用して、レシート画像からテキストを抽出する。NERディープラーニングモデルを使用してエンティティを抽出する。
C. Amazon Textractを使ってレシート画像からテキストを抽出する。エンティティ検出にはAmazon Comprehendを使用し、カスタムエンティティ検出にはAmazon Comprehendカスタムエンティティ認識を使用する。
D. AWS MarketplaceのディープラーニングOCRモデルを使用して、レシート画像からテキストを抽出する。エンティティ検出にはAmazon Comprehendを使用し、カスタムエンティティ検出にはAmazon Comprehendカスタムエンティティ認識を使用する。
回答を見る
正解: C
質問 #15
機械学習のスペシャリストが、1,000レコードと50の特徴量を持つデータセットに線形最小二乗回帰モデルを適用しています。トレーニングの前に、MLスペシャリストは2つの特徴が完全に線形に依存していることに気づきます。
A. バックプロパゲーション・アルゴリズムが訓練中に失敗する可能性がある。
B. 最適化中に特異行列ができる可能性があり、一意解を定義できない。
C. 最適化中に損失関数が修正され、トレーニング中に失敗する可能性がある。
D. データ内に非線形の依存関係を導入し、モデルの線形仮定を無効にする可能性がある。
回答を見る
正解: C
質問 #16
あるeコマース企業が、クラウドベースの新しい商品レコメンデーション機能をウェブアプリケーションに導入しようとしている。データのローカライゼーション規制により、機密データはオンプレミスのデータセンターから出してはならず、商品レコメンデーション・モデルは非機密データのみを使用してトレーニングおよびテストする必要がある。クラウドへのデータ転送にはIPsecを使用しなければならない。Webアプリケーションは、すべてのデータを含むPostgreSQLデータベースと共にオンプレミスでホストされている。同社は、データをAmazon S3に安全にアップロードすることを望んでいる。
A. PostgreSQL DBインスタンスに接続するAWS Glueジョブを作成します。AWS Site-to-Site VPN接続を通じて、機密データを含まないテーブルをAmazon S3に直接インジェストする。
B. PostgreSQL DBインスタンスに接続するAWS Glueジョブを作成します。PySparkジョブを使用して機密データを削除しながら、AWS Site- to-Site VPN接続を介してすべてのデータをAmazon S3にインジェストします。
C. AWS Database Migration Service(AWS DMS)とテーブルマッピングを使用して、SSL接続で機密データのないPostgreSQLテーブルを選択します。Amazon S3に直接データを複製する。
D. PostgreSQL論理レプリケーションを使用して、VPN接続でAWS Direct Connectを介してAmazon EC2のPostgreSQLにすべてのデータをレプリケートする。AWS Glueを使用して、Amazon EC2からAmazon S3にデータを移動する。
回答を見る
正解: C
質問 #17
ある製造会社は、構造化データと非構造化データをAmazon S3バケットに保存しています。機械学習のスペシャリストは、SQLを使用してこのデータにクエリを実行したいと考えています。このデータにクエリを実行できるようにするために最も労力を必要としないソリューションはどれですか?
A. AWS Data Pipelineを使用してデータを変換し、Amazon RDSを使用してクエリを実行します。
B. AWS Glueを使用してデータをカタログ化し、Amazon Athenaを使用してクエリを実行する。
C. AWS Batchを使用してデータに対してETLを実行し、Amazon Auroraを使用してクエリを実行する。
D. AWS Lambdaを使用してデータを変換し、Amazon Kinesis Data Analyticsを使用してクエリを実行する。
回答を見る
正解: B
質問 #18
セキュリティに敏感な企業の機械学習スペシャリストが、モデル学習用のデータセットを準備しています。データセットはAmazon S3に保存され、個人を特定できる情報(PII)を含んでいます。データセットは、VPCからのみアクセスできなければなりません。
A. VPCエンドポイントを作成し、指定されたVPCエンドポイントとVPCへのアクセスを制限するバケットアクセスポリシーを適用します。
B. VPCエンドポイントを作成し、指定したVPCエンドポイントとAmazon EC2インスタンスからのアクセスを許可するバケットアクセスポリシーを適用する。
C. VPCエンドポイントを作成し、ネットワークアクセス制御リスト(NACL)を使用して、指定されたVPCエンドポイントとAmazon EC2インスタンス間のトラフィックのみを許可する。
D. VPCエンドポイントを作成し、セキュリティグループを使用して、指定されたVPCエンドポイントとAmazon EC2インスタンスへのアクセスを制限する。
回答を見る
正解: A
質問 #19
機械学習のスペシャリストが Amazon SageMaker でトレーニング用のデータを準備しています。スペシャリストは学習にSageMaker組み込みアルゴリズムの1つを使用しています。データセットは.CSV形式で保存され、numpy.arrayに変換されます。これはトレーニングの速度に悪影響を与えているようです。SageMakerでのトレーニングのためにデータを最適化するために、スペシャリストは何をすべきでしょうか?
A. SageMakerのバッチ変換機能を使って、学習データをDataFrameに変換します。
B. AWS Glueを使用して、データをApache Parquet形式に圧縮する。
C. データセットをRecordIO protobufフォーマットに変換する。
D. SageMakerのハイパーパラメータ最適化機能を使用して、データを自動的に最適化する。
回答を見る
正解: C
質問 #20
あるデータサイエンティストがAmazon SageMakerノートブックインスタンスを使用しており、特定のAmazon S3バケットに保存されたデータに安全にアクセスする必要があります。
A. AmazonSageMakerノートブックARNをプリンシパルとして、GetObject、PutObject、ListBucketパーミッションを許可するS3バケットポリシーを追加します。
B. ノートブックの所有者だけがアクセスできるカスタムAWSキーマネジメントサービス(AWS KMS)キーで、S3バケット内のオブジェクトを暗号化する。
C. 特定のS3バケットに対するGetObject、PutObject、ListBucket操作を許可するポリシーを、ノートブックに関連付けられたIAMロールにアタッチします。
D. ライフサイクル構成のスクリプトを使用して、インスタンス上のAWS CLIにアクセスキーIDとシークレットを設定する。
回答を見る
正解: C
質問 #21
ある機械学習の専門家が、IoT土壌センサーデータをAmazon DynamoDBのテーブルに保存し、気象イベントデータをAmazon S3にJSONファイルとして保存している。DynamoDBのデータセットのサイズは10GBで、Amazon S3のデータセットのサイズは5GBです。このスペシャリストは、Amazon SageMakerを使用して、気象イベントの関数として土壌水分レベルを予測するのに役立つモデルをこのデータでトレーニングしたいと考えています。
A. Amazon EMRクラスタを起動します。DynamoDBテーブルとS3データ用にApache Hive外部テーブルを作成する。Hiveテーブルを結合し、結果をAmazon S3に書き出す。
B. AWS Glueクローラを使用してデータをクロールする。2つのテーブルをマージし、Amazon Redshiftクラスタに出力を書き込むAWS Glue ETLジョブを記述する。
C. Enable Amazon DynamoDB Streams on the sensor table
D. AWS Glueクローラを使用してデータをクロールする。AWS Glue ETLジョブを作成し、2つのテーブルをマージし、Amazon S3にCSV形式で出力を書き込む。
回答を見る
正解: D
質問 #22
機械学習の専門家が、世界中のユーザーがいるニュースサイトのコメントを分析する必要があります。その専門家は、英語またはスペイン語のコメントの中で最も議論されているトピックを見つけなければならない。(2つ選んでください)
A. Amazon SageMaker BlazingTextアルゴリズムを使って、言語から独立したトピックを見つける。分析を進める。
B. Amazon SageMaker seq2seq アルゴリズムを使用して、必要に応じてスペイン語から英語に翻訳する。SageMaker Latent Dirichlet Allocation (LDA) アルゴリズムを使用して、トピックを見つけます。
C. 必要であれば、Amazon Translateを使ってスペイン語から英語に翻訳する。Amazon Comprehendのトピックモデリングを使って、トピックを見つける。
D. 必要であれば、Amazon Translateを使ってスペイン語から英語に翻訳する。Amazon Lexを使って、コンテンツからトピックを抽出する。
E. 必要であれば、Amazon Translateを使ってスペイン語から英語に翻訳する。Amazon SageMaker Neural Topic Model (NTM) を使ってトピックを見つける。
回答を見る
正解: B
質問 #23
あるデータサイエンティストが、センチメント分析を行うアプリケーションに取り組んでいます。検証精度が低く、データ・サイエンティストは、その原因がデータセット内の豊富な語彙と単語の平均頻度の低さにあるのではないかと考えています。
A. Amazon Comprehend 構文解析とエンティティ検出
B. Amazon SageMaker BlazingText cbowモード
C. Natural Language Toolkit (NLTK) によるステミングとストップワードの除去
D. Scikit-leamの用語頻度-逆文書頻度(TF-IDF)ベクトライザ
回答を見る
正解: D
質問 #24
ある小売チェーンは、Amazon Kinesis Data Firehoseを使用して、20,000店舗のネットワークからAmazon S3に購買レコードを取り込んでいる。改善された機械学習モデルのトレーニングをサポートするために、トレーニングレコードは新しいが単純な変換を必要とし、いくつかの属性は結合される。店舗数が多く、レガシーなデータ取り込みを考えると、どの変更が最も少ない開発工数で済むでしょうか?
A. ドロップアウト
B. スムーズなL1ロス
C. ソフトマックス
D. 整流リニアユニット(ReLU)
回答を見る
正解: D
質問 #25
機械学習のスペシャリストがAmazon SageMakerにカスタムアルゴリズムを導入したいと考えています。スペシャリストは、Amazon SageMakerがサポートするDockerコンテナでアルゴリズムを実装します。Amazon SageMakerが正しくトレーニングを起動できるように、スペシャリストはどのようにDockerコンテナをパッケージ化する必要がありますか?
A. コンテナ内のbash_profileファイルを修正し、トレーニングプログラムを開始するbashコマンドを追加する。
B. DockerfileのCMD configを使って、トレーニングプログラムをイメージのCMDとして追加する。
C. トレーニングプログラムをtrainという名前のENTRYPOINTとして設定する。
D. トレーニングプログラムを/opt/ml/trainディレクトリにコピーする。
回答を見る
正解: B
質問 #26
ある通信会社が、顧客向けのモバイルアプリを開発している。同社は、機械学習モデルの推論に Amazon SageMaker ホスティングエンドポイントを使用しています。開発者は、アプリのプレビュー機能に登録した限られたユーザーに対して、モデルの新バージョンを導入したいと考えています。新バージョンのモデルがプレビューとしてテストされた後、開発者はその精度を評価します。新バージョンのモデルの方が精度が高い場合、開発者は新バージョンを徐々にリリースできるようにする必要があります。
A. InitialVariantWeightパラメータを0に設定したCreateEndpointConfig操作を使用して、ProductionVariantデータタイプをモデルの新バージョンで更新します。プレビュー機能をサブスクライブしたユーザに対して、InvokeEndpoint呼び出しのTargetVariantパラメータを指定します。モデルの新バージョンをリリースする準備ができたら、すべてのユーザーが更新バージョンを使用できるようになるまで、InitialVariantWeight を徐々に増やします。
B. 異なるバージョンのモデルを提供する2つのSageMakerホストエンドポイントを構成します。TargetVariant クエリ文字列パラメータに基づいて両方のエンドポイントにトラフィックをルーティングするために、アプリケーション・ロード・バランサー(ALB)を作成します。プレビュー機能を購読したユーザーに対して、TargetVariant クエリ文字列パラメータを送信するようにアプリを再設定します。モデルの新しいバージョンがリリースできるようになったら、すべてのユーザーが更新されたバージョンを持つまで、ALB のルーティング・アルゴリズムを重み付けに変更します。
C. DesiredWeight パラメータを 0 に設定して UpdateEndpointWeightsAndCapacities 操作を使用し、DesiredWeightsAndCapacity データ型をモデルの新しいバージョンで更新します。プレビュー機能をサブスクライブしたユーザの InvokeEndpoint 呼び出しの TargetVariant パラメータを指定します。モデルの新しいバージョンがリリースできるようになったら、すべてのユーザーが更新されたバージョンを持つまで、DesiredWeight を徐々に増やします。
D. 異なるバージョンのモデルを提供する2つのSageMakerホストエンドポイントを構成します。単純なルーティングポリシーで構成され、モデルの現在のバージョンを指す Amazon Route 53 レコードを作成します。プレビュー機能を購読したユーザにはエンドポイントURLを使用し、その他のユーザにはRoute 53レコードを使用するようにモバイルアプリを構成します。モデルの新しいバージョンがリリースの準備ができたら、新しいモデルのバージョンのエンドポイントをRoute 53に追加し、すべてのユーザが更新されたバージョンを持つまで、ポリシーをウェイトに切り替えます。
回答を見る
正解: D
質問 #27
ある企業は、データサイエンスチームのために Amazon SageMaker ノートブックインスタンスを用意し、VPC とノートブックインスタンス間の通信を確保するために Amazon VPC インタフェースエンドポイントを作成します。Amazon SageMaker API への接続はすべて、AWS ネットワークを使用して完全かつ安全に行われます。しかし、データサイエンスチームは、VPCの外部にいる個人がインターネットを介してノートブックインスタンスに接続できることに気づきました。この問題を解決するために、データサイエンスチームが取るべき行動はどれですか?
A. ノートブックインスタンスのセキュリティグループを変更して、VPCのCIDR範囲からのトラフィックのみを許可するようにします。このセキュリティグループをノートブックインスタンスのすべてのVPCインターフェイスに適用します。
B. VPCエンドポイントのみからsagemaker:CreatePresignedNotebooklnstanceUrlおよびsagemaker:DescribeNotebooklnstanceアクションを許可するIAMポリシーを作成します。このポリシーを、ノートブックインスタンスへのアクセスに使用されるすべての IAM ユーザー、グループ、およびロールに適用します。
C. VPにNATゲートウェイを追加する。 Amazon SageMakerノートブックインスタンスがホストされているすべてのサブネットをプライベートサブネットに変換する。すべてのノートブックインスタンスを停止および起動し、プライベートIPアドレスのみを割り当て直します。
D. ノートブックがホストされているサブネットのネットワークACLを変更し、VPC外部からのアクセスを制限します。
回答を見る
正解: B
質問 #28
あるテクノロジー・スタートアップは、複雑なディープ・ニューラル・ネットワークとGPUコンピューティングを使用して、各顧客の習慣と相互作用に基づいて既存顧客に自社製品を推奨している。このソリューションでは現在、Amazon S3バケットから各データセットを取得した後、ローカルで実行される会社のGitリポジトリから取得したTensorFlowモデルにデータをロードしている。このジョブは、同じS3バケットに継続的に進捗状況を出力しながら、数時間実行される。ジョブは一時停止、再起動、継続が可能だ。
A. AWS Deep Learning Containersを使用してソリューションを実装し、GPU対応のSpot Instance上でAWS Batchを使用してジョブとしてコンテナを実行する。
B. 低コストのGPU対応Amazon EC2インスタンスを使用してソリューションを実装し、AWS Instance Schedulerを使用してタスクをスケジュールする。
C. AWS Deep Learning Containersを使用してソリューションを実装し、Spot Instances上で動作するAWS Fargateを使用してワークロードを実行し、組み込みのタスクスケジューラを使用してタスクをスケジュールする。
D. スポットインスタンス上で動作するAmazon ECSを使用してソリューションを実装し、ECSサービススケジューラを使用してタスクをスケジュールする。
回答を見る
正解: C
質問 #29
機械学習のスペシャリストが、世界中の企業のセキュリティ・イベントをリアルタイムで管理している大手サイバーセキュリティ企業と仕事をしている。このサイバーセキュリティ企業は、機械学習を使用して、取り込まれたデータの異常として悪意のあるイベントをスコアリングできるソリューションを設計したいと考えています。また、その結果をデータレイクに保存して、後で処理・分析できるようにしたいと考えています。これらのタスクを達成する最も効率的な方法は何でしょうか?
A. Amazon Kinesis Data Firehoseを使ってデータを取り込み、Amazon Kinesis Data Analytics Random Cut Forest (RCF)を使って異常検知を行う。その後、Kinesis Data Firehoseを使って結果をAmazon S3にストリーミングする。
B. Amazon EMRを使ってApache Spark Streamingにデータを取り込み、k-meansを使ったSpark MLlibを使って異常検知を行う。そして、その結果をデータレイクとしてAmazon EMRを使用し、レプリケーション係数3のApache Hadoop Distributed File System (HDFS)に保存する。
C. データを取り込み、Amazon S3に保存する。AWS BatchとAWS Deep Learning AMIを使用して、Amazon S3のデータに対してTensorFlowを使用してk-meansモデルをトレーニングする。
D. データを取り込み、Amazon S3に保存する。オンデマンドでトリガーされるAWS Glueジョブに新しいデータを変換させる。そして、Amazon SageMakerに内蔵されているランダムカットフォレスト(RCF)モデルを使用して、データの異常を検出する。
回答を見る
正解: A
質問 #30
機械学習のスペシャリストが、以前にローカルマシンで scikit-learn を使用してロジスティック回帰モデルをトレーニングしました。
A. AmazonDynamoDBなどのデータベースを使用してイメージを保存し、IAMポリシーを設定して必要なIAMユーザーのみにアクセスを制限する。
B. 生画像を保存するために、Amazon S3にバックアップされたデータレイクを使用し、バケットポリシーを使ってパーミッションを設定する。
C. ファイルを保存するために、Hadoop分散ファイルシステム(HDFS)でAmazon EMRをセットアップし、IAMポリシーを使用してEMRインスタンスへのアクセスを制限します。
D. IAMポリシーでAmazon EFSを構成し、IAMユーザーが所有するAmazon EC2インスタンスでデータを利用できるようにする。
回答を見る
正解: A
質問 #31
表示されたグラフは、ある時系列をテストするための予測モデルのものである。グラフだけを考慮すると、機械学習の専門家はモデルの動作についてどの結論を下すべきか?
A. トレンドと季節性の両方をよく予測するモデル
B. モデルはトレンドをよく予測するが、季節性は予測しない。
C. モデルは季節性をよく予測するが、トレンドは予測しない。
D. トレンドや季節性をうまく予測できない。
回答を見る
正解: A
質問 #32
機械学習のスペシャリストは、線形回帰やロジスティック回帰などの線形モデルを使用して、多数の特徴の予測モデルを構築しています。探索的データ分析中に、スペシャリストは多くの特徴が互いに高い相関を持っていることを観察しました。これはモデルを不安定にする可能性があります。このような多数の特徴を持つことの影響を減らすために、何をすべきでしょうか?
A. 相関性の高い特徴に対してワンホットエンコーディングを行う。
B. 相関性の高い特徴に対して行列の乗算を使用する。
C. 主成分分析(PCA)を使って新しい特徴空間を作成する
D. ピアソン相関係数を適用する。
回答を見る
正解: C
質問 #33
ある金融サービス会社は、Amazon S3上に堅牢なサーバーレス・データレイクを構築している。Amazon AthenaとAmazon Redshift Spectrumを通じて、Amazon S3上の新旧データのクエリをサポートする - イベント駆動型のETLパイプラインをサポートする - メタデータを迅速かつ簡単に理解する方法を提供するこれらの要件を満たすアプローチはどれか?
A. S3データをクロールするAWS Glueクローラー、AWS Glue ETLジョブをトリガーするAWS Lambda関数、メタデータを検索・発見するAWS Glue Dataカタログを使用します。
B. S3データをクロールするためにAWS Glueクローラーを使用し、AWSバッチジョブをトリガーするためにAWS Lambda関数を使用し、メタデータを検索して発見するために外部のApache Hiveメタストアを使用する。
C. S3データをクロールするためにAWS Glueクローラーを使用し、AWSバッチジョブをトリガーするためにAmazon CloudWatchアラームを使用し、メタデータを検索して発見するためにAWS Glueデータカタログを使用する。
D. S3データをクロールするためにAWS Glueクローラーを使用し、AWS Glue ETLジョブをトリガーするためにAmazon CloudWatchアラームを使用し、メタデータを検索して発見するために外部のApache Hiveメタストアを使用する。
回答を見る
正解: A
質問 #34
機械学習のスペシャリストが、あるアプリケーション用にカスタム動画推薦モデルを開発している。このモデルの学習に使用されるデータセットは、数百万のデータポイントで非常に大きく、Amazon S3 バケットにホストされています。スペシャリストは、このデータをすべてAmazon SageMakerノートブックインスタンスにロードすることを避けたいと考えています。移動に数時間かかり、ノートブックインスタンスに接続されている5 GBのAmazon EBSボリュームを超えてしまうからです。
A. SageMakerノートブックにデータの小さいサブセットをロードし、ローカルでトレーニングする。学習コードが実行され、モデルパラメータが妥当であることを確認する。パイプ入力モードを使用して、S3 バケットから完全なデータセットを使用して SageMaker トレーニングジョブを開始します。
B. AWS Deep Learning AMIでAmazon EC2インスタンスを起動し、S3バケットをインスタンスにアタッチする。トレーニングコードとハイパーパラメータを検証するために、少量のデータでトレーニングを行う。Amazon SageMakerに戻り、完全なデータセットを使ってトレーニングする。
C. AWS Glueを使用して、データの小さなサブセットを使用してモデルをトレーニングし、データがAmazon SageMakerと互換性があることを確認します。パイプ入力モードを使用して、S3バケットから完全なデータセットを使用してSageMakerのトレーニングジョブを開始します。
D. SageMakerノートブックにデータの小さいサブセットをロードし、ローカルでトレーニングする。学習コードが実行され、モデルパラメータが妥当であることを確認する。AWS Deep Learning AMIでAmazon EC2インスタンスを起動し、S3バケットをアタッチして、完全なデータセットをトレーニングする。
回答を見る
正解: A
質問 #35
ある会社が、入手可能な過去の販売データに基づいて住宅の販売価格を予測したいと考えている。この会社のデータセットのターゲット変数は販売価格である。特徴量には、敷地面積、居住面積、非居住面積、寝室数、浴室数、建築年、郵便番号などのパラメータが含まれます。この会社は、住宅販売価格を予測するために多変量線形回帰を使用したい。
A. 特徴のヒストグラムをプロットし、その標準偏差を計算する。分散が大きい特徴を削除する。
B. 特徴のヒストグラムをプロットし、その標準偏差を計算する。分散が小さい特徴を削除する。
C. データセット自身との相関を示すヒートマップを作成する。相互相関スコアの低い特徴を削除する。
D. ターゲット変数に対するすべてのフィーチャの相関チェックを実行する。ターゲット変数の相関スコアが低いフィーチャーを削除する。
回答を見る
正解: D
質問 #36
あるトラック運送会社は、世界中のトラックの車両からライブ画像データを収集している。データは急速に増加しており、毎日約100GBの新しいデータが生成されている。同社は、機械学習のユースケースを検討する一方で、データが特定のIAMユーザーしかアクセスできないようにしたいと考えています。どのストレージオプションが最も柔軟な処理を提供し、IAMによるアクセス制御を可能にしますか?
A. すべての特徴量に対して自己相関を実行し、相関の高い特徴量を削除する。
B. すべての数値が0から1の間になるように正規化する。
C. オートエンコーダまたは主成分分析(PCA)を使用して、元の特徴を新しい特徴に置き換える。
D. k-meansを使用して生データをクラスタリングし、各クラスタからのサンプルデータを使用して新しいデータセットを構築する。
回答を見る
正解: C
質問 #37
ある小売企業が、顧客からの注文と商品カタログの商品説明データを組み合わせたいと考えている。各データセットのレコードの構造と形式は異なっている。あるデータアナリストがスプレッドシートを使ってデータセットを結合しようとしたが、重複したレコードや正しく結合されていないレコードが出てきた。同社は、2つのデータセットから類似のレコードを結合し、重複を削除するために使用できるソリューションを必要としている。
A. AWS Lambda関数を使用してデータを処理します。2つの配列を使って、2つのデータセットのフィールドの等しい文字列を比較し、重複を削除する。
B. AWS Glueデータカタログを読み込むために、AWS Glueクローラを作成する。AWS Glue SearchTables APIオペレーションを呼び出し、2つのデータセットに対してファジーマッチング検索を実行し、それに応じてデータをクレンジングする。
C. AWS Glue Data Catalogの読み込みと入力のためにAWS Glueクローラを作成する。FindMatches トランスフォームを使用してデータをクレンジングする。
D. AWS Lake Formationカスタム変換を作成します。Lake Formationコンソールから、一致する製品に対してトランスフォームを実行し、データを自動的にクレンジングします。
回答を見る
正解: C
質問 #38
ラベル付けされていない画像、テキスト、オーディオ、ビデオ映像の非常に大きなアーカイブを持つメディア企業が、リサーチチームが関連するコンテンツを迅速に識別できるように、資産のインデックス化を希望している。同社は、機械学習の専門知識に乏しい社内の研究者の努力を加速するために機械学習を使用したいと考えています。
A. Amazon Rekognition、Amazon Comprehend、Amazon Transcribeを使用して、データを明確なカテゴリー/クラスにタグ付けする。
B. すべての映像にラベルを付けるために、Amazon Mechanical Turk Human Intelligence Tasksのセットを作成する。
C. Amazon Transcribeを使って音声をテキストに変換する。Amazon SageMaker Neural Topic Model (NTM) と Object Detection アルゴリズムを使用して、データを明確なカテゴリ/クラスにタグ付けします。
D. AWS Deep Learning AMIとAmazon EC2 GPUインスタンスを使用して、音声トランスクリプションとトピックモデリングのカスタムモデルを作成し、オブジェクト検出を使用してデータを明確なカテゴリ/クラスにタグ付けする。
回答を見る
正解: A
質問 #39
機械学習(ML)の専門家が、ある金融サービス会社のために分類モデルを開発しなければならない。データセットは表形式で、10,000行、1,020特徴からなる。探索的データ分析において、専門家は欠損値がなく、重複行の割合が少ないことを発見する。200の特徴ペアの相関スコアは0.9以上である。各フィーチャの平均値は50パーセンタイルとほぼ同じです。
A. 主成分分析(PCA)アルゴリズムを使用して次元削減を適用する。
B. Jupyterノートブックを使って、相関スコアの低い特徴を削除する。
C. ランダムカットフォレスト(RCF)アルゴリズムを用いて異常検知を行う。
D. Jupyterノートブックを使って、相関スコアの高い特徴を連結する。
回答を見る
正解: A
質問 #40
ある金融会社がクレジットカードの不正使用を検知しようとしている。同社は、クレジットカード取引の平均2%が不正であることを観察した。データサイエンティストは、1年分のクレジットカード取引データを使って分類器を訓練した。このモデルは、不正な取引(ポジティブ)と通常の取引(ネガティブ)を識別する必要がある。データサイエンティストは、モデルを最適化するためにどの指標を使用すべきですか?(2つ選んでください)。
A. SageMaker実行ロールからAmazon S3アクセス権限を削除します。
B. CNNモデルの重みを暗号化する。
C. 訓練データセットと検証データセットを暗号化する。
D. トレーニングジョブのネットワーク分離を有効にします。
回答を見る
正解: AB
質問 #41
あるデータサイエンティストが、ニューラルネットワーク分類モデルの精度を向上させようとしています。データサイエンティストは、Amazon SageMakerで大規模なハイパーパラメータチューニングジョブを実行したいと考えています。しかし、同じモデルに対する以前の小規模なチューニングジョブは、しばしば数週間実行されていました。MLのスペシャリストは、チューニングジョブの実行に必要な計算時間を短縮したいと考えています。ハイパーパラメータチューニングジョブの計算時間を最も短縮できるアクションはどれですか?(2つ選んでください)
A. ハイパーバンド・チューニング・ストラテジーを使う。
B. ハイパーパラメータの数を増やす。
C. MaxNumberOfTrainingJobsパラメータに低い値を設定する。
D. グリッドサーチ・チューニング・ストラテジーを使用する
E. MaxParallelTrainingJobsパラメータに低い値を設定する。
回答を見る
正解: AC
質問 #42
データサイエンティストは、高速でリアルタイムのストリーミングデータ用のサーバーレス取り込みと分析ソリューションを作成する必要があります。取り込みプロセスは、JSONから入力されたレコードをバッファリングし、データを失うことなくクエリに最適化されたカラムナー形式に変換する必要があります。出力データストアは高可用性でなければならず、アナリストはデータに対してSQLクエリを実行し、既存のビジネスインテリジェンスダッシュボードに接続できなければなりません。
A. AWS Glue Data Catalogで受信データ形式のスキーマを作成する。Amazon Kinesis Data Firehose配信ストリームを使用してデータをストリーミングし、Amazon S3に配信する前にAWS Glue Data Catalogを使用してデータをApache ParquetまたはORC形式に変換する。アナリストにAmazon Athenaを使用してAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
B. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3 Putイベントを使用してAWS Lambda関数をトリガーし、データをApache ParquetまたはORC形式に変換し、Amazon S3の処理済みデータロケーションにデータを書き込む。アナリストにAmazon Athenaを使用してAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
C. 各JSONレコードをAmazon S3のステージングロケーションに書き込む。S3のPutイベントを使用して、データをApache ParquetまたはORC形式に変換し、Amazon RDS PostgreSQLデータベースに挿入するAWS Lambda関数をトリガーする。AnalystにRDSデータベースからクエリを実行させ、ダッシュボードを実行させる。
D. Amazon Kinesis Data Analyticsを使用してストリーミングデータを取り込み、リアルタイムのSQLクエリを実行してレコードをApache Parquetに変換してからAmazon S3に配信する。Amazon Athenaを使用して、アナリストにAmazon S3から直接データをクエリさせ、Athena Java Database Connectivity (JDBC)コネクタを使用してBIツールに接続する。
回答を見る
正解: A
質問 #43
ある金融サービス会社が、Amazon SageMakerをデフォルトのデータサイエンス環境として採用したいと考えている。同社のデータサイエンティストは、機密の金融データに対して機械学習(ML)モデルを実行します。SageMakerからのデータ排出を制御するために、MLエンジニアはどのメカニズムを使用できますか?(3つ選んでください)
A. -Amazon EMRによるデータ発見、エンリッチメント、変換 -Amazon Athenaによる標準SQLを使用したAmazon S3でのクエリと結果の分析 -Amazon QuickSightによるレポート作成と洞察の取得
B. -Amazon Kinesis Data Analyticsによるデータの取り込み-Amazon EMRによるデータの発見、エンリッチメント、変換-Amazon RedshiftによるAmazon S3でのクエリーと結果の分析
C. -AWS Glueによるデータ発見、エンリッチメント、変換-Amazon Athenaによる標準SQLを使用したAmazon S3でのクエリと結果の分析-Amazon QuickSightによるレポート作成と洞察の取得
D. -AWS Data Pipelineによるデータ転送-AWS Step Functionsによるデータ発見、エンリッチメント、変換のためのAWS Lambdaジョブのオーケストレーション-Amazon Athenaによる標準SQLを使用したAmazon S3でのクエリと結果の分析-Amazon QuickSightによるレポート作成と洞察の取得
回答を見る
正解: BDF
質問 #44
あるデータサイエンス・チームは、機械学習モデルでよく使われる大量の学習データを保存するデータセット・リポジトリを設計している。データサイエンティストは毎日任意の数の新しいデータセットを作成する可能性があるため、ソリューションは自動的に拡張でき、費用対効果が高いものでなければならない。また、SQLを使ってデータを探索できなければなりません。このシナリオに最も適合するストレージ方式はどれでしょうか?
A. 製品の在庫変動に対応できないため、モデルを完全に再設計する必要がある。
B. モデルのハイパーパラメータは、ドリフトを防ぐために定期的に更新されるべきである。
C. モデルは、商品在庫の変化を扱うために正則化項を追加しながら、元のデータを使用してゼロから定期的に再学習されるべきである。
D. モデルは、元のトレーニングデータに加え、製品在庫の変化に応じて新しいデータを使用して定期的に再トレーニングされるべきである。
回答を見る
正解: A
質問 #45
ある企業が、クイックサービス・レストランで使用する行列カウント・アプリケーションを構築している。同社は、特定のレジに並ぶ客の列に向けられたビデオカメラを使用して、列に何人並んでいるかを測定し、列が長くなりすぎた場合にマネージャに通知を配信したいと考えている。このレストランでは、外部サービスに接続するための帯域幅が限られており、他のオペレーションに影響を与えることなく複数のビデオストリームを使用することはできません。
A. Amazon Kinesis Video Streamsと互換性のあるカメラを設置し、レストランの既存のインターネット接続を介してAWSにデータをストリーミングする。AWSのLambda関数を書いて画像を取得し、Amazon Rekognitionに送信して画像内の顔の数をカウントする。行列が長すぎる場合は、Amazon Simple Notification Service (Amazon SNS)の通知を送信する。
B. AWS DeepLensカメラをレストランに配備し、ビデオをキャプチャする。AWS DeepLensデバイスでAmazon Rekognitionを有効にし、それを使用して、人がいるときにローカルのAWS Lambda関数をトリガーする。
C. 認識しました。行が長すぎる場合、Amazon Simple Notification Service (Amazon SNS)通知を送信するためにLambda関数を使用します。
D. Amazon SageMakerでカスタムモデルを構築し、画像内の人数を認識する。Amazon Kinesis Video Streamsと互換性のあるカメラをレストランに設置する。AWS Lambda関数を書いて画像を撮影する。SageMaker のエンドポイントを使用して、人数をカウントするモデルを呼び出す。行列が長すぎる場合、Amazon Simple Notification Service (Amazon SNS) 通知を送信する。
E. Amazon SageMakerでカスタムモデルを構築し、画像内の人数を認識する。AWS DeepLensのカメラをレストランに配置する。モデルをカメラにデプロイする。AWS Lambda関数をカメラにデプロイして、モデルを使用して人をカウントし、列が長すぎる場合にAmazon Simple Notification Service (Amazon SNS)通知を送信する。
回答を見る
正解: A
質問 #46
ある世界的な銀行が、顧客が銀行を離れて他の銀行を選ぶかどうかを予測するソリューショ ンを必要としている。この銀行は、顧客損失を予測するモデルを訓練するためにデータセットを使っている。訓練用データセットには1,000行がある.機械学習 (ML) のスペシャリストは、Amazon SageMaker Data Wrangler を使用して、SageMaker のトレーニングジョブを使って解約予測モデルをトレーニングしています。トレーニング後、ML のスペシャリストは、モデルが偽の r
A. 異常検出を適用し、トレーニング前にトレーニングデータセットから異常値を除去する。
B. Synthetic Minority Oversampling Technique (SMOTE)を訓練データセットに適用してから訓練する。
C. 訓練前に訓練データセットの特徴量に正規化を適用する。
D. トレーニングの前に、トレーニングデータセットにアンダーサンプリングを適用する。
回答を見る
正解: B
質問 #47
機械学習の専門家が画像分類ディープラーニングモデルを構築しました。しかし、その専門家はオーバーフィッティングの問題に遭遇し、トレーニングの精度が99%、テストの精度が75%になりました。
A. Amazon SageMaker APIコールをAmazon S3にログ出力するAWS Lambda関数を実装する。Amazon CloudWatchにカスタムメトリックをプッシュするコードを追加する。Amazon SNSを使ってCloudWatchにアラームを作成し、モデルがオーバーフィットしたときに通知を受け取る。
B. AWS CloudTrailを使用して、Amazon S3へのAmazon SageMaker APIコールをログに記録する。Amazon CloudWatchにカスタムメトリックをプッシュするコードを追加する。Amazon SNSを使ってCloudWatchにアラームを作成し、モデルがオーバーフィットしたときに通知を受け取る。
C. Amazon SageMaker APIコールをAWS CloudTrailに記録するAWS Lambda関数を実装します。Amazon CloudWatchにカスタムメトリックをプッシュするコードを追加する。Amazon SNSを使ってCloudWatchにアラームを作成し、モデルがオーバーフィットしたときに通知を受け取る。
D. AWS CloudTrailを使用して、Amazon S3にAmazon SageMaker APIコールを記録する。Amazon SNSをセットアップして、モデルがオーバーフィットしたときに通知を受け取る。
回答を見る
正解: B
質問 #48
ある小売企業が、マーケティングキャンペーン中に顧客にパーソナライズされたおすすめ商品を提供するためにAmazon Personalizeを使用しています。新しいバージョンのソリューションを導入した直後は、既存顧客への推奨商品の売上が大幅に増加しましたが、導入後しばらくすると売上が減少しました。データサイエンティストはどのようにソリューションを調整すべきでしょうか?
A. Amazon Personalizeのイベントトラッカーを使用して、リアルタイムのユーザーインタラクションを含めることができます。
B. ユーザーメタデータを追加し、Amazon PersonalizeのHRNN-Metadataレシピを使用する。
C. AmazonSageMakerに組み込まれた因数分解マシン(FM)アルゴリズムを使って新しいソリューションを実装する。
D. Amazon Personalizeのインタラクションデータセットに、イベントタイプとイベント値のフィールドを追加します。
回答を見る
正解: A
質問 #49
機械学習のスペシャリストは、トレーニングのためにAmazon SageMakerを使用してTensorFlowプロジェクトを割り当てられ、Wi-Fiアクセスがない状態で長時間作業を続ける必要があります。
A. ノートパソコンにPython3とboto3をインストールし、その環境でコード開発を続ける。
B. Amazon SageMakerで使用しているTensorFlow DockerコンテナをGitHubからローカル環境にダウンロードし、Amazon SageMaker Python SDKを使用してコードをテストする。
C. tensorflow
D. SageMakerノートブックをローカル環境にダウンロードし、ラップトップにJupyterノートブックをインストールして、ローカルノートブックで開発を続ける。
回答を見る
正解: B
質問 #50
ある大企業のデータサイエンスチームは、Amazon S3 バケットに保存されたデータにアクセスするために Amazon SageMaker ノートブックを使用しています。IT セキュリティチームは、インターネットに接続可能なノートブックインスタンスが、インスタンス上で悪意のあるコードが実行されるとデータのプライバシーが侵害される可能性があるというセキュリティ上の脆弱性を生むことを懸念しています。同社は、すべてのインスタンスがインターネットにアクセスできない保護されたVPC内に留まり、データ通信トラフィックはAWSネットワーク内に留まることを義務付けています。
A. Amazon SageMakerノートブックをVPC内のプライベートサブネットに関連付ける。Amazon SageMakerエンドポイントとS3バケットを同じVPC内に配置します。
B. Amazon SageMakerノートブックをVPCのプライベートサブネットに関連付ける。IAM ポリシーを使用して、Amazon S3 と Amazon SageMaker へのアクセスを許可します。
C. Amazon SageMakerノートブックをVPのプライベートサブネットに関連付ける VPCにS3 VPCエンドポイントとAmazon SageMaker VPCエンドポイントが接続されていることを確認します。
D. Amazon SageMakerノートブックをVPCのプライベートサブネットに関連付けます。VPC に NAT ゲートウェイがあり、Amazon S3 と Amazon SageMaker へのアウトバウンド接続のみを許可するセキュリティグループが関連付けられていることを確認します。
回答を見る
正解: C
質問 #51
ある都市が大気汚染の影響に対処するため、大気の質を監視したいと考えている。機械学習のスペシャリストが、今後2日間の大気中の汚染物質を100万分の1単位で予測する必要があります。これはプロトタイプであるため、過去1年間の日次データしか利用できません。Amazon SageMakerでは、どのモデルが最も良い結果を提供する可能性が高いでしょうか?
A. Amazon SageMakerのk-最近傍(kNN)アルゴリズムを、predictor_typeがregressorの1年間のデータからなる単一の時系列で使用します。
B. Amazon SageMakerランダムカットフォレスト(RCF)を1年間のデータからなる単一時系列に使用する。
C. Amazon SageMaker Linear Learner アルゴリズムを、predictor_type が regressor の、1年間のデータからなる単一の時系列に使用します。
D. Amazon SageMaker Linear Learnerアルゴリズムを、predictor_typeの分類器で、1年間のデータからなる単一の時系列で使用します。
回答を見る
正解: C
質問 #52
ある航空機エンジン製造会社は、200の性能指標を時系列で測定している。エンジニアは、テスト中に製造上の重大な欠陥をほぼリアルタイムで検出したいと考えています。すべてのデータはオフライン分析のために保存する必要があります。ほぼリアルタイムの欠陥検出を実行するために、どのようなアプローチが最も効果的でしょうか?
A. AWS IoT Analyticsをインジェスト、保存、さらに分析に使用する。AWS IoT Analytics内のJupyterノートブックを使用して、異常の分析を実行します。
B. インジェスト、ストレージ、およびさらなる分析にAmazon S3を使用する。Amazon EMRクラスタを使用して、Apache Spark ML k-meansクラスタリングを実行し、異常を判断する。
C. 取り込み、保存、さらなる分析にAmazon S3を使用する。Amazon SageMakerのランダムカットフォレスト(RCF)アルゴリズムを使用して、異常を判断する。
D. インジェストにはAmazon Kinesis Data Firehoseを使用し、異常検知にはAmazon Kinesis Data Analytics Random Cut Forest (RCF)を使用する。Kinesis Data Firehoseを使用してAmazon S3にデータを保存し、さらに分析します。
回答を見る
正解: B
質問 #53
機械学習のスペシャリストが、100万文からなるデータセットを処理する新しい自然言語処理アプリケーションを作成している。その目的は、Word2Vecを実行して、文の埋め込みを生成し、さまざまなタイプの予測を可能にすることである。データセットからの例を挙げよう:「The quck BROWN FOX jumps over the lazy dog.」再現可能な方法でデータを正しくサニタイズし、準備するために、スペシャリストが実行する必要がある操作はどれか(3つ選べ)。
A. 現在の文書を発音タグ付きのSSMLに変換する。
B. 適切な発音辞書を作る
C. 発音のガイドとなるスピーチマークを出力する。
D. Amazon Lexを使ってテキストファイルの発音を前処理する。
回答を見る
正解: BCF
質問 #54
あるデータサイエンティストは、既存のオンプレミスETLプロセスをクラウドに移行する必要がある。現在のプロセスは一定の時間間隔で実行され、PySparkを使用して複数の大規模なデータソースを結合し、下流処理のための単一の統合出力にフォーマットします。データサイエンティストには、クラウドソリューションに対する次の要件が与えられています。
A. Amazon S3に生データを書き込む。既存のスケジュールに基づいて、永続的なAmazon EMRクラスタにSparkステップをサブミットするAWS Lambda関数をスケジュールする。既存のPySparkロジックを使用して、EMRクラスタ上でETLジョブを実行する。結果をAmazon S3の "processed "な場所に出力する。
B. 生データをAmazon S3に書き込む。AWS Glue ETLジョブを作成し、入力データに対してETL処理を実行する。既存のロジックを活用するために、PySparkでETLジョブを記述する。既存のスケジュールに基づいてETLジョブをトリガーする新しいAWS Glueトリガーを作成します。ETLジョブの出力先を設定し、Amazon S3の "processed "な場所に書き込む。
C. 生データをAmazon S3に書き込む。AWS Lambda関数を既存のスケジュールで実行するようにスケジュールし、Amazon S3からの入力データを処理する。LambdaロジックをPythonで記述し、既存のPySparkロジックを実装してETL処理を実行する。Lambda関数は、結果をAmazon S3の "processed "な場所に出力する。
D. Amazon Kinesis Data Analyticsを使用して入力データをストリームし、ストリームに対してリアルタイムのSQLクエリーを実行して、ストリーム内で必要な変換を実行する。出力結果をAmazon S3の "processed "な場所に配信する。
回答を見る
正解: D
質問 #55
ある企業の機械学習スペシャリストは、TensorFlowを使用した時系列予測モデルの学習速度を改善する必要がある。トレーニングは現在シングルGPUマシンで実装されており、完了までに約23時間かかる。学習は毎日実行する必要がある。モデルの精度は許容範囲内だが、学習データのサイズが継続的に増加することが予想され、モデルを毎日ではなく毎時間更新する必要がある。また、コーディングにかかる労力も最小限に抑えたい。
A. TensorFlowのコードは変更しない。トレーニングをスピードアップするために、より強力なGPUを搭載したマシンに変更してください。
B. TensorFlowのコードを変更して、Amazon SageMakerでサポートされているHorovod分散フレームワークを実装する。ビジネスゴールを達成するために必要なだけのマシンにトレーニングを並列化する。
C. 組み込みのAWS SageMaker DeepARモデルの使用に切り替える。ビジネスゴールを達成するために必要なだけのマシンにトレーニングを並列化する。
D. トレーニングをAmazon EMRに移行し、ビジネス目標を達成するために必要な台数のマシンにワークロードを分散する。
回答を見る
正解: B
質問 #56
映画分類モデルの次のような混同行列が与えられたとき、ロマンスの真のクラス頻度とアドベンチャーの予測クラス頻度は何ですか?
A. ロマンスの真のクラス頻度は77
B. ロマンスの真のクラス頻度は57
C. ロマンスの真のクラス度数は0
D. ロマンスの真のクラス頻度は77
回答を見る
正解: B
質問 #57
機械学習のスペシャリストが、複数の ETL ジョブを含む毎日の ETL ワークフローを開発している。すべてのデータセットがAmazon S3で利用可能になったら、アップロードされたデータセットをAmazon S3にすでに保存されている複数のテラバイトサイズのデータセットと結合するETLジョブを開始します。
A. AWS Lambdaを使ってAWS Step Functionsワークフローをトリガーし、Amazon S3でデータセットのアップロードが完了するのを待つ。AWS Glueを使ってデータセットを結合する。Amazon CloudWatchアラームを使用して、障害が発生した場合に管理者にSNS通知を送信する。
B. AWS Lambdaを使用してETLワークフローを開発し、Amazon SageMaker notebookインスタンスを起動します。ライフサイクル構成スクリプトを使用して、データセットを結合し、Amazon S3に結果を永続化します。Amazon CloudWatchアラームを使用して、障害が発生した場合に管理者にSNS通知を送信します。
C. AWS Batchを使用してETLワークフローを開発し、Amazon S3にデータがアップロードされたときにETLジョブの開始をトリガーする。AWS Glueを使用して、Amazon S3のデータセットを結合する。Amazon CloudWatchアラームを使用して、障害が発生した場合に管理者にSNS通知を送信する。
D. AWS Lambdaを使用して、Amazon S3にデータがアップロードされるとすぐに、Amazon S3のデータセットを読み込んで結合するために、他のLambda関数をチェーンする。Amazon CloudWatchアラームを使用して、障害が発生した場合に管理者にSNS通知を送信する。
回答を見る
正解: A
質問 #58
あるデータサイエンティストが、複数のクラスを持つデータセットに対して多層知覚(MLP)のトレーニングを行っている。対象のクラスはデータセット内の他のクラスと比較してユニークですが、許容できる想起指標を達成できません。データサイエンティストはすでにMLPの隠れ層の数とサイズを変えてみましたが、結果は大きく改善されませんでした。これらの要件を満たすためには、どのテクニックを使用すべきでしょうか?
A. アマゾン・メカニカル・タークを使ってさらにデータを集め、再訓練を行う。
B. MLPの代わりに異常検知モデルをトレーニングする
C. MLPの代わりにXGBoostモデルをトレーニングする
D. MLPの損失関数にクラスの重みを追加し、再学習する
回答を見る
正解: D
質問 #59
機械学習の専門家が、ある企業の顧客層の買い物習慣に関する構造化されたデータセットを与えられる。このデータセットには数千のデータ列があり、顧客ごとに数百の数値列がある。スペシャリストは、すべての顧客にわたってこれらの列に自然なグループ分けがあるかどうかを識別し、その結果をできるだけ早く可視化したいと考えています。これらのタスクを達成するために、スペシャリストはどのようなアプローチを取るべきでしょうか?
A. t分布確率的近傍埋め込み(t-SNE)アルゴリズムを用いて数値特徴を埋め込み、散布図を作成する。
B. さまざまなkの値についてユークリッド距離測定を使ってk-meansを実行し、肘プロットを作成する。
C. t-分散確率的近傍埋め込み(t-SNE)アルゴリズムを用いて数値特徴を埋め込み、折れ線グラフを作成する。
D. さまざまなkの値についてユークリッド距離測定を使ってk-meansを実行し、各クラスタ内の各数値列について箱ひげ図を作成する。
回答を見る
正解: A
質問 #60
ある大手モバイル・ネットワーク運営会社は、サービスから退会する可能性の高い顧客を予測するための機械学習モデルを構築している。このモデルは、100人の顧客からなるテストデータセットで評価した結果、以下のような混同行列を生成します。
A. モデルの精度は86%で、偽陰性の結果、企業が被るコストは偽陽性よりも少ない。
B. モデルの精度は86%であり、モデルの精度よりも低い。
C. モデルの精度は86%であり、偽陽性の結果として企業が被るコストは偽陰性よりも小さい。
D. モデルの精度は86%で、モデルの精度よりも高い。
回答を見る
正解: A
質問 #61
ある機械学習スペシャリストはクレジットカード処理会社に勤務しており、どの取引が不正であるかをほぼリアルタイムで予測する必要がある。具体的には、このスペシャリストは、ある取引が不正である可能性を確率で返すモデルを学習しなければならない。
A. ストリーミングの分類
B. バイナリ分類
C. マルチカテゴリー分類
D. 回帰分類
回答を見る
正解: C
質問 #62
機械学習のスペシャリストが、さまざまな経済要因に基づいて将来の雇用率を予測するモデルを構築している。データを調べているうちに、スペシャリストは入力特徴の大きさが大きく異なることに気づきます。スペシャリストは、より大きな大きさの変数がモデルを支配することを避けたいと考えています。
A. 分位ビニングを適用して、データをカテゴリー別のビンにグループ分けし、大きさを分布に置き換えることで、データ内のあらゆる関係を維持する。
B. デカルト積変換を適用して、大きさに依存しない新しいフィールドの組み合わせを作る。
C. 各フィールドの平均が0、分散が1になるように正規化を適用し、有意な大きさを取り除く。
D. 直交スパースビグラム(OSB)変換を適用し、固定サイズのスライディングウィンドウを適用して、同様の大きさの新しい特徴を生成する。
回答を見る
正解: C
質問 #63
従業員が、ある企業のソーシャルメディアフィードで音声付きのビデオクリップを発見した。ビデオの言語はスペイン語。英語は従業員の第一言語であり、スペイン語は理解できません。従業員はセンチメント分析を行いたいと考えています。このタスクを達成するために、どのようなサービスの組み合わせが最も効率的でしょうか?
A. Amazon Transcribe、Amazon Translate、Amazon Comprehend
B. Amazon Transcribe、Amazon Comprehend、Amazon SageMaker seq2seq
C. Amazon Transcribe、Amazon Translate、Amazon SageMaker Neural Topic Model (NTM)
D. Amazon Transcribe、Amazon Translate、Amazon SageMaker BlazingText
回答を見る
正解: A
質問 #64
分類問題のためのニューラルネットワークのミニバッチ訓練中に、データサイエンティストは訓練精度が振動することに気づきました。
A. データセットのクラス分布が不均衡である。
B. データセットのシャッフリングが無効になっている。
C. バッチサイズが大きすぎる。
D. 学習率は非常に高い。
回答を見る
正解: D
質問 #65
ある農業会社は、機械学習を使って100エーカーの草原で特定の種類の雑草を検出したいと考えている。現在、同社はトラクターに取り付けたカメラで、圃場を10×10のグリッドとして複数の画像を撮影している。同社はまた、広葉樹や非広葉樹のドックのような一般的な雑草クラスの注釈付き画像で構成される大規模な学習データセットを持っている。
A. 画像をRecordIO形式で用意し、Amazon S3にアップロードする。Amazon SageMakerを使用して、画像を様々な雑草クラスに分類する画像分類アルゴリズムを使用したモデルのトレーニング、テスト、検証を行う。
B. 画像を Apache Parquet フォーマットで用意し、Amazon S3 にアップロードする。Amazon SageMakerを使用して、オブジェクト検出シングルショットマルチボックス検出器(SSD)アルゴリズムを使用したモデルのトレーニング、テスト、検証を行う。
C. RecordIO形式で画像を準備し、Amazon S3にアップロードする。Amazon SageMakerを使用して、オブジェクト検出シングルショットマルチボックス検出器(SSD)アルゴリズムを使用したモデルのトレーニング、テスト、検証を行う。
D. 画像を Apache Parquet フォーマットで用意し、Amazon S3 にアップロードする。Amazon SageMakerを使用して、画像を様々な雑草クラスに分類する画像分類アルゴリズムを使用したモデルのトレーニング、テスト、検証を行う。
回答を見る
正解: C
質問 #66
あるデータサイエンティストがAmazon SageMakerノートブックインスタンスを数週間実行している。この間、Jupyter Notebook の新しいバージョンがリリースされ、ソフトウェアの追加アップデートも行われました。セキュリティチームは、実行中のすべての SageMaker notebook インスタンスに、SageMaker が提供する最新のセキュリティおよびソフトウェアアップデートを使用することを義務付けています。
A. CreateNotebookInstanceLifecycleConfig APIオペレーションを呼び出します。
B. 新しいSageMaker notebookインスタンスを作成し、元のインスタンスからAmazon Elastic Block Store(Amazon EBS)ボリュームをマウントします。
C. SageMakerノートブックインスタンスを停止してから再起動する
D. UpdateNotebookInstanceLifecycleConfig APIオペレーションを呼び出す。
回答を見る
正解: C
質問 #67
あるeコマース企業は、画像に基づく商品の分類を自動化している。データサイエンティストは、Amazon SageMaker画像分類アルゴリズムを使用してコンピュータビジョンモデルをトレーニングした。各商品の画像は特定の商品ラインに従って分類される。新商品を分類する際、モデルの精度が低すぎる。すべての商品画像は同じ寸法で、Amazon S3バケット内に保存されています。同社はこのモデルを改善し、新商品を分類できるようにしたいと考えています。
A. CクラスとDクラスは似すぎている。
B. ホールドアウト・クロスバリデーションにはデータセットが小さすぎる。
C. データの分布が偏っている。
D. クラスBとEに対してモデルがオーバーフィットしている。
回答を見る
正解: BCE

送信後に回答を表示する

質問の回答を得るには、電子メールと WhatsApp を送信してください。

注: 正しい試験結果を得ることができるように、電子メール ID と WhatsApp が有効であることを確認してください。

Eメール:
WhatsApp/電話番号: