- 機械学習›
- Amazon SageMaker›
- Amazon SageMaker のよくある質問
Amazon SageMaker のよくある質問
全般
Amazon SageMaker とは
SageMaker はどの AWS リージョンで利用できますか?
サポートされている SageMaker リージョンの一覧は、AWS リージョン別のサービスのページをご覧ください。詳細については、AWS の全般的なリファレンスガイドでリージョン別エンドポイントを参照してください。
SageMaker のサービスにはどの程度の可用性がありますか?
SageMaker はどのようにコードを保護しますか?
SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。
SageMaker では、どのようなセキュリティ対策がなされていますか?
SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された Amazon Simple Storage Service (Amazon S3) バケットをモデルアーティファクトやデータに使用し、AWS Key Management Service (AWS KMS) キーを SageMaker ノートブック、トレーニングジョブ、およびエンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。SageMaker は、Amazon Virtual Private Cloud (Amazon VPC) と AWS PrivateLink もサポートしています。
SageMaker はモデル、トレーニングデータやアルゴリズムを使用または共有しますか?
SageMaker は、顧客モデル、トレーニングデータやアルゴリズムを使用または共有しません。お客様がプライバシーとデータセキュリティについて懸念されるのは当然のことです。このため、AWS ではコンテンツの所有権と管理権をお客様にお渡ししています。簡素化されたパワフルなツールによって、自分のコンテンツをどこに保存するかをお客様に決定していただき、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理できるようにしています。また、お客様のコンテンツに対する不正アクセスや開示を防止するよう設計された技術的および物理的な管理を実践しています。お客様のコンテンツの所有権はお客様が保持します。また、お客様のコンテンツを処理、保存、ホストする AWS のサービスはお客様が選択します。いかなる目的であっても、AWS はお客様の同意を得ることなく、お客様のコンテンツにアクセスすることはありません。
SageMaker に対してどのように課金されますか?
ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。最低使用料金や前払いの義務はなく、実際に使用した分に対してのみお支払いいただきます。詳細については、Amazon SageMaker の料金ページ と Amazon SageMaker の料金計算ツールをご覧ください。
アイドル状態のリソースの検出や停止など、不要な請求を防いで SageMaker のコストを最適化するにはどうすればよいですか?
SageMaker のリソース使用量を最適化するために採用できるベストプラクティスがいくつかあります。構成の最適化を伴うアプローチもあれば、プログラムによるソリューションを伴うアプローチもあります。ビジュアルチュートリアルとコードサンプルを含むこの概念についての完全なガイドは、本ブログ記事にあります。
自分専用のノートブック、トレーニング、またはホスティング環境がある場合はどうなりますか?
SageMaker は十分で完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。
R は SageMaker のサポート対象ですか?
はい。R は、SageMaker ノートブックインスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルの構築、トレーニング、調整、デプロイに役立ちます。また、Amazon SageMaker Studio で R の統合開発環境 (IDE) である RStudio を起動することもできます。
Amazon SageMaker Studio とは何ですか?
Amazon SageMaker Studio は、すべての機械学習開発ステップを実行できる、単一のウェブベースビジュアルインターフェイスを提供します。SageMaker Studio はデータの準備、モデルの構築、トレーニング、デプロイに必要な各ステップに対し、完全なアクセス、管理、可視性をもたらします。データのアップロード、新規ノートブックの作成、モデルのトレーニングと調整、ステップ間での移動などを迅速にこなし、さまざまな試みを調整したり、結果を比較したり、本番環境にモデルをデプロイするといった処理をすべて 1 か所から実行でき、生産性を飛躍的に向上できます。ノートブック、試作管理、自動のモデル作成、デバッグ、プロファイリング、モデルの変動検出など、すべての ML 開発手順は SageMaker Studio のビジュアルインターフェイスで実行できます。
SageMaker Studio の料金はどのような仕組みになっていますか?
SageMaker Studio は、追加料金なしでご利用いただけます。SageMaker Studio 内で使用するサービスの基礎となるコンピューティングおよびストレージ料金のみを支払います。
SageMaker Studio はどのリージョンでサポートされていますか?
SageMaker Studio がサポートされているリージョンは、Amazon SageMaker デベロッパーガイドでご覧いただけます。
モデルの不均衡を確認するにはどうすればよいですか?
Amazon SageMaker Clarify は、機械学習ワークフロー全体で統計的バイアスを検出することにより、モデルの透明性を向上させるのに役立ちます。SageMaker Clarify は、データの準備中、トレーニング後、および時間の経過とともに不均衡をチェックし、ML モデルとその予測を説明するのに役立つツールも備えています。検出結果は、説明可能性レポートを通じて共有できます。
SageMaker Clarify はどのようなバイアスを検出しますか?
SageMaker Clarify はモデルの説明可能性をどのように改善しますか?
SageMaker Clarify は SageMaker Experiments と統合されており、トレーニングされた後のモデルの全体的な意思決定プロセスにおける各入力の重要度を詳細に示す特徴の重要度のグラフを提供します。これらの詳細は、特定のモデル入力がモデル全体の動作に必要以上の影響を与えるかどうかを判断するのに役立ちます。また、SageMaker Clarify では、個々の予測結果に対する解説を API を通じて公開しています。
機械学習ガバナンス
SageMaker が提供する機械学習ガバナンスツールは何ですか?
SageMaker は、機械学習ライフサイクル全体にわたって、目的に応じた機械学習ガバナンスツールを提供します。Amazon SageMaker Role Manager を使用すると、管理者は最小限の権限を数分で定義できます。Amazon SageMaker Model Cards を使用すると、構想からデプロイまで、重要なモデル情報を簡単に取得、検索、共有でき、Amazon SageMaker Model Dashboard を使用すると、本番モデルの動作に関する情報をすべて 1 か所で把握することができます。詳細については、
Amazon SageMaker による 機械学習ガバナンスを参照してください。
SageMaker Role Manager は何をするものですか?
SageMaker Role Manager を使用して、最小限のアクセス許可を数分で定義できます。SageMaker Role Manager は、事前に構築された IAM ポリシーのカタログを使用して、機械学習アクティビティとペルソナのための権限のベースラインセットを提供します。基本的な権限を維持することも、特定のニーズに基づいてさらにカスタマイズすることもできます。ネットワークアクセスの境界や暗号化キーなど、一般的なガバナンスの構成は、いくつかのセルフガイドプロンプトですぐに入力できます。SageMaker Role Manager は、IAM ポリシーを自動的に生成します。生成されたロールと関連するポリシーは、AWS IAM コンソールで確認できます。ユースケースに合わせて権限をさらに調整するには、マネージド IAM ポリシーを、SageMaker Role Manager で作成した IAM ロールにアタッチします。また、タグを追加してロールを識別し、AWS のサービス間で整理することができます。
SageMaker Model Cards は何をするのですか?
SageMaker Model Cards は、モデル情報の単一の情報源を作成することによって、機械学習ライフサイクル全体を通してモデルドキュメントの一元化と標準化を支援します。SageMaker Model Cards は、トレーニングの詳細をオートポピュレートし、ドキュメント化プロセスを加速します。また、モデルの目的やパフォーマンス目標などの詳細を追加することもできます。モデルの評価結果をモデルカードに添付し、モデルのパフォーマンスに関する重要なインサイトを得るための視覚化を提供することができます。SageMaker Model Cards は、PDF 形式でエクスポートすることで、簡単に他の人と共有することができます。
SageMaker Model Dashboard は何をするのですか?
SageMaker Model Dashboard は、デプロイされたモデルとエンドポイントの包括的な概要を提供し、リソースとモデルの動作違反を 1 つのペインで追跡することができます。SageMaker Model Monitor および SageMaker Clarify との統合により、データとモデルの品質、バイアスとフィーチャーアトリビューションドリフトを含む 4 つの次元でモデルの動作をモニタリングすることが可能です。SageMaker Model Dashboard は、モデルモニタリングジョブの欠落や非アクティブ、モデル品質、データ品質、バイアスドリフト、フィーチャーアトリビューションドリフトに関するモデル動作の逸脱に対するアラートを設定および受信するための統合エクスペリエンスも提供します。さらに、個々のモデルを検査し、モデルのパフォーマンスに影響を与える要因を時系列で分析することができます。そして、機械学習実践者のフォローアップを行い、是正措置を講じることができます。
基盤モデル
SageMaker の使用を迅速に開始するにはどのようにすればよいですか?
SageMaker JumpStart は、機械学習をすばやく簡単に開始するのに役立ちます。SageMaker JumpStart は、最も一般的なユースケース向けの一連のソリューションを提供し、数回のステップだけで簡単にデプロイできます。ソリューションは完全にカスタマイズ可能であり、AWS CloudFormation テンプレートとリファレンスアーキテクチャの使用を紹介しているため、ML の導入を加速できます。SageMaker JumpStart は、基盤モデルも提供し、トランスフォーマー、オブジェクト検出、画像分類モデルなど、150 を超える人気のオープンソースモデルのワンステップデプロイと微調整もサポートしています。
SageMaker JumpStart ではどの基盤モデルを利用できますか?
SageMaker JumpStart は専用モデルとパブリックモデルを提供します。利用可能な基盤モデルのリストについては、Amazon SageMaker JumpStart の開始方法を参照してください。
SageMaker JumpStart の基盤モデルを使い始めるにはどうすればいいですか?
基盤モデルには、SageMaker Studio、SageMaker SDK、および AWS マネジメントコンソールからアクセスできます。独自の基盤モデルの使用を開始するには、AWS Marketplace の販売条件を承諾する必要があります。
SageMaker JumpStart を使用しているお客様に提供される基本モデルを更新するために、私のデータを使用したり共有したりすることはありますか?
いいえ、ご自身の推論およびトレーニングデータは、SageMaker JumpStart がお客様に提供する基本モデルの更新やトレーニングに使用または共有されることはありません。
SageMaker JumpStart で専用モデルのモデルの重みとスクリプトを確認することはできますか?
いいえ、専用モデルでは、お客様がモデルの重みやスクリプトを表示することはできません。
SageMaker JumpStart の基盤モデルはどのリージョンで入手可能ですか?
モデルは SageMaker Studio が利用可能なすべてのリージョンで見つけることができますが、モデルをデプロイできるかどうかは、必要なインスタンスタイプのモデルとインスタンスの可用性によって異なります。AWS Marketplace のモデル詳細ページから AWS リージョンの可用性と必要なインスタンスを参照できます。
SageMaker JumpStart の基盤モデルの料金はどのようになっていますか?
専用モデルの場合は、モデルプロバイダーが決定するソフトウェア価格と、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。公開されているモデルについては、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。詳細については、Amazon SageMaker の料金と AWS Marketplace を参照してください。
SageMaker JumpStart は、どのようにデータの保護とセキュリティに役立ちますか?
AWS ではセキュリティが最優先事項であり、SageMaker JumpStart はセキュリティを考慮して設計されています。このため、SageMaker ではコンテンツの所有権と管理権をお客様に提供しています。簡素化されたパワフルなツールは、お客様が自分のコンテンツをどこに保存するかを決定し、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理するのに役立ちます。
- カスタマートレーニングや推論情報を AWS Marketplace のモデル出品者と共有することはありません。同様に、出品者のモデルアーティファクト (モデルの重みなど) は購入者と共有されません。
- SageMaker JumpStart は、サービスの向上のために顧客モデル、トレーニングデータ、またはアルゴリズムを使用したり、顧客トレーニングや推論データを第三者と共有したりすることはありません。
- SageMaker JumpStart では、ML モデルのアーティファクトは転送中も保管時も暗号化されます。
- AWS 責任共有モデルでは、 AWS は、すべての AWS で実行されるグローバルインフラストラクチャの保護について責任を負います。お客様は、このインフラストラクチャでホストされているコンテンツの維持について責任を負います。
AWS Marketplace または SageMaker JumpStart のモデルを使用することで、ユーザーはモデル出力の品質について責任を負うものとし、個々のモデルの説明に記載されている機能と制限に同意したものとみなされます。
SageMaker JumpStart ではどのような公開モデルがサポートされていますか?
SageMaker JumpStart には、PyTorch Hub と TensorFlow Hub の 150 超の事前トレーニング済み公開モデルが含まれています。画像分類やオブジェクト検出などの視覚タスクでは、RESNET、MobileNet、Single-Shot Detector (SSD) のようなモデルを使用できます。文の分類、テキストの分類、質問応答などのテキストタスクには、BERT、RoBERTa、DistilBERT のようなモデルを使用できます。
機械学習のアーティファクトを組織内の他の人と共有するにはどうすればよいですか?
SageMaker JumpStart を使用すると、データサイエンティストと機械学習デベロッパーは、ノートブックとモデルを含む機械学習のアーティファクトを組織内で簡単に共有することができます。管理者は、定義された一連のユーザーがアクセスできるリポジトリを設定することができます。リポジトリにアクセスする権限を持つすべてのユーザーは、モデルやノートブック、SageMaker JumpStart 内の公開コンテンツを閲覧、検索、使用することができます。ユーザーは、アーティファクトを選択して、SageMaker JumpStart でモデルのトレーニング、エンドポイントのデプロイ、およびノートブックの実行を行うことができます。
なぜ SageMaker JumpStart を使用して、組織内の他の人と機械学習のアーティファクトを共有する必要があるのですか?
SageMaker JumpStart を使用すると、機械学習アプリケーションを構築する際の市場投入までの時間を短縮することができます。組織内のあるチームが構築したモデルやノートブックを、数回のステップだけで、組織内の他のチームと簡単に共有することができます。内部での知識共有とアセットの再利用により、組織の生産性を大幅に向上させることができます。
基礎モデルを評価して選択するにはどうすればいいですか?
管理者は、ユーザーが利用できるものを制御できますか?
はい。管理者は、複数の AWS アカウントとユーザープリンシパルにわたって、ユーザーが表示および使用できる Amazon SageMaker JumpStart モデルを制御できます。詳細については、ドキュメントをご覧ください。
推論最適化ツールキットとは何ですか?
推論最適化ツールキットを使用すると、最新の推論最適化手法を簡単に実装して、デベロッパーの時間を数か月節約しながら、Amazon SageMaker で最先端 (SOTA) のコストパフォーマンスを実現できます。SageMaker が提供するさまざまな人気の最適化手法から選択して、事前に最適化ジョブを実行し、モデルのパフォーマンスと精度のメトリクスをベンチマーキングしてから、最適化されたモデルを推論のために SageMaker エンドポイントにデプロイできます。ツールキットはモデル最適化のすべての側面を処理するため、ビジネス目標にさらに注力できます。
推論最適化ツールキットを使用すべきなのはなぜですか?
推論最適化ツールキットは、生成 AI アプリケーションのコストパフォーマンスを改善し、市場投入までの時間を短縮するのに役立ちます。フルマネージドのモデル最適化ツールキットを使用すると、使いやすいツールで最新の最適化手法を利用できます。また、ツールキットは最先端のイノベーション、新しいハードウェア、ホスティング機能に継続的に適応するため、時間が経過する中で、利用できる最適なソリューションに簡単にアップグレードできます。
推論最適化ツールキットは、投機的デコード、量子化、コンパイルなどの最適化手法をサポートしています。数回のクリックでモデルに追加する最適化を選択できます。Amazon SageMaker は、ハードウェアの調達、深層学習コンテナと最適化ジョブを実行するための対応するチューニングパラメータの選択、お客様が指定する S3 の場所への、最適化されたモデルアーティファクトの保存という、差別化につながらない手間のかかる作業をすべて管理します。
投機的デコードでは、SageMaker が提供するドラフトモデルから開始できるため、独自のドラフトモデルをゼロから構築したり、ルーティングやシステムレベルの最適化をリクエストしたりする必要はありません。量子化では、使用する精度タイプを選択し、ベンチマーキングジョブを開始するだけで、パフォーマンスと精度のトレードオフを測定できます。Amazon SageMaker は包括的な評価レポートを生成するため、パフォーマンスと精度のトレードオフを簡単に分析できます。コンパイルでは、最も人気のあるモデルとその設定について、Amazon SageMaker はエンドポイントの設定およびスケーリング中にコンパイルされたモデルアーティファクトを自動的に取得します。これにより、事前にコンパイルジョブを実行する必要がなくなり、ハードウェアコストを削減できます。
Amazon SageMaker 推論最適化ツールキットは、生成 AI モデルの最適化にかかるコストと時間を削減するのに役立ちます。これにより、ビジネス目標に注力できます。
ローコード機械学習
Amazon SageMaker Canvas とは何ですか?
SageMaker Canvas は、直感的なポイントアンドクリックインターフェイスを備えたノーコードサービスであり、データから非常に正確な機械学習ベースの予測を作成できます。SageMaker Canvas では、ドラッグアンドドロップ式のユーザーインターフェイスを使用してさまざまなソースからデータにアクセスして組み合わせることができ、自動的にデータをクリーニングして準備するため、手動によるクリーンアップを最小限に抑えることができます。SageMaker Canvas は、さまざまな最先端の機械学習アルゴリズムを適用して高精度な予測モデルを見つけ出し、直感的なインターフェイスで予測を行うことができます。SageMaker Canvas を使用すると、さまざまなビジネスアプリケーションでより正確な予測を行い、モデル、データ、レポートを共有することで、企業内のデータサイエンティストやアナリストと簡単に連携できます。SageMaker Canvas の詳細については、Amazon SageMaker Canvas のよくある質問を参照してください。
SageMaker Canvas の料金はどのような仕組みになっていますか?
SageMaker Canvas では、使用量に応じてお支払いただきます。SageMaker Canvas は、複数のソースからインタラクティブにデータを取り込み、探索、準備することが可能で、データを使って高精度の ML モデルを学習し、予測を生成することができます。請求対象となるのは、SageMaker Canvas の使用時間またはログイン時間に応じたセッション料金と、モデル構築に使用したデータセットのサイズに応じたモデル学習料金の 2 つです。詳細については、Amazon SageMaker Canvas の料金をご覧ください。
機械学習ワークフロー
SageMaker で反復可能な ML ワークフローを構築するにはどうすればいいですか?
Amazon SageMaker Pipelines は、データの準備からモデルのデプロイまで、完全に自動化された機械学習ワークフローを作成するのに役立ちます。これにより、本番環境で数千の機械学習モデルにスケールできます。SageMaker Python SDK を使用してパイプラインを作成し、SageMaker Studio のビジュアルインターフェイスからパイプラインを表示、実行、監査することができます。SageMaker Pipelines は、ステップ間のデータの管理、コードレシピのパッケージ化、および実行の調整を行い、コーディングに費やす数か月に及ぶ時間を数時間に短縮します。ワークフローが実行されるたびに、処理されたデータと実行されたアクションの完全な記録が保持されるため、データサイエンティストと機械学習デベロッパーは問題をすばやくデバッグできます。
トレーニングされたすべてのモデルを表示して、本番環境に移行するのに最適なモデルを選択するにはどうすればよいですか?
SageMaker のどのコンポーネントを SageMaker Pipelines に追加できますか?
機械学習ワークフロー全体でモデルコンポーネントを追跡するにはどうすればよいですか?
SageMaker Pipelines の料金体系はどのようになっています?
SageMaker Pipelines は、追加料金なしでご利用いただけます。SageMaker Pipelines 内で使用する基盤となるコンピューティングまたは個別の AWS のサービスに対してのみ料金を支払います。
SageMaker で Kubeflow を使用できますか?
SageMaker Components for Kubeflow Pipelines の料金体系はどのようになっていますか?
SageMaker Components for Kubeflow Pipelines は、追加料金なしで利用できます。
ヒューマン・イン・ザ・ループ
ヒューマン・イン・ザ・ループとは何か、そしてなぜAIを活用したアプリケーションの構築にとってそれが重要なのか?
ヒューマンインザループとは、機械学習のライフサイクル全体にわたって人間の意見を活用して、モデルの精度と関連性を向上させるプロセスです。人間は、データの生成や注釈付けからモデルのレビューやカスタマイズまで、さまざまなタスクを実行できます。人間がコンテンツの要求者であり消費者でもあるジェネレーティブAIアプリケーションでは、人間の介入が特に重要です。したがって、ファンデーションモデル (FM) に、ユーザーのプロンプトに正確かつ安全かつ適切に対応する方法を人間がトレーニングすることが重要です。人間からのフィードバックを応用して、複数のタスクを完了することができます。まず、教師あり学習(モデルがユーザーのプロンプトにどのように反応すべきかのスタイル、長さ、精度を人間がシミュレートする)と人間のフィードバックによる強化学習(人間がモデルの応答をランク付けして分類する)を通じて、生成型AIアプリケーション向けの高品質のラベル付きトレーニングデータセットを作成します。次に、人間が生成したデータを使用して、特定のタスクや会社やドメイン固有のデータに合わせてFMをカスタマイズし、モデル出力を自分に合ったものにします。
FMを活用したジェネレーティブAIアプリケーションでは、ヒューマンインザループ機能をどのように活用できるでしょうか?
ヒューマン・イン・ザ・ループ機能は、FMを活用した生成型AIアプリケーションの作成と改善において重要な役割を果たします。タスクのガイドラインに基づいてトレーニングを受けた高度なスキルを持つ人材は、FMを訓練するためのデモンストレーションデータの作成、サンプル応答の修正と改善、企業および業界データに基づくモデルの微調整、毒性や偏見に対する保護手段としての機能などの活動において、フィードバック、ガイダンス、インプット、評価を提供できます。したがって、ヒューマンインザループ機能により、モデルの精度とパフォーマンスを向上させることができます。
Amazon SageMaker Ground Truth のセルフサービスサービスと AWS マネージドサービスの違いは何ですか?
Amazon SageMaker Ground Truth は、最も包括的なヒューマンインザループ機能を備えています。Amazon SageMaker Ground Truth を利用するには、セルフサービスサービスと AWS マネージドサービスの 2 つの方法があります。セルフサービスサービスでは、データアノテーター、コンテンツクリエーター、プロンプトエンジニア(社内、ベンダー管理、または一般ユーザーの活用)は、当社のローコードユーザーインターフェイスを使用して、独自のカスタムワークフローを柔軟に構築および管理しながら、ヒューマンインザループタスクを加速できます。AWS マネージドサービス (SageMaker Ground Truth Plus) では、お客様のユースケースに適した人材の選択と管理など、面倒な作業をお客様に代わって処理します。SageMaker Ground Truth Plus は、エンドツーエンドのワークフロー (詳細な人材トレーニングと品質保証手順を含む) を設計およびカスタマイズし、特定のタスクについてトレーニングを受けた熟練した AWS マネージドチームを提供し、お客様のデータ品質、セキュリティ、コンプライアンス要件を満たします。
データを準備する
SageMaker は、機械学習用のデータをどのように準備できますか?
SageMaker Data Wrangler は、機械学習用のデータを集約して準備するのにかかる時間を短縮します。SageMaker Studio の単一のインターフェイスでは、Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon EMR、Snowflake、Databricks からデータをわずか数回のステップで参照、インポートすることが可能です。また、50 以上のデータソースから転送され、Amazon AppFlow によって AWS Glue データカタログに登録されたデータもクエリを実行してインポートすることが可能です。SageMaker Data Wrangler は、生データを自動的に読み込み、集計し、表示します。SageMaker Data Wrangler にデータをインポートすると、自動生成された列のサマリーやヒストグラムを見ることができます。その後、SageMaker Data Wrangler の Data Quality and Insights レポートを使用して、データをより深く理解し、潜在的なエラーを特定することができます。このレポートでは、要約統計とデータ品質に関する警告が表示されます。また、SageMaker Clarify でサポートされているバイアス分析を SageMaker Data Wrangler から直接実行し、データ準備中に潜在的なバイアスを検出することができます。そこから、SageMaker Data Wrangler の事前構築された変換を使用して、データを準備することができます。データの準備ができたら、Amazon SageMaker Pipelines を使用して完全に自動化された機械学習ワークフローを構築し、そのデータを Amazon SageMaker Feature Store にインポートできます。
SageMaker データラングラーはどのようなデータ型をサポートしていますか?
SageMaker Data Wrangler でモデルの特徴を作成するにはどうすればよいですか?
SageMaker Data Wrangler でデータを視覚化するにはどうすればよいですか?
SageMaker Data Wrangler の料金体系はどのようになっていますか?
SageMaker Data Wrangler で準備したデータで機械学習モデルをトレーニングするにはどうすればよいですか?
過去のデータで特徴を準備した場合、SageMaker Data Wrangler は新しいデータをどのように扱うのですか?
SageMaker Data Wrangler は、私の CI/CD プロセスとどのように連携しますか?
SageMaker Data Wrangler Quick Model は、どのモデルを使用するのですか?
SageMaker Data Wrangler はどのようなサイズのデータをサポートしていますか?
SageMaker Data Wrangler は SageMaker Feature Store と連動しますか?
SageMaker Feature Store とは何ですか?
SageMaker Feature Store は、機械学習 (ML) モデルの特微量を保存、共有、管理するためのフルマネージド専用プラットフォームです。特徴量を検出して共有できるため、安全なアクセスとコントロールの恩恵を受けながら、モデルやチーム全体で簡単に再利用できます (AWS アカウント間を含む)。SageMaker Feature Store は、リアルタイム推論、バッチ推論、トレーニングのために、オンラインとオフラインの両方の特徴量をサポートします。また、特徴量の作成における重複を減らし、モデルの精度を高めるために、バッチおよびストリーミング特徴量エンジニアリングパイプラインを管理します。
オフライン特徴とは何ですか?
オンライン特徴とは何ですか?
オンライン特徴とオフライン特徴の一貫性を維持するにはどうすればよいですか?
特定の時点から特徴を再現するにはどうすればよいですか?
SageMaker Feature Store の料金体系はどうなっていますか?
AWS 無料利用枠の一環として、SageMaker Feature Store の使用を無料で開始できます。SageMaker Feature Store では、特徴ストアへの書き込み、オンライン特徴ストアからの読み取りとストレージの料金をお支払いいただきます。料金の詳細については、Amazon SageMaker の料金をご覧ください。
SageMaker はデータラベリングに何を提供しますか?
SageMaker は、Amazon SageMaker Ground Truth Plus と Amazon SageMaker Ground Truth の 2 つのデータラベリングサービスを提供します。どちらのオプションでも、画像、テキストファイル、動画などの raw データを識別し、有益なラベルを追加して、機械学習モデル用の高品質のトレーニングデータセットを作成できます。詳細については、Amazon SageMaker データラベリングを参照してください。
地理空間データとは
SageMaker の地理空間機能は何ですか?
なぜ SageMaker で地理空間機械学習を使用する必要があるのですか?
モデルの構築
Amazon SageMaker Studio ノートブックとは何ですか?
SageMaker Studio ノートブックはどのように機能しますか?
SageMaker Studio ノートブックは、ワンステップで Jupyter Notebook に素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、ワンステップでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。
SageMaker Studio ノートブックでは、 IAM アイデンティティセンターを使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。
SageMaker Studio ノートブックは、インスタンスベースのノートブック製品とどう違いますか?
SageMaker Studio ノートブックは他の AWS のサービスとどのように連携していますか?
SageMaker の共有スペースとは何ですか?
機械学習の実践者は、チームメイトが SageMaker Studio ノートブックを一緒に読んだり編集したりできる共有ワークスペースを作成することができます。共有スペースを使用することで、チームメイトは同じノートブックファイルを共同編集し、ノートブックコードを同時に実行し、その結果を一緒にレビューすることで、行き違いをなくし、共同作業を効率化することができます。共有スペースでは、BitBucket や AWS CodeCommit のようなサービスのサポートが組み込まれており、機械学習チームは、異なるバージョンのノートブックを簡単に管理し、時間の経過とともに変更点を比較できるようになります。実験や機械学習モデルなど、ノートブック内から作成されたすべてのリソースは自動的に保存され、これが作成された特定のワークスペースに関連付けられるため、チームはより簡単に整理され、機械学習モデル開発を加速させることができます。
SageMaker Studio ノートブックの料金はどのような仕組みになっていますか?
SageMaker Studio で作成し、実行する個々のノートブックは、別々に課金されますか?
いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。
SageMaker Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。
ノートブックで使用するリソースのモニタリングとシャットダウンは、どのように行えばよいですか?
SageMaker Studio ノートブックを実行しています。ブラウザやノートブックのタブを閉じた場合、またはブラウザを開いたままにしておいた場合、料金は発生しますか?
SageMaker Studio ドメインの作成および設定に対して料金は発生しますか?
いいえ、ユーザープロファイルの追加、更新、削除などを含め、SageMaker Studio ドメインの作成および設定に対しては料金が発生しません。
SageMaker Studio ノートブックやその他の SageMaker サービスに対する料金の明細は、どのように確認できますか?
管理者は、SageMaker Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details] (詳細) セクションで、[SageMaker] を選択してリージョンの一覧を展開し、料金の明細を確認できます。
Amazon SageMaker Studio Lab とは何ですか?
SageMaker Studio Lab を使用する必要があるのはなぜですか?
SageMaker Studio Lab は他の AWS のサービスとどのように連携していますか?
SageMaker Canvas はどのデータソースをサポートしていますか?
SageMaker Canvas は、Simple Storage Service (Amazon S3) や Amazon Redshift など、アカウントがアクセスできる AWS データソースをシームレスに検出するのに役立ちます。SageMaker Canvas のビジュアル、ドラッグアンドドロップインターフェイスを使用して、データを参照およびインポートできます。さらに、ローカルディスクからファイルをドラッグアンドドロップし、構築済みのコネクタを使用して、Snowflake などのサードパーティーソースからデータをインポートできます。
SageMaker Canvas で正確な予測を生成するための機械学習モデルはどのように構築すればよいですか?
ソースを接続し、データセットを選択し、データを準備したら、予測するターゲット列を選択してモデル作成ジョブを開始できます。SageMaker Canvas は、問題のタイプを自動的に識別して関連性の高い新しい特徴量を生成し、線形回帰、ロジスティック回帰、深層学習、時系列予測、勾配ブースティングなどの ML 技術を使用して広範囲にわたる予測モデルをテストし、データセットに基づいて正確な予測を行うモデルを構築することができます。
モデルのトレーニング
Amazon SageMaker HyperPod とは何ですか?
SageMaker ハイパーポッドはいつ使うべきですか?
SageMaker は分散トレーニングをサポートしていますか?
はい。SageMaker は、これらの配布戦略を手動で構築して最適化するのにかかる時間の何分の 1 かで、深層学習モデルと大規模なトレーニングセットを AWS の GPU インスタンス全体に自動的に配布できます。SageMaker が適用する 2 つの分散トレーニング手法とは、データの並列処理とモデルの並列処理です。データの並列処理は、データを複数の GPU インスタンスに均等に分割し、各インスタンスが同時にトレーニングできるようにすることで、トレーニング速度を向上させるために適用されます。モデルの並列処理は、モデルが大きすぎて単一の GPU に格納できず、複数の GPU に分散する前にモデルを小さな部分にパーティション化する必要がある場合に役立ちます。PyTorch および TensorFlow トレーニングスクリプトに数行の追加コードを追加するだけで、SageMaker はデータの並列処理またはモデルの並列処理を自動的に適用し、モデルの開発とデプロイをより迅速に行えるようにします。SageMaker は、グラフ分割アルゴリズムを使用して各 GPU 計算のバランスを取りながら、GPU インスタンス間の通信を最小限に抑えることで、モデルを分割するための最良のアプローチを決定します。SageMaker はまた、AWS コンピューティングとネットワークを完全に活用するアルゴリズムを通じて分散トレーニングジョブを最適化し、ほぼリニアなスケーリング効率を実現します。これにより、手動のオープンソース実装よりも速くトレーニングを完了できます。
Amazon SageMaker Experiments とは何ですか?
Amazon SageMaker Debugger とは何ですか?
マネージドスポットトレーニングとは何ですか?
マネージドスポットトレーニングはどのように使用するのですか?
マネージドスポットトレーニングはいつ使用したらいいですか?
マネージドスポットトレーニングの仕組みを教えてください?
マネージドスポットトレーニングに定期的なチェックポイントを行う必要はありますか?
マネージドスポットトレーニングジョブでのコスト削減をどのように計算するのですか?
マネージドスポットトレーニングではどのインスタンスを使用できますか?
マネージドスポットトレーニングではどのリージョンがサポートされていますか?
マネージドスポットトレーニングは、SageMaker が現在利用可能なすべてのリージョンでサポートされています。
トレーニングで使えるデータセットのサイズに制限はありますか?
SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。
SageMaker ではモデルの生成にどのようなアルゴリズムを使用していますか?
自動モデルチューニングとは何ですか?
自動モデルチューニングでチューニングできるのは、どのようなモデルですか?
自動モデルチューニングは SageMaker の外でも使用できますか?
現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、SageMaker の中で行う必要があります。
自動モデルチューニングの基盤となるチューニングアルゴリズムは何ですか?
ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を使用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。
自動モデルチューニングは、チューニングのために特定のハイパーパラメータをレコメンドしますか?
いいえ、ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。
ハイパーパラメータのチューニングジョブには、どのくらいの時間がかかりますか?
ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。
速さと正確さを両立させるようモデルを最適化するなど、複数の目標値を同時に最適化することはできますか?
現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。
自動モデルチューニングの料金はいくらですか?
ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。
SageMaker Autopilot または Automatic Model Tuning の使用は、どのように判断すればよいですか?
SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズム、調整するハイパーパラメータ、対応する検索範囲を手動で選択しなければなりません。
強化学習とは何ですか?
強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。
SageMaker で強化学習モデルをトレーニングできますか?
はい、SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。
強化学習と教師あり学習の違いは何ですか?
教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。
強化学習はどのような場合に使用すればよいですか?
教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術 (RL) の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動運転車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。
RL モデルのトレーニングにはどのようなタイプの環境が使用できますか?
Amazon SageMaker RL は RL モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。
RL モデルのトレーニングのために独自の RL エージェントアルゴリズムを書く必要がありますか?
いいえ、SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。
独自の RL ライブラリやアルゴリズム実装を持ち込んで SageMaker RL でそれらを実行することはできますか?
はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを SageMaker RL で実行できます。
SageMaker RL を使用して分散型ロールアウトを行うことはできますか?
はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。
モデルのデプロイ
SageMaker はどのようなデプロイのオプションを提供していますか?
Amazon SageMaker 非同期推論とは何ですか?
アクティブにリクエストを処理していないときに、インスタンス数をゼロにスケールダウンするために、オートスケーリング設定をどのように構成したらいいですか?
アクティブにリクエストを処理していないときにコストを節約するため、SageMaker 非同期推論エンドポイントのインスタンス数をゼロにスケールダウンすることができます。「ApproximateBacklogPerInstance」カスタムメトリクスでスケールするスケーリングポリシーを定義し、「MinCapacity」値をゼロに設定する必要があります。ステップバイステップの説明については、デベロッパーガイドの非同期のエンドポイントをオートスケールするセクションをご覧ください。
Amazon SageMaker Serverless Inference とは何ですか?
SageMaker Serverless Inference は、機械学習モデルのデプロイとスケーリングを容易にする、専用のサーバーレスモデル提供オプションです。SageMaker Serverless Inference エンドポイントは、コンピューティングリソースを自動的に開始し、トラフィックに応じてスケールインおよびスケールアウトするため、インスタンスタイプを選択したり、プロビジョニングされた容量を実行したり、スケーリングを管理したりする必要がなくなります。オプションで、Serverless Inference エンドポイントのメモリ要件を指定できます。推論コードの実行時間と処理されたデータの量の料金のみをお支払いいただきます。アイドル時間については料金がかかりません。
SageMaker Serverless Inference を使用する必要があるのはなぜですか?
SageMaker Serverless Inference の Provisioned Concurrency とは何ですか?
Provisioned Concurrency を使用する必要があるのはなぜですか?
エンドポイントがしばらくトラフィックを受信せず、その後エンドポイントが突然新しいリクエストを受信する場合があります。この場合、オンデマンドのサーバーレスエンドポイントでは、エンドポイントがコンピューティングリソースを起動してリクエストを処理するまでに時間がかかることがあります。これはコールドスタートと呼ばれます。コールドスタートは、同時リクエストが現在の同時リクエストの使用量を超える場合にも発生する可能性があります。コールドスタート時間は、モデルサイズ、モデルのダウンロードにかかる時間、およびコンテナの起動時間によって異なります。
レイテンシープロファイルの変動性を低減するために、オプションでサーバーレスエンドポイント向けに、Provisioned Concurrency を有効にできます。Provisioned Concurrency を使用することで、サーバーレスエンドポイントはいつでも準備が整い、コールドスタートなしで大量のトラフィックを瞬時に処理できます。
Provisioned Concurrency の料金はどう請求されますか?
オンデマンドのサーバーレス推論と同様に、Provisioned Concurrency が有効になっている場合は、推論リクエストの処理に使用されたコンピューティング容量 (ミリ秒単位) と処理されたデータ量に対して料金が発生します。また、設定されたメモリ、プロビジョニングされた期間、有効になっている同時実行の量に基づいて、Provisioned Concurrency の使用量に対しても支払いが発生します。詳細については、Amazon SageMaker の料金をご覧ください。
SageMaker のシャドウテストとは何ですか?
なぜシャドウテストに SageMaker を使用する必要があるのですか?
Amazon SageMaker Inference Recommender とは何ですか?
SageMaker Inference Recommender は、SageMaker 機械学習インスタンス全体でパフォーマンスのベンチマークを自動化し、モデルのパフォーマンスを調整することで、機械学習モデルを本番環境で取得するために必要な時間を短縮します。SageMaker Inference Recommender を使用して、最高のパフォーマンスを提供し、コストを最小限に抑えるエンドポイントにモデルをデプロイできるようになりました。インスタンスタイプを選択しながら SageMaker Inference Recommender を数分で開始し、最適なエンドポイント設定のレコメンデーションを数時間以内に取得できるため、数週間の手動テストとチューニング時間をなくすことができます。SageMaker Inference Recommender を使用すると、負荷テスト中に使用された SageMaker 機械学習インスタンスに対してのみ料金が発生し、追加料金は発生しません。
SageMaker Inference Recommender を使用する必要があるのはなぜですか?
SageMaker Inference Recommender は他の AWS のサービスとどのように連携しますか?
SageMaker Inference Recommender はマルチモデルエンドポイントまたはマルチコンテナエンドポイントをサポートできますか?
いいえ。現在、エンドポイントごとに 1 つのモデルのみをサポートしています。
SageMaker Inference Recommendationr はどのタイプのエンドポイントをサポートしていますか?
現在、リアルタイムエンドポイントのみをサポートしています。
SageMaker Inference Recommender を 1 つのリージョンで使用し、ベンチマークを異なるリージョンで使用できますか?
AWS 中国リージョンを除き、Amazon SageMaker が提供されているすべてのリージョンがサポートされます。
SageMaker Inference Recommender は Amazon EC2 Inf1 インスタンスをサポートしていますか?
はい、すべてのタイプのコンテナをサポートしています。AWS Inferentia チップに基づく Amazon EC2 Inf1 には、Neuron コンパイラまたは Amazon SageMaker Neo のいずれかを使用してコンパイルされたモデルアーティファクトが必要です。Inferentia ターゲットと関連するコンテナイメージ URI のコンパイル済みモデルを取得したら、SageMaker Inference Recommender を使用してさまざまな Inferentia インスタンスタイプのベンチマークを実行できます。
Amazon SageMaker Model Monitor とは何ですか?
SageMaker が実行されているインフラストラクチャにアクセスできますか?
いいえ、SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをにデプロイすることもできます。
本番環境では SageMaker モデルのサイズとパフォーマンスをスケールするにはどうすればよいですか?
SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。
SageMaker の本番環境をモニタリングするにはどうすればよいですか?
SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、SageMaker は Amazon CloudWatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。
SageMaker ではどのようなモデルをホストできますか?
SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。
SageMaker で同時に送信できるリアルタイム API リクエストは何件ですか?
SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。
SageMaker はフルマネージドモデルのホスティングと管理をどのようにサポートしていますか?
バッチ変換とは何ですか?
バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。
SageMaker はどのようなデプロイメントエンドポイントオプションをサポートしていますか?
伸縮自在性を実現するためのオートスケーリングとは?
Amazon SageMaker Edge Manager とは何ですか?
SageMaker Edge Manager は、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および維持することをより簡単にします。SageMaker Edge Manager は、ML デベロッパーがさまざまなエッジデバイスで ML モデルを大規模に操作するのに役立ちます。
SageMaker Edge Manager の使用を開始するにはどのようにすればよいですか?
SageMaker Edge Manager の使用を開始するには、トレーニングされた ML モデルをクラウドでコンパイルおよびパッケージ化し、デバイスを登録し、SageMaker Edge Manager SDK を使用してデバイスを準備する必要があります。モデルをデプロイする準備をするために、SageMaker Edge Manager は SageMaker Neo を使用して、ターゲットエッジハードウェア用にモデルをコンパイルします。モデルがコンパイルされると、SageMaker Edge Manager は AWS で生成されたキーを使用してモデルに署名し、ランタイムと必要な資格情報とともにモデルをパッケージ化して、デプロイに備えます。デバイス側では、デバイスを SageMaker Edge Manager に登録し、SageMaker Edge Manager SDK をダウンロードしてから、指示に従って SageMaker Edge Manager エージェントをデバイスにインストールします。チュートリアルノートブックは、モデルを準備してエッジデバイス上のモデルを SageMaker Edge Manager に接続する方法についてのステップバイステップの例を提供します。
SageMaker Edge Manager でサポートされているデバイスは何ですか?
SageMaker Edge Manager は、Linux および Windows オペレーティングシステムで一般的な CPU (ARM、x86) および GPU (ARM、Nvidia) ベースのデバイスをサポートします。将来的には、SageMaker Edge Manager は、SageMaker Neo でもサポートされるより多くの組み込みプロセッサおよびモバイルプラットフォームをサポートするように拡張される予定です。
SageMaker Edge Manager を使用するには、SageMaker でモデルをトレーニングする必要がありますか?
いいえ、必要ありません。モデルを他の場所でトレーニングすることも、オープンソースまたはモデルベンダーから提供される事前にトレーニングされたモデルを使用することもできます。
SageMaker Edge Manager を使用するには、SageMaker Neo でモデルをコンパイルする必要がありますか?
はい、必要です。SageMaker Neo は、モデルを実行可能ファイルに変換およびコンパイルします。その後、それをパッケージ化してエッジデバイスにデプロイできます。モデルパッケージがデプロイされると、SageMaker Edge Manager エージェントはモデルパッケージを解凍し、デバイス上でモデルを実行します。
モデルをエッジデバイスにデプロイするにはどうすればよいですか?
SageMaker Edge Manager は、指定された Simple Storage Service (Amazon S3) バケットにモデルパッケージを保存します。AWS IoT Greengrass が提供する無線通信 (OTA) デプロイ機能、またはその他の任意のデプロイメカニズムを使用して、モデルパッケージを S3 バケットからデバイスにデプロイできます。
SageMaker Edge Manager SDK は SageMaker Neo ランタイム (dlr) とどのように異なりますか?
Neo dlr は、SageMaker Neo サービスによってコンパイルされたモデルのみを実行するオープンソースランタイムです。オープンソースの dlr と比較すると、SageMaker Edge Manager SDK には、追加のセキュリティ、モデル管理、およびモデル提供機能を備えたエンタープライズグレードのオンデバイスエージェントが含まれています。SageMaker Edge Manager SDK は、大規模な本番環境へのデプロイに適しています。
SageMaker Edge Manager は AWS IoT Greengrass とどのように関連していますか?
SageMaker Edge Manager と AWS IoT Greengrass は、お客様の IoT ソリューションで連携できます。ML モデルが SageMaker Edge Manager でパッケージ化されると、AWS IoT Greengrass の OTA 更新機能を使用して、モデルパッケージをデバイスにデプロイできます。AWS IoT Greengrass を使用すると、IoT デバイスをリモートでモニタリングでき、SageMaker Edge Manager は、デバイス上の ML モデルをモニタリングおよび維持するのに役立ちます。
SageMaker Edge Manager は AWS Panorama とどのように関連していますか? AWS Panorama と対比して、SageMaker Edge Manager はどのような場合に使用すべきですか?
AWS は、エッジデバイスでモデルを実行するための最も幅広い機能を提供します。コンピュータビジョン、音声認識、予知保全など、幅広いユースケースをサポートするサービスを提供しています。
カメラやアプライアンスなどのエッジデバイスでコンピュータビジョンを実行しようとしている企業の場合は、AWS Panorama を使用できます。AWS Panorama は、エッジデバイス用にすぐデプロイできるコンピュータビジョンアプリケーションを備えています。クラウドコンソールにログインし、Simple Storage Service (Amazon S3) または SageMaker で使用するモデルを指定してから、ビジネスロジックを Python スクリプトとして記述することで、AWS Panorama の使用を簡単に開始できます。AWS Panorama は、ターゲットデバイスのモデルをコンパイルし、アプリケーションパッケージを作成して、数回クリックするだけでデバイスにデプロイできるようにします。さらに、独自のカスタムアプリケーションを構築することを希望する独立系ソフトウェアベンダーは AWS Panorama SDK を使用でき、デバイスメーカーは Device SDK を使用してデバイスを AWS Panorama 用に認定できます。
独自のモデルを構築し、モデルの特徴をより細かく制御することを希望するお客様は、SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、自然言語処理、不正検出、予知保全など、あらゆるユースケースにおいて、スマートカメラ、スマートスピーカー、ロボットなどのエッジデバイスのフリート全体で機械学習モデルを準備、実行、モニタリング、および更新するためのマネージドサービスです。SageMaker Edge Manager は、モデルを制御し (さまざまなモデルの特徴のエンジニアリングを含む)、モデルのドリフトをモニタリングすることを希望する ML エッジデベロッパー向けです。ML エッジデベロッパーは誰でも、SageMaker コンソールと SageMaker API を介して SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、SageMaker の機能を提供して、クラウド内のモデルを構築、トレーニング、およびエッジデバイスにデプロイします。
どのリージョンで SageMaker Edge Manager を利用ですか?
SageMaker Edge Manager は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、欧州 (フランクフルト)、アジアパシフィック (東京) の 6 つのリージョンで使用できます。詳細については、AWS リージョン別のサービス表をご覧ください。
Amazon SageMaker Neo とは何ですか?
SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 25 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。
SageMaker Neo の使用を開始するにはどうすればよいですか?
SageMaker Neo の使用を開始するには、SageMaker コンソールにサインインしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。
SageMaker Neo の主要なコンポーネントは何ですか?
SageMaker Neo には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、SageMaker Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、SageMaker Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。
モデルの変換に SageMaker Neo を使用するには、SageMaker モデルをトレーニングする必要がありますか?
いいえ、他の場所でモデルをトレーニングし、SageMaker Neo を使用してそれらを SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。
SageMaker Neo ではどのモデルがサポートされていますか?
現在、SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な DL モデルや、今日 SageMaker で使用される最も一般的な決定木モデルをサポートしています。SageMaker Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。
SageMaker Neo ではどのハードウェアプラットフォームがサポートされていますか?
サポートされているクラウドインスタンス、エッジデバイス、およびフレームワークのバージョンのリストは、SageMaker Neo のドキュメントでご確認いただけます。
SageMaker Neo はどのリージョンで利用できますか?
サポートされるリージョンの一覧は、AWS リージョン別のサービス表をご覧ください。
Amazon SageMaker Savings Plans
Amazon SageMaker Savings Plans とは何ですか?
SageMaker Savings Plans を使用する必要があるのはなぜですか?
SageMaker Savings Plans の使用を開始するにはどうすればよいですか?
SageMaker の Savings Plans は Amazon EC2 の Compute Savings Plans とどのように異なりますか?
Savings Plans は AWS Organizations/一括請求 (コンソリデーティッドビリング) とどのように連携しますか?
Savings Plans は、AWS Organizations/一括請求 (コンソリデーティッドビリング) ファミリー内の任意のアカウントで購入できます。デフォルトでは、Savings Plans によって提供される恩恵は、AWS Organization/一括請求 (コンソリデーティッドビリング) ファミリー内のすべてのアカウントでの使用量に適用されます。ただし、Savings Plans の恩恵を購入したアカウントのみに制限することもできます。