- 機器學習›
- Amazon SageMaker›
- Amazon SageMaker 常見問答集
Amazon SageMaker 常見問答集
一般問題
什麼是 Amazon SageMaker?
什麼是 SageMaker 的服務可用性?
SageMaker 如何保護我的程式碼安全?
SageMaker 會將程式碼存放至 ML 儲存磁碟區並由安全群組進行保護,並可選擇在靜態時進行加密。
SageMaker 有哪些安全措施?
SageMaker 確保 ML 模型成品和其他系統成品在傳輸和靜止狀態下全部經過加密。對 SageMaker API 和主控台發出的請求,都是透過安全 (SSL) 連線進行。您將 AWS Identity and Access Management 角色交給 SageMaker,提供許可讓它代您存取訓練與部署時所需的資源。您可以將加密的 Amazon Simple Storage Service (Amazon S3) 儲存貯體用於模型成品和資料,還可以將 AWS Key Management Service (KMS) 金鑰交給 SageMaker 筆記本、訓練任務和端點,以加密連接的 ML 儲存磁碟區。SageMaker 還支援 Amazon Virtual Private Cloud (Amazon VPC) 和 AWS PrivateLink 支援。
SageMaker 是否使用或共享模型、訓練資料或演算法?
SageMaker 不使用或共享客戶模型、訓練資料或演算法。我們深知客戶非常在乎隱私權與資料安全。這就是為什麼 AWS 透過簡化、強大的工具,允許您決定存放內容的位置、保護傳輸中和靜態內容的安全,以及管理使用者對 AWS 服務和資源的存取,讓您完全擁有及控制您的內容。我們也實作技術與實體控制措施,旨在防止未經授權的存取或揭露您的內容。身為客戶,您保有自己內容的擁有權,由您選擇可處理、存放及託管內容的 AWS 服務。未經您的同意,我們不會出於任何目的存取您的內容。
使用 SageMaker 如何計費?
您需支付用於託管筆記本、訓練模型、執行預測以及記錄輸出的 ML 運算、儲存和資料處理資源相關費用。使用 SageMaker,您可以選擇用於託管筆記本、訓練和模型主機的執行個體數量和類型。您只需按實際用量付費;既沒有最低費用,也無需前期承諾。如需詳細資訊,請參閱 Amazon SageMaker 定價和 Amazon SageMaker 定價計算器。
如何最佳化 SageMaker 成本,例如偵測並停止閒置資源以避免不必要的費用?
您可以採用多種最佳實務來最佳化您的 SageMaker 資源使用情況。某些方法涉及組態最佳化;另一些方法涉及程式設計解決方案。可以在此部落格文章中找到有關此概念的完整指南,以及視覺化教學和程式碼範例。
如果我有自己的筆記本、訓練或託管環境時該怎麼辦?
SageMaker 提供一套完整的工作流程,不過可以在 SageMaker 中繼續使用現有工具。您可以根據業務需求,輕鬆將每個階段的結果傳送至 SageMaker 或者從 SageMaker 傳送至其他地方。
SageMaker 是否支援 R?
是。您可以在 SageMaker 筆記本執行個體中使用 R,其中包括預先安裝的 R 核心和 reticulate 程式庫。Reticulate 提供 Amazon SageMaker Python SDK 的 R 介面,有助於 ML 從業人員建置、訓練、調整及部署 R 模型。您現在可以在 Amazon SageMaker Studio 執行 R 的整合式開發環境 (IDE) RStudio。
什麼是 Amazon SageMaker Studio?
Amazon SageMaker Studio 提供單一的 Web 視覺化界面,您可以在其中執行所有 ML 開發步驟。SageMaker Studio 讓您可以完全存取、控制和洞察在準備資料以及建立、訓練和部署模型時需要執行的每個步驟。您可以快速上傳資料,建立新的筆記本,訓練和調整模型,在步驟之間來回移動以調整實驗,比較結果,以及將模型部署至一處,讓您的工作更有效率。在統一的 SageMaker Studio 視覺化介面中可以執行所有 ML 開發活動,包括筆記本、實驗管理、自動建立模型、偵錯和分析,以及模型偏離偵測。
SageMaker Studio 定價如何運作?
使用 SageMaker Studio 無需額外付費。您只需支付在 SageMaker Studio 內使用的服務的基礎運算和儲存費用。
哪些區域支援 SageMaker Studio?
您可以在 Amazon SageMaker 開發人員指南中找到支援 SageMaker Studio 的區域。
如何檢查模型中的不平衡?
Amazon SageMaker Clarify 透過偵測整個 ML 工作流程中的統計偏差來協助提高模型透明度。SageMaker Clarify 可檢查資料準備期間、訓練後和持續時間內的不平衡,還包括有助於說明 ML 模型及其預測的工具。您可以透過可解釋性報告共享調查結果。
SageMaker Clarify 偵測哪些種類的偏差?
SageMaker Clarify 如何提升模型可解釋性?
SageMaker Clarify 與 SageMaker Experiments 整合來提供功能重要性圖表,詳細說明模型訓練之後每個輸入對模型整體決策程序的重要性。這些詳細資訊可協助判斷特定模型輸入對整體模型行為的影響是否比預期更大。SageMaker Clarify 還透過 API 對單個預測進行解釋。
ML 管控
SageMaker 提供哪些 ML 管控工具?
SageMaker 在整個 ML 生命週期中提供專門打造的 ML 管控工具。透過 Amazon SageMaker 角色管理器,管理員可在幾分鐘之內定義最小許可。Amazon SageMaker 模型卡讓您可以更輕鬆地擷取、抓取和共享從概念到部署的基本模型資訊,Amazon SageMaker 模型儀表板則讓您了解生產模型的行為,在一處即可完成一切操作。如需
詳細資訊,請參閱使用 Amazon SageMaker 進行機器學習管控。
SageMaker 角色管理器有什麼作用?
您可以使用 SageMaker 角色管理器,在幾分鐘內定義最小許可。它透過預先建置的 IAM 政策目錄,為 ML 活動和角色提供一組基準許可。您可以保留基準許可,或根據您的特定需求進一步自定許可。透過一些自助提示,您可以快速輸入常見的治理建構模組,例如網路存取邊界和加密金鑰。SageMaker Role Manager 接著會自動產生 IAM 政策。您可以透過 AWS IAM 主控台發現產生的角色與關聯的政策。若要進一步針對您的使用案例定製許可,請將您的受管 IAM 政策連接到使用 SageMaker Role Manager 建立的 IAM 角色。您也可以新增標籤,以協助識別角色和組織各項 AWS 服務。
SageMaker 模型卡有什麼作用?
SageMaker 模型卡針對模型資訊建立單一真實來源,藉此協助您在整個 ML 生命週期集中和標準化模型文件。SageMaker 模型卡會自動填入訓練詳細資訊,以加速文件程序。您還可以新增詳細資訊,例如模型的用途和效能目標。您可以將模型評估結果附加至模型卡,並提供視覺化效果以獲得對模型效能的關鍵洞察。SageMaker 模型卡可匯出為 PDF 格式,輕鬆地與他人共享。
SageMaker 模型儀表板有什麼作用?
SageMaker 模型儀表板為您提供部署模型和端點的全面概觀,讓您透過一個窗格,即可追蹤資源和模型行為違規情況。透過與 SageMaker Model Monitor 和 SageMaker Clarify 整合,您還可從四個維度監控模型行為,包括資料和模型品質,以及偏差和特徵歸因漂移。SageMaker 模型儀表板還提供一種整合體驗,可針對缺失和非作用中模型監控任務,以及模型品質、資料品質、偏差漂移和特徵歸因漂移的模型行為偏差,來設定和接收提醒。您可以進一步檢查各個模型,並分析隨著時間影響模型效能的因素。接著您就能聯繫 ML 從業人員以採取修正措施。
基礎模型
如何快速開始使用 SageMaker?
SageMaker JumpStart 可協助您快速、輕鬆地入門 ML。SageMaker JumpStart 為最常見的使用案例提供了一組解決方案,只需幾個步驟即可輕鬆部署。這些解決方案是完全可自訂的,並展示了 AWS CloudFormation 範本和參考架構的使用,以便您可以加快 ML 之旅。SageMaker JumpStart 還提供了基礎模型且支援單一步驟部署和微調 150 多種熱門開放原始碼模型,如轉換器、物件偵測和映像分類模型。
SageMaker JumpStart 提供哪些基礎模型?
SageMaker JumpStart 提供專有和公有模型。如需可用基礎模型的清單,請參閱開始使用 Amazon SageMaker JumpStart。
如何開始使用 SageMaker JumpStart 中的基礎模型?
您可以透過 SageMaker Studio、SageMaker SDK 和 AWS 管理主控台存取基礎模型。若要開始使用專有基礎模型,您必須接受 AWS Marketplace 中的銷售條款。
我的資料是否會遭到使用或與他人分享,藉此更新使用 SageMaker JumpStart 提供給客戶的基本模型?
否。您的推論和訓練資料不會遭到使用或與他人分享,藉此更新或訓練 SageMaker JumpStart 呈現給客戶的基本模型。
是否可以使用 SageMaker JumpStart 查看專有模型的模型權重和指令碼?
否。專有模型不允許客戶檢視模型權重和指令碼。
哪些區域有提供 SageMaker JumpStart 基礎模型?
在提供 SageMaker Studio 的所有區域中都可以探索模型,但部署模型的能力會因所需執行個體類型的模型和執行個體可用性而有所不同。您可以從 AWS Marketplace 中的模型詳細資料頁面參閱 AWS 區域可用性和所需執行個體。
SageMaker JumpStart 基礎模型如何定價?
對於專有模型,您需要支付模型提供者決定的軟體定價,並根據使用的執行個體支付 SageMaker 基礎設施費用。對於公開可用的模型,您需要根據使用的執行個體支付 SageMaker 基礎設施費用。如需詳細資訊,請參閱 Amazon SageMaker 定價和 AWS Marketplace。
SageMaker JumpStart 如何協助我保護資料的安全?
安全性是 AWS 的最高優先事項,而 SageMaker JumpStart 的設計就是要確保安全。這就是為什麼 SageMaker 透過簡化、強大的工具,可協助您決定存放內容的位置、保護傳輸中和靜態內容的安全,以及管理使用者對 AWS 服務和資源的存取,讓您完全擁有及控制您的內容。
- 我們不會與 AWS Marketplace 中的模型賣方分享客戶訓練和推論資訊。同樣地,賣方的模型成品 (例如,模型權重) 也不會與買方分享。
- SageMaker JumpStart 不會使用客戶模型、訓練資料或演算法來改善其服務,也不會與第三方分享客戶訓練和推論資料。
- 在 SageMaker JumpStart 中,ML 模型成品會在傳輸和靜態中加密。
- 在 AWS 共同責任模式下,AWS 會負責保護執行所有 AWS 服務的全球基礎設施。您有責任維護在此基礎架構上託管之內容的控制權。
使用者可以使用 AWS Marketplace 或 SageMaker JumpStart 中的模型,對模型輸出品質承擔責任,並確認個別模型描述中所述的功能和限制。
SageMaker JumpStart 支援哪些公用模型?
SageMaker JumpStart 包括來自 PyTorch Hub 和 TensorFlow Hub 的 150 多個預先訓練的公用模型。對於映像分類和物件偵測等視覺任務,您可以使用 ResNet、MobileNet 和 Single-Shot Detector (SSD) 等模型。對於句子分類、文字分類和問答等文字任務,您可以使用 BERT、RoBERTa 和 DistilBERT 等模型。
如何與組織內的其他人共享 ML 成品?
藉助 SageMaker JumpStart,資料科學家和 ML 開發人員可在其組織內輕鬆共享 ML 成品,包括筆記本和模型。管理員可設定一個可供定義的一組使用者存取的儲存庫。所有具有存取儲存庫許可的使用者都可瀏覽、搜尋和使用模型和筆記本,以及 SageMaker JumpStart 中的公開內容。使用者可選取成品,在 SageMaker JumpStart 中訓練模型、部署端點和執行筆記本。
為什麼我應該使用 SageMaker JumpStart 與組織內的其他人共享 ML 成品?
藉助 SageMaker JumpStart,您可以在建置 ML 應用程式時加速上市。只需幾個步驟,組織內一個團隊建置的模型和筆記本即可輕鬆地與組織內的其他團隊共享。內部知識共享和資產重複使用可顯著提高組織的生產效率。
如何評估和選擇基礎模型?
管理員可以控制使用者可使用哪些內容嗎?
是。管理員可以控制多個 AWS 帳戶和使用者主體能使用哪些 Amazon SageMaker JumpStart 模型。若要深入了解,請參閱相關文件。
什麼是推論最佳化工具組?
推論最佳化工具組可讓您輕鬆實作最新的推論最佳化技術,以在 Amazon SageMaker 上實現最先進的 (SOTA) 成本效能,同時節省開發人員數月的時間。您可以從 SageMaker 提供的熱門最佳化技術選單中進行選擇,並提前執行最佳化工作,針對效能和準確度量度測量結果進行比較,然後將最佳化模型部署到 SageMaker 端點以進行推論。該工具組處理模型最佳化的所有方面,因此您可以更專注於業務目標。
為什麼我應該使用推論最佳化工具組?
推論最佳化工具組可協助您改善生成式 AI 應用程式的成本效能和上市時間。完全受管的模型最佳化工具組提供易於使用的工具,讓您可以使用最新的最佳化技術。隨著時間推移,工具組不斷適應最先進的創新、新硬體和託管功能,因此可以隨著時間輕鬆升級到最佳可用的解決方案。
推論最佳化工具組支援最佳化技術,例如推測解碼、量化和編譯。您只需按幾下滑鼠即可選擇要新增至模型的最佳化功能,Amazon SageMaker 就會管理硬體採購的所有無差異化工作、選取深度學習容器和對應的調整參數來執行最佳化工作,然後將最佳化的模型成品儲存在您提供的 S3 位置中。
對於推測解碼,您可以開始使用 SageMaker 提供的草稿模型,因此您不必從頭開始建立自己的草稿模型,並要求路由和系統層級最佳化。透過量化,您只需選擇要使用的精準類型,然後開始基準測量效能與準確性的衡量。Amazon SageMaker 將產生全面的評估報告,讓您輕鬆分析效能與準確性之間的差異。透過編譯功能,針對最流行的模型及其組態,Amazon SageMaker 會在端點設定和擴展期間自動擷取已編譯的模型成品,從而無需提前執行編譯工作,從而節省硬體成本。
Amazon SageMaker 推論最佳化工具包有助於降低成本和時間來最佳化 GenAI 模型,讓您專注於業務目標。
低程式碼 ML
什麼是 Amazon SageMaker Canvas?
SageMaker Canvas 是一項無程式碼服務,具有直覺化、點按式介面,可讓您透過資料建立高度準確、以 ML 為基礎的預測。SageMaker Canvas 讓您能夠使用拖放式使用者介面存取和結合各種來源的資料,自動清除和準備資料,以最大限度地減少手動清理。SageMaker Canvas 運用各種最先進的 ML 演算法來尋找高度準確的預測模型,並提供直覺化介面來進行預測。您可以使用 SageMaker Canvas 在各種業務應用程式中進行更精確的預測,並透過共享模型、資料和報告輕鬆與企業中的資料科學家和分析師協作。若要進一步了解 SageMaker Canvas,請參閱 Amazon SageMaker Canvas 常見問答集。
SageMaker Canvas 定價如何運作?
使用 SageMaker Canvas,可以依用量付費。SageMaker Canvas 可讓您以互動方式擷取、探索和準備來自多個來源的資料,使用您的資料訓練高度準確的 ML 模型,並產生預測。您的帳單取決於兩個部分:依據使用或登入 SageMaker Canvas 時數的工作階段費用,以及依據建置模型所用資料集大小的模型訓練費用。如需詳細資訊,請參閱 Amazon SageMaker Canvas 定價。
ML 工作流程
如何在 SageMaker 中建置可重複的 ML 工作流程?
Amazon SageMaker Pipelines 可協助您建立從資料準備至模型部署的全自動 ML 工作流程,這樣您就可以在生產中擴展至數千個 ML 模型。您可以使用 SageMaker Python SDK 建構管道,並從 SageMaker Studio 的視覺化介面檢視、執行和稽核這些管道。SageMaker Pipelines 負責管理步驟之間的資料,封裝程式碼配方,並協調其執行,將數月的編碼時間縮短到幾小時。每次工作流程執行時,都會保留處理的資料和採取的動作的完整記錄,以便資料科學家和 ML 開發人員可以快速地對問題偵錯。
我如何檢視我的所有已訓練模型,以選擇要移至生產的最佳模型?
可以將 SageMaker 的哪些元件新增至 SageMaker Pipelines?
如何在整個 ML 工作流程中追蹤我的模型元件?
SageMaker Pipelines 的定價如何計算?
使用 SageMaker Pipelines 無須額外付費。您只需為 SageMaker Pipelines 內使用的基礎運算或任何單獨的 AWS 服務付費。
如何將 Kubeflow 與 SageMaker 搭配使用?
適用於 Kubeflow Pipeline 的 SageMaker 元件的定價如何計算?
使用適用於 Kubeflow Pipeline 的 SageMaker 元件無須額外付費。
人工參與
什麼是人工參與?為什麼對於構建採用 AI 技術的應用程式很重要?
人工參與是在整個機器學習生命週期中利用人工輸入來提高模型的準確性和相關性的過程。可以透過人工執行多種任務,從資料產生和註釋,到模型審查和客製化。人工干預對於生成式 AI 應用程式尤其重要,此處的「人」通常是指內容的申請者和消費者。因此,必須人工訓練基礎模型 (FM) 如何準確、安全和相關地回應使用者的提示。您可以套用人工回饋來協助您完成多個任務。首先,透過監督式學習 (人工模擬模型應如何回應使用者提示的風格、長度和準確性),以及使用人工回饋的強化學習 (人工對模型回應進行排名和分類),為生成式 AI 應用程式建立高品質的標籤訓練資料集。其次,使用人工產生的資料對特定任務自訂 FM,或使用您公司和領域的特定資料,並使模型輸出與您相關。
如何將人工參與功能用於由 FM 支援的生成式 AI 應用程式?
人工參與功能在建立和改進由 FM 支援的生成式 AI 應用程式中發揮著重要作用。經過任務指南訓練的高技能勞動力可以在活動 (如產生示範資料以訓練 FM、糾正和改善樣本回應、根據公司和產業資料微調模型等) 中提供回饋、指導、輸入和評估,作為防止毒害和偏見等的保障措施。因此,人工參與功能可以提高模型準確度和效能。
Amazon SageMaker Ground Truth 的自助服務和 AWS 受管產品之間有何區別?
Amazon SageMaker Ground Truth 提供最全面的人工參與功能。您有兩種方法可以使用 Amazon SageMaker Ground Truth:自助服務產品和 AWS 受管產品。在自助服務產品中,您的資料註釋者、內容創作者和提示工程師 (內部、供應商管理或利用公眾人群) 可以使用我們的低程式碼使用者介面來加速人工參與工作,同時可以靈活地建立和管理自己的自訂工作流程。在 AWS 受管產品 (SageMaker Ground Truth Plus) 中,我們會為您處理繁重的工作,其中包括為您的使用案例選擇和管理合適的員工團隊。SageMaker Ground Truth Plus 可設計和客製化端對端工作流程 (包括詳細的員工訓練和品質保證步驟),提供技術熟練且對特定任務進行過訓練的 AWS 受管團隊,能滿足您對資料品質、安全性和合規的要求。
準備資料
SageMaker 如何為 ML 準備資料?
SageMaker Data Wrangler 可減少為 ML 彙總和準備資料所需的時間。透過 SageMaker Studio 中的單一介面,只需幾個步驟,即可瀏覽和匯入來自 Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon EMR、Snowflake 和 Databricks 的資料。您還可查詢並匯入從 50 多個資料來源傳輸,並透過 Amazon AppFlow 在 AWS Glue Data Catalog 中註冊的資料。SageMaker Data Wrangler 會自動載入、彙總和顯示原始資料。將資料匯入 SageMaker Data Wrangler 後,即可看到自動產生的資料欄摘要和長條圖。然後,您可透過 SageMaker Data Wrangler 資料品質和洞察報告,更深入地了解您的資料並識別潛在錯誤,該報告提供匯總統計資料和資料品質警告。您還可直接從 SageMaker Data Wrangler 執行 Amazon SageMaker Clarify 支援的偏差分析,以偵測資料準備期間的潛在偏差。您可以在此使用 SageMaker Data Wrangler 預先建置的轉換,來準備您的資料。在準備資料後,您可以使用 Amazon SageMaker Pipelines 建置完全自動化的 ML 工作流程,或將資料匯入 Amazon SageMaker Feature Store。
SageMaker Data Wrangler 支援哪些資料類型?
如何使用 SageMaker Data Wrangler 建立模型功能?
如何在 SageMaker Data Wrangler 中視覺化我的資料?
SageMaker Data Wrangler 的定價如何計算?
如何使用 SageMaker Data Wrangler 中準備的資料來訓練 ML 模型?
當我準備好歷史資料的相關特徵後,SageMaker Data Wrangler 會如何處理新資料?
SageMaker Data Wrangler 如何與我的 CI/CD 程序協同工作?
SageMaker Data Wrangler Quick Model 使用哪種模型?
SageMaker Data Wrangler 支援的資料大小?
SageMaker Data Wrangler 是否會與 SageMaker Feature Store 協同工作?
什麼是 SageMaker Feature Store?
SageMaker Feature Store 是全受管、專門打造的平台,用於存放、共用及管理機器學習 (ML) 模型特徵。您可以探索和共享功能,以透過安全存取和控制在模型與團隊之間 (包括跨 AWS 帳戶) 輕鬆重複使用。SageMaker Feature Store 支援線上和離線功能,以進行即時推論、批次推論和訓練。也能管理批次和串流特徵工程管道,以避免重複建立特徵並提高模型準確度。
什麼是離線功能?
什麼是線上功能?
如何維護線上與離線功能之間的一致性?
如何在指定的時間內及時重新產生功能?
SageMaker Feature Store 的定價如何計算?
做為 AWS 免費方案的一部分,您可以免費開始使用 SageMaker Feature Store。使用 SageMaker Feature Store,您需為寫入到功能存放區以及從線上功能存放區的讀取和儲存付費。如需定價詳情,請參閱 Amazon SageMaker 定價。
SageMaker 為資料標記提供什麼?
SageMaker 提供兩種資料標記產品,即 Amazon SageMaker Ground Truth Plus 和 Amazon SageMaker Ground Truth。這兩個選項都可讓您識別原始資料 (例如映像、文字檔案和影片),並新增資訊類標籤來為您的 ML 模型建立高品質的訓練資料集。若要進一步了解,請參閱 Amazon SageMaker 資料標記。
什麼是地理空間資料?
什麼是 SageMaker 地理空間功能?
為什麼我應該在 SageMaker 上使用地理空間 ML?
建置模型
什麼是 Amazon SageMaker Studio 筆記本?
SageMaker Studio 筆記本的運作方式為何?
SageMaker Studio 筆記本是單一步驟 Jupyter 筆記本,能迅速啟動。基礎運算資源極具彈性,因此您可以輕鬆地調高或調低可用資源,而變更會在背景自動進行,不會中斷您的工作。SageMaker 還允許單一步驟共用筆記本。您可輕鬆地與他人共享筆記本,對方將獲得完全相同的筆記本,且儲存在同一位置。
使用 SageMaker Studio 筆記本時,您可以使用 IAM Identity Center 以公司憑證進行登入。在團隊內部和團隊之間共享筆記本很容易,因為共享時,會在與筆記本封裝的工作映像中自動追蹤執行筆記本所需的相依性。
SageMaker Studio 筆記本與執行個體式筆記本產品有何不同?
SageMaker Studio 筆記本如何與其他 AWS 服務搭配使用?
SageMaker 中有哪些共享空間?
ML 從業者可建立一個共享工作區,團隊成員可在其中一起閱讀和編輯 SageMaker Studio 筆記本。透過使用共享的步調,團隊成員可共同編輯同一個筆記本檔案,同時執行筆記本程式碼,並一起檢閱結果,以消除來回操作並簡化協作。在共享空間中,ML 團隊將擁有針對 BitBucket 和 AWS CodeCommit 等服務的內建支持,因此他們可以輕鬆管理筆記本的不同版本,並比較一段時間的變更。從筆記本中建立的任何資源,例如實驗和 ML 模型,都會自動儲存,並與建立資源的特定工作區關聯,因此團隊可以更輕鬆地保持條理,並加速 ML 模型開發。
SageMaker Studio 筆記本定價為何?
在 SageMaker Studio 建立和執行的每個筆記本是否要單獨計費?
否。您可以在相同的運算執行個體上建立和執行多個筆記本。您只需支付使用的運算費用,而非個別項目。如需詳細資訊,請參閱我們的計量指南。
除了筆記本,您還能在 SageMaker Studio 啟動和執行終端機和互動殼層,這些都可在相同的運算執行個體上完成。每個應用程式都在容器或映像內執行。SageMaker Studio 可針對資料科學和 ML,提供多種專用和預先設定的內建映像。
如何監控和關閉筆記本使用的資源?
我正在執行 SageMaker Studio 筆記本。如果關閉瀏覽器、關閉筆記本標籤或單純讓瀏覽器保持開啟,是否仍然需要付費?
建立和設定 SageMaker Studio 網域是否需要付費?
否,建立或設定 SageMaker Studio 網域無需付費,包含新增、更新和刪除使用者設定檔。
如何查看 SageMaker Studio 筆記本或其他 SageMaker 服務的分項費用?
作為管理員,您可以在 AWS 帳單主控台查看包含 SageMaker Studio 在內的 SageMaker 分項費用。從 SageMaker 的 AWS 管理主控台,在上方功能表選擇服務、在搜尋方塊輸入「帳單」、從下拉式清單選取帳單,然後在左側面板選取帳單。在詳細資訊部分,可以選取 SageMaker 展開區域清單,然後逐一查看分項費用。
什麼是 Amazon SageMaker Studio Lab?
為何應該使用 SageMaker Studio Lab?
SageMaker Studio Lab 如何與其他 AWS 服務搭配使用?
SageMaker Canvas 支援哪些資料來源?
SageMaker Canvas 能協助您無縫地探索您的帳戶有權存取的 AWS 資料來源,包括 Amazon S3 和 Amazon Redshift。您可以使用 SageMaker Canvas 視覺化、拖放式介面瀏覽和匯入資料。此外,您可以從本機磁碟拖放檔案,並使用預先建置的連接器從第三方來源 (如 Snowflake) 匯入資料。
如何在 SageMaker Canvas 中建置 ML 模型以產生準確的預測?
連接來源、選取資料集並準備資料後,您可以選取要預測的目標資料欄以啟動模型建立任務。SageMaker Canvas 會自動識別問題類型,產生新的相關特徵,使用線性迴歸、邏輯迴歸、深度學習、時間序列預測和梯度提升等 ML 技術,測試一套全面的預測模型,並建置可根據您的資料集做出準確預測的模型。
訓練模型
什麼是 Amazon SageMaker HyperPod?
何時應使用 SageMaker HyperPod?
SageMaker 是否支援分散式訓練?
是。SageMaker 可以自動在 AWS GPU 執行個體中分配深度學習模型和大型訓練集,而只需手動建置和最佳化這些分配策略所需的一小部分時間。SageMaker 套用的兩種分散式訓練技術是資料平行處理和模型平行處理。套用資料平行處理,可透過在多個 GPU 執行個體之間平均分配資料來提高訓練速度,允許每個執行個體同時訓練。對於太大而無法存放在單一 GPU 上,且在分配到多個 GPU 之前需要將模型分割為更小部分的的模型,模型平行處理很有用。在 PyTorch 和 TensorFlow 訓練指令碼中只需幾行額外代碼,SageMaker 將自動為您套用資料平行處理或模型平行處理,讓您更快地開發和部署模型。SageMaker 將使用圖形分割演算法判斷分割模型的最佳方法,以平衡每個 GPU 的運算,同時盡量減少 GPU 執行個體之間的通訊。SageMaker 還透過可充分利用 AWS 運算和網絡的演算法最佳化您的分散式訓練任務,以實現近線性擴展效率,這樣可讓您比手動開放原始碼實作更快地完成訓練。
什麼是 Amazon SageMaker Experiments?
什麼是 Amazon SageMaker Debugger?
什麼是受管 Spot 訓練?
如何使用受管 Spot 訓練?
何時應該使用受管 Spot 訓練?
受管 Spot 訓練如何運作?
使用受管 Spot 訓練是否需要定期檢查點?
如何使用受管 Spot 訓練任務計算節省的費用?
哪些執行個體可以與受管 Spot 訓練搭配使用?
受管 Spot 訓練支援哪些區域?
目前可用 SageMaker 的所有區域都支援受管 Spot 訓練。
對於可用於訓練的資料集是否有大小限制?
使用 SageMaker 訓練模型時,資料集的大小沒有固定的限制。
SageMaker 使用什麼演算法來產生模型?
什麼是自動模型調校?
透過自動模型調校可調整哪些模型?
是否可在 SageMaker 以外使用自動模型調校?
目前沒有。在 SageMaker 內才能獲得最佳的模型調校效能和體驗。
什麼是自動模型調校的基礎調校演算法?
目前,我們的調校超參數演算法是貝葉斯優化的自訂實作。主要目標是在調校過程中,優化客戶指定的目標指標。具體來說,它會檢查已完成訓練任務的物件指標,然後利用知識來推論超參數組合,以應用在下一個訓練任務。
自動模型調校是否可建議調校專用的特定超參數?
否。特定超參數對模型效能的影響程度取決於多個因素,很難肯定地說某個超參數比其他更為重要,所以需要調校。對於 SageMaker 中的內建演算法,我們會確定某個超參數是否可進行調校。
執行超參數調校任務需要多長的時間?
超參數調校任務所需的時間取決於多個因素,包括資料大小、基礎演算法,還有超參數的值。此外,客戶可以選擇同時訓練任務的數量和訓練任務的總數。這些選擇都會影響超參數調校任務持續的時間長度。
是否可像最佳化模型一樣同時最佳化多個目標,使其又快又準確?
目前沒有。目前,您需要指定單一目標指標來優化或變更演算法程式碼以發出新指標,這是兩個或多個實用指標間的加權平均,讓調校程序針對該目標指標進行優化。
自動模型調校的費用為何?
超參數調校任務本身不需任何費用。但需根據模型訓練定價,依照超參數調校任務啟動的訓練任務支付費用。
我如何決定使用 SageMaker Autopilot 還是自動模型調整?
SageMaker Autopilot 讓典型的 ML 工作流程完全自動化,包括功能預先處理、演算法選擇和超參數調校,同時特別重視分類和迴歸使用案例。另一方面,自動模型調校旨在調整任何模型,無論它是以內建演算法、深度學習架構或者是自訂容器為基礎。為了獲得靈活性,您必須手動選擇特定演算法、要調整的超參數以及相應的搜尋範圍。
問:什麼是強化學習?
強化學習是一項 ML 技術,可讓代理程式使用來自其動作和體驗的意見反應嘗試錯誤,在互動式環境中學習。
我可以在 SageMaker 中訓練強化學習模型嗎?
是的,除了受監督和非監督式學習模型外,您還可以在 SageMaker 中訓練強化學習模型。
強化學習與受監督學習有何不同?
雖然受監督和強化學習在輸入和輸出之間都使用映射,不同於受監督學習提供給代理程式的意見反應是用於執行任務的正確動作集,強化學習使用延遲的意見反應,當中的獎勵信號會經過最佳化以透過一序列的動作確保長期目標。
何時應該使用強化學習?
受監督學習技術的目標是要根據訓練資料中的模式來找到最好的答案,而無監督學習技術的目標是要找到資料點之間的相似性和差異性。相對來說,強化學習 (RL) 技術的目標是要學習如何達到想要的成果,甚至是在不清楚如何達成該成果時。因此,RL 更適合用來啟用代理程式可以進行自主性決策的智慧型應用程式,例如自駕車、HVAC、產業控制等等。
我可以對訓練 RL 模型使用什麼類型的環境?
Amazon SageMaker RL 針對訓練 RL 模型支援許多不同的環境。您可以使用 AWS 服務,例如 AWS RoboMaker、開放原始碼環境或使用 Open AI Gym 界面開發的自訂環境,或是商業模擬環境,例如 MATLAB 和 SimuLink。
我是否需要編寫我自己的 RL 代理程式演算法以訓練 RL 模型?
不需要,SageMaker RL 包含的 RL 工具組 (例如 Coach 和 Ray RLLib) 可提供 RL 代理程式演算法 (例如 DQN、PPO、A3C 等等) 的實作。
我可以使用自己的 RL 程式庫和演算法實作,並且在 SageMaker RL 中執行嗎?
是的,您可以在 Docker 容器中使用自己的 RL 程式庫和演算法實作,並且在 SageMaker RL 中執行。
是否可以使用 SageMaker RL 執行分散式推展?
是。您甚至可以選取異質性叢集,其中的訓練可以在單一 GPU 執行個體上執行,而模擬可以在多個 CPU 執行個體上執行。
部署模型
SageMaker 提供哪些部署選項?
什麼是 Amazon SageMaker 非同步推論?
如何設定自動擴展設定,以在未主動處理請求時將執行個體計數縮減規模為零?
您可以在未主動處理請求時將 SageMaker 非同步推論端點執行個體計數縮減規模至零,以節省成本。您需要定義依「ApproximateBacklogPerInstance」自訂指標擴展的擴展政策,並將「MinCapacity」值設定為零。如需逐步說明,請瀏覽開發人員指南的自動擴展非同步端點部分。
什麼是 Amazon SageMaker 無伺服器推論?
SageMaker 無伺服器推論是一個專門打造的無伺服器模型服務選項,可以輕鬆部署和擴展 ML 模型。SageMaker 無伺服器推論端點會自動啟動運算資源並根據流量進行縮減和擴展,讓您無需選擇執行個體類型、執行佈建容量或管理擴展。您可以選擇為無伺服器推論端點指定記憶體要求。您只需為執行推論程式碼的持續時間和處理的資料量付費,而無需為閒置期間付費。
為何應該使用 SageMaker 無伺服器推論?
什麼是 SageMaker 無伺服器推論的佈建並行?
為什麼要使用佈建並行?
使用隨需無伺服器端點時,如果您的端點一段時間沒有接收流量,然後突然收到新的請求,則端點可能需要一些時間才能啟動運算資源來處理請求。這稱為冷啟動。如果您的並行請求超過目前的並行請求用量,也會發生冷啟動。冷啟動時間取決於模型大小、下載模型所需的時間以及容器的啟動時間。
若要減少延遲設定檔中的變動性,您可以選擇性地為無伺服器端點啟用佈建並行功能。使用佈建並行功能,您的無伺服器端點隨時準備就緒,並可立即為突增流量提供服務,而不需要任何冷啟動。
佈建並行如何收費?
與隨需無伺服器推論一樣,啟用佈建並行時,您需要支付用於處理推論請求的運算容量 (以毫秒計費) 以及處理的資料量。您也可以依據設定的記憶體、佈建的持續時間和啟用的並行數量來支付佈建並行用量的費用。如需詳細資訊,請參閱 Amazon SageMaker 定價。
什麼是 SageMaker 影子測試?
為什麼要使用 SageMaker 進行影子測試?
什麼是 Amazon SageMaker Inference Recommender?
SageMaker Inference Recommender 可透過跨 SageMaker ML 執行個體自動執行效能基準測試和調校模型效能來減少將 ML 模型投入生產所需的時間。您現在可以使用 SageMaker Inference Recommender 將您的模型部署至可交付最佳效能並最大限度減少成本的端點。您可以在幾分鐘內開始使用 SageMaker Inference Recommender,同時選取執行個體類型並在數小時內取得最佳端點組態的建議,從而消除數週的手動測試和調校時間。使用 SageMaker Inference Recommender,您只需為負載測試期間使用的 SageMaker ML 執行個體付費,無需額外費用。
為什麼應該使用 SageMaker Inference Recommender?
SageMaker Inference Recommender 如何與其他 AWS 服務搭配使用?
SageMaker Inference Recommender 是否可以支援多模型端點或多容器端點?
否,我們目前僅支援每個端點一個模型。
SageMaker Inference Recommender 支援哪種類型的端點?
目前我們僅支援即時端點。
我是否可以在一個區域使用 SageMaker Inference Recommender,而在不同區域進行基準測試?
我們支援 Amazon SageMaker 支援的所有區域 (AWS 中國區域除外)。
SageMaker Inference Recommender 是否支援 Amazon EC2 Inf1 執行個體?
是,我們支援所有類型的容器。Amazon EC2 Inf1 基於 AWS Inferentia 晶片,需要使用 Neuron 編譯器或 Amazon SageMaker Neo 編譯的模型成品。一旦您擁有 Inferentia 目標的編譯模型和關聯的容器映像 URI,就可以使用 SageMaker Inference Recommender 對不同的 Inferentia 執行個體類型進行基準測試。
什麼是 Amazon SageMaker Model Monitor?
我是否能存取執行 SageMaker 所在的基礎設施?
否。SageMaker 會代您操作該運算基礎設施,允許其執行運作狀態檢查、套用安全性修補程式和執行其他例行維護。您還可以在自己的託管環境中,部署那些利用自訂推論程式碼訓練而成的模型成品。
如何在生產中擴展 SageMaker 模型的規模和效能?
SageMaker 託管功能會利用 Application Auto Scaling 為您的應用程式自動擴展所需的效能。另外,您可以修改端點組態,然後就可以手動變更執行個體數量和類型,不用產生停機時間。
我如何監控 SageMaker 的生產環境?
SageMaker 會將效能指標發送到 Amazon CloudWatch 指標,以便您可以追蹤指標,設定警示並自動對生產流量中的變更作出反應。另外,SageMaker 會將日誌寫入 Amazon CloudWatch Logs,以便您監控生產環境並進行疑難排解。
SageMaker 可以託管哪種模型?
SageMaker 可以託管任何符合推論 Docker 映像檔記載規格的模型。這包括從 SageMaker 模型成品和推論程式碼建立的模型。
SageMaker 支援的並行即時 API 請求數量是多少?
SageMaker 的設計旨在擴展到大規模的每秒交易。確切的數字會因部署的模型以及模型部署所在的執行個體數量和類型而異。
SageMaker 如何支援完全受管的模型託管和管理?
什麼是批次轉換?
批次轉換可讓您針對大型或小型批次資料進行預測。無須將資料集分解為多個區塊或管理即時端點。使用簡易的 API 時,您可以請求針對大量資料記錄進行預測,並快速、輕鬆地轉換資料。
SageMaker 支援哪些部署端點選項?
什麼是彈性自動擴展?
什麼是 Amazon SageMaker Edge Manager?
SageMaker Edge Manager 可讓您更輕鬆地最佳化、保護、監控和維護各種邊緣裝置機群 (如智慧相機、機器人、個人電腦和行動裝置) 上的 ML 模型。SageMaker Edge Manager 可協助 ML 開發人員在各種邊緣裝置上大規模地操作 ML 模型。
如何開始使用 SageMaker Edge Manager?
若要開始使用 SageMaker Edge Manager,您需要在雲端中編譯和封裝已訓練 ML 模型,注册裝置,並使用 SageMaker Edge Manager 軟體開發套件準備裝置。為準備模型進行部署,SageMaker Edge Manager 會使用 SageMaker Neo 根據您的目標邊緣硬體編譯模型。編譯模型後,SageMaker Edge Manager 將使用 AWS 產生的金鑰對模型進行簽章,然後將模型與執行時間和所需的憑證封裝在一起,以便為部署做好準備。在裝置端,向 SageMaker Edge Manager 註冊您的裝置,下載 SageMaker Edge Manager 軟體開發套件,然後按照指示在裝置上安裝 SageMaker Edge Manager 代理。教學筆記本提供逐步範例,說明如何準備模型並使用 SageMaker Edge Manager 連接邊緣裝置上的模型。
SageMaker Edge Manager 支援哪些裝置?
SageMaker Edge Manager 支援具有 Linux 和 Windows 作業系統的通用 CPU (ARM、x86) 和 GPU (ARM、Nvidia) 型裝置。在一段時間內,SageMaker Edge Manager 將擴展以支援更多嵌入式處理器和行動平台,它們也受 SageMaker Neo 支援。
我是否需要使用 SageMaker 來訓練我的模型以便使用 SageMaker Edge Manager?
否,您不需要。您可以在其他地方訓練您的模型,或使用來自開放原始碼或您的模型供應商的預先訓練的模型。
我是否需要使用 SageMaker Neo 來編譯我的模型以便使用 SageMaker Edge Manager?
是,您需要。SageMaker Neo 將模型轉換並編譯為可執行檔,然後封裝並部署至邊緣裝置上。在部署模型套件後,SageMaker Edge Manager 代理程式將解壓縮模型套件並在裝置上執行模型。
如何將模型部署至邊緣裝置?
SageMaker Edge Manager 將模型套件存放在指定的 Amazon S3 儲存貯體中。您可以使用 AWS IoT Greengrass 提供的空中 (OTA) 部署功能,或您選擇的任何其他部署機制來將模型套件從 S3 儲存貯體部署至裝置。
SageMaker Edge Manager 軟體開發套件與 SageMaker Neo 執行期 (dlr) 有何不同?
Neo dlr 是開放原始碼執行期,僅執行 SageMaker Neo 服務編譯的模型。相較於開放原始碼 dlr,SageMaker Edge Manager 軟體開發套件包含企業級裝置代理,具有額外的安全、模型管理和模型服務功能。SageMaker Edge Manager 軟體開發套件適用於大規模生產部署。
SageMaker Edge Manager 與 AWS IoT Greengrass 有何關係?
SageMaker Edge Manager 和 AWS IoT Greengrass 可以在您的 IoT 解決方案中協同工作。在將您的 ML 模型與 SageMaker Edge Manager 一起封裝後,您可以使用 AWS IoT Greengrass 的 OTA 更新功能將模型套件部署到您的裝置上。AWS IoT Greengrass 可讓您遠端監控您的 IoT 裝置,而 SageMaker Edge Manager 可協助您監控和維護裝置上的 ML 模型。
SageMaker Edge Manager 與 AWS Panorama 有何關係? 我應在何時使用 SageMaker Edge Manager 和 AWS Panorama?
AWS 提供在邊緣裝置上執行模型的最大廣度和最大深度功能。我們提供的服務支援各種使用案例,包括電腦視覺、語音辨識和預測性維護。
對於希望在邊緣裝置 (如相機和設備) 上執行電腦視覺的公司,可以使用 AWS Panorama。AWS Panorama 可隨時為邊緣裝置部署電腦視覺應用程式。登入雲端主控台,指定要在 Amazon S3 或 SageMaker 中使用的模型,然後將業務邏輯作為 Python 指令碼編寫,即可輕鬆開始使用 AWS Panorama。AWS Panorama 會為目標裝置編譯模型並建立應用程式套件,因此只需按幾下即可將其部署至您的裝置。此外,想要建置自己的自訂應用程式的獨立軟體供應商可以使用 AWS Panorama 軟體開發套件,並且裝置製造商可以使用裝置軟體開發套件認證其裝置以使用 AWS Panorama。
想要建置自己的模型並對模型功能進行更精細控制的客戶,可以使用 SageMaker Edge Manager。SageMaker Edge Manager 是一項受管服務,用於跨各種邊緣裝置機群 (如智慧相機、智慧喇叭和機器人) 準備、執行、監控和更新 ML 模型,以用於任何使用案例,如自然語言處理、詐騙偵測和預測性維護。SageMaker Edge Manager 適用於希望控制其模型 (包括設計不同的模型功能並監控模型漂移) 的 ML 邊緣開發人員。任何 ML Edge 開發人員都可以透過 SageMaker 主控台和 SageMaker API 使用 SageMaker Edge Manager。SageMaker Edge Manager 提供 SageMaker 的功能,可將雲端中的模型建置、訓練和部署至邊緣裝置。
哪些區域可以使用 SageMaker Edge Manager?
以下 6 個區域可使用 SageMaker Edge Manager:美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (奧勒岡)、歐洲 (愛爾蘭)、歐洲 (法蘭克福) 和亞太區域 (東京)。如需詳細資訊,請參閱 AWS 區域服務清單。
什麼是 Amazon SageMaker Neo?
SageMaker Neo 能讓 ML 模型訓練一次,即可在雲端和邊緣隨處執行。SageMaker Neo 會自動將使用常見 DL 架構建置、可用來在多個硬體平台上部署的模型最佳化。最佳化模型的執行速度最多可提高 25 倍,且耗用的資源少於一般 ML 模型的十分之一。
如何開始使用 SageMaker Neo?
若要開始使用 SageMaker Neo,請登入 SageMaker 主控台,選擇訓練模型,遵循範例來編譯模型,並將產生的模型部署到您的目標硬體平台。
SageMaker Neo 有哪些主要元件?
SageMaker Neo 包含兩個主要元件 – 編譯器和執行期。首先,SageMaker Neo 編譯器可讀取不同架構匯出的模型。然後將架構特定的函數和操作轉換為跨架構的中繼表示法。下一步是執行一序列的最佳化。然後編譯器會為最佳化操作產生二進位程式碼,並將它們寫入共用的物件程式庫。編譯器也會將模型定義和參數儲存至不同的檔案。在執行期間,SageMaker Neo 執行期會載入編譯器產生的成品 – 模型定義、參數和共用的物件程式庫,以便執行模型。
我是否需要使用 SageMaker 來訓練我的模型以便使用 SageMaker Neo 來轉換模型?
不需要。您可以在任何位置訓練模型,並使用 SageMaker Neo 來將它們針對 SageMaker ML 執行個體或 AWS IoT Greengrass 支援的裝置進行最佳化。
SageMaker Neo 支援哪些模型?
SageMaker Neo 目前支援為電腦視覺應用程式提供動力的最常見度學習模型,以及 SageMaker 中現今所使用的最常見決策樹模型。SageMaker Neo 會將在 MXNet 和 TensorFlow 中訓練的 AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet 和 DenseNet 模型,以及在 XGBoost 中訓練的分類和隨機分割森林模型的效能最佳化。
SageMaker Neo 支援哪些硬體平台?
您可以在 SageMaker Neo 文件中找到受支援的雲端執行個體、邊緣裝置和架構版本的清單。
哪些區域可以使用 SageMaker Neo?
若要查看支援區域的清單,請檢視 AWS 區域清單。
Amazon SageMaker Savings Plans
什麼是 Amazon SageMaker Savings Plans?
為何應該使用 SageMaker Savings Plans?
如何開始使用 SageMaker Savings Plans?
適用於 SageMaker 的 Savings Plans 與適用於 Amazon EC2 的 Compute Savings Plans 有何不同?
Savings Plans 如何使用在 AWS Organizations/Consolidated Billing?
Savings Plans 可以在 AWS Organization/合併帳單系列內的任何帳戶中購買。依預設,Savings Plans 中提供的益處適用於 AWS Organization/合併帳單系列的所有帳戶中的用量。然而,您也可以選擇將 Savings Plans 的益處僅限於購買項目的帳戶。