在 AWS 以負責任的方式建置 AI
生成式 AI 的快速增長帶來了充滿前途的創新,但同時也引發新的挑戰。在 AWS,我們致力於以負責任的方式開發 AI,採用以人為本的方法,即優先考慮教育、科學和客戶,在端對端 AI 生命週期中整合負責任 AI。
負責任 AI 的核心維度
公平
考慮對不同利害關係人的影響
可解釋
了解和評估系統輸出
隱私權與安全性
適當的取得、使用和保護資料與模型
安全
防止有害的系統輸出和濫用
可控
設有監控和指導 AI 系統行為的機制
準確與穩健
即使有意外或對話輸入,也可實現正確的系統輸出
管控
將最佳實務納入 AI 供應鏈,包括供應商和部署者
透明
讓利害關係人能夠對其與 AI 系統的參與做出明智的選擇
負責任 AI 的核心維度
公平
考慮對不同利害關係人的影響
可解釋
了解和評估系統輸出
隱私權與安全性
適當的取得、使用和保護資料與模型
安全
防止有害的系統輸出和濫用
可控
設有監控和指導 AI 系統行為的機制
準確與穩健
即使有意外或對話輸入,也可實現正確的系統輸出
管控
將最佳實務納入 AI 供應鏈,包括供應商和部署者
透明
讓利害關係人能夠對其與 AI 系統的參與做出明智的選擇
服務和工具
AWS 提供服務和工具來協助您負責任地設計、建置和營運 AI 系統。
在生成式 AI 中實作保障措施
Amazon Bedrock 防護機制可協助您實作針對生成式 AI 應用程式客製化並遵循您負責任 AI 政策的保護措施。防護機制除了 FM 的原生保護之外,還提供額外的可自訂保護措施,透過以下方式提供業界最好的安全保護:
- 攔截高達 85% 的有害內容
- 針對 RAG 和匯總工作負載過濾超過 75% 的幻覺回應
- 讓客戶在單一解決方案中自訂並應用安全、隱私和真實性保護
基礎模型 (FM) 評估
Amazon Bedrock 上的模型評估可協助您根據自訂指標 (例如準確性、穩健性和毒性) 評估、比較並選取適合特定使用案例的最佳 FM。您還可以使用 Amazon SageMaker Clarify 和 fmeval 進行模型評估。
偵測偏差和解釋預測
偏差是指資料中的不平衡,或模型在不同群體中的效能差異。 Amazon SageMaker Clarify 會透過檢查特定屬性來偵測資料準備期間、模型訓練後,以及您部署模型中的潛在偏差,協助您消除偏差。
了解模型的行為,對於開發更準確的模型,以及做出更妥善的決策非常重要。Amazon SageMaker Clarify 提供對模型行為更深入的可見性,如此您就可以向利害關係人保持開誠佈公的態度、為人類決策提供資訊,並追蹤模型的表現是否符合預期。
監控和人工審查
監控對於維護高品質機器學習 (ML) 模型和確保預測的準確性非常重要。Amazon SageMaker Model Monitor 會自動偵測來自已部署模型的不準確預測,並向您發出提醒。藉助 Amazon SageMaker Ground Truth,您可以在整個 ML 生命週期中利用人工回饋,提高模型的準確性和相關性。
改善治理
Amazon SageMaker 的 ML 治理提供專用工具,可讓您更好地控制 ML 模型並獲得更高的可見性,從而改善 ML 專案的治理。您可以在一處輕鬆擷取和共享模型資訊,並隨時了解模型行為 (例如偏差)。
AWS AI 服務卡
AI 服務卡讓您能夠在同一個位置,找到有關我們的 AI 服務和模型的預期使用案例和限制、負責任 AI 設計選擇,以及效能最佳化最佳實務的資訊,從而提高透明度。