責任ある AI を理論から実践に変える

善をもたらす力として AI の安全で責任ある開発の促進

AWS で責任を持って AI を構築する

生成系 AI の急速な成長は、有望な新しいイノベーションをもたらすと同時に、新たな課題を提起します。AWS では、責任を持って AI を開発し、教育、科学、お客様を優先する人間中心のアプローチを採用し、責任ある AI をエンドツーエンドの AI ライフサイクル全体に統合することに尽力しています。

カラフルな形の画像

責任ある AI のコアディメンション

公平さ

さまざまなステークホルダーのグループへの影響を考慮する

説明可能性

システム出力を理解して評価する

プライバシーとセキュリティ

データとモデルを適切に取得、使用、保護する

安全性

有害なシステム出力と誤用を防ぐ

制御性

AI システムの動作をモニタリングおよび制御するメカニズムを備える

正確性と堅牢性

予期しない入力や敵対的な入力があっても、正しいシステム出力を実現する

ガバナンス

プロバイダーやデプロイヤーを含む AI サプライチェーンにベストプラクティスを組み込む

透明性

ステークホルダーが AI システムとの関わりについて十分な情報に基づいた選択を行えるようにする

責任ある AI のコアディメンション

公平さ

さまざまなステークホルダーのグループへの影響を考慮する

説明可能性

システム出力を理解して評価する

プライバシーとセキュリティ

データとモデルを適切に取得、使用、保護する

安全性

有害なシステム出力と誤用を防ぐ

制御性

AI システムの動作をモニタリングおよび制御するメカニズムを備える

正確性と堅牢性

予期しない入力や敵対的な入力があっても、正しいシステム出力を実現する

ガバナンス

プロバイダーやデプロイヤーを含む AI サプライチェーンにベストプラクティスを組み込む

透明性

ステークホルダーが AI システムとの関わりについて十分な情報に基づいた選択を行えるようにする

サービスとツール

AWS は、AI システムを責任を持って設計、構築、運用するのに役立つサービスとツールを提供しています。

生成 AI における保護手段の実装

Amazon Bedrock のガードレール は、お客様の生成 AI アプリケーションに合わせてカスタマイズされ、責任ある AI ポリシーに沿った保護手段を実装するのに役立ちます。FM のネイティブ保護だけでなく、カスタマイズ可能な追加の保護も提供するガードレールは、以下を実行することで業界最高レベルの安全保護を実現します。

  • 最大 85% の有害コンテンツをブロック
  • RAG および要約ワークロードのハルシネーション応答を 75% 超フィルタリング
  • お客様が単一のソリューション内で安全性、プライバシー、および真実性の保護をカスタマイズして適用できるようにする
流線のシェード

基盤モデル (FM) の評価

Amazon Bedrock のモデル評価は、精度、堅牢性、毒性などのカスタム指標に基づいて、特定のユースケースに最適な FM を評価、比較、選択するのに役立ちます。Amazon SageMaker Clarifyfmeval をモデル評価に使用することもできます。

さまざまな色の形と青い背景

バイアスの検出と予測の説明

バイアスとは、異なるグループ間でのデータの不均衡またはモデルのパフォーマンスの格差です。 Amazon SageMaker Clarify は、特定の属性を調べることにより、データの準備中、モデルトレーニング後、およびデプロイされたモデルで潜在的なバイアスを検出することにより、バイアスを軽減するのに役立ちます。

モデルの動作を理解することは、より正確なモデルを開発し、より適切な意思決定を行う上で重要です。Amazon SageMaker Clarify は、モデルの動作をより詳細に可視化するため、利害関係者に透明性を提供し、意思決定を下すための情報を提供し、モデルが意図したとおりに機能しているかどうかを追跡できます。

Amazon SageMaker Clarify を詳しく見る

青と緑の波のデザイン

モニタリングと人間によるレビュー

モニタリングは、高品質の機械学習 (ML) モデルを維持し、正確な予測を保証するために重要です。Amazon SageMaker Model Monitor は、デプロイされたモデルから不正確な予測を自動的に検出して警告します。また、Amazon SageMaker Ground Truth を使用すると、ML ライフサイクル全体にわたって人間のフィードバックを適用し、モデルの精度と関連性を向上させることができます。

コンベヤーベルト上のさまざまなサイズと形状のオブジェクト

ガバナンスの改善

Amazon SageMaker の機械学習ガバナンスは、ML モデルをより厳密に制御して可視化することで、ML プロジェクトのガバナンスを改善するための専用ツールを提供します。モデル情報を簡単に取得して共有し、バイアスなどのモデルの動作に関する情報をすべて 1 か所で確認できます。

点がつながった抽象的なパターン

AWS AI Service Cards

AI サービスカードは、想定されるユースケースと制限、責任ある AI 設計の選択、および当社の AI サービスとモデルのパフォーマンス最適化のベストプラクティスに関する情報を得るための単一の場所を提供することで透明性を高めるためのリソースです。

利用可能なサービスカードを見る

橋の上を走る車の航空写真

地域貢献とコラボレーション

OECD AI ワーキンググループ、Partnership on AIResponsible AI InstituteNational AI Advisory Committee などのマルチステークホルダー組織との深い関わりや、世界規模での大学との戦略的パートナーシップを活かして、私たちは他者と協力して AI と機械学習テクノロジーを責任を持って開発し、信頼を築くことに取り組んでいます。

私たちは、AI & ML Scholarship プログラムWe Power Tech などのプログラムを通じて、人間中心のアプローチで次世代の AI リーダーを教育しています。これにより、テクノロジー業界では十分なサービスを受けられていなかったり、あまり知られていなかったりする人々が、実践的な学習、奨学金、メンターシップへのアクセスを増やすことができます。

安全で透明性が高く、責任ある生成 AI への投資には、ホワイトハウスの自主的な AI コミットメント英国での AI 安全性サミット、責任ある AI を推進するための新しい基本規格である ISO 42001 のサポートなど、グローバルコミュニティや政策立案者との協力が含まれます。Amazon は、継続的なイノベーションを可能にしつつ、公民権を保護する AI に関する効果的なリスクベースの規制枠組みの開発を支援します。

責任ある AI は、Amazon の研究開発において活発な分野です。私たちは、カリフォルニア工科大学などの学界や、Amazon Scholars と戦略的パートナーシップを結んでいます。その中には、Amazon での責任ある AI ワークストリームの形成を支援するために学術研究を応用する一流の専門家も含まれています。

私たちは、Amazon Research Awards による継続的な研究助成や、Amazon Science の科学出版物を通じて、お客様と共に革新を進め、新しいトレンドや研究の最前線に立って価値を提供します。生成 AI を責任を持って構築するための科学について詳しくは、こちらの Amazon Science のブログで、新たに発生する主な課題と解決策を紹介しています。

責任ある AI のリソース