Développer l'IA de manière responsable chez AWS
La croissance rapide de l'IA générative apporte de nouvelles innovations prometteuses, tout en soulevant de nouveaux défis. Chez AWS, nous nous engageons à développer l’IA de manière responsable, en adoptant une approche centrée sur les personnes qui donne la priorité à l’enseignement, à la science et à nos clients, afin d’intégrer l’IA responsable tout au long du cycle de vie de l’IA de bout en bout.
Dimensions fondamentales de l’IA responsable
Équité
Prise en compte des impacts sur les différents groupes de parties prenantes
Explicabilité
Comprendre et évaluer les résultats du système
Confidentialité et sécurité
Obtenir, utiliser et protéger correctement les données et les modèles
Sûreté
Prévention des sorties du système nuisibles et des utilisations abusives
Contrôlabilité
Disposer de mécanismes pour surveiller et orienter le comportement des systèmes d’IA
Véracité et robustesse
Obtenir des sorties système correctes, même en cas d’entrées inattendues ou contradictoires
Gouvernance
Intégrer les meilleures pratiques dans la chaîne d’approvisionnement de l’IA, y compris les fournisseurs et les déployeurs
Transparence
Permettre aux parties prenantes de faire des choix éclairés concernant leur engagement dans un système d’IA
Dimensions fondamentales de l’IA responsable
Équité
Prise en compte des impacts sur les différents groupes de parties prenantes
Explicabilité
Comprendre et évaluer les résultats du système
Confidentialité et sécurité
Obtenir, utiliser et protéger correctement les données et les modèles
Sûreté
Prévention des sorties du système nuisibles et des utilisations abusives
Contrôlabilité
Disposer de mécanismes pour surveiller et orienter le comportement des systèmes d’IA
Véracité et robustesse
Obtenir des sorties système correctes, même en cas d’entrées inattendues ou contradictoires
Gouvernance
Intégrer les meilleures pratiques dans la chaîne d’approvisionnement de l’IA, y compris les fournisseurs et les déployeurs
Transparence
Permettre aux parties prenantes de faire des choix éclairés concernant leur engagement dans un système d’IA
Services et outils
AWS propose des services et des outils pour vous aider à concevoir, créer et utiliser des systèmes d’IA de manière responsable.
Mise en œuvre de garde-fous en matière d’IA générative
Les garde-fous Amazon Bedrock vous aident à mettre en œuvre des barrières de protection adaptées à vos applications d’IA générative et conformes à vos politiques d’IA responsable. Les garde-fous fournissent des protections personnalisables supplémentaires en plus des protections natives des FM, offrant des protections de sécurité parmi les meilleures du secteur en :
- bloquant jusqu’à 85 % de contenus dangereux en plus ;
- filtrant plus de 75 % de réponses hallucinées pour les charges de travail de RAG et de synthèse ;
- permettant aux clients de personnaliser et d’appliquer des protections en matière de sécurité, de confidentialité et de véracité au sein d’une solution unique.
Évaluations du modèle de fondation (FM)
L’évaluation des modèles sur Amazon Bedrock vous permet d’évaluer, de comparer et de sélectionner les meilleurs FM pour votre cas d’utilisation spécifique en fonction de paramètres personnalisés, tels que la précision, la robustesse et la toxicité. Vous pouvez également utiliser Amazon SageMaker Clarify et fmeval pour l’évaluation des modèles.
Détection des biais et explication des prédictions
Les biais sont des déséquilibres dans les données ou des disparités dans les performances d'un modèle entre différents groupes. Amazon SageMaker Clarify vous aide à limiter les biais en détectant les biais potentiels pendant la préparation des données, après l’entraînement du modèle, et dans votre modèle déployé en examinant des attributs spécifiques.
Il est important de comprendre le comportement d’un modèle pour développer des modèles plus précis et prendre de meilleures décisions. Amazon SageMaker Clarify offre une meilleure visibilité du comportement du modèle, afin que vous puissiez offrir de la transparence aux parties prenantes, informer les personnes qui prennent les décisions et vous assurer qu’un modèle fonctionne comme prévu.
Surveillance et examen humain
La surveillance est importante pour maintenir des modèles de machine learning (ML) de haute qualité et garantir des prévisions précises. Amazon SageMaker Model Monitor détecte automatiquement les prédictions inexactes des modèles déployés et vous en avertit. Et avec Amazon SageMaker Ground Truth, vous pouvez appliquer le feedback humain tout au long du cycle de vie du ML afin d’améliorer la précision et la pertinence des modèles.
Améliorer la gouvernance
La gouvernance ML d’Amazon SageMaker fournit des outils spécialement conçus pour améliorer la gouvernance de vos projets de ML en vous offrant davantage de contrôle et de visibilité sur vos modèles de ML. Vous pouvez facilement capturer et partager les informations du modèle, et suivre le comportement du modèle (comme les biais) au même endroit.
Cartes de services d'IA AWS
Les cartes de service d’IA sont une ressource visant à améliorer la transparence en vous fournissant un endroit unique pour trouver des informations sur les cas d’utilisation et les limites prévus, les choix de conception responsables en matière d’IA et les meilleures pratiques d’optimisation des performances pour nos services et modèles d’IA.