- Machine Learning›
- Amazon SageMaker›
- Questions fréquentes (FAQ) sur Amazon SageMaker
Questions fréquentes (FAQ) sur Amazon SageMaker
Questions d'ordre général
Qu'est-ce qu'Amazon SageMaker ?
Dans quelles Régions AWS le service SageMaker est-il disponible ?
Pour obtenir la liste des régions dans lesquelles le service SageMaker est pris en charge, consultez la page des Services Régionaux AWS. Pour en savoir plus, consultez régions et points de terminaison du guide de références générales AWS.
Quelle est la disponibilité du service Amazon SageMaker ?
Comment le service SageMaker sécurise-t-il mon code ?
SageMaker stocke votre code dans des volumes de stockage de machine learning qui sont sécurisés par des groupes de sécurité et éventuellement chiffrés au repos.
Quelles mesures de sécurité sont intégrées au service SageMaker ?
SageMaker garantit que les artefacts de modèles d'apprentissage automatique et d'autres artefacts du système sont chiffrés en transit et au repos. Les requêtes sont envoyées à l'API et à la console SageMaker par le biais d'une connexion sécurisée (SSL). Vous transmettez des rôles de gestion des identités et des accès AWS à SageMaker afin d'accorder des autorisations d'accès aux ressources en votre nom à des fins d'entraînement et de déploiement. Vous pouvez utiliser des compartiments Amazon Simple Storage Service (Amazon S3) chiffrés pour les artefacts et les données de modèles, ainsi que pour transmettre une clé AWS Key Management Service (KMS) à des blocs-notes, des tâches d'entraînement et des points de terminaison SageMaker, afin de chiffrer le volume de stockage de ML attaché. SageMaker prend également en charge Amazon Virtual Private Cloud (VPC) et AWS PrivateLink.
SageMaker utilise-t-il ou partage-t-il des modèles, des données d'entraînement ou des algorithmes ?
SageMaker n'utilise pas et ne partage pas des modèles, des données d'entraînement ou des algorithmes. Nous sommes conscients du fait que, pour nos clients, la confidentialité et la sécurité des données sont primordiales. C'est pourquoi avec AWS, vous restez propriétaire de votre contenu et vous en gardez le contrôle grâce à des outils simples et puissants qui permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, ainsi que de gérer l'accès aux services et ressources AWS pour vos utilisateurs. Nous mettons également en œuvre un système élaboré responsable des contrôles techniques et physiques, visant à éviter tout accès ou toute divulgation non autorisés du contenu des clients. En tant que client, vous restez propriétaire de votre contenu et vous sélectionnez quels services AWS peuvent traiter, stocker et héberger votre contenu. Nous ne consultons pas votre contenu à quelque fin que ce soit sans votre consentement.
De quelle manière l'utilisation de SageMaker m'est-elle facturée ?
Vous payez les ressources de calcul, de stockage et de traitement des données d'apprentissage automatique que vous utilisez pour héberger le bloc-notes, entraîner le modèle, réaliser des prédictions et journaliser les sorties. Amazon SageMaker vous permet de sélectionner le nombre et le type d'instances utilisées pour le bloc-notes hébergé, l'entraînement et l'hébergement de modèles. Vous payez uniquement pour ce que vous utilisez et en fonction de votre consommation ; il n'y a pas de frais minimums et aucun engagement initial n'est requis. Pour en savoir plus, consultez Tarification Amazon SageMaker et Calculateur de tarification Amazon SageMaker.
Comment optimiser mes coûts Amazon SageMaker, par exemple en détectant et en arrêtant les ressources inactives afin d'éviter des frais inutiles ?
Différentes bonnes pratiques vous permettent d'optimiser l'utilisation de vos ressources Amazon SageMaker. Certaines approches impliquent des optimisations de configurations, d'autres des solutions programmatiques. Vous trouverez un guide complet sur ce concept, avec didacticiels visuels et exemples de code, dans cet article de blog.
Et si je possède mon propre bloc-notes, mon propre entraînement ou mon propre environnement d'hébergement ?
Amazon SageMaker fournit un flux de travail complet de bout en bout, mais vous pouvez à utiliser vos outils existants avec le service. Vous pouvez facilement transférer les résultats de chaque étape vers et depuis SageMaker en fonction de vos besoins métier.
R est-il pris en charge par Amazon SageMaker ?
Oui. Vous pouvez utiliser R dans les instances de blocs-notes SageMaker, qui incluent un noyau R pré-installé et la bibliothèque réticulaire. Le réticulaire offre une interface R pour le kit Amazon SageMaker Python SDK, ce qui permet aux praticiens du ML de créer, d'entraîner, de régler et de déployer des modèles R. Vous pouvez également lancer RStudio, un environnement de développement intégré (IDE) pour R dans Amazon SageMaker Studio.
Qu'est-ce qu'Amazon SageMaker Studio ?
Amazon SageMaker Studio fournit une interface visuelle unique, basée sur le Web, qui vous permet de mettre en œuvre toutes les étapes du développement ML. Grâce à SageMaker Studio, vous avez un accès, un contrôle et une visibilité complets sur chaque étape nécessaire à la préparation des données et à la construction, l'entraînement et le déploiement des modèles. Vous pouvez télécharger des données, créer des blocs-notes, entraîner et affiner des modèles, faire des aller-retours entre les étapes pour ajuster les expériences, comparer les résultats et déployer des modèles en production ; le tout rapidement et au même endroit, ce qui accroît votre productivité. Toutes les activités de développement ML peuvent être réalisées à l'intérieur de l'interface visuelle unifiée de SageMaker Studio, notamment les blocs-notes, la gestion d'expériences, la création automatique de modèles, le débogage et le profilage, et la détection de dérive des modèles.
Comment la tarification d'Amazon SageMaker Studio fonctionne-t-elle ?
L'utilisation de SageMaker Studio ne donne lieu à aucun frais supplémentaire. Vous ne payez que les frais sous-jacents de calcul et de stockage pour les services que vous utilisez dans Amazon SageMaker Studio.
Dans quelles régions le service Amazon SageMaker Studio est-il pris en charge ?
Les régions dans lesquelles Amazon SageMaker Studio est pris en charge figurent dans la documentation disponible ici.
Comment puis-je rechercher des déséquilibres dans mon modèle ?
Amazon SageMaker Clarify contribue à l'amélioration de la transparence du modèle en détectant les biais statistiques dans l'ensemble du flux de ML. SageMaker Clarify recherche les déséquilibres pendant la préparation des données, après l'entraînement et de manière continue, et comprend des outils destinés à faciliter l'explication des modèles ML et leurs prédictions. Les résultats peuvent être partagés via des rapports d'explicabilité.
Quel type de biais Amazon SageMaker Clarify détecte-t-il ?
Comment Amazon SageMaker Clarify peut-il améliorer l'explicabilité du modèle ?
Amazon SageMaker Clarify est intégré à SageMaker Experiments pour présenter un graphique de l'importance des caractéristiques détaillant l'importance de chaque entrée dans le processus global de prise de décision de votre modèle après son entraînement. Ces informations peuvent aider à déterminer si une entrée spécifique du modèle a plus d'influence qu'elle ne le devrait sur le comportement global du modèle. SageMaker Clarify fournit également des explications concernant chaque prédiction disponible via une API.
Gouvernance ML
Quels sont les outils de gouvernance du ML fournis par SageMaker ?
Amazon SageMaker fournit des outils de gouvernance spécialement conçus pour le cycle de vie ML. Avec le gestionnaire de rôles Amazon Sagemaker, les administrateurs peuvent définir les autorisations minimales en quelques minutes. Les cartes de modèles Amazon Sagemaker facilitent la capture, la récupération et le partage des informations essentielles du modèle, de la conception au déploiement, et le tableau de bord des modèles SageMaker vous tient informé du comportement du modèle de production, le tout en un seul endroit. Pour
plus d'informations, consultez la section de la Gouvernance du ML avec Amazon SageMaker.
Que fait le gestionnaire de rôles SageMaker ?
Définir les autorisations minimales en quelques minutes avec SageMaker Role Manager. SageMaker Role Manager fournit un ensemble d'autorisations de base pour les activités et les personas de ML avec un catalogue de politiques IAM préétablies. En fonction de vos besoins spécifiques, vous pouvez conserver les autorisations de base ou les personnaliser davantage. Grâce à quelques invites auto-guidées, vous pouvez saisir rapidement des éléments de gouvernance courants tels que les limites d'accès au réseau et les clés de cryptage. SageMaker Role Manager génère alors automatiquement la politique IAM. Vous pouvez découvrir le rôle généré et les politiques associées via la console AWS IAM. Pour adapter davantage les autorisations à votre cas d'utilisation, attachez vos politiques IAM gérées au rôle IAM que vous créez avec SageMaker Role Manager. Vous pouvez également ajouter des balises pour faciliter l'identification du rôle et l'organisation entre les services AWS.
Que font les cartes de modèles SageMaker ?
Amazon SageMaker Model Cards vous aide à centraliser et à normaliser la documentation du modèle tout au long du cycle du ML en créant une source unique de vérité pour les informations du modèle. SageMaker Model Cards remplit automatiquement les détails de la formation pour accélérer le processus de documentation. Vous pouvez également ajouter des détails tels que l'objectif du modèle et les objectifs de performance. Vous pouvez joindre les résultats de l'évaluation du modèle à votre fiche de modèle et fournir des visualisations pour obtenir des informations clés sur les performances du modèle. Les cartes modèles SageMaker peuvent facilement être partagées avec d'autres personnes en les exportant au format PDF.
Que fait le SageMaker Model Dashboard ?
Amazon SageMaker Model Dashboard vous donne un aperçu complet des modèles et des points de terminaison déployés, vous permettant de suivre les ressources et les violations du comportement du modèle dans un seul volet. Il vous permet de surveiller le comportement du modèle dans quatre dimensions, notamment la qualité des données et du modèle, ainsi que la dérive des biais et de l'attribution des fonctionnalités grâce à son intégration avec Amazon SageMaker Model Monitor et Amazon SageMaker Clarify. SageMaker Model Dashboard offre également une expérience intégrée permettant de configurer et de recevoir des alertes pour les tâches de surveillance de modèle manquantes et inactives, et les déviations du comportement du modèle pour la qualité du modèle, la qualité des données, la dérive du biais et la dérive de l'attribution des caractéristiques. Vous pouvez inspecter plus en détail les modèles individuels et analyser les facteurs qui influent sur les performances des modèles au fil du temps. Ensuite, vous pouvez prendre des mesures correctives en assurant le suivi avec les praticiens du ML.
Modèles de fondation
Comment démarrer rapidement avec SageMaker ?
SageMaker JumpStart vous aide à vous familiariser avec le machine learning de manière facile et rapide. SageMaker JumpStart fournit un ensemble de solutions pour les cas d'utilisation les plus courants qui peuvent être déployés en quelques clics. Les solutions sont entièrement personnalisables et présentent l'utilisation des modèles AWS CloudFormation ainsi que les architectures de référence de sorte que vous puissiez accélérer votre adoption du ML. SageMaker JumpStart fournit également des modèles de base et permet le déploiement en un clic et le réglage précis de plus de 150 modèles open source populaires tels que les modèles de transformation, de détection d'objets et de classification d'images.
Quels modèles de base sont disponibles dans SageMaker JumpStart ?
SageMaker JumpStart fournit des modèles brevetés et publics. Pour obtenir la liste des modèles de base disponibles, consultez la section Démarrer avec Amazon SageMaker JumpStart.
Comment puis-je commencer à utiliser les modèles de fondation dans SageMaker JumpStart ?
Vous pouvez accéder aux modèles de base via SageMaker Studio, le SDK SageMaker et la console de gestion AWS. Pour commencer à utiliser des modèles de base brevetés, vous devez accepter les conditions de vente sur AWS Marketplace.
Mes données (issues de l'inférence ou de la formation) seront-elles utilisées ou partagées pour mettre à jour le modèle de base proposé aux clients utilisant Amazon SageMaker JumpStart ?
Non. Vos données d'inférence et d'entraînement ne seront ni utilisées ni partagées pour mettre à jour ou entraîner le modèle de base que SageMaker JumpStart propose aux clients.
Puis-je consulter les poids des modèles et les scripts des modèles propriétaires en version préliminaire avec Amazon SageMaker JumpStart ?
Non. Les modèles propriétaires ne permettent pas aux clients de consulter les poids des modèles et les scripts.
Dans quelles régions les modèles de base SageMaker JumpStart sont-ils disponibles ?
Les modèles sont mis à disposition dans toutes les régions où SageMaker Studio est disponible, mais la possibilité de déployer un modèle varie selon le type d'instance requis et de la disponibilité du modèle. Vous pouvez consulter la disponibilité de la Région AWS et l'instance requise sur la page détaillée du modèle sur AWS Marketplace.
Quel est le prix des modèles SageMaker JumpStart de base ?
Pour les modèles brevetés, vous êtes facturé selon la tarification logicielle déterminée par le fournisseur du modèle et les frais d'infrastructure SageMaker en fonction de l'instance utilisée. Pour les modèles accessibles au public, les frais d'infrastructure SageMaker vous sont facturés en fonction de l'instance utilisée. Pour en savoir plus, consultez la page Tarification d'Amazon SageMaker et AWS Marketplace.
Comment Amazon SageMaker JumpStart permet-il de protéger et de sécuriser mes données ?
La sécurité est la priorité absolue d'AWS, et SageMaker JumpStart est conçu pour être sécurisé. C'est pourquoi SageMaker vous donne la propriété et le contrôle de votre contenu grâce à des outils simples et puissants qui vous permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, et de gérer l'accès aux services et ressources AWS pour vos utilisateurs.
- Nous ne partageons pas les informations relatives à la formation et aux inférences des clients avec les vendeurs de modèles sur AWS Marketplace. De même, les modèles d'artefacts du vendeur (par exemple, le poids du modèle) ne sont pas partagés avec l'acheteur.
- SageMaker JumpStart n'utilise pas de modèles clients, de données de formation ou d'algorithmes pour améliorer son service et ne partage pas les données de formation et d'inférence des clients avec des tiers.
- Dans SageMaker JumpStart, les artefacts du modèle ML sont chiffrés en transit et au repos.
- Dans le cadre du modèle de responsabilité partagée d'AWS, AWS est responsable de la protection de l'infrastructure mondiale qui gère l'ensemble d'AWS. Vous êtes responsable du contrôle du contenu qui est hébergé sur cette infrastructure.
En utilisant un modèle issu d'AWS Marketplace ou de SageMaker JumpStart, les utilisateurs assument la responsabilité de la qualité de sortie du modèle et reconnaissent les fonctionnalités et les limites décrites dans la description de chaque modèle.
Quels modèles accessibles au public sont pris en charge par SageMaker JumpStart ?
SageMaker JumpStart comprend plus de 150 modèles open source pré-entraînés de PyTorch Hub et TensorFlow Hub. Pour les tâches de vision par ordinateur, telles que la classification d'images et la détection d'objets, vous pouvez utiliser des modèles CNN comme ResNet, MobileNet et Single-Shot Detector (SSD). Pour les tâches de texte, comme la classification de phrases et de textes, et la réponse aux questions, vous pouvez utiliser des modèles comme BERT, RoBERTa et DistilBERT.
Comment puis-je partager les artefacts ML avec d'autres personnes au sein de mon organisation ?
Avec SageMaker JumpStart, les analyseur des données et les développeurs ML peuvent facilement partager les artefacts ML, notamment les blocs-notes et les modèles, au sein de leur organisation. Les administrateurs peuvent mettre en place un référentiel accessible par un ensemble défini d'utilisateurs. Tous les utilisateurs autorisés à accéder au référentiel peuvent parcourir, rechercher et utiliser les modèles et les blocs-notes ainsi que le contenu public à l'intérieur de SageMaker JumpStart. Les utilisateurs peuvent sélectionner des artefacts pour former des modèles, déployer des points de terminaison et exécuter des blocs-notes dans SageMaker JumpStart.
Pourquoi devrais-je utiliser SageMaker JumpStart pour partager des artefacts ML avec d'autres personnes de mon entreprise ?
Avec SageMaker JumpStart, vous pouvez accélérer la mise sur le marché lors de la création d'applications ML. Vous pouvez facilement partager, en quelques clics, les modèles et les blocs-notes créés par une équipe au sein de votre organisation avec d'autres équipes de votre organisation. Le partage des connaissances en interne et la réutilisation des actifs peuvent augmenter considérablement la productivité de votre organisation.
Comment puis-je évaluer et sélectionner les modèles de fondation ?
Les administrateurs peuvent-ils contrôler ce qui est disponible pour leurs utilisateurs ?
Oui. Les administrateurs peuvent contrôler quels modèles Amazon SageMaker JumpStart sont visibles et utilisables par leurs utilisateurs sur plusieurs comptes AWS et principaux utilisateurs. Pour en savoir plus, consultez la documentation.
Qu’est-ce que la boîte à outils d’optimisation d’inférence ?
La boîte à outils d’optimisation d’inférence vous permet de mettre en œuvre facilement les dernières techniques d’optimisation d’inférence afin d’atteindre des performances de pointe en matière de coûts (SOTA) sur Amazon SageMaker, tout en faisant gagner des mois de travail aux développeurs. Vous pouvez choisir parmi un menu de techniques d’optimisation courantes proposées par SageMaker et exécuter des tâches d’optimisation à l’avance, comparer le modèle en termes de performances et de précision, puis déployer le modèle optimisé sur un point de terminaison SageMaker à des fins d’inférence. La boîte à outils gère tous les aspects de l’optimisation du modèle, afin que vous puissiez vous concentrer davantage sur vos objectifs commerciaux.
Pourquoi utiliser la boîte à outils d’optimisation d’inférence ?
La boîte à outils d’optimisation d’inférence vous aide à améliorer les coûts, les performances et les délais de commercialisation des applications d’IA générative. La boîte à outils d’optimisation des modèles entièrement gérée vous donne accès aux dernières techniques d’optimisation grâce à des outils faciles à utiliser. Il est également facile de passer à la meilleure solution disponible sur la durée, car la boîte à outils s’adapte en permanence aux innovations de pointe, aux nouveaux matériels et aux fonctionnalités d’hébergement.
La boîte à outils d’optimisation d’inférence prend en charge les techniques d’optimisation telles que le décodage spéculatif, la quantification et la compilation. Vous pouvez choisir les optimisations que vous souhaitez ajouter à votre modèle en quelques clics et Amazon SageMaker gérera toutes les tâches indifférenciées liées à l’achat du matériel, en sélectionnant le conteneur deep-learning et les paramètres de réglage correspondants pour exécuter les tâches d’optimisation, puis en enregistrant les artefacts du modèle optimisé dans l’emplacement S3 que vous avez fourni.
Pour le décodage spéculatif, vous pouvez commencer avec le modèle de brouillon fourni par SageMaker, afin de ne pas avoir à créer vos propres modèles de brouillon à partir de zéro ni à demander des optimisations de routage et au niveau du système. Avec la quantification, il vous suffit de choisir le type de précision que vous souhaitez utiliser et de lancer un travail d’analyse comparative pour mesurer les compromis entre performances et précision. Amazon SageMaker générera un rapport d’évaluation complet afin que vous puissiez facilement analyser le compromis entre performances et précision. Avec Compilation, pour les modèles les plus populaires et leurs configurations, Amazon SageMaker récupère automatiquement les artefacts des modèles compilés lors de la configuration et de la mise à l’échelle des points de terminaison, ce qui vous évite d’avoir à exécuter des tâches de compilation à l’avance, permettant ainsi de réduire les coûts matériels.
La boîte à outils d’optimisation d’inférence Amazon SageMaker vous aide à réduire les coûts et le temps consacrés à l’optimisation des modèles GenAI, vous permettant ainsi de vous concentrer sur vos objectifs commerciaux.
ML à faible code
Qu'est-ce qu'Amazon SageMaker Canvas ?
SageMaker Canvas est un service sans code pourvu d'une interface visuelle intuitive de type pointer-cliquer qui vous permet de créer des prédictions très précises basées sur le ML à partir de vos données. SageMaker Canvas vous permet d'accéder à des données provenant de diverses sources et de les combiner à l'aide d'une interface utilisateur de type glisser-déposer, en nettoyant et en préparant automatiquement les données afin de minimiser le nettoyage manuel. SageMaker Canvas applique une variété d'algorithmes ML de pointe pour trouver des modèles prédictifs très précis et fournit une interface intuitive pour faire des prédictions. Vous pouvez utiliser SageMaker Canvas pour faire des prédictions encore plus précises dans un éventail d'applications métier, et collaborer aisément avec des scientifiques des données et des analystes au sein de votre entreprise en partageant vos modèles, données et rapports. Pour en savoir plus sur SageMaker Canvas, consultez la FAQ d'Amazon SageMaker Canvas.
Comment la tarification de SageMaker Canvas fonctionne-t-elle ?
Avec SageMaker Canvas, vous payez en fonction de l'utilisation. Grâce à SageMaker Canvas vous pouvez ingérer, explorer et préparer de manière interactive vos données provenant de plusieurs sources, d'entraîner des modèles ML très précis avec vos données et de générer des prédictions. Deux éléments déterminent votre facture : les frais de session, basés sur le nombre d'heures d'utilisation ou de connexion à SageMaker Canvas, et les frais d'entraînement du modèle, basés sur la taille de jeu de données utilisé pour construire le modèle. Pour en savoir plus, consultez la page Tarification Amazon SageMaker Canvas.
Flux de travail ML
Comment créer un flux de travail ML reproductible dans SageMaker ?
Amazon SageMaker Pipelines vous aide à créer des flux de ML entièrement automatisés, de la préparation des données au déploiement du modèle, de sorte que vous puissiez mettre à l'échelle jusqu'à des milliers de modèles ML en production. Vous pouvez créer des pipelines avec le SDK Python de SageMaker et les visualiser, les exécuter et les auditer à partir de l'interface visuelle de SageMaker Studio. Amazon SageMaker Pipelines se charge de la gestion des données entre les étapes, de la création de packages des recettes de code et de l'orchestration de leur exécution, ramenant ainsi des mois de codage à quelques heures. À chaque exécution d'un flux, un registre complet des données traitées et des actions exécutées est conservé afin que les scientifiques des données et les développeurs ML puissent rapidement déboguer les problèmes.
Comment puis-je visualiser tous mes modèles entraînés pour choisir le meilleur à mettre en production ?
Quels composants d'Amazon SageMaker peuvent être ajoutés à SageMaker Pipelines ?
Comment puis-je suivre les composants de mon modèle dans l'ensemble du flux de ML ?
Comment fonctionne la tarification de SageMaker Pipelines ?
SageMaker Pipelines est disponible sans frais supplémentaires. Vous ne payez que les frais sous-jacents de calcul ou les frais d'éventuels services AWS que vous utilisez dans SageMaker Pipelines.
Puis-je utiliser Kubeflow avec SageMaker ?
Comment fonctionne la tarification de SageMaker Components pour Kubeflow Pipelines ?
SageMaker Components pour Kubeflow Pipelines est disponible sans frais supplémentaires.
Intervention humaine
Qu'est-ce que l'humain dans la boucle et pourquoi est-ce important pour créer des applications basées sur l'IA ?
L'humain dans la boucle est le processus qui consiste à exploiter les données humaines tout au long du cycle de vie du ML afin d'améliorer la précision et la pertinence des modèles. Les humains peuvent effectuer diverses tâches, allant de la génération et de l'annotation de données à la révision et à la personnalisation des modèles. L'intervention humaine est particulièrement importante pour les applications d'IA générative, où les humains sont généralement à la fois le demandeur et le consommateur du contenu. Il est donc essentiel que les humains entraînent les modèles de fondation (FM) à répondre de manière précise, sûre et pertinente aux demandes des utilisateurs. Les commentaires humains peuvent être appliqués pour vous aider à accomplir plusieurs tâches. Tout d'abord, en créant des jeux de données d'entraînement labellisés de haute qualité pour des applications d'IA générative via un apprentissage supervisé (où un humain simule le style, la longueur et la précision de la manière dont un modèle doit répondre aux instructions de l'utilisateur) et un apprentissage de renforcement avec des commentaires humains (où un humain classe et classifie les réponses du modèle). Ensuite, en utilisant des données générées par l'homme pour personnaliser les FM en fonction de tâches spécifiques ou avec des données spécifiques à votre entreprise et à votre domaine et pour rendre les résultats du modèle pertinents pour vous.
Comment utiliser les fonctionnalités de l'humain dans la boucle pour les applications d'IA générative à technologie de FM ?
Les fonctionnalités de l'humain dans la boucle jouent un rôle important dans la création et l'amélioration des applications d'IA générative à technologie de FM. Une main-d'œuvre humaine hautement qualifiée formée selon les directives relatives aux tâches peut fournir des commentaires, des conseils, des contributions et des évaluations dans le cadre d'activités telles que la génération de données de démonstration pour entraîner les FM, la correction et l'amélioration des exemples de réponse, l'affinement d'un modèle basé sur les données de l'entreprise et de l'industrie, la protection contre la toxicité et les biais, etc. Les fonctionnalités de l'humain dans la boucle peuvent donc améliorer la précision et les performances des modèles.
Quelle est la différence entre les offres en libre-service d'Amazon SageMaker Ground Truth et les offres gérées par AWS ?
Amazon SageMaker Ground Truth propose l'ensemble le plus complet de fonctionnalités de l'humain dans la boucle. Il existe deux manières d'utiliser Amazon SageMaker Ground Truth : une offre en libre-service et une offre gérée par AWS. Dans le cadre de l'offre en libre-service, vos annotateurs de données, vos créateurs de contenu et vos ingénieurs de requête (en interne, gérés par le fournisseur ou tirant parti du public) peuvent utiliser notre interface utilisateur à faible code pour accélérer les tâches de l'humain dans la boucle, tout en ayant la flexibilité nécessaire pour créer et gérer vos propres flux de travail personnalisés. Dans le cadre de l'offre gérée par AWS (SageMaker Ground Truth Plus), nous nous chargeons du gros du travail à votre place, notamment en sélectionnant et en gérant la main-d'œuvre adaptée à votre cas d'utilisation. SageMaker Ground Truth Plus conçoit et personnalise un flux de travail de bout en bout (y compris la formation détaillée du personnel et les étapes d'assurance qualité) et fournit une équipe qualifiée dirigée par AWS qui est formée aux tâches spécifiques et répond à vos exigences en matière de qualité, de sécurité et de conformité des données.
Préparation des données
Comment le service SageMaker prépare-t-il les données pour le ML ?
SageMaker Data Wrangler réduit le temps nécessaire pour regrouper et préparer des données pour le ML. À partir d'une interface unique dans SageMaker Studio, vous pouvez parcourir et importer des données depuis Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake et Databricks en quelques clics seulement. Vous pouvez également interroger et importer des données qui sont transférées à partir de plus de 50 sources de données et enregistrées dans le catalogue de données AWS Glue par Amazon AppFlow. SageMaker Data Wrangler chargera, agrégera et affichera automatiquement les données brutes. Après avoir importé vos données dans SageMaker Data Wrangler, vous pouvez voir des résumés de colonnes et des histogrammes générés automatiquement. Vous pouvez ensuite creuser davantage pour comprendre vos données et identifier les erreurs potentielles grâce au rapport SageMaker Data Wrangler Data Quality and Insights, qui fournit des statistiques récapitulatives et des avertissements sur la qualité des données. Vous pouvez également exécuter une analyse de biais prise en charge par SageMaker Clarify directement à partir de SageMaker Data Wrangler pour détecter les biais potentiels lors de la préparation des données. À partir de là, vous pouvez utiliser les transformations préétablies de SageMaker Data Wrangler pour préparer vos données. Une fois vos données préparées, vous pouvez créer des flux de ML entièrement automatisés avec Amazon SageMaker Pipelines, ou importer ces données dans Amazon SageMaker Feature Store.
Quels types de données sont pris en charge par SageMaker Data Wrangler ?
Comment puis-je créer des fonctionnalités de modèles avec Amazon SageMaker Data Wrangler ?
Comment puis-je visualiser mes données dans Amazon SageMaker Data Wrangler ?
Comment fonctionne la tarification d'Amazon SageMaker Data Wrangler ?
Les ressources de traitement de données, de stockage et de calcul ML que vous utilisez pour Amazon SageMaker Data Wrangler vous sont facturées. Des informations détaillées sur la tarification de SageMaker Data Wrangler sont disponibles ici. Dans le cadre de l'offre gratuite d'AWS, vous pouvez également commencer à utiliser SageMaker Data Wrangler gratuitement.
Comment puis-je entraîner des modèles de ML à partir de données préparées sur SageMaker Data Wrangler ?
Comment Amazon SageMaker Data Wrangler traite-t-il les nouvelles données lorsque j'ai préparé mes fonctionnalités sur des données historiques ?
Comment Amazon SageMaker Data Wrangler fonctionne-t-il avec mes processus CI/CD ?
Quel modèle utilise SageMaker Data Wrangler Quick Model ?
Quelle est la taille des données prises en charge par Amazon SageMaker Data Wrangler ?
Amazon SageMaker Data Wrangler fonctionne-t-il avec le magasin de fonctionnalités Amazon SageMaker ?
Qu'est-ce que SageMaker Feature Store ?
SageMaker Feature Store est une plateforme entièrement gérée et spécialement conçue pour stocker, partager et gérer les fonctionnalités des modèles de machine learning (ML). Les fonctionnalités peuvent être découvertes et partagées pour être facilement réutilisées entre les modèles et les équipes avec un accès et un contrôle sécurisés, y compris entre les comptes AWS. SageMaker Feature Store prend en charge les fonctionnalités en ligne et hors ligne pour l'inférence en temps réel, l'inférence par lots et l'entraînement. Il gère également les pipelines d'ingénierie des fonctionnalités par lots et en streaming afin de réduire la duplication lors de la création de fonctionnalités et d'améliorer la précision des modèles.
Que sont les fonctionnalités hors ligne ?
Que sont les fonctionnalités en ligne ?
Comment puis-je maintenir la cohérence entre les fonctionnalités en ligne et hors ligne ?
Comment puis-je reproduire une fonctionnalité à partir d'un moment donné dans le temps ?
Comment fonctionne la tarification du magasin de fonctionnalités Amazon SageMaker ?
Vous pouvez commencer à utiliser gratuitement le magasin de fonctionnalités Amazon SageMaker dans le cadre de l'offre gratuite d'AWS. Avec SageMaker Feature Store, vous payez pour l'écriture dans le stockage de fonctions, et la lecture et le stockage dans le stockage de fonctions en ligne. Pour consulter les informations de tarification, reportez-vous à la page Tarification Amazon SageMaker.
Qu'offre Amazon SageMaker pour l'étiquetage des données ?
Amazon SageMaker propose deux offres en matière d'étiquetage des données : Amazon SageMaker Ground Truth Plus et Amazon SageMaker Ground Truth. Les deux options vous permettent d'identifier des données brutes, telles que des images, des fichiers texte et des vidéos, et d'ajouter des étiquettes informatives pour créer des jeux de données d'entraînement de haute qualité pour vos modèles ML. Pour en savoir plus, consultez la page Étiquetage des données Amazon SageMaker.
Que sont les données géospatiales ?
Quelles sont les fonctionnalités géospatiales de SageMaker ?
Pourquoi devrais-je utiliser les fonctionnalités du ML géospatial de Amazon SageMaker ?
Créer des modèles
Qu'est-ce que les blocs-notes Amazon SageMaker Studio ?
Comment fonctionnent les blocs-notes Amazon SageMaker Studio ?
Les blocs-notes Amazon SageMaker Studio sont des blocs-notes Jupyter en un clic qui peuvent être démarrés rapidement. Les ressources de calcul sous-jacentes sont entièrement élastiques, de sorte que puissiez facilement composer les ressources disponibles ou les diminuer. Par ailleurs, les modifications ont lieu automatiquement en arrière-plan sans interrompre votre travail. SageMaker permet également le partage automatique des blocs-notes en un clic. Vous pouvez facilement partager des blocs-notes avec d'autres personnes, et elles recevront exactement le même bloc-notes, enregistré au même endroit.
Avec les blocs-notes SageMaker, vous pouvez vous connecter avec vos informations d'identification d'entreprise en utilisant AWS IAM Identity Center. Le partage de blocs-notes au sein des équipes et entre elles est facile, car les dépendances nécessaires à l'exécution d'un bloc-notes sont automatiquement suivies dans les images de travail qui sont encapsulées avec le bloc-notes lors de son partage.
En quoi les blocs-notes SageMaker Studio sont-ils différents des blocs-notes basés sur des instances ?
Comment fonctionnent les blocs-notes Amazon SageMaker Studio avec d'autres services AWS ?
Quels sont les espaces partagés dans Amazon SageMaker ?
Les spécialistes de machine learning peuvent créer un espace de travail partagé où leurs coéquipiers peuvent lire et modifier ensemble les carnets Amazon SageMaker Studio. En utilisant les rythmes partagés, les coéquipiers peuvent coéditer le même fichier du bloc-notes, exécuter le code du bloc-notes simultanément et examiner les résultats ensemble afin d'éliminer les allers-retours et de rationaliser la collaboration. Dans les espaces partagés, les équipes ML bénéficieront d'une prise en charge intégrée de services tels que BitBucket et AWS CodeCommit, de sorte qu'elles pourront facilement gérer différentes versions de leur carnet de notes et comparer les modifications au fil du temps. Toutes les ressources créées à l'intérieur des blocs-notes, telles que les expériences et les modèles ML, sont automatiquement sauvegardées et associées à l'espace de travail spécifique où elles ont été créées, de sorte que les équipes peuvent plus facilement rester organisées et accélérer le développement des modèles ML.
Comment la tarification des blocs-notes Amazon SageMaker Studio fonctionne-t-elle ?
Chaque bloc-notes créé et exécuté dans SageMaker Studio me sera-t-il facturé séparément ?
Non. Vous pouvez créer et exécuter plusieurs blocs-notes sur la même instance de calcul. Vous êtes facturé uniquement pour le calcul que vous utilisez, et non pas pour les éléments individuels. Pour en savoir plus à ce sujet, reportez-vous à notre guide de mesure.
En plus des blocs-notes, vous pouvez également démarrer et exécuter des terminaux et des shells interactifs dans SageMaker Studio, le tout sur la même instance de calcul. Chaque application s'exécute au sein d'un conteneur ou d'une image. SageMaker Studio fournit plusieurs images intégrées, spécialement conçues et préconfigurées pour la science des données et le ML.
Comment puis-je contrôler et arrêter les ressources utilisées par mes blocs-notes ?
Vous pouvez contrôler et arrêter les ressources utilisées par vos blocs-notes SageMaker Studio par le biais de l'interface visuelle de SageMaker Studio et de la console de gestion AWS. Consultez la documentation pour plus de détails.
J'exécute un bloc-notes SageMaker Studio. Vais-je quand même être facturé si je ferme mon navigateur ou l'onglet du bloc-notes ou si je laisse simplement le navigateur ouvert ?
La création et la configuration d'un domaine Amazon SageMaker Studio me sont-elles facturées ?
Non, vous n'êtes pas facturé pour la création ou la configuration d'un domaine Amazon SageMaker Studio, y compris l'ajout, la mise à jour et la suppression de profils d'utilisateurs.
Comment puis-je connaître les frais détaillés applicables aux blocs-notes Studio ou aux autres services de SageMaker ?
En tant qu'administrateur, vous pouvez afficher la liste des frais détaillés pour Amazon SageMaker, y compris SageMaker Studio, dans la console de facturation AWS. Dans la console de gestion AWS de SageMaker, choisissez Services dans le menu supérieur, saisissez « Facturation » dans la zone de recherche et sélectionnez Facturation dans le menu déroulant, puis Factures dans le volet de gauche. Dans la section Détails, vous pouvez cliquer sur SageMaker pour développer la liste des régions et voir les frais détaillés.
Qu'est-ce qu'Amazon SageMaker Studio Lab ?
Pourquoi utiliser Amazon SageMaker Studio Lab ?
Comment Amazon SageMaker Studio Lab fonctionne-t-il avec d'autres services AWS ?
Quelles sont les sources de données prises en charge par Amazon SageMaker Canvas ?
SageMaker Canvas vous permet de découvrir, en toute simplicité les sources de données AWS auxquelles votre compte a accès, notamment Amazon S3 et Amazon Redshift. Vous pouvez parcourir et importer des données à l'aide de l'interface visuelle de type glisser-déposer de SageMaker Canvas. Vous pouvez également faire glisser des fichiers à partir de votre disque local et utiliser des connecteurs prédéfinis pour importer des données depuis des sources tierces, telles que Snowflake.
Comment construire un modèle de ML pour générer des prédictions précises dans Amazon SageMaker Canvas ?
Une fois que vous avez connecté des sources, sélectionné un jeu de données et préparé vos données, vous pouvez sélectionner la colonne cible pour laquelle vous souhaitez effectuer une prédiction afin de lancer la tâche de création de modèle. Amazon SageMaker Canvas identifiera automatiquement le type de problème, générera de nouvelles fonctionnalités pertinentes, testera un ensemble complet de modèles de prédiction à l'aide de techniques ML telles que la régression linéaire, la régression logistique, le deep learning, la prévision de séries chronologiques et le boosting de gradient, et construira le modèle qui effectue des prédictions précises sur la base de votre jeu de données.
Entraîner des modèles
Qu'est-ce qu'Amazon SageMaker HyperPod ?
Quand dois-je utiliser SageMaker HyperPod ?
Amazon SageMaker prend-il en charge l'entraînement distribué ?
Oui. Amazon SageMaker peut distribuer automatiquement les modèles de deep learning et les grands ensembles d'entraînement entre plusieurs instances GPU AWS en une fraction du temps nécessaire pour créer et optimiser manuellement ces stratégies de distribution. Les techniques d'entraînement distribué appliquées par SageMaker sont le parallélisme des données et le parallélisme des modèles. Le parallélisme des données est appliqué pour améliorer les vitesses d'entraînement en répartissant de manière égale les données sur plusieurs instances GPU, permettant ainsi à chaque instance d'entraîner simultanément. Le parallélisme des modèles s'avère utile pour les modèles trop importants pour être stockés sur un seul GPU et exige que le modèle soit partitionné en parties plus petites avant distribution sur plusieurs GPU. Rien qu'avec quelques lignes de code supplémentaires dans vos scripts d'entraînement PyTorch et TensorFlow, SageMaker appliquera automatiquement pour vous le parallélisme des données ou des modèles, ce qui vous permet de développer et de déployer vos modèles plus rapidement. SageMaker détermine également la meilleure approche pour diviser votre modèle en utilisant des algorithmes de partitionnement de graphiques pour équilibrer le calcul de chaque GPU tout en réduisant la communication entre les instances GPU. En outre, SageMaker optimise vos tâches d'entraînement distribuées grâce à des algorithmes qui utilisent intégralement le réseau et le calcul AWS afin d'obtenir une efficacité de mise à l'échelle quasi linéaire. Cela vous permet de terminer l'entraînement plus rapidement qu'avec des implémentations open source manuelles.
Qu'est-ce qu'Amazon SageMaker Experiments ?
Qu'est-ce qu'Amazon SageMaker Debugger ?
Qu'est-ce que l'entraînement Spot géré ?
Comment utiliser l'entraînement Spot géré ?
Quand utiliser l'entraînement Spot géré ?
Comment fonctionne l'entraînement Spot géré ?
Est-il nécessaire de générer régulièrement des points de contrôle avec l'entraînement Spot géré ?
Comment calculez-vous les économies de coûts avec les tâches d'entraînement Spot géré ?
Quelles instances puis-je utiliser avec l'entraînement Spot géré ?
Quelles sont les régions prises en charge avec l'entraînement Spot géré ?
L'entraînement Spot géré prend en charge toutes les régions où Amazon SageMaker est actuellement disponible.
La taille du jeu de données que je peux utiliser pour l'entraînement est-elle limitée ?
Aucune limite ne s'applique à la taille du jeu de données que vous pouvez utiliser pour l'entraînement de modèles avec Amazon SageMaker.
Quels algorithmes le service Amazon SageMaker utilise-t-il pour générer des modèles ?
Qu'est-ce que l'ajustement automatique des modèles ?
Quels modèles peuvent être ajustés avec l'ajustement automatique des modèles ?
Puis-je utiliser l'ajustement automatique des modèles en dehors d'Amazon SageMaker ?
Pas à l'heure actuelle. Vous profiterez des meilleures performances et expériences de réglage de modèle dans Amazon SageMaker.
Quel est l'algorithme de réglage sous-jacent pour le réglage automatique des modèles ?
Actuellement, l'algorithme de réglage des hyperparamètres est une mise en œuvre personnalisée de l'optimisation bayésienne. Il vise à optimiser une métrique d'objectif spécifique au client par l'intermédiaire d'un processus de réglage. Plus particulièrement, il vérifie les métriques d'objectifs de tâches d'entraînement terminées et s'appuie sur des connaissances pour en déduire la combinaison d'hyperparamètres appropriée pour la prochaine tâche d'entraînement.
Est-ce que l'ajustement automatique des modèles recommande des hyperparamètres spécifiques pour le réglage ?
Non. L'impact des hyperparamètres sur les performances d'un modèle dépend de divers facteurs, et il est difficile d'indiquer catégoriquement qu'un hyperparamètre est plus important que d'autres et qu'il doit par conséquent être ajusté. En ce qui concerne les algorithmes intégrés à Amazon SageMaker, nous déterminons si un hyperparamètre est ajustable ou non.
Combien de temps prend une tâche de réglage d'hyperparamètres ?
La durée d'une tâche de réglage d'hyperparamètres dépend de plusieurs facteurs, dont la taille des données, l'algorithme sous-jacent et les valeurs des hyperparamètres. De plus, les clients peuvent choisir le nombre de tâches d'entraînement simultanées et le nombre total de tâches d'entraînement. Tous ces choix affectent la durée potentielle d'une tâche d'ajustement d'hyperparamètre.
Puis-je optimiser simultanément plusieurs objectifs, par exemple optimiser un modèle pour gagner en rapidité et en précision ?
Pas à l'heure actuelle. Pour le moment, vous devez spécifier une seule métrique d'objectif afin d'optimiser ou de modifier votre code d'algorithme et émettre une nouvelle métrique, ce qui correspond à une moyenne pondérée entre deux métriques utiles ou plus. Après cela, vous lancez l'optimisation du processus de réglage pour cette métrique d'objectif.
Combien coûte le réglage de modèle automatique ?
Une tâche d'ajustement d'hyperparamètre ne coûte rien en soi. Vous serez facturé en fonction des tâches d'entraînement lancées par la tâche de réglage des hyperparamètres, selon la tarification de l'entraînement du modèle.
Comment décider d'utiliser SageMaker Autopilot ou l'ajustement automatique des modèles ?
Amazon SageMaker Autopilot automatise tout dans un flux de ML typique (dont le prétraitement des fonctions, la sélection d'algorithmes et le réglage des hyperparamètres) tout en se concentrant spécifiquement sur les cas d'utilisation de classification et de régression. Le réglage de modèle automatique, en revanche, est conçu pour régler n'importe quel modèle, qu'il soit basé sur des algorithmes intégrés, des cadres de deep learning ou des conteneurs personnalisés. En échange de cette flexibilité, vous devez choisir manuellement l'algorithme spécifique, les hyperparamètres à régler et les plages de recherche correspondantes.
Qu'est-ce que l'apprentissage à renforcement ?
L'apprentissage par renforcement est une technique de ML qui permet à un agent d'apprendre à tâtonnement au sein d'un environnement interactif à l'aide de retours générés à la suite de ses propres actions et expériences.
Est-il possible d'entraîner des modèles d'apprentissage par renforcement dans SageMaker ?
Oui, vous pouvez former des modèles d'apprentissage à renforcement dans Amazon SageMaker en plus des modèles d'apprentissage supervisés et non supervisés.
Comment l'apprentissage à renforcement se distingue-t-il de l'apprentissage supervisé ?
L'apprentissage supervisé et l'apprentissage par renforcement utilisent tous deux le mappage entre l'entrée et la sortie. Cependant, l'apprentissage par renforcement privilégie l'usage de retours différés où les signaux de récompense sont optimisés pour assurer un but à long terme par le biais d'une séquence d'actions, au contraire de l'apprentissage supervisé où les retours fournis à l'agent consistent en un ensemble d'actions appropriées pour effectuer une tâche donnée.
Quand dois-je utiliser l'apprentissage à renforcement ?
L'objectif des méthodes d'apprentissage supervisé est de trouver la bonne réponse selon les schémas des données d'entraînement, tandis que l'objectif des méthodes d'apprentissage non supervisé est de trouver les similitudes et différences entre des points de données. Inversement, le but des techniques d'apprentissage par renforcement (RL) est d'apprendre comment atteindre un résultat espéré, même si la méthode pour y parvenir n'est pas évidente. Par conséquent, l'apprentissage par renforcement est plus adapté aux applications intelligentes où un agent est en mesure de prendre des décisions autonomes, par exemple la robotique, les véhicules autonomes, les systèmes CVC, les commandes industrielles et plus encore.
Quelles sortes d'environnements puis-je utiliser pour l'entraînement de modèles RL ?
Amazon SageMaker RL prend en charge divers environnements pour l'entraînement de modèles RL. Vous pouvez utiliser les services AWS, comme AWS RoboMaker, les environnements open source ou les environnements personnalisés développés à l'aide d'interfaces Open AI Gym, ou des environnements de simulation commerciale, comme MATLAB et SimuLink.
Dois-je écrire mes propres algorithmes d'agents RL pour entraîner mes modèles RL ?
Non, Amazon SageMaker RL dispose de boîtes à outils RL, comme Coach et Ray RLLib, qui proposent d'implémentations d'algorithmes d'agents RL, comme DQN, PPO, A3C et plus encore.
Puis-je apporter mes propres bibliothèques et implémentations d'algorithmes RL et les exécuter dans Amazon SageMaker RL ?
Oui, vous pouvez apporter vos propres bibliothèques et implémentations d'algorithmes RL dans des conteneurs Docker et exécuter ces bibliothèques et implémentations dans Amazon SageMaker RL.
Est-il possible d'opérer des déploiements distribués à l'aide de l'apprentissage à renforcement Amazon SageMaker ?
Oui. Vous pouvez même sélectionner un cluster hétérogène où l'entraînement et les simulations peuvent s'exécuter sur une instance GPU et sur plusieurs instances CPU, respectivement.
Déployer des modèles
Quelles sont les options de déploiement offertes par Amazon SageMaker ?
Qu'est-ce que l'inférence asynchrone d'Amazon SageMaker ?
Comment puis-je configurer les paramètres de mise à l'échelle automatique pour réduire le nombre d'instances à zéro lorsqu'elles ne traitent pas activement des requêtes ?
Vous pouvez réduire à zéro le nombre d'instances du point de terminaison d'inférence asynchrone Amazon SageMaker afin d'économiser sur les coûts lorsque vous ne traitez pas activement des requêtes. Vous devez définir une politique de mise à l'échelle en fonction de la métrique personnalisée « ApproximateBacklogPerInstance » et régler la valeur « MinCapacity » sur zéro. Pour des instructions étape par étape, référez-vous à la section Mise à l'échelle automatique d'un point de terminaison asynchrone du guide du développeur.
Qu'est-ce que l'inférence sans serveur Amazon SageMaker Inference ?
SageMaker Serverless Inference est une option de diffusion de modèles sans serveur sur mesure qui facilite le déploiement et la mise à l'échelle de modèles de machine learning. Les points de terminaison SageMaker Serverless Inference démarrent automatiquement les ressources de calcul et les mettent à l'échelle (scale-in ou scale-out) en fonction du trafic, rendant ainsi inutile la sélection du type d'instance, l'exécution de la capacité allouée ou la gestion de la mise à l'échelle. Vous pouvez éventuellement spécifier la mémoire requise pour votre point de terminaison d'inférence sans serveur. Vous ne payez que la durée d'exécution du code d'inférence et la quantité de données traitées, pas les périodes d'inactivité.
Pourquoi utiliser SageMaker Serverless Inference ?
Qu'est-ce que la simultanéité allouée pour l'inférence sans serveur SageMaker ?
Dans quelles circonstances puis-je utiliser la simultanéité allouée ?
Avec les points de terminaison sans serveur à la demande, si votre point de terminaison ne reçoit pas de trafic pendant un certain temps et qu'il reçoit soudainement de nouvelles demandes, il peut mettre un certain temps à mobiliser les ressources de calcul nécessaires au traitement des demandes. C'est ce qu'on appelle un démarrage à froid. Un démarrage à froid peut également se produire si vos demandes simultanées dépassent l'utilisation actuelle des demandes simultanées. Le temps de démarrage à froid dépend de la taille de votre modèle, du temps nécessaire pour télécharger votre modèle et du temps de démarrage de votre conteneur.
Pour réduire la variabilité de votre profil de latence, vous pouvez éventuellement activer la simultanéité allouée pour vos points de terminaison sans serveur. Grâce à la simultanéité allouée, vos points de terminaison sans serveur sont toujours prêts et peuvent répondre instantanément à des pics de trafic, sans aucun démarrage à froid.
Comment serai-je facturé pour la simultanéité allouée ?
Comme pour l’inférence sans serveur à la demande, lorsque la simultanéité provisionnée est activée, vous payez en fonction de la capacité de calcul utilisée pour traiter les demandes d'inférence, facturée à la milliseconde, et de la quantité de données traitées. Vous payez également pour l'utilisation de la simultanéité provisionnée, en fonction de la mémoire configurée, de la durée accordée et de la quantité de simultanéité activée. Pour en savoir plus, consultez la page Tarification Amazon SageMaker.
Qu'est-ce que les essais miroirs de SageMaker ?
Pourquoi devrais-je utiliser SageMaker pour les essais miroirs ?
Qu'est-ce qu'Amazon SageMaker Inference Recommender ?
SageMaker Inference Recommender accélère la mise en production des modèles de machine learning en automatisant le comparatif des performances et en ajustant les performances des modèles entre les instances SageMaker ML. Vous pouvez désormais utiliser SageMaker Inference Recommender pour déployer votre modèle sur un point de terminaison qui fournit des performances optimales et réduit les coûts. Vous pouvez commencer à utiliser SageMaker Inference Recommender en quelques minutes tout en sélectionnant un type d'instance et recevoir, en quelques heures, des recommandations pour optimiser les configurations des points de terminaison, ce qui vous évite de longues semaines de tests et de réglages manuels. Avec SageMaker Inference Recommender, il n'y a pas de frais supplémentaires : vous payez uniquement les instances ML SageMaker utilisées au cours des tests de charges.
Pourquoi utiliser SageMaker Inference Recommender ?
Comment SageMaker Inference Recommender fonctionne-t-il avec les autres services AWS ?
SageMaker Inference Recommender peut-il prendre en charge les points de terminaison multimodèles ou à plusieurs conteneurs ?
Non, pour le moment, un seul modèle est pris en charge par point de terminaison.
Quels sont les types de points de terminaison pris en charge par SageMaker Inference Recommender ?
Pour le moment, nous ne prenons en charge que les points de terminaison en temps réel.
Puis-je utiliser SageMaker Inference Recommender dans une région et effectuer des tests comparatifs dans d'autres régions ?
Lors du lancement, nous prendrons en charge toutes les régions prises en charge par Amazon SageMaker, à l'exception des régions AWS de Chine.
SageMaker Inference Recommender prend-il en charge les instances Inf1 Amazon EC2 ?
Oui, nous prenons en charge tous les types de conteneurs. Amazon EC2 Inf1, basé sur la puce AWS Inferentia, nécessite un artefact de modèle compilé à l'aide du compilateur Neuron ou d'Amazon SageMaker Neo. Une fois que vous disposez d'un modèle compilé pour une cible Inferentia et l'URI d'image de conteneur associée, vous pouvez utiliser SageMaker Inference Recommender pour évaluer différents types d'instances Inferentia.
Qu'est-ce la recherche de modèle Amazon SageMaker Model Monitor ?
Puis-je accéder à l'infrastructure sur laquelle Amazon SageMaker s'exécute ?
AWS SageMaker gère l'infrastructure de calcul à votre place, lui permettant d'effectuer des vérifications de l'état de santé, d'appliquer des correctifs de sécurité et de réaliser d'autres opérations de maintenance quotidienne. Vous pouvez également déployer les artefacts de modèle de la formation avec un code d'inférence personnalisé dans votre propre environnement d'hébergement.
Comment mettre à l'échelle la taille et les performances d'un modèle Amazon SageMaker après son déploiement en production ?
L'hébergement d'Amazon SageMaker s'adapte automatiquement aux performances nécessaires à votre application à l'aide de la scalabilité automatique des applications. En outre, vous pouvez modifier manuellement le nombre et le type d'instances tout en évitant les temps d'arrêt, en modifiant la configuration des points de terminaison.
Comment surveiller mon environnement de production Amazon SageMaker ?
Amazon SageMaker émet des métriques de performances dans Amazon CloudWatch Metrics pour vous permettre de suivre les métriques, de définir des alarmes et de réagir automatiquement aux fluctuations du trafic de production. De plus, Amazon SageMaker écrit des journaux dans Amazon CloudWatch Logs pour que vous puissiez surveiller et dépanner votre environnement de production.
Quels types de modèles peuvent être hébergés avec Amazon SageMaker ?
Amazon SageMaker peut héberger tous les modèles conformes aux spécifications documentées pour les images d'inférence Docker. Cela inclut les modèles créés à partir des artefacts de modèles et du code d'inférence Amazon SageMaker.
Combien de requêtes d'API en temps réel simultanées le service Amazon SageMaker prend-il en charge ?
Le service Amazon SageMaker est conçu pour s'adapter à un grand nombre de transactions par seconde. Le nombre précis varie en fonction du modèle déployé et du nombre et du type d'instances sur lesquelles le modèle est déployé.
Comment SageMaker prend-il en charge l'hébergement et la gestion de modèles entièrement gérés ?
Qu'est-ce que la transformation par lots ?
Batch Transform vous permet d'exécuter des prédictions sur des lots de données de grande ou de petite taille. Il n'est pas nécessaire de fragmenter le jeu de données ni de gérer les points de terminaison en temps réel. Avec une API simple, vous pouvez demander des prédictions pour un grand nombre d'enregistrements de données et transformer ces données rapidement et facilement.
Quelles sont les options de point de terminaison de déploiement prises en charge par SageMaker ?
Qu'est-ce que l'autoscaling pour l'élasticité ?
Qu’est-ce qu’Amazon SageMaker Edge Manager ?
Amazon SageMaker Edge Manager est une fonctionnalité qui facilite l'optimisation, la sécurisation, la surveillance et la maintenance des modèles ML sur les flottes d'appareils en périphérie, tels que les caméras intelligentes, les robots, les ordinateurs personnels et les appareils mobiles. SageMaker Edge Manager aide les développeurs ML à utiliser leurs modèles ML sur différents appareils en périphérie à grande échelle.
Comment démarrer avec Amazon SageMaker Edge Manager ?
Pour commencer avec SageMaker Edge Manager, vous devez compiler et créer des packages avec vos modèles ML entraînés dans le cloud, enregistrer vos appareils et les préparer avec le kit SDK SageMaker Edge Manager. Pour préparer votre modèle au déploiement, SageMaker Edge Manager utilise SageMaker Neo pour le compiler pour votre matériel périphérique cible. Une fois un modèle compilé, SageMaker Edge Manager le signe avec une clé générée par AWS, puis crée un package du modèle avec son exécution et vos informations d'identification nécessaires afin de préparer son déploiement. Du côté de l'appareil, vous enregistrez votre appareil sur SageMaker Edge Manager, téléchargez le kit SDK SageMaker Edge Manager, puis suivez les instructions pour installer l'agent SageMaker Edge Manager sur vos appareils. Le bloc-notes du didacticiel présente un exemple étape par étape de la préparation des modèles et de leur connexion sur les appareils en périphérie avec SageMaker Edge Manager.
Quels appareils prend en charge SageMaker Edge Manager ?
Amazon SageMaker Edge Manager prend en charge les appareils à CPU (ARM, x86) et GPU (ARM, Nvidia) courants avec les systèmes d'exploitation Linux et Windows. Avec le temps, SageMaker Edge Manager se développera pour prendre en charge d'autres processeurs incorporés et plateformes mobiles qui sont également pris en charge par SageMaker Neo.
Dois-je utiliser Amazon SageMaker pour entraîner mon modèle afin d'utiliser Amazon SageMaker Edge Manager ?
Non. Vous pouvez entraîner vos modèles ailleurs ou utiliser un modèle pré-entraîné en open source ou par votre fournisseur de modèles.
Dois-je utiliser Amazon SageMaker Neo pour compiler mon modèle afin d'utiliser Amazon SageMaker Edge Manager ?
Oui. Amazon SageMaker Neo convertit et compile vos modèles en un exécutable que vous pouvez ensuite mettre en package et déployer sur vos appareils en périphérie. Une fois le package du modèle déployé, l'agent Amazon SageMaker Edge Manager décompresse le package du modèle et exécute le modèle sur l'appareil.
Comment déployer des modèles sur les appareils de périphérie ?
Amazon SageMaker Edge Manager stocke le package du modèle dans le compartiment Amazon S3 que vous spécifiez. Vous pouvez utiliser la fonction de déploiement OTA (par voie hertzienne) offerte par AWS IoT Greengrass ou tout autre mécanisme de déploiement de votre choix pour déployer le package du modèle sur les appareils à partir de votre compartiment S3.
En quoi le kit SDK Amazon SageMaker Edge Manager diffère-t-il de l'exécution SageMaker Neo (dlr) ?
Neo dlr est une exécution open source qui exécute uniquement les modèles compilés par le service Amazon SageMaker Neo. Comparé au dlr open source, le kit SDK SageMaker Edge Manager comprend un agent professionnel sur l'appareil avec des fonctions supplémentaires de sécurité, ainsi que de gestion et de diffusion de modèles. Le kit SDK SageMaker Edge Manager est adapté au déploiement en production à grande échelle.
Quelle est la relation entre Amazon SageMaker Edge Manager et AWS IoT Greengrass ?
Amazon SageMaker Edge Manager et AWS IoT Greengrass peuvent fonctionner ensemble dans votre solution IoT. Une fois le package de votre modèle ML créé avec SageMaker Edge Manager, vous pouvez utiliser la fonction de mise à jour OTA d'AWS IoT Greengrass pour déployer le package du modèle sur votre appareil. AWS IoT Greengrass vous permet de surveiller vos appareils IoT à distance, tandis que SageMaker Edge Manager vous aide à surveiller et maintenir les modèles ML sur les appareils.
Quelle est la relation entre Amazon SageMaker Edge Manager et AWS Panorama ? Quand dois-je utiliser Amazon SageMaker Edge Manager plutôt qu'AWS Panorama ?
AWS offre le plus large et le plus riche ensemble de fonctionnalités pour l'exécution de modèles sur les appareils en périphérie. Nous disposons de services pour prendre en charge un large éventail de cas d'utilisation, notamment la reconnaissance d'images, la reconnaissance vocale et la maintenance prédictive.
Les entreprises qui souhaitent utiliser la reconnaissance d'images sur des appareils en périphérie, tels que les caméras et les appliances, peuvent utiliser AWS Panorama. AWS Panorama offre des applications de reconnaissance d'images prêtes à déployer pour les appareils en périphérie. Pour démarrer avec AWS Panorama, il suffit de se connecter à la console cloud, de spécifier le modèle à utiliser dans Amazon S3 ou dans SageMaker, puis d'écrire la logique métier sous la forme d'un script Python. AWS Panorama compile le modèle pour l'appareil cible et crée un package d'application déployable sur vos appareils en quelques clics. En outre, les fournisseurs de logiciels indépendants qui souhaitent créer leurs propres applications personnalisées peuvent utiliser le kit SDK AWS Panorama, tandis que les fabricants d'appareils peuvent utiliser le kit SDK Device pour certifier leurs appareils pour AWS Panorama.
Les clients qui souhaitent créer leurs propres modèles et bénéficier d'un contrôle plus précis sur les fonctions de modèles peuvent utiliser Amazon SageMaker Edge Manager. SageMaker Edge Manager est un service géré permettant de préparer, d'exécuter, de surveiller et de mettre à jour des modèles ML dans des flottes d'appareils en périphérie (comme des robots ainsi que des caméras et des haut-parleurs intelligents). Il convient pour tous les cas d'utilisation, tels que le traitement du langage naturel, la détection de fraude et la maintenance prédictive. SageMaker Edge Manager est destiné aux développeurs en périphérie ML qui souhaitent disposer d'un contrôle sur leur modèle, notamment en concevant différentes caractéristiques de modèle et en surveillant la dérive des modèles. Tous les développeurs en périphérie ML peuvent utiliser SageMaker Edge Manager au moyen de la console SageMaker et des API SageMaker. SageMaker Edge Manager apporte les fonctionnalités de SageMaker pour créer, entraîner et déployer des modèles du cloud sur des appareils en périphérie.
Dans quelles régions le service Amazon SageMaker Edge Manager est-il disponible ?
Amazon SageMaker Edge Manager est disponible dans les six régions AWS suivantes : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon), EU (Irlande), EU (Francfort) et Asie-Pacifique (Tokyo). Consultez la liste des services régionaux AWS pour plus de détails.
Qu'est-ce qu'Amazon SageMaker Neo ?
Amazon SageMaker Neo permet aux modèles ML d'être entraînés une fois, puis d'être exécutés n'importe où dans le cloud et en périphérie. SageMaker Neo optimise automatiquement les modèles créés avec les cadres de deep learning courants qui peuvent être utilisés pour un déploiement sur plusieurs plateformes matérielles. Les modèles optimisés s'exécutent 25 fois plus vite et consomment moins d'un dixième des ressources des modèles ML types.
Comment démarrer avec Amazon SageMaker Neo ?
Pour démarrer avec Amazon SageMaker Neo, vous devez vous connecter à la console Amazon SageMaker, choisir un modèle formé, suivre l'exemple de compilation de modèles, puis déployer le modèle ainsi obtenu sur votre plateforme matérielle cible.
Quels sont les principaux composants d'Amazon SageMaker Neo ?
Amazon SageMaker Neo comprend deux composants majeurs : un compilateur et une exécution. Pour commencer, le compilateur Neo lit les modèles exportés par différents cadres. Il convertit alors les fonctions et opérations spécifiques au cadre en une représentation intermédiaire agnostique de cadre. Ensuite, il effectue une série d'optimisations. Puis, le compilateur génère du code binaire pour les opérations optimisées et les écrit dans la bibliothèque d'objets partagés. Le compilateur enregistre également la définition et les paramètres du modèle dans des fichiers séparés. Lors de l'exécution, l'exécution Neo charge les artefacts créés par le compilateur (définition de modèle, paramètres et bibliothèque d'objets partagés) pour exécuter le modèle.
Ai-je besoin d'utiliser SageMaker pour entraîner mon modèle afin d'utiliser Neo pour le convertir ?
Non. Vous pouvez former des modèles ailleurs et utiliser Neo afin de les optimiser pour des instances Amazon SageMaker ML ou des appareils AWS IoT Greengrass pris en charge.
Quels modèles SageMaker Neo prend-il en charge ?
SageMaker Neo prend actuellement en charge les modèles les plus populaires de deep learning pour les applications de vision par ordinateur et les modèles d'arbre décisionnel utilisés aujourd'hui dans Amazon SageMaker. Neo optimise le fonctionnement des modèles AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet et DenseNet entraînés dans MXNet et TensorFlow, et les modèles de classification et RCF (Random Cut Forest) entraînés dans XGBoost.
Quelles plateformes matérielles Amazon SageMaker Neo prend-il en charge ?
Vous trouverez les listes des instances cloud prises en charge, des appareils en périphérie et des versions de cadres dans la documentation d'Amazon SageMaker Neo.
Dans quelles régions le service SageMaker Neo est-il disponible ?
Pour voir la liste des régions prises en charge, consultez la liste des services régionaux AWS.
Amazon SageMaker Savings Plans
Que sont les Amazon SageMaker Savings Plans ?
Pourquoi utiliser Amazon SageMaker Savings Plans ?
Comment faire ses premiers pas avec Amazon SageMaker Savings Plans ?
Quels sont les différences entre les Savings Plans pour Amazon SageMaker et les Compute Savings Plans pour EC2 ?
Comment fonctionne Savings Plans avec AWS Organizations/la facturation consolidée ?
Il est possible d'acheter Savings Plans dans n'importe quel compte d'une famille AWS Organizations/de facturation consolidée. Par défaut, les avantages des Savings Plans s'appliquent à l'utilisation sur tous les comptes d'une famille AWS Organizations/de facturation consolidée. Toutefois, vous pouvez également limiter les avantages des Savings Plans au compte qui a été utilisé pour en faire l'acquisition.