Pourquoi utiliser IoT Greengrass ML Inference ?
AWS IoT Greengrass facilite l’exécution locale de l’inférence de machine learning (ML) sur des appareils à l’aide de modèles créés, entraînés et optimisés dans le cloud. AWS IoT Greengrass vous offre la flexibilité nécessaire pour utiliser des modèles de machine learning formés dans Amazon SageMaker ou importer votre propre modèle préentraîné stocké dans Amazon S3.
Le machine learning utilise des algorithmes statistiques pouvant apprendre à partir de données existantes (« entraînement ») afin de prendre des décisions concernant les nouvelles données (« inférence »). Pendant la formation, les profils et les relations entre les données sont identifiés pour créer un modèle. Ce modèle permet à un système de prendre des décisions intelligentes au sujet de données qu'il n'a pas encore rencontrées. L’optimisation des modèles permet de comprimer la taille du modèle pour en accélérer l’exécution. La formation et l’optimisation des modèles de Machine Learning nécessitent des ressources de calcul massives, de sorte qu'elles conviennent naturellement au cloud. Cependant, l'inférence utilise généralement beaucoup moins de puissance de calcul et se fait souvent en temps réel lorsque de nouvelles données sont disponibles. L'obtention de résultats d'inférence avec une latence très faible est importante pour s'assurer que les applications IoT peuvent rapidement répondre à des évènements locaux.
AWS IoT Greengrass réunit tous ces avantages. Il permet, en effet, d'utiliser des modèles de machine learning créés, entraînés et optimisés dans le cloud et d'exécuter localement l'inférence sur les appareils. Par exemple, vous pouvez créer un modèle prédictif dans SageMaker pour l'analyse de détection de scène, l'optimiser pour qu'il s'exécute sur n'importe quelle caméra, puis le déployer afin de prédire toute activité suspecte et d'envoyer une alerte. Les données issues de l'exécution de l'inférence sur AWS IoT Greengrass peuvent être renvoyées à SageMaker, en vue d'être labélisées et utilisées pour optimiser continuellement la qualité des modèles de machine learning.
Avantages
Flexible
AWS IoT Greengrass comprend des packages Amazon SageMaker Neo Deep Learning Runtime (DLR), Apache MXNet, TensorFlow et Chainer précréés pour des appareils optimisés par Intel Atom, NVIDIA Jetson TX2 et Raspberry Pi. Ainsi, vous n'avez pas besoin de créer et de configurer le cadre de machine learning pour vos appareils à partir de zéro. De plus, il fonctionne avec d'autres cadres populaires tels que PyTorch et Caffe2. Si vous utilisez Amazon SageMaker Neo avec IoT Greengrass, les modèles écrits dans ce cadre seront convertis en code portable exécutable sur n'importe quel appareil AWS IoT Greengrass qui comprend l’environnement d’exécution Neo. Par conséquent, vous n’avez plus à faire toute configuration supplémentaire en périphérie.
Déployez des modèles sur vos appareils connectés en quelques étapes rapides
AWS IoT Greengrass facilite le déploiement de votre modèle de machine learning depuis le cloud sur vos appareils. En seulement quelques clics sur la console AWS IoT Greengrass, vous pouvez rechercher des modèles entraînés dans Amazon SageMaker ou Amazon S3, sélectionner le modèle désiré et le déployer sur les appareils cibles. Vos modèles sont déployés sur l'appareil connecté de votre choix.
Accélérer les performances en matière d'inférence
Grâce à l'intégration à Amazon SageMaker et le compilateur de deep learning Neo, vous pouvez déployer des modèles de machine learning avec une exécution optimisée jusqu'à deux fois plus rapide qu'un réglage manuel ou l'utilisation de cadres de machine learning. AWS IoT Greengrass vous donne également accès aux accélérateurs matériels, par exemple les GPU de vos appareils, en fournissant des exécutions précréées pour les cadres de machine learning et les appareils cibles courants, comme la carte Nvidia Jetson TX2.
Exécution de l'inférence sur plus d'appareils
Grâce à leur intégration à Amazon SageMaker et le compilateur Neo, les modèles sont optimisés avec moins de 1/10e d'empreinte mémoire pour permettre leur exécution sur les appareils ayant des contraintes de ressources, par exemple les caméras de sécurité domestiques et les actionneurs.
Exécutez plus facilement l’inférence sur des appareils connectés
L'exécution locale de l'inférence sur des appareils fonctionnant sous AWS IoT Greengrass permet de réduire la latence et le coût de l'envoi des données de l'appareil dans le cloud pour réaliser des prédictions. Vous pouvez exécuter l'inférence directement sur l'appareil plutôt que d'envoyer toutes les données sur le cloud à des fins d'inférence de machine learning.
Créer plus de modèles précis
Avec AWS IoT Greengrass, vous pouvez effectuer des inférences et capturer les résultats, détecter les valeurs aberrantes et renvoyer les données vers le cloud et Amazon SageMaker où elles peuvent être reclassées, labélisées et utilisées pour l'entraînement de modèles afin d'améliorer le niveau de précision du modèle de machine learning.
Cas d'utilisation
Clients en vedette
AWS IoT Greengrass aide Yanmar à augmenter l'intelligence des opérations de serre en détectant et en reconnaissant automatiquement les principales étapes de la croissance des légumes afin de faire pousser davantage de cultures.
Le système Electronic Caregiver garantit des soins de qualité avec AWS IoT Greengrass ML Inference et peut transférer des modèles de Machine Learning directement aux appareils périphériques et assurer davantage la sécurité des patients.
Avec AWS IoT Greengrass, Vantage Power transfère des modèles de Machine Learning aux différents véhicules et détecte les défaillances de batterie un mois à l'avance.