Perché usare Inferenza ML per IoT Greengrass?
AWS IoT Greengrass semplifica l'inferenza di machine learning (ML) in locale sui dispositivi, mediante modelli creati, formati e ottimizzati nel cloud. AWS IoT Greengrass ti offre la flessibilità di utilizzare modelli di machine learning formati su Amazon SageMaker o di portare il tuo modello pre-formato archiviato in Amazon S3.
Il machine learning usa algoritmi di calcolo statistico che traggono informazioni dai dati esistenti secondo un processo definito formazione, per prendere decisioni sui nuovi set di dati, un processo definito inferenza. Durante l'addestramento, sono individuati pattern e relazioni tra i dati per la costruzione di un modello. Il modello permette a un sistema di prendere decisioni intelligenti sui nuovi dati sottoposti. L'ottimizzazione dei modelli comprime le dimensioni del modello in modo che venga eseguito rapidamente. L'addestramento e l'ottimizzazione di modelli di machine learning richiede elevate quantità di risorse di elaborazione, ecco perché il cloud è l'ambiente più appropriato. Tuttavia, l'inferenza richiede minore potenza di elaborazione e spesso può essere eseguita in tempo reale quando sono disponibili nuovi dati. Ottenere risultati di inferenza con latenza molto bassa è importante per assicurarti che le applicazioni IoT rispondano rapidamente agli eventi di carattere locale.
AWS IoT Greengrass offre il meglio dei due mondi. Utilizza modelli di machine learning costruiti, addestrati e ottimizzati nel cloud ed esegui l'inferenza localmente sui dispositivi. Ad esempio, puoi creare un modello predittivo in SageMaker per l'analisi di rilevamento del rilevamento delle scene, ottimizzarlo per l'esecuzione su qualsiasi telecamera e quindi distribuirlo per prevedere attività sospette e inviare un avviso. I dati raccolti dall'inferenza in esecuzione su AWS IoT Greengrass possono essere inviati a SageMaker dove possono essere taggati e utilizzati per migliorare continuamente la qualità dei modelli di machine learning.
Vantaggi
Flessibilità
AWS IoT Greengrass include pacchetti Amazon SageMaker Neo Deep Learning Runtime (DLR), Apache MXNet, TensorFlow e Chainer preinstallati per dispositivi basati su Intel Atom, NVIDIA Jetson TX2 e Raspberry Pi, quindi non è necessario creare e configurare il framework di machine learning per i propri dispositivi da zero. Inoltre, funziona con altri framework diffusi come PyTorch e Caffe2. Se utilizzi Amazon SageMaker Neo con IoT Greengrass, i modelli scritti in questo framework vengono convertiti in un codice portatile che verrà eseguito su qualsiasi dispositivo AWS IoT Greengrass che include il runtime Neo, in modo da non dover eseguire ulteriori operazioni.
Distribuzione di modelli nei dispositivi collegati in pochi passaggi rapidi
AWS IoT Greengrass rende estremamente semplice distribuire un modello di machine learning dal cloud nei dispositivi. Sono sufficienti pochi clic nella console di AWS IoT Greengrass per cercare i modelli già sottoposti ad addestramento in Amazon SageMaker o S3, selezionare quello desiderato e distribuirlo sui dispositivi scelti. I modelli verranno distribuiti su tali dispositivi.
Accelerazione delle prestazioni di inferenza
Tramite l'integrazione con Amazon SageMaker e il Neo deep learning compiler, è possibile distribuire modelli di machine learning con un runtime ottimizzato che può essere eseguito fino a due volte più velocemente rispetto all'ottimizzazione manuale o utilizzando framework di machine learning. AWS IoT Greengrass ti consente inoltre di accedere ad acceleratori hardware, come GPU sui tuoi dispositivi, fornendo runtime pre-costruiti per i comuni framework di machine learning e dispositivi di destinazione, come la bacheca Nvidia Jetson TX2.
Eseguire inferenze su più dispositivi
Utilizzando l'integrazione con Amazon SageMaker e il Neo compiler, i modelli sono ottimizzati con meno di un decimo del footprint di memoria in modo che possano essere eseguiti su dispositivi con risorse limitate come telecamere di sicurezza domestica e attuatori.
Più semplice esecuzione dell'inferenza su dispositivi collegati
Effettuare un'inferenza a livello locale sui dispositivi che eseguono AWS IoT Greengrass riduce la latenza e il costo di invio dei dati del dispositivo al cloud per effettuare una previsione. Invece di inviare tutti i dati nel cloud per eseguire inferenze di machine learning, esegui le inferenze direttamente all'interno dei dispositivi.
Costruzione di modelli più accurati
Utilizzando AWS IoT Greengrass, puoi eseguire l'inferenza e acquisire i risultati, rilevare i valori anomali e inviare dati al cloud e Amazon SageMaker, dove può essere riclassificato, taggato e utilizzato per la riqualificazione del modello per migliorare la sua precisione nel machine learning.
Casi d'uso
Clienti in evidenza
AWS IoT Greengrass aiuta Yanmar ad accrescere l'intelligenza operativa in serra rilevando e riconoscendo automaticamente le principali fasi di crescita delle verdure, aumentando così i raccolti.
Electronic Caregiver garantisce un'assistenza di alta qualità con ML Inference per AWS IoT Greengrass, spingendo i modelli di machine learning direttamente sui dispositivi periferici e garantendo la sicurezza dei pazienti.
Grazie ad AWS IoT Greengrass, Vantage Power invia i modelli di machine learning ai singoli veicoli e rileva i guasti della batteria 1 mese prima.