Apache MXNet in AWS

Crea applicazioni di apprendimento automatico veloci da addestrare ed eseguibili in diversi ambienti

Apache MXNet su AWS è un framework di addestramento e inferenza veloce e scalabile con un'API concisa e facile da usare per il machine learning.

MXNet include l'interfaccia Gluon, che permette agli sviluppatori a qualsiasi livello di competenza di iniziare con il deep learning su cloud, dispositivi periferici e app per dispositivi mobili. Sono sufficienti poche righe di codice Gluon per creare regressione lineare, reti convoluzionali e reti LSTM ricorrenti per il rilevamento di oggetti, il riconoscimento vocale, le raccomandazioni e la personalizzazione.

Per iniziare a utilizzare MXNet su AWS con un'esperienza completamente gestita è possibile utilizzare Amazon SageMaker, una piattaforma con cui creare, addestrare e distribuire modelli di Machine Learning in modo scalabile. È anche possibile utilizzare le AMI AWS Deep Learning per creare ambienti e flussi di lavoro personalizzati con MXNet e altri framework, quali, ad esempio, TensorFlow, PyTorch, Chainer, Keras, Caffe, Caffe2 e Microsoft Cognitive Toolkit.

Contribuisci al progetto Apache MXNet

Ottieni codice di esempio, notebook e tutorial nella pagina di progetto di GitHub.

Vantaggi dell'apprendimento approfondito con MXNet

Facilità di utilizzo con Gluon

La libreria Gluon di MXNet offre un'interfaccia di alto livello che semplifica prototipazione, addestramento e distribuzione di modelli di apprendimento approfondito senza sacrificare la velocità di addestramento. Gluon offre un livello di astrazione elevato per layer predefiniti, funzioni di perdita e sistemi di ottimizzazione. Inoltre, fornisce una struttura flessibile e intuitiva, di cui è semplice eseguire il debug.

Prestazioni elevate

I carichi di lavoro di apprendimento approfondito possono essere distribuiti su diverse GPU mediante scalabilità non lineare, grazie alla quale è possibile gestire progetti di grandissime dimensioni in minor tempo. Inoltre, la scalabilità sarà applicata in automatico a seconda del numero di GPU in un cluster. Gli sviluppatori potranno anche risparmiare tempo e miglioreranno la produttività eseguendo inferenze serverless basate su batch.

Per IoT e dispositivi edge

Oltre a gestire addestramento su più GPU e distribuzione di modelli complessi nel cloud, MXNet produce rappresentazioni di modelli di reti neurali leggere che possono essere eseguite su dispositivi edge poco potenti quali Raspberry Pi, smartphone o laptop ed elaborare dati in remoto in tempo reale.

Flessibilità e scelta

MXNet supporta un'ampia gamma di linguaggi di programmazione, tra cui C++, JavaScript, Python, R, Matlab, Julia, Scala, Clojure e Perl, per poter iniziare a utilizzare il servizio con un linguaggio già familiare. A livello di back-end, tuttavia, tutto il codice viene compilato in C++ per ottenere le migliori prestazioni possibili indipendentemente dalla sintassi utilizzata per la creazione dei modelli.

Momento dei clienti

Cimpress
logo beeva horizontal1

Casi di studio

Il progetto MXNet può contare oltre 500 contributor, molti dei quali sono sviluppatori di Amazon, NVIDIA, Intel, Samsung e Microsoft. Scopri come i clienti utilizzano MXNet per progetti di deep learning. Per altri casi di studio consulta il blog sull’apprendimento automatico di AWS e il blog MXNet.

Amazon SageMaker per machine learning

Scopri di più sulle caratteristiche di Amazon SageMaker

Amazon SageMaker è un servizio completamente gestito che consente a data scientist e sviluppatori di creare, formare e distribuire in modo rapido e semplice modelli di apprendimento automatico su vasta scala. Amazon SageMaker rimuove tutti gli ostacoli che normalmente rallentano gli sviluppatori che desiderano utilizzare l'apprendimento automatico.

Hai altre domande?
Contattaci