Introduzione

Nella sua forma più elementare, il machine learning (ML) è progettato per fornire strumenti e servizi digitali per imparare dai dati, identificare modelli, fare previsioni e quindi agire in base a tali previsioni. Quasi tutti i sistemi di intelligenza artificiale (IA) oggi vengono creati utilizzando il ML. Il machine learning utilizza grandi quantità di dati per creare e convalidare la logica decisionale. Questa logica decisionale costituisce la base del modello di intelligenza artificiale.

Un sottoinsieme del machine learning in rapida crescita è l'IA generativa, che si basa su modelli di grandi dimensioni preaddestrati su un vasto set di dati, comunemente denominati modelli di fondazione (FM). I servizi AWS basati sull'IA generativa includono:

  • Amazon Bedrock (che consente di creare e scalare applicazioni generative basate sull'IA generativa utilizzando i FM)
  • Amazon CodeWhisperer (un prodotto complementare di codifica IA che genera suggerimenti di codice in tempo reale in base ai tuoi commenti in linguaggio naturale e a qualsiasi codice precedente nel tuo ambiente di sviluppo integrato)

Questa guida decisionale ti aiuterà a porre le domande giuste, a valutare i tuoi criteri e i tuoi problemi aziendali e a determinare quali servizi sono più adatti alle tue esigenze.

In meno di due minuti, il Dott. Werner Vogels, CTO di Amazon, spiega come funziona l'IA generativa e come potresti utilizzarla. Questo video fa parte di una lunga discussione tra il Dott. Vogels e Swami Sivasubramanian, vicepresidente di AWS per database, analisi e machine learning, parlano dell'ampio panorama dell'IA generativa, del perché non è una campagna pubblicitaria e di come AWS stia democratizzando l'accesso a grandi modelli linguistici e di base.

Tempo di lettura

25 minuti

Scopo

Aiutarci a determinare quali servizi AWS ML sono più adatti alle tue esigenze.

Livello

Principiante

Ultimo aggiornamento

26 luglio 2023

Scopri

Poiché le organizzazioni continuano ad adottare tecnologie di IA e ML, l'importanza della comprensione e della scelta tra i servizi di machine learning di AWS non può essere sopravvalutata.
 
AWS offre una gamma di servizi ML progettati per aiutare le organizzazioni a creare, addestrare e distribuire modelli ML in modo più rapido e semplice. Questi servizi possono essere utilizzati per risolvere una vasta gamma di problemi aziendali come la previsione del tasso di abbandono dei clienti, il rilevamento delle frodi e il riconoscimento di immagini e vocali.
AWS considera il machine learning come una serie di livelli tecnologici che si basano l'uno sull'altro.
 
Il livello superiore è costituito da servizi di intelligenza artificiale. È qui che AWS integra il machine learning in diversi casi d'uso, come la personalizzazione, la previsione, il rilevamento delle anomalie e la trascrizione vocale.
 
Il livello intermedio è costituito da servizi AWS ML, tra cui Amazon SageMaker e le tecnologie di deep learning (DL). È qui che AWS crea la sua infrastruttura ML, in modo che tu possa concentrarti solo sul lavoro differenziato di creazione di modelli ML.
 
Il livello inferiore è costituito da servizi di IA generativa. L'IA generativa può creare nuovi contenuti, tra cui conversazioni, storie, immagini, video e musica. Come tutta l'intelligenza artificiale, l'IA generativa si basa su modelli di machine learning, modelli di grandi dimensioni che vengono pre-addestrati su enormi quantità di dati e comunemente denominati modelli di fondazione (FM).

Inoltre, AWS offre il seguente hardware specializzato e accelerato per la formazione e l'inferenza ML ad alte prestazioni.
 
  • Le istanze P4d di Amazon EC2 sono dotate di GPU NVIDIA A100 Tensor Core, adatte sia per attività di addestramento che di inferenza nel machine learning. AWS Trainium è l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+.
  • Le istanze Inf2 di Amazon EC2 basate su AWS Inferentia2 sono progettate per fornire prestazioni elevate al costo più basso in Amazon EC2 per le applicazioni di inferenza di DL e di IA generativa.

Prendi in esame

Quando risolvi un problema aziendale con i servizi AWS ML, la considerazione di diversi criteri chiave può contribuire a garantire il successo. La sezione seguente illustra alcuni dei criteri chiave da considerare nella scelta di un servizio ML.

  • Il primo passo nel ciclo di vita del machine learning consiste nell'inquadrare il problema aziendale. Comprendere il problema che stai cercando di risolvere è essenziale per scegliere il servizio AWS ML giusto, poiché servizi diversi sono progettati per risolvere problemi diversi. È anche importante determinare se il ML è la soluzione migliore per il tuo problema aziendale.

    Una volta stabilito che il machine learning è la soluzione migliore, puoi iniziare scegliendo tra una gamma di servizi di intelligenza artificiale AWS appositamente progettati (in aree come voce, visione e documenti).

    Amazon SageMaker fornisce un'infrastruttura completamente gestita se devi creare e addestrare i tuoi modelli. AWS offre una serie di framework ML avanzati e scelte di infrastruttura per i casi in cui sono necessari modelli ML altamente personalizzati e specializzati. AWS offre anche un'ampia gamma di modelli di base popolari per la creazione di nuove applicazioni con IA generativa.

  • La scelta dell'algoritmo ML per il problema aziendale che stai cercando di risolvere dipende dal tipo di dati con cui stai lavorando e dai risultati desiderati. Le seguenti informazioni descrivono come ciascuna delle principali categorie di servizi AWS IA/ML ti consente di lavorare con i suoi algoritmi:

    • Servizi di intelligenza artificiale specializzati: questi servizi offrono una capacità limitata di personalizzare l'algoritmo ML, in quanto sono modelli pre-addestrati ottimizzati per attività specifiche. In genere puoi personalizzare i dati di input e alcuni parametri, ma non hai accesso ai modelli ML sottostanti o la possibilità di creare i tuoi modelli.
    • Amazon SageMaker: questo servizio offre la massima flessibilità e controllo sull'algoritmo di ML. Puoi usare SageMaker per creare modelli personalizzati utilizzando i tuoi algoritmi e framework o utilizzare modelli e algoritmi predefiniti forniti da AWS. Ciò consente un elevato grado di personalizzazione e controllo sul processo di machine learning.
    • Framework e infrastruttura ML di livello inferiore: questi servizi offrono la massima flessibilità e controllo sull'algoritmo ML. È possibile utilizzare questi servizi per creare modelli ML altamente personalizzati utilizzando i propri algoritmi e framework. Tuttavia, l'utilizzo di questi servizi richiede una notevole esperienza di machine learning e potrebbe non essere fattibile per tutti i casi d'uso.
  • Se hai bisogno di un endpoint privato nel tuo VPC, le tue opzioni varieranno in base al livello di servizi AWS ML che stai utilizzando. Questi includono:

    • Servizi di intelligenza artificiale specializzati: la maggior parte dei servizi di intelligenza artificiale specializzati attualmente non supporta gli endpoint privati nei VPC. Tuttavia, è possibile accedere alle etichette personalizzate Amazon Rekognition e Amazon Comprehend Custom utilizzando endpoint VPC.
    • Servizi di intelligenza artificiale di base: Amazon Translate, Amazon Transcribe e Amazon Comprehend supportano tutti gli endpoint VPC.
    • Amazon SageMaker: SageMaker fornisce un supporto integrato per gli endpoint VPC, consentendoti di distribuire i loro modelli addestrati come endpoint accessibile solo dall'interno del proprio VPC.
    • Framework e infrastruttura ML di livello inferiore: puoi distribuire i tuoi modelli su istanze Amazon EC2 o in contenitori all'interno del tuo VPC, fornendo il controllo completo sulla configurazione di rete.
  • I servizi di intelligenza artificiale di livello superiore, come Amazon Rekognition e Amazon Transcribe, sono progettati per gestire un'ampia varietà di casi d'uso e offrono prestazioni elevate in termini di velocità. Tuttavia, potrebbero non soddisfare determinati requisiti di latenza.

    Se utilizzi framework e infrastrutture ML di livello inferiore, ti consigliamo di utilizzare Amazon SageMaker. Questa opzione è generalmente più veloce rispetto alla creazione di modelli personalizzati grazie al servizio completamente gestito e alle opzioni di implementazione ottimizzate. Sebbene un modello personalizzato altamente ottimizzato possa superare le prestazioni di SageMaker, la sua creazione richiederà competenze e risorse significative.

  • L'accuratezza dei servizi AWS ML varia in base al caso d'uso specifico e al livello di personalizzazione richiesto. I servizi di intelligenza artificiale di livello superiore, come Amazon Rekognition, si basano su modelli pre-addestrati che sono stati ottimizzati per attività specifiche e offrono un'elevata precisione in molti casi d'uso.

    In alcuni casi, puoi scegliere di utilizzare Amazon SageMaker, che fornisce una piattaforma più flessibile e personalizzabile per la creazione e l'addestramento di modelli ML personalizzati. Costruendo i tuoi modelli, potresti essere in grado di ottenere una precisione ancora maggiore di quella possibile con i modelli pre-addestrati.

    Puoi anche scegliere di utilizzare framework e infrastrutture ML, come TensorFlow e Apache MXNet, per creare modelli altamente personalizzati che offrono la massima precisione possibile per il tuo caso d'uso specifico.

  • AWS crea modelli di fondazione (FM) pensando all'intelligenza artificiale responsabile in ogni fase del processo di sviluppo. Durante la progettazione, lo sviluppo, l'implementazione e le operazioni, prendiamo in considerazione una serie di fattori, tra cui:

    1. Precisione (quanto vicino un riassunto corrisponde al documento sottostante; se una biografia è effettivamente corretta)
    2. Equità (se i risultati trattano i gruppi demografici in modo simile)
    3. Considerazioni sulla proprietà intellettuale e sul copyright
    4. Utilizzo appropriato (filtraggio delle richieste degli utenti di consulenza legale, diagnosi mediche o attività illegali)
    5. Tossicità (incitamento all'odio, parolacce e insulti)
    6. Privacy (protezione delle informazioni personali e delle richieste dei clienti)

    AWS crea soluzioni per risolvere questi problemi nei processi utilizzati per l'acquisizione dei dati di addestramento, negli stessi FM e nella tecnologia utilizzata per pre-elaborare le istruzioni utente e gli output di post-elaborazione.

Scegli

Ora che conosci i criteri in base ai quali valutare le opzioni del tuo servizio ML, sei pronto/a per scegliere il servizio AWS ML più adatto alle tue esigenze organizzative.

La tabella seguente evidenzia quali servizi ML sono ottimizzati per quali circostanze. Usala per determinare il servizio AWS ML più adatto al tuo caso d'uso.

Servizi IA/ML e tecnologie di supporto
Quando lo useresti?
Per cosa è ottimizzato?
Chiudi

Amazon Comprehend

Amazon Comprehend ti consente di eseguire attività di elaborazione del linguaggio naturale, come l'analisi del sentiment, il riconoscimento delle entità, la modellazione degli argomenti e il rilevamento del linguaggio, sui tuoi dati di testo.

Chiudi

Amazon Lex

Amazon Lex ti aiuta a creare chatbot e assistenti vocali in grado di interagire con gli utenti in un'interfaccia in linguaggio naturale. Fornisce funzionalità predefinite per la gestione dei dialoghi, la comprensione della lingua e il riconoscimento vocale.

Chiudi

Amazon Polly

Usa Amazon Polly per convertire il testo in parole realistiche, semplificando la creazione di applicazioni e servizi con tecnologia vocale.

Chiudi

Amazon Rekognition

Amazon Rekognition è progettato per consentirti di aggiungere analisi di immagini e video alle tue applicazioni. È sufficiente fornire un'immagine o un video all'API Amazon Rekognition e il servizio può identificare oggetti, persone, testo, scene e attività. Inoltre può rilevare contenuti non appropriati.

Chiudi

Amazon Textract

Amazon Textract ti aiuta a estrarre testo e dati da documenti, moduli e tabelle scansionati, semplificando l'archiviazione, l'analisi e la gestione di tali dati.

Chiudi

Amazon Transcribe

Amazon Transcribe consente ai clienti di trascrivere automaticamente le registrazioni audio e video in testo. Ciò consente di risparmiare tempo e fatica rispetto alla trascrizione manuale.

Chiudi

Amazon Translate

Utilizza questo servizio per tradurre il testo da una lingua all'altra in tempo reale. Ciò è particolarmente utile se la tua azienda opera in più paesi o ha bisogno di comunicare con persone non madrelingua.

Utilizza i servizi di intelligenza artificiale di base forniti da AWS quando hai bisogno di funzionalità specifiche e predefinite da integrare nelle tue applicazioni, senza la necessità di ampie personalizzazioni o competenze di machine learning.
Ottimizzato per la facilità d'uso e non richiede molta esperienza di codifica, configurazione o ML.
Chiudi

Amazon Bedrock

Amazon Bedrock è un servizio completamente gestito che mette a disposizione i modelli di fondazione (FM) delle principali startup di IA e di Amazon attraverso un'API, così è possibile trovare il modello più adatto al tuo caso d'uso.

Usa Amazon Bedrock per accedere ai modelli di base delle principali startup di intelligenza artificiale e di Amazon tramite un'API.
Ottimizzato per la flessibilità: consente di scegliere tra una gamma di FM per trovare il modello migliore per le proprie esigenze.
Chiudi

Amazon CodeWhisperer

Amazon CodeWhisperer è un complemento di programmazione IA in tempo reale che aiuta a creare codice per attività indifferenziate e di routine che richiedono molto tempo, a lavorare con API o SDK sconosciuti, a fare un uso corretto ed efficace delle API AWS e ad altri scenari di codifica comuni come lettura e scrittura di file, elaborazione di immagini e scrittura di unit test.

Usa Amazon CodeWhisperer quando hai bisogno di consigli sui codici basati su ML in tempo reale.
Ottimizzato per fornirti suggerimenti utili in tempo reale basati sul codice e sui commenti esistenti.
Chiudi

Pilota automatico SageMaker

Il pilota automatico Amazon SageMaker elimina il processo impegnativo di creazione dei modelli di ML. È sufficiente fornire un set di dati tabulare e selezionare la colonna di destinazione da prevedere e il pilota automatico SageMaker esaminerà automaticamente diverse soluzioni per trovare il modello migliore. È quindi possibile distribuire direttamente il modello in produzione con un solo clic o iterare nelle soluzioni consigliate per migliorare ulteriormente la qualità del modello.

Chiudi

SageMaker Canvas

Amazon SageMaker Canvas ti offre la possibilità di utilizzare il machine learning per generare previsioni senza dover scrivere alcun codice.

Chiudi

SageMaker Data Wrangler

Amazon SageMaker Data Wrangler riduce il tempo richiesto per l'aggregazione e la preparazione dei dati tabulari e immagine per il machine learning (ML). Con SageMaker Data Wrangler è possibile semplificare il processo di preparazione dei dati e di ingegneria delle funzionalità e completare ciascuna fase del flusso di lavoro di preparazione dei dati, incluse la selezione, la pulizia, l'esplorazione, la visualizzazione e l'elaborazione su scala, da una singola interfaccia visiva. 

Chiudi

SageMaker Ground Truth

SageMaker Ground Truth è un servizio gestito per l'etichettatura dei dati per addestrare e migliorare i modelli di machine learning. Fornisce un modo estremamente preciso ed efficiente per etichettare set di dati di grandi dimensioni utilizzando una combinazione di annotatori umani e algoritmi di machine learning. SageMaker Ground Truth supporta un'ampia gamma di tipi di dati, tra cui testo, immagini, video e audio, e si integra perfettamente con altri servizi SageMaker per flussi di lavoro di machine learning end-to-end.

Chiudi

SageMaker JumpStart

SageMaker JumpStart fornisce modelli open source preaddestrati per un'ampia gamma di tipi di problemi per aiutarti a iniziare con il machine learning. È possibile addestrare e ottimizzare in modo incrementale questi modelli prima dell’implementazione. JumpStart fornisce anche modelli di soluzione che configurano l'infrastruttura per casi d'uso comuni e notebook di esempio eseguibili per il machine learning con SageMaker.

Chiudi

Pipeline SageMaker

Utilizzando Pipeline Amazon SageMaker, puoi creare flussi di lavoro ML con un semplice SDK Python e visualizzare e gestire il tuo flusso di lavoro tramite Amazon SageMaker Studio. Pipeline Amazon SageMaker consente di archiviare e riutilizzare le fasi del flusso di lavoro create in Pipeline SageMaker.

Chiudi

SageMaker Studio

Un ambiente di sviluppo integrato (IDE) che consente agli sviluppatori di creare, addestrare e implementare modelli di machine learning su larga scala. Fornisce un'unica interfaccia basata sul Web per gestire l'intero ciclo di vita del machine learning, dalla preparazione dei dati e dall’addestramento dei modelli all'implementazione e al monitoraggio. SageMaker Studio supporta anche strumenti popolari come i notebook Jupyter, Git e TensorFlow e offre una suite di algoritmi predefiniti per casi d'uso comuni.

Chiudi

SageMaker Studio Lab

Amazon SageMaker Studio Lab è un IDE basato su cloud per l'apprendimento e la sperimentazione con il machine learning utilizzando notebook Jupyter predefiniti. Include una gamma di notebook predefiniti che trattano argomenti come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale e il rilevamento delle anomalie.

Usa questi servizi quando hai bisogno di modelli o flussi di lavoro di machine learning più personalizzati che vadano oltre le funzionalità predefinite offerte dai servizi di intelligenza artificiale di base.
Ottimizzato per la creazione e l'addestramento di modelli di machine learning personalizzati, addestramento su larga scala su più istanze o cluster di GPU, maggiore controllo sull'implementazione dei modelli di machine learning, inferenza in tempo reale e per la creazione di flussi di lavoro end-to-end.
Chiudi

Apache MxNet

Apache MXNet è un framework di deep learning open source che supporta più linguaggi di programmazione, tra cui Python, Scala ed R. È noto per la sua scalabilità e velocità e offre una gamma di API di alto livello per la creazione e l'addestramento di reti neurali, nonché API di basso livello per utenti avanzati.

Chiudi

Hugging Face su Amazon SageMaker

Hugging Face su Amazon SageMaker è una libreria open source per l'elaborazione del linguaggio naturale (NLP) che fornisce un'ampia gamma di modelli e strumenti preaddestrati per lavorare con dati di testo. È noto per la sua facilità d'uso e le alte prestazioni ed è ampiamente utilizzato per attività come la classificazione del testo, l'analisi del sentimento e la traduzione linguistica.

Chiudi

Pytorch su AWS

PyTorch su AWS è un framework di machine learning open source che offre grafici di calcolo dinamici e differenziazione automatica per la creazione e l'addestramento di reti neurali. PyTorch è noto per la sua facilità d'uso e flessibilità e ha una vasta e attiva comunità di sviluppatori che contribuiscono al suo sviluppo.

Chiudi

TensorFlow su AWS

TensorFlow è un framework di machine learning open source sviluppato da Google ampiamente utilizzato per la creazione e l'addestramento di reti neurali. È noto per la sua scalabilità, velocità e flessibilità e supporta una vasta gamma di linguaggi di programmazione tra cui Python, C++ e Java. TensorFlow offre un'ampia gamma di modelli e strumenti predefiniti per l'elaborazione di immagini e testi, nonché API di basso livello per utenti esperti che richiedono un maggiore controllo sui propri modelli.

Usa i framework e l'infrastruttura ML forniti da AWS quando hai bisogno di una flessibilità e un controllo ancora maggiori sui flussi di lavoro di machine learning e sei disposto a gestire tu stesso l'infrastruttura e le risorse sottostanti.
Ottimizzato per fornire configurazioni hardware personalizzate specifiche, accesso a framework di deep learning non offerti da SageMaker, maggiore controllo sull'archiviazione e l'elaborazione dei dati e algoritmi e modelli personalizzati.
Chiudi

AWS Inferentia e AWS Inferentia2

L'acceleratore AWS Inferentia di prima generazione alimenta le istanze Inf1 di Amazon Elastic Compute Cloud (Amazon EC2), che offrono una velocità di trasmissione effettiva fino a 2,3 volte superiore e un costo per inferenza fino al 70% inferiore rispetto alle istanze Amazon EC2 paragonabili. L'acceleratore AWS Inferentia2 migliora AWS Inferentia di prima generazione. Inferentia2 offre una velocità di trasmissione effettiva fino a 4 volte superiore e una latenza fino a 10 volte inferiore rispetto a Inferentia.

Chiudi

AWS Trainium

AWS Trainium è l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+. Ogni istanza Amazon Elastic Compute Cloud (EC2) Trn1 distribuisce fino a 16 acceleratori AWS Trainium da utilizzare nella formazione di deep learning (DL) nel cloud.

Usa l'hardware accelerato quando desideri ottenere il costo più basso per i modelli di formazione e devi eseguire l'inferenza nel cloud.
Ottimizzato per supportare l'implementazione conveniente di modelli di base su larga scala.

Utilizzo

Ora dovresti avere una chiara comprensione dei criteri da applicare nella scelta di un servizio AWS ML e puoi selezionare quali servizi IA/ML di AWS sono ottimizzati per le tue esigenze aziendali.

Per scoprire come utilizzare e saperne di più sui servizi che hai scelto, abbiamo fornito tre serie di percorsi per esplorare il funzionamento di ciascun servizio. La prima serie di percorsi fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition e Amazon Transcribe.

  • Amazon Comprehend
  • Nozioni di base su Amazon Comprehend

    Usa la console Amazon Comprehend per creare ed eseguire un processo asincrono di rilevamento delle entità.

    Inizia con il tutorial »

    Analizza in modo dettagliato le informazioni nel testo con Amazon Comprehend

    Scopri come utilizzare Amazon Comprehend per analizzare il testo e ricavarne informazioni dettagliate.  

    Inizia con il tutorial »

    Prezzi di Amazon Comprehend


    Esplora informazioni sui prezzi e sugli esempi di Amazon Comprehend.

    Esplora la guida »

  • Amazon Textract
  • Nozioni di base su Amazon Textract

    Scopri come Amazon Textract può essere utilizzato con testo formattato per rilevare parole e righe di parole che si trovano l'una vicino all'altra e analizzare un documento alla ricerca di elementi come testo correlato, tabelle, coppie chiave-valore ed elementi di selezione.

    Esplora la guida »

    Estrai testo e dati strutturati con Amazon Textract

    Scopri come utilizzare Amazon Textract per estrarre testo e dati strutturati da un documento




    Inizia con il tutorial »

    AWS Power Hour: Machine learning

    In questo episodio, ti immergerai in Amazon Textract, trascorrerai del tempo nella Console di gestione AWS e rivedrai esempi di codice che ti aiuteranno a capire come sfruttare al meglio le API di servizio.


    Guarda il video »

  • Amazon Translate
  • Guida introduttiva ad Amazon Translate tramite la console

    Il mezzo più semplice per iniziare a utilizzare Amazon Translate è la console. Scopri come tradurre fino a 10.000 caratteri utilizzando la console.

    Esplora la guida »

    Traduzione di un testo in un'altra lingua nel cloud

    In questo tutorial di esempio, come parte di un'azienda produttrice di bagagli internazionale, è necessario comprendere ciò che i clienti dicono del tuo prodotto nelle recensioni nella lingua del mercato locale: il francese.  

    Inizia con il tutorial »

    Prezzi di Amazon Translate


    Esplora i prezzi di Amazon Translate, incluso il piano gratuito, che fornisce 2 milioni di caratteri al mese per 12 mesi.


    Esplora la guida »

    Accelera i flussi di lavoro multilingue con una soluzione di traduzione personalizzabile

    Scopri come creare una soluzione di traduzione unificata con funzionalità di personalizzazione utilizzando Amazon Translate e altri servizi AWS.

    Leggi il blog »

  • Amazon Lex
  • Guida per gli sviluppatori di Amazon Lex V2


    Scopri le informazioni su come iniziare, come funziona e le informazioni sui prezzi di Amazon Lex V2.


    Esplora la guida »

    Introduzione ad Amazon Lex


    Ti presentiamo il servizio di conversazione Amazon Lex e ti spieghiamo alcuni esempi che mostrano come creare un bot e implementarlo su diversi servizi di chat.

    Segui il corso » (è richiesto il login)

    Esplorazione dell'IA generativa nelle esperienze conversazionali

    Scopri l'uso dell'IA generativa nelle esperienze di conversazione.


    Leggi il blog »

  • Amazon Polly
  • Cos'è Amazon Polly?



    Esplora una panoramica completa del servizio cloud che converte il testo in voce realistica e può essere utilizzato per sviluppare applicazioni per aumentare il coinvolgimento e l'accessibilità dei clienti.

    Esplora la guida »

    Evidenzia il testo mentre viene pronunciato con Amazon Polly


    Ti presentiamo gli approcci per evidenziare il testo mentre viene pronunciato per aggiungere funzionalità visive all'audio in libri, siti Web, blog e altre esperienze digitali.

    Leggi il blog »

    Crea audio per contenuti in più lingue con lo stesso personaggio vocale TTS in Amazon Polly

    Spieghiamo Neural Text-to-Speech (NTTS) e spieghiamo come un ampio portafoglio di voci disponibili, che fornisce una gamma di parlanti diversi nelle lingue supportate, possa funzionare per te.

    Leggi il blog »

  • Amazon Rekognition
  • Cos’è Amazon Rekognition?



    Scopri come utilizzare questo servizio per aggiungere analisi di immagini e video alle tue applicazioni.  

    Esplora la guida »

    Rekognition pratico: analisi automatizzata di immagini e video

    Scopri come funziona il riconoscimento facciale con lo streaming video, insieme a esempi di codice e punti chiave a un ritmo autoguidato.  

    Inizia con il tutorial »

    Domande frequenti su Amazon Rekognition



    Scopri le nozioni di base di Amazon Rekognition e come può aiutarti a migliorare il deep learning e analizzare visivamente le tue applicazioni.

    Leggi le domande frequenti »

  • Amazon Transcribe
  • Transcribe

    Cos'è Amazon Transcribe?


    Scopri il servizio di riconoscimento vocale automatico AWS che utilizza il ML per convertire l'audio in testo. Scopri come utilizzare questo servizio come trascrizione autonoma o aggiungere funzionalità di sintesi vocale a qualsiasi applicazione.

    Esplora la guida »

    Prezzi di Amazon Transcribe


    Ti presentiamo la trascrizione con pagamento in base al consumo di AWS, che include opzioni di modelli linguistici personalizzati e il piano gratuito di Amazon Transcribe.


    Esplora la guida »

    Creazione di una trascrizione audio con Amazon Transcribe

    Scopri come usare Amazon Transcribe per creare una trascrizione di testo di file audio registrati utilizzando uno scenario di casi d'uso reale per testarli in base alle tue esigenze.

    Inizia con il tutorial »

    Creazione di un'applicazione di streaming Amazon Transcribe

    Scopri come creare un'app per registrare, trascrivere e tradurre l'audio dal vivo in tempo reale, con i risultati inviati direttamente via e-mail.

    Esplora la guida »

Il secondo set di percorsi di servizi di IA/ML AWS fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare i servizi della famiglia Amazon SageMaker.

  • SageMaker
  • Come funziona Amazon SageMaker

    Esplora la panoramica del machine learning e di come funziona SageMaker.

    Esplora la guida »

    Nozioni di base su Amazon SageMaker

    Scopri come iscriverti a un dominio Amazon SageMaker, che ti consente di accedere ad Amazon SageMaker Studio e RStudio su SageMaker. 

    Esplora la guida »

    Usa Apache Spark con Amazon SageMaker

    Scopri come usare Apache Spark per la pre-elaborazione dei dati e SageMaker per l’addestramento e l'hosting dei modelli. 

    Esplora la guida »

    Usa i container Docker per creare modelli

    Scopri in che modo Amazon SageMaker fa ampio uso dei container Docker per le attività di compilazione e runtime. Scopri come implementare le immagini Docker predefinite per i suoi algoritmi integrati e i framework di deep learning supportati utilizzati per la formazione e l'inferenza.

    Esplora la guida »
     

    Framework e linguaggi di machine learning

    Scopri come iniziare a usare SageMaker utilizzando Amazon SageMaker Python SDK.



    Esplora la guida »

  • Pilota automatico SageMaker
  • Crea un esperimento di Pilota automatico Amazon SageMaker per dati tabulari

    Scopri come creare un esperimento di Pilota automatico Amazon SageMaker per esplorare, pre-elaborare e addestrare vari modelli candidati su un set di dati tabulare.

    Esplora la guida »

    Crea i modelli di machine learning in modo automatico


    Scopri come utilizzare il Pilota automatico Amazon SageMaker per creare, addestrare e ottimizzare automaticamente un modello di machine learning (ML) e implementare tale modello per effettuare delle previsioni.

    Inizia con il tutorial »

    Scopri la modellazione con Pilota automatico Amazon SageMaker con questi notebook di esempio

    Esplora esempi di taccuini per il marketing diretto, la previsione del tasso di abbandono dei clienti e come importare il tuo codice di elaborazione dei dati in Pilota automatico Amazon SageMaker.

    Esplora la guida »

  • SageMaker Canvas
  • Inizia a usare Amazon SageMaker Canvas


    Scopri come iniziare a usare SageMaker Canvas.

    Esplora la guida »

    Generazione di previsioni di machine learning senza scrivere codice

    In questo tutorial apprenderai come utilizzare Amazon SageMaker Canvas per creare modelli di machine learning (ML) e generare previsioni accurate senza scrivere una singola riga di codice.

    Inizia con il tutorial »

    Approfondisci SageMaker Canvas


    Dai uno sguardo approfondito a SageMaker Canvas e alle sue funzionalità di ML visive e senza codice.

    Leggi il blog »

    Usa Amazon SageMaker Canvas per creare il tuo primo modello ML

    Scopri come utilizzare Amazon SageMaker Canvas per creare un modello ML per valutare la fidelizzazione dei clienti, basato su una campagna e-mail per nuovi prodotti e servizi.

    Inizia con il laboratorio »

  • SageMaker Data Wrangler
  • Nozioni di base su Amazon SageMaker Data Wrangler

    Scopri come configurare SageMaker Data Wrangler e segui la procedura dettagliata fornita utilizzando un set di dati di esempio esistente.


    Esplora la guida »

    Preparazione dei dati di addestramento per il machine learning con un codice minimo

    Scopri come preparare i dati per il machine learning utilizzando Amazon SageMaker Data Wrangler.



    Inizia con il tutorial »

    Workshop di approfondimento di SageMaker Data Wrangler

    Scopri come applicare i tipi di analisi appropriati sul tuo set di dati per rilevare anomalie e problemi, utilizzare i risultati/approfondimenti derivati per formulare azioni correttive nel corso delle trasformazioni sul set di dati e testare la scelta e la sequenza di trasformazioni giuste utilizzando le opzioni di modellazione rapida fornite da SageMaker Data Wrangler.

    Inizia con il workshop »

  • SageMaker Ground Truth/Ground Truth Plus
  • Nozioni di base su Amazon Groud Truth

    Scopri come utilizzare la console per creare un processo di etichettatura, assegnare una forza lavoro pubblica o privata e inviare il lavoro di etichettatura alla tua forza lavoro. Scopri come monitorare lo stato di avanzamento di un lavoro di etichettatura.

    Esplora la guida »

    Etichettatura dei dati di addestramento per il machine learning

    In questo tutorial imparerai come etichettare un processo in Amazon SageMaker Ground Truth per annotare i dati di addestramento per il tuo modello di machine learning (ML).

    Inizia con il tutorial »

    Guida introduttiva ad Amazon Ground Truth Plus

    Scopri come completare i passaggi necessari per avviare un progetto Amazon SageMaker Ground Truth Plus, esaminare le etichette e soddisfare i prerequisiti di SageMaker Ground Truth Plus.  

    Esplora la guida »

    Nozioni di base su Amazon Ground Truth

    Guarda come iniziare a etichettare i dati in pochi minuti tramite la console SageMaker Ground Truth.

    Guarda il video »

    Amazon SageMaker Ground Truth Plus: crea set di dati di addestramento senza codice o risorse interne

    Scopri Ground Truth Plus, un servizio chiavi in mano che utilizza una forza lavoro esperta per fornire rapidamente set di dati di addestramento di alta qualità e riduce i costi fino al 40%.

    Leggi il blog »

  • SageMaker JumpStart
  • Nozioni di base sul machine learning con SageMaker JumpStart

    Esplora i modelli di soluzione SageMaker JumpStart che configurano l'infrastruttura per casi d'uso comuni e i notebook di esempio eseguibili per il machine learning con SageMaker.

    Esplora la guida »

    Inizia a utilizzare rapidamente il tuo progetto di machine learning tramite Amazon SageMaker JumpStart.

    Scopri come velocizzare il tuo progetto di machine learning (ML) utilizzando i modelli pre-addestrati e le soluzioni pre-integrate forniti da Amazon SageMaker JumpStart. Quindi potrai implementare il modello selezionato utilizzando i notebook Amazon SageMaker Studio.

    Inizia con il tutorial »

    Mettiti alla prova con Amazon SageMaker JumpStart con questo workshop sulle giornate immersive

    Scopri come le funzionalità ML low-code disponibili in Amazon SageMaker Data Wrangler, Pilota automatico e Jumpstart semplificano la sperimentazione più rapida e portano in produzione modelli estremamente accurati.

    Inizia con il workshop »

  • Pipeline SageMaker
  • Nozioni di base su Pipeline Amazon SageMaker


    Scopri come creare flussi di lavoro end-to-end che gestiscono e implementano i processi SageMaker. Pipeline SageMaker è dotato dell'integrazione con l’SDK SageMaker Python, in modo da poter creare ogni fase della pipeline utilizzando un'interfaccia basata su Python.

    Esplora la guida »

    Automatizza i flussi di lavoro di machine learning


    Scopri come creare ed automatizzare i flussi di lavoro di machine learning (ML) end-to-end utilizzando Pipeline Amazon SageMaker, Registro dei modelli Amazon SageMaker e Amazon SageMaker Clarify.

    Inizia con il tutorial »

    Come creare flussi di lavoro di ML completamente automatizzati con Pipeline Amazon SageMaker

    Scopri Pipeline Amazon SageMaker, il primo servizio di ML CI/CD al mondo progettato per essere accessibile a tutti gli sviluppatori e i data scientist. Pipeline SageMaker porta le pipeline CI/CD al machine learning, riducendo il tempo di codifica richiesto.

    Guarda il video »

  • SageMaker Studio
  • Crea e addestra un modello di machine learning in locale

    Scopri come creare e addestrare un modello di machine learning (ML) in locale all'interno di un notebook Amazon SageMaker Studio.

    Inizia a guardare il tutorial »

    Workshop Integrazione di SageMaker Studio con EMR

    Scopri come utilizzare l'elaborazione distribuita su larga scala per preparare i dati e successivamente addestrare modelli di machine learning.  

    Inizia con il workshop »

La terza serie di percorsi di servizi di IA/ML AWS fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia e Amazon Titan.

  • Amazon Bedrock
  • Panoramica di Amazon Bedrock

    Scopri come Amazon Bedrock mette a disposizione i modelli di fondazione (FM) delle principali startup di IA e di Amazon attraverso un'API, così è possibile trovare il modello più adatto al tuo caso d'uso.  

    Esplora la guida »

    Annuncio di nuovi strumenti per la creazione con l'IA generativa su AWS

    Scopri il background sullo sviluppo di Amazon Bedrock, come si adatta al più ampio approccio AWS all'intelligenza artificiale e al machine learning e fornisce una panoramica dei potenziali usi dei servizi di IA generativa di AWS.

    Leggi il blog »

    Demistificare l'IA generativa

    In questo video, il Dott. Werner Vogels, CTO di Amazon e Swami Sivasubramanian, vicepresidente di AWS per database, analisi e apprendimento automatico, si siedono per discutere dell'ampio panorama dell'IA generativa, del perché non è una moda e di come AWS stia democratizzando l'accesso a linguaggi di grandi dimensioni e modelli di fondazione.

    Guarda il video »

  • Amazon CodeWhisperer
  • Cos'è Amazon CodeWhisperer?

    Scopri come CodeWhisperer è progettato per aiutarti a creare codice per attività indifferenziate di routine o dispendiose in termini di tempo, lavorare con API o SDK sconosciuti, fare un uso corretto ed efficace delle API AWS e altri scenari di codifica comuni come lettura e scrittura di file, elaborazione di immagini e scrittura di unit test.

    Esplora la guida »

    Nozioni di base su Amazon CodeWhisperer

    Scopri come configurare CodeWhisperer per l'uso con ciascuno dei quattro possibili IDE: Kit di strumenti AWS per JetBrains, Kit di strumenti AWS per Visual Studio Code, Lambda e AWS Cloud9.

    Esplora la guida »

    Workshop su Amazon CodeWhisperer

    Scopri come creare un'applicazione completa, basata sugli eventi e serverless per il riconoscimento delle immagini. Con l'aiuto di Amazon CodeWhisperer, scriverai il tuo codice da eseguire su AWS Lambda per interagire con Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3, API HTTP di terze parti per eseguire il riconoscimento delle immagini.

    Inizia con il workshop »

  • AWS Trainium
  • Dimensionamento dell’addestramento distribuito con AWS Trainium e Amazon EKS

    Scopri come trarre vantaggio dalla disponibilità generale delle istanze Trn1 di Amazon EC2 basate su AWS Trainium, un acceleratore ML appositamente progettato e ottimizzato per fornire una piattaforma ad alte prestazioni, economica ed estremamente scalabile per l'addestramento di modelli di deep learning nel cloud.  

    Leggi il blog »

    Panoramica di AWS Trainium

    Scopri di più su AWS Trainium, l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+. Ogni istanza Trn1 di Amazon Elastic Compute Cloud (EC2) implementa fino a 16 acceleratori AWS Trainium per fornire una soluzione a basso costo e ad alte prestazioni per l'addestramento di deep learning (DL) nel cloud.

    Esplora la guida »

    Istanze Trainium consigliate

    Scopri come le istanze di AWS Trainium sono progettate per fornire prestazioni elevate ed efficienza in termini di costi per i carichi di lavoro di inferenza dei modelli di deep learning.



    Esplora la guida »

  • AWS Inferentia
  • Panoramica di AWS Inferentia

    Scopri come gli acceleratori sono progettati da AWS per fornire prestazioni elevate a costi più bassi per le applicazioni di inferenza di deep learning (DL).  

    Esplora la guida »

    AWS Inferentia2 si basa su AWS Inferentia1 offrendo una velocità di trasmissione effettiva quattro volte superiore e una latenza 10 volte inferiore

    Scopri per cosa è ottimizzato AWS Inferentia2 ed esplora come è stato progettato da zero per offrire prestazioni più elevate riducendo al contempo il costo degli LLM e dell'inferenza di IA generativa.

    Leggi il blog »

    Inferenza di machine learning con AWS Inferentia

    Scopri come creare un cluster Amazon EKS con nodi che eseguono istanze Amazon EC2 Inf1 e (facoltativamente) implementare un'applicazione di esempio. Le istanze Inf1 di Amazon EC2, con chip con tecnologia di AWS Inferentia, sono create appositamente per offrire prestazioni elevate e l'inferenza più economica del cloud.

    Esplora la guida »

  • Amazon Titan
  • Panoramica di Amazon Titan

    Scopri come i modelli di fondazione di Amazon Titan hanno ricevuto un pre-addestramento su set di dati di grandi dimensioni, il che li rende modelli potenti e per usi generici. Scopri come utilizzarli così come sono, o in privato, per personalizzarli con i tuoi dati per una particolare attività senza dover annotare grandi volumi di dati.

    Esplora la guida »

Esplora

Diagrammi di architettura

Questi diagrammi dell'architettura di riferimento mostrano esempi di servizi di IA e ML AWS in uso.

Esplora i diagrammi di architettura »

Whitepaper

Esplora i whitepaper per iniziare e apprendere le best practice per la scelta e l'utilizzo dei servizi IA/ML.

Esplora i whitepaper »

Soluzioni AWS

Esplora soluzioni verificate e linee guida architettoniche per i casi d'uso più comuni per i servizi IA e ML.

Esplora soluzioni »

Questa pagina è stata utile?