Istanze P5 di Amazon EC2
Istanze basate su GPU dalle prestazioni più elevate per applicazioni di deep learning e HPC
Le istanze P5 di Amazon Elastic Compute Cloud (Amazon EC2), basate sulle più recenti GPU NVIDIA H100 Tensor Core e le istanze P5e basate sulle GPU NVIDIA H200 Tensor Core offrono le massime prestazioni in Amazon EC2 per applicazioni di deep learning (DL) e calcolo ad alte prestazioni (HPC). Permettono di accelerare i tempi di soluzione fino a 4 volte rispetto alle istanze EC2 basate su GPU di generazione precedente e a ridurre i costi di addestramento dei modelli di ML fino al 40%. Queste istanze ti aiutano a iterare sulle tue soluzioni a un ritmo più rapido e a raggiungere il mercato più rapidamente. Puoi utilizzare le istanze P5 e P5e per addestrare e implementare modelli linguistici di grandi dimensioni (LLM) e modelli di diffusione sempre più complessi che sono alla base delle applicazioni di intelligenza artificiale (IA) generativa più esigenti. Tali applicazioni includono la risposta a domande, la generazione di codice, la generazione di video e immagini e il riconoscimento vocale. Puoi utilizzare queste istanze anche per implementare applicazioni HPC impegnative su larga scala per la scoperta farmaceutica, l'analisi sismica, le previsioni meteorologiche e la modellazione finanziaria.
Per offrire questi miglioramenti delle prestazioni e risparmiare sui costi, le istanze P5 e P5e completano le GPU NVIDIA H100 e H200 Tensor Core con prestazioni della CPU e memoria di sistema due volte superiori, nonché uno spazio di archiviazione locale quadruplo rispetto alle istanze basate sulle GPU di generazione precedente. Offrono funzionalità di scalabilità all'avanguardia per l'addestramento distribuito e i carichi di lavoro HPC strettamente accoppiati con un massimo di 3.200 Gb/s di rete utilizzando Elastic Fabric Adapter (EFAv2) di seconda generazione. Per fornire elaborazione su larga scala a bassa latenza, le istanze P5 e P5e vengono implementate in UltraCluster Amazon EC2 che consentono un aumento fino a 20.000 GPU H100 e H200. Questi sono interconnessi con una rete non bloccante nell'ordine dei petabit. Le istanze P5 e P5e negli UltraCluster EC2 possono offire fino a 20 exaflop di capacità di elaborazione aggregata, con prestazioni equivalenti a quelle di un supercomputer.
Prenota subito le istanze P5 per un uso futuro
Con i blocchi di capacità di Amazon EC2 per il ML, puoi prenotare facilmente le istanze P5 e P5e con un anticipo fino a otto settimane. Puoi prenotare queste istanze per 1-14 giorni e in cluster di dimensioni da una a 64 istanze (512 GPU), offrendoti la flessibilità necessaria per eseguire un'ampia gamma di carichi di lavoro.
Vantaggi
Addestra più di 100 miliardi di modelli di parametri su larga scala
Le istanze P5 e P5e possono addestrare modelli di IA generativa di grandi dimensioni su larga scala e fornire prestazioni fino a quattro volte superiori rispetto alle istanze EC2 basate su GPU di generazione precedente.
Riduci i tempi di soluzione ed esegui iterazioni più velocemente
Le istanze P5 e P5e riducono i tempi di addestramento e i tempi di soluzione da diverse settimane a pochi giorni. Questo ti aiuta a iterare a un ritmo più veloce e ad arrivare sul mercato più rapidamente.
Riduci i costi dell'infrastruttura DL e HPC
Le istanze P5 e P5e offrono un risparmio fino al 40% sull'addestramento DL e sui costi dell'infrastruttura HPC rispetto alle istanze EC2 basate su GPU di generazione precedente.
Esegui l'addestramento distribuito e HPC con elaborazione exascale
Le istanze P5 e P5e forniscono fino a 3.200 Gb/s di rete EFAv2. Queste istanze sono implementate negli UltraCluster EC2 e offrono 20 exaflop di capacità di elaborazione aggregata.
Funzionalità
GPU NVIDIA H100 e H200 Tensor Core
Le istanze P5 forniscono fino a 8 GPU NVIDIA H100 con un totale di 640 GB di memoria GPU HBM3 per istanza. Le istanze P5e forniscono fino a 8 GPU NVIDIA H200 con un totale di 1128 GB di memoria GPU HBM3e per istanza. Entrambe le istanze supportano fino a 900 GB/s di interconnessione GPU NVSwitch (per un totale di 3,6 TB/s di larghezza di banda bisezionale in ogni istanza), in modo che ogni GPU possa comunicare con ogni altra GPU nella stessa istanza con latenza single-hop.
Nuovo motore di trasformatore e istruzioni DPX
Le GPU H100 e H200 di NVIDIA dispongono di un nuovo motore di trasformatore che gestisce in modo intelligente e sceglie dinamicamente tra calcoli FP8 e 16 bit. Questa funzionalità consente di velocizzare l'addestramento DL sugli LLM rispetto alle GPU A100 della generazione precedente. Per i carichi di lavoro HPC, le GPU H100 e H200 di NVIDIA dispongono di nuove istruzioni DPX che accelerano ulteriormente gli algoritmi di programmazione dinamica rispetto alle GPU A100.
Rete ad alte prestazioni
Le istanze P5 e P5e forniscono fino a 3.200 Gb/s di rete EFAv2. EFAv2 offre un miglioramento fino al 50% delle prestazioni delle comunicazioni collettive per carichi di lavoro di addestramento distribuiti. EFAv2 è inoltre accoppiato a NVIDIA GPUDirect RDMA per consentire la comunicazione da GPU a GPU a bassa latenza tra i server con bypass del sistema operativo.
Archiviazione ad alte prestazioni
Le istanze P5 e P5e supportano i file system Amazon FSx per Lustre consentendo di accedere ai dati con le centinaia di GB/s di throughput e i milioni di IOPS necessari per i carichi di lavoro DL e HPC su larga scala. Ogni istanza P5 o P5e supporta anche fino a 30 TB di archiviazione SSD NVMe locale per un accesso rapido a set di dati di grandi dimensioni. Inoltre, è possibile utilizzare uno spazio di archiviazione economico e virtualmente illimitato con Amazon Simple Storage Service (Amazon S3).
UltraCluster EC2 di seconda generazione
Le istanze P5 vengono implementate in UltraCluster EC2 di seconda generazione, che forniscono una struttura di rete che consente una maggiore scalabilità, un minor numero di hop di rete nel cluster e una latenza inferiore rispetto agli UltraCluster della generazione precedente. Le istanze P5 in UltraClusters possono scalare fino a 20.000 GPU H100 interconnesse con una rete nell'ordine dei petabit e fornire 20 exaflop di capacità di elaborazione aggregata.
Integrazione ottimale con altri servizi AWS
Le istanze P5 e P5e possono essere implementate utilizzando AWS Deep Learning AMI (DLAMI) e i Container AWS per il Deep Learning. Sono disponibili tramite servizi gestiti come Amazon SageMaker, Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), Batch AWS e altri ancora.
Testimonianze dei clienti
Anthropic realizza sistemi di IA affidabili, interpretabili e orientabili che avranno molte opportunità di creare valore a livello commerciale e a vantaggio pubblico.
"In Anthropic, stiamo lavorando per creare sistemi di IA affidabili, interpretabili e orientabili. Sebbene abbiano vantaggi significativi, i grandi sistemi di IA generali odierni possono anche essere imprevedibili, inaffidabili e opachi. Il nostro obiettivo è impegnarci per contribuire a risolvere questi problemi e implementare sistemi che le persone trovino utili. La nostra organizzazione è una delle poche al mondo che sta costruendo modelli di base nella ricerca sul DL. Questi modelli sono estremamente complessi. Per sviluppare e addestrare questi modelli all'avanguardia, dobbiamo implementarli in modo efficiente su grandi cluster di GPU. Attualmente facciamo largo impiego delle istanze P4 di Amazon EC2 e siamo entusiasti dell'introduzione delle istanze P5. Ci aspettiamo che offrano sostanziali vantaggi in termini di rapporto prezzo/prestazioni rispetto alle istanze P4d e che saranno disponibili sulla vasta scala necessaria per sviluppare LLM di nuova generazione e i prodotti correlati."
Tom Brown, cofondatore, Anthropic
Cohere, uno dei principali pionieri nell'IA linguistica, consente a ogni sviluppatore e azienda di creare prodotti incredibili con una tecnologia di elaborazione del linguaggio naturale (NLP) leader a livello mondiale, mantenendo i propri dati privati e sicuri
"Cohere è all'avanguardia nell'aiutare ogni azienda a sfruttare la potenza dell'IA linguistica per esplorare, generare, cercare e agire sulle informazioni in modo naturale e intuitivo, implementando le soluzioni su più piattaforme cloud nell'ambiente di dati più adatto per ciascun cliente. Le istanze P5 di Amazon EC2 basate su NVIDIA H100 consentiranno alle aziende di creare, crescere e dimensionare più velocemente grazie alla loro potenza di calcolo combinata con le funzionalità all'avanguardia di LLM e IA generativa di Cohere."
Aidan Gomez, CEO, Cohere
Hugging Face ha la missione di democratizzare un "buon" ML.
"In qualità di community open source di ML in più rapida crescita, ora forniamo oltre 150.000 modelli preaddestrati e 25.000 set di dati sulla nostra piattaforma per la NLP, la visione artificiale, la biologia, l'apprendimento per rinforzo e altro ancora. Grazie ai significativi progressi negli LLM e nell'IA generativa, stiamo collaborando con AWS per sviluppare e contribuire ai modelli open source del prossimo futuro. Non vediamo l'ora di utilizzare le istanze P5 di Amazon EC2 tramite Amazon SageMaker su larga scala in UltraCluster con EFA per accelerare la distribuzione di nuovi modelli di IA di base per tutti."
Julien Chaumond, CTO e cofondatore, Hugging Face
Dettagli del prodotto
Dimensioni istanza | vCPU | Memoria istanza (TiB) | GPU | Memoria GPU | Larghezza di banda della rete (Gbps) | GPUDirect RDMA | Peer to peer GPU | Archiviazione dell’istanza (TB) | Larghezza di banda EBS (Gb/s) |
---|---|---|---|---|---|---|---|---|---|
p5.48xlarge | 192 | 2 | 8 H100 | 640 GB HBM3 |
EFA da 3200 Gb/s | Sì | NVSwitch a 900 Gb/s | 8 x 3.84 SSD NVMe | 80 |
p5e.48xlarge | 192 | 2 | 8 H200 | 1128 GB HBM3e |
EFA da 3.200 Gb/s | Sì | NVSwitch a 900 Gb/s | 8 x 3.84 SSD NVMe | 80 |
Nozioni di base sui casi d'uso di ML
Utilizzo di SageMaker
SageMaker è un servizio completamente gestito per la creazione, l'addestramento e l'implementazione di modelli di ML. Se utilizzato insieme alle istanze P5, consente di dimensionare più facilmente fino a decine, centinaia o migliaia di GPU per addestrare rapidamente un modello su qualsiasi scala senza preoccuparsi di configurare cluster e pipeline di dati.
Utilizzo di DLAMI o Container per il Deep Learning
DLAMI fornisce ai professionisti e agli esperti di ML l'infrastruttura e gli strumenti necessari per velocizzare i processi di deep learning nel cloud, su qualsiasi scala. I Container per il Deep Learning sono immagini Docker preinstallate con framework di DL, semplificano l'implementazione degli ambienti di ML personalizzati poiché consentono di saltare il complicato processo di creazione e ottimizzazione degli ambienti ex novo.
Utilizzo di Amazon EKS o Amazon ECS
Se preferisci gestire i tuoi carichi di lavoro containerizzati tramite i servizi di orchestrazione dei container, puoi implementare le istanze P5 con Amazon EKS o Amazon ECS.
Nozioni di base sull'High Performance Computing in AWS
Le istanze P5 sono una piattaforma ideale per eseguire simulazioni ingegneristiche, finanza computazionale, analisi sismiche, modellazione molecolare, genomica, renderizzazione e altri carichi di lavoro HPC basati su GPU. Le applicazioni HPC spesso richiedono prestazioni di rete elevate, archiviazione veloce, grandi quantità di memoria e funzioni di elaborazione di alto livello, oppure tutte queste caratteristiche insieme. Le istanze P5 supportano EFAv2, che consente alle applicazioni HPC che utilizzano Message Passing Interface (MPI) di dimensionarsi a migliaia di GPU. Batch AWS e AWS ParallelCluster consentono agli sviluppatori HPC di creare e dimensionare rapidamente applicazioni HPC distribuite.
Ulteriori informazioni »
Nozioni di base su AWS
Registrati per creare un account AWS
Ottieni accesso istantaneo al Piano gratuito AWS.
Impara con i tutorial di 10 minuti
Esplora e impara con semplici tutorial.
Inizia a lavorare nella console
Inizia a creare con le guide dettagliate che ti aiutano ad avviare il tuo progetto AWS.