Amazon-EC2-G5-Instances
Amazon-EC2-G5-Instances sind die neueste Generation von NVIDIA-GPU-basierten Instances, die für eine Vielzahl von grafikintensiven und Machine-Learning-Anwendungsfällen verwendet werden können. Sie bieten im Vergleich zu Amazon-EC2-G4dn-Instances eine bis zu 3-mal bessere Leistung für grafikintensive Anwendungen und Machine-Learning-Inferenzen sowie eine bis zu 3,3-mal höhere Leistung für Machine-Learning-Training.
Kunden können G5-Instances für grafikintensive Anwendungen wie Remote-Workstations, Video-Rendering und Gaming verwenden, um hochauflösende Grafiken in Echtzeit zu erstellen. Mit G5-Instances erhalten Machine-Learning-Kunden eine leistungsstarke und kosteneffiziente Infrastruktur zum Trainieren und Bereitstellen größerer und anspruchsvollerer Modelle für die Verarbeitung natürlicher Sprache, Computer Vision und Anwendungsfälle für Empfehlungs-Engines.
G5-Instances verfügen über bis zu 8 NVIDIA A10G Tensor-Core-GPUs und AMD-EPYC-Prozessoren der zweiten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 100 Gbit/s Netzwerkbandbreite und bis zu 7,6 TB lokalen NVMe-SSD-Speicher.
Vorteile
Hohe Leistung für grafikintensive Anwendungen
G5-Instances bieten bis zu 3-mal höhere Grafikleistung und ein bis zu 40 % besseres Preis-Leistungs-Verhältnis als G4dn-Instances. Diese verfügen über mehr Raytracing-Kerne als jede andere GPU-basierte-EC2-Instance, bieten 24 GB Speicher pro GPU und unterstützen die NVIDIA-RTX-Technologie. Dadurch eignen sie sich ideal zum schnelleren Rendern realistischer Szenen, zum Ausführen leistungsstarker virtueller Workstations und zur Unterstützung grafikintensiver Anwendungen mit höherer Wiedergabetreue.
Hohe Leistung und Kosteneffizienz für ML-Inferenz
G5-Instances bieten im Vergleich zu G4dn-Instances eine bis zu 3-mal höhere Leistung und ein bis zu 40 % besseres Preis-Leistungs-Verhältnis für Machine-Learning-Inferenzen. Sie sind eine leistungsfähige und kosteneffiziente Lösung für Kunden, die NVIDIA-Bibliotheken wie TensorRT, CUDA und cuDNN zur Ausführung ihrer ML-Anwendungen verwenden möchten.
Kosteneffizientes Training für mäßig komplexe ML-Modelle
G5-Instances bieten bis zu 15 % geringere Trainingskosten als Amazon-EC2-P3-Instances. Außerdem bieten sie im Vergleich zu G4dn-Instances eine bis zu 3,3-mal höhere Leistung beim ML-Training. Dies macht sie zu einer kosteneffizienten Lösung für das Training mäßig komplexer und einzelner Knotenmodelle für Machine Learning zur Verarbeitung natürlicher Sprache, Computer Vision und Anwendungsfälle für Empfehlungs-Engines.
Maximierte Ressourceneffizienz
G5-Instances basieren auf dem AWS Nitro System, einer Kombination aus dedizierter Hardware und schlankem Hypervisor, der praktisch alle Rechen- und Speicherressourcen der Host-Hardware für die Instances bereitstellt und so für eine bessere Gesamtleistung und Sicherheit sorgt. Bei G5-Instances stellt das Nitro-System die GPUs im Durchlaufmodus bereit und bietet so eine mit Bare-Metal vergleichbare Leistung.
Funktionen
AWS NVIDIA A10G Tensor-Core-GPU
G5-Instances sind die ersten in der Cloud, die über NVIDIA A10G Tensor-Core-GPUs verfügen, die eine hohe Leistung für grafikintensive Anwendungen und Machine Learning bieten. Jede Instance verfügt über bis zu 8 A10G Tensor-Core-GPUs mit 80 Raytracing-Kernen und 24 GB Speicher pro GPU. Diese bieten außerdem 320 NVIDIA-Tensor-Kerne der dritten Generation, die bis zu 250 TOPS liefern, was zu einer hohen Leistung für ML-Workloads führt.
NVIDIA-Treiber
G5-Instances bieten Kunden NVIDIA-RTX-Enterprise- und Gaming-Treiber ohne zusätzliche Kosten. Mit NVIDIA-RTX-Enterprise-Treibern können hochwertige virtuelle Workstations für eine Vielzahl grafikintensiver Workloads bereitgestellt werden. NVIDIA-Gaming-Treiber bieten unvergleichliche Grafik- und Computing-Unterstützung für die Spieleentwicklung. G5-Instances unterstützen auch CUDA-, cuDNN-, NVENC-, TensorRT-, cuBLAS-, OpenCL-, DirectX 11/12-, Vulkan 1.1- und OpenGL 4.5-Bibliotheken.
Hochleistungsnetzwerk und -speicher
Die G5-Instances verfügen über einen Netzwerkdurchsatz von bis zu 100 Gbit/s, wodurch sie die Anforderungen an niedrige Latenzzeiten für Machine-Learning-Inferenzen und grafikintensive Anwendungen unterstützen können. 24 GB Arbeitsspeicher pro GPU und die Unterstützung von bis zu 7,6 TB lokalem NVMe-SSD-Speicher ermöglichen die lokale Speicherung großer Modelle und Datensätze für hochleistungsfähiges Machine-Learning-Training und Inferenz. G5-Instances können außerdem große Videodateien lokal speichern, was zu einer höheren Grafikleistung und der Möglichkeit führt, größere und komplexere Videodateien zu rendern.
Mit AWS Nitro System entwickelt
Die G5-Instances basieren auf dem AWS Nitro System, einer umfangreichen Sammlung von Modulbausteinen, die viele der herkömmlichen Virtualisierungsfunktionen auf dedizierte Hardware und Software auslagern. Dadurch werden hohe Leistung, hohe Verfügbarkeit und hohe Sicherheit erreicht, während gleichzeitig der Virtualisierungsaufwand reduziert wird.
Produktdetails
Instance-Größe | GPU | GPU-Speicher (GiB) | vCPUs | Arbeitsspeicher (GiB) | Speicher (GB) | Netzwerkbandbreite (Gbps) | EBS-Bandbreite (GBit/s) | On-Demand-Preis/Std.* | 1 Jahr gültiger ISP pro Stunde (Linux) | 3 Jahre gültiger ISP pro Stunde (Linux) | |
Single GPU VMs | g5.xlarge | 1 | 24 | 4 | 16 | 1x250 | Bis zu 10 | Bis zu 3,5 | 1,006 USD | 0,604 USD | 0,402 USD |
g5.2xlarge | 1 | 24 | 8 | 32 | 1x450 | Bis zu 10 | Bis zu 3,5 | 1,212 USD | 0,727 USD | 0,485 USD | |
g5.4xlarge | 1 | 24 | 16 | 64 | 1x600 | Bis zu 25 | 8 | 1,624 USD | 0,974 USD | 0,650 USD | |
g5.8xlarge | 1 | 24 | 32 | 128 | 1 x 900 | 25 | 16 | 2,448 USD | 1,469 USD | 0,979 USD | |
g5.16xlarge | 1 | 24 | 64 | 256 | 1x1900 | 25 | 16 | 4,096 USD | 2,458 USD | 1,638 USD | |
Multi GPU VMs | g5.12xlarge | 4 | 96 | 48 | 192 | 1x3800 | 40 | 16 | 5,672 USD | 3,403 USD | 2,269 USD |
g5.24xlarge | 4 | 96 | 96 | 384 | 1x3800 | 50 | 19 | 8,144 USD | 4,886 USD | 3,258 USD | |
g5.48xlarge | 8 | 192 | 192 | 768 | 2 x 3 800 | 100 | 19 | 16,288 USD | 9,773 USD | 6,515 USD |
* Die angegebenen Preise gelten in der AWS-Region USA Ost (Nord-Virginia). Preise für Reserved Instances mit einer Laufzeit von 1 Jahr und 3 Jahre gelten für Zahlungsoptionen mit teilweiser Vorauszahlung oder, im Fall von Instances ohne die Option der teilweisen Vorauszahlung, ohne Vorauszahlung.
Kundenempfehlungen
Athenascope nutzt modernste Entwicklungen in den Bereichen Computer Vision und künstliche Intelligenz. Es analysiert das Gameplay und zeigt automatisch die spannendsten Gameplay-Momente an, um Highlight-Videos für Gamer und Content Creators zu erstellen.
„Um ein nahtloses Videoerlebnis zu schaffen, ist die Videoanalyse mit geringer Latenz mithilfe unserer CV-Modelle ein fundamentales Ziel für uns. Amazon EC2 G5-Instances bieten ein um 30 % besseres Preis-/Leistungsverhältnis als frühere Bereitstellungen mit G4dn-Instances.“
Chris Kirmse, CEO und Gründer, Athenascope
Netflix ist einer der weltweit führenden Streaming-Unterhaltungsdienste mit 214 Millionen kostenpflichtigen Mitgliedern in über 190 Ländern, die Fernsehserien, Dokumentationen und Spielfilme in einer Vielzahl von Genres und Sprachen genießen.
„Der Aufbau eines Studios in der Cloud zur Erstellung von Animationen, visuellen Effekten und Live-Action-Inhalten für unsere Zuschauer war für uns eine Priorität. Wir möchten Künstlern die Flexibilität geben, jederzeit und überall auf ihre Workstations zuzugreifen. Wir sind ständig auf der Suche nach Möglichkeiten, unsere Künstler bei der Innovation zu unterstützen, indem wir ihnen Zugang zu leistungsstärkeren Workstations bieten.“
Stephen Kowalski, Director of Digital Production Infrastructure Engineering, Netflix
„Mit den neuen G5-Instances von Amazon EC2 können wir High-End-Grafik-Workstations bereitstellen, die im Vergleich zu Workstations mit EC2-G4dn-Instances eine bis zu dreimal höhere Leistung bieten. Mit G5-Instances haben Inhalts-Ersteller die Freiheit, komplexere und realistischere Inhalte für unsere Zuschauer zu erstellen.“
Ben Tucker, technischer Leiter, Animation Production Systems Engineering, Netflix
„Für High-End-VR/XR-Anwendungen sind Amazon-EC2-G5-Instances ein entscheidender Faktor. Wir sind in der Lage, professionelle Anwendungen in der für das menschliche Auge typischen Auflösung von Varjo mit der dreifachen Bildrate im Vergleich zu zuvor verwendeten G4dn-Instances auszuführen und bieten unseren Kunden so eine noch nie dagewesene Erlebnisqualität beim Streaming vom Server.“
Urho Konttori, Gründer und Chief Technology Officer, Varjo
Erste Schritte
The AWS Deep Learning AMIs (DLAMI) und AWS Deep Learning Containers (DLC)
AWS Deep Learning AMIs (DLAMI) und AWS Deep Learning Containers (DLC) stellen Datenwissenschaftlern, ML-Praktikern und Forschern Maschinen- und Container-Images zur Verfügung, die mit Deep-Learning-Frameworks vorinstalliert sind, um den Einstieg zu erleichtern, indem Sie den komplizierten Prozess des Erstellens und Optimierens Ihrer Softwareumgebungen von Grund auf einfach überspringen können. Das SynapseAI SDK für die Gaudi-Accelerators ist in die AWS DL AMIs und DLCs integriert, sodass Sie schnell mit DL1-Instances beginnen können.
Amazon Elastic Kubernetes Service (EKS) oder Elastic Container Service (ECS)
Kunden, die es vorziehen, ihre eigenen containerisierten Workloads über Container-Orchestrierungsdienste zu verwalten, können DL1-Instances mit Amazon EKS oder ECS bereitstellen.
Weitere Ressourcen
Habana® Gaudi® v0.15 Dokumentation
Habana®-Forum für Entwickler
Habana®-GitHub-Repository
Ressourcen
NVIDIA A10G Tensor-Core-GPU: Beschleunigte Rechen- und Grafikleistung für die AWS Cloud
Erste Schritte mit AWS
Für ein AWS-Konto registrieren
Sie erhalten sofort Zugriff auf das kostenlose Kontingent für AWS.
Erfahren Sie mehr in unseren 10-minütigen Tutorials
Entdecken und lernen Sie mit einfachen Tutorials.
Beginnen Sie mit der Entwicklung in der Konsole
Erstellen Sie mithilfe von schrittweisen Anleitungen AWS-Projekte.