Amazon-EC2-G5g-Instances

Die beste Preisleistung in Amazon EC2 für Android Game Streaming

Warum Amazon-EC2-G5g-Instances?

Amazon-EC2-G5g-Instances werden mit AWS-Graviton2-Prozessoren betrieben und verfügen über NVIDIA-T4G-Tensor-Core-GPUs, um die beste Preisleistung in Amazon EC2 für Grafik-Workloads wie beispielsweise Android Game Streaming zu bieten. Sie sind die ersten Arm-basierten Instances in einer großen Cloud, die über GPU-Beschleunigung verfügen.

Mit G5g-Instances können Game-Streaming-Kunden Android-Spiele nativ auf Arm-basierten Instances ausführen, die gerenderten Grafiken codieren und das Spiel über das Netzwerk auf ein Mobilgerät streamen. Dies reduziert den Entwicklungsaufwand, da keine Cross-Compilation oder Emulation erforderlich ist, und senkt die Kosten pro Stream pro Stunde um bis zu 30 %.

Die G5g-Instances sind auch eine kostengünstige Plattform für Machine-Learning-Inferenz. Sie eignen sich ideal für die Bereitstellung von Deep-Learning-Anwendungen, die Zugriff auf NVIDIA-GPUs und die zugehörigen KI-Bibliotheken benötigen.

Wir stellen vor: Amazon-EC2-G5g-Instances, Powered by AWS Graviton2

Vorteile

Mit G5g-Instances können Game-Streaming-Kunden Android-Spiele nativ auf Arm-basierten Instances ausführen, die gerenderten Grafiken codieren und das Spiel über das Netzwerk auf ein Mobilgerät streamen, ohne dass eine Cross-Compilation oder Emulation erforderlich ist. Dies trägt dazu bei, den Entwicklungsaufwand zu vereinfachen und die Markteinführungszeit zu verkürzen, während gleichzeitig die Kosten pro Stream pro Stunde um bis zu 30 % gesenkt werden.

G5g-Instances werden mit AWS-Graviton2-Prozessoren betrieben und verfügen über NVIDIA-T4G-Tensor-Core-GPUs, um kostengünstige Machine-Learning-Inferenz bereitzustellen. Dies trägt dazu bei, die Infrastrukturkosten für die Ausführung von Deep-Learning-Modellen in der Produktion zu senken, und ermöglicht es Entwicklern und Unternehmen, Deep-Learning-Funktionen in ihren Anwendungen umfassender einzusetzen.

G5g-Instances werden mit AWS-Graviton2-Prozessoren betrieben und basieren auf dem AWS Nitro System. AWS-Graviton2-Prozessoren bieten eine permanente 256-Bit-DRAM-Verschlüsselung und eine um 50 % schnellere Leistung pro Kernverschlüsselung als AWS Graviton der ersten Generation. Das AWS Nitro System ist eine Kombination aus dedizierter Hardware und leichtgewichtigem Hypervisor, die zur Verbesserung der Gesamtleistung und Sicherheit praktisch alle Rechen- und Speicherressourcen der Host-Hardware für Ihre Instances bereitstellt. G5g-Instances unterstützen standardmäßig auch verschlüsselte EBS-Speichervolumes.

AWS-Graviton-Prozessoren, die auf der 64-Bit-Arm-Architektur basieren, werden von gängigen Linux-Betriebssystemen unterstützt, darunter Red Hat Enterprise Linux, SUSE und Ubuntu. Viele beliebte Anwendungen und Services für Sicherheit, Überwachung und Verwaltung, Container und CI/CD von AWS und unabhängigen Softwareanbietern (ISVs) unterstützen ebenfalls AWS-Graviton2-basierte Instances.

Funktionen

AWS-Graviton2-Prozessoren basieren auf 64-Bit-Arm-Neoverse-Kernen und benutzerdefinierten Halbleitern, die von AWS für optimierte Leistung und Kosten entwickelt wurden. AWS-Graviton2-Prozessoren bieten im Vergleich zu AWS-Graviton-Prozessoren der ersten Generation eine 7-fach höhere Leistung, eine 4-fach höhere Anzahl von Rechenkernen, 5-fach schnelleren Arbeitsspeicher und 2-fach größere Caches.

NVIDIA-T4G-GPUs bieten in Kombination mit AWS-Graviton2-Prozessoren eine verbesserte Grafik- und Gaming-Leistung. Dank der Unterstützung der NVIDIA-RTX-Technologie durch RT-Kerne ermöglichen sie Raytracing-Rendering in Echtzeit und liefern fotorealistische Objekte und Umgebungen mit physikalisch genauen Schatten, Reflexionen und Brechungen.

Das AWS Nitro System ist eine umfangreiche Sammlung von Modulbausteinen, die viele der herkömmlichen Virtualisierungsfunktionen auf spezielle Hard- und Software auslagern, sodass hohe Leistung, Verfügbarkeit und Sicherheit bei gleichzeitig geringerem Virtualisierungsaufwand gewährleistet werden.

Produktdetails

Instance-Name NVIDIA T4G Tensor Core GPU GPU-Speicher (GB) vCPUs Speicher (GB) EBS-Bandbreite (Gbit/s) Netzwerkbandbreite (Gbit/s) On-Demand-Preis/Std.* 1 Jahr gültiger ISP pro Stunde (Linux) 3 Jahre gültiger ISP pro Stunde (Linux)
g5g.xlarge 1 16 4 8 Bis zu 3,5 Bis zu 10 0,42 0,252 0,168
g5g.2xlarge 1 16 8 16 Bis zu 3,5 Bis zu 10 0,556 0,334 0,222
g5g.4xlarge 1 16 16 32 Bis zu 3,5 Bis zu 10 0,828 0,497 0,331
g5g.8xlarge 1 16 32 64 9 12 1,372 0,823 0,549
g5g.16xlarge 2 32 64 128 19 25 2,744 1,646 1,098
g5g.metal 2 32 64 128 19 25 2,744 1,646 1,098

Kundenempfehlungen

Hier sind einige Beispiele dafür, wie Kunden und Partner ihre Ziele in Bezug auf geschäftliche Agilität, Preis-Leistung, Kosteneinsparungen und Nachhaltigkeit mit Amazon EC2 G5g-Instances erreicht haben.

  • now.gg

    Bei now.gg wollen wir Handyspielern unabhängig von den Hardware-Spezifikationen ihres Smartphones die besten Erlebnisse bieten“, sagte Rosen Sharma, President and CEO von now.gg. „Es gibt zwei Herausforderungen, wenn es darum geht, einen cloudbasierten mobilen Gaming-Service anzubieten. Die erste Herausforderung ist technischer Natur: Für mobiles Gaming benötigt man leistungsstarke GPUs und Arm-basierte CPUs, die zusammenarbeiten. Die zweite Herausforderung besteht darin, mobile Spiele zu einem Preis anbieten zu können, der das Geschäft rentabel macht. Amazon-EC2-G5g-Instances sind in diesen beiden Dimensionen ein großer Fortschritt, und wir haben eng mit AWS zusammengearbeitet, um NowCloudOS auf G5g-Instances auszuführen, um diese Vorteile für mobile Spiele zu nutzen.

    Rosen Sharma, Vorstandsvorsitzender und CEO – now.gg
  • Modulate

    Sprach-Chats in Videospiel-Communities sind für Sozialisation und Engagement unerlässlich, leiden jedoch unter einer weit verbreiteten Toxizität, die den Spielern schadet und die Kundenabwanderung erhöht. Modulate nutzt Machine Learning, um Belästigungen und andere Schäden in Live-Sprachgesprächen proaktiv zu erkennen und so einen sichereren und inklusiveren Ort zum Spielen für Gamer zu schaffen. Amazon-EC2-G5g-Instances sind ein unverzichtbares Rückgrat für die Fähigkeit von Modulate, kostengünstige Sprachmoderationstechnologie in Echtzeit anzubieten, und haben unsere Machine-Learning-Inferenzkosten um bis zu 70 % gesenkt.

    Carter Huffman, CTO and Co-Founder – Modulate
  • Arm

    Die Entwicklung eingebetteter Software für softwaredefinierte Funktionen in der Automobilindustrie wie ADAS, autonomes Fahren und Infotainment steht vor Herausforderungen. Die Unterschiede zwischen der Entwicklungsumgebung und dem Edge verlangsamen Innovationen und die Markteinführungszeit, da der Software-Stack zwischen den Hardwareplattformen übergreifend kompiliert und erneut validiert werden muss. Durch den Einsatz des SOAFEE-Frameworks, das auf Amazon-EC2-G5g-Instances läuft und mit Arm-basierten Graviton2-CPUs und Nvidia-T4G-Tensor-Core-GPUs betrieben wird, können Automobilentwickler sicher sein, dass eine enge Abstimmung oder Umgebungs-Übereinstimmung zwischen Auto und Cloud herrscht.

    John Heinlein, Vice President, Automotive Partnerships – Nordamerika, Arm
  • Canonical

    Canonical hat die Anbox Cloud Appliance im AWS Marketplace eingeführt, um Entwicklern eine einfache Möglichkeit zu bieten, Android in der Cloud zu prototypisieren, zu entwickeln und auszuführen. Anbox Cloud unterstützt jetzt Amazon-EC2-G5g-Instances und bietet eine Komplettlösung, die nahtlos mit dem Android-Softwarestack zusammenarbeitet, um mobile Apps, einschließlich Spiele, zu virtualisieren und sie sicher und skaliert auf mobile Geräte zu streamen. Mit Anbox Cloud und G5g-Instances können Kunden bis zu 55 einzelne Sitzungen mit 720 p und 30 Bildern pro Sekunde streamen, und das bei bis zu 20 % niedrigeren Kosten als bei vergleichbaren x86-basierten GPU-Instances.

    Simon Fels, Engineering Manager for Anbox – Canonical
  • Corellium

    Die Herausforderung bei der Entwicklung von Software für mobile Geräte besteht darin, dass physische Geräte nicht skalierbar sind, Emulatoren jedoch nicht die gleiche Leistung oder Genauigkeit bieten. Corellium erstellt virtuelle Modelle von Arm-basierten Geräten und führt sie auf Arm-basierten Servern in der Cloud aus. Mit Amazon-EC2-G5g-Instances können mobile Entwickler die Corellium-Software nutzen, um Arm-native virtuelle Android-Geräte zu erstellen, die die Genauigkeit und Leistung eines echten Geräts mit dem Komfort und der Skalierbarkeit der Cloud kombinieren.

    Chris Wade, CTO – Corellium
  • Genymobile

    Genymobile bietet Genymotion, eine Android-as-a-Service-Lösung zu einem erschwinglichen Preis. Mit der Veröffentlichung der Amazon-EC2-G5g-Instances sind wir in der Lage, noch einen Schritt weiter zu gehen und Entwicklern eine Arm-native Umgebung mit Hardwarebeschleunigung zur Verfügung zu stellen, die GPU-beschleunigtes Rendern und Videokodieren ermöglicht. Genymotion auf G5g ist unser bisher schnellstes und genauestes Android-Image. Darüber hinaus ermöglicht uns unsere Implementierung mit geringem Ressourcenbedarf, über 60 virtuelle Geräte-Instances auf einem einzigen G5g-Server auszuführen!

    Jean-Charles Leneveu, Product Manager – Genymobile
  • Tier IV

    Tier IV ist der führende Entwickler von Autoware, der weltweit ersten Open-Source-Software für autonomes Fahren. Im Rahmen unseres CI/CD-Loops waren wir bisher darauf beschränkt, die Leistung unseres Yolo4-Machine-Learning-Modells auf unserer ROScube-Hardware im Auto zu bewerten. Dadurch wurde die Anzahl der Simulationen, die gleichzeitig ausgeführt werden konnten, eingeschränkt. Da G5g-Instances über den Arm-basierten Graviton2-Prozessor und die GPUs verfügen, können wir diese Instances nutzen, um unsere CI/CD-Pipeline zu skalieren und deutlich mehr Simulationsiterationen gleichzeitig durchzuführen, mit einer beispiellosen Übereinstimmung zwischen der Cloud und eingebetteten Systemen.

    Eiji Sekiya, Director of Engineering, Tier IV
  • Ready Player One

    Bei WePlay wollen wir eine cloudnative, dezentrale und durch Charakter identifizierbare virtuelle Welt aufbauen. Wir sind eine Cloud-Gaming-Plattform, aber nicht nur eine Cloud-Gaming-Plattform. Wir nutzen Cloud-Gaming-Technologie, um allen Handyspielern ein beispielloses soziales Erlebnis zu bieten. Die größte Herausforderung, auf die wir gestoßen sind, war die Kompatibilität von Arm-basierten apk-Dateien mit den heute verfügbaren x86-basierten GPU-fähigen Instances. Arm-basierte Dateien in x86 zu übersetzen und sie auf x86-Instances auszuführen, ist nicht nur kostspieliger, sondern auch ineffektiver. Mit den g5g-Instances können wir Android-Spiele nativ ohne Übersetzungsebene ausführen. Wir haben unsere Kosten im Vergleich zum g4dn um etwa 30 % gesenkt.

    Adrian Wang, CEO – Ready Player One Tech

Datenblatt

NVIDIA-T4G-Tensor-Core-GPU: Beschleunigte Grafik und KI für die ARM-basierte AWS Cloud

Weitere Informationen

AWS On Air mit Amazon-EC2-G5g-Instances

Erste Schritte mit G5g-Instances

Mit Amazon-Deep-Learning-AMIs können Sie schnell Amazon-EC2-Instances starten, die mit beliebten Deep-Learning-Frameworks und -Schnittstellen wie TensorFlow und PyTorch vorinstalliert sind, um anspruchsvolle, benutzerdefinierte KI-Modelle auszuführen, mit neuen Algorithmen zu experimentieren oder um neue Fähigkeiten und Techniken erlernen. Weitere Informationen finden Sie auf der Produktseite für Amazon Deep Learning AMIs.

Das NVIDIA-Deep-Learning-AMI im AWS Marketplace ist mit allen erforderlichen NVIDIA-Treibern, Bibliotheken und Abhängigkeiten vorkonfiguriert, um Arm-fähige Software aus dem NGC-Katalog, NVIDIAs Zentrum für GPU-optimierte Software, auszuführen. Erfahren Sie mehr über die Verwendung des NGC-Katalogs von NVIDIA in AWS.

Die NVIDIA-Rechenzentrum-Treiber bieten die beste Leistung für hochintensive Rechenworkloads, die häufig in Deep Learning, Datenwissenschaft und High Performance Computing (HPC) zu finden sind. Um zu erfahren, wie Sie diese Treiber auf Ihrer Instance installieren, klicken Sie hier.