Amazon EC2 P2 インスタンスは、GPU ベースの並列コンピューティング機能を備えた、強力でスケーラブルなインスタンスです。グラフィック要件が高いお客様は、G2 インスタンスの詳細をご覧ください。
P2 インスタンスは、CUDA や OpenCL を使用する汎用 GPU コンピューティング用途向けに設計されており、機械学習、高性能データベース、計算流体力学、金融工学、地震解析、分子モデリング、ゲノミクス、レンダリング、および非常に高い並列浮動小数点数処理能力を必要とするその他のサーバー側ワークロードに最適です。
Amazon Linux AMI には Caffe や Mxnet といった一般的な深層学習フレームワークが事前にインストールされており、すぐに使用を開始できます。また、NVIDIA AMI には GPU ドライバーや CUDA ツールキットが事前にインストールされており、これを使用して移行時間を短縮することもできます。
強力なパフォーマンス
P2 インスタンスでは、最大で 16 個の NVIDIA K80 GPU、64 個の vCPU、および 732 GiB のホストメモリを、192 GB の GPU メモリ、4 万件の並列処理コア、70 テラフロップの単精度浮動小数点数演算、および 23 テラフロップスを超える倍精度浮動小数点数演算と組み合わせて利用できます。また、最大 16 個の GPU 間で GPUDirect™ (ピアツーピアの GPU 通信) 機能を利用できるため、1 つのホスト内で複数の GPU を連携できます。
スケーラブル
Amazon EC2 で利用できる ENA ベースの拡張ネットワーキングを使うと、スケールアウトするように P2 インスタンスをクラスター化できるため、高性能でレイテンシーが低いコンピューティンググリッドとして運用できます。P2 はほぼ 100% の効率でスケールアウトできるため、MXNet といった分散型の深層学習フレームワークに適しています。
名称 |
GPU |
vCPU |
RAM (GiB) |
ネットワーク 帯域幅 |
価格/時間* |
RI の価格/時間** |
p2.xlarge |
1 |
4 |
61 |
高 |
0.900 USD |
0.425 USD |
p2.8xlarge |
8 |
32 |
488 |
10 Gbps |
7.200 USD |
3.400 USD |
p2.16xlarge |
16 |
64 |
732 |
20 Gbps |
14.400 USD |
6.800 USD |
* 米国東部 (バージニア北部) および米国西部 (オレゴン) の価格です。
**一部前払いで 3 年契約の RI の価格です。
T2 を無料でお試しください
まずは無料で始めるAWS の無料利用枠には毎月 750 時間分の Linux および Windows の t2.micro インスタンスが含まれ、AWS の新規顧客に 1 年間提供されます。無料利用枠内に抑えるには、t2.micro インスタンスのみを使用してください。