Instans P3 Amazon EC2
Instans P3 Amazon EC2 memberikan komputasi berperforma tinggi di cloud dengan hingga 8 GPU NVIDIA® V100 Tensor Core dan throughput jaringan hingga 100 Gbps untuk machine learning dan aplikasi HPC. Instans ini memberikan hingga satu petaflop performa presisi campuran per instans untuk mempercepat machine learning dan aplikasi komputasi berperforma tinggi secara signifikan. Instans P3 Amazon EC2 telah terbukti mengurangi waktu pelatihan machine learning dari hitungan hari ke menit, serta meningkatkan jumlah simulasi yang diselesaikan untuk komputasi berperforma tinggi sebesar 3-4x.
Dengan bandwidth jaringan instans P3.16xlarge hingga 4x, instans P3dn.24xlarge Amazon EC2 merupakan tambahan terbaru untuk keluarga P3, yang dioptimalkan untuk aplikasi HPC dan machine learning terdistribusi. Instans ini memberikan throughput jaringan hingga 100 Gbps, 96 vCPU Intel® Xeon® Scalable (Skylake) kustom, 8 GPU NVIDIA® V100 Tensor Core dengan memori masing-masing sebesar 32 GiB, dan penyimpanan SSD berbasis NVMe lokal sebesar 1,8 TB. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter (EFA) yang mengakselerasi aplikasi machine learning terdistribusi yang menggunakan NVIDIA Collective Communications Library (NCCL). EFA dapat diskalakan hingga ribuan GPU, secara signifikan meningkatkan throughput dan skalabilitas model pelatihan pembelajaran mendalam, yang akan memberikan hasil yang lebih cepat.
Manfaat
Kurangi waktu pelatihan pembelajaran mesin dari hitungan hari menjadi hitungan menit
Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat aplikasi ML, instans P3 Amazon EC2 adalah yang tercepat di cloud untuk pelatihan ML. Instans P3 Amazon EC2 dilengkapi dengan hingga delapan GPU NVIDIA V100 Tensor Core generasi terbaru dan memberikan hingga satu petaflop performa presisi campuran untuk mempercepat beban kerja ML secara signifikan. Pelatihan model yang lebih cepat memungkinkan ilmuwan data dan perekayasa pembelajaran mesin mengulangi proses dengan lebih cepat, melatih lebih banyak model, dan meningkatkan akurasi.
Solusi paling hemat biaya di industri untuk pelatihan ML
Salah satu instans GPU yang paling tangguh di cloud yang digabungkan dengan paket harga yang fleksibel menghasilkan solusi yang sangat hemat biaya untuk pelatihan pembelajaran mesin. Seperti instans Amazon EC2 secara umum, instans P3 tersedia sebagai Instans Sesuai Permintaan, Instans Cadangan, atau Instans Spot. Instans Spot memanfaatkan kapasitas instans EC2 yang tidak digunakan dan dapat menurunkan biaya Amazon EC2 secara signifikan dengan diskon hingga 70% dari harga Sesuai Permintaan.
Komputasi yang fleksibel, tangguh, dan berkinerja tinggi
Tidak seperti sistem lokal, menjalankan komputasi berkinerja tinggi di instans P3 Amazon EC2 menawarkan kapasitas yang tidak terbatas secara virtual untuk memperluas skala infrastruktur, dan fleksibilitas untuk mengubah sumber daya dengan mudah dan sesering yang diminta oleh beban kerja Anda. Anda dapat mengonfigurasi sumber daya untuk memenuhi permintaan aplikasi Anda, dan meluncurkan klaster HPC dalam hitungan menit, dengan membayar hanya sesuai yang Anda gunakan.
Segera mulai membangun
Gunakan citra Docker yang sudah dikemas sebelumnya untuk menerapkan lingkungan deep learning dalam hitungan menit. Citra tersebut berisi pustaka kerangka kerja deep learning yang diperlukan (saat ini TensorFlow dan Apache MXNet) serta alat-alat dan telah sepenuhnya diuji. Anda dapat dengan mudah menambahkan pustaka dan alat Anda sendiri pada citra tersebut untuk tingkat kontrol yang lebih tinggi atas pemantauan, kepatuhan, dan pemrosesan data. Selain itu, instans P3 Amazon EC2 bekerja tanpa hambatan dengan Amazon SageMaker untuk memberikan platform machine learning lengkap yang kuat dan intuitif. Amazon SageMaker merupakan platform pembelajaran mesin yang dikelola secara penuh yang memungkinkan Anda membangun, melatih, dan menerapkan model pembelajaran mesin dengan cepat dan mudah. Selain itu, instans P3 Amazon EC2 dapat diintegrasikan dengan Amazon Machine Image (AMI) AWS Deep Learning yang diinstal sebelumnya dengan kerangka kerja deep learning populer. Cara ini akan mempercepat dan mempermudah untuk memulai dengan pelatihan dan inferensi pembelajaran mesin.
Pelatihan pembelajaran mesin multi-node yang dapat diskalakan
Anda dapat menggunakan instans P3 Amazon EC2 dengan throughput jaringan hingga 100 Gbps untuk melatih model pembelajaran mesin dengan cepat. Throughput jaringan yang lebih tinggi memungkinkan pengembang mengatasi kemacetan transfer data dan secara efisien memperluas skala tugas pelatihan model mereka di beberapa instans P3. Pelanggan dapat melatih ResNet-50, model klasifikasi gambar umum, sesuai akurasi standar industri hanya dalam 18 menit menggunakan 16 instans P3. Tingkat performa ini sebelumnya tidak dapat tercapai oleh sebagian besar pelanggan ML karena memerlukan investasi CapEx yang besar untuk membangun klaster GPU lokal. Dengan instans P3 dan ketersediaannya melalui model penggunaan Sesuai Permintaan, tingkat performa ini kini dapat diakses oleh semua developer dan teknisi pembelajaran mesin. Selain itu, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang menggunakan NVIDIA Collective Communications Library (NCCL) untuk meningkatkan skala hingga ribuan GPU.
Dukungan untuk semua kerangka kerja pembelajaran mesin utama
Instans P3 Amazon EC2 mendukung semua kerangka kerja pembelajaran mesin utama termasuk TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon, dan Torch. Anda memiliki fleksibilitas untuk memilih kerangka kerja yang berfungsi paling baik untuk aplikasi Anda.
Kisah pelanggan
Airbnb menggunakan pembelajaran mesin untuk mengoptimalkan rekomendasi pencarian dan meningkatkan panduan harga dinamis untuk host, yang keduanya berarti peningkatan konversi pemesanan. Dengan instans P3 Amazon EC2, Airbnb dapat menjalankan beban kerja pelatihan yang lebih cepat, melalui lebih banyak iterasi, membangun model pembelajaran mesin yang lebih baik, dan mengurangi biaya.
Celgene adalah sebuah perusahaan bioteknologi global yang sedang mengembangkan terapi bertarget yang sesuai dengan perawatan pasien. Perusahaan ini menjalankan berbagai beban kerja HPC mereka untuk pengurutan genomik dan simulasi kimiawi generasi berikutnya di instans P3 Amazon EC2. Dengan ketangguhan komputasi ini, Celgene dapat melatih model deep learning untuk membedakan sel-sel ganas dan sel-sel jinak. Sebelum menggunakan instans P3, menjalankan tugas komputasional berskala besar yang sebelumnya perlu waktu dua bulan kini hanya perlu waktu empat jam. Teknologi AWS telah memungkinkan Celgene untuk mempercepat pengembangan terapi obat-obatan untuk penyakit kanker dan peradangan.
Hyperconnect memiliki keahlian dalam menerapkan teknologi baru berbasis pembelajaran mesin untuk pada pemrosesan gambar dan video, serta merupakan perusahaan pertama yang mengembangkan webRTC untuk platform seluler.
“Hyperconnect menggunakan klasifikasi gambar berbasis AI pada aplikasi komunikasi videonya untuk mengenali lingkungan tempat pengguna berada saat ini. Kami mengurangi waktu pelatihan model ML dari satu pekan lebih menjadi kurang dari satu hari dengan memigrasi dari tempat kerja lokal ke sejumlah instans P3 Amazon EC2 menggunakan Horovod. Dengan menggunakan PyTorch sebagai kerangka kerja pembelajaran mesin, kami mampu mengembangkan model dengan cepat dan memanfaatkan pustaka yang tersedia di komunitas sumber terbuka.”
Sungjoo Ha, Director of AI Lab - Hyperconnect
NerdWallet adalah startup keuangan pribadi yang menyediakan alat dan saran yang memudahkan nasabah dalam membayar utang, memilih produk dan layanan keuangan terbaik, serta mencapai tujuan besar dalam hidup seperti membeli rumah atau menabung untuk masa pensiun. Perusahaan ini sangat mengandalkan ilmu data dan pembelajaran mesin (ML) untuk menghubungkan nasabah dengan produk keuangan yang dipersonalisasi.
Penggunaan Amazon SageMaker dan instans P3 Amazon EC2 dengan GPU Tensor Core NVIDIA V100 juga telah meningkatkan fleksibilitas serta kinerja NerdWallet, dan mengurangi waktu yang dibutuhkan para ilmuwan data dalam melatih model ML. “Sebelumnya kami membutuhkan waktu berbulan-bulan untuk meluncurkan dan mengulang model; kini dapat selesai dalam hitungan hari,”
Ryan Kirkman, Senior Engineering Manager - NerdWallet
Instans P3 Amazon EC2 dan Amazon SageMaker
Cara tercepat untuk melatih dan menjalankan model pembelajaran mesin
Amazon SageMaker adalah layanan yang dikelola sepenuhnya untuk membuat, melatih, dan menerapkan model pembelajaran mesin. Pada saat diagunakan dengan instans P3 Amazon EC2, pelanggan dapat menskalakan ke puluhan, ratusan, atau ribuan GPU dengan mudah untuk melatih model dengan cepat pada segala skala tanpa perlu khawatir menyiapkan klaster dan pipeline data. Anda juga dapat mengakses sumber daya Amazon Virtual Private Cloud (Amazon VPC) dengan mudah untuk alur kerja pelatihan dan hosting di Amazon SageMaker. Dengan fitur ini, Anda dapat menggunakan bucket Amazon Simple Storage Service (Amazon S3) yang hanya dapat diakses melalui VPC untuk menyimpan data pelatihan, serta menyimpan dan meng-hosting artefak model yang berasal dari proses pelatihan. Selain S3, model dapat mengakses semua sumber daya AWS lain yang terdapat di VPC. Pelajari selengkapnya.
Bangun
Amazon SageMaker mempermudah untuk membangun model pembelajaran mesin dan menyiapkannya untuk pelatihan. Layanan ini memberikan segala hal yang Anda perlukan untuk tersambung dengan cepat ke data pelatihan Anda, dan untuk memilih serta mengoptimalkan algoritme dan kerangka kerja terbaik untuk aplikasi Anda. Amazon SageMaker meliputi buku catatan Jupyter yang di-host yang memudahkan untuk mengeksplorasi dan memvisualisasikan data pelatihan Anda yang disimpan di Amazon S3. Anda juga dapat menggunakan instans buku catatan untuk menulis kode pembuatan tugas pelatihan model, menerapkan model ke hosting Amazon SageMaker, dan menguji atau memvalidasi model Anda.
Latih
Anda dapat mulai melatih model Anda dengan sekali klik di konsol atau dengan panggilan API. Amazon SageMaker telah dikonfigurasi sebelumnya dengan versi terbaru TensorFlow dan Apache MXNet, dan dengan dukungan pustaka CUDA9 untuk performa optimal dengan GPU NVIDIA. Selain itu, optimalisasi hiper-parameter dapat menyesuaikan model Anda secara otomatis dengan menyesuaikan kombinasi parameter yang berbeda secara cerdas untuk mencapai prediksi yang paling akurat dengan cepat. Untuk keperluan skala yang lebih besar, Anda dapat menskalakan ke puluhan instans untuk mendukung pembuatan model yang lebih cepat.
Terapkan
Setelah pelatihan, Anda dapat menggunakan fitur sekali klik untuk menerapkan model Anda di instans Amazon EC2 auto-scaling di beberapa Availability Zone. Dalam produksi, Amazon SageMaker membantu Anda mengelola infrastruktur komputasi untuk melakukan pemeriksaan kesehatan, menerapkan patch keamanan, dan melakukan perawatan rutin lain, semuanya dengan pemantauan dan pencatatan log Amazon CloudWatch bawaan.
Instans P3 Amazon EC2 dan AMI AWS Deep Learning
Lingkungan pengembangan yang sudah dikonfigurasi sebelumnya untuk mulai membangun aplikasi deep learning dengan cepat
Selain Amazon SageMaker bagi pengembang yang memiliki persyaratan yang lebih terkustomisasi, AMI AWS Deep Learning menyediakan praktisi dan peneliti machine learning dengan infrastruktur dan peralatan guna mempercepat proses deep learning dalam cloud, pada segala skala. Anda dapat dengan cepat meluncurkan instans P3 Amazon EC2 yang telah diinstal sebelumnya dengan kerangka kerja deep learning populer seperti TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon, dan Keras untuk melatih model AI kustom yang canggih, bereksperimen dengan algoritme baru, atau mempelajari keahlian dan teknik baru. Pelajari selengkapnya >>
Instans P3 Amazon EC2 dan komputasi berkinerja tinggi
Atasi masalah komputasi besar dan dapatkan wawasan baru menggunakan keunggulan HPC di AWS
Instans P3 Amazon EC2 merupakan platform yang ideal untuk menjalankan simulasi teknik, keuangan komputasional, analisis seismik, pemodelan molekul, genomik, rendering, dan beban kerja komputasi GPU lainnya. Komputasi performa tinggi (HPC) memungkinkan ilmuwan dan teknisi memecahkan masalah komputasi yang intensif dan kompleks ini. Aplikasi HPC sering kali memerlukan performa jaringan yang tinggi, penyimpanan cepat, memori dalam jumlah besar, kemampuan komputasi tinggi, atau semua yang disebutkan di atas. AWS memungkinkan Anda meningkatkan kecepatan penelitian dan mengurangi waktu-ke-hasil dengan menjalankan HPC di cloud dan penskalaan ke sejumlah besar tugas paralel yang praktis di sebagian besar lingkungan lokal. Misalnya, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang memungkinkan aplikasi HPC menggunakan Message Passing Interface (MPI) untuk meningkatkan skala hingga ribuan GPU. AWS membantu mengurangi biaya dengan menyediakan solusi yang dioptimalkan untuk aplikasi tertentu, dan tanpa perlu investasi modal besar. Pelajari selengkapnya >>
Dukungan untuk Stasiun Kerja Virtual NVIDIA RTX
AMI Stasiun Kerja Virtual NVIDIA RTX memberikan kinerja grafis tinggi menggunakan instans P3 dengan GPU NVIDIA Volta V100 yang berjalan di AWS Cloud. AMI ini memiliki perangkat lunak grafis GPU NVIDIA terbaru yang diinstal sebelumnya bersama dengan driver RTX dan sertifikasi NVIDIA ISV yang mendukung resolusi desktop hingga empat 4K. Instans P3 dengan GPU NVIDIA V100 yang dikombinasikan dengan vWS RTX memberikan stasiun kerja performa tinggi di cloud dengan memori GPU hingga 32 GiB, ray tracing cepat, dan rendering yang didukung kecerdasan buatan (AI).
AMI baru tersedia di AWS Marketplace serta mendukung Windows Server 2016 dan Windows Server 2019.
Instans P3dn.24xlarge Amazon EC2
Ukuran instans yang lebih cepat, lebih tangguh, dan lebih besar yang dioptimalkan untuk machine learning terdistribusi dan komputasi performa tinggi
Instans P3dn.24xlarge Amazon EC2 adalah ukuran instans P3 tercepat, tertangguh, dan terbesar yang tersedia serta memberikan throughput jaringan hingga 100 Gbps, 8 GPU NVIDIA® V100 Tensor Core dengan masing-masing memori sebesar 32 GiB, 96 vCPU Intel® Xeon® Scalable (Skylake) kustom, dan penyimpanan SSD lokal berbasis NVMe sebesar 1,8 TB. Jaringan yang lebih cepat, prosesor yang baru, penggandaan memori GPU, dan vCPU tambahan memungkinkan developer untuk secara signifikan mengurangi waktu untuk melatih model ML mereka atau menjalankan lebih banyak simulasi HPC dengan menskalakan keluar tugas mereka di beberapa instans (misalnya, 16, 32 atau 64 instans). Model machine learning memerlukan data dalam jumlah besar untuk pelatihan dan, selain untuk meningkatkan throughput data yang lewat antar-instans, throughput jaringan tambahan instans P3dn.24xlarge juga dapat digunakan untuk mempercepat akses ke sejumlah data pelatihan dengan menghubungkan ke Amazon S3 atau solusi sistem file bersama seperti Amazon EFS.
Mengatasi bottleneck dan mengurangi waktu pelatihan machine learning
Dengan throughput jaringan sebesar 100 Gbps, developer dapat secara efisien menggunakan instans P3dn.24xlarge dalam jumlah besar untuk pelatihan terdistribusi dan untuk secara signifikan mengurangi waktu dalam melatih model mereka. 96vCPUs prosesor Skylake Intel kustom AWS dengan instruksi AVX-512 yang beroperasi pada 2,5GHz membantu mengoptimalkan pra-pemrosesan data. Selain itu, instans P3dn.24xlarge menggunakan AWS Nitro System, kombinasi perangkat keras khusus dan hypervisor ringan, yang mengirimkan hampir seluruh sumber daya memori dan komputasi perangkat keras host ke instans Anda. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter yang memungkinkan aplikasi ML menggunakan NVIDIA Collective Communications Library (NCCL) untuk menskalakan hingga ribuan GPU.
TCO yang lebih rendah dengan mengoptimalkan utilisasi GPU
Peningkatan jaringan menggunakan versi terbaru Elastic Network Adapter dengan bandwidth jaringan gabungan hingga 100 Gbps tidak hanya dapat digunakan untuk berbagi data di beberapa instans P3dn.24xlarge, tetapi juga untuk akses data throughput tinggi melalui Amazon S3 atau solusi sistem file bersama seperti Amazon EFS. Akses data throughput tinggi sangat penting untuk mengoptimalkan utilisasi GPU dan memberikan performa maksimum instans komputasi.
Mendukung model yang lebih besar dan lebih kompleks
Instans P3dn.24xlarge menawarkan GPU NVIDIA V100 Tensor Core dengan memori 32GiB yang memberikan fleksibilitas untuk melatih model machine learning yang lebih canggih dan lebih besar serta memproses batch data yang lebih besar seperti gambar 4k untuk sistem klasifikasi gambar dan deteksi objek.
Detail produk Instans P3 Amazon EC2
Ukuran Instans | GPU – Tesla V100 | Peer to Peer GPU | Memori GPU (GB) | vCPU | Memori (GB) | Bandwidth Jaringan | Bandwidth EBS | Harga Sesuai Permintaan/jam* | Instans Cadangan 1 Tahun Efektif Per Jam* | Instans Cadangan 3 Tahun Efektif Per Jam* |
---|---|---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | N/A | 16 | 8 | 61 | Hingga 10 Gbps | 1,5 Gbps | 3,06 USD | 1,99 USD | 1,05 USD |
p3.8xlarge | 4 |
NVLink | 64 | 32 | 244 | 10 Gbps | 7 Gbps | 12,24 USD | 7,96 USD | 4,19 USD |
p3.16xlarge | 8 | NVLink | 128 | 64 | 488 | 25 Gbps | 14 Gbps | 24,48 USD | 15,91 USD | 8,39 USD |
p3dn.24xlarge | 8 | NVLink | 256 | 96 | 768 | 100 Gbps | 19 Gbps | 31,218 USD | 18,30 USD | 9,64 USD |
* - Harga yang ditampilkan adalah untuk Linux/Unix di Wilayah AWS AS Timur (Virginia Utara) dan dibulatkan ke sen terdekat. Untuk detail harga lengkap, lihat halaman harga Amazon EC2.
Pelanggan dapat membeli instans P3 sebagai Instans Sesuai Permintaan, Instans Terpesan, Instans Spot, dan Host Khusus.
Penagihan menurut detik
Salah satu kelebihan komputasi cloud adalah sifat penyediaan dan pembatalan penyediaan sumber daya yang elastis sesuai kebutuhan Anda. Dengan menagih penggunaan menurut detik penggunaan, kami memungkinkan pelanggan menyesuaikan elastisitas mereka, menghemat biaya, dan memungkinkan mereka mengoptimalkan alokasi sumber daya untuk mencapai sasaran pembelajaran mesin.
Harga Instans Cadangan
Instans Terpesan memberi Anda diskon yang signifikan (hingga 75%) dibandingkan dengan harga Instans Sesuai Permintaan. Selain itu, ketika Instans Terpesan ditetapkan pada Availability Zone tertentu, Instans tersebut menyediakan pencadangan kapasitas, sehingga Anda semakin yakin pada kemampuan Anda untuk meluncurkan instans saat Anda memerlukannya.
Harga Spot
Dengan Instans Spot, Anda membayar harga Spot yang berlaku untuk periode waktu berjalannya instans Anda. Harga Instans Spot diatur oleh Amazon EC2 dan disesuaikan secara bertahap berdasarkan tren jangka panjang dalam persediaan dan permintaan untuk kapasitas Instans Spot. Instans Spot tersedia dengan diskon hingga 90% jika dibandingkan dengan harga Sesuai Permintaan.
Ketersediaan global terluas
Instans P3.2xlarge, P3.8xlarge, dan P3.16xlarge Amazon EC2 tersedia di 14 Wilayah AWS sehingga pelanggan memiliki fleksibilitas untuk melatih dan menerapkan model pembelajaran mesin di mana pun data mereka disimpan. Wilayah yang tersedia untuk P3 adalah Wilayah AWS AS Timur (Virginia U.), AS Timur (Ohio), AS Barat (Oregon), Kanada (Pusat), Eropa (Irlandia), Eropa (Frankfurt), Eropa (London), Asia Pasifik (Tokyo), Asia Pasifik (Seoul), Asia Pasifik (Sydney), Asia Pasifik (Singapura), Tiongkok (Beijing), Tiongkok (Ningxia), dan GovCloud (AS Barat).
Instans P3dn.24xlarge tersedia di wilayah AWS Asia Pasifik (Tokyo), Eropa (Irlandia), AS Timur (Virginia U.), AS Barat (Oregon), GovCloud (AS Barat), dan GovCloud (AS Timur).
Mulai menggunakan instans P3 Amazon EC2 untuk pembelajaran mesin
Untuk memulai dalam hitungan menit, pelajari selengkapnya tentang Amazon SageMaker atau gunakan AMI AWS Deep Learning, yang telah diinstal sebelumnya dengan kerangka kerja pembelajaran mendalam seperti Caffe2 dan MXNet. Atau, Anda juga dapat menggunakan AMI NVIDIA dengan driver GPU dan toolkit CUDA yang telah diinstal sebelumnya.
Blog, Artikel, dan Webinar
Tanggal Siaran: 19 Desember 2018
Tingkat: 200
Visi komputer berkaitan dengan bagaimana komputer dapat dilatih guna memperoleh pemahaman tingkat tinggi dari gambar atau video digital. Sejarah visi komputer berasal dari tahun 1960-an, tetapi kemajuan terbaru dalam teknologi pemrosesan telah memungkinkan aplikasi seperti navigasi kendaraan otonom. Bincang-bincang teknologi ini akan meninjau berbagai langkah yang diperlukan untuk membangun, melatih, dan menerapkan model pembelajaran mesin untuk visi komputer. Kami akan membandingkan dan membedakan pelatihan model visi komputer menggunakan berbagai instans Amazon EC2 dan menyoroti bagaimana penghematan waktu dapat dicapai dengan menggunakan instans P3 Amazon EC2.
Tanggal Siaran: 31 Juli 2018
Tingkat 200
Organisasi menangani pertanyaan kompleks secara eksponensial di bidang ilmiah, energi, teknologi tinggi, dan medis lanjutan. Machine learning (ML) memungkinkan untuk mengeksplorasi banyak skenario dengan cepat dan menghasilkan jawaban terbaik, mulai dari gambar, video, dan pengenalan suara hingga sistem kendaraan otonom serta prediksi cuaca. Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat pengembangan aplikasi ML, instans P3 Amazon EC2 adalah instans komputasi GPU yang paling kuat, hemat biaya, dan serbaguna yang tersedia di cloud.
Tentang Amazon SageMaker
Tentang Deep Learning di AWS
Tentang Komputasi Berperforma Tinggi (HPC)