Akselerator AI Intel® Gaudi®
Prosesor inferensi & pelatihan deep learning generasi pertama.
Akselerator AI Intel® Gaudi®
Untuk performa harga terdepan di cloud dan di lokasi
Dengan prosesor AI Intel® Gaudi® generasi pertama, pelanggan mendapatkan manfaat dari alternatif inferensi dan pelatihan performa tinggi yang paling hemat biaya dibandingkan GPU yang sebanding. Ini adalah arsitektur deep learning yang memungkinkan instans AWS DL1 berbasis akselerator AI Intel Gaudi untuk menghadirkan pelatihan performa/harga hingga 40% lebih baik dibandingkan dengan instans berbasis GPU Nvidia yang sebanding. Arsitektur efisien akselerator AI Intel Gaudi juga memungkinkan Supermicro untuk memberi pelanggan keunggulan performa harga yang setara secara signifikan dibandingkan server berbasis GPU dengan Supermicro X12 Server yang dilengkapi akselerator AI Intel Gaudi.
Akselerator AI Intel® Gaudi® di Cloud
Mulai dengan Instans Amazon EC2 DL1 berbasis akselerator AI Intel Gaudi.
Akselerator AI Intel® Gaudi® di Pusat Data
Bangun prosesor AI Intel Gaudi ke pusat data Anda dengan Supermicro.
Apa yang membuat akselerator AI Intel Gaudi sangat efisien?
- Teknologi Proses 16nm
- Mesin perkalian Matriks yang Dioptimalkan DL
- 8 Inti prosesor Tensor yang Dapat Diprogram
- 32 GB Onboard HBM2
- 24 SRAM
- 10 Port Ethernet 100G Terintegrasi
Opsi untuk membangun sistem akselerator AI Intel Gaudi di lokasi
Bagi pelanggan yang ingin membangun sistem di lokasi, kami merekomendasikan Supermicro X12 Server, yang dilengkapi delapan prosesor AI Intel Gaudi. Bagi pelanggan yang ingin mengonfigurasi server mereka sendiri, dengan berbasis akselerator AI Intel Gaudi, kami memberi opsi model referensi, HLS-1 dan HLS-1H.
Untuk informasi lebih lanjut tentang opsi server ini, lihat detail lebih lanjut >
Membuat pengembangan pada akselerator AI Intel Gaudi dengan cepat dan mudah: Perangkat lunak Intel® Gaudi®
Dioptimalkan untuk pengembangan model deep learning dan untuk memudahkan migrasi model berbasis GPU yang ada ke perangkat keras platform AI Intel Gaudi. Perangkat ini mengintegrasikan kerangka kerja PyTorch dan TensorFlow dan mendukung serangkaian visi komputer yang berkembang pesat, pemrosesan bahasa alami, dan model multi-modal. Bahkan, lebih dari 500 ribu model di Hugging Face dapat diaktifkan secara mudah di akselerator Intel Gaudi dengan pustaka perangkat lunak Habana Optimum.
Memulai dengan migrasi model semudah menambahkan 2 baris kode, dan bagi pengguna pakar yang ingin memprogram kernel mereka sendiri, platform Intel Gaudi menawarkan tool-kit lengkap dan pustaka untuk melakukan hal itu juga. Perangkat lunak Intel Gaudi mendukung pelatihan dan inferensi model pada akselerator Intel Gaudi generasi pertama dan akselerator Intel Gaudi 2.
Untuk informasi lebih lanjut tentang bagaimana platform Intel Gaudi memudahkan untuk memigrasikan model yang ada atau membangun model baru di Gaudi, lihat halaman produk perangkat lunak Intel Gaudi kami >