Chip baru ini, yang disebut H200, akan melampaui chip unggulan Nvidia saat ini, H100. Peningkatan utama chip baru ini adalah memori bandwidth yang lebih tinggi, yang merupakan salah satu komponen termahal dari chip dan menentukan kecepatan pemrosesan datanya.
Chip H200 Nvidia akan menangani sistem kecerdasan buatan yang lebih besar
Nvidia saat ini memonopoli pasar chip AI, memasok chip untuk layanan ChatGPT OpenAI dan sejumlah layanan AI yang menghasilkan respons mirip manusia. Penambahan memori bandwidth tinggi dan koneksi yang lebih cepat ke elemen pemrosesan chip berarti layanan seperti ChatGPT dapat merespons lebih cepat, menurut Reuters.
H200 memiliki memori bandwidth tinggi sebesar 141 gigabita (GB), meningkat dari 80GB pada chip H100 sebelumnya. Nvidia tidak mengungkapkan pemasok memori untuk chip baru ini, tetapi Micron Technology mengatakan pada bulan September bahwa mereka sedang berupaya untuk menjadi pemasok bagi Nvidia.
Nvidia lebih lanjut mengungkapkan bahwa Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi penyedia layanan cloud pertama yang memanfaatkan chip H200, selain penyedia layanan cloud AI profesional seperti CoreWeave, Lambda, dan Vultr.
Microsoft meluncurkan chip AI
[iklan_2]
Tautan sumber
Komentar (0)