Mengutip data dari Boston Consulting Group, Barron's menyatakan bahwa pusat data akan mengonsumsi 7,5% dari seluruh listrik yang tersedia di AS pada tahun 2030. Pusat data yang dibangun untuk sistem AI dapat mengonsumsi ratusan megawatt listrik per fasilitas, sehingga sistem pasokan daya tidak akan lagi mampu mengimbangi pertumbuhan pesat jumlah pusat data.
Permintaan energi yang besar untuk melayani server AI
Menurut analisis, dari tahun 2022 hingga 2030, konsumsi energi pusat data di AS akan meningkat dari 126 menjadi 390 terawatt jam, yang akan cukup untuk memasok 40 juta rumah tangga AS.
650 Group memperkirakan volume sistem server yang memenuhi kebutuhan AI akan meningkat enam kali lipat dari tahun lalu hingga 2028, menjadi 6 juta unit. Menurut perkiraan Gartner, konsumsi daya rata-rata server akselerator akan meningkat dari 650W menjadi 1.000W.
Konsumsi energi akan meningkat tidak hanya karena peningkatan jumlah server tetapi juga karena kondisi yang ada. Upaya untuk mengoptimalkan biaya energi dengan mengintegrasikan AI ke dalam pengendalian konsumsi energi akan membantu membatasi tren ini, tetapi tidak akan sepenuhnya menyelesaikan masalah. Transisi ke sistem pendingin cair pada sistem server tidak dapat dihindari dalam banyak kasus. Menurut Super Micro, biaya operasional pusat data dapat dikurangi lebih dari 40% dengan beralih dari sistem pendingin udara tradisional ke pendingin cair.
Masalah ini diperparah oleh pembangunan jaringan listrik yang tidak merata di kawasan tersebut. Selain itu, tidak semua lokasi dapat menyalurkan listrik yang dihasilkan secara efisien ke lokasi-lokasi sistem yang mengonsumsi energi dalam jumlah besar. Para ahli mengatakan bahwa AS menghasilkan listrik yang cukup untuk mendukung pengembangan sistem AI, tetapi terdapat masalah dengan jaringan distribusi.
[iklan_2]
Tautan sumber
Komentar (0)