Jakarta – Nvidia meluncurkan dua chip dengan artificial intelligence/AI (kecerdasan buatan) yakni Blackwell B200 dan GB200. B200 memberikan kemampuan komputasi hingga 20 petaflops FP4yang dihasilkan dari 208 miliar transistor.
Untuk GB200 mengkombinasikan dua buah B200 menjadi sebuah CPU Grace yang menawarkan performa 30x lebih kencang.
Lagkah ini untuk komputasi large language model (LLM) inference dan menjaga konsumsi dayanya yang diklaim 25x lebih hemat dibanding H100.
Nvidia melatih 1,8 triliun parameter sebelumnya membutuhkan sekitar 8.000 GPU Hopper dan mengkonsumsi 15 megawatt (MW). Kini 2000 GPU Blackwell bisa melakukan hal yang sama dengan konsumsi daya hanya 4 MW.
Untuk LLM GPT-3 dengan 175 miliar parameter dimiliki GB200 berupa performa tujuh kali lebih kencang dibanding H100. Pelatihannya juga membutuhkan waktu empat kali lebih cepat,
Keunggulan utama B200 dan GB200 adalah engine transformer generasi kedua yang punya kemampuan komputasi, bandwidth, dan ukuran model dua kali lebih besar.
Kemudian, saat penggunanya bisa menghubungkan Graphic Processing Unit (GPU ) dengan switch NVLink generasi baru bisa menyambungkan hingga 576 GPU sekaligus, dengan bandwidth hingga 1,8 Terra Byte (TB) per detik.
Menurut Nvidia, Amazon, Google, Microsoft, dan Oracle sudah berencana untuk menawarkan rak NVL72 di layanan cloud servicenya. Namun, berapa banyak chip Blackwell yang akan dipesan belum diketahui secara pasti.
Sistem Blackwell didesain agar bisa dioperasikan dalam jumlah besar hingga puluhan ribu chip GB200. Hal ini terhubung dengan jaringan 800Gbps di Quantum-X800 InfiniBand (hingga 144 sambungan), atau Spectrum-x800 ethernet (hingga 64 sambungan). (adm)
Sumber: detik.com