Nvidia anunció una serie de nuevos productos en su evento para desarrolladores el 18 de marzo para consolidar su posición en el mercado de la inteligencia artificial (IA). El precio de las acciones del fabricante de chips se ha multiplicado por 54 y sus ingresos se han más que triplicado desde que ChatGPT inició la carrera global de la IA a finales de 2022. Las GPU de servidor de alta gama de Nvidia son cruciales para el entrenamiento y la implementación de grandes modelos de lenguaje, y empresas como Microsoft y Meta invierten miles de millones de dólares en estos chips.

lgfqkmt7.png
El chip GB200 incluye dos GPU, una CPU y una placa de circuito impreso. (Foto: Nvidia)

Nvidia llama Blackwell a su chip de IA de próxima generación. El primer chip Blackwell, el GB200, estará disponible a finales de este año. Nvidia ofrece a sus clientes chips más potentes para impulsar nuevos pedidos. Los clientes aún están luchando por conseguir el chip H100 Hopper.

“Hopper es genial, pero necesitamos GPU más grandes”, dijo el CEO de Nvidia, Jensen Huang, en el evento.

Junto con el chip Blackwell, Nvidia también presentó el software NIM, que facilita la implementación de la IA. Directivos de Nvidia afirman que la compañía se está convirtiendo más en un proveedor de plataformas, como Apple y Microsoft, que en un proveedor de chips.

"Blackwell no es un chip, es el nombre de una plataforma", afirmó Huang. El vicepresidente de Nvidia, Manuvir Das, prometió que el software NIM ayudaría a los desarrolladores a ejecutar programas en cualquier GPU Nvidia, antigua o nueva, para llegar a más personas.

Blackwell, el "sucesor" de Hopper

Cada dos años, Nvidia actualiza la arquitectura de su GPU, lo que permite obtener nuevas mejoras de rendimiento. Muchos modelos de IA lanzados el año pasado se entrenaron con la arquitectura Hopper, que estará disponible a partir de 2022.

Nvidia afirma que los chips basados en Blackwell, como el GB200, ofrecen un aumento significativo del rendimiento para las empresas de IA, alcanzando 20 petaflops en comparación con los 4 petaflops del H100. Esta potencia de procesamiento permite a las empresas de IA entrenar modelos más grandes y complejos.

8wz8dxva.png
Nvidia GB200 NVLink 2 combina 36 CPU y 72 GPU en un solo rack. (Imagen: Nvidia)

La GPU Blackwell es grande y combina dos matrices fabricadas por separado en un solo chip. También está disponible como un servidor completo llamado GB200 NVLink 2, que combina 72 GPU Blackwell y otros componentes de Nvidia diseñados para entrenar modelos de IA.

Amazon, Google, Microsoft y Oracle venderán acceso al GB200 a través de servicios en la nube. El GB200 combina dos GPU Blackwell B200 con una CPU Grace. Nvidia anunció que Amazon Web Services (AWS) construirá un clúster de servidores con 20 000 chips GB200.

El sistema puede ejecutar un modelo de 27 billones de parámetros, mucho mayor que los modelos más grandes disponibles actualmente, como el GPT-4 (1,7 billones de parámetros). Muchos investigadores de IA creen que modelos más grandes, con más parámetros y datos, podrían generar nuevas capacidades.

Nvidia no ha anunciado el precio del nuevo GB200 ni de los sistemas que lo incluyen. El H100 de Nvidia, basado en Hopper, cuesta entre 25.000 y 40.000 dólares por unidad, y el sistema completo puede llegar a costar hasta 200.000 dólares, según estimaciones de analistas.

(Según CNBC)