Nvidia kündigte auf seiner Entwicklerveranstaltung am 18. März eine Reihe neuer Produkte an, um seine Position im Markt für künstliche Intelligenz (KI) zu festigen. Der Aktienkurs des Chipherstellers hat sich seit dem Start von ChatGPT im globalen KI-Rennen Ende 2022 um das 54-fache erhöht und der Umsatz mehr als verdreifacht. Nvidias High-End-Server-GPUs sind entscheidend für das Training und die Bereitstellung großer Sprachmodelle. Unternehmen wie Microsoft und Meta investieren Milliarden von Dollar in die Chips.

lgfqkmt7.png
Der GB200-Chip umfasst zwei GPUs, eine CPU und eine Platine. (Foto: Nvidia)

Nvidia nennt seinen KI-Chip der nächsten Generation Blackwell. Der erste Blackwell-Chip, der GB200, wird noch in diesem Jahr erhältlich sein. Nvidia bietet seinen Kunden leistungsstärkere Chips an, um neue Bestellungen anzukurbeln. Kunden reißen sich immer noch um den H100 Hopper-Chip.

„Hopper ist großartig, aber wir brauchen größere GPUs“, sagte Nvidia-CEO Jensen Huang bei der Veranstaltung.

Neben dem Blackwell-Chip stellte Nvidia auch die NIM-Software vor, die den Einsatz von KI erleichtert. Laut Nvidia-Vertretern entwickelt sich das Unternehmen zunehmend zu einem Plattformanbieter wie Apple und Microsoft und weniger zu einem Chiplieferanten.

„Blackwell ist kein Chip, sondern der Name einer Plattform“, sagte Huang. Nvidia-Vizepräsident Manuvir Das versprach, dass die NIM-Software Entwicklern helfen werde, Programme auf jeder Nvidia-GPU, ob alt oder neu, auszuführen, um mehr Menschen zu erreichen.

Blackwell, Hoppers "Nachfolger"

Alle zwei Jahre aktualisiert Nvidia seine GPU-Architektur und ermöglicht so neue Leistungssteigerungen. Viele im letzten Jahr veröffentlichte KI-Modelle wurden auf der Hopper-Architektur trainiert, die ab 2022 verfügbar sein wird.

Laut Nvidia bieten Blackwell-basierte Chips wie der GB200 eine deutliche Leistungssteigerung für KI-Unternehmen und liefern 20 Petaflops im Vergleich zu 4 Petaflops beim H100. Diese Rechenleistung ermöglicht es KI-Unternehmen, größere und komplexere Modelle zu trainieren.

8wz8dxva.png
Nvidia GB200 NVLink 2 vereint 36 CPUs und 72 GPUs in einem Rack. (Bild: Nvidia)

Die Blackwell-GPU ist groß und vereint zwei separat gefertigte Chips zu einem einzigen Chip. Sie ist auch als kompletter Server namens GB200 NVLink 2 erhältlich, der 72 Blackwell-GPUs und andere Nvidia-Komponenten zum Trainieren von KI-Modellen kombiniert.

Amazon, Google, Microsoft und Oracle werden den Zugriff auf den GB200 über Cloud-Dienste anbieten. Der GB200 kombiniert zwei B200 Blackwell-GPUs mit einer Grace-CPU. Laut Nvidia wird Amazon Web Services (AWS) einen Servercluster mit 20.000 GB200-Chips aufbauen.

Das System kann ein 27-Billionen-Parameter-Modell ausführen, das deutlich größer ist als die größten derzeit verfügbaren Modelle, wie beispielsweise GPT-4 (1,7 Billionen Parameter). Viele KI-Forscher glauben, dass größere Modelle mit mehr Parametern und Daten neue Möglichkeiten eröffnen könnten.

Nvidia hat noch keine Preise für den neuen GB200 oder Systeme mit dem GB200 bekannt gegeben. Nvidias Hopper-basierter H100 kostet laut Analystenschätzungen zwischen 25.000 und 40.000 US-Dollar pro Stück, das gesamte System sogar bis zu 200.000 US-Dollar.

(Laut CNBC)