In einem Instagram-Reels-Beitrag vom 18. Januar sagte Mark Zuckerberg, dass der „Zukunftsfahrplan“ des Unternehmens für KI den Aufbau einer „massiven Computerinfrastruktur“ erfordere, die bis Ende 2024 von 350.000 Nvidia H100-Chips angetrieben werde.
Der CEO von Meta gab nicht bekannt, wie viele GPUs er gekauft hat. Der H100 soll jedoch Ende 2022 auf den Markt kommen, und das Angebot ist äußerst begrenzt. Analysten von Raymond James schätzen, dass Nvidia den H100 für 25.000 bis 30.000 US-Dollar verkauft. Auf eBay könnte der Chip über 40.000 US-Dollar einbringen. Sollte Meta einen niedrigeren Preis erzielen, würden die Kosten bei fast 9 Milliarden US-Dollar liegen.
Darüber hinaus gab Zuckerberg bekannt, dass die Rechenleistung der Infrastruktur unter Einbeziehung anderer GPUs der von 600.000 H100 entspricht. Im Dezember 2023 gaben Meta, OpenAI und Microsoft bekannt, dass sie AMDs neuen KI-Chip Instinct MI300X verwenden werden.
Meta benötigt solche „schweren“ Computerchips, weil das Unternehmen künstliche Intelligenz (AGI) anstrebt, die Zuckerberg als „langfristige Vision“ für das Unternehmen bezeichnet. Auch OpenAI und Google DeepMind arbeiten an AGI – einer futuristischen KI, die der menschlichen Intelligenz ebenbürtig ist.
Meta- Chefwissenschaftler Yann LeCun betonte die Bedeutung von GPUs letzten Monat auf einer Veranstaltung in San Francisco, USA. Er sagte, wer AGI wolle, müsse mehr GPUs kaufen. „Es herrscht ein KI-Krieg, und er (Nvidia-CEO Jensen Huang) liefert die Waffen.“
In seinem Ergebnisbericht für das dritte Quartal 2023 gab Meta an, dass die Gesamtausgaben im Jahr 2024 zwischen 94 und 99 Milliarden US-Dollar liegen würden, unter anderem für den Ausbau der Rechenkapazität. In einem Treffen mit Analysten bestätigte der Vorstandsvorsitzende des Konzerns zudem, dass „KI im Hinblick auf die Investitionsprioritäten im Jahr 2024 der größte Investitionsbereich sein wird, sowohl in Bezug auf Technologie als auch auf Rechenressourcen“.
Ebenfalls am 18. Januar kündigte Zuckerberg an, die von seinem Unternehmen entwickelte künstliche Intelligenz (AGI) „verantwortungsvoll“ als Open Source zu veröffentlichen – ein Ansatz, der dem der größeren Sprachfamilie Llama ähnelt. Meta trainiert Llama 3 und wird die Forschungsgruppen Fundamental AI Research (FAIR) und GenAI enger zusammenbringen.
Kurz nach Zuckerbergs Post schrieb Ingenieur LeCun auf X: „Um den Prozess zu beschleunigen, ist FAIR jetzt eine Schwesterorganisation von GenAI, der KI-Produktabteilung.“
(Laut CNBC)
[Anzeige_2]
Quelle
Kommentar (0)