Meta, la société propriétaire de Facebook, teste sa première puce interne pour la formation des systèmes d'intelligence artificielle (IA), une étape importante dans sa quête pour concevoir davantage de puces personnalisées et réduire sa dépendance à des fournisseurs comme Nvidia.
Budget d'investissement estimé à 119 milliards USD
Meta, la plus grande société de médias sociaux au monde, a commencé des tests à petite échelle de la puce et prévoit d'augmenter la production pour une utilisation à grande échelle si l'essai est concluant.
Meta, la société propriétaire de Facebook, teste sa première puce interne pour la formation des systèmes d'intelligence artificielle (IA).
L'effort visant à développer des puces en interne fait partie du plan à long terme de Meta visant à réduire ses coûts d'infrastructure massifs, alors que l'entreprise mise beaucoup sur les outils d'IA pour alimenter sa croissance.
Meta, qui possède également Instagram et WhatsApp, prévoit que les dépenses totales en 2025 se situeront entre 114 et 119 milliards de dollars, dont jusqu'à 65 milliards de dollars de dépenses d'investissement, principalement tirées par des investissements dans l'infrastructure de l'IA.
La nouvelle puce d'entraînement de Meta est un accélérateur dédié, ce qui signifie qu'elle est conçue pour gérer uniquement des tâches d'IA spécifiques, a indiqué une source. Cela la rend plus économe en énergie que les processeurs graphiques intégrés (GPU) généralement utilisés pour les charges de travail d'IA.
Selon la source, Meta coopère avec le plus grand fabricant de puces sous contrat au monde, TSMC, pour produire cette puce.
Le déploiement des tests a débuté après que Meta a réalisé le premier « tape-out » de la puce, une étape majeure dans le développement des puces silicium, qui implique l'envoi de la conception initiale dans une usine de fabrication. Un processus de « tape-out » classique coûte des dizaines de millions de dollars et dure de trois à six mois, sans garantie de réussite. En cas d'échec, Meta devra diagnostiquer le problème et répéter l'étape de « tape-out ».
La puce est la dernière de la gamme Meta Training and Inference Accelerator (MTIA) de la société, un programme qui a connu des débuts difficiles au fil des ans et qui a vu une puce annulée à un stade de développement similaire.
L'année dernière, cependant, Meta a commencé à utiliser une puce MTIA pour effectuer des inférences (le processus d'exécution d'un système d'IA pendant que les utilisateurs interagissent avec lui) pour les systèmes de recommandation qui décident quel contenu apparaît dans les fils d'actualité de Facebook et d'Instagram.
Meta prévoit d'utiliser des puces d'entraînement internes d'ici 2026
Les dirigeants de Meta affirment vouloir commencer à utiliser des puces internes d'ici 2026 pour la formation, qui est le processus informatique intensif consistant à alimenter un système d'IA avec des quantités massives de données pour lui « apprendre » à fonctionner.
Les dirigeants de Meta déclarent vouloir commencer à utiliser des puces internes pour la formation d'ici 2026.
Comme pour la puce d'inférence, l'objectif de la puce d'entraînement est de commencer par les systèmes de recommandation, puis de l'utiliser pour des produits d'IA générative comme le chatbot Meta AI, ont déclaré les dirigeants. « Nous étudions la manière dont nous formons les systèmes de recommandation, puis comment nous envisageons la formation et l'inférence pour l'IA générative », a déclaré Chris Cox, directeur des produits de Meta, lors de la conférence de Morgan Stanley sur les technologies, les médias et les télécommunications la semaine dernière.
M. Cox a décrit les efforts de développement de puces de Meta comme « une situation de marche, de rampement, puis de course » jusqu'à présent, mais a déclaré que les dirigeants considèrent la puce d'inférence de première génération pour les systèmes de recommandation comme « un énorme succès ».
Meta avait précédemment annulé une puce d'inférence personnalisée interne après son échec lors d'un déploiement de test à petite échelle similaire à celui actuel pour la puce de formation, revenant plutôt à la commande de GPU d'une valeur de plusieurs milliards de dollars auprès de Nvidia en 2022.
Depuis, l'entreprise de réseaux sociaux est restée l'un des plus gros clients de Nvidia, se dotant d'une flotte de GPU pour entraîner ses modèles, notamment ses systèmes de recommandation et de publicité, ainsi que sa gamme de modèles de plateformes Llama. Ces unités effectuent également des inférences pour les plus de 3 milliards d'utilisateurs quotidiens de ses applications.
La valeur de ces GPU a été remise en question cette année, car les chercheurs en IA sont de plus en plus sceptiques quant aux progrès supplémentaires qui peuvent être réalisés en continuant à « faire évoluer » les grands modèles linguistiques en ajoutant davantage de données et de puissance de calcul.
Ces doutes ont été renforcés par le lancement fin janvier de nouveaux modèles à faible coût de la startup chinoise DeepSeek, qui optimisent l’efficacité informatique en s’appuyant davantage sur l’inférence que la plupart des modèles actuels.
L'action Nvidia a perdu jusqu'à un cinquième de sa valeur à un moment donné lors d'une vague de ventes mondiales d'actions spécialisées dans l'IA déclenchée par DeepSeek. Elle a depuis récupéré une grande partie de ses pertes, les investisseurs pariant que les puces de l'entreprise resteraient la référence du secteur en matière d'entraînement et d'inférence, même si elles ont depuis reculé en raison de préoccupations commerciales plus larges.
Source : https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Comment (0)