La startup Qingcheng.AI et une équipe de développement dirigée par le professeur d'informatique Di Guidong de l'Université Tsinghua (Chine) ont récemment annoncé avoir développé le framework Chitu AI, qui serait capable de réduire la dépendance aux puces Nvidia pour l'inférence des modèles d'IA, selon le South China Morning Post du 16 mars.
Logo Nvidia lors d'une exposition technologique en Espagne le 5 mars.
AI Framework est un moteur d'inférence pour les grands modèles de langage (LLM). Il fournit des bibliothèques et des outils permettant aux développeurs de concevoir, d'entraîner et de tester efficacement des modèles. Chitu est un outil open source prenant en charge des modèles populaires tels que Llama de Meta ou DeepSeek-R1, un modèle d'IA chinois qui a fait sensation ces derniers mois, affirmant qu'il offrait des capacités comparables à celles des modèles occidentaux, mais à un coût bien inférieur.
Lors des tests, équipé du GPU A800 de Nvidia, Chitu a augmenté la vitesse d'inférence de la version la plus puissante de DeepSeek-R1 de 315 %, tout en réduisant l'utilisation du GPU de 50 % par rapport aux frameworks open source étrangers, selon l'annonce de l'entreprise. Le modèle peut ainsi produire des résultats beaucoup plus rapidement, économisant ainsi du temps et des ressources de calcul.
Le développement de Qingcheng.AI s'inscrit dans le cadre des efforts déployés par les entreprises chinoises d'IA pour réduire leur dépendance aux GPU hautes performances de nouvelle génération de Nvidia, soumis à des restrictions à l'exportation. Le gouvernement américain a interdit à Nvidia de vendre ses puces Hopper H100 et H800 à ses clients chinois. Par ailleurs, selon AIBase.com, l'ouverture du code source de Chitu permet aux développeurs et chercheurs chinois d'utiliser, de modifier et d'optimiser librement l'outil, favorisant ainsi le développement et l'amélioration des technologies d'IA nationales.
La Chine aspire à l'autonomie
Alors que Qingcheng.AI s'associe à des fabricants nationaux de GPU de premier plan tels que Moore Threads, Enflame et Iluvatar CoreX, d'autres entreprises technologiques chinoises redoublent d'efforts pour réduire leur dépendance aux technologies étrangères, s'inspirant du succès de DeepSeek. En février, le fournisseur de plateformes d'infrastructure informatique Infinigence AI a annoncé qu'il travaillait à favoriser la coopération entre sept grands fabricants chinois de puces d'IA : Biren Technology, Hygon Information Technology, Moore Threads, MetaX, Enflame, Iluvatar CoreX et Ascend (Huawei).
Le 7 mars, le China Daily citait Liu Qingfeng, membre de l'Assemblée populaire nationale et président de la société d'IA iFlytek. Il déclarait que le pays devait urgemment rechercher et développer des modèles de LLM basés sur des puces nationales afin de bâtir un écosystème d'IA solide, garant d'un développement durable et de qualité. Selon lui, ne pas développer un écosystème industriel d'IA basé sur des puces nationales revient à construire une tour sur les fondations de quelqu'un d'autre. Il a ajouté qu'à l'exception du modèle Spark d'iFlytek, tous les LLM téléchargeables publiquement sont actuellement formés sur des puces Nvidia, ce qui démontre les lacunes de la Chine en matière de développement de puces.
Actuellement, de nombreuses grandes entreprises technologiques chinoises telles qu'Alibaba, Tencent, Baidu, ByteDance, iFlytek ou Huawei, ainsi que des milliers d'autres startups, se lancent dans la course au développement de modèles d'IA. Plus récemment, Baidu a annoncé le week-end dernier deux modèles, Ernie 4.5 et X1, destinés à concurrencer les modèles de DeepSeek ou d'OpenAI.
Source : https://thanhnien.vn/cong-ty-trung-quoc-tim-cach-giam-phu-thuoc-nvidia-185250317205207263.htm
Comment (0)