Près de 600 milliards de dollars. C’est le montant de capitalisation boursière qui s’est évaporé après la publication en open source, par le chinois DeepSeek, d’un modèle d’IA capable de raisonner. Une chute expliquée de manière hâtive. Cette société créée en mai 2023 aurait réussi à entraîner son modèle avec des ressources restreintes. Plus précisément, avec 2,8 millions d’heures d’utilisation de cartes graphiques là où GPT-4 aurait requis 50 millions d’heures, sur des modèles plus puissants. Cette situation a fait paniquer les investisseurs sur les besoins en puissance de calcul réels, liés à la révolution de l’IA, envoyant au tapis toute l’industrie des semi-conducteurs.La réaction peut sembler disproportionnée. D’une part, cette performance chinoise était attendue. En outre, les chiffres sont à prendre avec des pincettes. Les tests en amont de l’entraînement sont en réalité la phase la plus gourmande en ressources. Enfin, l’écart en nombre absolu de cartes graphiques n’est pas si important. DeepSeek aurait utilisé 2 048 cartes et OpenAI une dizaine de milliers. Une goutte d’eau quand on compare ces chiffres avec les 6,5 millions de cartes graphiques que Nvidia devrait livrer en 2025.DeepSeek a codé lui-même les pucesIl importe de comprendre qu’une fois un modèle entraîné, il entre dans un mode dit d’inférence. Il s’agit de l’étape où le modèle tire des conclusions à partir de nouvelles données – les demandes que les utilisateurs formulent, les documents ou pages Internet qu’il est autorisé à consulter. Plus les modèles deviennent performants, plus les cas d’usage se diffusent, plus le marché de l’inférence grossit par rapport à celui de l’entraînement. A titre d’exemple, OpenAI aurait dépensé, en 2024, 3 milliards de dollars pour louer des heures de fonctionnement de cartes graphiques pour l’entraînement, et 4 milliards pour l’inférence.Les puces de Nvidia sont extrêmement performantes pour l’entraînement des modèles d’intelligence artificielle du fait de leur conception intégrant beaucoup de mémoire et d’un environnement logiciel spécialisé. Baptisé Cuda, il permet de faire fonctionner de multiples puces ensemble et donc de procéder à de nombreux petits calculs en parallèle. Cette architecture est particulièrement adaptée aux réseaux de neurones et à la bibliothèque numérique qui permet la communication entre chacune des centaines de couches du modèle.DeepSeek s’est fait remarquer par sa maîtrise d’une approche dénommée “mélange d’experts”. Elle consiste à assembler des sous-réseaux distincts, chacun spécialisé dans un sous-ensemble de données d’entrée, afin d’effectuer conjointement une tâche. Surtout, DeepSeek ne s’est pas contenté de prendre l’environnement logiciel de Nvidia : il a codé lui-même la façon de faire circuler l’information entre les puces. De quoi challenger la domination de Nvidia et ouvrir la voie à des compétiteurs. En effet, dès sa publication, DeepSeek V3 a pu fonctionner en inférence sur des puces Ascend 910C de Huawei. Cette puce atteindrait déjà 60 % de l’efficacité d’une puce H100 de Nvidia.La Chine remonte toute la filièreCette compétition nouvelle a des impacts sur une chaîne de valeur fortement intégrée. Les entreprises comme OpenAI louent des serveurs à des gérants de data centers – Amazon ou Microsoft – qui achètent des puces conçues par Nvidia. Ces puces contiennent des cartes mémoires fournies par les sud-coréens Samsung Electronics et SK Hynix, qui représentent le plus gros poste d’achats de Nvidia. Elles sont fabriquées par le taïwanais TSMC, à l’aide de machines de lithographie dont le principal fournisseur est le néerlandais ASML. Chacun de ces acteurs se trouve dans une situation de monopole ou de duopole. Or, sous la contrainte des restrictions aux importations imposée par les Etats-Unis depuis 2019, la Chine remonte toute la filière.Sur la mémoire, ChangXin Memory Technologies (CXMT), créée en 2016, est en passe de combler le retard qu’elle accuse sur les leaders. Elle a livré ses premiers serveurs pour data centers en fin d’année dernière. La puce Ascend de Huawei est fabriquée par le fabricant chinois de semi-conducteurs Smic en utilisant un processus de 7 nanomètres, alors même que le pays n’a plus accès aux machines de lithographie extrême ultraviolet. Les chinois Shanghai Micro Electronics Equipment et Shenzhen Xinkailai Technology (SiCarrier), filiale de Huawei, développent leur propre équipement lithographique, appuyé sur un réseau de laboratoires comme le Harbin Institute of Technology, et visent à challenger ASML. Voilà ce qui se cache réellement derrière le séisme DeepSeek.Robin Rivaton est directeur général de Stonal et membre du conseil scientifique de la Fondation pour l’innovation politique (Fondapol)
Source link : https://www.lexpress.fr/economie/high-tech/derriere-le-seisme-deepseek-lenvol-de-la-chine-dans-les-puces-GPPNXLJEUZGWDMBTJ7PL5LIHIA/
Author : Robin Rivaton
Publish date : 2025-02-08 07:30:00
Copyright for syndicated content belongs to the linked Source.
Trending
- L’armée israélienne annonce avoir récupéré les trois otages libérés dans la bande de Gaza
- 🔴 Début de la libération de prisonniers palestiniens par Israël, suivez notre direct
- Essonne : Louise, 11 ans, retrouvée morte dans un bois, un couple en garde à vue
- Logements classés F et G : exigez le remboursement en cas de hausse de loyer !
- Logements classés F et G : exigez le remboursement en cas de hausse de loyer !
- Zerschlagung von USAID ausgebremst
- De Donatella Versace a los Beckham: los detalles de la exclusiva fiesta de Carlos III y Camila en Highgrove
- Un juez federal bloquea el acceso de Elon Musk al control del sistema de pagos del Tesoro de EEUU
Saturday, February 8