Elles ont donné de jolies couleurs, des formes convenables, et même des émotions aux héros pixélisés des jeux vidéo. Les cartes graphiques de la compagnie américaine Nvidia, avec sa célèbre gamme GeForce, dominent depuis plus de vingt ans ce secteur si cher aux accros de la manette et de la souris. Les derniers modèles s’arrachent toujours à prix d’or sur les sites de e-commerce spécialisés ou en physique, comme dans la rue Montgallet à Paris (XIIe arrondissement), éternel cluster de boutiques d’informatique.Mais si l’entreprise fondée par l’ingénieur américano-taïwanais Jen-Hsun « Jensen » Huang a dépassé mardi 30 mai les 1 000 milliards de dollars de capitalisation boursière aux Etats-Unis, un honneur jusqu’ici réservé à moins d’une dizaine de firmes comme Apple ou Microsoft, elle ne le doit pas seulement à la puissance prise par le gaming dans nos loisirs. La révolution de l’intelligence artificielle (IA) est aussi passée par là.L’envergure de Nvidia tient en trois lettres : GPU, pour graphics processing unit. Ces processeurs graphiques, nichés au sein de leurs cartes, sont devenus de plus en plus puissants, profitant notamment des progrès réalisés dans la finesse de gravure des semi-conducteurs. Le tournant est difficile à situer précisément. Mais en 2006, Nvidia rend ses GPU programmables. Peu de temps après, en 2009, plusieurs groupes de chercheurs, dont une menée par l’éminent Andrew Ng de l’Université de Stanford, commencent à les utiliser autrement : pour de l’apprentissage profond (deep learning), un sous-domaine de l’IA en pleine expansion. Pourtant plus lents et moins performants que leurs cousins les CPU – pour central processing unit, les véritables cerveaux des ordinateurs -, les GPU ont l’avantage d’embarquer plus de mémoire et une meilleure capacité à exécuter des tâches en parallèle. De quoi, toujours selon Andrew Ng, rendre l’apprentissage de données jusqu’à 100 fois plus rapide qu’auparavant. Nvidia se frotte les mains. « L’IA nous a trouvés », dira un peu plus tard Ian Buck, l’un des hauts-dirigeants. »Moment iPhone »Les GPU alimentent lors de la décennie suivante la recherche en intelligence artificielle, qui connaît des bonds spectaculaires. En 2012, AlexNet, une IA de classement d’images entraînée avec des GPU Nvidia, fascine la communauté scientifique. En 2017, le papier de recherche Attention is all you need, consacré aux réseaux de neurones « Transformers », pave la voie vers l’IA générative. Nvidia s’impose naturellement comme la marque favorite des ordinateurs XXL et de l’entraînement des grands modèles qui permettent à ces IA d’inventer des histoires, des images ou de la musique. Ses GPU ont ainsi contribué à l’élaboration de GPT-3 ainsi que GPT-4, soubassement de ChatGPT, la boîte de dialogue signée OpenAI, un nouveau mastodonte valorisé 29 milliards de dollars. Près de Paris, sur le plateau de Saclay, le supercalculateur Jean Zay, récemment visité par L’Express, en contient également plusieurs milliers ayant servi au développement du modèle Bloom, piloté par un millier de chercheurs européens en partenariat avec la start-up HuggingFace.Dernièrement, Nvidia a lancé la toute nouvelle gamme de ses puces, les H100, pour 40 000 dollars pièce, destinés à « accélérer jusqu’à 30 fois les modèles de langage les plus complexes par rapport aux produits de génération précédente », vante la société sur son site Internet. Une seconde génération de jeunes pousses de l’IA générative pourrait vite en profiter. Jen-Hsun « Jensen » Huang estime être dans un « moment iPhone », comparant la croissance actuelle de cette technologie à celle des smartphones après le lancement par Apple de son téléphone révolutionnaire.Contrairement au marché des cryptomonnaies, dans lequel Nvidia s’est investi en offrant aux « mineurs » de bitcoin ses imposantes capacités de calcul avant de faire marche arrière, la bulle de l’IA générative semble en effet avoir de très beaux jours devant elle. Celle-ci pourrait générer 300 millions d’emplois et augmenter le PIB mondial de 7 % dans les dix années à venir, selon Goldman Sachs. Nvidia en détient ni plus ni moins que la principale brique technologique. La firme pèse maintenant cinq fois plus que son concurrent AMD, et plus de huit fois Intel, en pleine remise en question. « Ce que Nvidia représente pour l’IA est presque équivalent à ce qu’Intel représentait pour les PC », analyse crûment Dan Hutcheson, analyste chez TechInsights, auprès de la BBC. Les autres challengers, à l’image de Google ou du britannique GraphCore, qui mise quant à lui sur une autre technologie, les Unités de traitement de l’intelligence (IPU), demeurent pour le moment en retrait sur le plan des performances. « Il existe plusieurs variantes sur le marché, mais peu sont prêtes à faire bouger Nvidia ou à grignoter sa part de marché. C’est l’option par défaut », observe Alan Priestley, analyste chez Gartner, cité par Bloomberg. La compagnie pourrait empocher 11 milliards de dollars de revenus lors du prochain trimestre. Soit autant que sur la totalité de l’année 2020. Encore merci les gamers.
Source link : https://www.lexpress.fr/economie/high-tech/nvidia-lhistoire-dun-geant-du-gaming-devenu-faiseur-de-roi-de-lia-BAPKR4ILXZHC7PLMFPETVMARS4/
Author : Maxime Recoquillé
Publish date : 2023-05-31 16:19:17
Copyright for syndicated content belongs to the linked Source.
Nvidia : l’histoire d’un géant du gaming devenu faiseur de roi de l’IA
