Comment créer des IA plus utiles ? Et plus fiables ? Ces questions sont deux des grands défis de notre siècle. Et celles qu’Ece Kamar, directrice générale du laboratoire AI Frontiers du géant Microsoft, travaille au quotidien avec son équipe. Pour cette experte, la mémoire sera une brique déterminante à ajouter à l’intelligence artificielle pour la faire progresser. Mais il reste aussi beaucoup à apprendre sur la manière dont les récents modèles IA de raisonnement (o3 d’OpenAI, r1 de Deepseek, etc.) fonctionnent. Entretien.L’Express : En quoi doter les IA de mémoire peut-il les aider à progresser ?Ece Kamar : Mon laboratoire s’intéresse beaucoup aux pièces du puzzle à ajouter pour créer des IA capables de résoudre nos problèmes. Des IA capables de nous comprendre, d’alléger nos tâches quotidiennes de manière fiable. Et il devient évident que la mémoire est une brique importante, car l’une des limites des grands modèles de langage (large langage model ou LLM) est qu’ils n’apprennent pas, ils sont statiques. Même si nous leur signalons leurs erreurs ou leur donnons des détails sur nous, ils n’adaptent pas leurs réponses à notre profil et nos besoins. Sans mémoire, les LLM ne se souviennent pas de ce qu’on leur dit, ce qui les rend statiques, ennuyeux et bien moins utiles. Donner aux IA de la “mémoire” nous évite d’avoir à leur répéter sans cesse la même chose.Par définition, la réponse d’une IA générative à une même question varie. Cela fait le sel de l’échange mais cela ne complique-t-il pas grandement l’exécution de certaines tâches ?Les modèles d’apprentissage automatique construits à l’aide de techniques d’apprentissage statistique sont intrinsèquement probabilistes, ce qui les rend stochastiques. A chaque fois qu’un modèle d’apprentissage automatique s’exécute, il fait une prédiction sur la meilleure chose à dire. Et il le fait sur la base d’une distribution de probabilités. Imaginons que la probabilité de dire le mot A par rapport au mot B est de 90 % à 10 %. Dans 90 % des cas, le système IA donnera le mot A. Mais dans 10 % des cas, il donnera le mot B. Cette réponse peut désarçonner un être humain qui, lui, opterait systématiquement pour la réponse A. Mais en raison de la nature probabiliste de ces modèles, il y aura des cas aléatoires où le système donnera la réponse B. Et pour les tâches qui requièrent de la prévisibilité, cela devient un problème à résoudre.Une calculette semble être un bien meilleur outil que l’IA générative pour faire des opérations mathématiques. Alors en quoi ces IA “imprévisibles” peuvent aider la recherche scientifique ?Ces modèles d’IA étant stochastiques, ils ne sont en effet, par essence, pas doués pour faire des calculs déterministes tels qu’une addition. Mais ce qui est très intéressant est que nous pouvons les entraîner à utiliser les outils adéquats. On peut apprendre aux modèles à ne pas essayer de faire le calcul eux-mêmes, mais à faire appel à une calculatrice pour réaliser l’opération puis à réintégrer le résultat dans une réponse qui sera peut-être plus étayée. Pourquoi est-ce utile ? Car pour résoudre un problème mathématique sophistiqué, il y a en réalité plusieurs sous-tâches à accomplir. Il faut réfléchir aux différentes techniques de résolution, exécuter une solution, effectuer les calculs et, enfin, être en mesure de valider l’exactitude de la solution.Les modèles actuels sont adaptés à certaines de ces tâches, mais pas à d’autres. Pour un calcul par exemple, nous allons apprendre au modèle qu’il est préférable d’utiliser une calculatrice. De même, si le système a besoin de voir des solutions antérieures pour pouvoir en tirer des enseignements, il peut aller sur le web, faire une recherche et collecter ces informations, les mettre en mémoire comme nous l’évoquions plus tôt.Le défi fondamental des mathématiques est cependant de savoir envisager différentes techniques de résolution, les mettre en œuvre, vérifier si la technique prometteuse vous donne la bonne réponse, et si ce n’est pas le cas, être capable de revenir en arrière et aller vers une solution différente. Les modèles de langage traditionnels étaient médiocres à ce niveau-là. Mais depuis peu, de nouvelles générations d’IA suscitent l’enthousiasme : des modèles de raisonnement tels que o1 et o3 (NDLR : OpenAI) ou le modèle r1 (NDLR : DeepSeek). Leur architecture novatrice leur permet d’avoir une pensée complexe, d’envisager plusieurs façons de résoudre un problème, d’évaluer l’exactitude de leur approche et, au besoin, d’essayer des solutions alternatives. Il s’agit là de capacités très importantes pour la découverte scientifique, la résolution de problèmes mathématiques complexes, la résolution de tâches complexes en général, que les LLM traditionnels ne possédaient pas jusqu’ici. Pour en revenir à votre question – comment ces modèles peuvent aider les scientifiques – je pense que nous sommes tous à la recherche d’une entité qui nous permette d’échanger des idées afin d’être plus créatifs dans nos techniques de résolution.En quoi ces nouvelles IA qui “raisonnent” fonctionnent-elles différemment des précédentes générations ?Jusqu’alors, les grands modèles de langage (LLM) apprenaient en essayant de prédire le mot suivant et en se pénalisant ou en se récompensant en fonction de leur capacité à prédire le mot suivant. Cela a ses limites lorsqu’il s’agit de résoudre des problèmes de raisonnement où il est nécessaire de réfléchir en plusieurs étapes, de vérifier l’exactitude de son approche et au besoin de revenir en arrière. Les modèles de “raisonnement” sont formés par l’expérience. C’est ce que l’on appelle l’apprentissage par renforcement (NDLR : reinforcement learning ou RL). Cela consiste essentiellement à apprendre par essais et erreurs. Les modèles s’exercent à la résolution de problèmes et vérifient s’ils parviennent à la bonne réponse.Curieusement, un entraînement simple semble enseigner aux modèles des schémas de pensée complexes. Je pense qu’en tant que scientifiques, nous devons encore beaucoup travailler pour comprendre pourquoi. Il faut solidifier ces approches, s’assurer qu’elles fonctionnent de manière fiable dans les domaines qui nous intéressent. C’est une aventure passionnante pour nous et pour de nombreuses équipes dans le monde. Cela amène une nouvelle façon de penser les modèles d’IA, ce qui est très, très excitant.L’IA a parfois été décrite comme une boîte noire. Est-ce encore réellement le cas aujourd’hui ?La définition la plus élémentaire de la transparence est de pouvoir ouvrir un modèle d’apprentissage automatique, regarder ses activations et ses poids et retracer les cheminements : lorsqu’il y a telle entrée, voici comment la machine prend des décisions, quelles activations jouent, quelles fonctions mathématiques s’exécutent pour obtenir telle sortie. Ce niveau de transparence n’est plus réaliste pour les grands modèles fondamentaux que nous étudions. Mais l’intérêt des modèles actuels est qu’il est possible de dialoguer avec eux. Vous pouvez demander au modèle d’expliquer la logique qui sous-tend ses décisions. Vous pouvez le challenger en lui demandant dans quelle mesure sa réponse aurait varié si les données qu’on lui avait fournies avaient été légèrement différentes. Le fait que nous puissions converser avec ces modèles constitue un niveau de transparence différent.De quoi a-t-on besoin aujourd’hui pour rendre les IA suffisamment fiables pour être utilisés dans des domaines tels que les soins de santé ?Il faut que ces modèles aient la capacité d’évaluer l’exactitude de leur réponse. Suis-je sur la bonne voie ? Quel degré de confiance ai-je dans ma réponse ? Lorsque nous, humains, résolvons des problèmes, nous sommes intrinsèquement conscients de la qualité de notre travail. Nous savons si nous sommes bloqués ou si nous progressons bien. Jusqu’à présent, les modèles n’avaient pas ces capacités. Mais nous trouvons des moyens de compléter ces systèmes avec des techniques de contrôle de l’exactitude. C’est une étape clef pour construire des systèmes fiables pour des usages critiques tels que les soins de santé. Mais l’interaction humaine demeure très importante. Dans la sphère de la santé, en particulier, il s’agit de responsabiliser les gens plutôt que de les remplacer. Nous ne voulons pas d’un monde où les décisions médicales seraient prises uniquement par l’IA. Les médecins sont les vrais experts. Ils doivent rester aux commandes.
Source link : https://www.lexpress.fr/economie/high-tech/ece-kamar-microsoft-les-modeles-dia-generatives-ne-savent-pas-faire-une-addition-SDGCKXSCMBHEDKMMFAI24HB6HM/
Author : Stéphanie Benz, Anne Cagan
Publish date : 2025-02-19 07:00:00
Copyright for syndicated content belongs to the linked Source.
Trending
- Associated Press sues White House over ban from Oval Office and Air Force One
- Three people killed in Louisville, Kentucky, motor vehicle office shooting
- Man offers to split winnings after thieves win jackpot with his credit card
- Transgender TV megastar blasts Trump for issuing her a male passport
- 2. Fußball-Bundesliga: Geringer Leitl-Effekt bei Hertha: 0:0 gegen 1. FC Nürnberg
- 2. Fußball-Bundesliga: Geringer Leitl-Effekt bei Hertha: 0:0 gegen 1. FC Nürnberg
- Nach Messerattacke: Geschworene sprechen Attentäter von Rushdie schuldig
- Fußball-Bundesliga, 23. Spieltag: SC Freiburg gewinnt deutlich gegen Werder Bremen
Friday, February 21