Une usine à prix Nobel. L’an dernier, pas moins de trois scientifiques du sérail Google DeepMind ont décroché ce prestigieux prix : Geoffrey Hinton en physique et Demis Hassabis ainsi que John Jumper en chimie. Ce n’est pas le seul fait d’armes de ce laboratoire prestigieux. On lui doit aussi une publication de recherche qui a posé les fondements de l’IA générative (Attention is all you need, 2017). Et l’incroyable AlphaFold qui révolutionne les recherches en biologie moléculaire. Alors que les percées s’accélèrent dans l’IA générative, Lila Ibrahim, directrice de l’exploitation de Google DeepMind, analyse pour L’Express les bouleversements induits.L’Express : L’IA générative progresse très rapidement. Quelles sont les avancées majeures de ces derniers mois ?Lila Ibrahim : Les derniers progrès sont incroyables. Notre modèle Gemini 2.0 a été lancé récemment. La capacité de réflexion de l’IA s’est nettement améliorée. Et les grands modèles de langage démontrent chaque jour un peu plus ce dont ils sont capables. Nous travaillons depuis longtemps sur l’IA à destination des scientifiques. Notre outil de prévision météorologique offre par exemple des prévisions très précises. Et nous avons porté AlphaFold à sa troisième version, qui étudie comment les protéines interagissent avec les molécules. Ceci ouvre de nouvelles perspectives pour la compréhension et les découvertes scientifiques.Quelles méthodes ont permis ses récents progrès ?Google DeepMind est un laboratoire qui investit toujours beaucoup dans la recherche fondamentale. Cet ancrage est primordial. L’IA n’est pas qu’un défi d’ingénieurs, cela demeure un grand défi de recherche. Comment lui donner des compétences de raisonnement ? Comment l’ancrer davantage dans les faits ? Comment intégrer la science pédagogique dans les IA destinées à l’éducation ? Google DeepMind demeurant un laboratoire de recherche, nous veillons à étudier une grande variété de méthodes. Il ne s’agit pas seulement de faire ingurgiter davantage de données aux IA.Quels défauts de l’IA seront probablement bientôt corrigés ?Nous entrons dans une ère de nouvelles capacités. Prenez le projet Astra. L’idée est de fournir un agent d’intelligence artificielle capable d’agir en votre nom avec votre approbation. C’est assez excitant et nouveau. Par exemple, ce type d’agents pourra vous aider à planifier les vacances d’été de vos enfants ou à trouver un restaurant qui peut gérer toutes les exigences alimentaires de votre famille. Mais cela soulève des questions de responsabilité et de sécurité. Il y a encore beaucoup de choses que nous devons comprendre, débloquer et expérimenter dans l’IA.Quel futur voyez-vous pour l’IA ? Pensez-vous que nous pourrons atteindre l’intelligence artificielle générale (IAG) ?L’IAG est un concept aux interprétations variées. Pour nous, elle englobe l’intelligence générale, l’intelligence cognitive générale. Nous pensons que beaucoup de percées doivent encore se produire avant d’atteindre une possible IAG mais elle s’inscrit dans notre mission fondamentale : comprendre le monde qui nous entoure. D’une certaine manière, l’IA est l’équivalent moderne du microscope ou du télescope : elle nous permet de voir le monde sous un angle nouveau. Comment accroître notre niveau de connaissance et résoudre certains des plus grands défis de l’humanité ? Peut-être grâce à des IA qui allégeront beaucoup nos tâches quotidiennes en gérant notre planning. Qui nous offrirons des apprentissages personnalisés. Qui gérerons des problèmes aussi complexes que notre santé, notre sécurité alimentaire ou notre gestion des déchets industriels. Nous constatons déjà les progrès de l’IA dans ces domaines et une IA plus générale ne peut que les renforcer.Quels risques les nouvelles capacités de l’IA posent-elles réellement ?Je vois le risque comme un continuum. Il y a des risques mais aussi des problèmes de confiance. Les deux sont parfois liés, parfois distincts. Les risques peuvent inclure la désinformation, les biais, l’utilisation abusive et le risque existentiel à long terme. Qui contrôle le système et à quelles valeurs l’IA est-elle alignée ? Certaines personnes ne font pas confiance à la technologie, peut-être à cause de représentations dystopiques dans la culture populaire, ou parce qu’elles n’ont pas expérimenté la technologie, ou qu’elles ont rencontré des hallucinations. C’est en partie pourquoi Google a adopté une approche mesurée pour diffuser cette technologie, afin qu’elle soit plus ancrée dans les faits.Il y a beaucoup à faire, tant du point de vue des risques que de celui de la confiance. Comment combler le fossé de la compréhension de l’IA ? Il est crucial que les jeunes comprennent ce qu’est l’IA lorsqu’ils apprennent à l’utiliser. C’est pourquoi nous avons collaboré avec la Raspberry Pi Foundation pour développer un programme destiné aux élèves de 11 à 14 ans, étendu à 17 pays et plus de 2 millions de jeunes avec l’aide de nos collègues de Google.Des tests approfondis sont également essentiels pour combler ce manque de connaissances. Nos modèles sont testés non seulement par nos soins, mais aussi par des gouvernements qui apportent des compétences et des perspectives uniques. Cette collaboration avec des experts du secteur permet un partage de connaissances sur les risques liés à la confiance et à la sécurité, et l’identification de bonnes pratiques pour un développement et un déploiement responsables de l’IA.Enfin, la transparence est primordiale, c’est pourquoi nous poursuivons nos recherches en éthique et publions des mises à jour régulières sur l’évaluation des risques, comme notre récent cadre de mise à l’échelle des modèles de frontières, qui adopte une approche plus holistique.Etant des systèmes stochastiques, les IA génératives ne semblent, par nature, pas fiables pour effectuer des calculs précis. De quelle manière peuvent-elles néanmoins aider les scientifiques, en particulier les mathématiciens ?Ce qui distingue Google DeepMind, c’est notre investissement continu dans d’autres domaines de recherche en plus de l’IA générative. Nous avons par exemple participé à l’Olympiade internationale de mathématiques pour améliorer nos modèles. Notre Forum de l’IA pour la Science, organisé en collaboration avec la Royal Society, a réuni des experts du monde entier et a mis en évidence le rôle crucial de l’IA dans la science moderne et la nécessité d’une collaboration interdisciplinaire. Nous sommes convaincus que l’IA représente une nouvelle ère pour la recherche scientifique.Les IA donnent de temps à autre des informations erronées. Comment améliorer la fiabilité de leurs réponses ?Le fait que les IA se trompent parfois a une vertu : cela encourage les utilisateurs à vérifier les informations. C’est une excellente habitude que les enfants, notamment, ont tout intérêt à adopter. Mais la précision des réponses s’est nettement améliorée avec Gemini 2.0, et cette tendance devrait se poursuivre. Le fait que l’IA montre désormais la manière dont elle “pense”, les étapes de son raisonnement, permet de contrôler beaucoup mieux l’exactitude de ses réponses. Tout comme l’intégration croissante de liens renvoyant vers les sources. Google, conscient de sa responsabilité et soucieux de préserver la confiance des utilisateurs, a réalisé des progrès significatifs en matière de précision au cours de l’année écoulée et s’engage à poursuivre dans cette voie.Qu’avez-vous pensé du Sommet pour l’Action sur l’IA qui s’est tenu à Paris ?Le gouvernement français a réuni un groupe diversifié et impressionnant de dirigeants internationaux, de chefs d’entreprise, d’universitaires, d’organisations non gouvernementales et de membres de la société civile pour relever les défis et opportunités liés aux progrès rapides de l’IA. Cette collaboration internationale est essentielle pour garantir que la gouvernance de l’IA suive le rythme du développement technologique et aborde efficacement les risques et les avantages transnationaux. La série de sommets sur l’IA joue un rôle crucial dans le maintien de la dynamique de la coopération internationale et de la gouvernance efficace de l’IA, et nous espérons que ces sommets persistent après celui de Paris.Certains experts et certains citoyens redoutent qu’une partie de la population soit laissée-pour-compte dans une économie redéfinie par l’IA. Y a-t-il, en effet, un risque ?L’IA, comme toute technologie disruptive, présente à la fois des opportunités et des défis. Pour garantir que ses avantages soient largement partagés, il est essentiel de placer les individus et les différentes communautés au centre des décisions. Cela implique une inclusion active des groupes sous-représentés dans les discussions et les décisions concernant le développement et la réglementation de l’IA. De plus, l’éducation et la formation à l’IA doivent être accessibles à tous pour favoriser une adoption plus large. Étant donné que les implications de l’IA transcendent les frontières nationales, la coopération internationale est nécessaire pour gérer efficacement certains risques.
Source link : https://www.lexpress.fr/economie/high-tech/lila-ibrahim-google-deepmind-lia-montre-desormais-la-maniere-dont-elle-pense-NO7CHZWMI5ATFBXRQ5P2PPQAQU/
Author : Anne Cagan
Publish date : 2025-02-12 12:00:00
Copyright for syndicated content belongs to the linked Source.
Trending
- Finances publiques : Éric Coquerel va proposer un recours au pénal contre Alexis Kohler qui a refusé son audition
- Commemorating the legacy of the WWII bombing of Dresden
- Macarena Gómez confiesa por qué se fue de ‘La que se avecina’: «Estaba cansada…»
- Cat ‘blown up’ remotely as neighbour booby-traps bird feeder in horror footage
- El Congreso aprueba por fin la subida de las pensiones, la bonificación del transporte y las ayudas por la dana
- Judge ‘wrong’ to let Gaza family settle in UK under Ukraine scheme, says PM
- Cartel boss ‘The Fat Man’ finally caught after sick execution videos and narcoterrorism
- Cartel boss ‘The Fat Man’ finally caught after sick execution videos and narcoterrorism
Wednesday, February 12