Janvier 2026                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                           

« NOUS AVONS DES IA QUI AGISSENT COMME UN CHERCHEUR DEBUTANT »

 

DAVID LABROUSSERIE et ALEXANDRE PIQUARD

 

Le Monde - Samedi 22 novembre 2025

 

Sébastien Bubeck, qui travaille pour OpenAI sur les applications de l’IA dans la science, se dit optimiste sur les progrès en général

 

L

intelligence artificielle [IA] est un accélérateur pour la science », martèle Sébastien Bubeck, chercheur associé au programme OpenAI for Science, créé début septembre au sein de la start-up américaine pour appliquer ses modèles d’IA aux activités de recherche. « Les avancées des derniers mois m’ont surpris moi-même. Avec notre modèle le plus avancé, GPT-5, nous avons des IA qui agissent vraiment comme un chercheur débutant », assure ce Français arrivé dans la maison mère de ChatGPT en 2024 après dix ans passés comme chercheur en IA chez Microsoft.

 

       Jeudi 20 novembre, M. Bubeck a copublié avec des collègues d’OpenAI et des universitaires un article scientifique présentant des témoignages de chercheurs en mathématiques, physique ou biologie ayant utilisé GPT-5 dans certains cas pour leur travail. L’article décrit comment GPT-5 a aidé à résoudre un des problèmes du mathématicien hongrois Paul Erdös (1913-1996) en créant « une forme de tandem avec le chercheur humain » et en apportant « une idée-clé » pour la solution, explique ce mathématicien formé à l’Ecole normale supérieure de Cachan (aujourd’hui Paris-Saclay) et à l’université de Lille.

 

       M. Bubeck a aussi résolu une conjecture mathématique qu’il avait posée en 2013 – et qu’un groupe de ses étudiants de Princeton « n’avaient pas réussi à prouver » - en faisant travailler une version améliorée de GPT-5 « pendant deux jours ». en physique, l’article décrit un cas où l’IA a permis de redécouvrir un résultat, déjà connu, sur les symétries d’un trou noir. En biologie, elle a pu, à partir des données d’immunologie, formuler une hypothèse crédible pour les interpréter et suggérer des expériences complémentaires, que les chercheurs ont pu effectuer, explique M. Bubeck.

       N’est-il pas, exagéré de présenter l’IA comme un outil capable d’agir de façon autonome et de remplacer des chercheurs scientifiques ? « Non, mais les progrès sont tellement frappants qu’il est normal de scruter les résultats, explique M. Bubeck. GPT-5n ne va pas découvrir de nouvelles grandes théories tout seul. Il ne va pas redécouvrir la relativité générale d’Einstein. » Le modèle est à ce stade un « partenaire de réflexion » pour le chercheur, utile pour tester et écarter plus vite des hypothèses, voire proposer « un contre-exemple ».

       A ce stade, OpenAI se concentre, dans le domaine scientifique, sur l’utilisation d’assistants fondés sur des modèles de traitement du langage de type GPT-5 (notamment utilisé dans ChatGPT), alors que des concurrents comme Google DeepMind créent des systèmes d’IA spécialisés, à l’image d’AlphaFold pour la modélisation de protéines, récompensé du Nobel de chimie en 2024.

 

« Les progrès sont constants »

OpenAI comme Google DeepMind ont frappé les esprits en juillet en obtenant chacun, pour la première fois, une médaille d’or aux Olympiades internationales de mathématiques. Là encore, M. Bubeck relativise les critiques, pointant du doigt le risque que les modèles d’IA aient pu trouver les bons résultats en reproduisant des éléments de réponse présents dans leurs données d’entraînement. « Un participant humain s’entraîne aussi sur tous les exemples de toutes les années précédentes », note-t-il. Pour lui, la notion de « découverte » se résume parfois à « combiner des choses qui existaient déjà et à trouver des connexions qu’on n’avait pas découvertes avant ».

       Dans le même esprit, M. Bubeck, qui participe aussi plus généralement aux recherches sur les modèles d’IA chez OpenAI, n’est pas d’accord avec les conclusions d’un article polémique publié en juin par des chercheurs d’Apple, dénonçant les limites des capacités des réflexions des récents modèles d’IA dits « de raisonnement », accusés de donner « l’illusion de penser ». Cette famille de modèles de traitement de langage – dont font partie 03 et GPT-5 chez OpenAI, Sonnet d’Anthropic ou Gemini 3 de Google – s’interrogent et s’auto-évaluent plusieurs fois avant de répondre, prenant davantage de temps. « Les modèles ont évidemment des points faibles. Mais en conclure que c’est un échec du raisonnement, c’est exagéré. A chaque fois qu’un humain fait une erreur, on ne lui dit pas qu’il ne sait pas raisonner », argumente le chercheur.

 

 

Pour le
chercheur,
GPT-5 est un
« partenaire de
réflexion » utile
pour tester et
écarter plus vite
des hypothèses

 

       Les progrès vantés par M. Bubeck et OpenAI peuvent-ils amener à l’avènement « intelligence artificielle générale », ce concept parfois jugé flou ou marketing et souvent décrit comme une IA capable d’égaler l’humain sur la plupart des tâches ? Les modèles de traitement du langage actuels sont déjà des formes d« IA générales » car « ils peuvent parler de tous les sujets », par opposition aux « IA étroites » du passé qui étaient spécialisées dans un domaine, estime M. Bubeck. Et celui-ci de suggérer de mesurer les progrès le progrès en « temps d’IA » : GPT-4, sorti en 2023, pouvait accomplir des tâches « réalisables par des humains en quelques secondes », 01, sorti en 2024, des tâches de « quelques minutes », et 03 puis GPT-5 de « plusieurs heures ». « Les progrès sont constants et je ne vois pas d’obstacle à ce que dans un an nous atteignions des semaines », estime le chercheur.

       M. Bubeck relativise le problème persistant des erreurs dans les réponses des IA : « C’était un problème dans GPT-4, mais avec GPT-5 on a réussi de progresser », dit-il. Quant au manque d’« explicabilité » des réponses données par les assistants d’IA, problématique pour des décisions sensibles nécessitant d’être motivées, en médecine ou en justice, le chercheur reconnaît qu’il sera « probablement impossible » d’y remédier totalement, mais il note que les modèles « de raisonnement » peuvent, si on les interroge, donner des réponses sur « comment ils sont parvenus à un résultat ».

 

Nouvelles architectures

Pourtant, certains, dont le Français Yann LeCun, un des pères de l’IA moderne qui a annoncé son départ de chez Meta, jeudi, estiment que les modèles de traitement du langage, cantonnés au texte, sont foncièrement limités. Selon eux, atteindre une « IA générale » nécessite d’inventer de nouvelles architectures, notamment pour permettre aux l’IA de se créer des représentations du monde réel physique. « Je suis en désaccord. Il n’y a aucune raison de sortir du paradigme dans lequel on est actuellement, avec les modèles de langue et l’apprentissage par renforcement », répond M. Bubeck.

       Le chercheur reconnaît qu’il ne suffit pas, pour progresser, d’augmenter la taille des modèles selon des « lois d’échelle » et qu’il faut « continuer à innover », en « adaptant les tâches confiées aux IA ou en travaillant sur le type de données sur lesquelles on les entraîne ».

       Si une « IA générale » pouvait être créée, que répondre aux militants de la sécurité de l’IA pour qui ce projet est dangereux car les fabricants de ces logiciels pourraient en perdre le contrôle ? « La sûreté est l’un des piliers d’OpenAI », assure M. Bubeck. « Nous sommes très loin d’avoir des machines capables de prendre le contrôle. Cela nécessiterait encore énormément d’étapes », estime le chercheur, soulignant certaines limites des IA actuelles.

DAVID LABROUSSERIE ET ALEXANDRE PIQUARD