Janvier
2026
« NOUS
AVONS DES IA QUI AGISSENT COMME UN CHERCHEUR DEBUTANT »
DAVID
LABROUSSERIE et ALEXANDRE PIQUARD
Le Monde - Samedi 22
novembre 2025
Sébastien
Bubeck, qui travaille pour OpenAI sur les applications de l’IA dans la science,
se dit optimiste sur les progrès en général
|
L |
’intelligence
artificielle [IA] est un accélérateur pour la
science », martèle Sébastien Bubeck, chercheur associé au programme
OpenAI for Science, créé début septembre au sein de la start-up américaine pour
appliquer ses modèles d’IA aux activités de recherche. « Les avancées
des derniers mois m’ont surpris moi-même. Avec notre modèle le plus avancé,
GPT-5, nous avons des IA qui agissent vraiment comme un chercheur
débutant », assure ce Français arrivé dans la maison mère de ChatGPT
en 2024 après dix ans passés comme chercheur en IA chez Microsoft.
Jeudi 20 novembre, M. Bubeck a copublié
avec des collègues d’OpenAI et des universitaires un article scientifique
présentant des témoignages de chercheurs en mathématiques, physique ou biologie
ayant utilisé GPT-5 dans certains cas pour leur travail. L’article décrit
comment GPT-5 a aidé à résoudre un des problèmes du mathématicien hongrois Paul
Erdös (1913-1996) en créant « une forme de tandem avec le chercheur
humain » et en apportant « une idée-clé » pour la
solution, explique ce mathématicien formé à l’Ecole normale supérieure de
Cachan (aujourd’hui Paris-Saclay) et à l’université de Lille.
M. Bubeck a aussi résolu une conjecture
mathématique qu’il avait posée en 2013 – et qu’un groupe de ses étudiants de
Princeton « n’avaient pas réussi à prouver » - en faisant
travailler une version améliorée de GPT-5 « pendant deux jours ». en physique, l’article décrit un cas où l’IA a permis de
redécouvrir un résultat, déjà connu, sur les symétries d’un trou noir. En
biologie, elle a pu, à partir des données d’immunologie, formuler une hypothèse
crédible pour les interpréter et suggérer des expériences complémentaires, que
les chercheurs ont pu effectuer, explique M. Bubeck.
N’est-il pas, exagéré de présenter l’IA
comme un outil capable d’agir de façon autonome et de remplacer des chercheurs
scientifiques ? « Non, mais les progrès sont tellement frappants
qu’il est normal de scruter les résultats, explique M. Bubeck. GPT-5n ne
va pas découvrir de nouvelles grandes théories tout seul. Il ne va pas
redécouvrir la relativité générale d’Einstein. » Le modèle est à ce
stade un « partenaire de réflexion » pour le chercheur, utile
pour tester et écarter plus vite des hypothèses, voire proposer « un
contre-exemple ».
A ce stade, OpenAI se
concentre, dans le domaine scientifique, sur l’utilisation d’assistants fondés
sur des modèles de traitement du langage de type GPT-5 (notamment utilisé dans
ChatGPT), alors que des concurrents comme Google DeepMind créent des systèmes
d’IA spécialisés, à l’image d’AlphaFold pour la modélisation de protéines,
récompensé du Nobel de chimie en 2024.
« Les progrès sont constants »
OpenAI
comme Google DeepMind ont frappé les esprits en juillet en obtenant chacun,
pour la première fois, une médaille d’or aux Olympiades internationales de
mathématiques. Là encore, M. Bubeck relativise les critiques, pointant du doigt
le risque que les modèles d’IA aient pu trouver les bons résultats en
reproduisant des éléments de réponse présents dans leurs données d’entraînement.
« Un participant humain s’entraîne aussi sur tous les exemples de
toutes les années précédentes », note-t-il. Pour lui, la notion de
« découverte » se résume parfois à « combiner des choses qui
existaient déjà et à trouver des connexions qu’on n’avait pas découvertes
avant ».
Dans le même esprit, M.
Bubeck, qui participe aussi plus généralement aux recherches sur les modèles
d’IA chez OpenAI, n’est pas d’accord avec les conclusions d’un article
polémique publié en juin par des chercheurs d’Apple, dénonçant les limites des
capacités des réflexions des récents modèles d’IA dits « de
raisonnement », accusés de donner « l’illusion de penser ». Cette
famille de modèles de traitement de langage – dont font partie 03 et GPT-5 chez
OpenAI, Sonnet d’Anthropic ou Gemini 3 de Google – s’interrogent et
s’auto-évaluent plusieurs fois avant de répondre, prenant davantage de temps. « Les
modèles ont évidemment des points faibles. Mais en conclure que c’est un échec
du raisonnement, c’est exagéré. A chaque fois qu’un humain fait une erreur, on
ne lui dit pas qu’il ne sait pas raisonner », argumente le chercheur.
Pour le
chercheur,
GPT-5 est un
« partenaire de
réflexion » utile
pour tester et
écarter plus vite
des hypothèses
Les progrès vantés par M. Bubeck et
OpenAI peuvent-ils amener à l’avènement « intelligence artificielle
générale », ce concept parfois jugé flou ou marketing et souvent décrit
comme une IA capable d’égaler l’humain sur la plupart des tâches ? Les
modèles de traitement du langage actuels sont déjà des formes d’« IA générales » car « ils
peuvent parler de tous les sujets », par opposition aux « IA
étroites » du passé qui étaient spécialisées dans un domaine, estime
M. Bubeck. Et celui-ci de suggérer de mesurer les progrès le progrès en « temps
d’IA » : GPT-4, sorti en 2023, pouvait accomplir des tâches
« réalisables par des humains en quelques secondes », 01, sorti
en 2024, des tâches de « quelques minutes », et 03 puis GPT-5
de « plusieurs heures ». « Les progrès sont constants et je
ne vois pas d’obstacle à ce que dans un an nous atteignions des
semaines », estime le chercheur.
M. Bubeck relativise le problème
persistant des erreurs dans les réponses des IA : « C’était un
problème dans GPT-4, mais avec GPT-5 on a réussi de progresser », dit-il.
Quant au manque d’« explicabilité » des
réponses données par les assistants d’IA, problématique pour des décisions
sensibles nécessitant d’être motivées, en médecine ou en justice, le chercheur
reconnaît qu’il sera « probablement impossible » d’y remédier
totalement, mais il note que les modèles « de raisonnement » peuvent,
si on les interroge, donner des réponses sur
« comment ils sont parvenus à un résultat ».
Nouvelles architectures
Pourtant,
certains, dont le Français Yann LeCun, un des pères de l’IA moderne qui a
annoncé son départ de chez Meta, jeudi, estiment que les modèles de traitement
du langage, cantonnés au texte, sont foncièrement limités. Selon eux, atteindre
une « IA générale » nécessite d’inventer de nouvelles
architectures, notamment pour permettre aux l’IA de se créer des
représentations du monde réel physique. « Je suis en désaccord. Il n’y
a aucune raison de sortir du paradigme dans lequel on est actuellement, avec les
modèles de langue et l’apprentissage par renforcement », répond M.
Bubeck.
Le chercheur reconnaît qu’il ne suffit
pas, pour progresser, d’augmenter la taille des modèles selon des « lois
d’échelle » et qu’il faut « continuer à innover », en
« adaptant les tâches confiées aux IA ou en travaillant sur le type de
données sur lesquelles on les entraîne ».
Si une « IA générale »
pouvait être créée, que répondre aux militants de la sécurité de l’IA pour qui
ce projet est dangereux car les fabricants de ces logiciels pourraient en
perdre le contrôle ? « La sûreté est l’un des piliers
d’OpenAI », assure M. Bubeck. « Nous sommes très loin d’avoir
des machines capables de prendre le contrôle. Cela nécessiterait encore
énormément d’étapes », estime le chercheur, soulignant certaines
limites des IA actuelles. ■