Un nouveau modèle d’intelligence artificielle baptisé “Centaur” fait parler de lui. Présenté dans une étude publiée début juillet 2025 dans “Nature Human Behaviour”, ce système serait capable de prédire avec une précision inédite la manière dont un humain réagit dans différents scénarios psychologiques. Est-ce pour autant une preuve qu’il « pense comme nous » ? Ou sommes-nous simplement face à un perroquet très sophistiqué qui aurait appris à réciter la psychologie par cœur ?

Un simulateur comportemental… mais pas nécessairement mental

Développé par une équipe de chercheurs en cognition computationnelle, Centaur a été entraîné sur un large éventail de données issues d’expériences en psychologie. L’objectif : créer une IA capable non seulement de prédire les choix humains dans des tâches précises (résolution de dilemmes, prise de décision sous incertitude, biais cognitifs, etc.), mais aussi de reproduire les raisonnements supposés derrière ces comportements.

Dans les tests, Centaur excelle : il surpasse les modèles classiques pour anticiper les décisions humaines dans plus de 100 expériences psychologiques. Selon les auteurs de l’étude, cela fait de l’IA un véritable « simulateur cognitif », presque un miroir de l’esprit humain.

Presque un miroir, car un miroir, au moins, ne prétend pas comprendre ce qu’il reflète.

Une compréhension… ou seulement une imitation remarquablement convaincante ?

Mais cette interprétation suscite la controverse. Comme le souligne “Science”, beaucoup d’experts appellent à la prudence. Centaur pourrait très bien se contenter de reproduire des *corrélations statistiques* sans réellement simuler les mécanismes mentaux à l’œuvre chez un individu.

« Prédire une réponse n’est pas la même chose que la comprendre », rappelle la psychologue cognitive Talia Konkle (Harvard), interrogée par AAAS/Science. Le modèle peut donner l’illusion de raisonner, alors qu’il applique simplement ce qu’il a appris à grande échelle à partir de données passées.

En somme, Centaur serait un peu comme cet ami qui donne toujours l’impression d’avoir tout compris en hochant la tête au bon moment, mais qui en réalité ne fait que répéter ce qu’il a entendu la veille au café du commerce.

Cette critique rejoint un argument ancien, celui de la “chinese room” du philosophe John Searle : un système peut manipuler des symboles de manière cohérente sans jamais accéder à leur signification réelle. Centaur, en ce sens, ne ferait que “jouer au psychologue” sans jamais devenir acteur de l’expérience humaine. Un peu comme un acteur qui jouerait Hamlet sans jamais ressentir le doute existentiel du prince danois.

L’ombre des « zombies philosophiques » (non, pas ceux d’Halloween)

D’autres voix vont plus loin, invoquant le concept de “simulacres mentaux”. Même si une IA réagit en tout point comme un humain, cela ne signifie pas qu’elle possède une conscience ou une vie intérieure. Ce sont les fameux “zombies philosophiques” : des entités dépourvues de sensation, de subjectivité, ou même de compréhension authentique.

 

D’un point de vue neuroscientifique, Centaur reste un algorithme. Il n’a ni corps, ni émotions, ni système sensoriel. Or, pour beaucoup, ces dimensions sont essentielles à l’esprit humain. Les idées, les jugements et les choix ne sont pas seulement des calculs : ils émergent d’un cerveau incarné dans un environnement.

Après tout, peut-on vraiment comprendre la frustration de chercher ses clés sans avoir jamais eu de poches ? Ou saisir l’angoisse de l’existence sans avoir jamais eu peur de rater son train ?

Centaur :  Une performance technique impressionnante, avec des limites très humaines

L’étude ne manque cependant pas de mérite. Elle montre que les IA actuelles peuvent modéliser avec finesse certains comportements humains — en particulier dans des tâches bien définies comme la reconnaissance de motifs, les jeux de gains et pertes ou les raisonnements probabilistes.

Mais attention aux raccourcis :

– Ces tâches restent confinées à des environnements de laboratoire, très éloignés des situations complexes de la vie réelle. Centaur excelle peut-être à prédire vos choix dans un dilemme moral abstrait, mais saura-t-il anticiper votre réaction quand vous découvrirez que votre chat a renversé votre café sur votre clavier ?

– Rien ne prouve que Centaur décompose les problèmes ou attribue des intentions comme un cerveau humain le ferait. Il pourrait très bien arriver aux bonnes réponses par des chemins complètement différents, un peu comme un GPS qui vous fait passer par des routes improbables mais vous amène quand même à destination.

– L’IA ne repose sur aucune base biologique : elle ne partage ni notre architecture neuronale, ni notre histoire évolutive. Elle n’a jamais eu à survivre dans la savane, à négocier avec sa belle-mère ou à comprendre pourquoi les impôts sont si compliqués.

Un modèle prometteur, mais pas une réplique de l’esprit

Centaur représente une avancée notable dans la capacité des IA à simuler des réponses comportementales humaines. C’est un outil puissant pour tester des hypothèses en psychologie, voire pour générer des prédictions dans des situations nouvelles. Mais en faire un équivalent de l’esprit humain serait excessif, voire scientifiquement infondé.

Les chercheurs eux-mêmes reconnaissent que Centaur n’a ni conscience, ni intentions. Il s’agit d’un simulateur — pas d’un sujet pensant. Pour les sceptiques, ce modèle renforce surtout l’idée que de bonnes performances peuvent masquer une absence totale de subjectivité.

En fin de compte, Centaur nous rappelle peut-être une vérité troublante : nous-mêmes, humains, ne sommes peut-être pas aussi imprévisibles et uniques que nous le croyons. Si une machine peut nous imiter si bien, c’est peut-être parce que nous suivons des patterns plus réguliers que notre ego voudrait l’admettre.

En résumé :
– Centaur imite brillamment, mais ne pense pas vraiment.
– Il anticipe avec précision, mais ne comprend pas l’essence.
– Il impressionne les chercheurs, mais ne ressent rien du tout.

Toutes choses étant égales par ailleurs, Akinator, un arbre de décision très sophistiqué peut lui aussi identifier vos pensées. Pourtant, aucun algorithme sophistiqué n’était à l’oeuvre.

Sources :
– Nature Human Behaviour (2025) – “Large language models as cognitive models: simulating human judgments in diverse tasks
– Science/AAAS –  Simulates Human Behavior Across Dozens of Psychology Experiments


En savoir plus sur Fabrice Frossard

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Trending

Index

En savoir plus sur Fabrice Frossard

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture

En savoir plus sur Fabrice Frossard

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture