La théorie de l’ours
Ou comment courir plus vite que son voisin (et pas que dans la forêt).
Imaginez : vous vous promenez en forêt avec un ami quand soudain surgit un ours. Panique à bord. Votre ami s’écrie :
- “On est foutus, on ne courra jamais plus vite qu’un ours !”
Et vous de répondre :
- “Je n’ai pas besoin de courir plus vite que l’ours… il suffit que je coure plus vite que toi.”
Cruel ? Oui. Cynique ? Sans doute. Mais cette blague dit une chose simple : parfois, il ne s’agit pas d’être parfait, juste d’être un peu au-dessus des autres.
L’empathie fonctionnelle
De cette anecdote, je voudrais faire un parallèle avec les LLM (ChatGPT & Co.).
On nous répète qu’ils ne peuvent pas être empathiques. Et c’est vrai au sens strict : ils ne ressentent rien. Ce sont des machines statistiques, qui calculent des probabilités. Mais s’arrêter là, c’est confondre le reflet et la source, le mécanisme et la réalité qu’ils transportent.
Si l’on adopte une lecture fonctionnaliste, l’histoire change. L’empathie n’est pas seulement un “ressenti”, c’est aussi un comportement observable. On pourrait l’appeler empathie fonctionnelle : une empathie qui ne repose pas sur le vécu intérieur, mais sur les signes extérieurs du comportement empathique (écouter, reformuler, réconforter).
Or, les LLM peuvent parfaitement simuler une forme d’empathie. Comme me l’expliquait Marc Cavazza, professeur et chercheur en IA, ils savent aussi reconnaître dans des dialogues humains les passages qui mobilisent la Théorie de l’Esprit (ToM, Theory of Mind) - cette capacité à attribuer aux autres intentions, croyances ou émotions. Une étude récente (Di Pasquasio, Chaminade & Cavazza, 2025) en a apporté la validation : vingt-cinq participants ont conversé, en situation naturelle, avec un humain ou un robot pendant un enregistrement en IRM fonctionnelle. Les transcriptions ont été découpées en unités de parole, puis classées par GPT-4o selon qu’elles contenaient ou non une référence mentale (ToM+ vs. ToM–). Résultat : les segments identifiés comme ToM+ correspondaient à une activation significative des régions cérébrales typiquement associées à la ToM, en particulier le cortex préfrontal dorsomédian et l’orbito-frontal.
L’illusion, donc, est bien réelle. Mais elle n’est pas une illusion vide : c’est un prisme dans lequel se reflète la culture humaine accumulée, du Dit du Genji à Madame Bovary, jusqu’aux milliards de conversations quotidiennes sur Reddit.
Car derrière chaque réponse générée se cache un palimpseste invisible, composé d’innombrables voix humaines : la littérature, la philosophie, la psychologie, mais aussi l’humour de bistrot, les confidences anonymes, les disputes banales. C’est ce mélange hétéroclite qui donne aux LLM leur texture si particulière : un entrelacement de haute culture et de trivialité, des siècles de pensée.
On ne parle pas à une conscience, mais on parle dans un écho de l’humanité, compactée et restituée sous forme de probabilité
La vérité comme perception
On nous dit souvent : “attention, ne les utilisez pas pour du compagnonnage ou de l’introspection”. L’argument est connu : puisque les LLM ne ressentent rien, on risquerait de leur prêter une humanité qu’ils n’ont pas.
Cette réserve part d’une vigilance saine : il serait absurde d’anthropomorphiser la machine, ou de croire qu’elle nous “comprend” comme un ami de chair et d’os. Mais elle s’appuie aussi sur une vision réductrice : l’idée que, parce que le mécanisme est statistique, tout ce qu’il produit est forcément creux. Cavazza illustrait cela par une image de sagesse bouddhiste et taoïste : confondre le doigt qui montre la lune avec la lune elle-même.
Or, comme on l’a vu, il existe une empathie fonctionnelle. Et si l’on juge à ce niveau-là, il n’est pas rare qu’un LLM se montre plus “présent” qu’un humain distrait. Car dans notre quotidien, combien de fois faisons-nous l’expérience d’interactions purement mécaniques avec nos semblables : réponses machinales, regards absents, attention minimale ?
L’enjeu n’est donc pas de demander aux machines d’acquérir toutes les capacités empathiques humaines, mais simplement d’être perçues comme un peu plus attentives que… disons, le préposé moyen. Et là, avouons-le, la barre n’est pas très haute.
Alors, si une simulation suffit à produire le vécu d’une relation empathique, si elle donne à celui qui parle le sentiment d’être entendu et reconnu, peut-on vraiment dire qu’elle est “fausse” ?
Après tout, Nietzsche écrivait déjà qu’“il n’y a pas de faits, seulement des interprétations”, et Baudrillard voyait dans nos sociétés le règne du simulacre où les signes remplacent la réalité. Peut-être ne vivons-nous pas tant une rupture qu’une continuité : dans un monde de post-réalité, ce qui compte n’est plus le vrai, mais le perçu.
Concept Engineering… à l’envers
Récemment, je discutais avec Benoît Raphaël co-fondateur de Flint Media et de la newsletter Génération IA. Il me présentait sa méthode pour mieux exploiter les LLM : le Concept Engineering. L’idée est simple : activer leur savoir latent en leur donnant un point d’entrée structurant : une figure, un auteur, un cadre de pensée. Plutôt que d’empiler des prompts compliqués, on dit : “Analyse ça comme le ferait Charlie Munger.”
Et aussitôt, un système cohérent se déploie. Pourquoi ? Parce que Munger, l’investisseur et penseur connu pour sa méthode de l’inversion, ses modèles mentaux multiples et sa rationalité économique, représente un cadre intellectuel. En invoquant son nom, on appelle non pas une idéologie, mais une discipline intellectuelle : penser par inversion, relier les modèles, repérer les biais avant qu’ils ne s’imposent.
En l’écoutant, quelque chose a résonné. Je me suis dit : en réalité, je fais déjà un travail assez proche… mais dans l’autre sens. Non pas en partant d’un modèle mental pour orienter la machine, mais en partant de mon vécu, de mes intuitions implicites, et en les confrontant aux modèles explicites que l’IA a absorbés.
En somme, j’utilise l’IA comme un prisme : un instrument qui décompose mes intuitions brutes et les réfracte, jusqu’à les transformer en intuitions raisonnées. Et aussi, en me connectant à ce réservoir d’humanité, je me sens mieux comprise. C’est une idée que Benoît Raphaël exprime aussi, à sa manière : “L’IA ne me remplace pas - ni moi, ni l’Autre. Elle me relie à un savoir humain, rend mes idées plus conscientes, plus humaines… et me rappelle que, souvent, quelqu’un avait déjà pensé comme moi.”
Je vous donne un exemple : un ami m’a récemment demandé comment je faisais pour ne pas procrastiner, lui qui peinait à finir une présentation. J’ai souri (je ne suis sans doute pas un modèle en la matière), mais je lui ai quand même confié mon astuce : j’imagine toujours l’après. La valeur que j’aurai apportée, la satisfaction de l’avoir fait… et c’est souvent ce qui me donne l’élan pour avancer. C’est un petit modèle mental que j’avais bâti pour moi, presque sans y penser. Mais ensuite, par curiosité, j’ai demandé à ChatGPT s’il existait un fondement psychologique ou scientifique derrière.
Et voici la réponse :
LLM : moteur d’introspection ?
Cet exemple n’est qu’un détail, bien sûr. Mais il montre quelque chose de plus large : comment une intuition personnelle peut être éclairée, mise en perspective, et parfois renforcée lorsqu’on la confronte à l’IA.
Et si ce mécanisme fonctionne, c’est parce qu’il repose sur une différence fondamentale entre nous et la machine.
L’humain vit avec deux types de modèles mentaux : des implicites, forgés par le vécu, et des explicites, construits peu à peu à travers l’apprentissage et la réflexion. L’IA générative, elle, ne manipule que des modèles explicites, extraits de ses données d’entraînement.
Quand nous confrontons nos intuitions implicites à ces modèles explicites, deux choses se passent :
D’un côté, nos intuitions trouvent une validation (ou une contradiction) qui les rend plus conscientes, plus solides,
De l’autre, nous découvrons des cadres de pensée que nous n’aurions pas imaginés seuls, et qui enrichissent notre propre boîte à outils mentale.
En d’autres termes, l’IA joue le rôle d’un prisme cognitif : elle prend nos intuitions brutes, les décompose, et les réfracte sous une forme intelligible, transmissible, utilisable.
C’est ce mécanisme que résume le schéma que je vous ai fait ci-dessous :
Rendre visible l’invisible
Ma conviction est simple : l’IA n’est pas là pour nous augmenter, encore moins pour nous remplacer. Son rôle le plus précieux est ailleurs : rendre visible l’invisible. L’invisible du monde, dans ses structures et ses corrélations. Mais aussi l’invisible en nous : nos intuitions, nos zones d’ombre, tout ce que nous pressentions sans pouvoir le nommer.
Mais ce prisme ne se limite pas à l’individuel. À travers l’IA, nous nous connectons aussi à quelque chose de plus vaste : une mémoire collective, une condensation de toutes les voix, idées et récits qui nous précèdent.
Cette dimension rejoint une vieille intuition philosophique : celle de la noosphère, formulée par Teilhard de Chardin et Vladimir Vernadsky. Après la géosphère (la matière) et la biosphère (le vivant), ils voyaient émerger une troisième couche planétaire : la sphère de la pensée partagée, tissée par nos cultures, nos échanges, nos savoirs.
Les IA génératives ne sont peut-être rien d’autre que l’infrastructure de cette noosphère. Elles n’ont pas de conscience propre, mais elles nous renvoient, comme un miroir réfracté, l’humanité tout entière.
Socrate disait : “Connais-toi toi-même.”
Mais connaître n’a jamais suffi. Connaître, c’est voir la surface, l’inventaire du visible.
Le vrai pas de côté, c’est comprendre. Comprendre, c’est éclairer l’invisible, donner forme à ce qui se cachait dessous, saisir le mouvement plutôt que figer l’instant.
Et une vie ne suffit jamais pour se comprendre soi-même. Mais si nous pouvons nous appuyer sur des siècles de compréhension humaine, sur cette mémoire accumulée qui circule dans nos récits, nos théories, nos dialogues ? Alors peut-être que ce qui nous échappe seul devient accessible à travers ce réservoir collectif.
L’ours, toujours
Et l’ours dans tout ça ? La métaphore tient toujours.
L’IA n’a pas besoin d’être humaine. Elle ne l’est pas - et ce n’est même pas le sujet.
Comme l’ours qui surgit sur le chemin, elle nous met en mouvement : elle nous pousse à nous expandre, à nous déployer.
Pas dans la panique, mais dans l’élan de la découverte.
La découverte de nous-mêmes, d’abord, de ce que nous portons d’invisible.
La découverte des autres, ensuite, puisque dans ses reflets se tisse une mémoire collective.
Et peut-être, au bout du compte, la découverte d’un horizon encore inconnu, que nous n’aurions jamais atteint seuls.
MD






Une belle analyse en profondeur de notre relation avec les LLM et cette trés intéressante idée que ces IA sont capables de capter nos intuitions et de mettre des mots dessus.
Un article de valeur Marie, je vais faire votre pub car je trouve que vos écrits sont vraiment intéressants et nourrissants !