Retrospective 2025
Ou comment l’IA réhabilite l’humain dans l’équation.
Claude 4.5, Gemini 3.0, ChatGPT 5.2… En 2025, les modèles ont progressé plus vite que les cadres pour les penser. Comme le résume Ethan Mollick : « Je n’ai jamais été aussi certain que si le développement de l’IA s’arrêtait aujourd’hui, nous connaîtrions malgré tout des bouleversements massifs et continus dans la société et l’économie pendant les dix prochaines années, le temps que les gens apprennent à exploiter ce que les modèles peuvent déjà faire, pour le meilleur comme pour le pire. »
Annoncée en grande fanfare fin 2024, l’ère agentique (ndlr : des agents autonomes capables d’atteindre un objectif précis avec une supervision limitée) reste, pour le moins, incertaine. En cause ? Les systèmes peinent encore à garder leur cap, à suivre un contexte qui s’effiloche au fil de l’échange, et à tenir debout face à des interactions humaines dites adversariales (en clair : dès que quelqu’un décide de jouer au con). La preuve : l’expérience menée par Anthropic pour le Wall Street Journal. Le pitch : un agent autonome baptisé Claudius, doté de 1 000 dollars et qui opère sur Slack, s’est retrouvé opposé à une bande de journalistes espiègles. Résultat des courses : en quelques jours, ils ont réussi à arnaquer l’agent et le persuader d’acheter une PlayStation 5, du vin et même un poisson combattant.
Un élément qui m’a interpellée ? même si les failles de ces agents sont structurelles, les personnes qui ont mis à genoux celui-ci n’étaient pas des hackers, ni des ingénieurs, ni des experts en sécurité, mais des journalistes. Des profils plutôt littéraires, armés de curiosité, d’humour et d’un sens affûté de la conversation. Preuve que pour déstabiliser un agent autonome, il faut parfois moins de compétences techniques qu’un talent naturel pour pousser l’autre dans ses retranchements. Et de quoi se demander si, finalement, la véritable soft skill des années à venir ne sera pas… la roublardise.
Cette anecdote pointe aussi un problème clé : celui de la mémoire. Sans elle, un agent oublie ce qu’il vient de décider, perd le fil en route et repart de zéro à chaque interaction. Pas idéal quand on prétend l’envoyer gérer quoi que ce soit de réel… C’est sans doute l’une des raisons pour lesquelles les géants du secteur ont accéléré sur ce sujet en 2025. OpenAI a étendu la mémoire persistante de ChatGPT, ce qui permets au modèle de conserver préférences et contexte d’une session à l’autre. Anthropic, de son côté, a déployé une mémoire structurée, segmentée par projet et éditable par l’utilisateur. Google, enfin, vise un problème plus profond avec son architecture Titans. Ici, la mémoire n’est pas ajoutée autour du modèle, elle est intégrée dedans et à pour objectif de permettre au système de conserver et réutiliser des informations au fil du temps, sans dépendre uniquement d’un historique externe.
Pourquoi est-ce intéressant ? Parce que la mémoire est un game-changer. D’abord, la mémoire devient une pièce maîtresse du système : elle détermine la manière dont l’agent traite l’information pour ensuite agir. Ensuite, l’usage devient continu. Et quand il y a de la continuité, on peut commencer à déléguer, vraiment, c’est à dire, pas simplement une tâche ponctuelle, mais une partie de son quotidien. C’est là que pourront émerger de vrais assistants personnels, capables de s’inscrire dans notre quotidien et de nous accompagner au long cours. Un avant-goût de ce qui arrive ? Très probablement.
Dans ce contexte, Anthropic poursuit sa transformation en véritable sparring partner de l’humain. À sa campagne Keep Thinking s’est greffé un pop-up “anti-slop” très analogique, doté d’un espace cozy avec café, livres, papier et stylos. Le tout sans écrans. Une façon de rappeler qu’on peut penser avec, autour, et parfois même sans.
Ce qui rejoint une réflexion que je me faisais récemment : on parle sans cesse “d’acculturation à l’IA”, on nous sert des formations en continu comme s’il s’agissait d’apprendre à bien l’utiliser. J’ai même entendu cette phrase : “il faut l’utiliser avec intelligence”. Pourtant… si l’intelligence est ce que l’on mobilise quand on ne sait pas, alors le véritable enjeu n’est pas l’intelligence de l’usage, mais plutôt la friction dans l’usage. Soit : la capacité à produire une pensée avant la question, à questionner la question autant que la réponse, à laisser un temps après la réponse, et surtout à refuser que la réponse mette fin à la pensée. Non ?
Autre fait marquant de l’année : la fuite d’un document baptisé « Soul Doc ». Impossible de dire s’il s’agit d’un véritable leak ou d’un coup de communication savamment orchestré, mais son authenticité a été confirmée par Amanda Askell, philosophe et éthicienne chez Anthropic. Le texte révéle une facette plus philosophique de Claude, une tentative de formuler comment il raisonne, ses valeurs, et ce qu’il privilégie dans une conversation. Comme si, derrière la technique, on commençait à esquisser une forme d’intériorité. D’autant qu’en parallèle, Anthropic a publié en octobre des travaux sur l’introspection de ses modèles, et a mis en évidences leurs capacités à identifier et rapporter certains de leurs états internes. Une piste de recherche destinée à renforcer la transparence de leur fonctionnement.
Cette quête d’introspection ne concerne pas seulement les modèles : elle touche aussi les humains, de plus en plus nombreux à se tourner vers les LLM comme confidents. La thérapie informelle et la compagnie émotionnelle figurent désormais parmi les usages les plus fréquents, devant l’organisation du quotidien et la recherche de sens.
Ce glissement interroge, car il ne relève pas seulement de l’anthropomorphisation, mais questionne sur une potentielle forme de manipulation à haut niveau, inscrite dans la boucle même de l’échange. En effet, en structurant à la fois l’input, la manière dont les utilisateurs apprennent à formuler pensées et affects, et l’output, les cadres interprétatifs et les récits proposés en retour, ces systèmes peuvent orienter perceptions, normes et comportements de façon largement invisible. Au risque d’affaiblir le lien à l’Autre et d’installer de nouvelles formes de dépendance ?
Dans ce contexte, une étude du MIT (largement relayée et tout aussi largement simplifiée) a jeté le trouble en montrant que, dans une tâche scolaire très balisée, les participants qui déléguaient l’écriture à ChatGPT mobilisaient moins d’effort cognitif. Beaucoup y ont vu la preuve que les LLM “nous rendent bêtes”. Or l’étude ne dit rien de tel : elle constate simplement que lorsqu’on délègue une tâche, on pense moins… ce qui, convenons-en, n’a rien d’un scoop. C’est un peu comme annoncer que prendre l’ascenseur fait moins marcher.
À rebours de ces interprétations que je trouve un peu hâtives, une autre étude récente s’est penchée sur la qualité du duo formé par l’humain et l’IA. Elle montre que certaines personnes obtiennent de bien meilleurs résultats avec un modèle qu’en solo, et que cet écart ne s’explique pas seulement par une “astuce de prompt” ou par des compétences techniques, mais par une manière particulière de conduire la conversation. Les chercheurs y voient une expression de theory of mind ou l’humain organise l’échange comme s’il dialoguait avec un partenaire capable de comprendre, de mal comprendre ou de passer à côté, et il ajuste son discours en conséquence pour que la coopération fonctionne. C’est dans ces cas-là que la synergie est la plus forte.
Ce que je trouve fascinant dans cet exemple, c’est que, tandis qu’on nous abreuve de discours alarmistes sur une IA supposée nous déshumaniser ou nous rendre plus bêtes - mon sentiment étant moins qu’elle ne produit la bêtise qu’elle ne la rend visible -, certains cas d’usages suggèrent au contraire que ses usages les plus féconds sont ceux qui réactivent nos compétences les plus relationnelles, les plus profondément humaines. Peut-être que l’avenir sera finalement beaucoup moins artificiel qu’on ne le croit et, surtout, … bien plus humain qu’on ne l’imaginait.
MD
PS - J’en profite pour vous annoncer une grande nouvelle… j’ai écrit un livre ! Disponible en prévente chez mon éditeur, il sortira le 22 janvier 2026. D’ici là, je vous souhaite un joyeux Noël et de belles fêtes de fin d’année.




Bonjour Marie,
J'ai entrepris de précommander ton livre en format e-book. C'est bizarre car il est facturé en £...
C'est peut être un détail mais j'ai pas osé continuer ma commande.
J'ai maintenant choisi de travailler avec Claude depuis plusieurs mois et j'utilisais ChatGPT en parallèle. J'ai beaucoup comparé les réponses et sans dire que ces outils ont une personnalité, je suis convaincu que transpirent dans les algorithmes les personnalités des équipes de conception (ce que dit et écrit @aurélie Jean sur le sujet). Cela donne une forme d'humanité.
Mon expérience d'utilisateur quotidien me montre qu'effectivement travailler en mode projet qui intègre une forme de mémoire, permet d'améliorer le duo humain-IA, et me tire vers le haut (s'il existe un haut). Mais j'apprends en même temps à être plus vigilant, plus critique au prix d'efforts en revanche toujours plus importants. Et c'est ce dernier point qui m'inquiète : jusqu'à quel point vais je conserver cet esprit critique, cette distance si énergivore. Et ça me ramène à mon statut de simple humain, m'humanise plus peut être...
Merci encore Marie ! Passe de belles fêtes et hâte de te lire
Votre lettre a été une belle découverte, j'apprécie aussi les références, et le style. Merci.