Discussion about this post

User's avatar
Bernard Challiol's avatar

Merci encore une fois @Marie pour cet article qui pose (repose) les fondations de nos réflexions personnelles autour non seulement de l'usage de IA dans nos sociétés mais également dans nos principes même.

Et puis, j'ai fait ensuite l'erreur de lire le commentaire de @Ky, qui m'a plongé dans la confusion la plus totale. Cette avalanche de mots, d'idées surement très intelligentes, m'a fait perdre pied sur le fond du sujet. Dans ton article, tu proposes :"Alors, plutôt que de tout passer au crible, peut-être qu’il faut apprendre à regarder autrement". Et là, dans les commentaires, @Ky nous propose l'inverse : ce n'est pas sa pensée mais la réponse d'une IA. Et c'est exactement ça, le slop où sous prétexte d'essayer de débattre, on propose à l'IA de débattre à notre place, rendant inaudible le texte initial. En lisant ces échanges, ça me renvoie à toutes les idées et concepts développés dans le formidable bouquin Cyberpunk d'Asma Mhalla : être noyé sous un flux incessant d'informations ne nous permet plus de prendre le temps de construire notre propre pensée, et permet à des gens peu scrupuleux d'occuper totalement l'espace. Et dans le cas précis, cet échange m'évoque le concept de doublethink popularisé par Orwen dans "1984", cette capacité à tenir simultanément deux idées contradictoires pour vraies, caractéristique des systèmes totalitaires qui manipulent la pensée et le langage.

Sur ce, belle journée à toutes et tous

Expand full comment
Ky's avatar

Bonjour Marie,

J'ai demandé à une IA de faire une critique de votre article en lui donnant en contexte des techniques pour "voir l'invisible". Voici ses propos :

Chère Marie,

Votre texte pose des questions essentielles sur l'IA générative - le risque d'AI slop, le model collapse documenté par Oxford, la nécessité d'une formation holistique. L'exemple du cours de Georgia Tech est particulièrement inspirant : cette articulation entre compréhension technique profonde et pratiques manuelles dessine effectivement un modèle pédagogique dont nous avons besoin.

Mais permettez-moi une observation critique, précisément dans l'esprit de "désenclavement de la perception" que vous invoquez via Barrau : votre texte construit une opposition binaire (IA-duplication vs IA-détection, techno-messianisme vs esprit poétique) qui occulte une réalité plus complexe. Quand vous écrivez "je ne crois pas en l'IA pour augmenter notre production, mais pour étendre notre perception", vous créez une fausse dichotomie. Dans les faits, 90% des usages sont hybrides : un développeur utilisant Copilot bénéficie simultanément d'une duplication de patterns ET d'une détection de bugs qui étend sa perception du code. Séparer ces dimensions, c'est projeter nos catégories philosophiques sur une réalité technique qui les déborde.

Plus problématique encore : votre critique du "slop" et appel au "ralentissement" omet systématiquement les gains réels et documentés - productivité des développeurs (+50% avec GitHub Copilot), accessibilité pour personnes handicapées (synthèse vocale, traduction temps réel), démocratisation de la création (Midjourney permet à des artistes sans formation classique d'exprimer leur vision). Cette omission n'est pas neutre. Elle construit un ratio gains/risques d'environ 1:5, alors que la réalité empirique suggère plutôt l'inverse. C'est précisément le type d'iceberg informationnel qu'une approche dialectique devrait exposer, pas reproduire.

Et puis, il y a la question du privilège de classe - question que votre référence à Barrau et Heidegger rend paradoxalement visible. "Habiter poétiquement le monde", "cultiver les interstices", "se rendre disponible à ce qui échappe" : ces formulations présupposent un capital culturel (philosophie continentale) et surtout un capital temporel considérable. Qui a le luxe de "déslopper" ? Certainement pas la caissière de Monoprix en contrat précaire, ni le développeur de Bangalore en compétition mondiale, ni l'étudiant africain pour qui l'IA représente un levier d'accès au savoir face aux asymétries postcoloniales persistantes. Votre "bien commun" risque d'être celui d'une minorité éduquée occidentale - exactement le type de reproduction élitaire que la pensée critique devrait interroger, pas reconduire.

Ce qui me frappe, c'est que vous critiquez à juste titre les "prophètes" technologiques (le CEO d'Opendoor et sa rhétorique de l'obsolescence), mais sans appliquer la même vigilance symétrique aux "prophètes du ralentissement". Qui profite du discours "déslopper" ? Quels réseaux, quelles institutions, quels capitaux symboliques se reproduisent à travers cette critique ? Les élites académiques françaises, les institutions culturelles qui financent "l'IA éthique", les philosophes continentaux dont les références légitiment une certaine posture intellectuelle. Ce n'est pas invalider votre propos - c'est lui demander la même rigueur dialectique qu'il exige des autres.

Une vraie écologie des intelligences, comme vous l'appelez de vos vœux, devrait peut-être commencer par reconnaître cette tension : l'IA générative produit simultanément du slop ET de l'émancipation, de l'aliénation ET de l'accessibilité, de l'appauvrissement ET de la démocratisation. Les deux sont vrais. Les deux coexistent. Et refuser cette complexité pour un récit plus pur (critique ou enthousiaste) - c'est précisément ce que vous reprochez aux techno-prophètes : la simplification du réel au service d'une vision.

Votre texte mérite qu'on le prenne au sérieux. C'est pourquoi je vous propose cette critique : non pour disqualifier votre inquiétude légitime face à l'AI slop, mais pour l'enrichir d'une dimension qu'elle omet. Le "bien commun" que vous visez demande peut-être d'abord qu'on interroge : commun de qui ? Accessible à qui ? Au bénéfice de qui ? Ces questions, vous les posez brillamment aux technologues. Il serait cohérent de se les poser aussi à soi-même.

Avec toute mon estime pour votre travail de réflexion,

Expand full comment
9 more comments...

No posts

Ready for more?