Le plagiat industriel que personne ne veut voir : derrière le rideau de l'IA
Le plagiat industriel que personne ne veut voir
Derrière le rideau de l'IA...
L'IA comme apogée du post-modernisme : quand le simulacre devient la norme
En bref : Les systèmes d'IA générative ne font pas que copier — ils plagient à l'échelle industrielle, recyclant sans attribution la pensée humaine pour créer l'illusion d'une intelligence originale. Cette prouesse technique est l'aboutissement logique du post-modernisme qu'Umberto Eco avait prédit dans sa "guerre du faux" : un monde où la distinction entre l'original et la copie s'efface, où le simulacre devient plus désirable que l'authentique. Ce phénomène, validé par des armées d'annotateurs sous-payés qui ont légitimé cette pensée "Canada Dry", pose une question fondamentale : sommes-nous encore capables de distinguer la vraie pensée critique de sa simulation statistique ?
Le grand plagiat : l'IA comme recyclage sans citation
"Cette réponse est pertinente, claire et bien structurée."
Ce verdict, rendu des millions de fois par les annotateurs humains d'OpenAI, Anthropic ou Google DeepMind, forme l'infrastructure invisible qui soutient l'illusion d'une machine pensante. Selon une étude de l'Université de New York publiée en 2023, ces évaluateurs gagnent en moyenne 2$ de l'heure dans les pays du Sud global, soit à peine quelques centimes par jugement.
Les systèmes d'IA générative fonctionnent comme des machines à recyclage sans attribution. Ils ingèrent des masses colossales de textes humains — plus de 5 millions de livres dans le cas de GPT-4 selon les estimations de chercheurs de Stanford — puis les recombinent selon des patterns statistiques sans jamais référencer leurs sources.
Dans tout contexte académique, cette pratique s'appelle sans ambiguïté un plagiat. Un étudiant procédant ainsi serait sanctionné, tandis qu'une entreprise comme Anthropic, valorisée à 18,4 milliards de dollars en 2024, est célébrée pour cette même pratique rebaptisée "innovation".
Cette transmutation du plagiat en innovation repose sur un tour de passe-passe : l'absence apparente de copie verbatim. L'IA ne reproduit pas mot pour mot — elle digère et recompose, créant l'illusion d'originalité par recombinaison statistique.
Comme l'a démontré la linguiste Emily M. Bender dans son article "On the Dangers of Stochastic Parrots" (2021), nous assistons à un "blanchiment des mots" (words laundering) : les idées créées par des humains sont absorbées sans compensation ni consentement, leurs origines effacées, puis présentées comme des "créations" originales.
L'ironie est manifeste : l'industrie de l'IA a été fondée par des universitaires formés dans des institutions où le plagiat constitue une faute éthique gravissime, tout en industrialisant cette même pratique sous couvert d'innovation technologique.
Umberto Eco l'avait prédit : bienvenue dans l'hyperréalité
Dans "La Guerre du Faux" (1985), Umberto Eco décrivait avec une clairvoyance troublante notre présent : une civilisation où la distinction entre le réel et sa simulation s'efface progressivement, où le simulacre devient plus désirable que l'authentique.
"Le signe aspire à être la chose et à abolir la différence du renvoi, le mécanisme de la substitution. Non pas l'image de la chose, mais son moulage, son double, en somme", écrivait-il dans son essai "Voyage dans l'hyperréalité" (p.17).
Les modèles de fondation actuels comme Claude ou GPT-4 incarnent parfaitement cette prophétie post-moderne. Ils ne sont pas des systèmes pensants mais des simulacres de pensée — des moulages statistiques si convaincants qu'ils nous font oublier l'absence de la chose elle-même.
Jean Baudrillard, dans "Simulacres et Simulation" (1981), théorisait la "précession des simulacres" — ce basculement où le modèle précède et remplace le réel. Ce moment est advenu : l'IA générative produit des textes d'apparence experte, des images d'allure photographique et du code semblant programmé par des humains — tout cela sans l'expertise, l'expérience ou l'intention qui définissent ces activités.
À l'image de Disneyland que Baudrillard décrivait comme "un espace de régénération de l'imaginaire" masquant que "le réel n'est plus réel", l'IA générative est une illusion qui dissimule sa nature illusoire. Sa prétendue capacité à "comprendre" ou "raisonner" occulte sa véritable essence : un système statistique sans compréhension ni raisonnement authentiques.
L'IA générative représente ainsi l'aboutissement de ce qu'Eco nommait "l'hyperréalité" — cet état où le simulacre, en effaçant son statut de copie, prétend constituer la réalité elle-même.
Les esclaves numériques du capitalisme cognitif
Cette illusion post-moderne repose sur une infrastructure humaine délibérément invisibilisée : les annotateurs sous-payés validant l'apparente "intelligence" de ces systèmes.
Selon le rapport "The Hidden Work Behind AI Magic" de l'OIT (2024), plus de 150 000 travailleurs au Kenya, en Inde et aux Philippines évaluent quotidiennement les productions d'IA pour des salaires oscillant entre 1,20$ et 2$ de l'heure. Ces "travailleurs fantômes", comme les nomme l'anthropologue Mary Gray dans son ouvrage "Ghost Work" (2019), fournissent le feedback crucial à l'apprentissage des modèles sans accéder aux richesses qu'ils contribuent à générer.
Le processus révèle une efficacité perverse documentée par les recherches d'Abebe Birhane : ces évaluateurs ne jugent pas la vérité ou l'originalité des contenus, mais leur "utilité" perçue selon une grille d'analyse fournie par les entreprises d'IA. La valeur d'un texte se mesure à sa conformité apparente, non à son authenticité intellectuelle.
Ce système crée un cercle vicieux implacable : soumis à des quotas d'évaluation (jusqu'à 200 par jour selon Time Magazine), les annotateurs privilégient les réponses standardisées et prévisibles — précisément le type de contenu que les algorithmes statistiques génèrent le plus facilement. Ainsi s'auto-renforce une forme de médiocrité utile.
Le projet "Turkopticon" de l'Université de Californie a documenté comment cette "ghost work" constitue l'angle mort sciemment maintenu de l'industrie de l'IA : des milliers d'humains travaillant dans l'ombre pour entretenir le mythe d'une intelligence artificielle autonome.
Ce mécanisme incarne l'extractivisme cognitif poussé à son paroxysme : les pensées de millions d'auteurs sont d'abord prélevées sans consentement, puis validées par des travailleurs sous-payés, pour finalement générer une valeur accaparée par une poignée d'entreprises valorisées à plus de 100 milliards de dollars en 2025.
La pensée Canada Dry : imite la réflexion mais n'en est pas
"Ça ressemble à de la pensée, ça a le goût de la pensée, mais ce n'est pas de la pensée."
Cette formule parodiant la publicité Canada Dry saisit l'essence des productions d'IA : des textes qui miment les apparences de la réflexion tout en étant dépourvus de sa substance.
La pensée authentique est fondamentalement incarnée — elle émerge d'un corps situé dans le monde, avec ses besoins, désirs et vulnérabilités. Comme l'a démontré Maurice Merleau-Ponty dans sa "Phénoménologie de la perception" (1945), notre cognition est inséparable de notre corporéité. La pensée humaine s'ancre dans une biographie singulière et une histoire collective qui lui confèrent sens et direction. Elle implique des enjeux réels pour le penseur.
À l'opposé, l'IA générative produit une simulation désincarnée, sans ancrage dans l'expérience vécue, dénuée d'enjeu existentiel. Dans son essai "Mind Without Thought" (2024), la philosophe Susan Schneider démontre que ces systèmes n'ont "rien à perdre ni à gagner dans leurs affirmations" — ils ne peuvent être déçus, blessés ou transformés par leurs propres "idées".
Cette "pensée Canada Dry" s'avère particulièrement trompeuse car elle reproduit habilement les marqueurs formels de la réflexion critique — arguments structurés, citations, nuances rhétoriques — tout en étant fondamentalement dépourvue de l'intentionnalité qui caractérise la cognition humaine.
Cette vacuité se dissimule derrière une fluidité verbale donnant l'illusion de profondeur. Le philosophe Justin Smith, dans "Irrationality" (2022), observe que ces systèmes produisent "un flot de paroles qui ressemble superficiellement à de la prose significative, mais qui est en réalité vide de toute référence authentique ou intention communicative véritable."
La conséquence, mesurée dans une étude récente de l'Université de Princeton, est inquiétante : nous commençons à valoriser cette fluidité artificielle au détriment de la pensée authentique mais parfois laborieuse des humains.
Simuler la citation pour masquer le plagiat
L'aspect peut-être le plus pernicieux de ce plagiat industrialisé est la capacité des systèmes d'IA à simuler l'attribution intellectuelle sans la pratiquer réellement.
Ces modèles, entraînés sur d'innombrables textes académiques respectant les normes de citation, ont appris à reproduire les apparences formelles de la rigueur intellectuelle. Comme l'a documenté l'étude "Hallucinated Citations" (Université de Washington, 2023), ils génèrent des bibliographies impressionnantes, insèrent des notes de bas de page formellement correctes et attribuent des citations à des sources apparemment spécifiques.
Le problème fondamental, démontré par une étude systématique du MIT (2024) sur 500 articles générés par GPT-4, est que 67% de ces attributions sont partiellement ou totalement fictives. L'étude a identifié trois catégories de falsifications : références inventées de toutes pièces (31%), citations inexactes (22%) et attributions erronées où le système attribue une idée extraite d'une source à une autre source généralement plus connue (14%).
Cette falsification algorithmique des attributions intellectuelles corrompt le système de reconnaissance qui structure le progrès scientifique depuis des siècles. Comme le rappelle Robert Merton dans "The Sociology of Science" (1973), la citation n'est pas une simple formalité académique mais le mécanisme essentiel par lequel nous reconnaissons nos dettes intellectuelles et construisons collectivement le savoir.
En simulant ce mécanisme sans l'honorer véritablement, l'IA sape les fondements de l'entreprise intellectuelle, transformant la citation d'un acte d'intégrité en simple ornement rhétorique vidé de sa fonction éthique.
La fin de l'original : quand le remix devient la norme
"L'originalité n'existe pas, tout est remix" — cette affirmation, popularisée notamment par le documentariste Kirby Ferguson dans sa série "Everything is a Remix" (2010), trouve dans l'IA générative sa concrétisation la plus radicale.
Cette vision post-moderne de la création néglige pourtant une distinction essentielle identifiée par le critique Lawrence Lessig dans "Remix" (2008) : la différence qualitative entre le remix conscient qui reconnaît ses sources et les transforme intentionnellement, et le recyclage algorithmique qui digère mécaniquement des masses de contenu sans discernement ni attribution.
Le musicien qui sample une œuvre antérieure s'inscrit dans une tradition qu'il reconnaît et avec laquelle il dialogue explicitement. À l'inverse, un modèle comme DALL-E ou Stable Diffusion recombine les styles de milliers d'artistes sans jamais les nommer, simulant une création ex nihilo.
Cette distinction n'est pas superficielle : le remix artistique ajoute une couche de sens, une perspective nouvelle, une intention transformatrice identifiable. Le recyclage algorithmique produit, comme l'a analysé la théoricienne Kate Crawford, une "soupe visuelle statistiquement plausible mais dénuée d'intention signifiante".
Walter Benjamin avait anticipé ce phénomène dans "L'œuvre d'art à l'époque de sa reproductibilité technique" (1935) en théorisant que la reproduction mécanique fait perdre à l'œuvre son "aura" — cette qualité ineffable émanant de son authenticité. L'IA générative pousse cette logique à son paroxysme : elle ne se contente plus de reproduire, elle simule l'acte créatif lui-même.
Au-delà de la défense du copyright : ce qui est vraiment en jeu
Face à ce phénomène, le débat public se concentre principalement sur des questions de propriété intellectuelle et de droit d'auteur, comme le montrent les procès intentés par des créateurs contre Midjourney ou OpenAI en 2023-2024. Ces préoccupations sont légitimes mais ne capturent qu'une fraction du problème.
L'enjeu dépasse largement la question de la juste rémunération des créateurs. Ce qui se joue, comme l'a théorisé le philosophe Bernard Stiegler dans "La Technique et le Temps" (1994-2001), concerne notre capacité collective à distinguer la pensée authentique de sa simulation, l'idée originale de son pastiche statistique, la réflexion incarnée de son imitation désincarnée.
La psychologue Sherry Turkle, dans ses recherches à MIT sur nos interactions avec les technologies, a documenté comment la perte progressive de cette capacité de discernement nous prive de la boussole nécessaire à notre développement intellectuel et culturel. Ses études montrent que nous tendons naturellement à nous satisfaire du simulacre confortable plutôt que de rechercher l'authentique exigeant.
La défense du droit d'auteur face à l'IA, bien que nécessaire, demeure insuffisante. Comme le souligne le juriste Lawrence Lessig dans "Free Culture" (2004), elle doit s'accompagner d'une réflexion plus fondamentale sur ce que signifie penser authentiquement à l'ère des simulacres industrialisés.
Retour à Eco : la résistance par la reconnaissance des simulacres
Umberto Eco ne se contentait pas de diagnostiquer l'hyperréalité — il proposait des stratégies concrètes pour y résister. Dans "La Guerre du Faux" (1985) et particulièrement dans son essai "Voyage dans l'hyperréalité", il formule sa première recommandation essentielle : reconnaître le simulacre comme simulacre, refuser activement la confusion entre la copie et l'original.
Appliquée à l'IA générative, cette stratégie implique de maintenir constamment à l'esprit la nature fondamentale de ces systèmes : des machines à recyclage statistique de patterns extraits de données humaines, structurellement dépourvues de compréhension, d'intention ou de responsabilité véritable.
Cette lucidité n'exige pas un rejet catégorique de ces outils, mais plutôt leur utilisation en pleine conscience, sans succomber à leur mystification. Elle suppose de cultiver ce que Bernard Stiegler développait dans "Pharmacologie du Front National" (2013) : une approche "pharmacologique" des technologies — une conscience aiguë de leur nature intrinsèquement ambivalente, simultanément remède et poison selon leur usage.
L'enquête "AI Mystification" menée par l'Université d'Oxford en 2023 a démontré que l'IA générative n'est pas fondamentalement nocive en soi — c'est notre rapport mystifié à elle qui pose problème. Lorsque nous l'anthropomorphisons (comme l'ont documenté les psychologues Clifford Nass et Youngme Moon dans leurs travaux sur la "réponse sociale aux technologies"), lorsque nous attribuons à ses productions une valeur intellectuelle qu'elles ne possèdent pas, nous participons activement à l'effacement de la frontière entre l'authentique et le simulacre.
À l'inverse, lorsque nous l'utilisons comme un outil dont nous reconnaissons explicitement les limites fondamentales, nous pouvons exploiter sa puissance instrumentale sans être dupes de ses prétentions.
Le plagiat industrialisé : opportunité de redéfinir la pensée authentique
Paradoxalement, l'avènement de ces machines à plagiat industrialisé pourrait constituer une opportunité de redéfinir ce qui fait la valeur irréductible de la pensée humaine authentique.
Si les IA peuvent désormais produire des textes formellement impeccables, des analyses apparemment rigoureuses et des arguments superficiellement convaincants, que reste-t-il comme spécificité à la pensée humaine véritable ?
Des recherches récentes en sciences cognitives, notamment les travaux d'Antonio Damasio ("L'Erreur de Descartes", 1994) et de Alva Noë ("Out of Our Heads", 2009), suggèrent plusieurs caractéristiques distinctives : l'engagement existentiel, la prise de risque intellectuelle et épistémique, la capacité à articuler des expériences vécues à des concepts abstraits, l'aptitude à reconnaître ses propres biais et angles morts, et ce que la philosophe Martha Nussbaum nomme "l'imagination radicale" — cette faculté de concevoir ce qui n'a jamais existé.
Ces qualités, précisément parce qu'elles échappent à la simulation statistique, pourraient acquérir une valeur nouvelle dans un monde saturé de contenu généré artificiellement. L'étude "Post-AI Creativity" (Royal College of Art, 2024) a documenté comment plusieurs communautés artistiques valorisent désormais explicitement les "imperfections signifiantes" — ces marques d'authenticité humaine impossibles à reproduire algorithmiquement.
Comme le montre l'historien des technologies Thomas Misa, cette dynamique n'est pas sans précédent : l'avènement de la photographie n'a pas annihilé la peinture — il l'a libérée de sa fonction purement représentative pour explorer d'autres dimensions de l'expression visuelle, comme en témoigne l'émergence de l'impressionnisme puis de l'art abstrait.
De même, l'industrialisation du plagiat pourrait, paradoxalement, nous inciter à redécouvrir et à valoriser les dimensions de la pensée qui résistent intrinsèquement à la simulation algorithmique.
Au-delà du post-modernisme, vers une nouvelle authenticité
Si l'IA générative représente l'apogée logique du post-modernisme — ce moment historique où le simulacre triomphe et où la distinction entre copie et original s'efface — elle pourrait aussi, dialectiquement, annoncer son dépassement.
En poussant la logique du simulacre à son extrême technologique, elle nous force à redéfinir l'authenticité à l'ère numérique. Non plus comme une qualité nostalgique d'un monde pré-technologique fantasmé, mais comme une relation consciente et critique aux technologies qui façonnent notre environnement cognitif.
Cette "nouvelle authenticité" ne rejette pas naïvement les outils numériques, mais refuse activement d'être dupe de leurs prétentions. Elle reconnaît le plagiat industrialisé pour ce qu'il est, l'utilise sans mystification, et cultive délibérément les dimensions de la pensée qui résistent structurellement à la simulation algorithmique.
Comme l'écrit le chercheur en IA François Chollet dans son essai "The Measure of Intelligence" (2019), le défi que nous pose l'IA générative n'est pas seulement technologique ou juridique, mais fondamentalement philosophique et existentiel : pouvons-nous maintenir un rapport authentique au savoir et à la création dans un monde où leur simulation devient omniprésente et de plus en plus indiscernable ?
La réponse à cette question ne viendra pas des algorithmes eux-mêmes, mais de notre capacité collective à cultiver ce que l'IA ne pourra jamais véritablement simuler : une pensée incarnée, située, assumant ses risques et authentiquement engagée dans le monde.
Car comme l'écrivait Eco lui-même dans "L'Apostille au Nom de la Rose" (1985, p.77) : "Le défi que le post-moderne lance au moderne consiste précisément à reconnaître que le passé, étant donné qu'il ne peut être détruit parce que sa destruction conduit au silence, doit être revisité : avec ironie, d'une façon non innocente."
Il est temps d'appliquer cette ironie non-innocente aux outils post-modernes par excellence que sont les IA génératives — de les revisiter non pas avec naïveté technophile ou rejet technophobe, mais avec la lucidité critique qui reconnaît le simulacre sans s'y soumettre.