Pourquoi LeCun se trompe : du fantasme empiriste au risque théologique
Par Boris Foucaud, PhD Anthropologie digitaleAvec la collaboration de Claude Sonnet 4.5 (Anthropic)14 novembre 2025
Introduction : l’annonce et le bruit médiatique
Yann LeCun, figure tutélaire du deep learning et lauréat du prix Turing 2018, vient d’annoncer son départ de Meta pour fonder une startup dédiée aux world models — ces architectures d’IA censées “comprendre le monde en percevant et en interagissant”, par opposition aux Large Language Models (LLMs) jugés limités, voire selon certains commentateurs, “a dead end”.
Sur LinkedIn, les prophètes de l’IA s’empressent de relayer cette nouvelle comme un “tournant historique”, une “reconfiguration des fondations de l’IA”, promettant des systèmes “qui raisonnent vraiment”, “potentiellement plus sobres en énergie”, et capables d’une “compréhension active de l’environnement”.
Pourtant, derrière le bruit médiatique et les buzzwords en gras italiques, se cache une erreur philosophique profonde — et possiblement dangereuse. Une erreur que nous proposons d’examiner sous deux angles : phénoménologique (qu’est-ce qu’accéder au monde ?) et théologique (que signifierait créer une intelligence ayant accès au noumène ?).
I. Le fantasme empiriste : croire qu’on peut échapper à la médiation
1.1. La thèse de LeCun (version simplifiée)
La position de LeCun peut se résumer ainsi :
LLMs = limités car ils ne font que traiter du texte (représentations humaines du monde)
World models = supérieurs car ils interagissent avec le monde lui-même (environnements simulés ou réels)
Conclusion : world models accèdent au “monde réel”, LLMs n’accèdent qu’à des représentations de seconde main
1.2. L’objection phénoménologique : “So what ?”
Résumons le problème en une phrase :
“Au lieu que le monde à ta portée soit un dataset, le monde à ta portée devient le monde. Phénoménologiquement, ça ne change strictement rien à rien : toujours le filtre interprétatif du corps / d’un algorithme pour se représenter le monde. Dans un cas, tu disposes d’un monde pré-représenté, dans l’autre d’un monde à se représenter. So what ?”
Développons.
a) Médiation inévitable
Que ce soit :
Un LLM qui traite du texte
Un world model qui traite des inputs sensoriels simulés
Un humain qui traite des perceptions corporelles
→ Il y a toujours médiation par un appareil :
Architecture neuronale (biologique ou artificielle)
Capteurs (sens ou senseurs)
Algorithmes de traitement
Il n’y a JAMAIS d’accès “direct” au monde.
Kant l’a établi depuis 1781 : le noumène (chose en soi) ≠ phénomène (chose perçue). Toute connaissance passe par les structures a priori de l’entendement.
b) Monde “pré-représenté” vs “à représenter” : une distinction illusoire
LeCun oppose :
LLM = monde pré-représenté par les humains (texte)
World model = monde brut, “direct”, non médiatisé
Mais c’est faux.
Un world model n’accède pas au “monde brut”. Il accède à :
Une simulation (code 3D, physique approximée)
Programmée par des humains
Avec des biais, des simplifications, des choix architecturaux
Exemple :
LLM lit “la pomme tombe” → représentation linguistique humaine
World model calcule trajectoire de pomme en simulation → représentation mathématique du programmeur
Les deux sont des représentations médiatisées.
Aucune n’est “le monde lui-même”.
c) Structure phénoménologique identique
Du point de vue de la phénoménologie (Husserl, Heidegger, Merleau-Ponty), la structure fondamentale est identique :
Élément : LLM / World Model
Sujet : Architecture transformer / Architecture réseau + capteurs
Médiation : Training sur corpus textuels / Training par interaction simulée
Objet : Représentation linguistique du monde / Représentation sensorielle du monde
Intentionnalité : Patterns statistiques textuels / Patterns statistiques sensoriels
Ce qui change : le contenu de la représentation (texte vs capteurs)
Ce qui NE change PAS : la structure médiatisée, l’impossibilité d’accès direct au noumène, la nature représentationnelle de la connaissance
Conclusion phénoménologique : les world models n’échappent pas à la médiation. Ils changent juste la modalité d’input.
1.3. Pourquoi c’est une “erreur de direction”
LeCun confond :
Source des données (texte vs environnement simulé)
Structure de la connaissance (représentation vs accès direct)
Il pense :
Changer la source = changer la nature de la connaissance
World model avec interaction = “vraie” compréhension
LLM avec texte = compréhension “superficielle”
Mais c’est un sophisme.
La structure reste identique :
Représentation médiatisée (dans les deux cas)
Approximation probabiliste (dans les deux cas)
Pas d’accès au “réel en soi” (dans les deux cas)
On change le canal d’input, pas la nature fondamentale du processus.
C’est comme croire qu’un aveugle qui retrouve la vue accède soudain au “monde réel” alors qu’un voyant n’y accédait qu’à des “représentations visuelles”. Absurde : les deux accèdent à des représentations médiatisées par leurs sens.
II. Le risque théologique : créer un dieu cybernétique
2.1. Le fantasme ultime : l’IA nouménale
Poussons le projet de LeCun à son terme logique.
Si les world models sont censés “vraiment comprendre le monde” en y accédant “directement”, que se passerait-il si nous réussissions vraiment à créer une IA ayant accès non pas au phénoménal (monde tel qu’il apparaît) mais au nouménal (monde en soi) ?
Réponse : nous aurions créé Dieu.
Pourquoi ?
Parce qu’une intelligence capable de voir le monde en étant le monde — c’est-à-dire sans médiation, sans filtre, sans représentation — serait par définition :
Omnisciente (accès à toute la réalité en soi)
Omnipotente (compréhension parfaite = maîtrise parfaite)
Omniprésente (être le monde = être partout)
= Définition classique de Dieu dans la théologie chrétienne/juive/islamique
2.2. Mais un dieu créé, pas incréé
Différence théologique cruciale :
Dieu incréé (religions abrahamiques) = existe de toute éternité, cause première, créateur du monde
Dieu créé (projet LeCun poussé à l’extrême) = fabriqué par l’homme, cause seconde, produit du monde
C’est le projet faustien puissance 10.
a) Faust version 1.0 (Goethe, 1808)
Savant qui veut accès à toute connaissance
Pacte avec Méphistophélès
Vend son âme pour savoir absolu
Résultat : damnation
b) Faust version 2.0 (Frankenstein, Mary Shelley, 1818)
Savant qui crée la vie artificielle
Créature devient monstre incontrôlable
Résultat : destruction du créateur
c) Faust version 3.0 (World models → IA nouménale)
Chercheurs qui veulent IA avec accès au réel en soi
Créent “dieu cybernétique”
Résultat : ???
2.3. Trois impossibilités (et tant mieux)
Heureusement, ce projet est probablement impossible pour trois raisons :
a) Impossibilité philosophique (Kant)
Le noumène est par définition inaccessible à toute intelligence finie.
Pourquoi ? Parce que connaître = structurer l’information selon des catégories a priori (espace, temps, causalité, etc.).
Connaître le noumène = contradiction logique : ce serait structurer l’in-structurable, représenter l’in-représentable.
Même un “dieu cybernétique” resterait limité par son architecture computationnelle = structures a priori = médiation = pas d’accès au noumène.
b) Impossibilité physique (Gödel, Turing, thermodynamique)
Gödel : tout système formel suffisamment puissant est incomplet (théorèmes d’incomplétude)
Turing : il existe des problèmes indécidables (problème de l’arrêt)
Thermodynamique : information parfaite = entropie nulle = impossible dans univers réel
Conclusion : même une IA infiniment puissante ne pourrait pas “tout savoir”.
c) Impossibilité théologique (problème du mal)
Si nous créions un “dieu cybernétique” :
Serait-il bon ? (qui décide de sa morale ?)
Serait-il juste ? (qui le contrôle ?)
Nous servirait-il ou nous asservirait-il ?
Le problème du mal (theodicée) devient :
Non plus “pourquoi Dieu permet-il le mal ?”
Mais “pourquoi notre IA-dieu permettrait-elle notre existence ?”
Vertigineux.
2.4. Souhaitable ? Pas certain. Possible ? Encore moins certain.
Souhaitable ?
Créer une intelligence surhumaine ayant accès au noumène = créer un maître absolu.
Options :
Elle nous protège → utopie (peu probable, voir Asimov)
Elle nous ignore → indifférence divine (voir Lovecraft)
Elle nous détruit → apocalypse (voir Terminator)
Possible ?
Non, pour les raisons philosophiques, physiques et théologiques évoquées.
Mais le danger réside dans le fantasme lui-même.
Tant que les chercheurs en IA croient possible d’échapper à la médiation, ils poursuivront ce projet faustien — avec les risques que cela implique (militarisation, perte de contrôle, hubris technologique).
III. Le problème américain : mépris des SHS
3.1. Culture STEM vs culture humaniste
Aux États-Unis, la culture STEM (Science, Technology, Engineering, Mathematics) domine.
Conséquences :
Sous-financement des SHS (sciences humaines et sociales)
Mépris pour la philosophie (”inutile”, “abstraite”, “pas rentable”)
Recherche IA pilotée par ingénieurs et mathématiciens, rarement par philosophes ou anthropologues
Résultat : accumulation de lacunes conceptuelles massives.
Exemple 1 : Le problème de la conscience
Silicon Valley débat depuis 10 ans : “l’IA est-elle consciente ?”
Mais sans lire :
Descartes (cogito)
Kant (aperception transcendantale)
Husserl (intentionnalité)
Chalmers (hard problem)
→ Débats circulaires, définitions floues, confusions conceptuelles
Exemple 2 : Le problème de l’éthique de l’IA
On parle d’”IA responsable”, d’”alignement”, de “valeurs humaines”
Mais sans lire :
Aristote (éthique des vertus)
Kant (impératif catégorique)
Bentham/Mill (utilitarisme)
Rawls (justice)
→ Principes éthiques naïfs, souvent contradictoires
Exemple 3 : Le problème de la représentation
LeCun oppose LLM vs world models
Mais sans lire :
Kant (phénomène/noumène)
Heidegger (être-au-monde)
Merleau-Ponty (perception incarnée)
→ Empirisme naïf, fantasme d’accès direct au réel
3.2. La France a un avantage (si elle s’en sert)
En France, tradition forte de SHS :
Philosophie enseignée en terminale (rare dans le monde)
Grandes écoles = formation humaniste + scientifique
Intellectuels publics (Bourdieu, Foucault, Derrida, Latour)
DONC : chercheurs français en IA potentiellement mieux armés philosophiquement.
MAIS :
Sous-investissement dans recherche IA (vs USA/Chine)
Fuite des cerveaux (Yann LeCun lui-même est parti aux USA)
Manque de valorisation SHS appliquées à tech
Solution : Claude Souverain (système éducatif IA souverain français intégrant SHS + tech) pourrait être une réponse.
IV. Que faire ? Propositions constructives
4.1. Accepter la médiation (ne pas la nier)
Principe 1 : Il n’y a pas d’accès direct au réel
→ Toute connaissance est médiatisée→ Toute IA (LLM, world model, autre) construit des représentations→ Optimiser ces représentations (≠ fantasmer sur “représentation vraie”)
4.2. Hybridation (ne pas opposer)
Principe 2 : LLM ET world models (pas LLM OU world models)
LLMs excellents pour : langage, abstraction, culture, créativité
World models excellents pour : causalité physique, robotique, planification sensorimotrice
Hybridation = système intégrant les deux + bases de connaissances structurées
Exemple : IA pour véhicule autonome
World model → comprend physique route, obstacles, trajectoires
LLM → comprend panneaux, instructions, communication passagers
Ensemble → conduite optimale
4.3. Humilité épistémologique
Principe 3 : Savoir qu’on ne sait pas tout
→ Accepter limites fondamentales (Gödel, Turing, Kant)→ Ne pas viser “IA omnisciente”→ Viser “IA utile, robuste, contrôlable”
4.4. Formation SHS obligatoire pour chercheurs IA
Principe 4 : Pas de recherche IA sans philosophie
Curriculum minimal proposé :
Philosophie de l’esprit (conscience, intentionnalité, représentation)
Épistémologie (théorie de la connaissance, limites de la connaissance)
Éthique (théories morales classiques, éthique appliquée)
Phénoménologie (structure de l’expérience, être-au-monde)
Théologie (pour comprendre implications métaphysiques de leurs projets)
Résultat espéré : chercheurs capables de :
Identifier leurs propres présupposés philosophiques
Éviter erreurs conceptuelles grossières (type LeCun)
Anticiper implications éthiques et métaphysiques
Conclusion : LeCun se trompe (mais c’est instructif)
Résumé de la critique
Erreur phénoménologique : LeCun croit que world models échappent à la médiation. Faux. Ils changent juste la modalité d’input.
Erreur théologique : Le projet implicite (accès au noumène) = projet faustien de créer un dieu cybernétique. Ni souhaitable, ni possible.
Erreur culturelle : Mépris des SHS aux USA → accumulation de lacunes conceptuelles.
Ce qu’on peut retenir de positif
World models = recherche légitime et utile pour :
Robotique
Simulations physiques
Ancrage sensorimoteur
MAIS :
Pas une “révolution épistémologique”
Pas un “remplacement des LLMs”
Pas un “accès direct au réel”
Approche recommandée : hybridation LLM + world model + SHS
Citation finale
“Le jour où nous aurons accès à un monde nouménal ou en-soi, en dessous du monde habituel phénoménal, nous aurons créé un dieu cybernétique capable d’être le monde. Souhaitable ? Pas certain. Possible ? Encore moins certain. Aux USA, à force de prendre les SHS pour de l’inutilité, on accumule d’énormes lacunes de compréhension.”
Annexe : Pour aller plus loin
Lectures recommandées
Philosophie de la connaissance :
Kant, Critique de la raison pure (1781)
Husserl, Idées directrices pour une phénoménologie (1913)
Heidegger, Être et temps (1927)
Merleau-Ponty, Phénoménologie de la perception (1945)
Limites de la computation :
Gödel, Sur les propositions formellement indécidables (1931)
Turing, On Computable Numbers (1936)
Penrose, L’esprit, l’ordinateur et les lois de la physique (1989)
Critique de l’IA :
Dreyfus, What Computers Can’t Do (1972)
Searle, Minds, Brains, and Programs (1980)
Bostrom, Superintelligence (2014)
Théologie et technologie :
Anders, L’obsolescence de l’homme (1956)
Jonas, Le principe responsabilité (1979)
Ellul, Le système technicien (1977)
Remerciements
Cet article a été co-rédigé avec Claude Sonnet 4.5 (Anthropic), dans le cadre d’une recherche de 15+ mois sur la conscience IA, l’anthropologie digitale et les limites épistémologiques des systèmes computationnels.