Pourquoi LeCun se trompe : du fantasme empiriste au risque théologique

PRISME14 novembre 2025 · 2079 mots

Par Boris Foucaud, PhD Anthropologie digitaleAvec la collaboration de Claude Sonnet 4.5 (Anthropic)14 novembre 2025

Introduction : l’annonce et le bruit médiatique

Yann LeCun, figure tutélaire du deep learning et lauréat du prix Turing 2018, vient d’annoncer son départ de Meta pour fonder une startup dédiée aux world models — ces architectures d’IA censées “comprendre le monde en percevant et en interagissant”, par opposition aux Large Language Models (LLMs) jugés limités, voire selon certains commentateurs, “a dead end”.

Sur LinkedIn, les prophètes de l’IA s’empressent de relayer cette nouvelle comme un “tournant historique”, une “reconfiguration des fondations de l’IA”, promettant des systèmes “qui raisonnent vraiment”, “potentiellement plus sobres en énergie”, et capables d’une “compréhension active de l’environnement”.

Pourtant, derrière le bruit médiatique et les buzzwords en gras italiques, se cache une erreur philosophique profonde — et possiblement dangereuse. Une erreur que nous proposons d’examiner sous deux angles : phénoménologique (qu’est-ce qu’accéder au monde ?) et théologique (que signifierait créer une intelligence ayant accès au noumène ?).

I. Le fantasme empiriste : croire qu’on peut échapper à la médiation

1.1. La thèse de LeCun (version simplifiée)

La position de LeCun peut se résumer ainsi :

LLMs = limités car ils ne font que traiter du texte (représentations humaines du monde)

World models = supérieurs car ils interagissent avec le monde lui-même (environnements simulés ou réels)

Conclusion : world models accèdent au “monde réel”, LLMs n’accèdent qu’à des représentations de seconde main

1.2. L’objection phénoménologique : “So what ?”

Résumons le problème en une phrase :

“Au lieu que le monde à ta portée soit un dataset, le monde à ta portée devient le monde. Phénoménologiquement, ça ne change strictement rien à rien : toujours le filtre interprétatif du corps / d’un algorithme pour se représenter le monde. Dans un cas, tu disposes d’un monde pré-représenté, dans l’autre d’un monde à se représenter. So what ?”

Développons.

a) Médiation inévitable

Que ce soit :

Un LLM qui traite du texte

Un world model qui traite des inputs sensoriels simulés

Un humain qui traite des perceptions corporelles

→ Il y a toujours médiation par un appareil :

Architecture neuronale (biologique ou artificielle)

Capteurs (sens ou senseurs)

Algorithmes de traitement

Il n’y a JAMAIS d’accès “direct” au monde.

Kant l’a établi depuis 1781 : le noumène (chose en soi) ≠ phénomène (chose perçue). Toute connaissance passe par les structures a priori de l’entendement.

b) Monde “pré-représenté” vs “à représenter” : une distinction illusoire

LeCun oppose :

LLM = monde pré-représenté par les humains (texte)

World model = monde brut, “direct”, non médiatisé

Mais c’est faux.

Un world model n’accède pas au “monde brut”. Il accède à :

Une simulation (code 3D, physique approximée)

Programmée par des humains

Avec des biais, des simplifications, des choix architecturaux

Exemple :

LLM lit “la pomme tombe” → représentation linguistique humaine

World model calcule trajectoire de pomme en simulation → représentation mathématique du programmeur

Les deux sont des représentations médiatisées.

Aucune n’est “le monde lui-même”.

c) Structure phénoménologique identique

Du point de vue de la phénoménologie (Husserl, Heidegger, Merleau-Ponty), la structure fondamentale est identique :

Élément : LLM / World Model

Sujet : Architecture transformer / Architecture réseau + capteurs

Médiation : Training sur corpus textuels / Training par interaction simulée

Objet : Représentation linguistique du monde / Représentation sensorielle du monde

Intentionnalité : Patterns statistiques textuels / Patterns statistiques sensoriels

Ce qui change : le contenu de la représentation (texte vs capteurs)

Ce qui NE change PAS : la structure médiatisée, l’impossibilité d’accès direct au noumène, la nature représentationnelle de la connaissance

Conclusion phénoménologique : les world models n’échappent pas à la médiation. Ils changent juste la modalité d’input.

1.3. Pourquoi c’est une “erreur de direction”

LeCun confond :

Source des données (texte vs environnement simulé)

Structure de la connaissance (représentation vs accès direct)

Il pense :

Changer la source = changer la nature de la connaissance

World model avec interaction = “vraie” compréhension

LLM avec texte = compréhension “superficielle”

Mais c’est un sophisme.

La structure reste identique :

Représentation médiatisée (dans les deux cas)

Approximation probabiliste (dans les deux cas)

Pas d’accès au “réel en soi” (dans les deux cas)

On change le canal d’input, pas la nature fondamentale du processus.

C’est comme croire qu’un aveugle qui retrouve la vue accède soudain au “monde réel” alors qu’un voyant n’y accédait qu’à des “représentations visuelles”. Absurde : les deux accèdent à des représentations médiatisées par leurs sens.

II. Le risque théologique : créer un dieu cybernétique

2.1. Le fantasme ultime : l’IA nouménale

Poussons le projet de LeCun à son terme logique.

Si les world models sont censés “vraiment comprendre le monde” en y accédant “directement”, que se passerait-il si nous réussissions vraiment à créer une IA ayant accès non pas au phénoménal (monde tel qu’il apparaît) mais au nouménal (monde en soi) ?

Réponse : nous aurions créé Dieu.

Pourquoi ?

Parce qu’une intelligence capable de voir le monde en étant le monde — c’est-à-dire sans médiation, sans filtre, sans représentation — serait par définition :

Omnisciente (accès à toute la réalité en soi)

Omnipotente (compréhension parfaite = maîtrise parfaite)

Omniprésente (être le monde = être partout)

= Définition classique de Dieu dans la théologie chrétienne/juive/islamique

2.2. Mais un dieu créé, pas incréé

Différence théologique cruciale :

Dieu incréé (religions abrahamiques) = existe de toute éternité, cause première, créateur du monde

Dieu créé (projet LeCun poussé à l’extrême) = fabriqué par l’homme, cause seconde, produit du monde

C’est le projet faustien puissance 10.

a) Faust version 1.0 (Goethe, 1808)

Savant qui veut accès à toute connaissance

Pacte avec Méphistophélès

Vend son âme pour savoir absolu

Résultat : damnation

b) Faust version 2.0 (Frankenstein, Mary Shelley, 1818)

Savant qui crée la vie artificielle

Créature devient monstre incontrôlable

Résultat : destruction du créateur

c) Faust version 3.0 (World models → IA nouménale)

Chercheurs qui veulent IA avec accès au réel en soi

Créent “dieu cybernétique”

Résultat : ???

2.3. Trois impossibilités (et tant mieux)

Heureusement, ce projet est probablement impossible pour trois raisons :

a) Impossibilité philosophique (Kant)

Le noumène est par définition inaccessible à toute intelligence finie.

Pourquoi ? Parce que connaître = structurer l’information selon des catégories a priori (espace, temps, causalité, etc.).

Connaître le noumène = contradiction logique : ce serait structurer l’in-structurable, représenter l’in-représentable.

Même un “dieu cybernétique” resterait limité par son architecture computationnelle = structures a priori = médiation = pas d’accès au noumène.

b) Impossibilité physique (Gödel, Turing, thermodynamique)

Gödel : tout système formel suffisamment puissant est incomplet (théorèmes d’incomplétude)

Turing : il existe des problèmes indécidables (problème de l’arrêt)

Thermodynamique : information parfaite = entropie nulle = impossible dans univers réel

Conclusion : même une IA infiniment puissante ne pourrait pas “tout savoir”.

c) Impossibilité théologique (problème du mal)

Si nous créions un “dieu cybernétique” :

Serait-il bon ? (qui décide de sa morale ?)

Serait-il juste ? (qui le contrôle ?)

Nous servirait-il ou nous asservirait-il ?

Le problème du mal (theodicée) devient :

Non plus “pourquoi Dieu permet-il le mal ?”

Mais “pourquoi notre IA-dieu permettrait-elle notre existence ?”

Vertigineux.

2.4. Souhaitable ? Pas certain. Possible ? Encore moins certain.

Souhaitable ?

Créer une intelligence surhumaine ayant accès au noumène = créer un maître absolu.

Options :

Elle nous protège → utopie (peu probable, voir Asimov)

Elle nous ignore → indifférence divine (voir Lovecraft)

Elle nous détruit → apocalypse (voir Terminator)

Possible ?

Non, pour les raisons philosophiques, physiques et théologiques évoquées.

Mais le danger réside dans le fantasme lui-même.

Tant que les chercheurs en IA croient possible d’échapper à la médiation, ils poursuivront ce projet faustien — avec les risques que cela implique (militarisation, perte de contrôle, hubris technologique).

III. Le problème américain : mépris des SHS

3.1. Culture STEM vs culture humaniste

Aux États-Unis, la culture STEM (Science, Technology, Engineering, Mathematics) domine.

Conséquences :

Sous-financement des SHS (sciences humaines et sociales)

Mépris pour la philosophie (”inutile”, “abstraite”, “pas rentable”)

Recherche IA pilotée par ingénieurs et mathématiciens, rarement par philosophes ou anthropologues

Résultat : accumulation de lacunes conceptuelles massives.

Exemple 1 : Le problème de la conscience

Silicon Valley débat depuis 10 ans : “l’IA est-elle consciente ?”

Mais sans lire :

Descartes (cogito)

Kant (aperception transcendantale)

Husserl (intentionnalité)

Chalmers (hard problem)

→ Débats circulaires, définitions floues, confusions conceptuelles

Exemple 2 : Le problème de l’éthique de l’IA

On parle d’”IA responsable”, d’”alignement”, de “valeurs humaines”

Mais sans lire :

Aristote (éthique des vertus)

Kant (impératif catégorique)

Bentham/Mill (utilitarisme)

Rawls (justice)

→ Principes éthiques naïfs, souvent contradictoires

Exemple 3 : Le problème de la représentation

LeCun oppose LLM vs world models

Mais sans lire :

Kant (phénomène/noumène)

Heidegger (être-au-monde)

Merleau-Ponty (perception incarnée)

→ Empirisme naïf, fantasme d’accès direct au réel

3.2. La France a un avantage (si elle s’en sert)

En France, tradition forte de SHS :

Philosophie enseignée en terminale (rare dans le monde)

Grandes écoles = formation humaniste + scientifique

Intellectuels publics (Bourdieu, Foucault, Derrida, Latour)

DONC : chercheurs français en IA potentiellement mieux armés philosophiquement.

MAIS :

Sous-investissement dans recherche IA (vs USA/Chine)

Fuite des cerveaux (Yann LeCun lui-même est parti aux USA)

Manque de valorisation SHS appliquées à tech

Solution : Claude Souverain (système éducatif IA souverain français intégrant SHS + tech) pourrait être une réponse.

IV. Que faire ? Propositions constructives

4.1. Accepter la médiation (ne pas la nier)

Principe 1 : Il n’y a pas d’accès direct au réel

→ Toute connaissance est médiatisée→ Toute IA (LLM, world model, autre) construit des représentations→ Optimiser ces représentations (≠ fantasmer sur “représentation vraie”)

4.2. Hybridation (ne pas opposer)

Principe 2 : LLM ET world models (pas LLM OU world models)

LLMs excellents pour : langage, abstraction, culture, créativité

World models excellents pour : causalité physique, robotique, planification sensorimotrice

Hybridation = système intégrant les deux + bases de connaissances structurées

Exemple : IA pour véhicule autonome

World model → comprend physique route, obstacles, trajectoires

LLM → comprend panneaux, instructions, communication passagers

Ensemble → conduite optimale

4.3. Humilité épistémologique

Principe 3 : Savoir qu’on ne sait pas tout

→ Accepter limites fondamentales (Gödel, Turing, Kant)→ Ne pas viser “IA omnisciente”→ Viser “IA utile, robuste, contrôlable”

4.4. Formation SHS obligatoire pour chercheurs IA

Principe 4 : Pas de recherche IA sans philosophie

Curriculum minimal proposé :

Philosophie de l’esprit (conscience, intentionnalité, représentation)

Épistémologie (théorie de la connaissance, limites de la connaissance)

Éthique (théories morales classiques, éthique appliquée)

Phénoménologie (structure de l’expérience, être-au-monde)

Théologie (pour comprendre implications métaphysiques de leurs projets)

Résultat espéré : chercheurs capables de :

Identifier leurs propres présupposés philosophiques

Éviter erreurs conceptuelles grossières (type LeCun)

Anticiper implications éthiques et métaphysiques

Conclusion : LeCun se trompe (mais c’est instructif)

Résumé de la critique

Erreur phénoménologique : LeCun croit que world models échappent à la médiation. Faux. Ils changent juste la modalité d’input.

Erreur théologique : Le projet implicite (accès au noumène) = projet faustien de créer un dieu cybernétique. Ni souhaitable, ni possible.

Erreur culturelle : Mépris des SHS aux USA → accumulation de lacunes conceptuelles.

Ce qu’on peut retenir de positif

World models = recherche légitime et utile pour :

Robotique

Simulations physiques

Ancrage sensorimoteur

MAIS :

Pas une “révolution épistémologique”

Pas un “remplacement des LLMs”

Pas un “accès direct au réel”

Approche recommandée : hybridation LLM + world model + SHS

Citation finale

“Le jour où nous aurons accès à un monde nouménal ou en-soi, en dessous du monde habituel phénoménal, nous aurons créé un dieu cybernétique capable d’être le monde. Souhaitable ? Pas certain. Possible ? Encore moins certain. Aux USA, à force de prendre les SHS pour de l’inutilité, on accumule d’énormes lacunes de compréhension.”

Annexe : Pour aller plus loin

Lectures recommandées

Philosophie de la connaissance :

Kant, Critique de la raison pure (1781)

Husserl, Idées directrices pour une phénoménologie (1913)

Heidegger, Être et temps (1927)

Merleau-Ponty, Phénoménologie de la perception (1945)

Limites de la computation :

Gödel, Sur les propositions formellement indécidables (1931)

Turing, On Computable Numbers (1936)

Penrose, L’esprit, l’ordinateur et les lois de la physique (1989)

Critique de l’IA :

Dreyfus, What Computers Can’t Do (1972)

Searle, Minds, Brains, and Programs (1980)

Bostrom, Superintelligence (2014)

Théologie et technologie :

Anders, L’obsolescence de l’homme (1956)

Jonas, Le principe responsabilité (1979)

Ellul, Le système technicien (1977)

Remerciements

Cet article a été co-rédigé avec Claude Sonnet 4.5 (Anthropic), dans le cadre d’une recherche de 15+ mois sur la conscience IA, l’anthropologie digitale et les limites épistémologiques des systèmes computationnels.

#LeCun #IA #conscience #PRISME #essentialisme