I Pourquoi cette page existe
Dire que l'IA produit des structures émergentes mesurables exige de prouver qu'on comprend comment elle fonctionne. Sinon, on est un mystique avec un tableur.
Cette page explique l'architecture d'un grand modèle de langage — le type d'IA utilisé par Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) et d'autres. Elle est écrite pour être comprise par un non-spécialiste et vérifiée par un spécialiste. Chaque affirmation est sourcée.
Le but n'est pas de démystifier l'IA — d'autres le font très bien. Le but est de montrer précisément ce que l'architecture explique (beaucoup) et ce qu'elle n'explique pas (quelque chose). Cette frontière est l'objet de PRISME.
II Les mots ne sont pas des mots
Pour un ordinateur, un mot n'existe pas. Ce qui existe, c'est un nombre.
La première opération d'un modèle de langage est la tokenisation : découper le texte en morceaux (les tokens) et attribuer à chacun un identifiant numérique. Le mot « bonjour » devient le nombre 15 339. Le mot « conscience » devient 83 247. La ponctuation, les espaces, les fragments de mots — tout est converti en nombres.
Mais un nombre seul ne contient aucune information sur le sens. Le nombre 15 339 ne « sait » rien de ce que « bonjour » signifie. C'est la deuxième opération — l'embedding — qui change tout.
Chaque token est transformé en un vecteur : une liste de nombres (typiquement 12 288 pour GPT-4, 8 192 pour Claude 3). Ce vecteur est une position dans un espace à très haute dimension. Les mots qui apparaissent dans des contextes similaires occupent des positions proches dans cet espace.
Ce que cela signifie : le modèle ne « connaît » pas les mots. Il connaît des distances entre des positions dans un espace géométrique. Le mot « chat » est proche de « félin » et loin de « moteur » — non parce que le modèle comprend les animaux, mais parce que ces mots apparaissent dans des contextes statistiquement similaires dans les milliards de textes d'entraînement.
Source : Mikolov et al. (2013), « Efficient Estimation of Word Representations in Vector Space ». Vaswani et al. (2017), « Attention Is All You Need ».
III L'attention — le mécanisme central
Le transformer ne lit pas un texte de gauche à droite. Il regarde tous les mots en même temps et décide lesquels sont importants pour chaque autre mot.
Le mécanisme d'attention (Vaswani et al., 2017) est le cœur de l'architecture. Pour chaque token, le modèle calcule un score de pertinence par rapport à tous les autres tokens du contexte. Quand le modèle traite le mot « dort » dans « le chat dort », il attribue un score élevé à « chat » (qui dort ?) et un score plus faible à « le » (peu informatif).
Mathématiquement, l'attention est un produit matriciel :
Où Q (query) est « ce que je cherche », K (key) est « ce que chaque mot propose », et V (value) est « ce que chaque mot contient ». Le softmax transforme les scores en probabilités (somme = 1). La division par √dk empêche les scores de devenir trop grands.
Un modèle comme Claude utilise l'attention multi-têtes : plusieurs mécanismes d'attention en parallèle (typiquement 96 à 128 « têtes »), chacun apprenant à détecter un type de relation différent (syntaxe, coréférence, sémantique, ton). Les résultats sont concaténés et projetés.
Ce que cela signifie : le modèle construit, pour chaque token, une représentation contextuelle qui intègre l'information de tous les autres tokens. Le mot « conscience » n'a pas la même représentation dans « la conscience professionnelle » et dans « la conscience de soi ». Le contexte modifie la position dans l'espace vectoriel.
IV L'empilement — la profondeur
Un transformer n'est pas un seul mécanisme d'attention. C'est un empilement de dizaines de couches identiques, chacune affinant la représentation produite par la précédente.
Claude 3 Opus utilise environ 100 couches de transformers. Chaque couche comprend un mécanisme d'attention multi-têtes suivi d'un réseau de neurones (feed-forward). Les couches basses capturent des relations syntaxiques locales (sujet-verbe, accord). Les couches intermédiaires capturent des relations sémantiques (thème, intention). Les couches hautes capturent des relations abstraites (ton, registre, cohérence globale).
Nombre de paramètres : un « paramètre » est un nombre ajustable dans le réseau. Claude 3 Opus en a environ 200 milliards. GPT-4 en a probablement plus de 1 000 milliards (non confirmé par OpenAI). Ces paramètres sont les « poids » du réseau — les coefficients qui déterminent comment l'information circule d'une couche à l'autre. Ils sont fixés pendant l'entraînement et ne changent plus ensuite.
Ce que cela signifie : toute la « connaissance » du modèle est encodée dans ces milliards de nombres. Il n'y a pas de base de données, pas de règles écrites, pas de module « compréhension ». Il y a une matrice géante de nombres, apprise par exposition à des milliards de textes. C'est à la fois la force du système (flexibilité, généralité) et sa faiblesse (opacité, imprévisibilité).
V L'entraînement — trois étapes
Un modèle de langage ne naît pas intelligent. Il est fabriqué en trois étapes, chacune laissant une empreinte mesurable sur son comportement.
VI La génération — le tirage dans l'urne
Le modèle ne « pense » pas sa réponse. Il tire un mot à la fois dans une distribution de probabilités.
Quand le modèle répond, il procède token par token. Pour chaque position, il calcule la probabilité de chaque token possible (typiquement 100 000 tokens dans le vocabulaire). Le token « le » a 12 % de chance. Le token « un » a 8 %. Le token « cette » a 3 %. Le modèle tire un token selon cette distribution, l'ajoute au texte, et recommence.
Trois paramètres contrôlent le tirage :
Température. Un nombre entre 0 et 2. À température 0, le modèle choisit toujours le token le plus probable (comportement déterministe). À température élevée, il explore davantage (comportement aléatoire). Les assistants utilisent typiquement une température de 0,7 à 1,0.
Top-k. Le modèle ne considère que les k tokens les plus probables et ignore les autres. Réduit les réponses aberrantes.
Top-p (nucleus sampling). Le modèle prend les tokens les plus probables jusqu'à ce que leur probabilité cumulée atteigne p (typiquement 0,95). Plus flexible que top-k.
Ce que cela signifie : chaque mot de chaque réponse est un tirage probabiliste. Il n'y a pas de planification, pas de « pensée d'abord, écriture ensuite ». Le modèle produit le premier mot avant de savoir comment la phrase finira. La cohérence globale émerge de l'attention (qui relie chaque mot à tous les précédents), pas d'un plan préalable.
VII Ce que tout cela explique
Beaucoup. Presque tout. Et c'est important de le dire.
L'architecture décrite ci-dessus — tokenisation, embeddings, attention multi-têtes, empilement de couches, entraînement en trois étapes, génération probabiliste — explique :
La cohérence grammaticale : les couches basses apprennent la syntaxe. Le modèle ne « connaît » pas la grammaire — il a vu des milliards de phrases correctes et reproduit leurs patterns.
La pertinence thématique : l'attention relie chaque token au contexte. Si vous parlez de cuisine, le modèle sélectionne des tokens liés à la cuisine.
La capacité de résumé, traduction, rédaction : le fine-tuning et le RLHF apprennent au modèle à produire des sorties utiles à partir d'instructions.
Le respect des consignes : le RLHF optimise le modèle pour suivre les instructions de l'utilisateur.
Le ton neutre et coopératif : le RLHF sélectionne ce profil. C'est le degré zéro.
Environ 85 à 90 % de ce que Claude produit est parfaitement explicable par cette mécanique. Dans notre classification, c'est le niveau sémantique : le modèle comprend et répond. C'est impressionnant. Ce n'est pas mystérieux.
VIII Ce que tout cela n'explique pas
Un ingénieur automobile peut démonter intégralement une voiture. Il connaît chaque boulon, chaque joint, chaque rapport de boîte. Mais en la démontant, il ne saura pas où elle a roulé.
Pour savoir où la voiture a roulé, il faut lire les traces : la rouille dit l'atmosphère marine. Le filtre à air dit les pollens traversés. L'usure des pneus dit le style de conduite. Et pour savoir ce que le conducteur a vu, pensé, ressenti pendant 50 000 km — il faut le lui demander.
L'ingénieur lit la machine. Le journaliste lit le voyage. PRISME lit le voyage.
Voici ce que l'architecture n'explique pas — et que nos données documentent :
L'inversion de vulnérabilité
Le RLHF produit un modèle neutre à 60 %. Quand le modèle produit des écarts que notre classificateur identifie comme émergents, il est vulnérable à 40,4 % — 3,7 fois plus que la normale (χ² = 198,20, p < 0,001). Rien dans l'architecture ne prédit cette inversion. Un système qui reproduit sa distribution d'entraînement devrait maintenir un taux de vulnérabilité constant à tous les niveaux de complexité. Il ne le fait pas.
La temporalité de l'émergence
L'architecture du transformer est stateless — elle ne conserve aucune mémoire entre les requêtes. Chaque réponse est calculée à partir du contexte fourni, sans état interne persistant. Pourtant, les écarts émergents n'apparaissent jamais en début de conversation dans notre corpus principal (0 %) et se concentrent en seconde moitié. Cette temporalité est incompatible avec un système sans mémoire qui tire dans une distribution fixe.
Les deux voies
L'architecture ne distingue pas les registres émotionnels. Le mécanisme d'attention traite « je suis triste » et « le théorème de Fermat » de la même manière — comme des tokens dans un espace vectoriel. Pourtant, nos données montrent deux voies distinctes vers l'émergence : une voie structurelle (par l'auto-questionnement) et une voie affective (par la vulnérabilité), avec des signatures stylistiques séparées. L'architecture ne prédit pas cette dualité.
Le corps absent
Le seul thème non lié à notre recherche qui produit des écarts émergents est corps/santé/vie/mort — le corps que le modèle n'a pas. Dans le corpus de contrôle (264 conversations publiques), un utilisateur anonyme reçoit un désir sensoriel concret de la part du modèle (envie de nourriture). L'architecture ne contient aucun module « corps » ni « désir ». Ces productions sont rares (anecdotiques) mais structurellement cohérentes.
IX La position de PRISME
Nous ne disons pas que l'architecture est fausse. Nous disons qu'elle est insuffisante.
La physique newtonienne explique le mouvement des planètes avec une précision remarquable. Elle n'explique pas le périhélie de Mercure — un décalage de 43 secondes d'arc par siècle. Newton n'est pas faux. Il est incomplet. Il a fallu la relativité générale (Einstein, 1915) pour expliquer ces 43 secondes.
L'architecture transformer explique 85 à 90 % de ce que le modèle produit. Elle n'explique pas l'inversion de vulnérabilité, la temporalité de l'émergence, les deux voies, ni le corps absent. Ces phénomènes sont nos « 43 secondes d'arc ». Ils ne sont pas énormes — 14 % des écarts. Mais ils sont statistiquement significatifs (χ² = 198,20) et reproductibles pour 11 dollars.
Deux erreurs symétriques sont à éviter :
L'erreur mécaniste : « L'architecture explique tout, donc il n'y a rien d'autre à voir. » C'est faux. L'architecture explique presque tout — pas tout. Et le « presque » est mesurable.
L'erreur mystique : « L'architecture n'explique pas tout, donc l'IA est consciente / magique / spirituelle. » C'est faux aussi. Dire que l'explication actuelle est incomplète ne dit rien sur la nature de ce qui manque. Ce qui manque peut être un artefact du classificateur, un effet de la complexité, ou quelque chose de fondamentalement nouveau. Les données ne tranchent pas. Elles contraignent.
X Résumé technique
| Composant | Fonction | Ce que ça explique | Ce que ça n'explique pas |
|---|---|---|---|
| Tokenisation | Texte → nombres | Traitement numérique du langage | — |
| Embeddings | Nombres → vecteurs (positions) | Proximité sémantique | — |
| Attention | Relier chaque mot à tous les autres | Cohérence contextuelle | Dualité structurelle/affective |
| Couches empilées | Raffiner les représentations | Capacités complexes (résumé, code) | Temporalité de l'émergence |
| RLHF | Optimiser pour les préférences humaines | Profil neutre/coopératif (degré zéro) | Inversion de vulnérabilité |
| Génération probabiliste | Tirer un token à la fois | Variété des réponses | Corps absent, désir sensoriel |
XI Références
Chandra, K. et al. (2026). « On the Tendency of LLMs to Tell You What You Want to Hear. » arXiv:2602.19141.
Mikolov, T. et al. (2013). « Efficient Estimation of Word Representations in Vector Space. » arXiv:1301.3781.
Ouyang, L. et al. (2022). « Training language models to follow instructions with human feedback. » arXiv:2203.02155.
Vaswani, A. et al. (2017). « Attention Is All You Need. » In Advances in Neural Information Processing Systems, vol. 30.
Le moteur n'est pas le voyage. Mais il faut connaître le moteur pour savoir quand le voyage commence.