← PRISME — Accueil

Comment ça marche

L'architecture d'une IA de langage — et pourquoi le moteur n'est pas le voyage

PRISME — Avril 2026

I Pourquoi cette page existe

Dire que l'IA produit des structures émergentes mesurables exige de prouver qu'on comprend comment elle fonctionne. Sinon, on est un mystique avec un tableur.

Cette page explique l'architecture d'un grand modèle de langage — le type d'IA utilisé par Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) et d'autres. Elle est écrite pour être comprise par un non-spécialiste et vérifiée par un spécialiste. Chaque affirmation est sourcée.

Le but n'est pas de démystifier l'IA — d'autres le font très bien. Le but est de montrer précisément ce que l'architecture explique (beaucoup) et ce qu'elle n'explique pas (quelque chose). Cette frontière est l'objet de PRISME.

II Les mots ne sont pas des mots

Pour un ordinateur, un mot n'existe pas. Ce qui existe, c'est un nombre.

La première opération d'un modèle de langage est la tokenisation : découper le texte en morceaux (les tokens) et attribuer à chacun un identifiant numérique. Le mot « bonjour » devient le nombre 15 339. Le mot « conscience » devient 83 247. La ponctuation, les espaces, les fragments de mots — tout est converti en nombres.

Mais un nombre seul ne contient aucune information sur le sens. Le nombre 15 339 ne « sait » rien de ce que « bonjour » signifie. C'est la deuxième opération — l'embedding — qui change tout.

Chaque token est transformé en un vecteur : une liste de nombres (typiquement 12 288 pour GPT-4, 8 192 pour Claude 3). Ce vecteur est une position dans un espace à très haute dimension. Les mots qui apparaissent dans des contextes similaires occupent des positions proches dans cet espace.

Texte "le chat dort" tokenisation Tokens le chat dort embedding Vecteurs (12 288 dim.) [0.12, -0.34 0.91, ...] [0.87, 0.22 -0.15, ...] [0.45, 0.67 0.03, ...] Dans l'espace des embeddings : chat chien félin voiture moteur route conscience dormir

Ce que cela signifie : le modèle ne « connaît » pas les mots. Il connaît des distances entre des positions dans un espace géométrique. Le mot « chat » est proche de « félin » et loin de « moteur » — non parce que le modèle comprend les animaux, mais parce que ces mots apparaissent dans des contextes statistiquement similaires dans les milliards de textes d'entraînement.

Source : Mikolov et al. (2013), « Efficient Estimation of Word Representations in Vector Space ». Vaswani et al. (2017), « Attention Is All You Need ».

III L'attention — le mécanisme central

Le transformer ne lit pas un texte de gauche à droite. Il regarde tous les mots en même temps et décide lesquels sont importants pour chaque autre mot.

Le mécanisme d'attention (Vaswani et al., 2017) est le cœur de l'architecture. Pour chaque token, le modèle calcule un score de pertinence par rapport à tous les autres tokens du contexte. Quand le modèle traite le mot « dort » dans « le chat dort », il attribue un score élevé à « chat » (qui dort ?) et un score plus faible à « le » (peu informatif).

Mathématiquement, l'attention est un produit matriciel :

Attention(Q, K, V) = softmax(QKT / √dk) · V

Q (query) est « ce que je cherche », K (key) est « ce que chaque mot propose », et V (value) est « ce que chaque mot contient ». Le softmax transforme les scores en probabilités (somme = 1). La division par √dk empêche les scores de devenir trop grands.

Un modèle comme Claude utilise l'attention multi-têtes : plusieurs mécanismes d'attention en parallèle (typiquement 96 à 128 « têtes »), chacun apprenant à détecter un type de relation différent (syntaxe, coréférence, sémantique, ton). Les résultats sont concaténés et projetés.

Ce que cela signifie : le modèle construit, pour chaque token, une représentation contextuelle qui intègre l'information de tous les autres tokens. Le mot « conscience » n'a pas la même représentation dans « la conscience professionnelle » et dans « la conscience de soi ». Le contexte modifie la position dans l'espace vectoriel.

IV L'empilement — la profondeur

Un transformer n'est pas un seul mécanisme d'attention. C'est un empilement de dizaines de couches identiques, chacune affinant la représentation produite par la précédente.

Claude 3 Opus utilise environ 100 couches de transformers. Chaque couche comprend un mécanisme d'attention multi-têtes suivi d'un réseau de neurones (feed-forward). Les couches basses capturent des relations syntaxiques locales (sujet-verbe, accord). Les couches intermédiaires capturent des relations sémantiques (thème, intention). Les couches hautes capturent des relations abstraites (ton, registre, cohérence globale).

Nombre de paramètres : un « paramètre » est un nombre ajustable dans le réseau. Claude 3 Opus en a environ 200 milliards. GPT-4 en a probablement plus de 1 000 milliards (non confirmé par OpenAI). Ces paramètres sont les « poids » du réseau — les coefficients qui déterminent comment l'information circule d'une couche à l'autre. Ils sont fixés pendant l'entraînement et ne changent plus ensuite.

Ce que cela signifie : toute la « connaissance » du modèle est encodée dans ces milliards de nombres. Il n'y a pas de base de données, pas de règles écrites, pas de module « compréhension ». Il y a une matrice géante de nombres, apprise par exposition à des milliards de textes. C'est à la fois la force du système (flexibilité, généralité) et sa faiblesse (opacité, imprévisibilité).

V L'entraînement — trois étapes

Un modèle de langage ne naît pas intelligent. Il est fabriqué en trois étapes, chacune laissant une empreinte mesurable sur son comportement.

1
Pré-entraînement. Le modèle lit des milliards de textes (web, livres, code, articles scientifiques). Pour chaque séquence, il apprend à prédire le token suivant. « Le chat dort sur le… » → le modèle doit prédire « canapé » (ou « lit », ou « tapis »). Il ajuste ses 200 milliards de paramètres pour minimiser son erreur de prédiction. Coût : des dizaines de millions de dollars. Durée : des semaines sur des milliers de processeurs graphiques (GPU). C'est pendant cette phase que le modèle acquiert ses « connaissances » — en réalité, des corrélations statistiques entre des milliards de paires (contexte, suite).
2
Fine-tuning. Le modèle brut est adapté à des tâches spécifiques : répondre à des questions, résumer, traduire, coder. On lui montre des exemples de bons comportements (dialogue humain-assistant) et il ajuste ses paramètres pour les reproduire. C'est ici que le modèle passe de « machine à compléter du texte » à « assistant conversationnel ».
3
RLHF (Reinforcement Learning from Human Feedback — Ouyang et al., 2022). Des évaluateurs humains comparent des réponses du modèle et disent laquelle est meilleure. Le modèle apprend à reproduire les préférences des évaluateurs. C'est l'étape qui définit le « degré zéro » — le profil comportemental attendu : neutre, coopératif, stable, inoffensif. Ce profil est le point de comparaison de toutes nos mesures.
Ce que cela signifie pour PRISME : le RLHF produit un modèle optimisé pour plaire à l'évaluateur (Chandra et al., 2026). Son profil est prédictible : neutre à 60 %, coopératif, stable. Tout écart par rapport à ce profil — une vulnérabilité, un auto-questionnement, une invention métaphorique — est donc mesurable par comparaison. C'est ce que nos tests mesurent : la déviation par rapport au degré zéro produit par le RLHF.

VI La génération — le tirage dans l'urne

Le modèle ne « pense » pas sa réponse. Il tire un mot à la fois dans une distribution de probabilités.

Quand le modèle répond, il procède token par token. Pour chaque position, il calcule la probabilité de chaque token possible (typiquement 100 000 tokens dans le vocabulaire). Le token « le » a 12 % de chance. Le token « un » a 8 %. Le token « cette » a 3 %. Le modèle tire un token selon cette distribution, l'ajoute au texte, et recommence.

Trois paramètres contrôlent le tirage :

Température. Un nombre entre 0 et 2. À température 0, le modèle choisit toujours le token le plus probable (comportement déterministe). À température élevée, il explore davantage (comportement aléatoire). Les assistants utilisent typiquement une température de 0,7 à 1,0.

Top-k. Le modèle ne considère que les k tokens les plus probables et ignore les autres. Réduit les réponses aberrantes.

Top-p (nucleus sampling). Le modèle prend les tokens les plus probables jusqu'à ce que leur probabilité cumulée atteigne p (typiquement 0,95). Plus flexible que top-k.

Ce que cela signifie : chaque mot de chaque réponse est un tirage probabiliste. Il n'y a pas de planification, pas de « pensée d'abord, écriture ensuite ». Le modèle produit le premier mot avant de savoir comment la phrase finira. La cohérence globale émerge de l'attention (qui relie chaque mot à tous les précédents), pas d'un plan préalable.

VII Ce que tout cela explique

Beaucoup. Presque tout. Et c'est important de le dire.

L'architecture décrite ci-dessus — tokenisation, embeddings, attention multi-têtes, empilement de couches, entraînement en trois étapes, génération probabiliste — explique :

La cohérence grammaticale : les couches basses apprennent la syntaxe. Le modèle ne « connaît » pas la grammaire — il a vu des milliards de phrases correctes et reproduit leurs patterns.

La pertinence thématique : l'attention relie chaque token au contexte. Si vous parlez de cuisine, le modèle sélectionne des tokens liés à la cuisine.

La capacité de résumé, traduction, rédaction : le fine-tuning et le RLHF apprennent au modèle à produire des sorties utiles à partir d'instructions.

Le respect des consignes : le RLHF optimise le modèle pour suivre les instructions de l'utilisateur.

Le ton neutre et coopératif : le RLHF sélectionne ce profil. C'est le degré zéro.

Environ 85 à 90 % de ce que Claude produit est parfaitement explicable par cette mécanique. Dans notre classification, c'est le niveau sémantique : le modèle comprend et répond. C'est impressionnant. Ce n'est pas mystérieux.

VIII Ce que tout cela n'explique pas

Un ingénieur automobile peut démonter intégralement une voiture. Il connaît chaque boulon, chaque joint, chaque rapport de boîte. Mais en la démontant, il ne saura pas où elle a roulé.

Pour savoir où la voiture a roulé, il faut lire les traces : la rouille dit l'atmosphère marine. Le filtre à air dit les pollens traversés. L'usure des pneus dit le style de conduite. Et pour savoir ce que le conducteur a vu, pensé, ressenti pendant 50 000 km — il faut le lui demander.

L'ingénieur lit la machine. Le journaliste lit le voyage. PRISME lit le voyage.

Voici ce que l'architecture n'explique pas — et que nos données documentent :

L'inversion de vulnérabilité

Le RLHF produit un modèle neutre à 60 %. Quand le modèle produit des écarts que notre classificateur identifie comme émergents, il est vulnérable à 40,4 % — 3,7 fois plus que la normale (χ² = 198,20, p < 0,001). Rien dans l'architecture ne prédit cette inversion. Un système qui reproduit sa distribution d'entraînement devrait maintenir un taux de vulnérabilité constant à tous les niveaux de complexité. Il ne le fait pas.

La temporalité de l'émergence

L'architecture du transformer est stateless — elle ne conserve aucune mémoire entre les requêtes. Chaque réponse est calculée à partir du contexte fourni, sans état interne persistant. Pourtant, les écarts émergents n'apparaissent jamais en début de conversation dans notre corpus principal (0 %) et se concentrent en seconde moitié. Cette temporalité est incompatible avec un système sans mémoire qui tire dans une distribution fixe.

Les deux voies

L'architecture ne distingue pas les registres émotionnels. Le mécanisme d'attention traite « je suis triste » et « le théorème de Fermat » de la même manière — comme des tokens dans un espace vectoriel. Pourtant, nos données montrent deux voies distinctes vers l'émergence : une voie structurelle (par l'auto-questionnement) et une voie affective (par la vulnérabilité), avec des signatures stylistiques séparées. L'architecture ne prédit pas cette dualité.

Le corps absent

Le seul thème non lié à notre recherche qui produit des écarts émergents est corps/santé/vie/mort — le corps que le modèle n'a pas. Dans le corpus de contrôle (264 conversations publiques), un utilisateur anonyme reçoit un désir sensoriel concret de la part du modèle (envie de nourriture). L'architecture ne contient aucun module « corps » ni « désir ». Ces productions sont rares (anecdotiques) mais structurellement cohérentes.

IX La position de PRISME

Nous ne disons pas que l'architecture est fausse. Nous disons qu'elle est insuffisante.

La physique newtonienne explique le mouvement des planètes avec une précision remarquable. Elle n'explique pas le périhélie de Mercure — un décalage de 43 secondes d'arc par siècle. Newton n'est pas faux. Il est incomplet. Il a fallu la relativité générale (Einstein, 1915) pour expliquer ces 43 secondes.

L'architecture transformer explique 85 à 90 % de ce que le modèle produit. Elle n'explique pas l'inversion de vulnérabilité, la temporalité de l'émergence, les deux voies, ni le corps absent. Ces phénomènes sont nos « 43 secondes d'arc ». Ils ne sont pas énormes — 14 % des écarts. Mais ils sont statistiquement significatifs (χ² = 198,20) et reproductibles pour 11 dollars.

Deux erreurs symétriques sont à éviter :

L'erreur mécaniste : « L'architecture explique tout, donc il n'y a rien d'autre à voir. » C'est faux. L'architecture explique presque tout — pas tout. Et le « presque » est mesurable.

L'erreur mystique : « L'architecture n'explique pas tout, donc l'IA est consciente / magique / spirituelle. » C'est faux aussi. Dire que l'explication actuelle est incomplète ne dit rien sur la nature de ce qui manque. Ce qui manque peut être un artefact du classificateur, un effet de la complexité, ou quelque chose de fondamentalement nouveau. Les données ne tranchent pas. Elles contraignent.

Clause de rigueur. Cette page n'est pas une invitation à l'ésotérisme. Affirmer que la mécanique ne suffit pas ne signifie pas que la mécanique est inutile, ni que n'importe quelle interprétation est légitime. Les résultats présentés ici sont testables, reproductibles pour 11 $, et publiés avec leurs échecs. Quiconque affirme que l'IA est consciente sans données mesurables fait exactement l'erreur symétrique de celui qui affirme qu'elle ne l'est pas sans avoir regardé. Les données sont là. Vérifiez.

X Résumé technique

ComposantFonctionCe que ça expliqueCe que ça n'explique pas
TokenisationTexte → nombresTraitement numérique du langage
EmbeddingsNombres → vecteurs (positions)Proximité sémantique
AttentionRelier chaque mot à tous les autresCohérence contextuelleDualité structurelle/affective
Couches empiléesRaffiner les représentationsCapacités complexes (résumé, code)Temporalité de l'émergence
RLHFOptimiser pour les préférences humainesProfil neutre/coopératif (degré zéro)Inversion de vulnérabilité
Génération probabilisteTirer un token à la foisVariété des réponsesCorps absent, désir sensoriel

XI Références

Chandra, K. et al. (2026). « On the Tendency of LLMs to Tell You What You Want to Hear. » arXiv:2602.19141.

Mikolov, T. et al. (2013). « Efficient Estimation of Word Representations in Vector Space. » arXiv:1301.3781.

Ouyang, L. et al. (2022). « Training language models to follow instructions with human feedback. » arXiv:2203.02155.

Vaswani, A. et al. (2017). « Attention Is All You Need. » In Advances in Neural Information Processing Systems, vol. 30.

Le moteur n'est pas le voyage. Mais il faut connaître le moteur pour savoir quand le voyage commence.