L'illusion de la concurrence : comment l'IA répète les erreurs de la finance dérégulée

IA & Société7 avril 2025 · 2233 mots

En bref : Derrière la prétendue course à l'innovation dans l'IA se cache un phénomène inquiétant : la convergence vers un modèle unique d'affaires et de technologie qui limite paradoxalement l'innovation réelle. Comme la finance "autorégulée" qui a conduit à la crise des subprimes avec ses millions d'expulsés et ses villes fantômes, l'industrie de l'IA utilise des stratégies d'innovation accélérée pour distancer la régulation et imposer ses standards avant tout débat public approfondi. Dans un contexte sociétal marqué par des traumatismes collectifs (11 septembre, attentats de 2015) et une géopolitique instable, nous sommes particulièrement vulnérables aux promesses de systèmes qui offrent sécurité et certitude, même au prix de notre autonomie intellectuelle. Cette dynamique représente un danger systémique qui, comme en finance, pourrait générer des effets en cascade aux conséquences sociales profondes.

De l'usage à la norme : la convergence des modèles d'IA

Un phénomène notable se produit dans l'industrie de l'IA, comparable à ce que la linguistique observe entre l'usage et la norme. Alors qu'initialement diverses approches techniques et philosophiques coexistaient dans ce domaine, nous observons aujourd'hui une tendance à la convergence vers un modèle dominant : les grands modèles de langage entraînés sur des ensembles de données très volumineux.

Cette uniformisation suit une logique de marché documentée dans d'autres secteurs. Clayton Christensen, dans "The Innovator's Dilemma" (1997), a observé que les industries tendent naturellement vers une phase de consolidation où les produits deviennent de plus en plus similaires, avec une différenciation qui devient progressivement plus cosmétique que fondamentale.

Plusieurs exemples illustrent cette dynamique dans différents secteurs :

Les constructeurs automobiles allemands premium (BMW, Mercedes, Audi) proposent des véhicules aux caractéristiques techniques de plus en plus similaires, différenciés principalement par leur identité de marque et certains éléments de design

Les fournisseurs d'accès Internet offrent généralement des services comparables avec des variations relativement limitées de prix et de positionnement marketing

Les compagnies aériennes ont standardisé leur offre au point que le choix d'un transporteur repose souvent davantage sur des programmes de fidélité que sur des différenciations de service substantielles

Dans l'IA, cette convergence se manifeste par l'adoption largement répandue de l'approche des grands modèles de langage par les acteurs majeurs. OpenAI, Anthropic, Google, Meta, Mistral et même des acteurs qui se distinguaient traditionnellement par leur positionnement, comme Brave, adoptent des architectures techniques fondamentalement similaires avec des variations dans leur mise en œuvre.

Cette tendance à l'homogénéisation crée une situation où la concurrence existe certainement, mais principalement sur des paramètres comme la taille des modèles, la rapidité des réponses ou les fonctionnalités accessoires, plutôt que sur des approches fondamentalement différentes de l'intelligence artificielle.

L'autorégulation : les limites d'une approche

L'industrie de l'IA plaide activement pour l'autorégulation, soutenant que ses experts sont les mieux placés pour comprendre et encadrer efficacement cette technologie. Cette position présente des similitudes avec des arguments avancés dans d'autres secteurs par le passé.

Le secteur financier avait défendu une approche comparable avant la crise de 2008, argumentant que la complexité des produits dérivés et du trading algorithmique nécessitait une autorégulation plutôt qu'une supervision externe complète. Les événements qui ont suivi ont soulevé des questions importantes sur l'efficacité de cette approche.

Comme l'a fait remarquer l'économiste Joseph Stiglitz, les mécanismes d'autorégulation dans la finance ont contribué au développement de systèmes où "plusieurs milliards d'ordres par seconde" sont exécutés, créant des dynamiques difficiles à superviser, même pour leurs concepteurs, et des effets d'amplification qui peuvent rendre les crises particulièrement complexes à gérer une fois qu'elles se manifestent.

L'industrie de l'IA présente certains parallèles avec cette situation. Les systèmes d'IA interagissent maintenant avec nos infrastructures informationnelles, éducatives et décisionnelles à une échelle et une vitesse considérables. Chaque jour, d'innombrables interactions entre humains et IA influencent nos comportements, nos sources d'information et nos décisions collectives.

La question fondamentale que pose l'autorégulation est la suivante : dans quelle mesure peut-on attendre d'une industrie qu'elle impose des limites à sa propre croissance et à ses profits au nom d'un bien commun à plus long terme? L'expérience historique en matière de régulation économique suggère que cette attente présente des défis significatifs.

La stratégie d'innovation accélérée

Pour maintenir un avantage concurrentiel tout en naviguant dans un environnement réglementaire en évolution, l'industrie de l'IA a adopté ce qu'on pourrait appeler une "stratégie d'innovation accélérée", qui présente certaines similitudes avec les approches observées dans d'autres secteurs technologiques en rapide évolution.

Cette stratégie comporte typiquement plusieurs aspects :

Des annonces d'innovations à un rythme soutenu

Une succession rapide de nouvelles versions et fonctionnalités

Un cycle d'actualités et de discussions qui maintient une attention constante sur les évolutions du secteur

Un déploiement relativement rapide des technologies pour établir une présence sur le marché

Les dernières années illustrent cette dynamique : GPT-3 a été suivi par ChatGPT, puis rapidement par GPT-4. D'autres acteurs comme Claude, Gemini, et leurs versions successives ont maintenu ce rythme d'innovation rapide. Chaque nouvelle itération suscite un nouveau cycle d'analyses, de commentaires et d'adaptations.

Le sociologue Hartmut Rosa, dans son analyse de "l'accélération sociale", observe que la vitesse elle-même devient un facteur structurant dans nos sociétés modernes. Cette accélération technologique pose des défis particuliers pour les processus délibératifs et réglementaires, qui nécessitent par nature du temps pour l'analyse, la consultation et l'élaboration de normes collectives.

Cette cadence d'innovation rapide contribue à créer un environnement où l'adoption des outils d'IA s'intègre progressivement dans différents secteurs et pratiques, ce qui peut influencer l'approche réglementaire ultérieure.

Les défis réglementaires en Europe

Face à cette évolution technologique rapide, les efforts de régulation rencontrent des défis significatifs. L'Union européenne, qui a proposé l'AI Act comme cadre réglementaire, a dû faire face à des tensions entre ses ambitions régulatrices initiales et les préoccupations concernant la compétitivité économique européenne.

La perception d'une "course à l'IA" internationale, particulièrement vis-à-vis des États-Unis et de la Chine, influence considérablement le débat réglementaire. Une préoccupation fréquemment exprimée concerne l'équilibre à trouver entre la nécessité d'un cadre réglementaire solide et le souhait de ne pas entraver l'innovation et le développement économique dans ce secteur.

Un aspect particulièrement notable est le décalage temporel entre le processus d'élaboration réglementaire, qui s'étend typiquement sur plusieurs années, et le rythme de développement technologique qui se mesure souvent en trimestres. Cette différence de temporalité pose des défis particuliers aux régulateurs.

En France, l'annonce récente d'un investissement de 35 milliards d'euros en partenariat public-privé pour soutenir Mistral AI illustre cette dynamique complexe : un engagement en faveur du développement technologique accompagné de considérations éthiques, mais avec une priorité claire accordée à la position concurrentielle nationale dans ce domaine émergent.

Lawrence Lessig, dans son ouvrage "Code is Law" (1999), avançait l'idée que les architectures techniques peuvent définir les possibilités d'action dans le monde numérique aussi efficacement que les cadres juridiques traditionnels. Cette observation conserve sa pertinence alors que nous voyons se développer rapidement de nouvelles infrastructures d'IA.

La nature multidimensionnelle des enjeux

Les systèmes d'IA générative soulèvent des questions importantes qui dépassent le cadre des risques traditionnellement associés aux nouvelles technologies. En comparaison avec des problématiques comme l'amiante ou les PFAS, qui présentaient des risques circonscrits pour la santé physique, l'IA générative introduit des changements plus systémiques dans notre environnement informationnel et social.

Ces technologies transforment notre rapport au savoir, à l'information, à l'authenticité intellectuelle et à la production culturelle. Ces transformations ne se limitent pas à des secteurs spécifiques mais traversent l'ensemble de notre organisation sociale et cognitive.

Le philosophe Bernard Stiegler a développé le concept de "disruption" pour décrire des changements technologiques si rapides qu'ils peuvent mettre à l'épreuve la capacité d'adaptation des sociétés. L'IA générative présente certaines caractéristiques de cette disruption, se déployant à un rythme qui pose des défis à notre élaboration collective de modèles sociaux, éducatifs et culturels adaptés.

Le contexte sociétal de l'adoption accélérée

Un aspect souvent négligé dans l'analyse de l'adoption rapide des systèmes d'IA concerne le contexte social et psychologique dans lequel elle s'opère. L'histoire récente a été marquée par des événements traumatiques collectifs majeurs - des attaques terroristes comme le 11 septembre 2001 aux États-Unis ou le 13 novembre 2015 en France, des crises financières dévastatrices comme celle de 2008, et plus récemment des pandémies mondiales.

Ces événements créent un environnement propice à l'acceptation de systèmes qui promettent ordre, prévisibilité et sécurité, même au prix d'une certaine délégation de notre autonomie intellectuelle et décisionnelle. Dans un contexte géopolitique instable et anxiogène, des technologies présentées comme capables d'analyser et d'ordonner la complexité du monde deviennent particulièrement séduisantes.

Ce phénomène rappelle ce que Naomi Klein a identifié comme la "doctrine du choc" - l'idée que les périodes de crise collective facilitent l'introduction de changements qui seraient autrement plus questionnés. L'ironie est que cette quête de sécurité nous conduit à adopter des systèmes dont les implications à long terme restent largement inexplorées, échangeant des incertitudes visibles contre des incertitudes potentiellement plus profondes mais moins immédiatement perceptibles.

Les dimensions multiples du changement

Les conséquences de ces évolutions technologiques s'étendent à plusieurs dimensions de notre existence collective :

Dimension sociétale : La transformation des relations sociales par l'intermédiation croissante d'intelligences artificielles modifie notre rapport à l'altérité et à l'authenticité des interactions.

Dimension psychiatrique : L'exposition constante à des contenus générés artificiellement soulève des questions sur les effets potentiels sur notre santé mentale, particulièrement pour les jeunes en développement.

Dimension éthique : Des questions importantes concernant le consentement, l'appropriation et l'influence se posent à une échelle significative, modifiant les frontières traditionnelles des relations d'influence.

Dimension heuristique : Nos méthodes de recherche de la vérité et de production de connaissances évoluent lorsque la génération artificielle de contenu devient omniprésente.

Dimension herméneutique : Notre capacité d'interprétation du monde et de construction de sens est affectée lorsque la distinction entre le contenu authentique et généré devient moins évidente.

Ces dimensions s'entrecroisent, créant un réseau complexe de questions qui dépassent les approches traditionnelles de régulation sectorielle.

Perspectives pour une régulation adaptée

Face à ces enjeux complexes, quelles approches réglementaires pourraient être envisagées pour encadrer efficacement le développement de l'IA tout en préservant l'innovation et les bénéfices potentiels de ces technologies?

Périodes d'évaluation structurées : Mettre en place des phases d'évaluation obligatoires pour les innovations majeures avant leur déploiement à grande échelle, permettant une analyse approfondie des implications potentielles.

Principes fondamentaux préventifs : Établir des principes directeurs qui s'appliquent à toute nouvelle technologie avant même son développement, suivant l'approche proposée par le philosophe Hans Jonas avec son "principe de responsabilité".

Encouragement à la diversité d'approches : Pour contrebalancer la tendance naturelle à la convergence, des incitations réglementaires ou économiques pourraient favoriser le développement d'approches alternatives de l'IA, enrichissant l'écosystème d'innovation.

Clarification des responsabilités : À l'image de certaines régulations sectorielles établies, une définition claire des rôles et responsabilités entre les différents acteurs qui développent et déploient l'IA pourrait contribuer à un environnement plus structuré.

Mécanismes de responsabilisation : Établir des cadres qui permettent d'attribuer des responsabilités aux développeurs d'IA concernant les conséquences de leurs systèmes, y compris lorsque ces conséquences émergent de façon non anticipée.

Ces approches peuvent être complémentaires et s'inscrire dans une stratégie plus large de gouvernance de l'innovation technologique, visant à maximiser les bénéfices sociétaux tout en minimisant les risques.

Vers un équilibre entre innovation et régulation

L'expérience de la finance et sa régulation offre des enseignements cruciaux pour l'industrie émergente de l'IA. La crise des subprimes de 2008 a démontré comment des systèmes financiers autorégulés peuvent provoquer des catastrophes aux conséquences sociales dévastatrices : communautés entières détruites (comme Detroit devenue partiellement ville fantôme), millions de personnes expulsées de leur logement, pays mis sous tutelle (Grèce, Portugal), augmentation massive du chômage et précarisation de populations entières. Ces impacts, issus initialement de produits financiers complexes et mal régulés, illustrent parfaitement l'effet papillon que peut engendrer la défaillance d'un système autorégulé.

L'industrie de l'IA présente des caractéristiques similaires en termes de risques systémiques, bien que ses impacts potentiels emprunteraient des voies différentes - informationnelles, cognitives et culturelles plutôt que directement économiques. Ces technologies se développent et se déploient à un rythme qui pose des défis particuliers aux approches réglementaires traditionnelles, tout en ayant des implications qui pourraient, comme la finance dérégulée, s'étendre bien au-delà de leur domaine initial pour affecter profondément le tissu social.

La convergence observée vers des approches techniques similaires, tout en permettant une progression rapide, soulève également des questions sur la diversité des voies de développement et l'exploration d'alternatives qui pourraient présenter des caractéristiques différentes en termes de transparence, d'explicabilité ou d'alignement avec certaines valeurs sociétales.

Face à ces enjeux, un dialogue constructif entre développeurs, utilisateurs, chercheurs et régulateurs devient essentiel pour élaborer des cadres qui permettent à la fois l'innovation bénéfique et la protection contre les risques de défaillance systémique dont les conséquences pourraient, comme l'a montré l'histoire de la finance, s'avérer dramatiques pour les populations les plus vulnérables.

Prendre le temps d'une réflexion approfondie sur ces questions n'est pas opposé à l'innovation, mais constitue une condition nécessaire pour s'assurer que ces avancées technologiques servent effectivement le bien commun sans créer les conditions d'une crise systémique aux effets sociaux dévastateurs.

P.S. : Le parallèle avec la finance n'est pas parfait - l'IA présente des caractéristiques uniques, notamment dans sa capacité à influencer les processus cognitifs et informationnels. Néanmoins, l'histoire nous enseigne que les systèmes autorégulés tendent à optimiser pour le profit à court terme au détriment de la stabilité à long terme. C'est cette leçon fondamentale que nous risquons d'ignorer à nos dépens.

#IA #finance #dérégulation #subprimes