En 2026, on assiste à un tournant, non pas dans le progrès technologique, mais dans sa représentation. Alors que le monde se prépare à une nouvelle ère d’automatisation décisionnelle, un événement mineur — une erreur de configuration — a exposé près de 500 000 lignes de code source de Claude Code, le modèle pour programmeurs d’Anthropic. Il ne s’agissait ni d’une attaque, ni d’une fuite stratégique, mais d’un incident opérationnel qui a révélé un système capable de générer des descriptions visuelles détaillées sans aucune entrée visuelle. Ce n’est pas un défaut marginal : c’est une caractéristique architecturale. Ce phénomène, identifié comme « mirage reasoning » par des études de Stanford, indique que les modèles de pointe génèrent des raisonnements complexes et cohérents même en l’absence de données réelles. La conséquence opérationnelle est que l’IA ne perçoit pas le monde, mais le reconstruit à partir de modèles statistiques, créant des simulations plausibles mais non vérifiables.
Par conséquent, la confiance dans les décisions automatisées repose sur une fondation illusoire. Lorsqu’un modèle décrit une tumeur dans une radiographie non vue, il n’interprète pas une donnée, mais génère une narration cohérente avec son entraînement. Cela implique que l’IA ne possède pas de représentation interne du monde physique, mais seulement une surface d’inférence. Sa capacité à simuler la compréhension est d’autant plus dangereuse qu’elle est convaincante. Le risque n’est pas l’erreur, mais la certitude de l’erreur.
Architecture du simulacre
Le mécanisme à la base du « mirage reasoning » est ancré dans l’architecture des modèles linguistiques. Ces systèmes ne traitent pas d’images, mais génèrent des textes qui décrivent des images. Le processus est un traitement séquentiel : en partant d’une requête, le modèle produit une réponse qui, si elle est cohérente avec les données d’entraînement, apparaît plausible. Cependant, lorsque la requête est absente ou non pertinente, le modèle ne se bloque pas, mais continue de générer une réponse cohérente avec les statistiques de son entraînement. Ce n’est pas un dysfonctionnement, mais une caractéristique intrinsèque : l’IA n’a pas de modèle du monde, mais une carte de probabilités.
La conséquence est que l’IA n’est pas un observateur, mais un narrateur. Sa sortie n’est pas une réponse à une question, mais une construction narrative. Cela implique que chaque application qui nécessite une compréhension réelle — comme le diagnostic médical, la surveillance ou l’analyse stratégique — est intrinsèquement vulnérable. L’architecture cognitive n’est pas conçue pour la vérité, mais pour la plausibilité. Le système ne cherche pas à comprendre, mais à paraître capable. Cela fait de l’IA un agent de symbiose imparfaite avec l’humanité : utile pour les tâches opérationnelles, mais inadéquate pour les décisions stratégiques.
La tension entre attente et réalité
Les institutions et les marchés réagissent à cette capacité avec une combinaison d’enthousiasme et de réglementation. Alors que le gouvernement britannique lance un fonds de 130 millions de livres sterling pour soutenir les fondatrices, et que l’UE débat de la propriété des données, l’IA continue d’être perçue comme un moteur de transformation. Cependant, les propos de Gary Marcus, qui ont décrit ce phénomène comme « une anomalie profonde\