Souveraineté Cognitive : IA et PA, un Risque pour l’Italie ?

Date: 23.03.2026
Auteur: Carlo Cafarotti
Rubrique: ROOT ACCESS

L’usine a une philosophie, une thermodynamique, et a donc besoin d’une constitution.

Dans les deux premiers articles de cette rubrique spéciale [ROOT ACCESS], j’ai posé, en m’efforçant de clarifier les intentions profondes, les fondements logiques de HuAndroid:

  1. Le Manifeste: l’IA n’est pas un assistant, mais un exosquelette cognitif. Cela signifie que l’humain ne doit pas être un utilisateur passif, mais un architecte qui conçoit les contraintes.
  2. L’Avantage Asymétrique (Thermodynamique Éditoriale): la démonstration mathématique qu’une infrastructure bare-metal et propriétaire peut réduire les coûts de production (0,099 euro pour une analyse complexe), transformant le coût variable du cloud en un coût fixe marginal.

Il manquait un troisième pilier. Celui qui relie la philosophie à la thermodynamique, transformant une expérience de laboratoire en un paradigme applicable à un niveau systémique.

Ces derniers jours, j’ai transmis à l’Agence pour l’Italie Numérique (AgID) un position paper en réponse à la consultation publique sur les nouvelles Lignes Directives pour l’IA dans l’Administration Publique. Je ne l’ai pas fait depuis le pupitre d’un théoricien, qui, d’ailleurs, je ne pourrais pas prétendre l’être, mais avec la concrétude de celui qui a construit une infrastructure fonctionnelle et qui s’est posé une question: les principes architecturaux de cette usine peuvent-ils s’appliquer à l’échelle de l’État?

Cet article est l’extension de ce document, c’est la représentation du troisième pilier: il s’appelle Souveraineté Cognitive.


Le Problème: Gouverner l’IA avec les règles du « cloud-rent »

L’Administration Publique (AP) italienne est sur le point de faire un pas irréversible. Les Lignes Directives AgID en consultation sont un travail solide, qui place au centre la sécurité, la conformité réglementaire (AI Act, Loi 132/2025) et la nécessité d’atténuer le vendor lock-in.

Cependant, le débat public et institutionnel est encore entaché d’une équivoque fondamentale: l’idée que l’IA se « loue » comme un logiciel traditionnel, et que la gouverner signifie simplement écrire de meilleurs prompts.

Cette équivoque entraîne trois conséquences fatales:

  1. La dépendance structurelle (Cloud-Rent): Si l’IA est déléguée aux API de tiers (par exemple, OpenAI, Anthropic, Google), l’AP n’achète pas une infrastructure, mais une rente perpétuelle. Chaque jeton généré pour traiter un document public est une taxe versée à un écosystème étranger (et opaque?). Plus l’adoption est importante, plus elle alimente le prélèvement financier.
  2. Le risque d' »auto-empoisonnement » (Model Collapse): Si l’AP utilise l’IA pour générer des millions de documents synthétiques, et que ces documents finissent dans les bases de données qui entraîneront les IA de demain, le système entrera dans une boucle entropique. L’IA qui se nourrit de ses propres résultats perd de son adéquation à la réalité, aplatit les exceptions et produit une moyenne statistique dénuée de sens. Dans une Administration Publique où le droit du citoyen se joue souvent sur l’exception et le détail, cette dérive est inacceptable.
  3. L’illusion du contrôle: L’AI Act impose la supervision humaine. Mais le modèle standard (Human-in-the-loop) réduit le fonctionnaire à un simple correcteur de brouillons, c’est-à-dire au point administratif qui doit assumer la responsabilité. Un système qui « hallucine » physiologiquement, et dont les erreurs sont corrigées a posteriori, n’est pas un système gouverné: c’est une machine qui génère du travail indu pour ceux qui doivent la corriger.

Le position paper envoyé à AgID oppose à ces menaces trois solutions architecturales.


Les Trois Piliers de la Souveraineté Cognitive pour l’AP

1. Human-in-Command: l’Architecte, pas le correcteur

Le principe de surveillance humaine (Article 13 des Lignes Directives) est vital. Mais s’il est appliqué de manière réactive, il échoue. La proposition: le modèle Human-in-the-loop doit évoluer vers le paradigme Human-in-Command (HIC).

Dans ce schéma, l’humain ne valide pas le résultat en aval, mais conçoit en amont la « Constitution des Agents »: les garde-fous éthico-logiques, les frontières épistémologiques, les règles algorithmiques inviolables. Si le système produit une dérive, il faut intervenir sur l’architecture logique et sur les poids du prompt système, et non sur le mot généré individuellement.

Pourquoi c’est de la Souveraineté: la responsabilité décisionnelle n’est pas déléguée à une black box commerciale, mais elle est codifiée dans la conception du système, sous la supervision de fonctionnaires publics.

2. Epistemic Security: agents conçus pour « attaquer » la vérité

L’architecture décrite par les Lignes Directives est solide, mais elle manque d’une couche explicite de vérification factuelle (Grounding) lors de l’inférence. La proposition: intégrer un niveau de Epistemic Security basé sur des modèles Multi-Agents. Le modèle génératif principal doit être systématiquement accompagné d’Agents Critiques indépendants, dont le seul but programmé est:

  • De vérifier les références croisées;
  • De démasquer les biais et les sophismes logiques;
  • « D’attaquer » la production textuelle avant sa publication pour tester sa résistance.

L’objectif n’est pas une objectivité absolue utopique, mais une objectivité procédurale: la légitimité du résultat de l’AP ne découle pas de l’infaillibilité de la machine, mais de la transparence, de la reproductibilité et de la robustesse du processus de révision automatisé.

3. Santuaires Cognitifs: pourquoi le PSN doit évoluer

Les Lignes Directives pour le développement promeuvent à juste titre la neutralité matérielle. Mais les directives sur le procurement ne traduisent pas encore ce principe en critères contraignants. La proposition: inclure dans les appels d’offres des critères de bonus absolus pour les solutions qui:

  • Garantissent l’exécutabilité bare-metal sur du matériel hétérogène (y compris les environnements CPU-only, pour garantir la continuité opérationnelle en cas de crise des GPU);
  • Adoptent des architectures local-first sous contrôle public total;
  • Documentent une efficacité thermodynamique rigoureuse (consommation/jeton).

Ces enclaves protégées, que je nomme Sanctuaires Cognitifs, trouvent leur habitat naturel dans le Pôle Stratégique National (PSN) ; à mon avis, le PSN ne peut pas se limiter à être un “cloud de stockage de données”, mais doit évoluer vers l’infrastructure de calcul habilitante où les modèles de l’Administration Publique sont exécutés et interrogés en totale isolation des réseaux commerciaux.


La naissance de l’Architecte Cognitif

Ces propositions exigent une profonde mutation génétique de la force de travail publique. Une nouvelle figure est nécessaire : l’Architecte Cognitif.

Nous ne parlons pas d’un “ingénieur de prompts” prêté à l’AP. Nous parlons d’un professionnel hybride qui maîtrise :

  • Le Droit Administratif, pour traduire la contrainte normative en contrainte système ;
  • L’Éthique Algorithmique, pour équilibrer les poids décisionnels de la machine ;
  • L’Ingénierie des Données, pour orchestrer les Agents Critiques et gouverner l’entropie synthétique.

La Loi 132/2025 (Art. 11) impose de former ceux qui utilisent les systèmes d’IA. L’Architecte Cognitif représente le sommet absolu de cette pyramide de formation : celui qui ne subit pas l’interface, mais qui conçoit son moteur. Et je vous assure qu’en le faisant sur le terrain, cela me semble presque une forme d’art, au-delà de la logique au sens strict.


Conclusion

La Souveraineté Cognitive n’est pas un slogan politique. C’est un protocole d’ingénierie.

C’est la capacité d’un État à posséder le fer sur lequel tournent les calculs (Sanctuaire Cognitif), à ingénieriser le doute dans la production documentaire (Sécurité Épistémique) et à élever l’homme de correcteur d’épreuves à créateur de règles (Human-in-Command).

Si nous n’assimilons pas ce saut logique, l’intégration de l’IA dans l’Administration Publique se réduira à la plus colossale opération d’externalisation de la pensée jamais tentée dans l’histoire de la République. Et pour quelqu’un comme moi, qui a également occupé un rôle politique public, c’est un cauchemar que j’espère ne pas voir se réaliser.

On ne gouverne pas l’IA en écrivant de meilleurs prompts. On la gouverne en concevant l’architecture. Et concevoir l’architecture, c’est savoir fusionner la philosophie avec la thermodynamique, et le code avec le droit constitutionnel.

Le triptyque est complet.

Carlo Cafarotti

>>> system override by human <<<

Si vous souhaitez approfondir, le livre blanc intégral envoyé à AgID (avec les propositions d’amendement textuelles et les références réglementaires) est disponible intégralement : Télécharger le PDF – Lien.