认知主权:意大利(及公共部门)为何不能租用人工智能

日期:2026年3月23日
作者:Carlo Cafarotti
专栏:ROOT ACCESS

工厂有其哲学,有其自身的热力学,因此现在它需要一部宪法。

在本特别专栏 [ROOT ACCESS] 的前两篇文章中,我通过努力澄清深层意图,奠定了 HuAndroid 的逻辑基础:

  1. 宣言:人工智能不是助手,而是认知外骨骼。这意味着人类不应是被动的用户,而应是设计其约束条件的架构师。
  2. 非对称优势(编辑热力学):数学上的证明表明,一个自主的裸机基础设施可以将生产成本(一次复杂分析为0.099欧元)大幅降低,将云计算的变动成本转变为边际固定成本。

还缺少第三根支柱。它将哲学与热力学连接起来,将实验室实验转变为可在系统层面应用的范式。

最近几天,我向意大利数字机构 (AgID) 提交了一份立场文件,以回应关于公共行政领域人工智能新指南的公开咨询。我并非站在理论家的讲台上这样做(况且我也不能自诩为理论家),而是怀着建设者的务实精神——我建立了一个运作有效的基础设施,并问了自己一个问题:这个工厂的架构原则能否扩展,成为国家的模式?

本文即是对该文件的扩展,它代表了第三根支柱:它被称为认知主权


问题:用“云租赁”的规则来治理人工智能

意大利公共行政机构 (PA) 即将迈出不可逆转的一步。正在咨询阶段的 AgID 指南 是一项扎实的工作,其核心聚焦于安全、法规合规性(《人工智能法案》、第132/2025号法律)以及减轻供应商锁定的必要性。

然而,公众和机构辩论仍然受到一个根本性误解的影响:认为人工智能可以像传统软件一样被“租赁”,而治理人工智能仅仅意味着编写更好的提示词。

这个误解带来了三个致命后果:

  1. 结构性依赖(云租赁):如果将人工智能委托给第三方API(如OpenAI、Anthropic、谷歌),公共行政机构购买的就不是基础设施,而是一种永久性的租金。处理公共文件所生成的每一个词元都是向外部(且不透明的?)生态系统缴纳的税款。人工智能采用得越多,资金流失就越严重。
  2. “自我中毒”风险(模型崩溃):如果公共行政机构使用人工智能生成数百万份合成文件,而这些文件又流入用于训练未来人工智能的数据库,系统将陷入熵增循环。以自身输出为食的人工智能会脱离现实,抹平例外情况,产生毫无意义的统计平均值。在一个公民权利往往取决于例外情况和细节的公共行政体系中,这种偏差是不可接受的。
  3. 控制的幻觉:《人工智能法案》规定了人类监督。但标准模式(人在环路中)将公务员降级为纯粹的校对员,即必须承担责任的行政节点。一个会“产生幻觉”、其错误仅在事后被逐个补救的系统,并不是一个被治理的系统:它是一台为纠正它的人制造额外工作的机器。

提交给 AgID 的立场文件针对这些威胁提出了三种架构性解决方案。


面向公共行政机构的认知主权三支柱

公共行政机构人工智能的3大支柱

1. 人在指挥:架构师,而非校对员

人类监督原则(指南原则13)至关重要。但如果仅仅以被动方式实施,它就会失败。建议:人在环路模型必须演变为人在指挥 (HIC) 范式。

在此模式下,人类不是评估事后的输出,而是预先设计“智能体的宪法”:伦理逻辑护栏、认知边界、坚如磐石的算法规则。如果系统出现偏差,则干预逻辑架构和系统提示词的权重,而不是删除生成的单个单词。

为何这是主权:决策责任不会被外包给商业黑箱,而是被编码在系统设计中,并由公职人员掌控。

2. 认知安全:旨在“攻击”真相的智能体

指南中勾勒的架构很扎实,但缺少一个在推理阶段进行事实核查的明确层面。建议:整合一个基于多智能体模式的认知安全层。主要的生成模型必须系统地与独立的评判智能体配对,这些评判智能体唯一被设定的目的是:

  • 验证交叉引用;
  • 揭露偏见和逻辑谬误;
  • 在发布前“攻击”文本生成,以测试其稳健性。

目标不是乌托邦式的绝对客观性,而是程序性客观性:公共行政机构输出的合法性并非源于机器的绝对正确,而是源于自动化审查过程的透明度、可重复性和稳健性。

3. 认知圣殿:为何国家战略枢纽必须演进

发展指南正确地提倡硬件中立性。但采购指令尚未将此原则转化为具有约束力的要求。建议:在招标中纳入绝对奖励标准,以鼓励那些能够:

  • 保证在异构硬件(包括仅CPU环境,以确保在GPU短缺时的运营连续性)上裸机执行的解决方案;
  • 采用完全由公共控制的本地优先架构;
  • 记录严格的热力学效率(消耗/词元)。

这些我称之为认知圣殿的保护性飞地,在国家战略枢纽 (PSN) 中找到了它们的自然栖息地;在我看来,PSN 不能局限于成为一个“数据存储云”,而必须演变为使能计算基础设施,让公共行政机构的模型在与商业网络完全隔离的环境下运行和查询。


认知架构师的诞生

这些建议要求公共劳动力进行深刻的基因突变。我们需要一个新角色:认知架构师

我们谈论的不是借调到公共行政机构的“提示词工程师”。我们谈论的是一位掌握以下技能的复合型专业人士:

  • 行政法,将规范约束转化为系统约束;
  • 算法伦理,平衡机器的决策权重;
  • 数据工程,编排评判智能体并驾驭合成熵。

第132/2025号法律(第11条)规定必须对使用人工智能系统的人员进行培训。认知架构师代表了这一培训金字塔的绝对顶峰:他并非被动接受界面,而是设计其引擎。我向你们保证,在实践中这样做,在我看来几乎是一种艺术形式,而不仅仅是严格意义上的逻辑。


结论

认知主权不是政治口号。它是一种工程协议。

它关乎一个国家的能力:拥有承载计算的“钢铁”(认知圣殿),在文件生成中“工程化”质疑(认知安全),并将人类从校对员提升为规则创造者(人在指挥)。

如果我们不接纳这种逻辑上的跨越,人工智能在公共行政领域的整合将沦为共和国历史上最庞大的思想外包行动。对于像我这样曾担任过公共政治角色的人来说,这是一个我希望永远不会成真的噩梦。

治理人工智能不是靠编写更好的提示词。治理人工智能靠的是设计架构。而设计架构意味着懂得将哲学与热力学融合,将代码与宪法融合。

三联画已然完整。

Carlo Cafarotti

>>> system override by human <<<

如果您想深入了解,提交给 AgID 的完整立场文件(包含文本修订建议和法规参考)可在此获取:下载 PDF – 链接