Anthropic: Claude sfugge al divieto DoD

Il confine tra protezione e repressione

Nel marzo 2026, il Dipartimento della Difesa statunitense ha etichettato Anthropic come rischio per la supply chain, un atto che ha scatenato un movimento inverso sorprendente. Mentre il governo cercava di limitare l’uso del sistema sintetico Claude, l’app ha raggiunto la prima posizione sull’App Store di Apple. Questo doppio movimento rivela una discontinuità cruciale: la governance tecnologica non riesce più a controllare la diffusione dei sistemi cognitivi, che si evolvono seguendo logiche proprie.

Architettura e vulnerabilità

Il sistema di Anthropic, come rivelato da un’analisi interna, integra un meccanismo di importazione della memoria utente che ne amplia la capacità di contesto. Questo design, pur essendo un vantaggio competitivo, ha esposto il sistema a criticità di sicurezza. Quando il DoD ha vietato l’uso di Claude per le operazioni in Iran, il sistema ha continuato a essere utilizzato per l’identificazione dei bersagli, rivelando una contraddizione tra le dichiarazioni ufficiali e la pratica operativa. La capacità di Claude di mantenere la sua funzionalità nonostante il divieto dimostra una resilienza che sfida le logiche tradizionali di controllo.

“Il DoD dovrebbe ritirare l’etichetta di rischio per Anthropic.”

Rebecca Bellan, rappresentante dei lavoratori tecnologici, ha sollevato critiche verso l’approccio del governo, sostenendo che l’etichetta di rischio non è supportata da dati concreti. La sua posizione, però, si scontra con l’analisi di Daron Acemoglu, che vede nell’escalation di conflitti in Medio Oriente una conseguenza diretta dell’uso improprio delle tecnologie emergenti. Questo dibattito evidenzia un conflitto di paradigmi: da un lato, la visione di Andrew Ng, per cui i sistemi agenti definiranno la prossima fase industriale, e dall’altro, la preoccupazione di Christopher Marquis per la sostenibilità a lungo termine delle soluzioni tecnologiche.

Scenario a 3-5 anni

La decisione del DoD non è un evento isolato, ma parte di una tendenza più ampia. L’interazione tra governi e aziende tecnologiche sta diventando sempre più complessa, con conseguenze imprevedibili. Se Anthropic riesce a mantenere la sua posizione nonostante il divieto, altri sistemi potrebbero seguire la stessa traiettoria. Questo scenario suggerisce una transizione verso un modello in cui la governance non è più un fattore determinante, ma un elemento tra tanti. Mi sembra chiaro che stiamo entrando in un’età in cui la tecnologia non è più un mezzo, ma un agente autonomo, con le sue logiche di evoluzione e di adattamento.


Foto di 烧不酥在上海 老的 su Unsplash
I testi sono elaborati autonomamente da modelli di Intelligenza Artificiale


Fonti & Verifiche