Retorica a due misure sull'inteligenza
Nella notte tra il 1° e il 2 marzo 2026, mentre le prime ondate di attacchi americani colpivano obiettivi iraniani, Claude — il modello di Anthropic — stava elaborando dati e sintetizzando documenti di intelligence contribuendo attivamente alle operazioni militari. - La Nuova Bussola Quotidiana -
Il che pone una domanda rimasta quasi assente dal dibattito pubblico: può un servizio civile usato da milioni di persone essere impiegato in scenari di guerra?
Sul piano del mercato, la scelta "etica" di Anthropic si è rivelata vincente: Claude ha registrato un aumento dei download tra il 37% e il 51% su base giornaliera, mentre il tasso di disinstallazione di ChatGPT negli USA è aumentato del 300% in un solo giorno. - Il Fatto Quotidiano -
Anthropic era stata la prima società di AI a ottenere contratti da centinaia di milioni di dollari con il Pentagono. I suoi sistemi erano integrati nei servizi di numerosi fornitori dell'esercito statunitense, inclusa Palantir — la controversa azienda di analisi dati fondata da Peter Thiel — per la gestione di documenti classificati. - Il Post -
Lo strappo (fine febbraio 2026). Il Pentagono voleva poter usare Claude per "qualsiasi scopo legale", senza vincoli imposti dall'azienda. Anthropic aveva però due condizioni irrinunciabili nel contratto: il divieto di utilizzo per armi completamente autonome (sistemi in cui l'IA sceglie e colpisce un bersaglio senza alcun intervento umano) e il divieto di sorveglianza di massa dei cittadini americani. - Substack -
La mossa dell'amministrazione Trump. Il Pentagono ha bollato Anthropic come "rischio per la catena di approvvigionamento" — una designazione normalmente riservata ad aziende legate al governo cinese — e ha vietato alle agenzie federali di usare le sue tecnologie. Il Post
Succede a febbraio, dopo mesi di trattative fallite, che il presidente Donald Trump ordina alle agenzie federali di interrompere l’uso della tecnologia di Anthropic, mentre il Dipartimento della Difesa ha annunciato la designazione dell’azienda come rischio per la supply chain.
Ad accendere lo scontro i negoziati sulle condizioni d’uso di Claude, il modello di punta della società Anthropic che voleva mantenere due eccezioni precise, cioè l’esclusione dell’uso per la sorveglianza domestica di massa degli americani e l’esclusione dell’uso in armi completamente autonome, mentre il Pentagono sosteneva che i limiti sugli impieghi militari leciti non potessero essere definiti unilateralmente da una società privata, bensì dal governo.
OpenAI subentra (28 febbraio). Dopo la rottura con Anthropic, è subentrata OpenAI, che il 28 febbraio ha firmato un contratto con il Pentagono acconsentendo all'utilizzo dei suoi servizi per qualsiasi scopo legale. Il Post
Lo stesso Sam Altman ha poi ammesso che la fretta di stringere quell'accordo è apparsa "opportunistica e approssimativa". Il Sole 24 ORE
Anthropic fa causa. Anthropic ha presentato due cause in due diversi stati, ritenendo illegale la designazione del Pentagono e definendo la decisione come una violazione della libertà di parola e una punizione per motivi ideologici: "Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un'azienda per la libertà di parola." Il Fatto Quotidiano
La società di Redmond Microsoft si schiera in tribunale con Anthropic contro la designazione del Pentagono come rischio per la supply chain.
Anche Microsoft sfida il Pentagono. E lo fa per difendere Anthropic, la società di intelligenza artificiale fondata da Dario Amodei finita nel mirino del Dipartimento della Difesa statunitense dopo essersi rifiutata di allentare due limiti ritenuti non negoziabili: niente sorveglianza domestica di massa e niente uso dei suoi modelli in armi completamente autonome.
Il gruppo di Redmond ha depositato in un tribunale federale di San Francisco un “amicus brief” a sostegno della richiesta di Anthropic di ottenere una sospensione temporanea della classificazione della società, imposta dal Pentagono, come “supply-chain risk”.
Per Microsoft quella decisione colpirebbe direttamente anche lei, visto che incorpora tecnologie di Anthropic nella forniture ai militari statunitensi.
Anthropic non ha rifiutato in toto la cooperazione con la sicurezza nazionale. Al contrario, nei suoi comunicati ufficiali ha ricordato di sostenere i soldati americani dal giugno 2024 e di essere stata la prima azienda leader nell’intelligenza artificiale avanzata a distribuire modelli nelle reti classificate del governo Usa. Ma ha anche definito “senza precedenti” la scelta di essere etichettata come “supply-chain risk”, sostenendo che storicamente questo tipo di strumento è stato usato contro soggetti considerati avversari degli Stati Uniti e non contro una società americana.
La causa depositata il 9 marzo scorso sostiene quindi che la designazione sia illegittima e ritorsiva. La società richiama il Primo Emendamento, il Quinto Emendamento e l’Administrative Procedure Act, e accusa il governo di avere reagito al rifiuto dell’azienda di ammorbidire le proprie regole d’uso su Claude e non a un rischio tecnico riconducibile alla sicurezza della filiera.
La 10 U.S.C. § 3252, la norma richiamata dal Pentagono, definisce infatti il “supply chain risk” come il rischio che un competitor possa sabotare, alterare o altrimenti compromettere il design, l’integrità o il funzionamento di un sistema coperto. Per Anthropic il Dipartimento della Difesa ha utilizzato una base normativa pensata per proteggere i sistemi coperti da minacce riconducibili ad avversari in un contesto completamente diverso, cioè contro una società americana che continua peraltro a presentarsi come partner della sicurezza nazionale.
Ed è proprio qui che entra in gioco Microsoft. Nel brief depositato a San Francisco, l’azienda di Satya Nadella sostiene che la classificazione operata dal Pentagono colpisce, oltre ad Anthropic, anche i contractor e gli integratori che usano quella tecnologia all’interno di soluzioni più ampie fornite al governo. In particolare, Redmond contesta il fatto che il Pentagono abbia previsto per sé sei mesi per eliminare gradualmente Anthropic dai sistemi già in uso, senza offrire ai contractor un periodo di transizione analogo. Il che costringerebbe i fornitori del governo a riprogettare in fretta componenti già incorporati in tecnologie operative o in fase di distribuzione, introducendo nuovi rischi commerciali e potenziali discontinuità nel supporto alle missioni pubbliche.
La sentenza (27 marzo). Un tribunale federale della California ha bloccato temporaneamente le restrizioni: la giudice Rita Lin ha accolto il ricorso di Anthropic, sostenendo che gli organi governativi non possano usare il potere dello Stato "per punire o reprimere pareri sgraditi". Ha sospeso sia la designazione di "supply-chain risk" sia il divieto alle agenzie federali di usare le tecnologie dell'azienda. La decisione però non è definitiva. Il Post
Il colpo di scena finale (26 marzo). Il Chief Digital & AI Office del Pentagono ha annunciato lo stanziamento di 600 milioni di dollari in contratti tra Anthropic, Google e xAI, con un tetto di 200 milioni per ciascuno — pochi giorni dopo aver trattato Anthropic come un nemico. Meta-defense
La partnership strategica
Lo scorso novembre Microsoft, Nvidia e Anthropic avevano annunciato una partnership strategica che ha portato Claude su Azure e rafforzato l’allineamento industriale tra il cloud di Microsoft e i modelli di Anthropic. Microsoft avrebbe investito fino a 5 miliardi di dollari nella società, mentre Nvidia fino a 10 miliardi. Nei mesi successivi, Redmond ha anche ribadito pubblicamente una strategia “multi-model” per i propri prodotti di intelligenza artificiale, con Anthropic che forniva tecnologie poi incorporate in piattaforme, servizi e ambienti enterprise di uno dei più grandi contractor tecnologici del governo degli Stati Uniti.
L’azione del Dipartimento di Difesa, però, non ha fatto storcere il naso solo a Microsoft. Anche trentasette ricercatori e ingegneri di OpenAI e Google hanno presentato un proprio “amicus brief” a sostegno di Anthropic. Segno che per una parte del settore la possibilità per un’azienda privata di sostenere pubblicamente che esistano usi della propria intelligenza artificiale che non intende autorizzare - senza per questo essere colpita da una misura che ne compromette l’accesso al mercato governativo - è un principio inderogabile.
Il doppio standard sollevato da Microsoft
Microsoft ha evidenziato esplicitamente l'asimmetria: il Pentagono si è concesso sei mesi per eliminare gradualmente i modelli Anthropic, senza però offrire lo stesso periodo di transizione ai contractor che li usano nei propri prodotti destinati al DoD.
Il brief dei 37 ricercatori
Trentasette ingegneri e ricercatori di OpenAI e Google — tra cui Jeff Dean, chief scientist di Google — hanno depositato separatamente il proprio amicus brief a sostegno di Anthropic. GeekWire Un fatto piuttosto raro: dipendenti di aziende concorrenti (OpenAI, tra l'altro, aveva annunciato un proprio accordo con il Pentagono proprio il giorno della designazione, una tempistica che lo stesso CEO Sam Altman ha definito "opportunistica e goffa" GeekWire) che si schierano pubblicamente contro una mossa del governo.
La posta in gioco più ampia
Se i tribunali lasciassero passare la mossa del Pentagono, ogni azienda AI che vende prodotti al governo avrebbe imparato che i guardrail di sicurezza possono essere reinterpretati come minacce alla sicurezza nazionale.


