Duecento milioni di dollari, un ultimatum e una legge di emergenza della guerra di Corea pronta a essere rispolverata. Il Dipartimento della Difesa americano ha posto Anthropic — la società fondata da Dario Amodei e creatrice del modello Claude — di fronte a una scelta netta: revocate i vincoli etici all’uso militare della vostra tecnologia, oppure uscite dalla catena di fornitura della difesa.Secondo le ricostruzioni, il segretario Pete Hegseth avrebbe minacciato di cancellare il contratto da 200 milioni e di invocare il Defense Production Act del 1950, la norma varata durante il conflitto coreano che consente al governo federale di obbligare le imprese private a produrre per le esigenze nazionali. Il paradosso è stridente: Claude viene già impiegato in ambienti classificati proprio perché considerato avanzato e affidabile. Ma è esattamente quella affidabilità — costruita su una governance rigida, che esclude usi offensivi e sistemi di sorveglianza di massa — ad aver scatenato la frizione. Il Pentagono non accetta che un fornitore privato ponga condizioni all’uso che lo Stato fa di una tecnologia che considera strategica.Il caso non è isolato. Google e OpenAI hanno già ammorbidito le loro posizioni etiche. Elon Musk si è detto disponibile a soddisfare le richieste del Dipartimento della Difesa. Anthropic, invece, tiene il punto. Ma la Casa Bianca ragiona in chiave di competizione sistemica con la Cina: quando l’AI diventa leva geopolitica, l’etica rischia di apparire come un lusso che non ci si può permettere.Per le aziende tech, il messaggio è inequivocabile: l’era dell’intelligenza artificiale come prodotto neutro e commerciale è finita. I modelli avanzati entrano nel perimetro della sicurezza nazionale, e con esso cambiano le regole del gioco. Essere fornitore del governo americano significa accettare logiche di priorità strategica che possono prevalere sulla governance aziendale. Il rischio non è solo reputazionale: è contrattuale e regolatorio. E riguarda anche le imprese europee che sviluppano AI o componenti critiche, sempre più esposte a pressioni, richieste di accesso a dati e potenziali obblighi di produzione.Per i mercati finanziari il segnale è ambivalente. L’integrazione dell’AI nei sistemi militari amplia il mercato e rafforza le barriere all’ingresso. Ma cresce anche il rischio politico: un’azienda può perdere valore non per un errore industriale, bensì per un conflitto con l’amministrazione. La valutazione di 380 miliardi attribuita ad Anthropic nell’ultimo round di finanziamento testimonia aspettative enormi. Aspettative che un rapporto deteriorato con Washington potrebbe sgonfiare rapidamente.Per l’Europa la lezione è ancora più profonda. Il dibattito continentale sull’AI Act si è concentrato su diritti, trasparenza e tutela dei cittadini — un approccio coerente con la nostra tradizione giuridica. Ma il caso americano ricorda che l’intelligenza artificiale è ormai intrecciata con la difesa e la sicurezza nazionale. Se l’Europa resta solo regolatrice, senza sviluppare una base industriale autonoma, rischia di dipendere da modelli e infrastrutture altrui proprio nei settori più sensibili. Senza sovranità tecnologica, le scelte etiche rischiano di essere irrilevanti.Resta aperta una contraddizione che nessuno ha ancora risolto: i limiti imposti da Anthropic sono esattamente ciò che rende il suo modello affidabile per impieghi governativi. Più un’AI è potente, più richiede governance rigorosa. Ma più la governance è stringente, più entra in collisione con l’urgenza strategica dello Stato.Il duello tra il Pentagono e Anthropic non è una disputa commerciale. È un test sul rapporto tra capitale privato e interesse nazionale nell’epoca dell’intelligenza artificiale. La domanda che rimane aperta è se le democrazie sapranno costruire un equilibrio prima che la pressione della competizione globale le costringa a scegliere in fretta — e male.
