Il 2 marzo 2026 la OpenAi ha sostituito la Anthropic nella fornitura di modelli di ia per il dipartimento della guerra (dal 2025 è questo il nome del dipartimento della difesa) degli Stati Uniti. È la notizia più importante della settimana nel mondo delle intelligenze artificiali ma è stata rapidamente offuscata dalla guerra in Iran. Per capire quanto le cose siano collegate, ricostruiamo i fatti.

In una situazione che vede le grandi aziende della Silicon valley ampiamente allineate alle politiche e ai voleri di Donald Trump, già dal 2025 alcune aziende come Google avevano rimosso dalle loro licenze d’uso il divieto di impiegare le proprie ia per le armi autonome e la sorveglianza di massa. Il 5 marzo del 2025 il Pentagono ha affidato alla Scale Ai lo sviluppo di Thunderforge, un sistema di ia per velocizzare la pianificazione militare, con particolare attenzione alle operazioni militari in Europa e nella regione indo-pacifica.

Nel frattempo, la Anthropic, azienda che produce il modello Claude, si è posizionata nel mondo delle ia come produttrice più etica, anche grazie al lavoro della filosofa Amanda Askell, responsabile, fra l’altro, della Claude’s constitution. È un documento molto interessante da leggere e difficile da riassumere. È una specie di guida filosofico-morale ai modelli Claude.

A inizio febbraio del 2026 diventa di dominio pubblico il disaccordo tra la Anthropic e il Pentagono su un contratto da 200 milioni di dollari. La Anthropic pretende che ci siano divieti espliciti per l’uso dei modelli nelle armi autonome e per la sorveglianza di massa negli Stati Uniti, ritenendo che le leggi attuali non siano adeguate. Il Pentagono rifiuta, sostenendo che un’azienda privata non può dettare regole alla sicurezza nazionale.

Il 24 febbraio 2026 il segretario della difesa Pete Hegseth invia un ultimatum all’amministratore delegato della Anthropic, Dario Amodei: se l’azienda non accetterà l’uso dei modelli Claude per “tutti gli scopi legali”, il contratto verrà annullato e la Anthropic verrà inserita in una lista di aziende che comportano rischi per la sicurezza nazionale.​

Il 25 febbraio, approfittando dello stallo, Sam Altman avvia le negoziazioni con il Pentagono per proporre di usare la tecnologia della OpenAi. Il 26 Febbraio la Anthropic respinge ufficialmente l’offerta finale del Pentagon​o. Il 27 febbraio, alla scadenza dell’ultimatum, Donald Trump ordina a tutte le agenzie federali e agli appaltatori militari di interrompere i rapporti commerciali con la Anthropic: la definisce “un’azienda di sinistra radicale gestita da persone che non hanno idea di cosa sia il mondo reale”.

Nella stessa serata, Sam Altman annuncia che la OpenAi ha ufficialmente firmato un accordo con il Pentagono, ribadendo però che ci sono clausole nel contratto che dovrebbero rassicurare tutti: niente armi autonome, niente sorveglianza di massa. Il 28 febbraio la OpenAi rende pubblica una parte dell’accordo con il Pentagono e scoppiano enormi polemiche contro l’azienda. Il 2 marzo alcune parole dell’accordo vengono modificate.

Sebbene a prima vista le clausole firmate dalla OpenAi e quelle richieste dalla Anthropic possano sembrare identiche, nella realtà legale e pratica non lo sono affatto. Il problema, come fanno notare i critici, è che le politiche militari e le interpretazioni legali del governo possono essere cambiate in qualsiasi momento dall’amministrazione: la dicitura “tutti gli scopi legali” rende qualsiasi divieto o limitazione all’uso dei modelli molto debole. Sulle armi autonome, poi, la Anthropic chiedeva che fosse vietato l’uso di Claude “senza un’adeguata supervisione umana”. Nell’accordo con la OpenAi si parla, invece, di mantenere la “responsabilità umana”, un termine molto più vago. Militarmente, può significare semplicemente che c’è un comandante responsabile anche a posteriori delle decisioni prese in autonomia dalla macchina.

Il risultato di questa storia è che molte persone hanno disinstallato ChatGpt ed è stata avviata una campagna di boicottaggio del modello. Dal canto suo, la Anthropic sta approfittando della situazione per scopi di marketing e ha introdotto una funzione per importare la memoria di un altro large language model per chi vuole iniziare a usare Claude senza ricominciare da capo.

Però, se pensiamo che almeno questa storia contemporanea ci indichi in maniera molto chiara chi sono i buoni e chi sono i cattivi, andando un po’ in profondità ci accorgeremo che, anche in questo caso, dobbiamo rinunciare alla divisione manichea della realtà. Non facciamoci ingannare dalla definizione di Trump: le idee che uno statunitense ha della sinistra radicale sono molto diverse dalle nostre.

La Anthropic, infatti, non si è mai schierata contro l’uso delle ia in ambito militare. Non ha mai sostenuto l’open source dei modelli di ia (anzi: l’azienda è nata proprio attorno a un’ideologia che si chiama altruismo efficace, i cui aderenti presumono che esista una morale universale e credono che i modelli ia più avanzati siano troppo pericolosi per essere messi nelle mani del pubblico senza filtri); quando Amodei parla di divieti sulla sorveglianza si riferisce sempre al territorio e ai cittadini statunitensi.

Insomma, anche la moralità della Anthropic è tipica della dottrina ai safety californiana: collaborano attivamente con il comparto militare-industriale statunitense e proteggono i loro segreti tecnologici, ma esigono che il governo accetti i loro specifici guardrail tecnici su due tabù specifici. Se non altro, questo conflitto ha mostrato una crepa nel fronte delle grandi aziende della Silicon valley, ha dimostrato che tecnologia e politica sono strettamente legate e che ci possono essere approcci molto diversi alle tecnologie di frontiera.

Questo testo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it