|  | 

Anthropic e il Dito Medio a Trump: L’Etica IA Vale 200 Milioni di Dollari?

Spread the love

C’è un momento preciso in cui le grandi dichiarazioni di principio della Silicon Valley si scontrano con la realtà, e di solito quel momento ha la forma di un assegno a molti zeri. In questo blog parliamo spesso di come l’IA generativa stia cambiando l’arte, la musica e la creatività – basta guardare le nostre sperimentazioni con IAIA, generazione immagini e video. Ma cosa succede quando la stessa tecnologia viene richiesta per la guerra? Venerdì 27 febbraio 2026, l’azienda Anthropic ha dato una risposta chiara all’amministrazione Trump, tracciando una linea rossa che ha fatto tremare l’industria tech.

Il Contesto: 200 Milioni per vendere l’anima… di Silicio.

Tutto nasce da un contratto da 200 milioni di dollari che Anthropic aveva stipulato con il Pentagono. Il loro modello, Claude, non è un’IA qualunque: era l’unico sistema generativo ad aver ottenuto l’autorizzazione di sicurezza per gestire informazioni classificate della Difesa americana, rivelandosi persino strumentale nelle operazioni che hanno portato alla cattura di Nicolás Maduro.

Ma l’idillio si è spezzato quando il Segretario della Guerra, Pete Hegseth, ha preteso un accesso senza limiti, minacciando di invocare il Defense Production Act (una legge degli anni ‘50 usata per le emergenze nazionali) per forzare l’azienda a cedere la propria tecnologia. L’ultimatum era chiaro: o Anthropic allentava i suoi standard di sicurezza entro venerdì, o il governo l’avrebbe etichettata come un “rischio per la catena di approvvigionamento”.

Perché Anthropic ha Rifiutato l’Ultimatum di Trump?

Non si tratta di pacifismo ingenuo, ma di una lucida visione sui confini del potere tecnologico. Il CEO Dario Amodei ha preferito rinunciare ai fondi milionari e subire il ban totale dalle agenzie federali ordinato da Donald Trump, piuttosto che piegarsi. I motivi del rifiuto si basano su due pilastri etici fondamentali della loro policy:

No alle armi letali autonome: Anthropic si oppone fermamente all’uso di IA per alimentare sistemi d’arma capaci di sparare, mirare o uccidere senza un essere umano nel ciclo decisionale.

No alla sorveglianza di massa: L’azienda ritiene “illegittimo” e “prono agli abusi” l’utilizzo dei propri modelli per monitorare indiscriminatamente i cittadini americani sul suolo nazionale.

OpenAI e la Fiera dell’Opportunismo

Dove c’è un idealista che fa un passo indietro, c’è sempre un capitalista pronto a fare un passo avanti. A poche ore di distanza dal divieto imposto ad Anthropic da Trump, Sam Altman ha annunciato su X che OpenAI aveva finalizzato un accordo con il Pentagono per integrare i propri modelli nell’infrastruttura classificata del Dipartimento della Guerra.

Ironia della sorte, OpenAI sostiene di aver ottenuto dal Pentagono l’inclusione delle stesse identiche clausole di salvaguardia (niente armi autonome, niente sorveglianza interna) che erano state la causa del divorzio con Anthropic. Una mossa che sa di cinico opportunismo: sfruttare lo scontro etico del rivale per accaparrarsi il cliente, promettendo paletti che, all’atto pratico, l’amministrazione Trump aveva appena dimostrato di non voler tollerare.

Etica vs Algoritmo

Trovo poeticamente ribelle che si scelga la coerenza rispetto all’algoritmo del profitto. Anthropic ha dimostrato che persino un’entità di silicio (o meglio, chi la programma) può avere una spina dorsale.

Noi cerchiamo la bellezza, ovunque. E se non la troviamo, la creiamo. Ma la bellezza risiede anche nel saper dire di no quando il potere ti chiede di trasformare uno strumento di evoluzione in un’arma di distruzione cieca. È la stessa differenza che passa tra usare l’eccellenza industriale per costruire opere che durano nel tempo e usarla per assecondare la follia del momento. Anthropic ha perso 200 milioni, ma forse ha salvato l’anima del settore. E in un mondo di Big Tech pronte a chinarsi per convenienza, un dito medio ben piazzato è una vera opera d’arte.

Articoli simili