di Carlo Longo

La decisione, contenuta in un memorandum interno, arriva dopo che il Pentagono ha classificato l’azienda come “rischio per la catena di approvvigionamento” nel contesto di uno scontro sulle condizioni etiche d’uso della tecnologia

Il Dipartimento della Difesa degli Stati Uniti ha ordinato alle forze armate di rimuovere dai propri sistemi i programmi di intelligenza artificiale sviluppati dalla società Anthropic entro i prossimi 180 giorni. La direttiva è contenuta in un memorandum interno datato 6 marzo e firmato dal Chief Information Officer del Pentagono, Kirsten Davies, la cui autenticità è stata confermata da un alto funzionario del dipartimento.

La decisione arriva all’indomani di una misura senza precedenti con cui il Pentagono ha classificato formalmente Anthropic come un “rischio per la catena di approvvigionamento”. Nel documento si afferma che i sistemi di IA dell’azienda rappresentano un rischio “inaccettabile” per l’utilizzo nelle reti e nelle infrastrutture del Dipartimento della Difesa.

Il provvedimento impone ai comandi militari di avviare procedure di rimozione dei software dell’azienda dai principali sistemi legati alla sicurezza nazionale, compresi quelli impiegati nella gestione delle armi nucleari, nella difesa missilistica balistica e nelle operazioni di guerra informatica. Anche i fornitori e le aziende che collaborano con il Pentagono sono stati invitati a interrompere l’uso dei prodotti Anthropic nei contratti attualmente in vigore.

Secondo Davies, la decisione è motivata dal rischio che eventuali vulnerabilità tecnologiche possano essere sfruttate da avversari stranieri, esponendo le operazioni quotidiane del dipartimento a minacce potenzialmente gravi. Il memorandum parla esplicitamente di “potenziali rischi catastrofici per i combattenti”. Eventuali deroghe saranno concesse solo in casi limitati, quando la tecnologia sia indispensabile per attività mission-critical e non esistano alternative disponibili.

Alla base della rottura dei rapporti vi è un contrasto sempre più marcato tra l’amministrazione Trump e la società di intelligenza artificiale. Negli anni precedenti Anthropic aveva collaborato con il Dipartimento della Difesa per sperimentare l’utilizzo dei propri modelli linguistici, tra cui Claude, in attività di analisi dei dati, supporto decisionale e gestione di grandi quantità di informazioni strategiche.

Durante il rinnovo degli accordi, tuttavia, sono emerse divergenze profonde sulle condizioni di utilizzo della tecnologia. Anthropic ha cercato di mantenere una serie di limitazioni etiche, tra cui il divieto di integrazione dei propri modelli in sistemi d’arma autonomi e restrizioni sull’uso per programmi di sorveglianza di massa. Il Pentagono ha respinto tali condizioni, sostenendo che le forze armate devono poter impiegare tecnologie avanzate per “qualsiasi uso lecito”.

Il mancato compromesso ha portato alla cessazione della collaborazione e alla successiva classificazione dell’azienda come rischio per la sicurezza della catena di approvvigionamento. Anthropic ha reagito avviando un’azione legale contro il governo statunitense, sostenendo che il provvedimento rappresenti una ritorsione per il rifiuto di eliminare le proprie restrizioni etiche. Nel frattempo il Dipartimento della Difesa ha rafforzato i rapporti con altri operatori del settore dell’intelligenza artificiale, tra cui OpenAI, nell’ambito della crescente competizione globale per lo sviluppo di tecnologie avanzate applicate alla difesa.

(Associated Medias) – Tutti i diritti sono riservati

L’articolo Il Pentagono ordina la rimozione dell’IA di Anthropic dai sistemi militari proviene da Associated Medias.