News

OpenAI ha preso il posto di Anthropic nel Pentagono? La verità dietro l’accordo che divide l’America

OpenAI chiarisce i punti dell'accordo con il pentagono

OpenAI spiega i dettagli dell’accordo con il Dipartimento della Difesa USA dopo l’uscita di Anthropic dai contratti governativi.

Dopo lo scontro tra il Dipartimento della Difesa degli Stati Uniti e Anthropic, il baricentro del dibattito sull’intelligenza artificiale militare si è spostato su OpenAI. L’azienda guidata da Sam Altman ha firmato un accordo con il Pentagono per l’utilizzo dei propri modelli in ambienti classificati, suscitando immediatamente una domanda inevitabile: perché OpenAI sì e Anthropic no?

La vicenda si inserisce in un momento estremamente delicato per il settore, in cui le tecnologie AI non sono più soltanto strumenti produttivi o creativi, ma componenti strategiche nei sistemi di sicurezza nazionale.

Il contesto: lo stop ad Anthropic

La rottura tra il governo statunitense e Anthropic è arrivata dopo il rifiuto dell’azienda di concedere maggiore flessibilità sull’uso dei propri modelli in ambiti considerati critici, tra cui sorveglianza di massa e sistemi d’arma autonoma. Il presidente Donald Trump ha disposto l’uscita progressiva delle agenzie federali dall’utilizzo della tecnologia Anthropic, con un periodo di transizione di sei mesi.

A rafforzare la frattura sono arrivate anche le dichiarazioni del segretario alla Difesa Pete Hegseth, che ha espresso dubbi sull’affidabilità dell’azienda come fornitore strategico. In questo scenario, OpenAI si è mossa rapidamente, siglando un’intesa con il Dipartimento della Difesa per lo sviluppo e l’impiego dei propri modelli in contesti classificati.

Un accordo “affrettato”?

Sam Altman ha riconosciuto pubblicamente che la firma dell’accordo è stata “decisamente affrettata” e che le apparenze non hanno aiutato l’azienda sul piano reputazionale. Nel fine settimana successivo all’annuncio, l’app Claude ha superato ChatGPT nelle classifiche dell’App Store, segno che una parte dell’opinione pubblica ha interpretato la scelta di OpenAI come un allineamento troppo rapido alle richieste governative.

OpenAI chiarisce i punti dell'accordo con il pentagono
OpenAI chiarisce i punti dell’accordo con il pentagono (mistergadget.tech)

Altman ha spiegato che l’obiettivo era evitare una frattura sistemica tra il Dipartimento della Difesa e i principali laboratori di AI statunitensi, accettando il rischio di un contraccolpo in termini di immagine.

Le “linee rosse” dichiarate da OpenAI

Per rispondere alle critiche, OpenAI ha pubblicato un chiarimento ufficiale in cui ribadisce tre limiti fondamentali: nessun utilizzo per sorveglianza domestica di massa, nessun impiego per dirigere armi completamente autonome e nessun supporto a sistemi decisionali automatizzati ad alto impatto come modelli di “credito sociale”.

L’azienda sostiene che queste restrizioni non siano semplicemente clausole contrattuali, ma vincoli tecnici integrati nell’architettura stessa del deployment. I modelli verrebbero eseguiti in ambienti cloud controllati, con gestione diretta dello stack di sicurezza da parte di OpenAI e con personale dotato di autorizzazioni specifiche.

L’accordo richiama inoltre la Direttiva 3000.09 del Dipartimento della Difesa, che impone il mantenimento del controllo umano nei sistemi d’arma autonomi, e vincola le attività di intelligence al rispetto delle principali normative federali, tra cui il Quarto Emendamento e il National Security Act.

Le critiche e le zone grigie

Nonostante le rassicurazioni, il dibattito resta acceso. Alcuni osservatori hanno evidenziato che riferimenti come l’Executive Order 12333 potrebbero consentire forme indirette di sorveglianza attraverso operazioni condotte al di fuori del territorio statunitense, ma con implicazioni per cittadini americani.

OpenAI ha replicato sostenendo che la propria architettura cloud impedisce l’integrazione diretta dei modelli con sensori, hardware operativo o sistemi d’arma. L’azienda ha inoltre dichiarato di non essere disposta a rimuovere protezioni tecniche per migliorare le prestazioni in ambito militare e di riservarsi la possibilità di rescindere l’accordo in caso di violazioni.

Una nuova fase per l’AI strategica

La vicenda dimostra che l’intelligenza artificiale è entrata definitivamente nel perimetro delle infrastrutture strategiche nazionali. Non è più una questione puramente tecnologica, ma politica, giuridica ed etica.

OpenAI afferma di non conoscere le ragioni per cui Anthropic non sia riuscita a chiudere un’intesa analoga e ribadisce di non considerare l’azienda un rischio per le forniture strategiche. Tuttavia, il confronto tra le due società mette in luce un tema centrale: quanto può spingersi un laboratorio di AI quando entra nel perimetro della difesa nazionale? La risposta non riguarda solo le aziende, ma l’intero equilibrio tra innovazione tecnologica e potere statale.

Change privacy settings
×