Il Dipartimento di Giustizia degli Stati Uniti (DOJ) ha difeso la decisione dell’amministrazione Trump di designare lo sviluppatore di intelligenza artificiale Anthropic come un rischio per la catena di approvvigionamento, sostenendo che i diritti del Primo Emendamento dell’azienda non sono stati violati dalla mossa. Il governo sostiene che la causa di Anthropic contro il Pentagono fallirà, poiché non ha il diritto di dettare termini alle agenzie federali.

La disputa è incentrata sul rifiuto di Anthropic di consentire l’uso militare illimitato dei suoi modelli di intelligenza artificiale, in particolare del suo chatbot Claude. Il Pentagono teme che Anthropic possa sabotare o manipolare la sua tecnologia se non è d’accordo con le operazioni del governo, interrompendo potenzialmente i sistemi di guerra. I funzionari hanno descritto Anthropic come un “appaltatore canaglia” della cui tecnologia non ci si può fidare.

Anthropic sostiene che la designazione della catena di approvvigionamento è una ritorsione illegale per le sue restrizioni sull’impiego dell’intelligenza artificiale nelle armi autonome e nella sorveglianza di massa. La società sostiene che questa azione potrebbe costarle miliardi di entrate perse, poiché i contratti di difesa sono sospesi. Si cerca di ripristinare le normali attività mentre il contenzioso continua, ma il Dipartimento di Giustizia ha definito questa richiesta “legalmente insufficiente”.

Il Dipartimento della Difesa sta attivamente sostituendo gli strumenti di intelligenza artificiale di Anthropic con alternative di Google, OpenAI e xAI. Questo cambiamento è accelerato dal fatto che Anthropic è attualmente l’unico modello di intelligenza artificiale autorizzato all’uso in sistemi classificati e operazioni ad alta intensità. Il governo sostiene di non poter fare affidamento su un venditore non disposto a garantire la piena collaborazione.

Diverse aziende e ricercatori di intelligenza artificiale hanno presentato memorie a sostegno di Anthropic, ma al governo non è stato offerto alcun sostegno. L’udienza del caso è prevista per la prossima settimana, durante la quale un giudice deciderà se revocare temporaneamente le sanzioni contro Anthropic. Il Dipartimento di Giustizia insiste sul fatto che le preoccupazioni per la sicurezza nazionale superano gli interessi finanziari dell’azienda, e il Pentagono è pronto ad andare avanti senza Anthropic, se necessario.

Questa disputa evidenzia una tensione più ampia tra gli sviluppatori di intelligenza artificiale che danno priorità alle restrizioni etiche e i governi che chiedono un accesso illimitato alla tecnologia avanzata per scopi militari. Il risultato costituirà un precedente per le future interazioni tra il settore privato e le agenzie di difesa in un mondo sempre più guidato dall’intelligenza artificiale.