Il Dipartimento della Difesa degli Stati Uniti (DoD) si è mosso per designare Anthropic, una delle principali startup di intelligenza artificiale, come un “rischio nella catena di fornitura”, impedendo di fatto agli appaltatori che lavorano con l’esercito di fare affari con l’azienda. La mossa, annunciata venerdì dai funzionari del Pentagono, ha inviato onde d’urto in tutta la Silicon Valley e innescato sfide legali da parte di Anthropic, sollevando dubbi sull’autorità del governo sulle società tecnologiche private.

Il conflitto centrale: sorveglianza e autonomia

La controversia è incentrata sulle condizioni alle quali il Dipartimento della Difesa può utilizzare i modelli di intelligenza artificiale di Anthropic. Il Pentagono ha chiesto l’accesso illimitato per “tutti gli usi legali”, compreso il potenziale impiego nella sorveglianza interna e nei sistemi d’arma autonomi. Anthropic ha rifiutato, sostenendo che i suoi contratti dovrebbero vietare esplicitamente tali applicazioni, citando preoccupazioni etiche e il potenziale uso improprio.

Questo disaccordo è significativo perché evidenzia una crescente tensione tra il desiderio dei militari di una tecnologia IA all’avanguardia e la riluttanza dell’industria tecnologica a facilitare la sorveglianza incontrollata o l’uso di armi. L’insistenza del Pentagono sul pieno accesso suggerisce la volontà di dare priorità alla sicurezza nazionale rispetto agli obblighi contrattuali, creando potenzialmente un pericoloso precedente per i futuri negoziati tra governo e settore privato.

Designazione del rischio nella catena di fornitura: cosa significa

Una designazione di “rischio della catena di fornitura” consente al Dipartimento della Difesa di limitare i fornitori dai contratti di difesa se sono ritenuti vulnerabili a causa di influenze straniere o problemi di sicurezza. Pur essendo intesa a proteggere i sistemi militari sensibili, l’applicazione di questa etichetta a un’azienda americana a causa di disaccordi politici ha suscitato indignazione.

Anthropic sostiene che la designazione manca di base giuridica e la impugnerà in tribunale. La società sottolinea che il Dipartimento della Difesa non si è impegnato in una comunicazione diretta in merito ai negoziati, basandosi invece su un annuncio pubblico sui social media per applicare la restrizione.

Contraccolpo del settore e approccio contrastante di OpenAI

La mossa ha attirato critiche da parte dei leader del settore. Dean Ball, ex consigliere politico dell’IA della Casa Bianca, ha definito l’azione “la cosa più scioccante… che abbia mai visto fare al governo degli Stati Uniti”, suggerendo che gli Stati Uniti stanno effettivamente sanzionando le proprie aziende tecnologiche. Paul Graham di Y Combinator ha descritto l’amministrazione come “impulsiva e vendicativa”.

Al contrario, OpenAI ha annunciato venerdì di aver raggiunto un accordo con il Dipartimento della Difesa per implementare i suoi modelli di intelligenza artificiale in ambienti classificati, con la garanzia che i militari avrebbero rispettato le restrizioni sulla sorveglianza interna e sulle armi autonome. Questo accordo sottolinea la volontà di alcune aziende di intelligenza artificiale di collaborare con il Pentagono a condizioni specifiche, mentre Anthropic rifiuta di scendere a compromessi.

Incertezza giuridica e implicazioni aziendali

L’impatto immediato sui clienti di Anthropic rimane poco chiaro. Gli esperti affermano che la direttiva del Dipartimento della Difesa è vaga e non è chiaro quali aziende, tra cui Amazon, Microsoft, Google e Nvidia, saranno costrette a tagliare i legami. La situazione potrebbe anche dissuadere altre aziende tecnologiche dal impegnarsi con il Pentagono, temendo misure punitive simili.

Una causa potrebbe richiedere mesi o anni per essere risolta, lasciando Anthropic vulnerabile all’interruzione dell’attività. La controversia solleva questioni fondamentali sull’autorità del governo nel dettare i termini dello sviluppo dell’intelligenza artificiale nel settore privato, in particolare quando gli interessi di sicurezza nazionale si scontrano con considerazioni etiche.

In definitiva, la posizione aggressiva del Pentagono contro Anthropic sottolinea una lotta più ampia sul futuro dell’intelligenza artificiale: chi la controlla, come viene utilizzata e se i limiti etici possono coesistere con le necessità militari.