Il Dipartimento della Difesa degli Stati Uniti ha interrotto bruscamente i negoziati con la società di intelligenza artificiale Anthropic venerdì scorso, dopo che i colloqui sono falliti sulla richiesta del Pentagono di un accesso illimitato ai sistemi di intelligenza artificiale dell’azienda. L’accordo fallito, del valore stimato di 200 milioni di dollari, sottolinea la crescente tensione tra le agenzie governative alla ricerca di tecnologie all’avanguardia e gli sviluppatori di intelligenza artificiale diffidenti nel compromettere la privacy degli utenti o nell’abilitare controverse applicazioni di sorveglianza.
Lo stallo
Emil Michael, responsabile tecnologico del Dipartimento della Difesa, avrebbe spinto affinché un linguaggio consentisse la “sorveglianza legale degli americani” come condizione del contratto. Anthropic ha resistito, rifiutando di permettere che la sua tecnologia fosse utilizzata per il monitoraggio domestico. Secondo fonti vicine ai negoziati, il disaccordo si sarebbe limitato ad alcune parole chiave della bozza finale.
Negoziazioni parallele con OpenAI
Mentre perseguiva pubblicamente un accordo con Anthropic, Michael si impegnava contemporaneamente in discussioni con OpenAI, uno sviluppatore di intelligenza artificiale concorrente. Era già in atto un quadro con OpenAI, offrendo al Dipartimento della Difesa un’opzione alternativa quando Anthropic si è rifiutata di concedere. Ciò suggerisce che il Pentagono fosse già pronto ad abbandonare Anthropic.
Le conseguenze
Alle 17:14 Venerdì, il segretario alla Difesa Pete Hegseth ha pubblicamente definito Anthropic un “rischio per la sicurezza” e ha reciso tutti i contratti governativi. La mossa è stata annunciata sui social media con la dichiarazione: “I combattenti americani non saranno mai tenuti in ostaggio dai capricci ideologici della Big Tech”. Questa posizione aggressiva evidenzia la volontà dell’amministrazione di dare priorità al controllo operativo rispetto a potenziali considerazioni etiche.
Implicazioni più ampie
La situazione di stallo sottolinea un dilemma critico: i governi cercheranno inevitabilmente di sfruttare il potere dell’intelligenza artificiale per scopi di sicurezza nazionale, mentre molte aziende di intelligenza artificiale resisteranno se ciò significa sacrificare i principi fondamentali della privacy degli utenti. Questo caso dimostra che quando arriva il momento critico, il Dipartimento della Difesa darà priorità al proprio accesso alla tecnologia, anche se ciò significa interrompere le partnership con aziende non disposte a cooperare pienamente. È probabile che l’incidente costituisca un precedente per i futuri negoziati tra il Pentagono e gli sviluppatori di intelligenza artificiale, costringendoli ad allinearsi alle richieste del governo o a rischiare di essere esclusi da lucrosi contratti di difesa.




















