El Departamento de Defensa de EE. UU. (DoD) ha decidido designar a Anthropic, una startup líder en inteligencia artificial, como un “riesgo para la cadena de suministro”, prohibiendo efectivamente a los contratistas que trabajan con el ejército hacer negocios con la empresa. La medida, anunciada el viernes por funcionarios del Pentágono, ha provocado conmoción en Silicon Valley y ha provocado impugnaciones legales por parte de Anthropic, lo que plantea dudas sobre la autoridad del gobierno sobre las empresas tecnológicas privadas.

El conflicto central: vigilancia y autonomía

La disputa se centra en las condiciones bajo las cuales el Departamento de Defensa puede utilizar los modelos de inteligencia artificial de Anthropic. El Pentágono exigió acceso sin restricciones para “todos los usos legales”, incluido el posible despliegue en vigilancia nacional y sistemas de armas autónomos. Anthropic se negó, argumentando que sus contratos deberían prohibir explícitamente tales aplicaciones, citando preocupaciones éticas y la posibilidad de uso indebido.

Este desacuerdo es significativo porque pone de relieve una tensión creciente entre el deseo de los militares de contar con tecnología de inteligencia artificial de vanguardia y la renuencia de la industria tecnológica a facilitar la vigilancia o el uso de armas sin control. La insistencia del Pentágono en el acceso total sugiere una voluntad de priorizar la seguridad nacional sobre las obligaciones contractuales, sentando potencialmente un precedente peligroso para futuras negociaciones entre el gobierno y el sector privado.

Designación de riesgo en la cadena de suministro: qué significa

Una designación de “riesgo en la cadena de suministro” permite al Departamento de Defensa restringir a los proveedores de contratos de defensa si se los considera vulnerables debido a influencia extranjera o preocupaciones de seguridad. Si bien tiene como objetivo proteger sistemas militares sensibles, la aplicación de esta etiqueta a una empresa estadounidense por desacuerdos políticos ha provocado indignación.

Anthropic sostiene que la designación carece de fundamento legal y la impugnará ante los tribunales. La compañía señala que el Departamento de Defensa no ha entablado comunicación directa con respecto a las negociaciones, sino que se basa en un anuncio público en las redes sociales para hacer cumplir la restricción.

Reacción de la industria y enfoque contrastante de OpenAI

La medida ha generado críticas de los líderes de la industria. Dean Ball, exasesor de políticas de inteligencia artificial de la Casa Blanca, calificó la acción como “la cosa más impactante… que jamás haya visto hacer al gobierno de Estados Unidos”, sugiriendo que Estados Unidos está sancionando efectivamente a sus propias empresas de tecnología. Paul Graham de Y Combinator describió la administración como “impulsiva y vengativa”.

Por el contrario, OpenAI anunció el viernes que había llegado a un acuerdo con el Departamento de Defensa para desplegar sus modelos de IA en entornos clasificados, con garantías de que el ejército cumpliría las restricciones sobre la vigilancia nacional y las armas autónomas. Este acuerdo subraya la voluntad de algunas empresas de inteligencia artificial de colaborar con el Pentágono en condiciones específicas, mientras que Anthropic se niega a ceder.

Incertidumbre jurídica e implicaciones comerciales

El impacto inmediato sobre los clientes de Anthropic aún no está claro. Los expertos dicen que la directiva del Departamento de Defensa es vaga y no está claro qué empresas (incluidas Amazon, Microsoft, Google y Nvidia) se verán obligadas a cortar los vínculos. La situación también podría disuadir a otras empresas tecnológicas de colaborar con el Pentágono, por temor a medidas punitivas similares.

Una demanda podría tardar meses o años en resolverse, lo que dejaría a Anthropic vulnerable a la interrupción del negocio. La disputa plantea cuestiones fundamentales sobre la autoridad del gobierno para dictar los términos del desarrollo de la IA en el sector privado, particularmente cuando los intereses de seguridad nacional chocan con consideraciones éticas.

En última instancia, la postura agresiva del Pentágono contra Anthropic subraya una lucha más amplia sobre el futuro de la IA: quién la controla, cómo se utiliza y si los límites éticos pueden coexistir con la necesidad militar.