Das US-Justizministerium (DOJ) hat die Entscheidung der Trump-Regierung, den KI-Entwickler Anthropic als Lieferkettenrisiko einzustufen, mit der Begründung verteidigt, dass die First Amendment-Rechte des Unternehmens durch diesen Schritt nicht verletzt wurden. Die Regierung behauptet, dass die Klage von Anthropic gegen das Pentagon scheitern wird, da Anthropic nicht das Recht hat, den Bundesbehörden Bedingungen zu diktieren.

Der Streit dreht sich um die Weigerung von Anthropic, die uneingeschränkte militärische Nutzung seiner KI-Modelle, insbesondere seines Chatbots Claude, zuzulassen. Das Pentagon befürchtet, dass Anthropic seine Technologie sabotieren oder manipulieren könnte, wenn es mit Regierungsoperationen nicht einverstanden ist, was möglicherweise zu einer Störung der Kriegsführungssysteme führen könnte. Beamte haben Anthropic als „Schurkenunternehmer“ beschrieben, dessen Technologie nicht vertrauenswürdig ist.

Anthropic argumentiert, dass die Bezeichnung der Lieferkette eine illegale Vergeltung für die Beschränkungen des KI-Einsatzes in autonomen Waffen und Massenüberwachung sei. Das Unternehmen behauptet, dass diese Maßnahme ihm Einnahmenverluste in Milliardenhöhe kosten könnte, da Verteidigungsverträge ausgesetzt werden. Ziel ist es, den Geschäftsbetrieb wiederherzustellen, solange der Rechtsstreit andauert, doch das DOJ hat diesen Antrag als „rechtlich unzureichend“ bezeichnet.

Das Verteidigungsministerium ersetzt aktiv die KI-Tools von Anthropic durch Alternativen von Google, OpenAI und xAI. Dieser Wandel wird durch die Tatsache beschleunigt, dass Anthropic derzeit das einzige KI-Modell ist, das für den Einsatz in geheimen Systemen und hochintensiven Operationen zugelassen ist. Die Regierung argumentiert, sie könne sich nicht auf einen Anbieter verlassen, der nicht bereit sei, eine uneingeschränkte Zusammenarbeit zu garantieren.

Mehrere Unternehmen und KI-Forscher haben Schriftsätze zur Unterstützung von Anthropic eingereicht, der Regierung wurde jedoch keine Unterstützung angeboten. Der Fall ist für nächste Woche für eine Anhörung angesetzt, bei der ein Richter entscheiden wird, ob die Sanktionen gegen Anthropic vorübergehend aufgehoben werden. Das DOJ besteht darauf, dass nationale Sicherheitsbedenken wichtiger sind als die finanziellen Interessen des Unternehmens, und das Pentagon ist bereit, bei Bedarf ohne Anthropic voranzukommen.

Dieser Streit verdeutlicht eine breitere Spannung zwischen KI-Entwicklern, die ethischen Beschränkungen Vorrang einräumen, und Regierungen, die uneingeschränkten Zugang zu fortschrittlicher Technologie für militärische Zwecke fordern. Das Ergebnis wird einen Präzedenzfall für zukünftige Interaktionen zwischen dem Privatsektor und Verteidigungsbehörden in einer zunehmend KI-gesteuerten Welt schaffen.