Anthropic wehrt sich gegen Pentagon – Fast 150 ehemalige Richter unterstützen das KI-Unternehmen

Der Konflikt zwischen dem KI-Unternehmen Anthropic und der US-Regierung eskaliert weiter. Ursprünglich stand ein Vertrag über 200 Millionen US-Dollar mit dem Pentagon im Raum, der jedoch an den Nutzungsbedingungen scheiterte. Anthropic forderte explizite vertragliche Garantien, dass das KI-Modell Claude nicht für massenhafte Überwachung von US-Bürgern oder für vollautonome tödliche Waffen eingesetzt wird. Das Verteidigungsministerium lehnte dies ab, pochte auf eine Nutzung für alle erdenklichen Zwecke und betonte, ein privates Unternehmen könne dem Militär keine Vorschriften machen. Anthropic lehnte so eine Zusammenarbeit mit dem Pentagon ab. Daraufhin stufte Verteidigungsminister Pete Hegseth Anthropic als Risiko für die Lieferkette ein. Dieses Label wird normalerweise nur für ausländische Unternehmen verwendet. Ein als Supply-Chain-Risk eingestuftes Unternehmen wird als potenzielle Bedrohung für die nationale Sicherheit der USA angesehen. Bundesbehörden dürfen somit nicht auf Dienstleistungen von Anthropic zugreifen. Private Unternehmen, die als Zulieferer für das US-Militär oder Bundesbehörden tätig sind, müssen oft nachweisen, dass sie keine Technologie des als Risiko eingestuften Anbieters verwenden. Zusätzlich wies Präsident Donald Trump alle Bundesbehörden an, die Nutzung von Claude einzustellen.
Anthropic reichte infolgedessen am 9. März Klage vor dem zuständigen Bezirksgericht in Kalifornien sowie dem Berufungsgericht in Washington ein. Das Unternehmen sieht in der Einstufung eine verfassungswidrige Vergeltungsmaßnahme für seine internen Sicherheitsrichtlinien und warnt vor massiven finanziellen Schäden in dreistelliger Millionenhöhe im Jahr 2026, da zahlreiche Unternehmenskunden abspringen könnten. Am Dienstag folgte eine Einlassung beim zuständigen Gericht von Anthropic.
Bemerkenswerten Rückhalt erfährt der KI-Entwickler nun durch einen sogenannten Amicus Curiae. Dabei handelt es sich um eine Stellungnahme von unbeteiligten Experten oder Interessengruppen, die dem Gericht zusätzliche Informationen zu einem komplexen Fall liefern, um als "Freunde des Gerichts" bei der Entscheidungsfindung zu helfen. Beinahe 150 ehemalige Richter auf Bundes- und Staatsebene haben ein solches Dokument eingereicht und werfen dem Pentagon vor, das Gesetz missinterpretiert und notwendige Verfahren verletzt zu haben. Niemand zwinge das Ministerium zur Zusammenarbeit mit Anthropic, doch das Unternehmen dürfe nicht für seinen Rückzug bestraft werden.
Das US-Justizministerium wies die finanziellen Sorgen von Anthropic in einer späten Stellungnahme am Dienstag als spekulativ zurück und argumentierte, die Maßnahme sei aus Sorge um das zukünftige Verhalten von Anthropic innerhalb der staatlichen IT-Infrastruktur erfolgt. Gleichzeitig gab das Pentagon bekannt, dass man bereits aktiv daran arbeite, KI-Lösungen von Google, OpenAI und xAI als Alternativen zu Claude zu implementieren. Entsprechende technische Vorbereitungen haben laut dem Chief Digital and AI Officer des Ministeriums bereits begonnen. Anthropic hat nun bis Freitag Zeit, um eine Gegenstellungnahme einzureichen, bevor am 24. März in San Francisco die erste Anhörung über eine mögliche einstweilige Verfügung stattfindet. Der Ausgang des Verfahrens dürfte richtungsweisend für das Spannungsfeld zwischen staatlichen Anforderungen und den ethischen Richtlinien privater Technologieunternehmen sein.





