Gericht stoppt das Verbot von Claude AI von Anthropic für Bundesbehörden durch die Trump-Administration
US-Bezirksrichterin Rita F. Lin ausgegeben In der einstweiligen Verfügung vom 26. März wurde festgestellt, dass die Maßnahmen der Regierung gegen Anthropic wahrscheinlich gegen den Ersten Verfassungszusatz verstoßen, dem Unternehmen ein ordnungsgemäßes Verfahren verweigert wurden und die gesetzliche Befugnis gemäß dem Verwaltungsverfahrensgesetz überschritten wurde. Das Urteil wird sieben Tage lang ausgesetzt, so dass die Verwaltung etwa bis zum 2. April Zeit hat, beim Neunten Bezirk Berufung einzulegen.
Der Disput begann, als das Verteidigungsministerium (DoD) uneingeschränkten Zugang beantragte Claude für Bundeszwecke. Anthropisch hatte lange Zeit zwei Ausnahmen in seiner Richtlinie zur akzeptablen Nutzung beibehalten: Claude würde nicht für die Massenüberwachung amerikanischer Bürger im Inland oder für tödliche autonome Waffensysteme verwendet werden, die ohne sinnvolle menschliche Aufsicht betrieben werden. Das Verteidigungsministerium forderte die Entfernung dieser Leitplanken. Anthropic lehnte ab.
Die Verhandlungen scheiterten Ende 2025. Der Konflikt wurde durch schriftliche Erklärungen von CEO Dario Amodei und einen Aufsatz öffentlich, in dem er die Position des Unternehmens zur KI-Sicherheit darlegte. Beamte des Verteidigungsministeriums betrachteten die Beschränkungen als anthropischen Versuch, die Regierungspolitik zu diktieren.
Am 27. Februar 2026, Präsident Trump gepostet auf Truth Social, in dem alle Bundesbehörden angewiesen werden, den Einsatz der Anthropic-Technologie mit einer sechsmonatigen Ausstiegsfrist sofort einzustellen. Verteidigungsminister Pete Hegseth kündigte eine Risikoeinstufung in der Lieferkette gemäß 10 USC § 3252 an – ein Gesetz, das zuvor für ausländische Gegner galt – und bezeichnete Anthropic als potenzielles Risiko von „Sabotage“ und „Subversion“.
Mehrere bundesstaatliche Auftragnehmer unterbrachen oder beendeten ihre Verträge mit dem Unternehmen nach der Benennung. Anthropisch antwortete Und Klage eingereicht am 9. März im nördlichen Bezirk von Kalifornien wegen Vergeltungsmaßnahmen, Verstößen gegen das ordnungsgemäße Verfahren und APA-Verstößen. Eine entsprechende Klage wurde im DC Circuit eingereicht.
In einem 43-seitigen Beschluss wies Richter Lin das Verteidigungsministerium, 17 weitere Bundesbehörden und Minister Hegseth an, keine der angefochtenen Maßnahmen umzusetzen oder durchzusetzen. Sie ordnete die Wiederherstellung des Status quo an und ermöglichte Anthropic die Fortsetzung bestehender Bundesverträge und Partnerschaften.
Lin schrieb, dass das Verhalten der Regierung eine „klassische illegale Vergeltungsmaßnahme des Ersten Verfassungszusatzes“ darstelle. Sie wies darauf hin, dass der Zeitpunkt der Aktionen sowie interne Regierungsmitteilungen, in denen Anthropics „Rhetorik“, „Arroganz“ und „starke Bewaffnung“ erwähnt wurden, direkt auf die Strafabsicht im Zusammenhang mit den öffentlichen Äußerungen des Unternehmens hindeuteten KI Sicherheit.
Im Rahmen eines ordnungsgemäßen Verfahrens kam das Gericht zu dem Schluss, dass die Regierung Anthropic ohne Vorankündigung oder Anhörung die Freiheitsrechte an seinem Ruf und seinen Geschäftstätigkeiten entzogen hatte. Lin stellte außerdem fest, dass die gesetzliche Bezeichnung unter diesen Umständen noch nie zuvor auf ein amerikanisches Unternehmen angewendet worden war und dass Anthropic zuvor von der Regierung überprüft worden war.
Dazu gehören Top-Secret-Freigaben, FedRAMP-Autorisierung und Verträge im Wert von bis zu 200 Millionen US-Dollar – es gab keine echten Sicherheitsbedenken. „Nichts in der geltenden Satzung stützt die Orwellsche Vorstellung, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden könnte, weil es seine Meinungsverschiedenheit mit der Regierung zum Ausdruck bringt“, schrieb Lin.
Das Gericht stellte einen potenziellen finanziellen Schaden für Anthropic in Höhe von Hunderten Millionen bis Milliarden Dollar fest, zusammen mit einem Reputationsschaden, den finanzielle Erleichterungen nicht vollständig beheben konnten. Amici-Schriftsätze von Militärführern und KI Forscher verwiesen auf Risiken für die Verteidigungsbereitschaft und die breitere KI-Sicherheitsdebatte.
Anthropisch sagte Man sei dankbar für die Schnelligkeit des Gerichts und für die Absicht, weiterhin mit der Bundesregierung zusammenzuarbeiten. Das Unternehmen erklärte, sein Ziel sei es weiterhin, sicherzustellen, dass die Amerikaner Zugang zu sicherer und zuverlässiger KI haben.
Die einstweilige Verfügung löst den zugrunde liegenden Vertragsstreit nicht. Es wurde keine endgültige Sachentscheidung erlassen. Eine gesonderte Anfechtung im DC-Bezirksgericht bleibt ausstehend, und die Verwaltung behält sich die Möglichkeit vor, Berufung einzulegen.
FAQ 🔎
- Was hat der Bundesrichter in Bezug auf Anthropic entschieden? Die US-Bezirksrichterin Rita F. Lin erließ am 26. März eine einstweilige Verfügung, mit der sie das Pentagon und die Trump-Regierung daran hinderte, eine nationale Sicherheitseinstufung und ein Bundesverbot gegen Anthropic und seine Claude-KI-Modelle durchzusetzen.
- Warum hat das Pentagon Anthropic als Lieferkettenrisiko eingestuft? Das Verteidigungsministerium forderte die uneingeschränkte Nutzung von Claude AI, auch für Massenüberwachung und autonome Waffen, und bezeichnete Anthropic als Lieferkettenrisiko, nachdem das Unternehmen sich geweigert hatte, diese Sicherheitsbeschränkungen aufzuheben.
- Ist die einstweilige Verfügung derzeit in Kraft? Die einstweilige Verfügung wird ab dem 26. März für sieben Tage ausgesetzt, damit die Regierung eine Eilbeschwerde einlegen kann, was bedeutet, dass sie erst etwa am 2. April 2026 in Kraft tritt.
- Was passiert als nächstes im Fall Anthropic vs. Pentagon? Der Fall läuft in der Sache weiter, eine entsprechende Klage bleibt beim DC-Bezirksgericht anhängig, und die Trump-Administration könnte vor Ablauf der Aussetzung beim Neunten Bezirksgericht um Nothilfe ersuchen.

