Die US-Regierung hat etwas getan, was sie noch nie zuvor einem amerikanischen Unternehmen angetan hat. Am Freitag erklärte Verteidigungsminister Pete Hegseth Anthropisch A “Lieferkette „Risiko“ für die nationale Sicherheit, eine Bezeichnung, die historisch ausländischen Gegnern wie Chinas Huawei vorbehalten war. Der Schritt verbietet jedem militärischen Auftragnehmer, Lieferanten und Partner, kommerzielle Geschäfte mit dem zu tätigen KI Labor, mit sofortiger Wirkung.
Es folgte auf einen Truth Social-Beitrag von Präsident Trump, in dem jede Bundesbehörde angewiesen wurde, den Einsatz anthropischer Technologie sofort einzustellen, wobei dem Pentagon und bestimmten anderen Behörden eine sechsmonatige Abwicklungsfrist eingeräumt wurde, um Alternativen zu finden.
Anthropic-CEO Dario Amodei rief zu den Maßnahmen auf „Vergeltung und Strafe“ in einem exklusiven Interview mit CBS News am Freitagabend. Stunden später kam OpenAI herein und verkündete, dass es sich einen eigenen Pentagon-Vertrag gesichert hatte, und trat damit in die Lücke, die Anthropic gerade verlassen musste.
Was Anthropic dem Pentagon nicht geben wollte
Der Streit drehte sich um a 200-Millionen-Dollar-Vertrag Das Pentagon hat Anthropic im vergangenen Juli damit beauftragt, KI-Fähigkeiten für die nationale Sicherheit zu entwickeln. Das Militär wollte einen breiten „rechtmäßigen“ Zugang zu Claude, dem KI-Modell von Anthropic. Anthropic lehnte ab und verwies auf zwei spezifische Bedenken, die es als nicht verhandelbar bezeichnete.
Die beiden roten Linien von Anthropic
- Keine Massenüberwachung von Amerikanern im Inland. Amodei argumentierte, dass KI die Überwachung, die zuvor unpraktisch war, jetzt gefährlich einfach gemacht habe und sie damit über das geltende Recht hinausgehe. „Das ist eigentlich nicht illegal. Es war vor der Ära der KI einfach nie nützlich“, sagte er gegenüber CBS News.
- Keine vollständig autonomen Waffen. Amodei sagte, die heutigen KI-Modelle seien nicht zuverlässig genug, um Menschen von tödlichen Entscheidungen abzuhalten, und verwies auf die „grundsätzliche Unvorhersehbarkeit“ aktueller Systeme.
Das Pentagon vertrat den Standpunkt, dass es bereits interne Richtlinien gegen beide Praktiken habe und dass es nicht praktikabel sei, von Fall zu Fall mit einem Privatunternehmen über dessen Nutzungsbedingungen zu verhandeln. Hegseth setzte Anthropic am Freitag eine Frist von 17:01 Uhr, um entweder seine Beschränkungen aufzuheben oder seine Verträge zu verlieren. Das Unternehmen blieb standhaft.
Weitere Tech-Aktien:
- Morgan Stanley legt nach dem Ereignis ein umwerfendes Kursziel für Micron fest
- Nvidias China-Chip-Problem ist nicht das, was die meisten Anleger denken
- Quantum Computing macht einen Schritt von 110 Millionen US-Dollar, mit dem niemand gerechnet hat
In seiner Stellungnahme beschuldigte Hegseth Anthropic, dies versucht zu haben „Vetorecht ergreifen“ über US-Militäroperationen. Trump ging in Truth Social noch weiter und nannte Anthropic ein „radikales linkes, aufgewecktes Unternehmen“, dessen „Selbstsucht amerikanische Leben aufs Spiel setzt“.
Amodei schlägt zurück und schwört einen legalen Kampf
In seinem CBS News-Interview wies Amodei nahezu jede Charakterisierung der Regierung zurück. Er beschrieb Anthropic als ein Unternehmen, das eher bereit gewesen sei, mit dem Militär zusammenzuarbeiten als jedes andere KI-Labor. „Wir sind patriotische Amerikaner“, sagte er. „Alles, was wir getan haben, geschah zum Wohle dieses Landes, zur Unterstützung der nationalen Sicherheit der USA.“
Er sagte auch, das Unternehmen habe noch keine formelle Mitteilung vom Pentagon oder dem Weißen Haus erhalten, die die Einstufung als Risiko für die Lieferkette bestätigte. Aber seine Antwort war eindeutig: Er sagte Reportern, dass jede formelle Maßnahme des Pentagons vor Gericht angefochten würde.
Die formelle Erklärung von Anthropic nannte die Bezeichnung „rechtswidrig“ und argumentierte, Hegseth habe nicht die rechtliche Befugnis, Militärunternehmern generell die Geschäftsabwicklung mit Anthropic zu verbieten. Das Unternehmen sagte, das Benennungsgesetz verlange vom Pentagon, alle alternativen Optionen auszuschöpfen, bevor es sich darauf berufe, und fragte sich, ob die Regierung angesichts der Geschwindigkeit, mit der die Pattsituation eskalierte, behaupten könne, dies getan zu haben.
Amodei sagte auch, er sei nicht bereit, wegzugehen. „Wir sind weiterhin an einer Zusammenarbeit mit ihnen interessiert, solange dies unseren roten Linien entspricht“, sagte er gegenüber CBS News.
OpenAI zog innerhalb weniger Stunden ein
Während Amodei noch mit CBS News sprach, war der CEO von OpenAI Sam Altman auf X gepostet, dass seine Firma gerade hatte einen Deal gesichert seine Modelle in klassifizierten Netzwerken einzusetzen. Die Ankündigung war hinsichtlich ihres Timings und ihres Rahmens bemerkenswert. Altman sagte, OpenAI habe denselben beiden Einschränkungen zugestimmt, die Anthropic gefordert hatte, sie jedoch in die technische Architektur seiner Modelle eingebettet, anstatt auf einer expliziten Vertragssprache zu bestehen.
Es könnte sich herausstellen, dass es bei der Unterscheidung eher um die Optik als um die Substanz geht. Wie Fortune berichtete, bleibt unklar, wie genau sowohl die Vereinbarung über den „rechtmäßigen Zweck“ von OpenAI als auch die behaupteten Sicherheitsgrenzen nebeneinander bestehen können. Klar ist, dass OpenAI einen Weg gefunden hat, Ja zu sagen, wo Anthropic Nein gesagt hat, und das Pentagon hat dies sofort belohnt.
Was das für die breitere KI-Branche bedeutet
Von Fortune zitierte Rechtsexperten warnten, dass der Schaden für Anthropic einen Gerichtssieg überdauern könnte. „Es wird Jahre dauern, bis es vor Gericht geklärt ist“, schrieb der Analyst Shenaka Anslem Perera auf
Die umfassenderen Auswirkungen sind ebenso bedeutsam. Dies ist das erste Mal, dass die US-Regierung ein amerikanisches Unternehmen als Lieferkettenrisiko eingestuft hat, ein Instrument, das zuvor auf ausländische Gegner ausgerichtet war. Axios berichtete Die Regierung hat noch nicht angegeben, auf welches Gesetz sie sich bei der Verhängung des Verbots beruft, was Fragen zu seiner rechtlichen Stellung aufwirft, die die Anwälte von Anthropic mit ziemlicher Sicherheit bereits prüfen.
Vorerst steht Anthropic vor einer sechsmonatigen Frist. Sein Claude-Modell ist die einzige KI, die derzeit in den geheimen Netzwerken des Pentagons eingesetzt wird. Verteidigungsbeamte sagten Axios privat, dass es eine „riesige Nervensäge“ wäre, sich zu entwirren. Aber da die Supply-Chain-Bezeichnung in Kraft ist und OpenAI bereits in der Tür steht, wird das Zeitfenster für Anthropic, seine Position zurückzugewinnen, schnell kleiner.
Verwandt: Elon Musk hat es Anthropic gerade sehr unangenehm gemacht

