Washington D.C., 23. Februar 2026 – Berlin Morgen Zeitschrift, Der US-Verteidigungsminister Pete Hegseth hat Anthropic-CEO Dario Amodei für Dienstag zu einem Krisengespräch ins Pentagon zitiert. Hintergrund ist der Streit um die Militärische Nutzung von Claude im Jahr 2026, der nach Berichten von Axios kurz vor dem Scheitern steht. Das Pentagon fordert einen uneingeschränkten Zugriff auf die KI für alle rechtmäßigen Zwecke, während Anthropic strikte ethische Grenzen zieht, insbesondere bei der Massenüberwachung von US-Bürgern und der Entwicklung autonomer Waffen.
Die Spannungen verschärften sich, nachdem bekannt wurde, dass die Militärische Nutzung von Claude bereits bei der Festnahme des venezolanischen Ex-Präsidenten Nicolás Maduro im Januar eine Rolle spielte. Hegseth droht nun damit, Anthropic als „Lieferkettenrisiko“ einzustufen, was das Unternehmen faktisch von allen Regierungsaufträgen ausschließen würde.
Eskalation im Pentagon um die KI-Sicherheit
Die Spannungen zwischen der US-Regierung und Anthropic haben am Dienstag einen neuen Höhepunkt erreicht. Verteidigungsminister Pete Hegseth hat Dario Amodei zu einem Gespräch geladen, das Insider als „Konfrontationskurs“ beschreiben. Es geht primär um die militärische Nutzung von Claude in hochsensiblen Bereichen der nationalen Sicherheit. Laut einem Bericht von Axios steht die Zusammenarbeit kurz vor dem Aus, da Anthropic sich weigert, bestimmte Sicherheitsfilter für das Militär zu deaktivieren.
Strategische Bedeutung der Partnerschaft
In einer Zeit, in der das globale Wettrüsten um künstliche Intelligenz an Fahrt gewinnt, ist die militärische Nutzung von Claude für die USA von strategischer Bedeutung. Anthropic gilt als einer der führenden Akteure im Bereich der „AI Safety“. Genau diese Sicherheitsphilosophie wird nun zum Stolperstein. Während Konkurrenten wie OpenAI bereits engere Bande mit dem Verteidigungssektor knüpfen, pocht Anthropic auf die Einhaltung seiner Nutzungsbedingungen, die den Einsatz für tödliche autonome Waffensysteme untersagen.
Der Streit um klassifizierte Netzwerke
Ein wesentlicher Punkt der Verhandlungen ist die Bereitstellung der Software auf den abgeschirmten Servern des Pentagons. Die militärische Nutzung von Claude erfordert eine tiefe Integration in die Infrastruktur des Verteidigungsministeriums. Die Regierung verlangt volle Kontrolle über die Gewichtungen des Modells, um sicherzustellen, dass keine externen Sicherheitsabfragen die Rechengeschwindigkeit oder die Ergebnisausgabe verzögern.

Die Haltung von Anthropic im Krisengespräch
Ein Sprecher von Anthropic versuchte die Wogen zu glätten und sprach von „produktiven Gesprächen in gutem Glauben“. Dennoch bleibt die militärische Nutzung von Claude ein rotes Tuch für viele Entwickler im Unternehmen. Amodei steht vor der Herausforderung, die Identität seiner Firma als ethisches Vorbild zu wahren, während er gleichzeitig dem Druck des mächtigsten Kunden der Welt standhalten muss.
Inmitten dieser hitzigen Debatte findet der renommierte Publizist und Investigativjournalist Ken Klippenstein, der seit Jahren die Schnittstellen zwischen Silicon Valley und dem Sicherheitsapparat analysiert, klare Worte:
„Der Konflikt zeigt das fundamentale Missverständnis zwischen Programmierern, die an Regeln glauben, und Generälen, die an Siege glauben – am Ende gewinnt im Pentagon meistens die Schlagkraft über die Ethik.“
Technologische Überlegenheit gegen ethische Bedenken
Die US-Verteidigungsstrategie für 2026 sieht vor, dass generative KI-Modelle zur Analyse von Satellitenbildern, zur Logistikplanung und zur Simulation von Kriegsszenarien eingesetzt werden. Die militärische Nutzung von Claude wäre hierbei ein entscheidender Faktor, da das Modell für seine präzise Logik und geringe Halluzinationsrate bekannt ist. Doch das Pentagon warnt bereits: Wenn Anthropic nicht einlenkt, wird man die Verträge kündigen und sich vollständig auf Anbieter verlassen, die weniger restriktiv agieren.
Ein Wendepunkt für das Silicon Valley
Dieser Fall zeigt deutlich, wie sich das Verhältnis zwischen Technologieunternehmen und dem Staat verändert. War die militärische Nutzung von Claude anfangs nur eine theoretische Option, ist sie nun zum Realitätstest für die gesamte Branche geworden. Die Entscheidung Amodeis wird Signalwirkung für andere Startups haben, die sich bisher scheuten, ihre Tools für kriegerische Zwecke zur Verfügung zu stellen.
Druck aus dem Weißen Haus
Nicht nur das Pentagon, auch das Weiße Haus beobachtet die Entwicklungen genau. Die nationale Sicherheit steht über kommerziellen Interessen oder Firmenphilosophien. Sollte die militärische Nutzung von Claude am Widerstand der Führungsebene von Anthropic scheitern, könnten regulatorische Maßnahmen folgen, die Unternehmen dazu verpflichten, ihre Kapazitäten im nationalen Interesse bereitzustellen.
Die Rolle der künstlichen Intelligenz in der modernen Kriegsführung
Künstliche Intelligenz ist nicht mehr nur ein Hilfsmittel, sondern das Rückgrat moderner Verteidigungssysteme. Die militärische Nutzung von Claude würde es ermöglichen, Datenmengen in Echtzeit zu verarbeiten, die für menschliche Analysten unbewältigbar sind. Dieser Vorteil ist so groß, dass das Pentagon bereit ist, enorme politische Mittel einzusetzen, um den Zugang zu erzwingen.
Mögliche Kompromisse in Sicht
Es wird spekuliert, ob eine spezielle „Defense-Version“ von Claude entwickelt werden könnte. Diese Version würde die militärische Nutzung von Claude ermöglichen, ohne die zivile Version des Modells zu kompromittieren. Doch auch hier bleibt die Frage der Haftung und der Kontrolle über die finalen Entscheidungen der KI in kritischen Momenten ungeklärt.
Hegseths klare Kante gegen Tech-Bedenken
Verteidigungsminister Hegseth gilt als Hardliner, der wenig Verständnis für die ethischen Bedenken der Software-Ingenieure zeigt. Er sieht in der Verweigerungshaltung ein Risiko für die Soldaten an der Front. Die militärische Nutzung von Claude ist für ihn keine Frage des „Ob“, sondern des „Wie schnell“.
Globale Auswirkungen der Pentagon-Entscheidung
Andere Nationen verfolgen den Streit mit großem Interesse. Sollte Anthropic nachgeben, könnte dies der Startschuss für eine globale Normalisierung von KI-gestützten Waffensystemen sein. Die militärische Nutzung von Claude ist somit nicht nur ein lokales Problem der USA, sondern eine globale ethische Fragestellung.
Der Faktor Mensch in der automatisierten Verteidigung
Trotz aller Automatisierung betonen Experten, dass der Mensch die letzte Instanz bleiben muss. Die militärische Nutzung von Claude soll laut Pentagon lediglich die Entscheidungsfindung unterstützen, nicht ersetzen. Doch Kritiker bezweifeln, dass diese Trennung in der Hitze eines Gefechts aufrechterhalten werden kann.
Anthropic unter öffentlichem Druck
Nicht nur die Regierung, auch die Öffentlichkeit und die Aktionäre blicken auf Anthropic. Ein Scheitern der Verhandlungen könnte den Marktwert des Unternehmens beeinflussen. Dennoch ist der Schutz der Marke „Claude“ als sichere und friedliche KI ein hohes Gut, das Amodei nicht leichtfertig für die militärische Nutzung von Claude opfern will.
Zusammenfassung der Verhandlungspositionen
Aktuell befinden sich beide Seiten in einer Sackgasse. Das Pentagon braucht die Technologie, Anthropic braucht die Unabhängigkeit. Die militärische Nutzung von Claude bleibt das Zünglein an der Waage für die zukünftige KI-Politik der USA.
Ausblick auf die kommenden Wochen
In den nächsten Tagen wird sich entscheiden, ob Amodei einen Deal akzeptiert oder ob die Partnerschaft zerbricht. Die Welt blickt gespannt auf die Ergebnisse des Treffens am Dienstag, da hier die Weichen für die technologische Kriegsführung der Zukunft gestellt werden.
Hegseths Ultimatum und die algorithmische Integrität
Das letzte Wort ist noch nicht gesprochen, doch das Ultimatum von Hegseth steht im Raum. Es geht darum, ob ein Algorithmus eine Moral besitzen darf, wenn er dem Staate dient. Die militärische Nutzung von Claude wird somit zur ultimativen Belastungsprobe für das Vertrauen zwischen Demokratie und Hochtechnologie.





























