OpenAI schließt Abkommen mit Pentagon nach Anthropic-Verbot
Die Vereinbarung folgt dem Schritt der Trump-Regierung, die Nutzung von Anthropic-Technologie durch die US-Regierung zu verbieten.

OpenAI hat eine Vereinbarung mit dem US-Verteidigungsministerium getroffen, um seine Modelle der künstlichen Intelligenz innerhalb des sicheren Netzwerks des Pentagons einzuführen, so der CEO des Unternehmens. Dieser Schritt erfolgt nur wenige Tage, nachdem Anthropic, ein Konkurrent im KI-Bereich, effektiv von Regierungsaufträgen ausgeschlossen wurde..
Sam Altman verkündete auf X, dass OpenAI eine Einigung mit dem Verteidigungsministerium über den Einsatz seiner Technologie in klassifizierten militärischen Umgebungen erzielt hatte. Bemerkenswerterweise verstärkte Verteidigungsminister Pete Hegseth Altmans Post, was deutlich machte, dass dies nicht nur leeres Gerede war, sondern offizielle Bedeutung hatte.
Hier das Wichtigste: Die Einzelheiten dieser Vereinbarung bleiben vorerst geheim.. Es gibt noch keine Informationen darüber, welche spezifischen OpenAI-Modelle beteiligt sein werden oder wie genau sie bei militärischen Projekten eingesetzt werden.
Dennoch stellte Altman klar, dass zwei nicht verhandelbare Sicherheitszusagen in diesem Pakt verankert sind: Erstens gibt es ein vollständiges Verbot der massenhaften Überwachung im Inland; zweitens muss jede Anwendung von Gewalt (insbesondere bei autonomen Waffen) von Anfang an eine menschliche Aufsicht beinhalten. Das Pentagon hat zugestimmt, diese Prinzipien nicht nur zu übernehmen, sondern sie auch gesetzlich und politisch sowie in ihrer Vertragssprache festzuschreiben. Warum ist das wichtig? Nun, all dies geschieht vor dem Hintergrund wachsender Spannungen zwischen dem Pentagon und Anthropic. Anthropic drängte auf strenge Leitplanken für den Einsatz seiner KI durch US-Verteidigungsbehörden und verweigerte im Wesentlichen die Unterstützung für eine breite häusliche Überwachung oder das Treffen tödlicher Entscheidungen durch Maschinen ohne menschliche Kontrolle.
Doch letzte Woche kam es zu einer dramatischen Wendung: Hegseth stufte Anthropic offiziell als „Lieferkettenrisiko für die nationale Sicherheit“ ein, was militärischen Auftragnehmern und Partnern die Zusammenarbeit mit ihnen künftig untersagt. Das bedeutet nicht, dass alles über Nacht stoppt; aktuelle Dienstleistungen können bis zu sechs Monate laufen, während die Beamten auf das zusteuern, was sie als „einen zuverlässigeren und patriotischeren“ Lieferanten bezeichnen, mit anderen Worten, jemand ganz anderen. Dieses Vorgehen erfolgte unmittelbar nachdem Präsident Donald Trump alle Bundesbehörden angewiesen hatte, den Einsatz von Anthropic-Technologien vollständig einzustellen. Alles in allem beleuchten diese Schritte, wie scharf der Wettbewerb zwischen OpenAI und Anthropic um lukrative Regierungsaufträge geworden ist.
Washington betrachtet die KI-Integration in Verteidigungsoperationen heutzutage eindeutig als missionskritisch, wobei die politischen Entscheidungsträger sich auf die Wahrung der nationalen Sicherheit konzentrieren und gleichzeitig Amerikas technologischen Vorsprung weltweit aufrechterhalten.
Altman nahm auch kein Blatt vor den Mund: Er forderte die Pentagon-Beamten auf, jeden KI-Anbieter, einschließlich seines eigenen, bei zukünftigen Vertragsabschlüssen an ähnliche Standards zu halten, da diese Kernprinzipien Branchennormen sein sollten und nicht Ausnahmen, die hinter verschlossenen Türen ausgehandelt werden.
Er betonte auch, dass OpenAI technische Kontrollen über die rechtlichen legen würde, damit seine Modelle in sensiblen militärischen Systemen streng nach Plan funktionieren. Fazit: Dieses Abkommen markiert einen echten Wendepunkt in der Zusammenarbeit Washingtons mit führenden KI-Unternehmen des Privatsektors und unterstreicht, wie entscheidend fortgeschrittenes maschinelles Lernen innerhalb des nationalen Verteidigungsapparats Amerikas wird.
Geschrieben von Thorben Thiede