menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

KI im Krieg: Wie problematisch sind ChatGPT und Co.?

25 0
11.03.2026

Anthropic beendete einen 200-Millionen-Dollar-Deal mit dem US-Verteidigungsministerium wegen Bedenken zu Massenüberwachung und autonomen Waffen.

OpenAI und Google arbeiten weiterhin mit dem Militär zusammen, trotz interner Kritik und offener Briefe ihrer Mitarbeitenden.

Das Misstrauen gegenüber KI-Einsatz im Militär wächst, was sich in Nutzerverhalten und personellen Konsequenzen zeigt.

Anthropic erhielt Juli 2025 einen 200-Millionen-Dollar-Auftrag vom US-Verteidigungsministerium.

Zusammenarbeit scheiterte Februar 2026 wegen Bedenken zu Massenüberwachung und autonomen Waffen.

OpenAI übernahm am 28. Februar den Auftrag, lehnt aber Massenüberwachung ab.

100 OpenAI- und 900 Google-Mitarbeiter:innen fordern Ablehnung autonomer Waffen.

Anthropic beendete einen 200-Millionen-Dollar-Deal mit dem US-Verteidigungsministerium wegen Bedenken zu Massenüberwachung und autonomen Waffen.

OpenAI und Google arbeiten weiterhin mit dem Militär zusammen, trotz interner Kritik und offener Briefe ihrer Mitarbeitenden.

Das Misstrauen gegenüber KI-Einsatz im Militär wächst, was sich in Nutzerverhalten und personellen Konsequenzen zeigt.

Anthropic erhielt Juli 2025 einen 200-Millionen-Dollar-Auftrag vom US-Verteidigungsministerium.

Zusammenarbeit scheiterte Februar 2026 wegen Bedenken zu Massenüberwachung und autonomen Waffen.

OpenAI übernahm am 28. Februar den Auftrag, lehnt aber Massenüberwachung ab.

100 OpenAI- und 900 Google-Mitarbeiter:innen fordern Ablehnung autonomer Waffen.

Wenn selbst das Silicon Valley moralische Bedenken äußert, sollte man aufmerksam werden. In den vergangenen Wochen hat sich ein Konflikt zwischen der KI-Branche und der US-Regierung entwickelt. Auslöser war ein Auftrag, der bereits im vergangenen Sommer erteilt wurde.

Kennst du schon?: Robotheismus: Ich glaube an KI als göttliche Kraft

200-Millionen-Auftrag der US-Verteidigung

Anthropic, das Unternehmen hinter dem KI-Tool Claude, erhielt im Juli 2025 einen Auftrag in Höhe von 200 Millionen US-Dollar vom US-Verteidigungsministerium und dem Büro für Künstliche Intelligenz. Im Rahmen dieser Partnerschaft sollte Anthropic Lösungen entwickeln, die die nationale Sicherheit fördern. Nach langen Verhandlungen scheiterte diese Zusammenarbeit jedoch im Februar 2026, da Anthropic Sicherheitsbedenken hatte. In einer Stellungnahme begründete das KI-Unternehmen das Ende des Deals damit, dass es Massenüberwachung und den Einsatz von KI bei vollautonomen Waffen nicht unterstützen wolle.

Zwei Tage später, am 28. Februar, gab der Konkurrent OpenAI bekannt, den Auftrag des Verteidigungsministeriums übernommen zu haben. Das Unternehmen hinter ChatGPT stellte jedoch klar, dass es weder Massenüberwachung noch vollautonome Waffen unterstütze. Die Tatsache, dass die Partnerschaft mit Anthropic daran scheiterte, dass man dem Ministerium keine vollständige Kontrolle gewähren wollte, lässt jedoch vermuten, dass OpenAI allen Forderungen des Auftraggebers nachkommen wird.

Mitarbeiter:innen fordern verantwortungsvolle Zusammenarbeit

Für Anthropic hatte der offene Konflikt mit dem Verteidigungsministerium bereits Konsequenzen: Anfang März stufte das Pentagon die Produkte des Start-ups als Risiko für die Lieferketten in der Verteidigung ein. Dennoch wird Claude Berichten zufolge aktuell vom Militär beim Angriff auf den Iran eingesetzt.

Auch bei OpenAI gibt es unterschiedliche Meinungen zur Zusammenarbeit mit der US-Regierung. In einem offenen Brief, den 100 aktuelle OpenAI-Mitarbeiter:innen und fast 900 Google-Mitarbeiter:innen unterzeichnet haben, appellieren sie an ihre Arbeitgeber: „Sie versuchen, jedes Unternehmen zu spalten, indem sie Angst schüren, dass die anderen nachgeben könnten. Diese Strategie funktioniert nur, wenn keiner von uns weiß, wo die anderen stehen. Dieser Brief dient dazu, angesichts des Drucks seitens des Kriegsministeriums ein gemeinsames Verständnis und Solidarität zu schaffen.“ Und weiter: „Wir hoffen, dass unsere Führungen ihre Differenzen beiseitelegen und gemeinsam weiterhin die aktuellen Forderungen des Kriegsministeriums ablehnen, unsere Modelle für die Massenüberwachung im Inland und die autonome Tötung von Menschen ohne menschliche Aufsicht zu nutzen.“

Hier kommt der dritte große Tech-Player ins Spiel: Auch die Google-KI Gemini kommt beim Militär zum Einsatz. Die Belegschaften von OpenAI und Google befürchten offenbar, dass die Technologien missbraucht werden könnten und die Geschäftsführungen zu wenig Widerstand leisten, während die Anthropic-Geschäftsführung sich öffentlich gegen die Praktiken des Verteidigungsministeriums ausgesprochen hat.

Claude überholt ChatGPT

Der Unmut geht sogar soweit, dass eine Führungskraft bei OpenAI gekündigt hat. Robotik-Chefin Caitlin Kalinowski begründet den Schritt ebenfalls mit Bedenken bei der Überwachung von US-Bürger:innen und „tödlicher Autonomie“. Das Unternehmen kontert darauf, dass die Zusammenarbeit mit dem Ministerium einen „gangbaren Weg für den verantwortungsvollen Einsatz von KI im Bereich der nationalen Sicherheit“ schaffe und gleichzeitig die Grenzen klar definiert worden seien: „keine Überwachung im Inland und keine autonomen Waffen“.

Der offene Brief und die personellen Konsequenzen deuten jedoch darauf hin, dass die Branche – oder zumindest die Mitarbeitenden – diesen Ankündigungen nicht traut. Dieses Misstrauen ist inzwischen auch bei den Nutzer:innen spürbar. Nachdem der Deal mit dem Verteidigungsministerium geplatzt ist, hat Claude zumindest vorübergehend ChatGPT in den App-Charts überholt.

Vielmehr wird durch die öffentliche Diskussion über die Zusammenarbeit mit dem Verteidigungsministerium – das US-Präsident Donald Trump übrigens in „Kriegsministerium“ umbenannt hat – sichtbar, welche Rolle Künstliche Intelligenz bereits bei der Kriegsführung spielt. Wer den Einsatz eines Tools, das auch in der US-Verteidigung verwendet wird, problematisch findet, sollte daher nicht nur auf ChatGPT, sondern auch auf Claude und Gemini verzichten.

Elisabeth Oberndorfer schreibt jede Woche eine Kolumne zum Thema Ökonomie. Alle Texte findet ihr auch in ihrem Autor:innenprofil.

Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.

Das Startup Anthropic verlor einen Auftrag des US-Verteidigungsminsteriums an OpenAI, weil man nicht den Forderungen des Auftraggebers nachgeben wollte.

In einem offenen Brief fordern Mitarbeiter:innen von OpenAI und Google, dass die Massenüberwachung von Bürger:innen und der Einsatz von vollautonomen Waffen nicht unterstützt werden soll.

Claude, der Chatbot von Anthropic, hat nach dem geplatzten Deal ChatGPT im App Store überholt.

Das US-Militär hat sowohl ChatGPT als auch die Google-KI Gemini und weiterhin Claude im Einsatz.

Anthropic: Ankündigung zur Partnerschaft mit dem Verteidigungsministerium

Anthropic: Stellungnahme: Where things stand with the Department of War

CNBC: Anthropic officially told by DOD that it’s a supply chain risk even as Claude used in Iran

OpenAI: Our agreement with the Department of War

Not Divided: Offener Brief von Google und OpenAI

Bloomberg: OpenAI’s Head of Robotics Resigns Over Company’s Pentagon Deal

US-Kriegsministerium: The War Department Unleashes AI on New GenAI.mil Platform

Heise: Claude überholt nach Streit mit dem Pentagon ChatGPT im App Store


© Wiener Zeitung