KI im Krieg: Wie problematisch sind ChatGPT und Co.?
Anthropic beendete einen 200-Millionen-Dollar-Deal mit dem US-Verteidigungsministerium wegen Bedenken zu Massenüberwachung und autonomen Waffen.
OpenAI und Google arbeiten weiterhin mit dem Militär zusammen, trotz interner Kritik und offener Briefe ihrer Mitarbeitenden.
Das Misstrauen gegenüber KI-Einsatz im Militär wächst, was sich in Nutzerverhalten und personellen Konsequenzen zeigt.
Anthropic erhielt Juli 2025 einen 200-Millionen-Dollar-Auftrag vom US-Verteidigungsministerium.
Zusammenarbeit scheiterte Februar 2026 wegen Bedenken zu Massenüberwachung und autonomen Waffen.
OpenAI übernahm am 28. Februar den Auftrag, lehnt aber Massenüberwachung ab.
100 OpenAI- und 900 Google-Mitarbeiter:innen fordern Ablehnung autonomer Waffen.
Anthropic beendete einen 200-Millionen-Dollar-Deal mit dem US-Verteidigungsministerium wegen Bedenken zu Massenüberwachung und autonomen Waffen.
OpenAI und Google arbeiten weiterhin mit dem Militär zusammen, trotz interner Kritik und offener Briefe ihrer Mitarbeitenden.
Das Misstrauen gegenüber KI-Einsatz im Militär wächst, was sich in Nutzerverhalten und personellen Konsequenzen zeigt.
Anthropic erhielt Juli 2025 einen 200-Millionen-Dollar-Auftrag vom US-Verteidigungsministerium.
Zusammenarbeit scheiterte Februar 2026 wegen Bedenken zu Massenüberwachung und autonomen Waffen.
OpenAI übernahm am 28. Februar den Auftrag, lehnt aber Massenüberwachung ab.
100 OpenAI- und 900 Google-Mitarbeiter:innen fordern Ablehnung autonomer Waffen.
Wenn selbst das Silicon Valley moralische Bedenken äußert, sollte man aufmerksam werden. In den vergangenen Wochen hat sich ein Konflikt zwischen der KI-Branche und der US-Regierung entwickelt. Auslöser war ein Auftrag, der bereits im vergangenen Sommer erteilt wurde.
Kennst du schon?: Robotheismus: Ich glaube an KI als göttliche Kraft
200-Millionen-Auftrag der US-Verteidigung
Anthropic, das Unternehmen hinter dem KI-Tool Claude, erhielt im Juli 2025 einen Auftrag in Höhe von 200 Millionen US-Dollar vom US-Verteidigungsministerium und dem Büro für Künstliche Intelligenz. Im Rahmen dieser Partnerschaft sollte Anthropic Lösungen entwickeln, die die nationale Sicherheit fördern. Nach langen Verhandlungen scheiterte diese Zusammenarbeit jedoch im Februar 2026, da Anthropic Sicherheitsbedenken hatte. In einer Stellungnahme begründete das KI-Unternehmen das Ende des Deals damit, dass es Massenüberwachung und den Einsatz von KI bei vollautonomen Waffen nicht unterstützen wolle.
Zwei Tage später, am 28. Februar, gab der Konkurrent OpenAI bekannt, den Auftrag des Verteidigungsministeriums übernommen zu haben. Das Unternehmen hinter ChatGPT stellte jedoch klar, dass es weder Massenüberwachung noch vollautonome Waffen unterstütze. Die Tatsache, dass die Partnerschaft mit Anthropic daran scheiterte, dass man dem Ministerium keine vollständige Kontrolle gewähren wollte, lässt jedoch vermuten, dass OpenAI allen Forderungen des Auftraggebers nachkommen wird.
Mitarbeiter:innen fordern verantwortungsvolle Zusammenarbeit
Für Anthropic hatte der offene Konflikt mit dem Verteidigungsministerium bereits Konsequenzen: Anfang März stufte das Pentagon die Produkte des Start-ups als Risiko für die Lieferketten in der Verteidigung ein. Dennoch wird Claude Berichten zufolge aktuell vom Militär beim Angriff auf den Iran eingesetzt.
Auch bei OpenAI gibt es unterschiedliche Meinungen zur Zusammenarbeit mit der US-Regierung. In einem offenen Brief, den 100 aktuelle OpenAI-Mitarbeiter:innen und fast 900 Google-Mitarbeiter:innen unterzeichnet haben, appellieren sie an ihre Arbeitgeber: „Sie versuchen, jedes Unternehmen zu spalten, indem sie Angst schüren, dass die anderen nachgeben könnten. Diese Strategie funktioniert nur, wenn keiner von uns weiß, wo die anderen stehen. Dieser Brief dient dazu, angesichts des Drucks seitens des Kriegsministeriums ein gemeinsames Verständnis und Solidarität zu schaffen.“ Und weiter: „Wir hoffen, dass unsere Führungen ihre Differenzen beiseitelegen und gemeinsam weiterhin die aktuellen Forderungen des Kriegsministeriums ablehnen, unsere Modelle für die Massenüberwachung im Inland und die autonome Tötung von Menschen ohne menschliche Aufsicht zu nutzen.“
Hier kommt der dritte große Tech-Player ins Spiel: Auch die Google-KI Gemini kommt beim Militär zum Einsatz. Die Belegschaften von OpenAI und Google befürchten offenbar, dass die Technologien missbraucht werden könnten und die Geschäftsführungen zu wenig Widerstand leisten, während die Anthropic-Geschäftsführung sich öffentlich gegen die Praktiken des Verteidigungsministeriums ausgesprochen hat.
Claude überholt ChatGPT
Der Unmut geht sogar soweit, dass eine Führungskraft bei OpenAI gekündigt hat. Robotik-Chefin Caitlin Kalinowski begründet den Schritt ebenfalls mit Bedenken bei der Überwachung von US-Bürger:innen und „tödlicher Autonomie“. Das Unternehmen kontert darauf, dass die Zusammenarbeit mit dem Ministerium einen „gangbaren Weg für den verantwortungsvollen Einsatz von KI im Bereich der nationalen Sicherheit“ schaffe und gleichzeitig die Grenzen klar definiert worden seien: „keine Überwachung im Inland und keine autonomen Waffen“.
Der offene Brief und die personellen Konsequenzen deuten jedoch darauf hin, dass die Branche – oder zumindest die Mitarbeitenden – diesen Ankündigungen nicht traut. Dieses Misstrauen ist inzwischen auch bei den Nutzer:innen spürbar. Nachdem der Deal mit dem Verteidigungsministerium geplatzt ist, hat Claude zumindest vorübergehend ChatGPT in den App-Charts überholt.
Vielmehr wird durch die öffentliche Diskussion über die Zusammenarbeit mit dem Verteidigungsministerium – das US-Präsident Donald Trump übrigens in „Kriegsministerium“ umbenannt hat – sichtbar, welche Rolle Künstliche Intelligenz bereits bei der Kriegsführung spielt. Wer den Einsatz eines Tools, das auch in der US-Verteidigung verwendet wird, problematisch findet, sollte daher nicht nur auf ChatGPT, sondern auch auf Claude und Gemini verzichten.
Elisabeth Oberndorfer schreibt jede Woche eine Kolumne zum Thema Ökonomie. Alle Texte findet ihr auch in ihrem Autor:innenprofil.
Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Das Startup Anthropic verlor einen Auftrag des US-Verteidigungsminsteriums an OpenAI, weil man nicht den Forderungen des Auftraggebers nachgeben wollte.
In einem offenen Brief fordern Mitarbeiter:innen von OpenAI und Google, dass die Massenüberwachung von Bürger:innen und der Einsatz von vollautonomen Waffen nicht unterstützt werden soll.
Claude, der Chatbot von Anthropic, hat nach dem geplatzten Deal ChatGPT im App Store überholt.
Das US-Militär hat sowohl ChatGPT als auch die Google-KI Gemini und weiterhin Claude im Einsatz.
Anthropic: Ankündigung zur Partnerschaft mit dem Verteidigungsministerium
Anthropic: Stellungnahme: Where things stand with the Department of War
CNBC: Anthropic officially told by DOD that it’s a supply chain risk even as Claude used in Iran
OpenAI: Our agreement with the Department of War
Not Divided: Offener Brief von Google und OpenAI
Bloomberg: OpenAI’s Head of Robotics Resigns Over Company’s Pentagon Deal
US-Kriegsministerium: The War Department Unleashes AI on New GenAI.mil Platform
Heise: Claude überholt nach Streit mit dem Pentagon ChatGPT im App Store
