KI-Fakes in sozialen Netzwerken: Der Geiger vor der Gaskammer – falsche Bilder des Holocaust
Ein Orchester in Häftlingskleidung vor dem weltbekannten Torgebäude. Zwei Frauen, eine hält ein Kleinkind im Arm, die andere streckt durch den Stacheldraht ihre Hände nach dem Baby aus. Ein Mann spielt Geige auf dem Weg in die Gaskammer. Eine Gruppe Männer, die unter dem Schriftzug „Arbeit macht frei“ das KZ verlässt, in Farbe.
Unverkennbar: Thema all dieser Bilder ist der Holocaust, der nationalsozialistische Massenmord an den Juden Europas. Nur hat es die Situationen, die diese Bilder zeigen, nie gegeben. Sie wurden mit künstlicher Intelligenz erzeugt. Seit einigen Monaten tauchen sie in den sozialen Netzwerken auf, in Timelines und Feeds, oft mit Hashtags wie „Never Forget“ oder „We Remember“. Bisweilen werden auch echte Biografien erzählt, aber mit KI-Bildern der betreffenden Personen: technisch auffällig hochwertig, glatt, teils skrupellos verkitscht etwa mit Geburtstagstorten: So schön war das Leben vor Auschwitz.
Kritik In dem offenen Brief der Gedenkstätten heißt es, die KI-Inhalte bestünden „aus Versatzstücken historischer Fakten und emotionalisierter Fiktion“ und verfälschten die Geschichte „durch Verharmlosung und Verkitschung“. Dahinter stünden zwei Motive: einerseits finanzielle Interessen – mehr Reichweite bedeutet bessere Möglichkeiten der „Monetarisierung“, also mit dem eigenen Account Geld zu verdienen. Die KI-Bilder würden dafür „die emotionale Wucht des Holocaust“ nutzen. Zweitens sieht der Brief die Gefahr des Geschichtsrevisionismus: Die Bilder würden eingesetzt, „um Opfer- und Täterrollen zu verschieben oder revisionistische Narrative zu verbreiten“. Betont wird auch, KI könne in der historischen Bildungsarbeit durchaus........
