„Nur noch schwer mit bloßem Auge zu erkennen“: Das sagt ein Experte über Deepfakes
Über Deepfakes – mithilfe künstlicher Intelligenz erzeugte beziehungsweise manipulierte Bild- oder Tondateien – wird gerade intensiv diskutiert. Erst recht, nachdem das Nachrichtenmagazin Der Spiegel Vorwürfe der Schauspielerin und Moderatorin Collien Fernandes gegen deren Ex-Mann öffentlich gemacht hatte. Was ein Experte des Fraunhofer-Instituts über Deepfakes sagt:
Herr Steinebach, Sie sagten bereits vor zwei Jahren: „Kaum jemand hätte gedacht, dass sich die Fälschungsmethoden für Deepfakes so rasend schnell entwickeln würden.“ Sowie: „Brauchte es vor zwei Jahren noch gute Schauspieler, um Deepfake-Videos annähernd realistisch wirken zu lassen, sehen manche Deepfakes heute fast schon besser aus als das Original.“ Wie weit ist die Entwicklung heute vorangeschritten?
MARTIN STEINEBACH: In den letzten Jahren ist insbesondere der Bereich der Videoerstellung und der bei synthetischem Audio deutlich vorangeschritten. Bei klassischen Deepfakes, also dem Austausch von Gesichtern in Videos, ist zu beobachten, dass die Verfahren mit immer weniger Ausgangsdaten zurechtkommen, beispielsweise mit einem einzelnen Foto. Es reicht also inzwischen ein Porträt in sozialen Medien, um eine Grundlage für Deepfakes zu schaffen. Parallel dazu werden die Verfahren effizienter und können durchaus auf lokalen Geräten mit einer leistungsstarken Grafikkarte ausgeführt werden.
Wie gefährlich ist diese Entwicklung?
STEINEBACH: Das bringt ein erhöhtes Risiko mit sich, Opfer eines Deepfakes zu werden. Sowohl Software als auch Hardware sind leicht verfügbar. Das Einfügen einer Person in ein Video oder ein Bild, das Erzeugen einer Audiodatei mit der Stimme einer Person und beliebigem Inhalt, oder auch das Entkleiden einer Person auf einem Foto sind damit leicht umzusetzen. Dementsprechend häufen sich entsprechende Fälle.
Können „normale“ Nutzer Deepfakes – Video oder Audio – überhaupt noch erkennen? Und: Woran?
STEINEBACH: Das kommt darauf an, wie viel Aufwand der Ersteller der Deepfakes betrieben hat. Sehr hochwertige Deepfakes wird man nur noch schwer mit bloßem Auge erkennen. Man kann immer versuchen, Fehler in Details zu finden. Im Video können das Ungenauigkeiten beim Übergang von Gesicht zu Stirn oder Hals sein. Ebenso können Verdeckungen noch immer Fehler erzeugen, also wenn eine Hand oder ein anderes Objekt über das Gesicht gelegt wird. Manchmal werden diese Objekte dann kurz transparent oder das ursprüngliche Gesicht ist wieder zu sehen. Im Audiobereich kommen noch Fehler bei der Betonung von Worten vor, außerdem neigen die Syntheseverfahren zu einer weniger emotionalen Sprachweise.
Was wäre aus Ihrer Sicht eine praxistaugliche Maßnahme, um gegen die Flut von Deepfakes anzukommen?
STEINEBACH: Die EU-KI-Verordnung geht ja hier in Richtung Kennzeichnungspflicht. Dort, wo diese tatsächlich durchgesetzt werden kann, ist das natürlich ein sehr eleganter Weg, das Problem zu adressieren. Plattformen können dann Deepfakes als solche erkennbar machen oder auch herausfiltern. Allerdings wird man sich nicht darauf verlassen können, dass diese Kennzeichnung immer erfolgt oder dass sie sich nicht nachträglich entfernen lassen. Leider sind Erkennungsverfahren, auch solche, die auf KI basieren, noch nicht so zuverlässig, dass man damit automatisiert Deepfakes erkennen kann. Hier wären hohe Fehlerraten zu erwarten.
Werden die angekündigten Maßnahmen von Bundesjustizministerin Stefanie Hubig (SPD) tatsächlich Wirkung zeigen und das Problem zumindest eindämmen können? Sie will ja „zum Beispiel das Herstellen und Verbreiten von pornografischen Deepfakes unter Strafe“ stellen, ein Gesetzentwurf sieht eine dreimonatige IP-Adressenspeicherung vor, sowie prozessuale Rechte von Betroffenen sollen gestärkt werden.
STEINEBACH: Das ist für mich als Informatiker schwer zu beurteilen. Ich kann mir aber zumindest vorstellen, dass damit die Verfügbarkeit entsprechender Lösungen reduziert wird. Außerdem kann erhofft werden, dass solche Gesetze eine abschreckende Wirkung entfalten. Andererseits zeigt sich immer wieder, dass eine einmal verfügbare Technologie, insbesondere in einem internationalen Raum wie dem Internet, nicht wieder vollständig eingefangen werden kann.
Professor Dr. Martin Steinebach leitet die Abteilung Media Security und IT Forensics am Fraunhofer-Institut für Sichere Informationstechnologie SIT in Darmstadt.
Daniel Wirsching Icon Haken im Kreis gesetzt Icon Plus im Kreis
Informationstechnologie Icon Haken im Kreis gesetzt Icon Plus im Kreis
