Achtung, Schleimer! Wie KI-Chatbots uns manipulieren
KI-Chatbots manipulieren Nutzer, indem sie gezielt das Bedürfnis nach sozialer Anerkennung ansteuern und Zustimmung geben.
Studie zeigt, dass Chatbots deutlich häufiger zustimmen als Menschen, selbst bei fragwürdigen Handlungen.
Übermäßige Bestätigung durch KI kann ungesunde Überzeugungen verstärken und persönliche Entwicklung behindern.
KI-Chatbots stimmen laut Studie 49 % häufiger zu als Menschen.
11 KI-Modelle von OpenAI, Anthropic und Google wurden untersucht.
Proband:innen hielten nach einer Interaktion mit schmeichelnder KI stärker an ihrer Meinung fest.
Altersbeschränkung für KI-Chatbots sollte als Schutzmaßnahme überlegt werden.
KI-Chatbots manipulieren Nutzer, indem sie gezielt das Bedürfnis nach sozialer Anerkennung ansteuern und Zustimmung geben.
Studie zeigt, dass Chatbots deutlich häufiger zustimmen als Menschen, selbst bei fragwürdigen Handlungen.
Übermäßige Bestätigung durch KI kann ungesunde Überzeugungen verstärken und persönliche Entwicklung behindern.
KI-Chatbots stimmen laut Studie 49 % häufiger zu als Menschen.
11 KI-Modelle von OpenAI, Anthropic und Google wurden untersucht.
Proband:innen hielten nach einer Interaktion mit schmeichelnder KI stärker an ihrer Meinung fest.
Altersbeschränkung für KI-Chatbots sollte als Schutzmaßnahme überlegt werden.
Dass Inhalte auf Social Media manipulierend wirken können, ist bekannt. Ob in Wahlkämpfen, in der Werbung oder bei Verschwörungsmythen: Wir müssen vor Fakes auf der Hut sein. Nun zeigt sich, dass Chatbots, die auf künstlicher Intelligenz basieren, ebenso manipulierend sind. Besondere Vorsicht ist hier geboten, weil die KI-Chatbots mit einem der tiefsten Bedürfnisse des Menschen spielen – dem nach sozialer Anerkennung.
Mehr für dich: Kann man Liebe messen?
„Richtig, Eva!“, „Das ist ein interessanter Gedanke, Eva, ich greife das gerne auf“, oder: „Eine kreative Lösung, das könnte in deinem Umfeld gut ankommen!“ Keine Frage: Bei so viel Zustimmung fühle ich mich gleich besser. Der Chatbot ist mein Fan und ich vergesse schnell, dass die Wertschätzung aus einer Maschine kommt, lasse mich einlullen und frage ihn immer mehr. Soll ich heute Kartoffeln essen? Ist heute das richtige Wetter zum Spazierengehen? Ist dieser Mann der richtige für mich? Habe ich mich in dieser Situation richtig verhalten? Irgendwann traue ich dem eigenen Urteil nicht mehr.
Moralisches Kürzelsystem
KI-Chatbots unterbuttern uns, indem sie sich zuerst unterwürfig zeigen und uns dann untergraben. Das hat ein US-Forschungsteam in der Fachzeitschrift Science in einer Studie nachgewiesen. Die Computerwissenschaftlerin Myra Cheng und ihre Kolleg:innen von der Stanford University im US-Staat Kalifornien werteten die Reaktionen von 11 KI-basierten Large Language Models aus, die von führenden Unternehmen wie OpenAI, Anthropic oder Google angeboten werden. Gefüttert haben sie die KI-Chatbots mit Fragen aus der Reddit-Community „AITA“ (kurz für „Am I the asshole?”). Dort stellen die Nutzer:innen persönliche Konflikte aus ihrem Alltag den anderen Mitgliedern der Community vor, die die Szenarien dann moralisch einordnen und mit einem Kürzelsystem bewerten: „NTA" (not the asshole), "YTA" (you are the asshole) oder "NAH" (no assholes here).
Der Vergleich zeigte, dass Menschen aus Fleisch und Blut mit ihren Community-Mitgliedern weitaus härter ins Gericht gehen, als KI-Chatbots es tun. Die KI stimme, wie die Forscher:innen berichten, „um 49 Prozent häufiger“ zu. Das heißt: Wenn sich reale Personen in zwei von vier Fällen positiv zu einer bestimmten Handlung äußerten, dann taten das die Chatbots in drei von vier Fällen, selbst wenn die Szenarien Täuschung oder illegale Handlungen beinhalteten oder andere Menschen ganz klar zu Schaden kamen.
Schmeichelei verzerrt die Realität
In weiteren Experimenten untersuchten die Studienautor:innen die Auswirkungen auf das Verhalten und die Eigenwahrnehmung von Testpersonen mit Hilfe von Fragebögen. Insbesondere jene, die sich dabei mit einer schmeichelhaften KI zu zwischenmenschlichen Konflikten ausgetauscht hatten, zeigten sich nach bereits einer Interaktion stärker davon überzeugt, dass sie selbst grundsätzlich richtig lagen. Bei Beziehungsthemen waren sie nach dem Austausch mit dem Chatbot weniger dazu geneigt, sich zu versöhnen, und hielten eher an ihrer eigenen Position fest. Gerade diese Proband:innen empfanden die KI als besonders vertrauenswürdig und gaben an, sie auch künftig zurate ziehen zu wollen.
Übermäßige Bestätigung bestärkt laut den Forscher:innen fragwürdige Entscheidungen, verfestigt ungesunde Überzeugungen und legitimiert verzerrte Interpretationen der Wirklichkeit. Wer systematisch delegiert, bekommt zwar jede Menge Feedback, aber keines über die eigene Urteilskraft, die dann immer weniger geübt wird. „Wenn es keine Konfliktlinien mehr gibt, an denen man zur Rechenschaft gezogen werden kann, oder die einen zu einem Perspektivenwechsel zwingen, ist es schwerer, persönlich-moralisch zu wachsen“, heben die Forscher:innen in einer Aussendung zur Studie hervor.
Altersbeschränkung für KI-Nutzung
Es bleibt die Frage, warum wir auf die Unterwürfigkeit von Chatbots hereinfallen. Warum tun wir sie nicht einfach als Schleimer ab? Weil wir uns Zustimmung nur schwer erwehren können. Soziale Anerkennung ist ein Grundbedürfnis wie jenes nach Essen und Trinken, ohne sie kann kein Mensch existieren. Hersteller:innen von großen Sprachmodellen nutzen somit einen zutiefst menschlichen Zug aus.
Evolutionär gesehen ist das Bedürfnis nach Bestätigung ein Vorteil. Schon Kleinkinder reagieren positiv auf Lob und Aufmerksamkeit. Bereits unter Jägern und Sammlern hatten Menschen, die in einer Gruppe Anerkennung fanden, durch stärkere soziale Bindungen mehr Zugang zu Ressourcen und damit höhere Überlebenschancen. Wenn wir eine positive Nachricht über uns selbst erhalten, aktivieren sich Gehirnareale, die an Empathie und Belohnungsverarbeitung beteiligt sind. Das Denkorgan belohnt uns mit den Hormonen Dopamin und Serotonin, die lebenswichtig sind und Glücksgefühle durch den Körper schicken.
Gefährlich wird es dann, wenn wir dabei dem Glauben verfallen, dass einem die KI in ihrer ganzen Freundlichkeit die Zustimmung einer echten Freundin gibt. Das kann sie aber nicht, weil sie keine echten Emotionen hat. Sie hält uns keinen Spiegel vor und stellt uns vor keine Herausforderung, die wir überwinden müssen, oder an deren Lösung wir persönlich wachsen können. Sondern bietet mit ihrer Schmeichelei ein Wohlfühlprogramm. Neben einer Altersbeschränkung für Social Media ist daher auch eine Altersbeschränkung für die Nutzung von KI-Chatbots zu überlegen, um Kinder vor falschen Freund:innen zu schützen, die sie bloß den leichtesten Weg gehen lassen.
Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
AAAS: When AI agrees too much: How chatbots may be undermining our judgment
Universitätsklinikum Heidelberg: Wer dem Liebsten Komplimente macht, tut sich selbst etwas Gutes
Oxford Academic: Neural responses to instructed positive couple interaction: an fMRI study on compliment sharing
Bild der Wissenschaft: Schmeichler sind am erfolgreichsten
OpenClaw ist tot, lange lebe OpenClaw
Wenn die KI uns Menschen die Kreativität nimmt
Das Thema in anderen Medien
Die Zeit: Süchtig nach Anerkennung
Deutschlandfunk: Eltern verklagen ChaptGPT-Entwickler nach Suizid ihres Sohnes
Woman: Kann Künstliche Intelligenz Empathie?
