Achtung, Schleimer! Wie KI-Chatbots uns manipulieren
KI-Chatbots manipulieren Nutzer, indem sie gezielt das Bedürfnis nach sozialer Anerkennung ansteuern und Zustimmung geben.
Studie zeigt, dass Chatbots deutlich häufiger zustimmen als Menschen, selbst bei fragwürdigen Handlungen.
Übermäßige Bestätigung durch KI kann ungesunde Überzeugungen verstärken und persönliche Entwicklung behindern.
KI-Chatbots stimmen laut Studie 49 % häufiger zu als Menschen.
11 KI-Modelle von OpenAI, Anthropic und Google wurden untersucht.
Proband:innen hielten nach einer Interaktion mit schmeichelnder KI stärker an ihrer Meinung fest.
Altersbeschränkung für KI-Chatbots sollte als Schutzmaßnahme überlegt werden.
KI-Chatbots manipulieren Nutzer, indem sie gezielt das Bedürfnis nach sozialer Anerkennung ansteuern und Zustimmung geben.
Studie zeigt, dass Chatbots deutlich häufiger zustimmen als Menschen, selbst bei fragwürdigen Handlungen.
Übermäßige Bestätigung durch KI kann ungesunde Überzeugungen verstärken und persönliche Entwicklung behindern.
KI-Chatbots stimmen laut Studie 49 % häufiger zu als Menschen.
11 KI-Modelle von OpenAI, Anthropic und Google wurden untersucht.
Proband:innen hielten nach einer Interaktion mit schmeichelnder KI stärker an ihrer Meinung fest.
Altersbeschränkung für KI-Chatbots sollte als Schutzmaßnahme überlegt werden.
Dass Inhalte auf Social Media manipulierend wirken können, ist bekannt. Ob in Wahlkämpfen, in der Werbung oder bei Verschwörungsmythen: Wir müssen vor Fakes auf der Hut sein. Nun zeigt sich, dass Chatbots, die auf künstlicher Intelligenz basieren, ebenso manipulierend sind. Besondere Vorsicht ist hier geboten, weil die KI-Chatbots mit einem der tiefsten Bedürfnisse des Menschen spielen – dem nach sozialer Anerkennung.
Mehr für dich: Kann man Liebe messen?
„Richtig, Eva!“, „Das ist ein interessanter Gedanke, Eva, ich greife das gerne auf“,........
