Doğruluğuyla değil, ambalajıyla meşrulaşan bilgi
Yapay zekâ destekli sohbet botları hayatımıza büyük bir konforla girdi. ChatGPT, Gemini gibi sistemler sorularımıza saniyeler içinde yanıt veriyor. Sadece bilgi sunmakla kalmıyorlar, bunu oldukça etkileyici bir dille yapıyorlar: Akıcı, düzenli, mantıklı ve çoğu zaman estetik biçimde yazılmış cümleler…En çok da bu yüzden onları doğru sanıyoruz.
Günümüz dijital kültüründe bir bilginin meşruiyeti artık doğruluğuyla değil, ambalajıyla kuruluyor. Yani ne söylendiğinden çok, nasıl söylendiği etkili oluyor. İçerik, biçimin gölgesinde kalıyor. Bizler de bu sistemlerin, sadece cevaplarına değil; estetikle sundukları cevaplarına daha kolay ikna oluyoruz.
Yazılanı sorgulamak yerine, nasıl yazıldığına göre kanaat oluşturmak yeni değil. Bilişsel psikoloji literatüründe bu fenomene “akıcılık yanlılığı” (processing fluency bias) deniyor. 2007 yılında psikolog Adam Alter ve karar bilimci Daniel Oppenheimer’ın yaptığı deneysel araştırmaya göre, insanlar bir bilginin daha kolay okunuyorsa ya da akıcı sunuluyorsa, o bilginin daha güvenilir ve doğru olduğuna inanma eğilimi gösteriyorlar.
Bu etki, yapay zekâ sistemlerinin başarısının da sırrı. ChatGPT gibi araçlar yalnızca içerik sunmakla kalmıyor; bunu çoğu zaman kusursuz bir gramerle, mantıksal olarak tutarlı paragraflarla, tatmin edici bir anlatım akışıyla ve sıklıkla akademik ya da nötr bir tonla sunuyor. Bu biçimsel ustalık, verilen bilginin içeriğini sorgulama ihtiyacını ortadan kaldırıyor; çünkü metin, “doğru gibi duran” bir çerçeveyle kendini dayatıyor. Biz de farkında olmadan, bilgiyi değil, ambalajı değerlendiriyoruz. Tıpkı raftaki iki aynı........
© Kısa Dalga
