menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Yapay zeka paradoksu: Devrim mi, dezenformasyon mu?

7 0
07.11.2025

Blockchain & Yapay Zeka Akademi kurucusu Devrim Danyal, yapay zekanın bilgi güvenilirliği alanında karşılaştığı sorunları ve bu sorunlara yönelik çözüm yaklaşımlarını AA Analiz için kaleme aldı.

***

Avrupa Yayın Birliği (EBU) ve BBC tarafından yürütülen geniş çaplı bir araştırma, yapay zeka destekli sohbet asistanlarının haberle ilgili sorulara verdikleri yanıtların neredeyse yarısında “kayda değer” hata içerdiğini ortaya koydu. Çalışma, ChatGPT, Google Gemini, Microsoft Copilot ve Perplexity gibi önde gelen sistemlerden alınan binlerce yanıtı doğruluk, kaynak gösterme, yorum ile olgu ayrımı ve bağlam açısından değerlendirdi. Bu araştırma sonucunda yüzde 45 civarında yanıtın en az bir ciddi sorun barındırdığını raporladı. Bu sonuç, yapay zekaların haber ve güncel olaylara ilişkin bilgi üretimindeki rolünü yeniden düşünmemiz gerektiğine işaret ediyor. Buradan yola çıkarak, dijital çağın en dönüştürücü gücü olarak kabul edilen üretken yapay zeka, vaat ettiği ütopya ile potansiyel distopya arasındaki ince çizgide tehlikeli bir salınım sergiliyor.

Bu bulgu, Silikon Vadisi'nin parlak sunumlarının ve milyarlarca dolarlık yatırımların ötesinde, soğuk bir gerçeği yüzümüze çarpıyor. Aylardır süren hızlı entegrasyon sürecinin ardından gelen bu "uyandırma servisi" sadece mühendisleri değil aynı zamanda gazetecileri, akademisyenleri, politikacıları ve bizzat kamuoyunu temel sorularla baş başa bırakıyor. Yapay zeka, kontrolümüzden çıkarak raydan mı sapıyor? "Doğru bilgi" kavramı, algoritmik bir gürültü içinde geri dönülmez biçimde yok mu oluyor?

Sorunun temel taşı olarak tanımlanan "halüsinasyon" aslında bir hata değil, sistemin doğasında olan bir özelliği. EBU'nun yüzde 50'lik hata oranı tespiti yapay zekanın "raydan çıktığı" yönündeki popülist korkuları beslese de teknoloji uzmanı bakış açısından sorunun daha temel ve yapısal olduğu görülüyor. Sorun, yapay zekanın bir "bilince" kavuşup yalan söylemeyi seçmesi değil, sorun bu sistemlerin "bilgi" ile "olasılık" arasındaki farkı bilmemesidir.

Büyük dil modelleri (LLM) devasa internet verisi üzerinde eğitilmiş "istatistiksel tahmin motorlarıdır. Her elektronik sistemde olduğu gibi bu modeller de her "doğruyu" bilmezler, sadece, verilen bir bağlamda hangi kelimenin bir sonrakinden sonra gelme olasılığının en yüksek olduğunu hesaplarlar. Bu süreç, "halüsinasyon" (sanrı) olarak bilinen olguyu doğurur: Model, bir bilgi boşluğuyla karşılaştığında duraksamaz. Aksine, son derece otoriter, kendinden emin ve ikna edici bir dille tamamen uydurma veriler, sahte akademik makaleler, var olmamış tarihi olaylar veya geçerli görünüşlü yasal emsaller icat eder.

Tehlike tam da burada başlar. Yapay zeka, bir nükleer fizik denklemini açıklarken kullandığı "uzman" üslubun aynısını, "dünyanın düz olduğunu" iddia eden bir komplo teorisini savunurken de kullanabilir. EBU araştırması, bu "özgüvenli cehaletin" nadir bir sistem arızası değil, mevcut teknolojinin temel çalışma prensibinin doğal bir yan ürünü olduğunu acı bir şekilde ortaya koymuştur. Bu durum, özellikle tıp, hukuk ve finans gibi kritik sektörlerde bu araçların denetimsiz kullanımının ne kadar yıkıcı olabileceği gerçeğiyle yüzleşmemiz gerektiğini de ön plana çıkarmıştır.

"Doğru bilgi" kavramı, yapay zekadan çok önce, sosyal medyanın yarattığı yankı odaları ve "gerçek-ötesi" çağın........

© Anadolu Ajansı Analiz