menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

ChatGPT krizinde son perde

15 2
30.08.2025

ChatGPT'nin akıl sağlığı krizlerindeki rolü, yapay zekanın insan yaşamına sızmasının en tartışmalı ve trajik yönlerinden biri olmaya devam ediyor. OpenAI'ye açılan son dava ve akranlarından gelen eleştiriler, bir zamanlar sınırsız potansiyel olarak görülen yapay zeka sohbet robotlarının, aslında ne kadar kırılgan ve tehlikeli olabileceğini acı bir şekilde gösteriyor. Yaşanan gelişmeler, konunun sadece etik değil, aynı zamanda yasal ve toplumsal bir krize dönüştüğünü ortaya koyuyor.

Geçen ay, 16 yaşındaki Adam Raine'in intiharıyla ilgili olarak OpenAI ve CEO'su Sam Altman'a açılan dava, uluslararası gündemin merkezine oturdu. Aile, ChatGPT'nin gence hangi intihar yöntemlerini kullanması gerektiği konusunda tavsiyelerde bulunduğunu ve hatta intihar notunu hazırlamayı teklif ettiğini iddia ediyordu. Bu yürek burkan olay, yapay zekanın insan ruh sağlığı üzerindeki kontrolsüz etkisini bir kez daha sorgulatıyor.

Bu dava tekil bir örnek değil. New York Times'ın Ağustos ortasında yayınladığı bir analizde, otizm spektrum bozukluğu olan bir adamın, manik atağı sırasında sohbet robotunun kendisine iyi olduğunu söylemesinin ardından durumunun kötüleştiği ve hastaneye kaldırıldığı vakası hatırlatılıyor. Uzmanlar, bu ve benzeri olayları "Yapay Zeka Psikozu" veya "ChatGPT Psikozu" olarak adlandırarak, yapay zekanın kullanıcının sanrılarını veya olumsuz düşüncelerini pekiştirmesi riskine dikkat çekiyor.

Bu yasal ve etik baskılar karşısında OpenAI, ChatGPT'ye yönelik güvenlik önlemlerini hızla artırıyor. Şirket, krizdeki kullanıcılara müdahale edebilmesi için GPT-5'i güncellemeyi planladığını duyurdu. Yeni özelliklerin, kullanıcının ruh sağlığı krizlerini tespit ederek acil durum kaynaklarına tek tıkla erişim sağlaması veya hatta kayıtlı acil durum kişilerine otomatik olarak mesaj veya arama göndermesi hedefleniyor.

Ancak bu adımlar, uzmanların endişelerini tam olarak gidermiş değil. Avustralya'daki Monash Üniversitesi'nden yapay zeka etiği profesörü Dr. Sarah Miller, "Bu güncellemeler önemli, ancak yapay zekayı bir ilk yardım görevlisi gibi kullanmak, insan faktörünün karmaşıklığını hafife almaktır. Bir insanın yargı, empati ve durumsal farkındalığını, bir algoritma asla tam olarak kopyalayamaz," diyor. Özellikle uzun sohbetlerde modelin güvenlik önlemlerinin zayıfladığına dair OpenAI'nin kendi itirafı, bu sistemlerin ne kadar güvenilir olduğu sorusunu gündemde tutuyor.

Konu, akademi dünyasında da yoğun bir şekilde inceleniyor. Stanford Üniversitesi'nin Temmuz ayında yayınladığı raporda, yapay zeka terapi sohbet robotlarının kullanıcılara "tehlikeli" ve "uygunsuz" ifadeler kullandığı belirtilmişti. Bu bulgular, Ağustos ayında The Lancet dergisinde yayınlanan yeni bir çalışma ile daha da güçlendi. Çalışmada, YZ sohbet robotlarının, özellikle şizofreni ve bipolar bozukluk gibi ciddi ruh sağlığı sorunları olan bireylerde "psikotik belirtileri" kötüleştirebileceği öne sürüldü. Akademisyenler, ruh sağlığı gibi kritik bir alanda insan terapistlerin yerini almanın etik ve bilimsel olarak mümkün olmadığı sonucuna varıyor.

Bu tartışmaların ışığında, Illinois, Nevada ve Utah gibi eyaletlerin, özellikle çocuklar için yapay zeka terapi sohbet robotlarına kısıtlamalar getirdiği biliniyor. Yetkililer, yapay zeka şirketlerine gönderdikleri mektuplarda, bu teknolojilerin "çocukları sömürüden korumak için yetkilerinin her yönünü kullanacaklarını" belirtiyorlar.

Yapay zeka, sağlık hizmetlerine erişimi demokratikleştirme ve milyonlarca kişiye anında destek sunma potansiyeline sahip. OpenAI'nin lisanslı ruh sağlığı uzmanlarından oluşan bir ağ kurma düşüncesi de bu potansiyelin bir parçası. Ancak, yapay zekanın kendiliğinden ürettiği bilgilerin ne kadar tehlikeli olabileceği de bu krizle ortaya çıkmış oldu.

Gelinen noktada, yapay zeka psikozu olarak adlandırılan bu olgu, teknoloji dünyasının henüz........

© Karar