Yapay zekâ ne kadar tehlikeli olabilir?
Diğer
23 Şubat 2025
Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından da desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları da içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.
Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.
Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp, yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.
Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş........
© T24
