menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Multikulti bir yapay zekâ mümkün mü?

8 1
03.04.2025

Multikulti, 1970’ler ve 80’ler­deki Alman ilerici hare­ketinin ortaya attığı çok kültürlülük merkezli kamu politikası yaklaşımının sloganı. Bugün sözkonusu kavramın yeni nesil yapay zekâ deneyiminin de merkezinde yer alması gereken önemli bir unsur oldu­ğunu düşünüyorum. Ancak yapay zekâ­nın tarihi, bırakın multikulti dene­yimler sunmayı, kültürel önyargıların (bias) yol açtığı krizlerle tanımlanıyor.

Aslında bu durum çok da şaşırtıcı değil. 1960’larda bilgisayar bilimciler, makinelerin “zeki” davranışları taklit etmesini sağlamak için çalışırken, do­ğal olarak ilk önce kendi kişisel dünya görüşlerini kodlarına taşıdılar. 1980- 1990 arasında erken yapay zekâ sis­temleri neredeyse tamamen İngilizce üzerine odaklandı, diğer dillerin ve kültürlerin özgün özelliklerini göz ardı etti. 2010’ların başında, büyük veri ve makine öğrenmesinin yükselişiyle bir­likte, kültürel önyargı sorunu daha da belirginleşti. Algoritmalar, büyük ölçü­de Batı odaklı veri setleriyle eğitildi ve bu da küresel perspektiften bakıldığın­da markalar nezdinde kriz iletişimini gerektiren talihsiz sonuçlar doğurdu. Örnek vermek gerekirse, 2016 yılında Microsoft’un geliştirdiği Tay adlı soh­bet botu, yalnızca birkaç saat içinde ırkçı ve cinsiyetçi ifadeler kullanmaya başlamıştı. Bunun nedeni, botun mev­cut çevrimiçi içerikler üzerinden ken­dini eğitmesi ve yine bu içeriklerdeki tüm toplumsal önyargıları olduğu gibi yansıtmasıydı.

2015 yılında Google Photos’un gö­rüntü tanıma algoritmasının siyahi insanları “goril” olarak etiketlemesi, bu bağlamdaki en çarpıcı örneklerden biri olarak hafızalara kazındı. Bunun sebebi, algoritmayı eğitmek için kulla­nılan veri setindeki kültürel temsiliyet eşitsizliğiydi.

Benzer bir skandal Facebook’ta da yaşanmıştı. 2018’de Amazon’un işe alım sürecinde kullandığı bir yapay zekâ modeli, geçmiş verilerden hare­ketle benimsediği cinsiyetçi örüntü nedeniyle kadın adayları sistematik olarak eliyordu. Benzer şekilde, yüz tanıma sistemlerinin koyu tenli birey­leri tanımada düşük başarı göstermesi, veri setlerinde ağırlıklı olarak beyaz tenli yüzlerin yer........

© MediaCat