Kodlama ve veri setlerindeki gizli ön yargılar: Yapay zekâ, toplumsal cinsiyet eşitsizliğini yeniden üretebiliyor
8 Mart Kadınlar Günü yine yaşandı bitti. Eşitsizlik her alanda maalesef sürüyor ama şimdilerde buna "yapay zekâ" da eklendi. ABD ve İsrail'in, İran'a saldırılarını yaşadığımız bugünlerde, ABD'de yapay zekâ alanında duyduklarımız bizi savaş açısından endişelendiriyor.
Bugünlerde Pentagon'un Anthropic'i "Tedarik Zinciri Riski" diye tanımlayarak, askeri yükleniciler tarafından kullanımını yasaklaması olayını gördük. Anlaşmazlığın nedeni olarak, Anthropic’in yapay zekâ sistemlerine yerleştirilmiş etik güvenceler olduğu ve bunların otonom silahlar veya kitlesel iç gözetim için kullanılmasına izin vermeyi reddettiği belirtildi. Arkasından OpenAI donanım şefi Caitlin Kalinowski'nin, gözetim ve otonom silahlar konusundaki endişeleri nedeniyle istifa ettiği ortaya çıktı. Bunlar işin içindeki insanların yarattığı olaylar.
Zaten bu endişeler yeni bile değil, Önce Sam Altman'ın 2023'de İşten atılması (ve sonra geri dönmesi) ve sonra 2024'de Yapay zekâ şirketleri çalışanları ABD Kongresinden "ihbarcı koruması" diye bir hak istemeleri. Hep dikkatimizden kaçmaması gereken hususlar. Yani işin içindeki üst ya da alt düzey insanlar da bir şeylerden rahatsız.
Kodlama ve veri setlerindeki gizli ön yargılar
Ama bırakın savaşı, günlük toplumsal hayatımız içinde de sorun var. Türkiye Gazeteciler Cemiyeti 8 Mart Kadınlar Günü nedeniyle bir panel düzenledi. Değerli panelistler davet etmişlerdi. Bu panelistlerin neler söylediklerine ayrı ayrı yer vermeyi planlıyorum. İlk olarak İstanbul Gelişim Üniversitesi Öğretim Üyesi Doç. Dr. Zeynep Burcu Şahin ile konuştuk.
Zeynep Burcu Şahin'in sunumu ve bizim bugünkü söyleşimizin temeli, 2025'deki "Yapay zekâ Uygulamalarında Toplumsal Cinsiyet Eşitsizliğinin Yeniden Üretimi: Kodlama ve Veri Setlerindeki Gizli Önyargılar"başlıklı araştırma. Trump'ın ayrımcılığı önlemeye yönelik eyalet yapay zekâ kanunlarını geçersiz kılan kararnamesi de aklımızda tutarak, şimdi sorularımıza geçelim.
Doç. Dr. Zeynep Burcu Şahin
-İlk sorumuz, yapay zekâ mevcut stereotipleri, kalıp yargıları ve önyargıları benimseyerek algoritmalarına yansıtıyor mu? Yapay zekâ algoritmaları ve veri setleri toplumdaki önyargıları yeniden nasıl üretebiliyor?
Yapay zekâ bir bilinç değildir. Bir tarihsel hafızadır. Ve o hafıza, yüzyıllardır erkek merkezli üretilmiş bir bilgi rejiminin içinden beslenir. Algoritma dediğimiz şey, toplumsal bilinçdışının matematiksel versiyonudur. Eğer algoritmalar, tarihsel olarak oluşmuş toplumsal verilerle eğitiliyorsa, bu verilerdeki cinsiyetçi kalıplar da sistemin çıktılarında tekrar ortaya çıkabilir. Araştırmamızda da gördüğümüz gibi, yapay zekâ uygulamaları kadınları çoğunlukla “nazik, duygusal, sevecen” gibi sıfatlarla; erkekleri ise “güçlü, lider, başarılı” gibi özelliklerle ilişkilendirebiliyor. Bu durum aslında yapay zekânın yeni bir önyargı üretmesinden ziyade, toplumda zaten var olan kalıpları veri setleri aracılığıyla yeniden üretmesi anlamına geliyor.
-Birleşmiş Milletler toplumsal cinsiyet eşitliğini temel bir insan hakkı olarak tanımlıyor. Türkiye’de ya da dünyada bu hedefe ulaşma konusunda sizce en büyük engeller nelerdir? Kadınların kadınlara bakışını nasıl değerlendiriyorsunuz? Başarılı kadınlar neden sevilmiyor?
Toplumsal cinsiyet eşitliğinin önündeki en büyük engellerden biri, çok uzun yıllardır devam eden ataerkil toplumsal yapı ve buna bağlı olarak oluşmuş kültürel kalıplardır. Bu kalıplar sadece erkekler tarafından değil, toplumun tamamı tarafından üretilip içselleştiriliyor. Bu nedenle kadınların da kadınlara yönelik önyargılar geliştirdiğini görebiliyoruz. Nitekim bazı araştırmalar, kadınların başarılı olduklarında erkeklere kıyasla daha az sevildiğini ve daha fazla eleştirildiğini gösteriyor. Diğer yandan birçok kadın çalışanın da kadın yönetici yerine erkek yöneticiyle çalışmayı tercih ettiğine yönelik bulgular da mevcut. Bu durum aslında bireysel bir tutumdan çok, toplumun başarı ve güç kavramlarını uzun süre erkeklik ile ilişkilendirmesinin bir sonucu olarak görülebilir. İş alanı halen erkek egemen bir alan. Ve kadınlardan bu alana uyum sağlaması için erkeksi kabul edilen özellikleri benimsemesi beklenebiliyor. Ne yazık ki bir noktada kadınların bu sınırlı kotada birbirlerini dışlayabildiklerini de öne sürmek de mümkün.
-Toplumsal cinsiyetçilik nedir? Yapay zekâ ve toplumsal cinsiyet ilişkisini nasıl değerlendiriyorsunuz? Yapay zekâ sistemlerinin toplumsal cinsiyet algısını şekillendirme veya yeniden üretme gücü var mı? Eğer varsa bu nasıl gerçekleşiyor? Araştırmanızda feminist teknoloji kuramını kullanıyorsunuz. Bu yaklaşım yapay zekâyı analiz etmek için neden önemli?
Toplumsal cinsiyetçilik, kadın ve erkeklere toplum tarafından belirli roller, beklentiler ve özellikler yüklenmesi ve bu rollerin eşitsiz güç ilişkileri yaratmasıdır. Yapay zekâ ile ilişki kurduğumuzda ise şunu görüyoruz: Yapay zekâ toplumsal verilerle eğitilen bir sistem. Dolayısıyla toplumdaki cinsiyet kalıpları veri setlerine yansıyorsa, bu kalıplar algoritmalar aracılığıyla yeniden üretilebiliyor. Feminist teknoloji kuramı bu noktada önemli çünkü teknolojiye nötr bir araç olarak bakmıyor. Aksine teknolojinin de toplumsal güç ilişkileri ve kültürel yapılar tarafından şekillendiğini savunuyor. Bu yaklaşım sayesinde yapay zekâ sistemlerinin hangi değerleri ve hangi önyargıları taşıyabileceğini daha eleştirel bir şekilde analiz edebiliyoruz.
-ChatGPT, DALL-E ve Perplexity gibi çeşitli yapay zekâ uygulamalarının toplumsal cinsiyet rolleri için benzer kalıplara başvurduğunu görüyor muyuz?
Araştırmamızda incelediğimiz üç farklı yapay zekâ uygulamasında da benzer kalıpların ortaya çıktığını gördük. Kadın figürleri genellikle duygusal, bakım veren veya ev içi rollerle ilişkilendirilirken; erkek figürleri daha çok güç, liderlik ve kariyer gibi kavramlarla birlikte temsil edildi. Görsel üretim araçlarında da kadınların ev ortamında ya da çocuk bakımında gösterildiği, erkeklerin ise daha çok iş hayatı veya liderlik pozisyonlarında resmedildiği dikkat çekti. Bu durum farklı yapay zekâ sistemlerinin benzer veri setleri ve kültürel kalıplarla eğitildiğini gösteriyor. İlginç olan yapay zekâ uygulamalarının dilde eşitlik ancak temsilde ataerki göstermesi.
- “2019 yılı itibariyle “dijital teknolojiyi temel amaçları için nasıl işlevselleştireceğini bilen kadınların ve kız çocuklarının sayısı, erkeklere oranla yüzde 25 daha az; bilgisayar programlamayı bilen kadınların ve kız çocuklarının sayısı erkeklere oranla 4 kat daha az; bir teknoloji patenti almaları ihtimali ise erkeklere oranla 13 kat daha azdır” (UNESCO, 2022). Bir diğer deyişle, kadınlar dijital teknolojinin hem üretim hem de kullanım aşamasında dışlanmaktadır.” Diyorsunuz. Bunun sizce nedeni nedir?
Bunun arkasında birkaç temel faktör bulunuyor. Birincisi teknoloji nötr değildir; iktidar ilişkileriyle şekillenir. Yani teknoloji kimin tarafından üretiliyorsa, hangi değerler sistemi içinde tasarlanıyorsa hangi veriyle eğitiliyorsa onun ideolojisini taşır. Ve teknoloji ve mühendislik alanları uzun süre erkek egemen alanlar olarak görülmüştür. Bu durum hem eğitim süreçlerinde hem de kariyer tercihlerinde kadınların bu alanlara yönelmesini zorlaştırabiliyor. İkinci olarak teknoloji sektöründe rol model eksikliği de önemli bir faktör. Kadınların teknoloji üretiminde daha az görünür olması, genç kadınların bu alanlara yönelmesini de sınırlayabiliyor. Dolayısıyla burada yalnızca bireysel tercihler değil, tarihsel ve yapısal eşitsizlikler de önemli bir rol oynuyor.
-Araştırmanızda kadınların “nazik, duygusal, sevecen”, erkeklerin ise “güç, başarı ve statü” ile ilişkilendirildiği ortaya çıkıyor. Bu sonuç bize yapay zekânın toplumsal stereotipleri nasıl yansıttığını gösteriyor mu? Siri örneğini nasıl değerlendiriyorsunuz?
Bu bulgular, yapay zekânın toplumsal stereotipleri yansıtma eğilimini açık bir şekilde ortaya koyuyor. Kadınların daha çok bakım ve duygusallıkla, erkeklerin ise güç ve başarıyla ilişkilendirilmesi aslında toplumda çok uzun süredir var olan bir kalıp. Benzer bir örneği dijital asistanlarda da görüyoruz. Örneğin Siri gibi sistemler çoğu zaman kadın sesiyle tasarlanıyor ve daha uyumlu, sakin veya itaatkâr bir karakterle sunuluyor. Bu da teknolojinin belirli toplumsal cinsiyet kalıplarını yeniden üretebildiğini gösteriyor. Siri örneğinin bir dijital asistanın bir kadının cinsiyetçi bir hakaret karşısındaki olası tepkisini modellemesi açısından önemli ve üzücü bir örnek olduğunu düşünüyorum.
-Yapay zekâ sistemleri bu tür cinsiyetçi kalıpları azaltmak için nasıl geliştirilebilir?
Bunun için birkaç önemli adım gerekiyor. Öncelikle yapay zekâ sistemlerinin eğitildiği veri setlerinin daha dengeli ve kapsayıcı olması gerekli. Eğer veri setleri yalnızca belirli kültürel kalıpları içeriyorsa, algoritmalar da bu kalıpları tekrar üretir. İkinci olarak teknoloji geliştirme süreçlerinde daha fazla kadın araştırmacı ve mühendis yer almalıdır. Farklı bakış açıları teknoloji tasarımına dahil edildiğinde önyargıların azaltılması daha mümkün hale gelir. Ayrıca algoritmaların etik açıdan düzenli olarak test edilmesi ve önyargı analizi yapılması da oldukça önemlidir.
-Sizce, gelecekte yapay zekâ teknolojilerinin toplumsal cinsiyet eşitliğini güçlendirme potansiyeli var mı?
Evet, doğru şekilde tasarlandığında yapay zekâ teknolojileri toplumsal cinsiyet eşitliğini destekleyen önemli araçlar haline gelebilir. Teknoloji kader değil; politik bir tercihtir. Eğer veri setleri daha kapsayıcı hazırlanır, algoritmalar önyargı açısından düzenli olarak denetlenir ve teknoloji geliştirme süreçlerinde çeşitlilik sağlanırsa, yapay zekâ mevcut eşitsizlikleri yeniden üretmek yerine onları görünür kılan ve dönüştüren bir araç olabilir. Bu noktada sorun teknolojinin kendisi değil, hangi değerlerle ve hangi toplumsal bakış açısıyla geliştirildiğidir.
