Oryantalizm ve İslamofobik Yapay Zekâ
Edward Said’in oryantalizm çalışmalarında ortaya koyduğu temel iddia, Doğu’nun kendisini ifade eden bir özne olmaktan çıkartılıp Batı tarafından temsil edilen ve anlamlandırılan bir nesneye dönüştürülmüş olmasıdır. Bu temsil ilişkisi yalnızca akademik metinlerde değil, edebiyattan siyasete, medyadan gündelik dile kadar uzanan geniş bir alanda yeniden üretilmişve zamanla bir kültürel hegemonya oluşturulmuştur. Dahası, bu hegemonya öylesine güçlüdür ki, Doğu’ya dair bilgi üretimi çoğu zaman bu çerçevenin dışına çıkamamakta, çıksa bile ana akım içinde kendine yer bulmakta zorlanmaktadır.
Oryantalist hegemonya teknolojik gelişmelerle kendisini sürekli tahkim etmektedir. Büyük kitlelerin yaygın bir şekilde kullandıkları dijital platformlarda bu hegemonyanın izleri açık bir şekilde görülmektedir. Özellikle üretken yapay zekâ alanında büyük dil modellerinin (LLM) kısa sürede tüm dünyada büyük kitleler tarafından yoğun bir şekilde kullanılmasıyla oryantalist retorik faz değiştirerek çok daha güçlü hale gelmektedir. Dolayısıyla, bugün üretken yapay zekâ teknolojileriyle birlikte bu temsil rejiminin yeni bir evreye geçtiği görülmektedir.
Yapay zekâ, geçmişte üretilmiş bilgi birikimini öğrenme verisi (hafıza) olarak kullanmakta ve bu veriler üzerinden yeni içerikler üretmektedir. Ancak bu hafıza doğal olarak tarafsız bir birikim değildir, aksine toplumlarda yerleşik güç ilişkilerinin ve önyargıların yansımasıdır. Bu nedenle de yapay zekâ, yeni bir dil kurmaktan ziyade, mevcut dili ve onun içinde gömülühiyerarşileri yeniden üretmektedir. Bu durum, oryantalizmin yalnızca geçmişe ait bir söylem olmadığını, dijital çağda daha görünmez ama daha etkili ve güçlü bir biçimde varlığını sürdürdüğünü göstermektedir.
Yapay zekânın oryantalist temsil biçimlerini yeniden üretmesi yalnızca metin düzeyinde değil, görsel ve kavramsal düzeyde de kendini göstermektedir. Daha önceki yazılarımızda davurguladığımız gibi, metinden görsele dönüştürücü modellerin Güney Asya’yı homojenleştiren, egzotikleştiren ve çoğu zaman yoksullukla özdeşleştiren temsilleri, bu durumun somut bir örneğidir. Bu temsiller, gerçeği yansıtmaktan ziyade, Batı merkezli bir bakış açısının veri setlerine yerleştirdiklerini yeniden dolaşıma sokmaktadır. Aynı şekilde, Müslümanların özelikle terör, korku ve güvenlik bağlamları üzerinden temsil edilmesi de aynı üslubu yansıtmaktadır.
Bu noktada ortaya çıkan en kritik mesele, yapay zekânın bu temsilleri doğal ve tarafsız bilgi olarak sunabilme kapasitesidir. Bir başka deyişle, yapay zekâ tarafından üretilen içerikler, algoritmik bir süreçten geçtiği için daha tarafsız ve güvenilir olarak algılanma eğilimindedir. Bu da önyargının daha derin ve sorgulanması daha zor bir biçimde yerleşmesine yol açmaktadır. Böylece, geçmişte akademi, kültür çevreleri ve medya üzerinden kurulan epistemik otorite, bugün algoritmik sistemler aracılığıyla yeniden inşa edilmektedir.
Bu nedenle sorunun varlığı, ölçeği ve boyutları ile ilgili kapsamlı araştırmalara duyulan ihtiyaç açıktır. Bu kapsamda çalışmalar oldukça zayıf olup yeni yeni ortaya çıkmaktadır. Bu bağlamda yeni bir çalışma yapay zekâ ve İslamofobi arasındaki ilişkiye projeksiyonyapmaktadır (Bakht Munir, Islamophobic Artificial Intelligence in the USA: A Critical Analysis of Religious Bias in Datasets, ssrn-5265355). Çalışmanın ortaya koyduğu bulgular, yapay zekâ ile toplumsal önyargılar arasındaki ilişkinin yüzeysel değil, derin ve yapısal bir nitelik taşıdığını açık biçimde göstermektedir. Çalışmanın en önemli katkısı İslamofobik yapay zekâ kavramını tanımlama çabasıdır. Bu kavram, literatürde henüz netleşmemiş bir alanı sistematik hâle getirmeye çalışmakta ve özellikle dinî önyargıların yapay zekâ bağlamında nasıl tezahür ettiğini açıklamaktadır. Çalışma İslamofobik yapay zekâ olgusunu yalnızca teknik bir sorun olarak değil, tarihsel, hukuki ve toplumsal bağlam içinde ele almaktadır. Bu yaklaşım, yapay zekâdaki önyargının kaynağını yalnızca algoritmalarda değil, bu algoritmaları besleyen veri ekosisteminde ve daha geniş anlamda toplumsal yapıda araması bakımından oldukça yerindedir.
Yapay zekâ modellerinin eğitildiği veri setlerinin tarihsel olarak dinî, ırksal ve cinsiyet temelli önyargılarla yüklü olduğu ve bu nedenle yapay zekânın bu önyargıları yeniden ürettiği biliniyor. Çalışmada bu önyargılara İslamofobi bağlamında hem teorik hem de ampirikörneklerle değinilmektedir. Özellikle ABD hukuk sisteminden verilen örnekler, önyargının yalnızca bireysel düzeyde değil, kurumsal ve sistemik düzeyde de üretildiğini göstermektedir. Dred Scott’tan Plessy v. Ferguson’a, seyahat yasaklarından gözetim politikalarına kadar uzanan geniş bir yelpazede sunulan örnekler, yapay zekânın hafızasını oluşturan veri setlerinin tarafsız olmadığını ve tarihsel olarak Müslümanları sürekli kötülükle ilişkilendirenbirikimlere yol açtığını ortaya koymaktadır.
Dolayısıyla, yapay zekâ sistemlerinin Müslümanları özellikle şiddet, terör ve güvenlik tehdidi ile ilişkilendirme eğilimi, tesadüfi bir teknik hata değildir, tam tersine oryantalist hegemonyanın daha geniş bir tarihsel birikiminin yapay zekâ teknoloji üzerinden sürekliliğinetekabül etmektedir. Zira yapay zekâ veri setleri; medya söylemleri, politik kararlar, akademik çalışmalar ve hukukî metinler gibi oldukça geniş spektruma sahip kaynaklardan beslenmektedir. Bu kaynakların önemli bir kısmı ise son dönemde özellikle 11 Eylül sonrası dönemde yoğunlaşan güvenlik merkezli söylemlerle şekillenmiştir. Hukukî kararlar, gözetim politikaları, ayrımcı yasalar ve medya söylemleri gibi unsurların veri setlerine yansıması, yapay zekânın bu önyargıları sistematik biçimde yeniden üretmesine zemin hazırlamaktadır.Böyle bir veri ekosisteminden öğrenen yapay zekâ modellerinin benzer kalıpları yeniden üretmesi şaşırtıcı değildir. Burada dikkat çekici olan, bu önyargıların artık yalnızca metinlerde değil, algoritmik karar süreçlerinde de etkili hâle gelmesidir. Bu durum, algoritmik önyargının da aslında toplumsal önyargının bir uzantısı olduğunu göstermektedir.
Çalışmanın bulguları, teknik çözüm önerilerinin sınırlılıklarını da net biçimde ortaya koymaktadır. İnce ayar, insan geri bildirimiyle öğrenme, tarafsızlık metrikleri gibi çeşitli yöntemlerin önyargıyı azaltmada etkili olabileceği kabul edilmekle birlikte, bu yöntemlerin önyargıyı tamamen ortadan kaldıramadığı vurgulanmaktadır. Bunun temel nedeni, veri setlerindeki örtük ve yapısal önyargıların teknik araçlarla tam anlamıyla ayrıştırılamamasıdır. Bu noktada makalenin en dikkat çekici argümanı önyargının yalnızca teknik bir problem olmadığı, aynı zamanda toplumsal bir problem olduğudur. Dolayısıyla, veri setlerini dönüştürmenin yolu yalnızca algoritmaları ve verileri iyileştirmekten değil, bu verileri üreten toplumsal yapıyı dönüştürmekten geçmektedir. Bir başka deyişle, eğer veri setleri toplumsal gerçekliğin bir yansımasıysa ve bu gerçeklik önyargılarla şekillenmişse, bu önyargıyı ortadan kaldırmanın yolu yalnızca algoritmaları düzeltmekten değil, bu verileri üreten toplumsal yapıyı dönüştürmekten geçmektedir.
Sonuç olarak, yapay zekâ ile oryantalizm ve İslamofobi arasındaki ilişki biçimi ve bu biçimin yol açtığı sorunlar, teknik bir hatadan ziyade Batı epistemolojisinin teknolojik bir yansımasıve süreklilik kazanmasından ibarettir. Yapay zekâ, geçmiş oryantalist birikimi olduğu gibi devralmakta ve onları daha geniş ölçekte yeniden üretmektedir. Bu durum, yapay zekâyı yalnızca bir araç olmaktan çıkarıp, aynı zamanda yanlı bir bilgi otoritesi hâline getirmektedir. Eğer bu süreçler eleştirel biçimde ele alınmazsa, yapay zekâ mevcut önyargıları yalnızca yeniden üretmekle kalmayacak, aynı zamanda onları daha görünmez ve çok daha güçlü hâle getirecektir. Bu nedenle mesele bu araçlarla hangi bilginin üretildiğini, nasıl üretildiğini ve bu araçların kimin adına konuştuğunu yeniden ve derinden düşünmeyi gerektirmektedir.
