Süper yapay zekâ: Korku mu, gerçek mi?
Bir süredir yapay zekâ ile ilgili düşünmeye ve yazmaya devam ediyorum. Her yazımda belirttiğim gibi yapay zekâ konusunda karamsarlardan değilim. Ancak, her yeni icat ve gelişme gibi yapay zekânın da iyi ve kötü kullanımları mevcuttur. Bu konuda çok sık kullandığım bir örnek vardır; uçaklar insanlar için mesafeleri kısaltarak ne kadar faydalı oluyorlarsa savaşlarda insanların tepesine tonlarca bomba atarak büyük zararlar da vermektedirler. Bu durumda uçaklar yasaklansın diyebilir miyiz?
Bu yazımda, yapay zekânın insan yaşamı için tehlikeli olabileceği aşamayı, Süper Yapay Zekâ olarak adlandırılan aşamayı anlatacağım.
Bulunduğumuz aşama henüz Dar Yapay Zekâ aşamasıdır. Bu konuyu daha önce T24’te detaylı olarak yazdığım için tekrarlamayacağım. Ancak çok kısa tanımıyla Dar Yapay Zekâ, bir alanda eğitilen ve geliştirilen yapay zekâlar için kullanılan ifadedir. Dar yapay zekâlar yüklendiği iş dışında başka işler yapamaz.
Bilgi ve kabiliyeti sınırlı olan bu yapay zekâlar, ağırlıklı olarak arama motorları, tercümanlık, mobil uygulamalar ve tekrarlanan işlerde kullanılmaktadır.
Bir sonraki aşama: Genel yapay zekâ
Hızla ilerlemekte olduğumuz aşama ise Genel Yapay Zekâ aşamasıdır. Bu aşama henüz çocukluk çağındadır. Genel yapay zekâ, insan beyni gibi sinir ağlarına sahip ve bu ağlar sayesinde, dar yapay zekâları birbirine bağlayan ve iş yapmalarına olanak sağlayan sistem için kullanılan ifadedir. Dar yapay zekâdan en önemli farkı, insan gibi düşünme, anlamlandırma ve bir fikri hayata geçirme özelliğine sahip olmasıdır.
Genel yapay zekâ kavramını sadece farklı dar yapay zekâ sistemlerinin bir araya gelmesi olarak değil, insan gibi farklı alanlarda öğrenebilen, öğrendiklerini başka alanlara transfer edebilen ve yeni problemler karşısında bağımsız çözüm üretebilen bir yapı olarak da değerlendirmek gerekir. Bu yönüyle genel yapay zekâ, sadece teknolojik bir sıçrama değil, aynı zamanda düşünme biçimimizi yeniden tanımlayacak bir eşik anlamına gelmektedir.
Genel yapay zekâ, aynı zamanda kodsuz yapay zekânın yaygın kullanılmasını sağlayacak teknolojidir.
Yapay zekâ kullanımının çıkış noktası her ne kadar Endüstri 4.0 ve üretim süreçleri olsa da toplumsal yaşamda da çok önemli gelişmeler sağlamaktadır. Bu konuya önümüzdeki yazılarımda değineceğim.
Bugün, Genel Yapay Zekâ yolunda ilerleyen sürecin akıllı makineler ve robotlara kazandırmakta olduğu özelliklere kısaca göz atalım. Bu konuyu da T24’te detaylıca yazmış olduğumdan sadece kısa başlıklar olarak aktaracağım.
Günümüzde yapay zekâ ile çalışan makineler ve robotlar:
Okuyabiliyor Yazabiliyor Görebiliyor Duyabiliyor Konuşabiliyor Koku alabiliyor Hareket edebiliyor Yaratabiliyor İnsan duygularını anlayabiliyorBurada dikkat edilmesi gereken nokta, bu yeteneklerin her birinin sadece tek başına değil, birlikte ve koordineli şekilde de çalışabilmesidir. Asıl dönüşüm, makinelerin bu özellikleri entegre ederek karmaşık problemleri çözebilir hale gelmesinde yatmaktadır. Bu da bizi, yalnızca otomasyonun ötesine geçen, karar verebilen ve inisiyatif alabilen sistemlere doğru götürmektedir.
Bu özellikler uçak örneğinde olduğu gibi, insanlığın hem yararına hem de zararına kullanılabilecek özelliklerdir. Ancak insanlığı yok edecek özellikler değildir. İnsanlığı yok etmesinden korkulan aşama ise Süper Yapay Zekâ aşaması olarak tanımlanan aşamadır.
Asıl kırılma noktası: Süper yapay zekâ
Gelelim süper yapay zekâ kavramına: İnsan beyninin temel çalışma prensip ve fonksiyonlarına göre çalışan, ancak insan beyni ve düşünce sisteminden daha üstün özelliklere sahip yazılım ve algoritmalar olacağı öngörülmektedir. Süper yapay zekânın kendi algoritmalarını oluşturmasının yanı sıra kendi donanımlarını da yaratabileceği varsayılmaktadır.
Bu noktada literatürde sıkça tartışılan iki önemli problem karşımıza çıkmaktadır: “kontrol problemi” ve “uyum (alignment) problemi”. Kontrol problemi, insanın kendisinden daha zeki bir sistemi nasıl denetleyebileceği sorusunu gündeme getirirken; uyum problemi, bu sistemlerin hedeflerinin insan değerleriyle nasıl uyumlu hale getirileceği meselesine odaklanmaktadır. Bu iki konu, süper yapay zekâ tartışmalarının merkezinde yer almaktadır.
Dar yapay zekâ türleri günümüzde başarı ile kullanılmaktadır. Genel yapay zekâ denemeleri de hızla sürmektedir. Süper yapay zekâ ise henüz sadece fikir aşamasındadır. Ne zaman gerçekleşeceği ise bilinmemektedir. Bazı bilim insanları içinde bulunduğumuz yüz yılda Süper Yapay Zekâya geçişin imkânsız olduğunu ileri sürmektedirler.
Süper yapay zekâ, henüz tasarım aşamasına bile ulaşmamışken, pek çok komplo teorisine ilham kaynağı olmuştur. Bu teorilerin ortak noktası, kontrolden çıkacak olan süper yapay zekânın, insan soyunu yok edebilecek güce sahip olabilme ihtimalidir. Bu teorileri savunanların büyük bir kısmı, Stephen Hawking’in bu konuda söylediklerinin bir kısmını alıp, kendilerine dayanak noktası yapmaktadırlar. Oysa Hawking, bu konuda kesin hükümlerde bulunmayıp, iyi ve kötü olasılıkları ortaya koymaktadır.
Hawking “Etkili yapay zekâ yaratmadaki başarı, uygarlığımızın tarihindeki en büyük olay olabilir. Ya da en kötüsü. Sadece bilmiyoruz. Bu nedenle, yapay zekâ tarafından sonsuz bir şekilde yardım edilip edilmeyeceğimizi veya onun tarafından görmezden gelinip, bir kenara atılıp atılmayacağımızı veya onun tarafından makul bir şekilde yok edilip edilmeyeceğimizi bilemeyiz” dedikten sonra, şimdiden, AI yaratmanın ve kullanmanın kurallarının konulmasına dikkat çekmektedir.
Kontrolsüz olarak geliştirilecek olan süper yapay zekâ uygulamalarının, değişik ölçeklerde, insanlığa zarar verme olasılığı elbette vardır. Bu yüzden, küresel ölçekte yasal düzenlemeler yapılmalıdır. Ama bu tehlikeye bakarak, genel yapay zekâ ve süper yapay zekânın insanlığa sağlayacağı faydaları da görmezden gelemeyiz.
Süper yapay zekâya kötümser yaklaşanlar, genellikle, süper yapay zekâyı kontrol edemeyeceğimiz tezinden yola çıkarak felaket senaryoları üretiyorlar. Bu konuda başı çeken, Center for Future Mind direktörü ve “Yapay Sen: AI ve Aklın Geleceği” kitabının yazarı Susan Schneider, çok yaratıcı bir örnek veriyor; “Bir ataş üreticisinin yapacağı yanlış bir programlamayla, üretimi ve satışları maksimuma çıkartmayı hedefleyen bir ataş üretim sisteminin, zamanla, dünyadaki tüm maddeleri ataş üretimine çevirip, gezegeni yok edebileceğini göz ardı etmemeliyiz” diyor.
Bir süper zekâdan "insan mutluluğunu maksimize etmesini" istemek, onu, beynimizin zevk merkezlerini yeniden düzenlemeye veya insan beyinlerini bir süper bilgisayara yüklemeye zorlayabilir ve Bostrom'un tahminine göre, bizi, sonsuza kadar, beş saniyelik bir mutluluk döngüsü yaşamaya zorlayabilir.
Ancak burada gözden kaçırılmaması gereken önemli bir nokta vardır: Tarih boyunca hiçbir teknoloji tek başına felaketin nedeni olmamıştır. Asıl belirleyici olan, o teknolojinin hangi amaçlarla ve hangi kurallar çerçevesinde kullanıldığıdır. Yapay zekâ da bu açıdan istisna değildir.
Karamsarlar, özetle, “Yapay bir süper zekâ ortaya çıktığında, kıyamet bazı garip ve beklenmedik şekillerde gelebilir” anlayışıyla hareket etmektedirler.
Çözüm: Küresel kurallar ve sorumluluk
Bu riskleri gören Hawking gibi bilim insanları, uluslararası toplumun yapay zekâ kullanımı ile ilgili küresel yasalar çıkarması gerektiği konusunda uyarıda bulunmaktadırlar. Yapay zekâ üreticilerinin tümünün, ahlaki kurallara göre algoritmalar oluşturmayacağı konusunda hepimiz hemfikiriz. Zira uluslararası toplumun uzlaştığı bir ahlaki kurallar listesi mevcut değildir. Ancak tüm yapay zekâ üreticilerinin ‘kötü niyetli’ algoritmalar üretmeyeceğini de varsayımlarımız içine yerleştirmeliyiz.
‘Kötü niyetli’ yapay zekâ üreticisi olduğu kadar, ‘iyi niyetli’ yapay zekâ üreticisi de olacaktır. Üstelik bunların gelişimi de eşzamanlı olacaktır. Bu nedenle tartışmayı sadece “iyi yapay zekâ – kötü yapay zekâ” ikiliğine indirgemek eksik bir yaklaşım olacaktır. Asıl mesele, bu sistemlerin hangi etik çerçevede geliştirileceği ve nasıl denetleneceğidir.
Bugün karşı karşıya olduğumuz temel mesele, yapay zekânın gelişip gelişmeyeceği değil, bu gelişimin nasıl yönetileceğidir. Riskleri tamamen ortadan kaldırmak mümkün olmasa da, doğru kurumsal ve hukuki yapılarla bu riskleri kontrol altına almak mümkündür.
Henüz süper yapay zekâ çağının çok öncesindeyiz. Ortaya çıkabilecek riskler ve olasılıklar günümüzün nükleer silahlarından daha tehlikeli olmayacaktır. Uluslararası toplum nasıl nükleer silahların tehlikelerini görüp, üretim ve kullanımı hakkında küresel kısıtlamalar getiriyorsa, süper yapay zekâ konusunda da benzer önlemler alınacaktır diye düşünüyorum.
Bu çerçevede yapay zekâyı bir tehdit olarak görmek yerine, yönetilmesi gereken güçlü bir araç olarak değerlendirmek daha sağlıklı bir yaklaşım olacaktır.
