Anthropic - Pentagon çatışmasının perde arkası - Vicdanın bedeli
Yapay zekanın hangi değerlerle kodlanacağı çatışması üzerinden yapılan ilk büyük savaşı şimdilik bitti ancak kazanan kim, henüz belli değil!
Tüm dünya 3. Dünya Savaşı çıkar mı, yoksa tüm bölgeye mi yayılır, başka hangi ülkeler dahil olur, vb. diye büyük bir gerginlik içindeyken ve insanlık ABD-İsrail-İran saldırılarına kitlenmişken arka planda da müthiş bir teknoloji etiği mücadelesi sürüyor. Kimse tekno-magazin haberinin ötesine geçemiyor. Oysa burada tartışılan şey bir sözleşme değil: yapay zekanın ölüm emri verip veremeyeceği, kimin izlenip izlenemeyeceği ve buna kim karar vereceği.
Oysa olay, göründüğünden çok daha derin ve kritik. Anlayabilmek için tablodaki kişilerle ve şirketleriyle, yarattıkları teknolojiyle ilgili gelişmelere tarihi biraz geri sararak bakmakta fayda var. Bu günlere adım adım gelindi. Her şey bir ültimatomla başlamadı.
Mart 2014. Future of Life Institute (FLI — Yaşamın Geleceği Enstitüsü), MIT kozmologu Max Tegmark ve Skype kurucu ortağı Jaan Tallinn tarafından kuruldu. Misyon masum görünüyordu: yapay zekanın yarattığı varoluşsal riskleri azaltmak, regülasyon geliştirmek, farkındalık yaratmak. Musk danışma kuruluna girdi; 2015’te 10 milyon dolar bağışladı. Dünyanın ilk akademik YZ güvenliği hibe programı bu parayla başladı. Musk o yıllarda sahneye çıkıp yapay zekanın “insanlığın en büyük varoluşsal tehdidi” olduğunu söylüyordu; FLI onun bu duyarlılığının kurumsal yüzü gibiydi.
Yıllar içinde ise perde aralandı: neo-Nazi bir yayın organına hibe teklifi skandalı, araştırmaları atıfta bulunulan YZ uzmanlarının mektubu sahiplenmemesi, sektör çıkarlarını koruduğu yönündeki suçlamalar “insanlığı kurtarma” söyleminin arkasında kimin, ne için konuştuğunu sorgulatır hale geldi. Aslında daha LLM’ler (büyük dil modelleri) ortaya çıkmadan bu konu tartışmalı hale gelmişti. Anthropic-Pentagon çatışmasında da aynı soru güncelliğini korudu.
Aralık 2015. OpenAI, kâr amacı gütmeyen bir araştırma kuruluşu olarak Elon Musk önderliğinde kuruldu. Elon Musk ve Sam Altman eş başkan; Ilya Sutskever, Greg Brockman ve diğer 9 kurucu da takıma katıldı. Misyon tek cümlede: “Yapay zekayı insanlık yararına geliştirmek” idi. Bir milyar dolarlık ilk taahhüt açıklandı. Gerçekte toplanan para çok daha azdı.
2018. Musk yönetim kurulundan ayrıldı. Resmi gerekçe Tesla ile çıkar çatışması. Gerçek: Altman’ın reddettiği, tek başına şirketi yönetme talebi ve stratejik anlaşmazlıklar.
2019. Microsoft 1 milyar dolar yatırdı. OpenAI “sınırlı kâr” (capped-profit) yapısına geçti. Kuruluş misyonundaki ilk kırılma burada yaşandı.
Aralık 2020. Dario Amodei OpenAI’dan ayrıldı. GPT-2 ve GPT-3 araştırmalarını yönetmiş, Araştırma Başkan Yardımcısı olarak görev yapmıştı. Kardeşi Daniela Amodei de güvenlik ve politika ekibini yönetiyordu. İkisi de kurumun hızla ticarileşmesinden ve Microsoft bağımlılığından rahatsızdı.
2021. Kardeşler, eski OpenAI çalışanlarından oluşan 7 kişilik ekiple Anthropic’i kurdu. Sloganları netti: “Sorumlu yapay zeka.” Claude serisi bu altyapı üzerine inşa edildi.
Kasım 2022. ChatGPT kullanıma açıldı. İlk beş günde 1 milyon kullanıcı. Dünya adeta şok yaşadı; yapay zekayla ilk kez bu ölçekte yüzleşti. Hiçbir teknoloji bu kadar kısa sürede bu kadar çok insana ulaşmamıştı.
Ocak 2023. Microsoft 10 milyar dolar ek yatırım yaptı. OpenAI artık geleneksel anlamda bir teknoloji devi gibiydi.
Kasım 2023. Yönetim kurulu Altman’ı kovdu. Gerekçe: “Şeffaf olmayan iletişim.” Beş gün içinde Satya Nadella, Altman ve Brockman’ın Microsoft’a katılacağını duyurdu. OpenAI çalışanlarının yaklaşık 738’i istifa tehdidinde bulundu. Yönetim kurulu geri adım attı; Altman yeni bir kurulla göreve döndü.
2023-2024. Kurucu kadro OpenAI’dan birer birer ayrıldı: Jan Leike, John Schulman, Durk Kingma.
Bu sırada Musk ise xAI’ı kurdu; Grok’ü piyasaya sürdü. Anthropic hızla büyüdü. Claude, kurumsal piyasada yerini sağlamlaştırdı.
Temmuz 2024. Palantir (veri analitiği ve savunma altyapısı şirketi) ile Anthropic anlaştı. Claude gizli askeri ağlara entegre edildi.
Temmuz 2025. Pentagon, Anthropic ile 200 milyon dolarlık resmi sözleşme imzaladı. İki kısıtla: otonom silahlar ve kitlesel gözetleme dışında her türlü yasal kullanıma açık.
3 Ocak 2026. ABD Özel Kuvvetleri, “Operasyon Resolve - Kararlılık Harekâtı” adıyla Venezuela’da Maduro’yu yakaladı. Wall Street Journal ve Axios’un haberlerine göre Claude, Palantir altyapısı üzerinden operasyonda kullanıldı. Tarihte ilk: gizli bir askeri operasyonda ticari bir YZ modeli. Anthropic bu iddiayı doğrulamadı; ihlal tespit etmediğini açıkladı.
24 Şubat 2026. Savunma Bakanı Pete Hegseth, Amodei’ye doğrudan ultimatom verdi: “Her türlü meşru amaçla kullanım için tüm kısıtları kaldır.” Aksi takdirde 200 milyon dolarlık sözleşme iptal edilecek, Anthropic “tedarik zinciri riski” ilan edilecekti.
26 Şubat 2026. Amodei reddetti: “Vicdanen kabul edemeyiz. Pentagon askeri kararları verir, bunu anlıyoruz. Ancak dar bir alanda yapay zeka demokratik değerleri zedeleyebilir.” Pentagon’un önerdiği ek düzenlemelerin “görünüşte uzlaşı, özünde boş laflar” olduğunu da belgeleriyle ortaya koydu.
27 Şubat, saat 17.01. Süre doldu. Trump Truth Social’da yazdı: “Her federal kurum Anthropic’i derhal bıraksın.” Hegseth ise Anthropic’i “tedarik zinciri riski” ilan etti. ABD tarihinde bir Amerikan şirketine ilk kez bu statü verildi; bu statü normalde yabancı düşmanlara özgüdür. Altı aylık geçiş süresi tanındı. Anthropic dava açacağını açıkladı.
Aynı gece. Sam Altman duyurdu: OpenAI, Pentagon ile anlaştı. Süre dolmasından yalnızca birkaç saat sonra.
28 Şubat – 3 Mart. Küresel çapta büyük bir OpenAI karşıtı hareket başladı. Aynı anda da Claude, App Store’da birinci sıraya çıktı; ChatGPT’yi geçti. Sıradan insanlar ve sivil inisiyatifler, duyarlılığa sahip çıktıklarını en net biçimde gösterdi. ChatGPT kaldırmaları tek günde %295, bir yıldız (en düşük puan – kitlesel protesto) yorumları %775 arttı. #CancelChatGPT hareketi 1,5 milyonu aştı. Claude ücretsiz kullanıcıları yılbaşından bu yana %60 büyüdü; ücretli aboneler ise ikiye katlandı.
Pentagon hangi yapay zeka araçlarını kullanıyor?
OpenAI, Google ve Musk’ın xAI’ı savunma bakanlığıyla anlaşmalı; hepsi “her meşru amaçla” kullanıma açık kabul etti. Palantir istihbarat ve veri analitiği altyapısını sağlıyor. Microsoft bulut sistemlerini ve ofis operasyonlarını yönetiyor.
Anduril otonom savunma platformları üzerine çalışıyor. Görevler: istihbarat belgelerinin analizi, uydu görüntülerinin değerlendirilmesi, lojistik planlama, siber savunma ve hedefleme desteği.
Claude’un kapasitesi belge özetlemesinden otonom insansız hava araçlarını yönlendirmeye kadar uzanıyordu.
Anthropic neden hayır dedi?
İki somut gerekçe vardı; ideoloji değil.
1 Kitlesel gözetleme: Mevcut hukuk yapay zekanın kamuya açık verileri (sosyal medya paylaşımları, konum bilgileri) toplamasını yeterince sınırlamıyor; Claude bu süreci olağanüstü ölçeklendirirdi.
2 Tamamen otonom silahlar: bugünkü modeller yeterince güvenilir değil ve insan denetimi olmadan ateş eden bir sistem için kimse hesap veremez. Amodei’nin özeti: “Bu teknik bir gerçeklik meselesi; felsefi bir pozisyon değil.”
Anthropic “evet” deseydi ne olurdu?
Pentagon’un istediği, insan denetimi olmaksızın her “meşru” amaçla sınırsız kullanımdı.
Somut tablo şu olurdu: insansız hava araçları insan kararı olmadan hedef seçebilir; vatandaşlar YZ ile izlenebilir, bir şablon oluşurdu ve diğer şirketlere hiçbir gerekçe kalmazdı. Üstelik hukuki çelişki ortadaydı: hükümet bir yanda “Claude vazgeçilmez” derken, aynı anda “Claude tehdittir” diyordu. İki argümanın aynı anda geçerli olması hukuken mümkün değil; Anthropic bu çelişkiyi de mahkeme sürecine taşıdı.
Bu kavga dünyaya ne anlattı?
Tarihte ilk kez bir ABD şirketi, sözleşme koşulları nedeniyle yabancı düşmanlara özgü bir statüyle damgalandı. MIT Technology Review’un tespiti keskin: bu çatışma, yapay zekayı kimin ve nasıl kontrol edeceğinin ilk gerçek sınavıydı; tüm taraflar sınıfta kaldı.
Anthropic bu kavgada maddi kaybetti. Kısa vadede 200 milyon dolarlık sözleşme gitti; federal müşterilerinin önemli bir kısmı tehlikeye girdi. Ancak güven ekonomisinde başka bir şey oldu. Yüz milyonlarca insan hangi yapay zekanın kendi değerlerine daha yakın durduğuna karar verdi; o hafta indirilen uygulama rakamları bunu saatler içinde kanıtladı.
Daha derin soru hâlâ yanıtsız:
Etik filtreler olmadan savaşa giren bir yapay zeka, neyin ve kimin için savaşıyor? Bir model hedef seçtiğinde hata yaparsa kim hesap verecek? Hesap verebilirlik yoksa, hukuk neyi düzenliyor?
Bu çatışma, YZ’nin bir araç mı yoksa özerk bir aktör mü olacağını belirleyecek yasaların habercisi. Cevabı hâlâ mevcut olmayan o yasalar verecek. Biz geç kalmadan önce bu soruları sormaya devam etmek zorundayız…
