menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Anthropic - Pentagon çatışmasının perde arkası - Vicdanın bedeli

18 0
07.03.2026

Yapay zekanın han­gi değerlerle kod­lanacağı çatışması üzerinden yapılan ilk büyük savaşı şimdilik bitti ancak kazanan kim, henüz belli değil!

Tüm dünya 3. Dün­ya Savaşı çıkar mı, yok­sa tüm bölgeye mi ya­yılır, başka hangi ülke­ler dahil olur, vb. diye büyük bir gerginlik içindeyken ve insanlık ABD-İsrail-İran saldırılarına kit­lenmişken arka planda da müt­hiş bir teknoloji etiği mücadelesi sürüyor. Kimse tekno-magazin haberinin ötesine geçemiyor. Oysa burada tartışılan şey bir sözleşme değil: yapay zekanın ölüm emri verip veremeyeceği, kimin izlenip izlenemeyeceği ve buna kim karar vereceği.

Oysa olay, göründüğünden çok daha derin ve kritik. Anlayabil­mek için tablodaki kişilerle ve şir­ketleriyle, yarattıkları teknolojiy­le ilgili gelişmelere tarihi biraz ge­ri sararak bakmakta fayda var. Bu günlere adım adım gelindi. Her şey bir ültimatomla başlamadı.

Mart 2014. Future of Life Ins­titute (FLI — Yaşamın Geleceği Enstitüsü), MIT kozmologu Max Tegmark ve Skype kurucu ortağı Jaan Tallinn tarafından kuruldu. Misyon masum görünüyordu: ya­pay zekanın yarattığı varoluş­sal riskleri azaltmak, regülas­yon geliştirmek, farkındalık yaratmak. Musk danışma kuru­luna girdi; 2015’te 10 milyon do­lar bağışladı. Dünyanın ilk akade­mik YZ güvenliği hibe programı bu parayla başladı. Musk o yıllar­da sahneye çıkıp yapay zekanın “insanlığın en büyük varoluş­sal tehdidi” olduğunu söylüyor­du; FLI onun bu duyarlılığının kurumsal yüzü gibiydi.

Yıllar içinde ise perde aralan­dı: neo-Nazi bir yayın organına hibe teklifi skandalı, araştırma­ları atıfta bulunulan YZ uzman­larının mektubu sahiplenmeme­si, sektör çıkarlarını koruduğu yönündeki suçlamalar “insanlığı kurtarma” söyleminin arkasın­da kimin, ne için konuştuğunu sorgulatır hale geldi. Aslında da­ha LLM’ler (büyük dil modelle­ri) ortaya çıkmadan bu konu tar­tışmalı hale gelmişti. Anthropi­c-Pentagon çatışmasında da aynı soru güncelliğini korudu.

Aralık 2015. OpenAI, kâr ama­cı gütmeyen bir araştırma kuru­luşu olarak Elon Musk önder­liğinde kuruldu. Elon Musk ve Sam Altman eş başkan; Ilya Sut­skever, Greg Brockman ve diğer 9 kurucu da takıma katıldı. Misyon tek cümlede: “Yapay zekayı in­sanlık yararına geliştirmek” idi. Bir milyar dolarlık ilk taahhüt açıklandı. Gerçekte toplanan pa­ra çok daha azdı.

2018. Musk yönetim kurulun­dan ayrıldı. Resmi gerekçe Tesla ile çıkar çatışması. Gerçek: Alt­man’ın reddettiği, tek başına şir­keti yönetme talebi ve stratejik anlaşmazlıklar.

2019. Microsoft 1 milyar do­lar yatırdı. OpenAI “sınırlı kâr” (capped-profit) yapısına geçti. Kuruluş misyonundaki ilk kırıl­ma burada yaşandı.

Aralık 2020. Dario Amodei OpenAI’dan ayrıldı. GPT-2 ve GPT-3 araştırmalarını yönet­miş, Araştırma Başkan Yardım­cısı olarak görev yapmıştı. Kar­deşi Daniela Amodei de güvenlik ve politika ekibini yönetiyordu. İkisi de kurumun hızla ticarileş­mesinden ve Microsoft bağımlı­lığından rahatsızdı.

2021. Kardeşler, eski OpenAI çalışanlarından oluşan 7 kişilik ekiple Anthropic’i kurdu. Slogan­ları netti: “Sorumlu yapay zeka.” Claude serisi bu altyapı üzerine inşa edildi.

Kasım 2022. ChatGPT kulla­nıma açıldı. İlk beş günde 1 mil­yon kullanıcı. Dünya adeta şok yaşadı; yapay zekayla ilk kez bu ölçekte yüzleşti. Hiçbir teknolo­ji bu kadar kısa sürede bu kadar çok insana ulaşmamıştı.

Ocak 2023. Microsoft 10 mil­yar dolar ek yatırım yaptı. Ope­nAI artık geleneksel anlamda bir teknoloji devi gibiydi.

Kasım 2023. Yönetim kurulu Altman’ı kovdu. Gerekçe: “Şeffaf olmayan iletişim.” Beş gün içinde Satya Nadella, Altman ve Brock­man’ın Microsoft’a katılacağını duyurdu. OpenAI çalışanlarının yaklaşık 738’i istifa tehdidin­de bulundu. Yönetim kurulu geri adım attı; Altman yeni bir kurulla göreve döndü.

2023-2024. Kurucu kadro OpenAI’dan birer birer ayrıldı: Jan Leike, John Schulman, Durk Kingma.

Bu sırada Musk ise xAI’ı kur­du; Grok’ü piyasaya sürdü. Anth­ropic hızla büyüdü. Claude, ku­rumsal piyasada yerini sağlam­laştırdı.

Temmuz 2024. Palantir (ve­ri analitiği ve savunma altyapı­sı şirketi) ile Anthropic anlaştı. Claude gizli askeri ağlara enteg­re edildi.

Temmuz 2025. Pentagon, Anthropic ile 200 milyon dolar­lık resmi sözleşme imzaladı. İki kısıtla: otonom silahlar ve kit­lesel gözetleme dışında her türlü yasal kullanıma açık.

3 Ocak 2026. ABD Özel Kuvvet­leri, “Operasyon Resolve - Kararlı­lık Harekâtı” adıyla Venezuela’da Maduro’yu yakaladı. Wall Stre­et Journal ve Axios’un haberleri­ne göre Claude, Palantir altyapısı üzerinden operasyonda kullanıldı. Tarihte ilk: gizli bir askeri operas­yonda ticari bir YZ modeli. Anth­ropic bu iddiayı doğrulamadı; ihlal tespit etmediğini açıkladı.

24 Şubat 2026. Savunma Ba­kanı Pete Hegseth, Amodei’ye doğrudan ultimatom verdi: “Her türlü meşru amaçla kullanım için tüm kısıtları kaldır.” Aksi takdir­de 200 milyon dolarlık sözleşme iptal edilecek, Anthropic “teda­rik zinciri riski” ilan edilecekti.

26 Şubat 2026. Amodei red­detti: “Vicdanen kabul edeme­yiz. Pentagon askeri kararları verir, bunu anlıyoruz. Ancak dar bir alanda yapay zeka de­mokratik değerleri zedeleye­bilir.” Pentagon’un önerdiği ek düzenlemelerin “görünüşte uz­laşı, özünde boş laflar” olduğunu da belgeleriyle ortaya koydu.

27 Şubat, saat 17.01. Süre dol­du. Trump Truth Social’da yaz­dı: “Her federal kurum Anthropi­c’i derhal bıraksın.” Hegseth ise Anthropic’i “tedarik zinciri riski” ilan etti. ABD tarihinde bir Ame­rikan şirketine ilk kez bu statü verildi; bu statü normalde yaban­cı düşmanlara özgüdür. Altı aylık geçiş süresi tanındı. Anthropic dava açacağını açıkladı.

Aynı gece. Sam Altman duyur­du: OpenAI, Pentagon ile anlaştı. Süre dolmasından yalnızca bir­kaç saat sonra.

28 Şubat – 3 Mart. Küresel çapta büyük bir OpenAI karşı­tı hareket başladı. Aynı anda da Claude, App Store’da birinci sıra­ya çıktı; ChatGPT’yi geçti. Sıra­dan insanlar ve sivil inisiyatifler, duyarlılığa sahip çıktıklarını en net biçimde gösterdi. ChatGPT kaldırmaları tek günde %295, bir yıldız (en düşük puan – kit­lesel protesto) yorumları %775 arttı. #CancelChatGPT hareketi 1,5 milyonu aştı. Claude ücretsiz kullanıcıları yılbaşından bu yana %60 büyüdü; ücretli aboneler ise ikiye katlandı.

Pentagon hangi yapay zeka araçlarını kullanıyor?

OpenAI, Google ve Musk’ın xAI’ı savunma bakanlığıyla an­laşmalı; hepsi “her meşru amaç­la” kullanıma açık kabul etti. Pa­lantir istihbarat ve veri analiti­ği altyapısını sağlıyor. Microsoft bulut sistemlerini ve ofis operas­yonlarını yönetiyor.

Anduril otonom savunma plat­formları üzerine çalışıyor. Görev­ler: istihbarat belgelerinin anali­zi, uydu görüntülerinin değerlen­dirilmesi, lojistik planlama, siber savunma ve hedefleme desteği.

Claude’un kapasitesi belge özetlemesinden otonom insan­sız hava araçlarını yönlendirme­ye kadar uzanıyordu.

Anthropic neden hayır dedi?

İki somut gerekçe vardı; ideo­loji değil.

1 Kitlesel gözetleme: Mev­cut hukuk yapay zekanın ka­muya açık verileri (sosyal med­ya paylaşımları, konum bilgileri) toplamasını yeterince sınırlamı­yor; Claude bu süreci olağanüstü ölçeklendirirdi.

2 Tamamen otonom silah­lar: bugünkü modeller yete­rince güvenilir değil ve insan de­netimi olmadan ateş eden bir sis­tem için kimse hesap veremez. Amodei’nin özeti: “Bu teknik bir gerçeklik meselesi; felsefi bir pozisyon değil.”

Anthropic “evet” deseydi ne olurdu?

Pentagon’un istediği, insan de­netimi olmaksızın her “meşru” amaçla sınırsız kullanımdı.

Somut tablo şu olurdu: insan­sız hava araçları insan kararı ol­madan hedef seçebilir; vatandaş­lar YZ ile izlenebilir, bir şablon oluşurdu ve diğer şirketlere hiçbir gerekçe kalmazdı. Üstelik huku­ki çelişki ortadaydı: hükümet bir yanda “Claude vazgeçilmez” der­ken, aynı anda “Claude tehdittir” diyordu. İki argümanın aynı anda geçerli olması hukuken mümkün değil; Anthropic bu çelişkiyi de mahkeme sürecine taşıdı.

Bu kavga dünyaya ne anlattı?

Tarihte ilk kez bir ABD şirke­ti, sözleşme koşulları nedeniy­le yabancı düşmanlara özgü bir statüyle damgalandı. MIT Tech­nology Review’un tespiti kes­kin: bu çatışma, yapay zekayı kimin ve nasıl kontrol edece­ğinin ilk gerçek sınavıydı; tüm taraflar sınıfta kaldı.

Anthropic bu kavgada maddi kaybetti. Kısa vadede 200 mil­yon dolarlık sözleşme gitti; fede­ral müşterilerinin önemli bir kıs­mı tehlikeye girdi. Ancak güven ekonomisinde başka bir şey ol­du. Yüz milyonlarca insan han­gi yapay zekanın kendi değer­lerine daha yakın durduğuna karar verdi; o hafta indirilen uygulama rakamları bunu sa­atler içinde kanıtladı.

Daha derin soru hâlâ yanıtsız:

Etik filtreler olmadan savaşa giren bir yapay zeka, neyin ve ki­min için savaşıyor? Bir model he­def seçtiğinde hata yaparsa kim hesap verecek? Hesap verebilir­lik yoksa, hukuk neyi düzenliyor?

Bu çatışma, YZ’nin bir araç mı yoksa özerk bir aktör mü olacağı­nı belirleyecek yasaların haber­cisi. Cevabı hâlâ mevcut olmayan o yasalar verecek. Biz geç kalma­dan önce bu soruları sormaya de­vam etmek zorundayız…


© Dünya