menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Yapay zekâ cephede

28 0
04.03.2026

Yapay zekâya iyimser bakanlar, bu teknolojinin hastalıklara erken tanı koyma ve tedavi süreçlerindeki potansiyelini öne çıkarıyor. Bu, işin bir yüzü. Öte yanda ise askeri kullanım var. Wall Street Journal gazetesine konuşan yetkililer, ABD Merkez Komutanlığı dahil dünya genelindeki komutanlıkların Anthropic şirketinin Claude adlı yapay zekâ aracını kullandığını doğruladı. Şirketin kurucusu Dario Amodei, bir televizyon söyleşisinde “generaller ve amiraller teknolojimizin ordunun kabiliyetleri için bir ‘devrim’ niteliğinde olduğunu söylüyor” dedi. Amodei Amerikan Ordusu’na özel yapay zekâ modelleri ürettiklerini, ordunun yanı sıra istihbarat birimlerine teknoloji sağladıklarını ve ihtiyaç duyulan yeteneklerin %99’unu sağladıklarını belirtiyordu. Tartışma ise o yüzde 1’lik kısımda başlıyor.

PENTAGON SINIRLANMAK İSTEMİYOR

Anthropic, teknolojisinin ABD içinde toplu gözetim amacıyla kullanılmasına karşı çıktı. İran saldırısı ve Venezuela lideri Maduro’nun rehin alındığı operasyonda da kullanıldığı belirtilen sistemlerin, insansız silahlara sınırsız biçimde entegre edilmesine de itiraz etti. Pentagon’un talep ettiği “koşulsuz kullanım” yetkisi şirketle Savaş Bakanlığı arasında gerilim yarattı.

ABD Başkanı Trump, sosyal medyada “radikal solcu bir şirketin büyük ordumuzun nasıl savaştığını dikte etmesine izin vermeyeceğim” diyerek Anthropic modelinin federal kurumlarda kullanımını yasakladı. Pentagon da iş yaptığı şirketlere bu modeli kullanmamaları yönünde çağrı yaptı.

Bu boşluğu rakip OpenAI doldurdu. Daha önce yapay zekânın etik kullanımını savunan şirketin yöneticisi Sam Altman, tartışmalı anlaşmayı Pentagon’la imzaladı. Altman açıklamasında etik kaygılarının giderilmesi konusunda anlaştıklarını belirtse de bunun konuyu takip edenleri ikna ettiğini söylemek güç. Bir önemli ayrıntı, şirketler, kendilerini Amerikan yasalarının bağladığını belirtiyor, yani söz konusu olan ABD vatandaşları dışındakilerin kitlesel gözetimi olunca bu konuda bir sınırlama yok.

YAPAY ZEKÂYLA SEÇİLEN HEDEFLER

Yapay zekâ teknolojilerinin askeri kullanımına güncel örneklerden biri Ukrayna Savaşı. ABD merkezli Stratejik ve Uluslararası Çalışmalar Merkezi, geçen yıl yayımladığı bir raporda özellikle insansız hava araçları (iha) ile toplanan istihbaratın Rus birliklerine karşı Ukrayna’nın hedefleme operasyonlarında giderek daha büyük bir rol oynadığını belirtti. Uydu görüntüleri, açık kaynak verileri, iha kayıtları ve sahadan gelen raporları analiz etmek ve bunun sonucunda hedef belirlemek için yapay zekâ kullanılıyor. Ayrıca drone kalkış ve inişlerinin otomasyonu ve hedef tespitine destek için de yapay zekâ devrede. İnsan denetimi sürse de tespit ile saldırı arasındaki süre yaklaşık 30 saniyeye kadar düşmüş durumda.

Yapay zekânın savaşta kullanımına yönelik en kapsamlı ve tartışmalı uygulama ise bir “öldürme laboratuvarına” dönüşen Gazze’de görüldü. Guardian gazetesindeki bir habere göre İsrail “Lavender” adı verilen sistemle Gazzelilerin Hamas’la görünür bağlantılarına dayanarak 37.000 potansiyel hedef belirledi. “Savaş zamanında her hedefi titizlikle seçecek zaman yok” diyen bir istihbarat yetkilisi bu hedeflemeyi şöyle anlatıyordu: “Yapay zekâ kullanmanın hata payını kabullenmeye; tali hasar riskini, sivillerin ölmesini ve yanlışlıkla saldırma ihtimalini göze almaya ve bununla yaşamaya razı oluyorsunuz”. Bir başka sistemle binalar hedefleniyor, “where is daddy” (baba nerede?) adlı araçla ise hedeflenen kişilerin takibi yapılıyor ve evlerine girdiklerinde bombalanabilmeleri için askeri birliklere sinyal gönderiliyordu. Çok sayıda kişinin hedeflendiği bir ortamda büyük bir yığın halinde gelen gözetleme ve istihbarat verilerinin analizi teknolojiye devrediliyor, insan faktörü son onay veren merci olarak devreye giriyordu.

Bu noktada özellikle Palantir adlı şirkete değinmek gerekiyor. Kurucular Peter Thiel ve Alex Karp aşırı sağ görüşlerini gizlemiyor, Trump yönetimine destekten geri durmuyor. Şirket; sensörlerden, uydu görüntülerinden, iletişim akışlarından ve istihbarat raporlarından gelen devasa veriyi tek bir operasyonel çerçevede birleştiren sistemler geliştiriyor. İki yıl önce İsrail Savunma Bakanlığı ile “stratejik ortaklık” anlaşması yaptığı duyurulan şirket, ABD Savunma Bakanlığı’na da yapay zekâ temelli sistemler geliştiriyor. Son olarak, Pentagon’un önümüzdeki on yıl ihtiyaç duyacağı teknolojik yetenekleri sağlamak için 10 milyar dolarlık bir anlaşmaya varıldığı açıklanmıştı.

DİJİTAL ÜSLER: VERİ MERKEZLERİ VE BULUT SİSTEMİ

Büyük teknoloji şirketlerinin yapay zekâ modellerini belli orduların kullanımına sunması savaşlardaki rollerinin sadece bir bölümü. Bu modellerde kullanılacak verilerin depolanması, işlenmesi, analiz edilmesi için bulut sistemine ve veri merkezi altyapısına ihtiyaç var.

Google ve Amazon’un 1.2 milyar dolarlık Nimbus Projesi başta olmak üzere Oracle ve Microsoft gibi şirketler İsrail’e yapay zekâ modelleri için kritik önemdeki yüksek kapasiteli hesaplama için bulut altyapısı hizmetleri sunuyor.

İsrail ordu istihbaratından bir birimin Gazze ve Batı Şeria’da her gün yapılan milyonlarca telefon konuşmasının verisinin Hollanda’daki Microsoft veri merkezinde saklandığını ve bunun için şirketin bulut hizmetini kullandığını yine İsrail’deki araştırmacı gazeteciler ortaya çıkarmıştı. Medyada yer alan haberler üzerine Microsoft soruşturma yürüttü ve bu erişimi kesti. Bir habere göre, bunun üzerine İsrail Amazon hizmetine yöneldi.

Anthropic şirketinin Pentagon’la yaşadığı gerilimin ardından rakibinin anlaşma yapması gibi piyasada birbirinin yerini doldurmaya hazır birkaç büyük aktör var. Çalışanlar zaman zaman bu projelere itiraz etse de ordular ve teknoloji şirketleri arasındaki iş birlikleri hız kesmiyor. Etik boyutları tartışmalı projelerde kimi zaman açıktan, kimi zaman gizli iş birliği yapıyorlar. Sundukları büyük kapasitelerin nasıl kullanıldığını her zaman denetle(ye)miyorlar.

Kirli çamaşırlar bir avuç gazeteci tarafından ortaya serildiğinde de genellikle “biz sivil hizmetler için anlaşmıştık, askeri kullanımından haberimiz yoktu” gibi bir açıklama geliyor. Hassasiyet çoğunlukla şirket merkezlerinin bulunduğu ABD’deki vatandaşlar söz konusu olduğunda gösteriliyor. ABD dışındaki yerler için, bir denetim ve düzenleme baskısı yoksa aynı ölçüde hassasiyet ve sınırlayıcı bir yaklaşım görülmeyebiliyor.

TEKNOLOJİK ÜSTÜNLÜKTE ETİK SINIR

Bugün gelinen noktada yapay zekâ yalnızca bir verimlilik aracı değil, aynı zamanda askeri bir güç çarpanı. Bu teknolojiyi üreten, geliştiren ve kendi koşullarıyla erişebilen aktörler, askeri ve stratejik alanda belirgin bir asimetrik üstünlük sağlıyor. Veri merkezleri ve çipler artık birçok klasik silah sisteminden daha önemli ve değerli.

Dahası, hedef tespitinden saldırı kararına kadar uzanan zincirde insanın rolü daraldıkça, öldürme eyleminin önemli oranda makinelere devredilebileceği bir eşiğe yaklaşılıyor. Bu tablo, geçen yüzyıldaki nükleer rekabeti hatırlatıyor: Atom bombası da başlangıçta caydırıcılık ve güvenlik söylemiyle savunulmuş, ancak kısa sürede insanlığın ortak tehdidine dönüşmüştü. O dönemde silahsızlanma ve denetim başta imkânsız görünse de zamanla zorunluluk haline geldi. Bugün yapay zekâ alanında da benzer bir uluslararası etik çerçeve ve bağlayıcı denetim mekanizması talep etmek hayalcilik değil; aksine, makinelerin karar verdiği bir savaş düzenine sürüklenmemek için hayati bir ihtiyaç.


© Birgün