menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Trump, İran'ı "yapay zekâlı dezenformasyon" ile suçlarken, ABD yapay zekâyı öldürmek için kullanıyor mu?

23 0
18.03.2026

ABD Başkanı Donald Trump, İran'ı, Tahran'ın ABD'ye karşı savaş başarılarını abartan sahte görüntüler ve videolar oluşturmak için yapay zekâ kullanmakla suçladı ve yapay zekâ teknolojisinin propaganda için güçlü bir araç haline gelebileceği konusunda uyardı.

Yapay zekâyı savaşta insanları hedefleme için kullanan bir ülkenin başkanının bu suçlaması trajikomik değil mi?

Air Force One uçağında gazetecilere yaptığı açıklamalarda ve Truth Social platformundaki paylaşımlarında Trump, İran'ın savaş alanındaki zaferlerin ve kamuoyu desteğinin yanıltıcı görsellerini üretmek için yapay zekâ kullandığını söyledi. Trump, teknolojiyi potansiyel bir "dezenformasyon silahı" olarak tanımlarken, "Yapay zekâ çok tehlikeli olabilir ve onunla çok dikkatli olmalıyız" dedi.

Bu durumda şunu soralım; "madem sahte ise, bölgedeki üslere, İsrail'de bombalandığı bildirilen yerlere, diğer saldırı görüntüsü olan yerlere, neden basını çağırıp, gerçeği göstermiyorsunuz?". Bunu yaparlarsa, dezenformasyon olup olmadığını görürüz. Ama dün yazdık, açık istihbarat kaynakları (OSINT) bile engellenmiş durumda.

Yapay zekâ tarafından üretilen savaş propoganda görüntüleri iddiaları

Trump, İran medyasının hiç gerçekleşmemiş olayları gösteren ve yapay zekâ tarafından üretilen görüntüleri yaydığını iddia etti. Örnek olarak, ABD güçlerine saldıran "kamikaze botları"nın ve ABD uçak gemisi USS Abraham Lincoln'e yapılan bir saldırıyı gösteren görüntüleri söyledi.

Ayrıca, İran'ın yeni Ruhani Lideri Mojtaba Hamenei'yi destekleyen mitinglerdeki büyük kalabalıkları gösteren görüntüleri sorgulayarak, bu sahnelerin tamamen yapay zekâ tarafından üretildiğini iddia etti.

Trump ayrıca, batı medyasını, yapay zekâ tarafından üretilen bu tür içeriğin yayılmasına yardımcı olmakla suçladı, ancak bu iddialarına karşılık bir kanıt sunamadı.

Modern propagandada, yapay zekânın artan rolü

Araştırmacılar, ABD-İsrail ikilisinin İran'a yaptıkları saldırının, üretken yapay zekâ (GenAI) araçlarının çevrimiçi propaganda kampanyalarında yaygın olarak kullanıldığı ilk büyük çatışmalardan biri olduğunu ve kamuoyu algısını etkilemek için tasarlanmış DeepFake ya da değiştirilmiş videoların ve sentetik görüntülerin hızlı bir şekilde üretildiğinin görüldüğünü söylüyorlar.

Küresel hükümetler, yapay zekâ destekli dezenformasyon konusunda, giderek artan uyarılarda bulunurken, uzmanlar bu teknolojilerin devlet dışı aktörler, etki ağları ve çevrimiçi topluluklar tarafından da kullanıldığını ve bu durumun, savaş alanını her zamankinden daha karmaşık hale getirdiğini belirtiyorlar.

Dezenformasyon iddialarının kendisi dezenformasyon olabilir mi?

Evet bu da çok görülen bir durum. Propoganda savaşında gerçek bilgiyi "dezenformasyon" olarak etiketleyip itibarsızlaştırmak, başlı başına bir tür "dezenformasyon" olabilir.

Bu "gerçek bilgiyi, dezenformasyonmuş gibi" sunan stratejiye "Meta-dezenformasyon” deniliyor. Tanımlarsak, "bilginin kendisine duyulan güveni manipüle etmek" anlamına geliyor. Yani, gerçek kanıtları sahte olarak nitelendirmek, şüpheyle boğmak ve neyin doğru olduğu konusunda kafa karışıklığı yaratmak.

Modern çatışmalarda, hem dezenformasyon hem de meta-dezenformasyon görülüyor. Gerçek videolar "dezenformasyon" denilerek reddedilip, yerine yapay zekâ ile sahte videolar ve görüntüler oluşturuluyor. Bu durumda, gerçeği ayırt etmek zorlaşıyor. Çünkü saldırılan şey "güven" oluyor.

Gerçek içeriği "dezenformasyon" olarak adlandırmak yoluyla, makul inkar edilebilirlik, tepkiyi geciktirme, tereddüt yaratma ve zaman kazanım sağlanıyor. Ayrıca izleyici kitlesi parçalanıyor ve farklı gruplar farklı gerçeklere inanmaya başlıyor. Bilgi bombardımanı altında aşırı yüklenen  insanlar olayları doğrulamaya çalışmayı bırakıyor ve konudan uzaklaşıyor (mesela seçimde oy kullanmayacağım ben diyor). 

Yapay zekâ çağındaki propoganda savaşında önemli bir durum bu. Sahte içerik var olduğunda, gerçek içeriği inkar etmek daha kolay hale geliyor. Çünkü insanlar "Bu yapay zekâ olabilir" ya da "Artık hiçbir şeye güvenemeyiz" diye düşünmeye başlıyor. Son 15-16 günde, bu tür düşündüğünüz günler olmadı mı? Bu nedenle gerçek kanıtlar bile gücünü kaybediyor.

Bu nedenle OSINT ve profesyonel analistler tek videolara güvenmezler. Çoklu bağımsız kaynakları, coğrafi konum belirlemeyi (GPS), zaman doğrulamasını (gölgeler, hava durumu, meta veriler) ve uydu görüntülerinin çapraz referanslanmasını kullanıyorlar. Yani gerçek, tek bir içerik parçasından değil, birçok sinyalden oluşan bir olasılık haline gelir.

Bu arada dikkat; yapay zekâ ve dezenformasyonun yükselişi ile, en büyük risk sahte videolar değil, "Ortak gerçekliğin çöküşü"dür. İnsanlar her şey sahte veya her şey propaganda demeye başladığında, hesap verebilirlik zayıflar, manipülasyon kolaylaşır, anlatılar gerçeklerin yerini alır.

Sonuçta yapay zekâ ve dezenformasyon çağında asıl büyük soru şu; "insanların neyin gerçek olduğuna inanmasını, kim kontrol ediyor?"

Medya kapsamı üzerindeki siyasi tartışma

Trump'ın yorumları ayrıca Beyaz Saray ile büyük haber kuruluşları arasındaki gerilimi de artırdı. Amerikalı gazetecileri, savaşla ilgili yanlış haberler yapmakla eleştirdi ve Federal İletişim Komisyonu (FCC) Başkanı Brendan Carr'ın yanlış bilgi yaymakla suçlanan yayın kuruluşlarının yayın lisanslarını gözden geçirilmesi  önerisini destekledi (bunu nereden hatırlıyoruz?).

Medya grupları ve bazı ABD milletvekilleri ise, yayıncılara yönelik tehditlerin basın özgürlüğü konusunda endişeleri artırabileceğini savunarak bu açıklamaları eleştirdi.

Sadece propogandada mı: Yapay zekânın savaşlarda artan rolü

Trump, İran'ı yapay zekâyı propoganda yapmakla suçlarken, asıl ABD ve İsrail savaşta yapay zekâyı ve de sadece propoganda şeklinde değil, öldürme amaçlı olarak hedef seçerken kullanıyor.

Gerçi, ABD veya İsrail tarafından "İran'daki insanları hedef almak" için özel olarak kullanılan tek bir yapay zekâ sistemine dair kamuoyuna açık teyit edilmiş bir bilgi yok. Ancak, modern savaşta hedefleri belirlemeye, önceliklendirmeye ve izlemeye yardımcı olan bilinen yapay zekâ sistemleri ve platformları hayatımıza girmiş durumda. Bunların Gazze'de kullanıldığı görüldü. İran operasyonlarında da kullanıldığı düşünülüyor.

İsrail tarafından kullanılan birkaç sistem yaygın olarak rapor edildi (özellikle Gazze ile ilgili haberlerde). Bunlar

İsrail askeri istihbaratı (8200 birimi) tarafından geliştirilen “The Gosbel (İncil - Habsora)". Hedef listeleri (kişiler, binalar, altyapı) oluşturmak için büyük veri kümeleri (kişisel veriler) kullanıyor. İnsanlardan çok daha hızlı bir şekilde günde birçok hedef üretebiliyor ama otonom olarak öldürmüyor. Onun yerine insan analistlere öneriler sunuyor. Bireyleri potansiyel militan olarak tanımlamak için kullanılan “Lavender (Lavanta)”. İnsanların iletişim verilerini, sosyal ağ mesajlarını ve davranış kalıplarını (kişisel veri) kullanarak, binlerce kişiyi hedeflemek için işaretlediği belirtildi Kişilerin yerini tespit eden, evde oldukları zamanı belirleyerek saldırı zamanlamasını belirlemeye yardımcı olan "Where' Daddy (Baba Nerede?)”.

Bu sistemler, otonom silahlar değil, karar destek araçlarıdır (DSS).

Amerika Birleşik Devletleri tarafından kullanılan "Yapay zekâ Sistemleri"ne gelince.

Maven Projesi : Pentagon'un 2017'de başlatılan ana yapay zekâ programlarından biridir. Drone ve uydu görüntülerini, sensör verilerini, nesneleri, araçları ve insanları tanımlamak için kullanılır. Palantir ile entegre edilerek, makine öğrenimi yoluyla verileri analiz ediyor (Maven kelimesi Yiddish dilinde, "Anlayan Kişi" anlamına gelir). Birden fazla kaynaktan gelen istihbaratı birleştirmek için Yapay zekâ + Veri Platformları (örneğin Palantir sistemleri) kullanılır. Böylece, kişi gruplarını haritalar, hedefleri önceliklendirir ve saldırı planlamasına yardımcı olur. Son zamanlardaki bazı raporlar, İran'ı içeren çatışmalarda hedef belirleme kararlarını hızlandırmak için büyük yapay zekâ modellerinin ve veri analiz sistemlerinin kullanıldığını raporluyor.

Kamuya açık kaynaklar, yapay zekânın hala büyük veriyi analiz etmek, kalıpları tespit etmek ve hedefler önermek için kullanıldığını ve saldırıları yetkilendirenlerin hala insanlar olduğunu yazıyor. Ama eleştirmenler, hem yanlış ya da eksik veri yüzünden önyargılı hedef belirleme olabileceğini, hem de yapay zekânın hedef belirlemeyi "endüstriyelleştirebileceğini" düşünüyorlar.

Burada bir soru da şu; yapay zekâ bir hedef önerirse, kim sorumludur? 

Acaba yapay zekâ hâlâ saldırı kararı vermiyor mu?

Yukarıda her ne kadar yapay zekânın sadece hedefleme yaptığını yazsak da, kamuoyunda otonom hedeflemeli olaylardan şüphelenilen durumlar mevcut. Gizli bilgilere erişim olmasa bile, OSINT analistleri, tamamen insan kaynaklı olamayacak kadar hızlı, tutarlı veya veriye dayalı kalıpları arayarak, yapay zekâ destekli hedeflemenin kullanımını ortaya çıkarabilir. Dün OSINT platformlarının Ortadoğu'da çalıştırılmadığını yazmıştık. Bir neden İsrail ve ABD'nin kendi toplumlarına söylemek istemediklerini ortaya çıkarmalarını engellemek olabilir ama bir neden de bu tür tespitlerin engellenmesi olabilir. Yarın OSINT dedektiflerinin işlerini nasıl yapabildiklerini  detaylandıracağım.


© T24