Dünya geneli yapay zekâ yarışına odaklanmışken, şiddet yanlısı örgütler de sessizce aynı teknolojiyi denemeye başladı. ABD’li güvenlik kurumlarının ve araştırma merkezlerinin son değerlendirmeleri, özellikle IŞİD yanlısı ağlar ile diğer radikal grupların generatif yapay zekâyı propaganda, deepfake ve otomatik radikalleşme için test ettiğine işaret ediyor.

Ulusal güvenlik kaynaklarına göre, bu gruplar bugün Çin veya Rusya gibi devlet aktörlerinin çok gerisinde; ancak “yetenek–niyet” eğrisi yukarı yönlü: Kapasite arttıkça, hem içerik kalitesi hem de erişim alanı genişliyor.

Ne tür AI kullanımları görülüyor?

1. Deepfake propaganda ve sahte haberler

  • IŞİD yanlısı medya ağlarının, yapay zekâ ile üretilmiş sahte sunucular ve haber videoları kullandığı örnekler 2024’ten beri raporlarda yer alıyor.
  • Bu içerikler, gerçek haber formatına benzeyen; ancak manipüle edilmiş görüntü ve seslerle nefret söylemi ve şiddet çağrısını daha “profesyonel” bir çerçeveye taşıyan videolardan oluşuyor.

2. Otomatik radikalleşme ve hedefleme

  • Özellikle Afganistan–Pakistan hattında faaliyet gösteren IŞKP gibi gruplar, chatbot benzeri sistemleri ve metin üretim araçlarını otomatik propaganda ve radikalleşme için deniyor. Hedef; çok sayıda kişiye, düşük maliyetle, kişiselleştirilmiş ideolojik içerik ulaştırmak.

3. Siber operasyonlar için AI destekli araçlar

  • Europol’ün 2025 organize suç tehdit raporu, suç ağlarının ve bazı radikal yapılara yakın grupların AI’ı kimlik hırsızlığı, oltalama (phishing), sahte kimlik üretimi ve zararlı yazılım geliştirme süreçlerinde kullandığını vurguluyor.

Neden daha riskli bir dönem?

Uzmanlar üç kritik noktaya dikkat çekiyor:

  • Giriş bariyeri çok düştü: Önceden propaganda için stüdyo, kamera, montaj bilgisi gerekirken; bugün çoğu temel video, ses ve görsel içerik, herkesin ulaşabildiği generatif AI araçlarıyla dakikalar içinde üretilebiliyor.
  • Doğrulama zorlaşıyor: Deepfake teknolojilerinin gelişmesi, özellikle medya okuryazarlığının düşük olduğu coğrafyalarda “gördüğünü gerçek sanma” riskini büyütüyor; bu da hem yerel gerginlikleri hem de küresel kutuplaşmayı besleyebiliyor.
  • Gelecek senaryoları daha karanlık: NATO ve BM destekli bazı çalışmalar, uzun vadede AI’ın kritik altyapı saldırıları, biyolojik/kimyasal tehditler ve otonom siber saldırı ağları için kullanılabileceği uyarısında bulunuyor.

Devletler ve şirketler ne yapıyor?

  • ABD ve AB’de, AI geliştiricileriyle güvenlik kurumları arasında daha yakın bilgi paylaşımı ve riskli kullanım tespiti için yeni yasal çerçeveler tartışılıyor.
  • Europol, deepfake ve AI destekli suçlara karşı özel bir inovasyon laboratuvarı ve gözlem mekanizması kurdu; hem kolluk birimlerine teknik destek sağlıyor hem de politika yapıcılar için erken uyarı raporları hazırlıyor.
Share.
Exit mobile version