Araştırmalar ve gazetecilik soruşturmalarına göre işgalci siyonist rejimin Gazze'deki soykırım ve katliamlarda yapay zeka destekli sistemleri hedef belirleme ve saldırı planlama süreçlerinde yoğun biçimde kullanıyor. Bu sistemler arasında 'Lavender' ve 'The Gospel' gibi veri analiz programlarının yer aldığı bildiriliyor. Bu algoritmalar büyük veri tabanlarını analiz ederek şüpheli hedefleri belirliyor ve saldırı listeleri oluşturabiliyor.
Uzmanlar, bu sistemlerin karar alma sürecini hızlandırsa da insan denetiminin giderek zayıfladığına dikkat çekiyor. Yapay zeka destekli sistemler çok büyük veri setlerini analiz ederek hedefleri işaretleyebiliyor ancak bu süreçte siviller ile askeri hedefler arasındaki ayrımın yeterince güvenilir biçimde yapılmadığı yönünde ciddi eleştiriler bulunuyor.
ABD merkezli teknoloji şirketlerinin geliştirdiği yapay zeka modellerinin de bu süreçte önemli rol oynadığı belirtiliyor. Gazetecilik araştırmaları, Microsoft ve OpenAI gibi şirketlerin sağladığı bulut altyapısı ve yapay zeka modellerinin İşgalci siyonist rejim ordusunun operasyonlarında kullanıldığını ortaya koydu.
Bu durum teknoloji sektöründe de büyük bir tartışma yarattı. Pentagon'un bazı yapay zeka şirketlerinden sistemlerinin askeri kullanımına yönelik kısıtlamaları kaldırmasını istediği, hatta bu talepleri reddeden şirketlere karşı yaptırım tehditleri gündeme geldiği bildirildi.
Akademik çalışmalar ve uluslararası kuruluşlar, yapay zeka tabanlı otonom silahların 'kara kutu' niteliği nedeniyle ciddi riskler taşıdığını vurguluyor. Bu tür sistemlerde algoritmanın neden belirli bir hedefi seçtiğinin çoğu zaman açıklanamadığı ve hatalı kararların öngörülemez sonuçlara yol açabileceği ifade ediliyor.
Araştırmacılar ayrıca bu teknolojilerin savaşın siyasi maliyetini düşürdüğünü ve devletlerin askeri operasyonlara daha kolay başvurmasına yol açabileceğini belirtiyor. Bu durumun küresel ölçekte yeni bir yapay zeka silahlanma yarışı riskini artırdığı değerlendiriliyor.
Bazı analistler işgalci siyonist rejimin Gazze'deki soykırım ve katliamlarda yapay zeka destekli savaş teknolojileri için fiili bir test alanı haline geldiğini savunuyor. Araştırmalar, algoritmaların oluşturduğu hedef listelerinin askeri operasyonların hızını artırdığını ancak sivil kayıplar konusunda ciddi etik tartışmalar doğurduğunu gösteriyor.
Bilim insanları ve insan hakları kuruluşları, yapay zekanın savaşta kullanımına ilişkin uluslararası düzenlemelerin hızla oluşturulması gerektiğini vurguluyor. Bazı araştırmacılar ise açıkça yapay zeka destekli ölümcül silahların kullanımının yeni kurallar belirlenene kadar durdurulması gerektiğini' savunuyor.
Uzmanlara göre yapay zekanın savaş alanında kontrolsüz şekilde yayılması, yalnızca mevcut çatışmaları daha yıkıcı hale getirmekle kalmayabilir; aynı zamanda insan kontrolünün giderek azaldığı yeni bir savaş döneminin kapısını da aralayabilir. (İLKHA)




