İsrail, abluka altındaki Gazze'ye yönelik saldırılarını 181 gündür aralıksız sürdürüyor. İşgalci İsrail'in 7 Ekim'den bu yana düzenlediği saldırılarda 34 bini aşkın Filistinli katledildi.
Gazze'de kana doymayan İsrail'in yapay zeka sistemini kullanarak hedef belirlediği ortaya çıktı. Altı İsrailli istihbarat görevlisi, İsrail’in savaşta kullandığı yapay zeka temelli Lavender (Lavanta) sistemini ve İsrail güçlerinin sistemi nasıl kullandığını gazeteci Yuval İbrahim’e anlattığı bilgiler +972 Magazine ve Local Call ortaklığında yayımlandı.
Tel Aviv merkezli "+972" ve Local Call'a konuşan kaynaklar, Lavender programının Gazze'deki yaklaşık 2,3 milyon insan hakkında topladığı verileri belirsiz kriterlere göre analiz ederek, kişinin Hamas ile bağlantısı bulunma olasılığını değerlendirdiğini belirtti.
+972'ye konuşan kaynaklar, binada ve çevrede siviller olsa bile kişinin özel mülkiyetinde öldürülmesine izin veren "insan hedef" kavramının daha önce yalnızca "üst düzey askeri hedef"leri kapsadığını, 7 Ekim sonrasında "insani hedef" görülenlerin, tüm Hamas üyelerini kapsayacak şekilde genişletildiğini ifade etti.
Hedef sayısının artması sonucunda, öncekinin aksine hedeflerin tek tek insanlar tarafından incelenip doğrulanması olasılığı ortadan kalktığı için yapay zekaya ihtiyaç duyulduğu kaydedilirken, yapay zekanın yaklaşık 37 bin Filistinliyi "şüpheli" olarak işaretlediği belirtildi.
Lavender'ın Filistinlileri sınıflandırmada "yüzde 90'a kadar başarılı" görülmesi üzerine, sürecin tamamen otomasyona bağlandığını söyleyen kaynaklar, "Binlerce insanı öldürdük. Her şeyi otomasyona bağladık ve hedefleri tek tek kontrol etmedik. İşaretlenen kişiler evlerine adım attıklarında onları bombaladık" sözleriyle insan kontrolünün devreden çıkarıldığını teyit etti.
Kaynaklardan birinin, "önemsiz bir ismi öldürmek için bir evi bombalamalarının istenmesinin, kendisi için çok şaşırtıcı" olduğu yorumu, İsrail'in Gazze'deki sivil katliamının itirafı olarak görüldü.
Kaynaklar alt düzey bir kişiye düzenlenen operasyonda "20 sivil zayiat"a kadar izin verildiğini ve bu sayının süreç içinde sık sık artıp azaldığını belirterek, "orantılılık ilkesinin" uygulanmadığına dikkati çekti.
Öte yandan üst düzey hedefler için söz konusu sayının 100'e kadar çıktığı belirtildi.
Kaynaklar, kendilerine "bombalayabildikleri her yerin bombalanması" emrinin verildiğini ifade ederken, "Üst düzey yetkililere histeri hakimdi. Nasıl tepki vereceklerini bilemiyorlardı. Tek bildikleri Hamas'ın kapasitesini kısıtlamak için deli gibi bombalamaktı." dedi.
Lavender'ı kullanmış olan B. adlı üst düzey asker, programın "hata payının yüzde 10 civarında olduğunu" iddia ederek, zaman kaybının önlenmesi için insanlar tarafından kontrol edilme zorunluluğunun olmadığını belirtti.
B, hedeflerin az olduğu günler uygulamanın kapsamının genişletildiğini, daha kalabalık bir kitlenin hedef alındığını belirterek, "Hamas üyesi tanımını daha da genişletildiğinde, uygulama her türlü sivil savunma personelini ve polis memurlarını hedef almaya başladı. Bu kişiler Hamas'a yardım etse de İsrail askerlerini gerçekten tehlikeye atmıyordu." dedi.
Sistemin eksikliklerine dikkati çeken B, "Eğer hedef kişi telefonunu başka bir kişiye verdiyse, o kişi tüm ailesiyle evinde bombalanıyordu. Bu çok sık oldu. Lavender'ın en sık yaptığı hatalardan biri buydu" diye konuştu.
Öte yandan, "Where's Daddy?" adı verilen bir diğer yazılımın, binlerce kişiyi eş zamanlı takip ederek, evlerine girdikleri zamanı İsrailli yetkililere bildirdiği belirtildi.
Bu yazılım sayesinde hedef alınan kişilerin evlerinin bombalandığı kaydedilirken, "Diyelim ki bir evde bir Hamas üyesi ve 10 sivil olduğunu hesapladınız, genellikle bu 10 kişi kadın ve çocuk olur. Yani saçma bir şekilde, öldürdüğünüz insanların çoğu kadın ve çocuk oluyor" ifadeleri kullanıldı.
Bu sistemin de hesaplama hataları yaptığını ifade edilirken kaynaklardan biri, "Çoğu kez hedeflenen kişi, bombaladığımız evde olmuyordu bile. Sonuç olarak bir aileyi hiç uğruna öldürmüş oluyordunuz." açıklamasını yaptı.
Kaynaklar ayrıca "pahalı silahlardan tasarruf etmek" amacıyla daha düşük rütbeli kişilerin "güdümlü akıllı bombalar" yerine "güdümsüz bombalarla" hedef alındığını ve bunun sonucunda hedef alınan kişinin bulunduğu ve çevresindeki binaların yıkılması sebebiyle birçok sivilin hayatını kaybettiğini söyledi.
Güdümsüz bombaların kullanımına ilişkin konuşan kaynaklardan biri de "Saldırıları genellikle güdümsüz bombalarla yapıyorduk ve bu da kelimenin tam anlamıyla tüm evi içindekilerle yok etmek anlamına geliyordu. Sistem yüzünden hedefler hiç bitmiyor." dedi.
Konuya ilişkin Al Jazeera'ya konuşan, Katar'daki Hamid bin Halife Üniversitesinde Orta Doğu Çalışmaları ve dijital beşeri bilimler alanında çalışan Prof. Marc Owen Jones, "İsrail'in, sivillerin hayatı hakkında karar vermeye yardımcı olması için şeffaf bir değerlendirmeden geçmemiş, test edilmemiş yapay zeka sistemleri kullandığı giderek daha açık hale geliyor" ifadesini kullandı.
Yapay zeka sistemi kullanan İsrailli yetkililerin, hedef seçimini yapay zekaya devrettiklerini ve "ahlaki sorumluluktan kaçınmak" için bu sistemi kullandıklarını öne süren Jones, sistemin "sivil kayıpları azaltmak için değil daha fazla hedef bulmak için" kullanıldığını söyledi.
Jones, sistemi işleten yetkililerin bile yapay zekayı bir "öldürme makinası" olarak gördüğünü belirterek, "müttefikleri İsrail'e baskı yapmaz" ise bu ülkenin saldırılarda yapay zeka kullanımına son vermesinin düşük bir ihtimal olduğunu vurguladı.
Olayı yapay zeka destekli soykırım olarak niteleyen Jones, "Savaşlarda yapay zeka kullanımı için bir moratoryum çağrısı yapılması gerekiyor" dedi.
Katil İsrail saat başı 4 Filistinli çocuğu ölüyor
İşgalci İsrail güçleri 7 Ekim'den bu yana Batı Şeria'da 8 bin 30 kişiyi gözaltına aldı