Surse din serviciile de informații au dezvăluit cum un program de inteligență artificială, denumit Lavandă, a fost folosit pentru identificarea a 37.000 de potențiale ţinte pe baza legăturilor lor aparente cu Hamas.
Aceleași surse au mai dezvăluit, pe lângă datele legate de sistemul Lavender, că oficialii militari israelieni au permis uciderea unui număr mare de civili palestinieni, în special în primele săptămâni şi luni ale conflictului, relatează The Guardian, citat de News.ro.
”Utilizarea de către Israel a unor sisteme puternice de inteligenţă artificială în războiul împotriva Hamas reprezintă un teritoriu încă neexplorat al războiului avansat, ridicând o serie de întrebări juridice şi morale şi transformând relaţia dintre personalul militar şi maşini”, adaugă The Guardian.
Un ofițer de informații care a folosit programul a explicat că a avut mai multă încredere într-un ”mecanism statistic” decât într-un soldat îndurerat, întrucât sistemul e mai lucid, nu are sentimente.
"Toţi cei de acolo, inclusiv eu, au pierdut oameni pe 7 octombrie. Maşina a făcut (selecţia - n.r.) fără sentimente. Şi asta a făcut să fie mai uşor", a explicat aacesta.
Investesc 20 de secunde pentru fiecare ţintă în acest stadiu şi fac zeci de astfel de selecţii în fiecare zi. Am zero valoare adăugată ca om, în afară de a fi o ştampilă de aprobare. Economiseşte foarte mult timp", precizează un alt utilizator al sistemului.
Lavender a listat până la 37 000 de bărbaţi palestinieni pe care sistemul AI i-a legat de Hamas sau PIJ.
Lavender a fost dezvoltat de divizia de elită a serviciilor de informaţii a Forţelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenţia Naţională de Securitate a SUA sau cu GCHQ din Marea Britanie.