Tehnologia AI "Lavender": Controverse și Implicații în Conflictul Israel-Hamas
Israelul a intrat într-o nouă eră a războiului modern prin utilizarea sistemului de inteligență artificială denumit "Lavender", care a identificat până la 37.000 de potențiale ținte legate de Hamas și Jihadul Islamic Palestinian. Dezvăluirile făcute de The Guardian, pe baza mărturiilor a șase ofițeri de informații, evidențiază atât eficiența tehnologică, cât și dilemele etice și juridice ale acestei abordări.
"Lavender", dezvoltat de Unitatea 8200 a serviciilor de informații israeliene, a procesat volume mari de date, generând rapid liste de potențiali agenți "juniori" pentru a fi vizați în timpul conflictului. Această strategie a accelerat semnificativ procesul de identificare a țintelor, reducând rolul uman la o simplă "ștampilă de aprobare" și permițând ofițerilor să selecteze ținte în doar 20 de secunde.
Citește și:
Studiu: Anomaliile electromagnetice ar putea prevesti cutremurele cu până la 19 zile în avans
Hamas suspendă negocierile de armistițiu în urma atacurilor israeliene
Donald Trump Face Apel la Unitate După Tentativa de Asasinat şi Avertizează asupra Dezinformării
Cu toate acestea, utilizarea "bombelor stupide" pentru a lovi ținte identificate de AI a dus la pierderi civile semnificative, cu surse care indică faptul că armata israeliană a stabilit cote pentru numărul de civili care ar putea fi uciși înainte de autorizarea atacurilor. În primele săptămâni de război, li s-a permis să ucidă 15 sau 20 de civili pentru a atinge ținte de rang inferior.
Răspunsul armatei israeliene la aceste acuzații a fost că operațiunile sale au fost efectuate în conformitate cu normele de proporționalitate prevăzute de dreptul internațional și că "bombele stupide" sunt un "armament standard" folosit cu un nivel ridicat de precizie. IDF susține că nu utilizează AI pentru a identifica direct agenți teroriști și că sistemele informatice sunt doar instrumente pentru analiști.
În ciuda asigurărilor IDF, mărturiile sugerează o realitate mai complexă și mai întunecată, în care presiunea pentru a genera continuu ținte a dus la o abordare agresivă și potențial necalculată. "Ni s-a spus: acum trebuie să dăm în cap Hamas, indiferent de costuri. Orice puteți, bombardați", a declarat un ofițer de informații.
Această strategie a stârnit îngrijorări serioase cu privire la consecințele asupra populației civile și a deschis o dezbatere asupra implicațiilor morale și legale ale folosirii tehnologiei AI în război. În timp ce Israelul susține că acțiunile sale sunt justificate, ofițerii de informații par să pună la îndoială abordarea comandanților lor, reflectând asupra costului uman al conflictului.