Antena Meniu Search
x

The Guardian: Israelul ar fi folosit un sistem de Inteligență Artificială, denumit "Lavanda", pentru a identifica potențiali militanți Hamas

Război Israel - Hamas. Campania de bombardamente a armatei israeliene în Fâşia Gaza s-a bazat pe folosirea unui sistem cu inteligenţă artificială, denumit Lavender (Lavandă), o bază de date nedezvăluită până acum, care la un moment dat a identificat 37.000 de potenţiale ţinte pe baza legăturilor lor aparente cu Hamas, potrivit unor surse din serviciile de informaţii implicate în război, relatează The Guardian.

de Redactia Observator

la 03.04.2024, 22:22

tanc israelian
The Guardian: Israelul ar fi folosit un sistem de Inteligență Artificială, denumit "Lavanda", pentru a identifica potențiali militanți Hamas - Profimedia Images

Pe lângă faptul că au vorbit despre utilizarea sistemului de inteligenţă artificială Lavender, sursele mai susţin că oficialii militari israelieni au permis uciderea unui număr mare de civili palestinieni, în special în primele săptămâni şi luni ale conflictului.

Mărturia lor neobişnuit de sinceră oferă o perspectivă rară asupra experienţei directe a oficialilor israelieni din domeniul informaţilor, care au folosit sisteme de învăţare automată pentru a ajuta la identificarea ţintelor în timpul celor şase luni de război, notează The Guardian.

Utilizarea de către Israel a unor sisteme puternice de inteligenţă artificială în războiul împotriva Hamas reprezintă un teritoriu încă neexplorat al războiului avansat, ridicând o serie de întrebări juridice şi morale şi transformând relaţia dintre personalul militar şi maşini, adaugă The Guardian.

"Acest lucru este fără precedent, din câte îmi amintesc", a declarat un ofiţer de informaţii care a folosit Lavender, mărturisind că au avut mai multă încredere într-un "mecanism statistic" decât într-un soldat îndurerat. "Toţi cei de acolo, inclusiv eu, au pierdut oameni pe 7 octombrie. Maşina a făcut (selecţia - n.r.) fără sentimente. Şi asta a făcut să fie mai uşor", a explicat ofiţerul de informaţii.

Pe acelaşi subiect

Un alt utilizator al sistemului Lavender a confirmat că rolul oamenilor în procesul de selecţie este nesemnificativ. "Investesc 20 de secunde pentru fiecare ţintă în acest stadiu şi fac zeci de astfel de selecţii în fiecare zi. Am zero valoare adăugată ca om, în afară de a fi o ştampilă de aprobare. Economiseşte foarte mult timp", a mărturisit el.

Lavender a avut un rol central în război

Mărturiile a şase ofiţeri de informaţii, toţi implicaţi în utilizarea sistemelor de inteligenţă artificială pentru a identifica ţinte Hamas şi din Jihadul Islamic Palestinian (PIJ) în timpul războiului, au fost consemnate de jurnalistul Yuval Abraham pentru publicaţia israeliano-palestiniană +972 Magazine şi publicaţia de limbă ebraică Local Call, menţionează The Guardian. Relatările lor au fost împărtăşite în exclusivitate cu The Guardian înainte de publicare.

Toţi cei şase au declarat că Lavender a jucat un rol central în război, procesând volume mari de date pentru a identifica rapid potenţiali agenţi "juniori" pe care să-i vizeze. Patru dintre surse au declarat că, la un moment dat, la începutul războiului, Lavender a listat până la 37 000 de bărbaţi palestinieni pe care sistemul AI i-a legat de Hamas sau PIJ.

Lavender a fost dezvoltat de divizia de elită a serviciilor de informaţii a Forţelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenţia Naţională de Securitate a SUA sau cu GCHQ din Marea Britanie.

Civili uciși pe bază de "cote"

Mai multe surse au descris modul în care, pentru anumite categorii de ţinte, armata israeliană a aplicat cote pre-autorizate pentru numărul estimat de civili care ar putea fi ucişi înainte de a fi autorizată o lovitură.

Două surse au declarat că, în primele săptămâni de război, li s-a permis să ucidă 15 sau 20 de civili în timpul loviturilor aeriene asupra militanţilor de rang inferior.

Atacurile asupra unor astfel de ţinte au fost efectuate de obicei cu ajutorul unor muniţii neghidate, cunoscute sub numele de "bombe stupide", care au permis să fie distruse case întregi şi să-i ucidă pe toţi ocupanţii acestora, au declarat sursele.

"Nu vrei să iroseşti bombe scumpe pe oameni neimportanţi - este foarte costisitor pentru ţară şi există o lipsă (de astfel de bombe)", a declarat un ofiţer de informaţii. Un alt ofiţer a declarat că principala întrebare cu care s-au confruntat a fost dacă "daunele colaterale" asupra civililor permiteau un atac.

"Chiar dacă un atac este evitat, nu-ţi pasă - treci imediat la următoarea ţintă. Din cauza sistemului, ţintele nu se termină niciodată. Mai ai încă 36.000 care te aşteaptă", a declarat un ofiţer.

Potrivit experţilor în conflicte, dacă Israelul a folosit bombe stupide pentru a arunca în aer casele a mii de palestinieni care erau legaţi, cu ajutorul IA, de grupările militante din Gaza, acest lucru ar putea ajuta la explicarea numărului şocant de mare de morţi în război. Ministerul Sănătăţii din teritoriul condus de Hamas afirmă că 32.000 de palestinieni au fost ucişi în conflict în ultimele şase luni. Datele ONU arată că, numai în prima lună de război, 1.340 de familii au suferit pierderi multiple, 312 familii pierzând mai mult de 10 membri.

Ce spune armata israeliană

Răspunzând la publicarea mărturiilor în +972 şi Local Call, armata israeliană (IDF) a declarat într-un comunicat că operaţiunile sale au fost efectuate în conformitate cu normele de proporţionalitate prevăzute de dreptul internaţional. Acesta a precizat că bombele stupide sunt un "armament standard" care sunt folosite de piloţii săi într-o manieră ce asigură "un nivel ridicat de precizie".

Comunicatul armatei a descris Lavender ca fiind o bază de date utilizată "pentru a încrucişa sursele de informaţii, în scopul de a produce straturi actualizate de informaţii despre agenţii militari ai organizaţiilor teroriste".

"IDF nu utilizează un sistem de inteligenţă artificială care identifică agenţi terorişti sau încearcă să prezică dacă o persoană este terorist", susţine armata israeliană. "Sistemele informatice sunt doar instrumente pentru analişti în procesul de identificare a ţintelor", a adăugat IDF.

Zeci de mii de persoane sunt în "Lavandă"

În operaţiunile militare anterioare desfăşurate de IDF, identificarea ţintelor umane era adesea un proces care necesita mai multă muncă. Decizia de a "incrimina" o persoană sau de a o identifica drept ţintă legitimă era discutată şi apoi semnată de un consilier juridic.

În săptămânile şi lunile de după 7 octombrie, acest model de aprobare a loviturilor asupra ţintelor umane a fost accelerat în mod dramatic, potrivit surselor. Pe măsură ce bombardamentele IDF asupra Gaza se intensificau, au spus acestea, comandanţii au cerut un flux continuu de ţinte. "Am fost presaţi în mod constant: Aduceţi-ne mai multe ţinte. Chiar ţipau la noi", a declarat un ofiţer de informaţii. "Ni s-a spus: acum trebuie să dăm în cap Hamas, indiferent de costuri. Orice puteţi, bombardaţi", a mai declarat sursa.

Pentru a satisface această cerere, IDF a ajuns să se bazeze foarte mult pe sistemul Lavender pentru a genera o bază de date cu persoanele considerate a avea caracteristicile unui militant PIJ sau Hamas.

Detaliile privind tipurile specifice de date utilizate pentru a antrena algoritmul lui Lavender sau modul în care programul a ajuns la concluziile sale nu sunt incluse în relatările publicate de +972 sau Local Call. Cu toate acestea, sursele au declarat că, în timpul primelor săptămâni de război, Unitatea 8200 a perfecţionat algoritmul lui Lavender şi a ajustat parametrii de căutare.

După eşantionarea aleatorie şi verificarea încrucişată a predicţiilor sale, unitatea a concluzionat că Lavender a atins o rată de acurateţe de 90%, au declarat sursele, ceea ce a determinat IDF să aprobe utilizarea sa generalizată ca instrument de recomandare a ţintelor.

"Lavandă" cu "Gospel"

Lavender a creat o bază de date cu zeci de mii de persoane care au fost marcate ca fiind predominant membri de rang inferior ai aripii militare a Hamas. Aceasta a fost utilizată alături de un alt sistem de sprijin decizional bazat pe inteligenţă artificială, numit Gospel, care recomanda clădiri şi structuri ca ţinte, mai degrabă decât persoane.

Relatările includ mărturii credibile despre modul în care ofiţerii de informaţii lucrau cu Lavender şi despre cum putea fi ajustată raza de acţiune a reţelei sale. "La apogeu, sistemul a reuşit să genereze 37.000 de persoane ca potenţiale ţinte umane", a declarat una dintre surse. "Dar cifrele se schimbau tot timpul, pentru că depinde unde stabileşti ştacheta a ceea ce înseamnă un agent Hamas", a explicat sursa.

"Au fost momente în care un agent Hamas era definit mai larg, iar apoi maşinăria a început să ne aducă tot felul de membri ai apărării civile, ofiţeri de poliţie, asupra cărora ar fi păcat să irosim bombe. Aceştia ajută guvernul Hamas, dar nu pun cu adevărat în pericol soldaţii", a relatat sursa.

Înainte de război, SUA şi Israelul estimau numărul membrilor aripii militare a Hamas la aproximativ 25-30.000 de persoane.

Una din surse a povestit că, după atacurile din 7 octombrie ale Hamas, atmosfera în IDF era "dureroasă şi răzbunătoare". "A existat o disonanţă: pe de o parte, oamenii de aici erau frustraţi că nu atacăm suficient. Pe de altă parte, vedeţi la sfârşitul zilei că încă o mie de locuitori din Gaza au murit, majoritatea civili", a spus sursa.

Indiferent de justificarea legală sau morală a strategiei de bombardament a Israelului, unii dintre ofiţerii săi de informaţii par să pună acum la îndoială abordarea stabilită de comandanţii lor, menţionează The Guardian. 

Ți-a plăcut acest articol?

Like | 1 vot
Întrebarea zilei

Vă afectează schimbările bruşte de temperatură?

Observator » Stiri externe » The Guardian: Israelul ar fi folosit un sistem de Inteligență Artificială, denumit "Lavanda", pentru a identifica potențiali militanți Hamas