Taylor Swift, victima unor imagini deepfake pornografice. Pozele trucate cu ajutorul AI au ajuns virale
Isterie, după ce imagini pornografice false cu cântăreaţa, create cu ajutorul inteligenţei artificiale generative, au fost distribuite pe scară largă pe X (fostul Twitter) şi pe alte platforme de socializare. Politicienii americani, dar mai ales fanii lui Taylor Swift şi-au exprimat indignarea.
Una dintre aceste imagini a fost vizualizată de peste 47 de milioane de ori pe reţeaua socială X. Potrivit presei americane, imaginea a rămas pe X mai mult de 17 ore înainte de a fi ştearsă.
Imaginile pornografice false ("deepfake") ale unor femei celebre, dar care vizează şi numeroase persoane anonime, nu sunt o noutate. Însă dezvoltarea programelor de inteligenţă artificială (AI) generativă riscă să producă un flux incontrolabil de conţinut degradant, potrivit mai multor activişti şi autorităţi de reglementare.
Faptul că astfel de imagini o afectează de această dată chiar pe Taylor Swift, cea mai ascultată artistă din lume pe platforma Spotify, ar putea totuşi contribui la sensibilizarea autorităţilor cu privire la această problemă, având în vedere indignarea milioanelor de fani ai acesteia.
"Singura "parte bună" a faptului că acest lucru i se întâmplă lui Taylor Swift este că ea are suficientă greutate pentru a obţine adoptarea unei legi care să elimine acest lucru. Voi sunteţi bolnavi", a postat Danisha Carter, un influencer cu o audienţă de câteva sute de mii de persoane pe reţeaua X.
Reacţia X, după apariţia imaginilor false în spaţiul public
X este cunoscută pentru faptul că are reguli mai puţin stricte privind nuditatea decât Instagram sau Facebook. Apple şi Google au un drept de supraveghere asupra conţinutului care circulă pe aplicaţii prin intermediul regulilor pe care le impun pe sistemele lor de operare mobile, dar au tolerat până acum această situaţie pe X.
Într-un comunicat, X a precizat că are o "politică de toleranţă zero" în ceea ce priveşte publicarea neconsensuală de imagini nud. Platforma a precizat că va "elimina în mod concret toate imaginile identificate" ale cântăreţei şi "va lua măsurile corespunzătoare împotriva conturilor care le-au postat".
Reprezentanţii cântăreţei americane nu au făcut încă niciun comentariu.
"Ceea ce i s-a întâmplat lui Taylor Swift nu este o noutate, femeile sunt de ani de zile ţinta unor imagini false, fără consimţământul lor", a declarat politicianul democrat Yvette Clarke, care a susţinut o legislaţie pentru combaterea acestui fenomen. "Odată cu progresele în domeniul inteligenţei artificiale, crearea acestor imagini este mai simplă şi mai ieftină", a arătat ea.
Un studiu realizat în 2019 a estimat că 96% dintre videoclipurile deepfake erau pornografice. Potrivit revistei Wired, 113.000 de astfel de videoclipuri au fost încărcate pe principalele site-uri porno în primele nouă luni ale anului 2023.
Deepfake-ul cu Taylor Swift a ajuns şi la urechile Casei Albe
Imaginile au ajuns şi la Casa Albă, care a declarat vineri că este alarmată de imaginile online false ale cântăreţei pop şi a subliniat că reţelele socile au un rol important în aplicarea propriilor reguli pentru a preveni răspândirea unor astfel de dezinformări, relatează Reuters.
"Acest lucru este foarte alarmant. Şi astfel, vom face tot ce putem pentru a rezolva această problemă", a declarat secretarul de presă al Casei Albe, Karine Jean-Pierre, în cadrul unei conferinţe de presă, adăugând că Congresul ar trebui să ia măsuri legislative în această privinţă.
Aplicarea laxă a legii împotriva imaginilor false, posibil create de inteligenţa artificială (AI), afectează prea des în mod disproporţionat femeile, a spus Jean-Pierre.
"Aşadar, în timp ce companiile de social media iau propriile decizii independente privind gestionarea conţinutului, credem că au un rol important de jucat în ceea ce priveşte aplicarea, respectarea propriilor reguli pentru a preveni răspândirea dezinformării şi a imaginilor intime, neconsimţite, ale unor persoane reale", a spus Jean-Pierre.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰