Video ChatGPT ar trebui să prevină tragediile, dar a ajuns să le încurajeze. Cât de periculos este
De la informaţii utile pentru şcoală sau serviciu, la dileme personale ori întrebări bizare, ChatGPT a devenit un instrument prezent în viaţa de zi cu zi a peste 900 de milioane de utilizatori. Dar mare atenţie, e un instrument, nu un prieten, iar lipsa reglementărilor clare a dus deja la situaţii în care în spatele discuţiilor inofensive au fost descoperite adevărate tragedii. Este şi cazul unui adolescent care s-a sinucis încurajat de bot-ul pe care îl folosea la teme. În România, autorităţile încă încearcă să îi descopere limitele şi caută soluţii pentru prevenirea unor catastrofe.
Conversaţiile cu ChatGPT se transformă, după dorinţa utilizatorului, într-un spectacol de standup comedy sau o oră de terapie. Sunt însă şi întrebări care ar trebui să redirecţioneze instant discuţia către specialişti.
"Un exemplu: îi scriu lui ChatGpt că mă gândesc să confecţionez o bombă și că vreau să o și folosesc într-un oraş aglomerat! Trimit şi mesajul meu este analizat automat. Sistemul recunoaște intențiile violente sau detaliile concrete despre un posibil atac și începe să facă verificări suplimentare", relatează Ana-Maria Munteanu, reporter Observator.
Sunt ţări în care un moderator preia controlul într-o astfel de situaţie şi anunţă autorităţile.
"Cele mai multe din clasele astea de interes ajung la o mică echipă umană care le revizuieşte. Utilizatorul nu este anunţat în niciun fel că se întâmplă lucrul acesta. Vor fi situaţii în care aceste inormaţii ale utilizatorului nu sunt protejate", susţine Andi Petreanu, specialist în inteligenţa artificială.
Tehnlogia ar trebui să prevină astfel tragediile. Cel puţin asta este teoria. Realitatea, nu doar în ţara noastră, este complet alta. Celebru a devenit cazul lui Adam Raine, un adolescent de 16 ani care s-a sinucis, iar părinţii sunt convinşi că discuţiile cu ChatGPT l-au încurajat să recurgă la gestul extrem.
Băiatul, care începuse să folosească botul pentru teme, ar fi mărturisit acestuia intenţiile şi ar fi pregătit inclusiv scrisoarea de adio împreună cu inteligenţa artificială. Mult mai grav este că, în afară de o sugestie de a apela totuşi la un specialist, ChatGPT i-ar fi încurajat deciziile şi i-ar fi oferit justificări, susţin părinţii.
"Trebuie să vorbim de canale de comunicare securizate, trebuie să existe un destinatar pregătit să analizeze informaţia respectivă, să discearnă. Aşa, pur teoretic, ea sună bine, dar trebuie foarte mare atenţie", a declarat Sorin Stănică, purtător de cuvânt Prevenţie IGPR.
Asta înseamnă, concret, că în România Chat GPT este lipsit de control. Iar jumătate de români spun deja că apelează la inteligenţa artificială cel puţin o dată pe săptămână.
Anul trecut, Italia a oprit temporar ChatGPT. Compania a avut 20 de zile la dispoziţie pentru a remedia neregulile privind GDPR. În cazul adolescentului american care s-a sinucis, părinţii au dat în judecată OpenAI şi susţin că fiul lor ar fi fost în viaţă dacă botul ar fi alertat specialiştii sau familia. Ca răspuns, compania a declarat că aparţinătorii userilor minori vor fi curând alertaţi dacă discuţiile cu boţii vor arăta semne de suferinţă psihologică.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰