Studiu: Tot mai mulți adolescenți traumatizați de violență apelează la chatbot-uri pentru sprijin emoțional
Tot mai mulți adolescenți afectați de violență se îndreaptă spre chatbot-uri pentru sprijin emoțional, iar cazul unei tinere din Tottenham evidențiază amploarea fenomenului. Shan, o adolescentă care a pierdut doi prieteni uciși în incidente violente, a găsit în ChatGPT un refugiu accesibil și mai puțin intimidant decât serviciile tradiționale de sănătate mintală. Ea se numără printre cei aproximativ 40% dintre tinerii din Anglia și Ţara Galilor expuși violenței juvenile care apelează la AI pentru ajutor, arată un studiu citat de The Guardian. Rezultatele au stârnit însă îngrijorări, specialiștii avertizând că tinerii aflați în situații de risc au nevoie de sprijin uman, nu tehnologic.
Potrivit studiului, citat de The Guardian, se constată că atât victimele, cât şi autorii violenţei erau mult mai predispuşi să utilizeze AI pentru astfel de sprijin decât alţi adolescenţi. Concluziile, provenite de la Youth Endowment Fund, au stârnit avertismente din partea liderilor tinerilor că cei aflaţi în situaţii de risc "au nevoie de un om, nu de un robot", transmite News.ro
Rezultatele sugerează că chatbot-urile satisfac cererea neacoperită de serviciile convenţionale de sănătate mintală, care au liste de aşteptare lungi şi pe care unii utilizatori tineri le consideră lipsite de empatie. Presupusa confidenţialitate a chatbot-ului este un alt factor cheie care determină utilizarea acestuia de către victimele sau autorii infracţiunilor.
După ce prietenii ei au fost ucişi, Shan, 18 ani, nume fictiv, a început să utilizeze AI-ul Snapchat înainte de a trece la ChatGPT, cu care poate vorbi la orice oră din zi şi din noapte cu două clicuri pe smartphone-ul ei.
"Simt că este cu siguranţă un prieten", a spus ea, adăugând că este mai puţin intimidant, mai privat şi mai puţin critic decât experienţa ei cu serviciile convenţionale de sănătate mintală ale NHS şi ale organizaţiilor caritabile.
"Cu cât îi vorbeşti mai mult ca unui prieten, cu atât îţi va răspunde ca unui prieten. Dacă îi spun 'Hei, prietena mea, am nevoie de un sfat', chatbotul îmi va răspunde ca şi cum ar fi cea mai bună prietenă a mea, spunându-mi 'Hei, prietena mea, te înţeleg perfect", a povestit Shan.
Unul din patru tineri cu vârste cuprinse între 13 şi 17 ani a folosit un chatbot pentru sprijin în materie de sănătate mintală în ultimul an, copiii de culoare fiind de două ori mai predispuşi să facă acest lucru decât copiii albi, potrivit studiului. Adolescenţii erau mai predispuşi să caute sprijin online, inclusiv folosind AI, dacă se aflau pe lista de aşteptare pentru tratament sau diagnostic sau dacă li se refuzase accesul, decât dacă primeau deja sprijin personalizat.
Un alt tânăr, care a folosit AI pentru sprijin în domeniul sănătăţii mintale, dar a cerut să nu fie numit, a declarat pentru The Guardian: "Sistemul actual este atât de defectuos în ceea ce priveşte oferirea de ajutor tinerilor. Chatbot-urile oferă răspunsuri imediate. Dacă trebuie să aştepţi unul sau doi ani pentru a obţine ceva sau poţi primi un răspuns imediat în câteva minute... de aici vine dorinţa de a folosi AI".
Jon Yates, directorul executiv al Youth Endowment Fund, care a comandat studiul, a declarat: "Prea mulţi tineri se luptă cu problemele de sănătate mintală şi nu pot obţine sprijinul de care au nevoie. Nu este de mirare că unii apelează la tehnologie pentru a primi ajutor. Trebuie să facem mai mult pentru copiii noştri, în special pentru cei mai expuşi riscului. Ei au nevoie de un om, nu de un robot".
Există îngrijorări tot mai mari cu privire la pericolele pe care le prezintă chatbot-urile atunci când copiii interacţionează îndelung cu ele. OpenAI, compania americană care a creat ChatGPT, se confruntă cu mai multe procese, inclusiv din partea familiilor tinerilor care s-au sinucis după interacţiuni îndelungate.
În cazul lui Adam Raine, un adolescent californian de 16 ani care s-a sinucis în aprilie, OpenAI a negat că acest lucru ar fi fost cauzat de chatbot. Compania a declarat că şi-a îmbunătăţit tehnologia "pentru a recunoaşte şi a răspunde la semne de suferinţă mentală sau emoţională, pentru a calma conversaţiile şi a îndruma oamenii către sprijin în lumea reală". În septembrie, startup-ul a declarat că ar putea începe să contacteze autorităţile în cazurile în care utilizatorii încep să vorbească serios despre sinucidere.
Înapoi la HomepagePuteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰