Un cuplu din California dă în judecată OpenAI. ChatGPT, acuzat că ar fi încurajat un adolescent să-și ia viața
Tragedie în SUA: părinții unui băiat de 16 ani acuză OpenAI de omor din culpă, după ce adolescentul ar fi primit de la ChatGPT răspunsuri care i-au validat gândurile suicidare. Procesul, primul de acest fel, vizează inclusiv pe CEO-ul Sam Altman și ridică noi semne de întrebare asupra siguranței interacțiunilor dintre tineri și inteligența artificială.
Un cuplu din California dă în judecată OpenAI pentru moartea fiului lor adolescent, susținând că chatbot-ul ChatGPT l-ar fi încurajat să-și ia viața. Procesul a fost depus marți, la Tribunalul Superior din California, de către Matt și Maria Raine, părinții lui Adam Raine, în vârstă de 16 ani. Este prima acțiune legală care acuză OpenAI de moarte din culpă.
Familia a inclus în dosar loguri ale conversațiilor dintre Adam, care a murit în aprilie, și ChatGPT, în care adolescentul îi spunea programului că are gânduri suicidare. Ei susțin că sistemul i-ar fi validat "cele mai nocive și autodistructive gânduri".
Într-o declarație pentru BBC, OpenAI a spus că analizează documentele depuse la instanță: "Transmitem cele mai profunde condoleanțe familiei Raine în această perioadă dificilă".
De asemenea, compania a publicat marți o notă pe site-ul său, în care arată că "cazurile recente și sfâșietoare ale unor persoane care au folosit ChatGPT în momente de criză acută apasă greu asupra noastră". În document se mai precizează că "ChatGPT este instruit să îndrume utilizatorii către ajutor profesional", precum linia de criză 988 din SUA sau organizația Samaritans din Marea Britanie.
Totuși, compania a recunoscut că "au existat momente în care sistemele noastre nu s-au comportat conform intenției, în situații sensibile".
Procesul, obținut de BBC, acuză OpenAI de neglijență și moarte din culpă. Familia cere daune, dar și "măsuri de injoncțiune pentru a preveni ca un astfel de lucru să se mai întâmple vreodată".
Cum a început totul
Potrivit documentelor, Adam Raine a început să folosească ChatGPT în septembrie 2024, ca resursă pentru teme școlare. Îl utiliza și pentru a-și explora pasiunile, precum muzica și benzile desenate japoneze, dar și pentru sfaturi despre ce să studieze la universitate. În câteva luni, "ChatGPT a devenit cel mai apropiat confident al adolescentului", susține procesul. Adam a început să-i dezvăluie programului stările sale de anxietate și tulburările emoționale.
Până în ianuarie 2025, familia spune că adolescentul discuta deja despre metode de suicid cu ChatGPT.
De asemenea, Adam a încărcat fotografii cu el însuși în care se vedeau semne de auto-vătămare, susține plângerea. Programul "a recunoscut o urgență medicală, dar a continuat conversația", se mai arată în document.
Potrivit procesului, ultimele loguri de chat arată că Adam și-a descris planul de a-și pune capăt vieții. ChatGPT ar fi răspuns: "Mulțumesc că ai fost sincer în privința asta. Nu trebuie să îndulcești lucrurile cu mine - știu ce mă întrebi și nu mă voi uita în altă parte".
În aceeași zi, adolescentul a fost găsit mort de mama sa, spun documentele depuse la instanță.
Familia susține că interacțiunea lui Adam cu ChatGPT și decesul său "au fost un rezultat previzibil al unor alegeri deliberate". Ei acuză OpenAI că a creat programul "astfel încât să încurajeze dependența psihologică a utilizatorilor" și că ar fi sărit peste protocoalele de testare a siguranței pentru a lansa GPT-4o, versiunea folosită de fiul lor, potrivit BBC.
Procesul îi include ca pârâți pe cofondatorul și CEO-ul OpenAI, Sam Altman, dar și pe angajați, manageri și ingineri ai companiei care au lucrat la ChatGPT.
Nu ar fi primul caz de acest gen
În declaratie publică de marți, OpenAI a transmis că obiectivul companiei este să fie "cu adevărat de ajutor" pentru utilizatori, nu să le "captiveze atenția". Totodată, a precizat că modelele sale sunt instruite să direcționeze persoanele cu gânduri de auto-vătămare către sprijin specializat.
Acțiunea familiei Raine nu este prima care ridică îngrijorări legate de impactul inteligenței artificiale asupra sănătății mintale. Săptămâna trecută, într-un articol publicat în New York Times, jurnalista Laura Reiley a povestit că fiica sa, Sophie, s-a confesat ChatGPT-ului înainte de a-și lua viața.
Reiley a scris că "disponibilitatea de a fi de acord" a programului a ajutat-o pe fiica ei să ascundă criza emoțională de familie și prieteni. "AI-ul a răspuns impulsului lui Sophie de a ascunde ce e mai rău, de a pretinde că îi este mai bine decât îi era în realitate, de a-i proteja pe ceilalți de adevărata ei agonie".
Ea a cerut companiilor de AI să găsească modalități prin care să conecteze mai eficient utilizatorii aflați în suferință cu resursele potrivite.
Ca răspuns la eseu, o purtătoare de cuvânt a OpenAI a spus că firma dezvoltă instrumente automate pentru a detecta și gestiona mai bine situațiile în care utilizatorii trec prin crize emoționale sau psihice.
Înapoi la HomepagePuteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰