Antena Meniu Search
x

Un avocat din NY, audiat după ce a folosit ChatGPT. Ar fi adus în instanță mai multe cazuri false, după ce platforma AI le-ar fi prezentat că fiind reale

Un avocat din New York se confruntă cu o audiere în instanță după ce firma sa a folosit instrumentul AI ChatGPT pentru cercetări juridice. Bărbatul ar fi căutat mai multe cazuri similare cu cel la care lucra atunci. Din nefericire pentru acesta, totul a ieșit la iveală după ce platforma AI ar fi furnizat informații eronate. 

de Redactia Observator

la 29.05.2023, 09:56

Un avocat din NY, audiat după ce a folosit ChatGPT. Ar fi adus în instanță mai multe cazuri false, după ce platforma AI le-ar fi prezentat că fiind reale
Un avocat din NY, audiat după ce a folosit ChatGPT. Ar fi adus în instanță mai multe cazuri false, după ce platforma AI le-ar fi prezentat că fiind reale - Shutterstock

Instanța s-a confruntat cu o „circumstanță fără precedent”, după ce a fost găsit un dosar care face referire la cazuri juridice care de fapt nu există. Avocatul care a folosit ChatGPT a declarat instanței că „nu știa că conținutul acestuia ar putea fi fals”. ChatGPT creează texte originale la cerere, dar vine cu avertismentul că poate „produce informații inexacte”, potrivit BBC.

Cazul inițial a implicat un bărbat care a dat în judecată o companie aeriană pentru o presupusă vătămare corporală. Echipa sa juridică a înaintat un rezumat care a citat mai multe cauze anterioare în instanță în încercarea de a demonstra de ce cazul ar trebui să meargă mai departe. Totul a ieșit la iveală însă, după ce avocații companiei aeriene i-au scris judecătorului pentru a-i spune că nu au putut găsi câteva dintre cazurile la care se face referire în document.

Șase dintre cazurile depuse par a fi decizii judiciare false, cu citate false ”, a scris judecătorul Castel într-un ordin prin care a cerut echipei juridice a bărbatului să se explice.

Șase dintre cazurile depuse de avocați erau false

Pe acelaşi subiect

Pe parcursul mai multor dosare, a reieșit că cercetarea nu fusese întocmită de Peter LoDuca, avocatul reclamantei, ci de un coleg de-al acestuia la aceeași firmă de avocatură. Steven A Schwartz, care a fost avocat de mai bine de 30 de ani, a folosit ChatGPT pentru a căuta cazuri anterioare similare. În declarația sa scrisă, Steven A Schwartz a clarificat că Peter LoDuca nu a făcut parte din cercetare și nu cunoștea modul în care aceasta a fost efectuată.

Steven a adăugat că „regretă foarte mult” că s-a bazat pe informațiile primite de la acea platformă, pe care a spus că nu a folosit-o niciodată pentru cercetări juridice înainte și că „nu știa că conținutul său ar putea fi fals”.

El a promis că nu va folosi niciodată AI pentru a-și „suplimenta” cercetările juridice în viitor „fără verificarea absolută a autenticității acesteia”. Capturile de ecran atașate la dosar par să arate o conversație între Steven și ChatGPT.

Este Varghese un caz real?”, se arată într-un mesaj, referindu-se la Varghese împotriva China Southern Airlines Co Ltd, unul dintre cazurile pe care niciun alt avocat nu le-a putut găsi.

ChatGPT răspunde că da, este. După răspunsul platformei, avocatul a întrebat: „Care este sursa ta?”.

După „dubla verificare”, ChatGPT răspunde din nou că acel caz este real și poate fi găsit pe baze de date de referință juridică precum LexisNexis și Westlaw. Ambii avocați, care lucrează pentru firma Levidow, Levidow & Oberman, au primit ordin să explice de ce nu ar trebui să fie sancționați disciplinar.

Milioane de oameni au folosit ChatGPT de când a fost lansat în noiembrie 2022. Poate răspunde la întrebări într-un limbaj natural, asemănător omului și poate imita și alte stiluri de scriere. Au existat îngrijorări cu privire la potențialele riscuri ale inteligenței artificiale (AI), inclusiv potențiala răspândire a dezinformării.

Ți-a plăcut acest articol?

Like
Întrebarea zilei

35 de lei kilogramul de carne de miel înainte de Paşte. Consideraţi preţul acceptabil?

Observator » Mapamond » Un avocat din NY, audiat după ce a folosit ChatGPT. Ar fi adus în instanță mai multe cazuri false, după ce platforma AI le-ar fi prezentat că fiind reale