Video De ce nu e bine să ceri sfaturi medicale de la ChatGPT: motivul pentru care AI-ul are "halucinaţii"
Nu cereţi sfatul Inteligenţei Artificiale atunci când aveţi probleme de sănătate. Mergeţi la medic.
Un nou studiu reconfirmă faptul că ChatGPT sau Gemini dau un diagnostic greşit în 80% dintre cazuri, atunci când le furnizaţi informaţii incomplete. Şi chiar şi atunci când adăugaţi documente cu consultaţii sau analize de laborator, procentul de eroare se menţine ridicat: 40%.
Ce sunt "halucinaţiile" AI-ului?
De ce se întâmplă asta? Pentru că toate modelele, la un moment dat, pot avea halucinaţii, adică pot inventa, atunci când trebuie să dea un răspuns fără să aibă o soluţie clară.
Cele mai noi date arată că la nivel global, Chat GPT are 900 de milioane de utilizatori pe săptămână. Şi în fiecare zi, primeşte, atenţie, peste 2,5 miliarde de întrebări, adică 29.000 pe secundă. Multe dintre ele vin, desigur, chiar din zona medicală, mai arată datele.
Înapoi la HomepagePuteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰
