Video De ce nu e bine să ceri sfaturi medicale de la ChatGPT: motivul pentru care AI-ul are "halucinaţii"

Nu cereţi sfatul Inteligenţei Artificiale atunci când aveţi probleme de sănătate. Mergeţi la medic.

de Redactia Observator

la 15.04.2026 , 13:05

Un nou studiu reconfirmă faptul că ChatGPT sau Gemini dau un diagnostic greşit în 80% dintre cazuri, atunci când le furnizaţi informaţii incomplete. Şi chiar şi atunci când adăugaţi documente cu consultaţii sau analize de laborator, procentul de eroare se menţine ridicat: 40%.

Ce sunt "halucinaţiile" AI-ului?

De ce se întâmplă asta? Pentru că toate modelele, la un moment dat, pot avea halucinaţii, adică pot inventa, atunci când trebuie să dea un răspuns fără să aibă o soluţie clară.

Articolul continuă după reclamă

Cele mai noi date arată că la nivel global, Chat GPT are 900 de milioane de utilizatori pe săptămână. Şi în fiecare zi, primeşte, atenţie, peste 2,5 miliarde de întrebări, adică 29.000 pe secundă. Multe dintre ele vin, desigur, chiar din zona medicală, mai arată datele. 

Redactia Observator Like

Observator  - Despre oameni, știrile așa cum trebuie să fie.

Înapoi la Homepage
Comentarii


Întrebarea zilei
Credeţi că Ilie Bolojan va rămâne premierul României?
Observator » Sănătate » De ce nu e bine să ceri sfaturi medicale de la ChatGPT: motivul pentru care AI-ul are "halucinaţii"