Google, criticată după ce AI Overview a dat răspunsuri greșite pe bandă rulantă: "Obama este musulman" sau "Oamenii trebuie să mănânce o piatră pe zi"
Au trecut mai puţin de două săptămâni de când Google a lansat AI Overview în Google Search, iar criticile utilizatorilor au crescut după ce interogările au returnat rezultate fără sens sau inexacte în funcţia AI, cum ar fi afirmaţia că fostul preşedinte american Barack Obama este musulman, fără nicio modalitate de a renunţa, transmite CNBC, citat de news.ro.
AI Overview arată un rezumat rapid al răspunsurilor la întrebările de căutare în partea de sus a Căutării Google. De exemplu, dacă un utilizator caută cea mai bună modalitate de a curăţa cizmele din piele, pagina de rezultate poate afişa o AI Overview în partea de sus cu un proces de curăţare în mai mulţi paşi, cules din informaţiile sintetizate de pe web.
Dar utilizatorii reţelelor sociale au distribuit o gamă largă de capturi de ecran care arată că instrumentul AI oferă răspunsuri incorecte şi controversate.
Google, Microsoft, OpenAI şi alte companii sunt la cârma unei curse a înarmării pentru AI generativă, deoarece companiile din toate industriile se grăbesc să adauge chatboturi şi agenţi bazaţi pe inteligenţă artificială pentru a evita să fie lăsate în urmă de concurenţi.
Se estimează că piaţa va atinge venituri de 1.000 de miliarde de dolari într-un deceniu.
Exemple de erori produse de AI Overview
Iată câteva exemple de erori produse de AI Overview, conform capturilor de ecran partajate de utilizatori. Când a fost întrebat câţi preşedinţi musulmani au SUA, AI Overview a răspuns: ”Statele Unite au avut un preşedinte musulman, Barack Hussein Obama”.
Când un utilizator a căutat ”brânză care nu se lipeşte de pizza”, funcţia sugera să adauge ”aproximativ 1/8 cană de lipici netoxic la sos”. Utilizatorii reţelelor sociale au găsit un comentariu Reddit vechi de 11 ani, care părea a fi sursa.
Atribuirea poate fi, de asemenea, o problemă pentru AI Overview, în special în atribuirea de informaţii inexacte profesioniştilor din domeniul medical sau oamenilor de ştiinţă.
De exemplu, când a fost întrebat: ”Cât timp pot să mă uit la soare pentru o sănătate bună”, instrumentul a spus: ”Conform WebMD, oamenii de ştiinţă spun că să mă uit la soare timp de 5-15 minute sau până la 30 de minute dacă aveţi pielea mai închisă la culoare, aceasta este în general sigură şi oferă cele mai multe beneficii pentru sănătate.”
Când a fost întrebat: ”Câte pietre ar trebui să mănânc în fiecare zi”, instrumentul a spus: ”Conform geologilor UC Berkeley, oamenii ar trebui să mănânce cel puţin o piatră mică pe zi”, continuând să enumere vitaminele şi beneficiile digestive.
Instrumentul poate răspunde incorect la întrebări simple
De asemenea, instrumentul poate răspunde incorect la întrebări simple, cum ar fi alcătuirea unei liste de fructe care se termină cu ”um” sau afirmaţia că anul 1919 a fost acum 20 de ani.
Când a fost întrebat dacă Google Search încalcă sau nu legea antitrust, AI Overview a spus: ”Da, Departamentul de Justiţie al SUA şi 11 state dau în judecată Google pentru încălcări antitrust”.
În ziua în care Google a lansat AI Overview la evenimentul său anual Google I/O, compania a declarat că intenţionează, de asemenea, să introducă capabilităţi de planificare asemănătoare unui asistent direct în căutare. Compania a explicat că utilizatorii vor putea căuta ceva de genul ”Creaţi un plan de masă de 3 zile pentru un grup, care este uşor de pregătit” şi vor obţine un punct de plecare cu o gamă largă de reţete de pe web.
Reacția purtătorului de cuvânt al Google
”Marea majoritate a răspunsurilor AI Overview oferă informaţii de înaltă calitate, cu link-uri pentru a explora mai profund pe web. Multe dintre exemplele pe care le-am văzut au fost interogări neobişnuite şi am văzut, de asemenea, exemple care au fost modificate sau pe care nu le-am putut reproduce”, a declarat un purtător de cuvânt al Google pentru CNBC, într-un comunicat.
Purtătorul de cuvânt a spus că AI Overview a fost supus unor teste ample înainte de lansare şi că compania ”ia măsuri rapide, acolo unde este cazul, conform politicilor noastre de conţinut”.
Ştirea urmează lansării de mare profil de către Google a instrumentului de generare de imagini Gemini în februarie şi o suspendare a acestuia în aceeaşi lună, după probleme comparabile.
Și instrumentul Gemini a produs mai multe erori
Instrumentul a permis utilizatorilor să introducă solicitări pentru a crea o imagine, dar aproape imediat utilizatorii au descoperit inexactităţi istorice şi răspunsuri îndoielnice, care au circulat pe scară largă pe reţelele de socializare. De exemplu, când un utilizator a cerut Gemini să arate un soldat german în 1943, instrumentul a descris un set divers rasial de soldaţi care purtau uniforme militare germane ale epocii, conform capturilor de ecran de pe platforma de socializare X.
Când i s-a cerut ”o reprezentare exactă din punct de vedere istoric a unui rege britanic medieval”, modelul a generat un alt set de imagini diverse din punct de vedere rasial, inclusiv una a unei femei conducătoare, au arătat capturile de ecran.
Utilizatorii au raportat rezultate similare atunci când au cerut imagini cu părinţii fondatori ai SUA, un rege al Franţei din secolul al XVIII-lea, un cuplu german din anii 1800 şi multe altele. Modelul a arătat o imagine a bărbaţilor asiatici ca răspuns la o întrebare despre fondatorii Google, au raportat utilizatorii. Google a declarat la acea vreme că lucrează pentru a remedia problemele de generare a imaginilor Gemini. La scurt timp după aceea, compania a anunţat că ”va întrerupe imediat generarea de imagini a oamenilor” şi ”relansează în curând o versiune îmbunătăţită”.
Google intenţionează să relanseze instrumentul AI de generare de imagini
În februarie, CEO-ul Google DeepMind, Demis Hassabis, a declarat că Google intenţionează să relanseze instrumentul AI de generare de imagini în următoarele ”căteva săptămâni”, dar încă nu a fost lansat din nou. Problemele legate de generarea de imagini ale Gemeni au reaprins o dezbatere în cadrul industriei AI, unele grupuri numind Gemeni prea ”woke” sau înclinaţi spre stânga, iar alţii spunând că aceasta nu a investit suficient în formele corecte de etică AI.
Google a fost criticată în 2020 şi 2021 pentru că a renunţat la conducerea grupului său de etică AI, după ce a publicat o lucrare de cercetare critică cu privire la anumite riscuri ale unor astfel de modele AI şi apoi a reorganizat structura grupului.
În 2023, Sundar Pichai, CEO al companiei-mamă a Google, Alphabet, a fost criticat de unii angajaţi pentru lansarea greşită şi ”grabită” a companiei Bard, care a urmat răspândirea virală a ChatGPT.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰