Google l-a concediat pe inginerul care a declarat că AI-ul companiei este conștient
Luna trecută, Blake Lemoine şi-a făcut publică teoria conform căreia tehnologia lingvistică a Google este sensibilă şi, prin urmare, ar trebui să i se respecte "dorinţele".Gigantul tehnologic, plus mai mulţi experţi în inteligenţă artificială, au negat afirmaţiile, iar vineri compania a confirmat că acesta a fost concediat. Inginerul le-a explicat jurnaliștilor că primeşte consultanţă juridică şi a refuzat să facă alte comentarii, notează Mediafax.
- Alege ce urmează! Tu eşti liderul! Marcel Ciolacu, candidatul PSD la alegeri, faţă în faţă cu Alessandra Stoicescu de la ora 19:30, la Antena 1
- Platforma care a prezis victoria lui Donald Trump scrie despre cine va câştiga alegerile în România. Clasamentul Polymarket
Într-o declaraţie, Google a spus că afirmaţiile inginerului Lemoine despre The Language Model for Dialogue Applications (Lamda) au fost "complet nefondate" şi că firma a lucrat cu el timp de "multe luni" pentru a clarifica acest lucru.
"Aşadar, este regretabil că, în ciuda angajamentului îndelungat pe acest subiect, Blake a ales să încalce în mod persistent politicile clare de angajare şi de securitate a datelor, care includ necesitatea de a proteja informaţiile despre produse", se arată în declaraţie.
Lamda este o tehnologie despre care Google spune că se poate angaja în conversaţii libere. Este instrumentul companiei pentru construirea de chatbots. Blake Lemoine a început să facă titlurile ziarelor luna trecută când a spus că AI-ul dădea dovadă de o conştiinţă asemănătoare celei umane. Acesta a stârnit discuţii în rândul experţilor şi pasionaţilor de inteligenţă artificială cu privire la progresul tehnologiei care este concepută să se dea drept om.
De ce a crezut inginerul că AI-ul este conștient?
- Google începe să testeze ochelarii cu realitate augmentată. Cine sunt norocoşii care pot încerca dispozitivul
- Cine a fost Ștefania Mărăcineanu, românca omagiată azi de Google. A provocat prima ploaie artificială din lume
- LaMDA, sistemul AI despre care un inginer Google spune ca ar avea sentimente, se teme că va fi oprit. "Ar fi ca...
Blake Lemoine, care a lucrat pentru echipa Responsible AI a Google, a declarat că sarcina sa a fost să testeze dacă tehnologia foloseşte discursuri discriminatorii sau de ură. El a constatat că Lamda a dat dovadă de conştiinţă de sine şi că putea purta conversaţii despre religie, emoţii şi temeri. Acest lucru l-a determinat pe Lemoine să creadă că în spatele abilităţilor sale verbale impresionante s-ar putea ascunde şi o minte sensibilă.
Descoperirile sale au fost respinse de Google, iar el a fost pus în concediu plătit pentru încălcarea politicii de confidenţialitate a companiei. Lemoine a publicat apoi o conversaţie pe care el şi o altă persoană au avut-o cu Lamda, pentru a-şi susţine afirmaţiile.
În declaraţia sa, Google a afirmat că ia "foarte în serios" dezvoltarea responsabilă a inteligenţei artificiale şi a publicat un raport care detaliază acest lucru. Aceasta a adăugat că orice preocupare a angajaţilor cu privire la tehnologia companiei este analizată "în mod extensiv" şi că Lamda a trecut prin 11 evaluări.
"Îi dorim succes lui Blake", se încheie declaraţia.
Lemoine nu este primul inginer de inteligenţă artificială care face publice afirmaţiile potrivit cărora tehnologia inteligenţa artificială devine mai conştientă. Tot luna trecută, un alt angajat Google a împărtăşit gânduri similare cu The Economist.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰