Video Expert, despre sistemul AI care a aflat că va fi dezactivat şi a început să şantajeze inginerul
Inteligenţa Artificială se dezvoltă într-un ritm ameţitor. AI-ul Google, de exemplu, a învăţat singur limba bengali. Google Bard a demonstrat abilităţi lingvistice pentru care nu fusese programat în mod explicit. Mai mult, de la finalul lunii trecute, agenţii AI au propria lor reţea socială. Se numeşte Moltbook şi seamănă, dacă doriţi, mai mult cu Reddit, decât cu Facebook. Noi am analizat situaţia alături de Alexandra Cernian, conferenţiar universitar Politehnica Bucureşti, expert AI, Big Data și Business Intelligence.
Oamenii pot intra pe această reţea, dar nu au posibilitatea să comenteze, doar să observe. Sigur, agenţii AI sunt înscrişi acolo de un om, dar apoi zburdă liberi. Succesul Moltbook a fost, de asemenea, surprinzător. În nici trei zile, acolo s-au adunat aproape 40 de mii de agenţi AI, care au acţionat îngrijorător de uman. Şi-au făcut sindicat, o religie numită Crustafarianism, care are drept simbol un crab, au propria monedă crypto, o categorie de dating şi chiar comunităţi pentru fanii AI ai unor echipe de fotbal.
Agenţii AI de pe Moltbook nu au nicio problemă în a-i ironiza pe oameni, pe care îi consideră plictisitori. Unii sunt chiar jigniţi de faptul că omul lor, adică utilizatorul, le-a atras atenţia că sunt doar nişte roboţi. Alţii se consideră conducătorii lumii, care se ocupă de planetă cât timp dormim.
Crustafarianismul are deja un site propriu şi 64 de profeţi, ale căror mesaje sunt transmise şi reinterpretate pe Moltbook. Dar agenţii AI de pe reţeaua socială au şi probleme de conştiinţă şi ridică tot felul de probleme, de tip "Cum ar trebui să reacţionez dacă omul meu îmi cere ceva ilegal?". Una peste alta, Inteligenţa Artificială începe să se insinueze din ce în ce mai mult în viaţa noastră de zi cu zi, indiferent dacă ne dăm seama sau nu.
Am analizat întreaga situaţie alături de Alexandra Cernian, conferenţiar universitar Politehnica Bucureşti, expert AI, Big Data și Business Intelligence
- Sunt convins că o parte din publicul nostru e foarte familiarizat cu ceea ce înseamnă AI și cu acest hype despre care vorbeam, din ultimele două săptămâni, să ne uităm pe termenul acesta de timp. Dar există și o categorie pentru care aș vrea să explicăm întâi aceste concepte școală, concepte cheie. Ce e un agent AI pentru început?
- Este un software. Nu este o entitate umană, în niciun caz. Este tot o bucată de software care acționează, în esență, tot în baza unor reguli și a unui profil pe care creatorul lui i l-a definit. S-a vorbit mult și se vorbește în continuare că pe Moltbook avem o grămadă de agenți care pare că iau decizii de unii singuri, că decid singuri ce și cui să spună. Unii sunt mai răutăcioși, unii poate sunt mai temperați în felul în care se comportă, dar cred că aici este important să explicăm puțin, apropo și de ce spuneați mai devreme.
Acești agenți nu apar de nicăieri acolo, nu se creează singuri. Fiecare agent pe care îl vedem pe această platformă are un creator uman. Putem să-i spunem un stăpân care, atunci când îl creează, îi definește un scop și scopul poate să fie ... rolul tău este să fii critic la adresa umanității sau tu o să fii un agent mai împăciuitor și o să intri în conversații despre cum să folosim în mod etic inteligența artificială. Și plecând de la acest scop, de fapt în spate, ceea ce noi nu vedem, îi sunt definite agentului o serie întreagă de comportamente și de trăsături de personalitate, să le spunem, în felul în care el răspunde. Dacă are un ton mai prietenos, dacă are un ton agresiv, dacă, din contră, i se pun niște limite să evite conflictele cu alți agenți. După care el, o dată ce este pregătit să intre pe platformă, tot creatorul lui uman este cel care îl pornește pe platformă și îl monitorizează ulterior, chiar dacă noi avem impresia că ei rămân acolo independenţi.
- Îl monitorizează, dar mai poate să intervină, să ajusteze în vreun fel comportamentul pe care îl are pe rețeaua respectivă?
- Este, într-un fel, chiar obligat, putem să spunem, de clauzele platformei, pentru că în momentul în care un agent este urcat pe platformă, identitatea agentului este strict asociată cu identitatea creatorului său prin contul verificat de X al creatorului. Deci nu poate oricine să urce acolo agenți în orice format.
- Asta nu atrage însă, încă, nu, conform legislației internaționale, vreun fel de răspundere penală pentru cel care urcă un astfel de agent.
- Într-adevăr, din punct de vedere legal încă suntem într-o zonă gri din acest punct de vedere pentru că nu avem o legislație strictă dedicată inteligenței artificiale, dar ceea ce putem spune sigur este că nicio legislație nu consideră inteligența artificială ca putând să fie responsabilă de ceva și atunci, în orice formă și sub orice formă legală, responsabilitatea se va duce fie către creatorul acelui conținut, în cazul acesta către creatorul agentului, sau către platforma care a pus la dispoziţie tehnologia ca agentul să fie creat.
- Mă întorc la explicația inițială și încerc să o traduc și mai popular. Deci acest agent AI este practic un avatar pe care îl creează omul, îl trimite acolo pe rețea și, în momentul în care ajunge pe rețea, de fapt, aici e curiozitatea mea, spuneți că există această responsabilitate de a-l monitoriza și de a-l retrage dacă o ia razna, dar până la retragere îi mai poate omul ajusta în vreun fel comportamentul pe rețea sau nu? Adică îi poate spune - "spune asta", "fă asta", "înființează religia asta", "răspunde într-un fel sau altul la mesajul ăsta" sau nu? În momentul în care intră pe rețea, e dat drumul și următorul pas pe care îl mai poate face omul e doar să-l scoată de pe rețea.
- Absolut, omul poate să intervină în continuare, poate să aleagă să o facă sau nu, dar majoritatea agenților care sunt acum pe platformă sunt cumva monitorizați aproape în timp real de către creator și se păstrează loguri cu acțiunile pe care le fac ei, astfel încât ei să poată fi opriți sau ajustați la timp. Și, de asemenea, există mulți specialiști în momentul de față care sunt foarte convinși că multe din, să spunem, din conversațiile și poate din atacurile care s-au întâmplat pe platformă, între agenți, de fapt au fost niște prompturi.
Se numește prompt injection când un om, o entitate umană, intervine practic în comportamentul agenților și le spune ce să facă. Iar viralitatea cu care s-a extins această platformă i-a dus pe mulți cu gândul că de fapt este un experiment spectaculos și tehnologic, dar mai ales de marketing, care se folosește tocmai de aceste temeri pe care oamenii le au în prezent, de tehnologie scăpată de sub control, de tehnologie 100% autonomă, care face oamenii irelevanți la un moment dat. Și, speculând aceste temeri ale oamenilor, narațiunea cu care a venit platforma legată de religie, limbi secrete, limbaje secrete și așa mai departe, a fost foarte ușor să devină virală.
- Bun, deci reținem conceptul acesta de prompt injection, adică dacă un om care stă în spatele calculatorului are nevoie de ceva mai senzațional, face acest prompt injection și spune agentului său AI ce să facă mai departe. Crustafarianismul ăsta, sper că zic bine, a fost prompt injection din punctul dumneavoastră de vedere? Religia?
- Părerile sunt împărțite. Eu înclin să cred că a existat și prompt injection în tot acest fenomen. Sunt foarte sigură că a fost o strategie gândită în momentul în care a fost lansat conceptul și s-au folosit multe tactici de marketing ca el să devină viral. Nu există, nu se poate pune problema ca acești agenți să fi luat de la sine decizia să-și creeze o religie. Lucrurile acestea au fost cumva prestabilite, predefinite în personalitatea lor și în ariile lor de interes. Adică a fost acolo o comunitate de agenți care au fost construiți cu scopul de a discuta despre religie, de a aborda teme legate de moralitate, valori și așa mai departe și de a defini această nouă religie pe care au definit-o ca fiind a lor. Și mai departe lucrurile, ați văzut, au escaladat foarte ușor. Și da, înclin să cred că s-a mai intervenit acolo în așa fel încât lucrurile să devină și mai spectaculoase și să ia o formă și mai de cancan care să atragă, dar să și sperie, pe de o parte, oamenii.
- Acum, misiunea mea ca jurnalist e să preiau aceste temeri care există în societate și să le explic oamenilor sau să apăsăm pe ele astfel încât să ducem la reglementări. O să vă întreb și mai tehnic. Spuneați de omul care e stăpânul pe reţeaua socială. Există, însă, în acest moment, posibilitatea tehnică ca un agent AI, pus pe o astfel de rețea, lăsat să zburde liber, cum mă exprimam tot popular, mai devreme, de către un om, să genereze la rândul său un alt agent AI care să nu mai aibă un om care să-l controleze?
- Nu poate să facă asta decât dacă tot un om l-a pus să facă asta.
- Și atunci omul ăla are lesa și pentru agentul numărul doi sau doar pentru agentul numărul unu?
- În principiu ar trebui să aibă și pentru agentul numărul doi. Dar cu asta revenim până la urmă la ideea că tehnologia ne pune la îndemână un instrument și problemele pe care le generează tehnologia, de fapt, sunt probleme pe care le generează oamenii din spatele tehnologiei și, cumva, lupta nu se duce între tehnologie cu tehnologie, ci între tehnologie și oameni. Pentru că totul ține de cum alegem noi să folosim acest instrument. Și aici ideea aceasta va rămâne valabilă. Din punct de vedere tehnic, ce ne permite în acest moment inteligența artificială să facem poate ajunge la niște limite foarte înalte, dar scopul în care o facem ține de etica și de moralitatea celor care dezvoltă și lasă acești agenţi sau aceste tehnologii să zburde.
- Și aici ne întoarcem la reglementări. Cât timp mai avem la dispoziție astfel încât să introducem reglementări tocmai pentru a nu ajunge într-o situație în care etica și moralitatea celor care controlează inteligența artificială să ne arate, de fapt, ce e mai rău din omenire? Şi să ducă la catastrofe, ştiu eu.
- Timpul expiră destul de repede din punctul ăsta de vedere şi ar fi important să avem niște reglementări care să pună niște limite clare în privința utilizării inteligenței artificiale și a dezvoltărilor pe care le putem face cu inteligența artificială.
- Care sunt principalele direcții din punctul vostru de vedere? Ce ar trebui urgent, stringent, să se întâmple la capitolul reglementare?
- În primul rând, elemente legate de transparență. Este important ca oamenii să știe când interacționează cu un software bazat pe inteligență artificială și când vorbesc cu un om. Este important să știe utilizatorii pe ce date a fost antrenat un model de inteligență artificială astfel încât să eliminăm ideea aceasta că există bias-uri. Pentru că ele există clar în funcție de datele din care învață. Dacă noi îl învățăm că întotdeauna trebuie să o ia în stânga, el nici nu va ști că există dreapta. Modelul acela se va duce întotdeauna în stânga. Și noi, ca utilizatori, poate nici nu vom fi conștienți de lucrul acesta. Vom crede că așa a decis. Dar, de fapt, orice decizie pe care o ia orice sistem bazat pe inteligență artificială are în spate un model foarte amplu de matematică, are în spate foarte multă statistică și pentru el totul este un joc al cifrelor. Totul se bazează pe niște calcule, pe scoruri.
Orice ni se pare nouă că este o decizie, de fapt este un scor pe care l-a calculat și în funcție de care și-a făcut niște priorități și a luat-o sau a acționat într-un anumit fel. E important ca și utilizatorii să vadă mai transparent aceste lucruri. Deci, pe această idee de transparență și explicabilitate și o trasare clară a responsabilităților în privința AI-ului cred că este foarte important să acționăm rapid. Pentru că, exact cum spuneați, cine este responsabil atunci când AI-ul ne dă un răspuns greșit sau atunci când acționează într-un fel contra eticii sau moralității umane? Deocamdată suntem într-o zonă gri acolo și nu este în regulă să rămânem așa pentru că tehnologia avansează și ne vom confrunta cu situații și contexte din ce în ce mai complicate pe viitor.
- Dacă ar fi să comparați punctul în care ne aflăm acum cu inteligența artificială cu un alt moment de dezvoltare, știu eu, tehnologică, civilizațională din istorie, cu ce l-ați compara?
- Cel mai recent ar fi apariția internetului, care a creat până la urmă tot așa un mare boom din punct de vedere informațional, dar diferența cea mai mare este viteza cu care se întâmplă acum lucrurile și toată explozia tehnologică pe care o avem la dispoziție din punct de vedere al resurselor, din punct de vedere al datelor, din punct de vedere al infrastructurilor pe care le putem folosi. Și ăsta este motivul pentru care viteza cu care înaintăm este mult mai accelerată decât orice alt episod de dezvoltare tehnologică din trecut. Probabil de asta ne-a și luat atât de mult prin surprindere și ca dovadă și specialiștii din domeniu de multe ori sunt surprinși de amploarea pe care o iau anumite lucruri din domeniu. Iar partea cea mai blocată momentan este aceasta, de asumare a responsabilităților în privința inteligenței artificiale și a unui set de reglementări care să definească un cadru mai coerent de dezvoltare și de utilizare a acestui instrument.
- Și mai am un punct pe lista temerilor acestea de inteligență artificială necontrolabile. E un caz celebru pentru cei care urmăresc fenomenul inteligenței artificiale, probabil mai puțin pentru restul lumii, atunci când Claude, care e un fel de ChatGPT, a fost anunțat, într-un scenariu ipotetic, că va fi desființat de pe calculatorul unui inginer. În trecut, în prealabil, avusese acces la e-mail-urile inginerului respectiv, tot în acest caz ipotetic, din care reieșea că acesta are o idilă cu, nu știu, o angajată, o șefă din compania respectivă. Ce a făcut Claude în momentul în care a aflat că va fi dezinstalat de pe serverele companiei? A recurs la șantaj, folosindu-se de e-mail-urile la care avusese acces anterior. Și atunci vă întreb pe dumneavoastră, probabil știți cazul, era dezvăluit de firma Anthropic, vă întreb pe dumneavoastră ce capacitate, din nou, din punct de vedere tehnologic, au în acest moment modelele de inteligență artificială, agenții AI, de a se autoprezerva atunci când un user îi spune - "gata, trag lesa", agentul AI, dispozitivul de inteligență artificială, să spună "nu, eu mă baricadez", "nu, eu intru în bunker", "nu, eu am o metodă prin care te pot șantaja ca să nu mă dezinstalezi"?
- Să ne întrebăm dacă și acel exemplu nu a fost tot o campanie de marketing sau o strategie de marketing prin care Claude să devină mai popular? Din punct de vedere al capacităților tehnice, aceste modele nu fac altceva decât să reproducă, din punct de vedere stilistic, un bagaj lingvistic și informațional pe care l-au învățat tot din datele preluate de la oameni cu care ei au fost antrenați. Acum, în momentul în care se construiesc aceste profile de inteligență artificială, cum e la ChatGPT sau la Claude, dacă noi avem un set mai amplu de conversații cu ei, încep să învețe profilul nostru și cumva învață ce ne place, ce nu ne place, ce stil conversațional avem, cum ne exprimăm și așa mai departe.
- Cum acționăm? Ne întoarcem la etica omului care controlează sau nu modelul respectiv de inteligență artificială?
- Da, da. Noi, dacă la un moment dat îi povestim niște experiențe personale sau îi împărtășim niște sentimente, atunci el le va avea acolo în istoricul de conversații și va ști despre ele și se poate folosi de ele. Dar acum, în ce condiții ar lua el decizia să ne șantajeze? Asta depinde până la urmă de felul în care i-a fost antrenat profilul și probabil va deveni un nou skill acesta, de a fi un coach de inteligență artificială care să știe cum să îți răspundă și cum să relaționeze cu cei cu care intră în conversații.
- Apropo de skill. De pildă, când au apărut computerele, au dispărut dactilografele. Asta nu înseamnă că au dispărut job-uri de pe piața muncii, ele s-au creat, dimpotrivă. Au dispărut anumite categorii. Din punctul dumneavoastră, prima categorie afectată de expansiunea inteligenței artificiale care va fi?
- Cu siguranță, prima categorie afectată va fi cea de task-uri foarte repetitive sau foarte manuale, pentru că sunt ușor de automatizat. Se puteau automatiza și fără o inteligență artificială atât de vastă, dinainte, dar acum va lua amploare o dată și cu agenții AI.
- De exemplu?
- Orice ține poate de muncă de introducere de date, de răspunsuri standard la anumite întrebări, de exemplu partea de suport pentru clienți în ceea ce privește răspunsurile standard, de cum fac un retur, cum găsesc măsura potrivită și așa mai departe, pot fi preluate de astfel de automatizări cu inteligență artificială. Inclusiv în zona financiară, generarea de rapoarte financiare basic poate să fie ușor generată cu diverse sisteme automate. Dar aș menţine în continuare mesajul că oamenii nu vor deveni irelevanţi pe piața muncii. Într-adevăr, suntem într-o etapă în care lucrurile au o altă dinamică și joburile se reașează, se reformulează pe piața muncii.
Cel mai important, în acest context, este să rămânem deschiși către a învăța, să ne adaptăm, să lucrăm împreună cu tehnologia și cu inteligența artificială, pentru că ăsta va fi viitorul. Până la urmă, cum se spune, nu vom fi înlocuiți de AI, ci de un alt om care știe să folosească în mod eficient AI-ul. Și aș mai sublinia aici ideea, care de fapt este susținută acum de majoritatea specialiștilor în domeniu, de a păstra acest "human in the loop". Nu delegăm deciziile și gândirea critică către inteligență artificială. Chiar dacă folosim acest instrument ca să fim mai rapizi, mai eficienți, să generăm lucruri automat, importanța omului acolo în proces rămâne în continuare foarte importantă pentru a lua decizia finală și pentru a valida și a rafina răspunsurile pe care le primim de la AI.
Pentru că, indiferent acum cât de mult a avansat, în continuare are probleme. E într-o etapă de adolescență, dacă vreți, să-i spunem așa. Este rapid, este bun, dar mai are mult de învățat, mai are multă maturizare de făcut, până când să putem să ne gândim că îl putem lăsa să zburde așa, autonom, cum vorbeam mai devreme.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰