Liderii din spatele ChatGPT cer reglementări pentru a preveni distrugerea umanității prin inteligenţa artificială: "Trebuie să gestionăm riscurile"
Echipa din spatele ChatGPT spune că este nevoie de reglementări pentru a ne proteja împotriva riscurilor generate de programele de inteligenţă artificială "superinteligente", relatează The Guardian.
De Redactia Observator la 24.05.2023, 10:05- Alege ce urmează! Tu eşti liderul! Marcel Ciolacu, candidatul PSD la alegeri, faţă în faţă cu Alessandra Stoicescu de la ora 19:30, la Antena 1
- Alegeri prezidențiale 2024 LIVE TEXT. A început votul în diaspora. Primii români au votat în Noua Zeelandă
Liderii dezvoltatorului ChatGPT, OpenAI, solicită reglementarea inteligenței artificiale "superinteligente", argumentând că este necesară o organizație echivalentă Agenției Internaționale pentru Energie Atomică pentru a proteja umanitatea de riscul de a crea accidental ceva cu puterea de a o distruge.
Într-o scurtă notă publicată pe site-ul companiei, cofondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, solicită un organism de reglementare internațional pentru a începe să lucreze la modul de "inspectare a sistemelor, solicitarea de audituri, testarea conformității cu standardele de siguranță, impunerea restricțiilor privind gradul de implementare și nivelurile de securitate" în scopul reducerii riscului "existențial" pe care astfel de sisteme îl pot prezenta.
"Este posibil ca în următorii 10 ani, sistemele de inteligență artificială să depășească nivelul de competență al experților în majoritatea domeniilor și să desfășoare o activitate productivă similară cu cea a unei corporații mari de astăzi", scriu ei. "În ceea ce privește atât perspectivele pozitive, cât și cele negative, suprainteligenţa va fi mai puternică decât alte tehnologii cu care umanitatea a trebuit să se confrunte în trecut. Putem avea un viitor mult mai prosper; dar trebuie să gestionăm riscul pentru a ajunge acolo. Având în vedere posibilitatea de risc existențial, nu putem fi doar reactivi".
Ce soluţii pe termen scurt solicită trio-ul
- Microsoft își "upgradează" motorul de căutare cu Chat GPT. Compania lui Bill Gates vrea să folosească AI în...
- Reglementarea a ceva ce nu cunoaştem? UE ia în considerare un regulament privind inteligenţa artificială
- Italienii pot folosit din nou ChatGPT. Autoritățile au decis că OpenAI a remediat problemele de securitate a...
Pe termen mai scurt, trio-ul solicită "un anumit grad de coordonare" între companiile care lucrează la ultimele descoperiri în domeniul cercetării AI, pentru a asigura integrarea fără probleme a dezvoltării de modele tot mai puternice în societate, prioritarizând în același timp siguranța. Această coordonare poate fi realizată printr-un proiect condus de guvern, de exemplu, sau printr-un acord colectiv pentru a limita creșterea capacității AI.
Cercetătorii au avertizat despre riscurile potențiale ale suprainteligenței de zeci de ani, dar pe măsură ce dezvoltarea AI a accelerat, aceste riscuri au devenit mai concrete. Centrul pentru Siguranța AI (CAIS) din SUA, care lucrează pentru "reducerea riscurilor la scară socială generate de inteligența artificială", descrie opt categorii de risc "catastrofic" și "existențial" pe care dezvoltarea AI le-ar putea prezenta.
Dezvoltarea continuă a sistemelor AI "merită riscul"
În timp ce unii se îngrijorează că o IA puternică ar putea distruge complet umanitatea, în mod accidental sau intenționat, CAIS descrie și alte daune mai periculoase. O lume în care sistemele AI sunt supuse din proprie voință unor sarcini din ce în ce mai mari ar putea duce la "pierderea abilității de a se autoguverna și devenirea complet dependentă de mașini", descrisă ca "slăbire"; și un grup restrâns de persoane care controlează sisteme puternice ar putea "face din AI o forță de centralizare", conducând la "pierderea valorii", un sistem de caste etern între stăpâni și conduși.
Liderii OpenAI afirmă că aceste riscuri înseamnă că "oamenii din întreaga lume ar trebui să decidă democratic limitele și valorile implicite pentru sistemele AI", dar recunosc că "încă nu știm cum să proiectăm un astfel de mecanism". Cu toate acestea, ei afirmă că dezvoltarea continuă a sistemelor puternice merită riscul.