Video Inteligența artificială și războaiele moderne: de ce a refuzat Anthropic Armata SUA
Trăim viiitorul chiar în aceste momente. Cu două conflicte militare, unul la graniţă şi unul în Orientul Mijlociu, inteligenţa artificială şi-a făcut loc la masa deciziilor în domeniul militar. Cum influenţează una dintre cele mai puternice tehnologii create vreodată deciziile în sectorul apărării, aflaţi chiar acum, la rubrica USE IT.
Până acum am vorbit despre AI în contextul în care ne poate ajuta în viața de zi cu zi sau în business. Astăzi discutăm despre partea mult mai controversată a acestei tehnologii: folosirea inteligenței artificiale în domeniul militar. În ultimele luni, relația dintre Pentagon și companiile de tehnologie a devenit extrem de tensionată. Unele companii sunt dispuse să colaboreze cu armata. Altele refuză categoric. Conflictul a pornit de la o companie AI foarte cunoscută care a ales să spună "NU" armatei americane - Antrophic.
Cum a ajuns Anthropic pe lista companiilor problematice pentru Pentagon
Compania Anthropic, cunoscută pentru modelul de inteligență artificială Claude, a ajuns recent în centrul unei dispute cu armata americană. Pentagonul a dorit să integreze aceste modele în sisteme de analiză tactică în timp real, folosite pentru identificarea și evaluarea unor ținte în conflicte active. Anthropic a refuzat, însă.
"Nu vrem să vindem ceva ce nu credem că este de încredere. Nu vrem să vindem un sistem care ar putea ucide oameni nevinovaţi. Aceste lucruri sunt fundamentale pentru americani. Dreptul de a nu fi spionat de guvern. Dreptul ca deciziile de război să fie luate de oameni, nu de mașini", a spus Dario Amodei, CEO Anthropic.
Modelul Claude a fost creat pe baza conceptului de "Constitutional AI", un set de reguli etice care limitează folosirea tehnologiei pentru vătămare fizică sau în operațiuni militare letale. Compania este de părere că implicarea lui în decizii militare ar putea duce la erori grave.
"Oricine a lucrat cu modele AI știe că există un anumit grad de imprevizibilitate pe care nu am rezolvat-o. Problema nu este doar tehnică. Există și o problemă de responsabilitate. Dacă ai o armată mare de drone sau roboţi care pot opera fără nicio supraveghere umană, unde nu există soldaţi umani care să ia deciziile despre cine e vizat, în cine se trage, asta ridică îngrijorări", a declarat Dario Amodei.
Până la marea ruptură, Anthropic furniza deja Claude pentru analize de date guvernamentale, cercetare și logistică. Dar cu limite clare. Conflictul a escaladat când Pentagonul a cerut acces la straturile interne ale modelului pentru integrarea în sisteme de comandă și control ale armelor autonome. Compania a refuzat, iar consecința a fost o decizie fără precedent: includerea Anthropic pe o listă internă de companii considerate problematice pentru colaborarea cu Departamentul Apărării. Este prima dată când un gigant tech autohton, care nu a comis acte de spionaj, este pus pe o astfel de listă doar pentru că a refuzat să colaboreze în condițiile impuse de armată.
"Am crezut întotdeauna că atunci când ne apărăm împotriva adversarilor noştri, trebuie să o facem în moduri care protejează valorile democratice. De aceea am spus Departamentului de Apărare că suntem de acord cu 98-99% din cazurile de utilizare pe care doresc să le realizeze, cu două excepţii. Una este supravegherea în masă a oamenilor. În al doilea rând este vorba despre arme complet autonome. Arme care trag fără nicio implicare umană", a relatat Amodei.
În paralel, alte companii au ales o direcție diferită, ca să nu rişte exilul digital. Anul trecut, OpenAI a eliminat discret o interdicție explicită privind utilizarea modelelor sale în scopuri militare. Iar compania de analiză de date Palantir Technologies continuă să dezvolte sisteme AI folosite de agenții guvernamentale și militare.
Riscurile folosirii inteligenței artificiale pe câmpul de luptă
Discuția despre inteligența artificială în domeniul militar ridică întrebări importante. Nu doar despre tehnologie, ci și despre modul în care aceasta este folosită. Iată şi care ar fi rsicurile. Erori sau decizii greșite ale algoritmilor. Manipularea sistemelor AI. Lipsa transparenței în luarea deciziilor. Sau folosirea tehnologiei pentru supraveghere excesivă.
Inteligența artificială este una dintre cele mai puternice tehnologii create vreodată. Poate ajuta medicina, educația sau economia. Dar poate schimba și modul în care se poartă războaiele. AI-ul în domeniul militar este inevitabil. Dar dacă statele democratice refuză să îl dezvolte din motive etice, adversarii autoritari nu vor avea aceleași rețineri, ceea ce creează un dezechilibru periculos. De aceea, discuția despre limitele acestei tehnologii abia începe.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰