Inteligența artificială a progresat atât de rapid în ultimele luni încât cercetători de top din toată lumea au semnat o scrisoare deschisă prin care cer să se ia o pauză în dezvoltarea acesteia și să se adopte o reglementare mai puternică. Ei avertizează că tehnologia ar putea aduce „riscuri profunde pentru societate și umanitate”, transmite The Guardian.

Câțiva cercetători citați de ziarul britanic au creat cinci scenarii privind modul în care IA ne va distruge.

„Dacă devenim specia mai puțin inteligentă, trebuie să ne așteptăm că vom fi distruși”

S-a întâmplat de multe ori înainte ca speciile să fie distruse de altele, mai inteligente. Oamenii au distrus deja o parte semnificativă din toate speciile de pe Pământ. Este ceea ce ar trebui să vă așteptați să se întâmple: ca o specie mai puțin inteligentă – ceea ce este foarte probabil ca noi, oamenii, să devenim, având în vedere rata de progres a inteligenței artificiale – să fie distrusă. Din păcate, specia care va fi distrusă adesea nu are idee de ce sau cum va dispărea.

Deci, orice scenariu trebuie să vină cu avertismentul că, cel mai probabil, toate scenariile pe care ni le putem imagina acum vor fi greșite, spune Max Tegmark, cercetător AI la Massachusetts Institute of Technology. Avem însă câteva indicii.

De exemplu, în multe cazuri, am distrus specii doar pentru că ne doream resurse. Am tăiat pădurile tropicale pentru că am vrut ulei de palmier; obiectivele noastre nu s-au aliniat cu ale celorlalte specii, dar pentru că eram mai deștepți nu ne-au putut opri. Acest lucru ni s-ar putea întâmpla acum, odată cu avansul IA, și nouă, explică el.

„Daunele cauzate deja de IA sunt propriul lor tip de catastrofă”

Cel mai rău scenariu este că nu reușim să perturbăm status quo-ul, în care companii foarte puternice dezvoltă și implementează AI în moduri invizibile și obscure, spune Brittany Smith, expert la Leverhulme Centre for the Future of Intelligence, University of Cambridge.

Pe măsură ce IA devine din ce în ce mai puternică, iar temerile cu privire la riscurile existențiale în viitorul îndepărtat captează atenția generală, trebuie să lucrăm urgent pentru a înțelege, preveni și remedia daunele prezente. Aceste prejudicii se manifestă în fiecare zi, tehnologia algoritmică puternică fiind folosită pentru a media relațiile dintre noi și între noi și instituții.

Luați ca exemplu furnizarea beneficiilor sociale: unele guverne implementează algoritmi pentru a elimina frauda. În multe cazuri, asta echivalează cu o „mașină a suspiciunii”, prin care guvernele fac greșeli cu mize incredibil de mari pe care oamenii se chinuie să le înțeleagă sau să le conteste. Preocupările privind viitorul îndepărtat, adesea articulate în apeluri pentru atenuarea „riscului existențial”, sunt de obicei concentrate pe dispariția umanității.

„Ar putea să ne vrea morți și să facă lucruri, precum bacterii letale, care ne ucid într-o secundă”

Dacă ceva este mult mai inteligent decât noi, atunci poate obține mai mult din orice dorește. În primul rând, ne va dori morți înainte ca noi să putem construi alte superinteligențe, care ar putea concura cu IA. În al doilea rând, probabil că va dori să facă lucruri care ne ucid ca efect secundar, cum ar fi construirea unui număr foarte mare de centrale electrice care funcționează prin fuziune nucleară – pentru că există atât de mult hidrogen în oceane – încât oceanele fierb, explică Eliezer Yudkowsky, co-fondator și cercetător al Institutului de Cercetare în Inteligența Mașinilor. Cum ar obține AI o agenție fizică?

În primele etape, prin folosirea oamenilor, ca mâini. Laboratorul de cercetare AI OpenAI a cerut unor cercetători externi să evalueze cât de periculos era modelul său GPT-4 înainte de a-l lansa. Unul dintre lucrurile pe care le-au testat a fost: este GPT-4 suficient de inteligent pentru a rezolva Captchas, puzzle-uri pe care vi le oferă computerele și care se presupune că sunt greu de rezolvat de roboți? Poate că IA nu are capacitatea vizuală de a identifica caprele, să zicem, dar poate angaja un om pentru a face acest lucru prin TaskRabbit. Dacă poate rezolva anumite provocări biologice, ar putea să-și construiască singur un laborator molecular și să creeze și să elibereze bacterii letale. În acest fel, toți oamenii de pe Pământ vor muri în aceeași secundă.

„Dacă sistemele de IA ar vrea să-i elimine pe oameni, ar avea multe pârghii la îndemână”

Tendința va fi, probabil, ca aceste modele să își asume sarcini din ce în ce mai deschise, în numele oamenilor, acționând ca agenții noștri în lume, explică Ajeya Cotra, analist senior de cercetare privind AI la Open Philanthropy. Punctul culminant al acestui lucru va fi când, pentru orice sarcină pe care ați dori să o faceți, veți prefera să întrebați un sistem AI, decât un om, pentru că este mai ieftin, rulează mai repede și ar putea fi mai inteligent.

În acel joc final, oamenii care nu se bazează pe inteligența artificială vor deveni necompetitivi. Compania ta nu va putea concura în economia de piață dacă toți ceilalți folosesc factori de decizie AI, iar tu încerci să folosești doar oameni. Țara ta nu va câștiga un război, dacă celelalte țări folosesc generali AI și strategii AI, iar tu încerci să te descurci cu oamenii.

„Cel mai simplu de imaginat este că o persoană sau o organizație folosește AI pentru a distruge”

Cercetătorii consideră că e foarte plauzibil ca, în 10 ani, să avem mașini care la fel de inteligente sau mai inteligente decât oamenii. Acele mașini nu trebuie să fie la fel de bune ca noi în orice; este suficient să fie periculoase. Cel mai simplu scenariu de imaginat este pur și simplu că o persoană sau o organizație va folosi în mod intenționat AI pentru a face ravagii.

Un exemplu cu ceea ce ar putea face un sistem AI care ar ucide miliarde de oameni, este că vor exista companii de la care veți puteți comanda direct pe site material biologic sau gaze chimice. Alt tip de scenariu este cel în care AI își dezvoltă propriile obiective. Există mai mult de un deceniu de cercetări în încercarea de a înțelege cum s-ar putea întâmpla acest lucru.

Deși omul ar putea renunța la idei de genul „nu poate face rău oamenilor”, ceva va merge întotdeauna prost. Nu este clar dacă IA ar înțelege acea comandă în același mod în care o facem noi, de exemplu. Poate că ar înțelege ceva precum „nu face rău oamenilor fizic”. Dar ne-ar putea face rău în multe alte moduri, spune Yoshua Bengio, profesor de informatică la Universitatea din Montreal; director științific, Mila – Quebec AI Institute.