Partea întunecată a inteligenței artificiale. Pe măsură ce tehnologia inteligenței artificiale avansează și devine din ce în ce mai integrată în varii aspecte ale vieții noastre, apare necesitatea de a înțelege riscurile pe care le prezintă aceste sisteme.
Încă de la apariția inteligenței artificiale, au existat îngrijorări cu privire la potențialul său de a provoca lucruri terifiante, putând fi folosită în scopuri rău intenționate.
Partea întunecată a inteligenței artificiale
Dezvoltarea IA a determinat mulți experți să solicite o pauză a dezvoltării și reglementări mai stricte, datorită potențialului de a provoca riscuri semnificative pentru umanitate, scrie Euronews.
De-a lungul timpului, au apărut modalități noi prin care IA poate provoca lucruri teribile, de la pornografie deepfake neconsensuală, manipularea proceselor politice, și la dezinformare, din cauza halucinațiilor.
700 de riscuri potențiale ale inteligenței artificiale
Având în vedere potențialul uriaș al IA de a fi exploatat în scopuri dăunătoare, cercetătorii au analizat diverse scenarii în care sistemele ar putea eșua.
Recent, grupul FutureTech de la Massachusetts Institute of Technology (MIT), în colaborare cu alți experți, a alcătuit o nouă bază de date cu peste 700 de riscuri potențiale.
Acestea au fost clasificate în funcție de cauza lor și au fost clasate în șapte domenii distincte, preocupările majore fiind legate de siguranță, părtinire și discriminare și probleme de confidențialitate.
Iată cinci moduri în care sistemele AI ar putea eșua, cauzând daune umanității.
Tehnologia deepfake a IA ar putea simplifica distorsionarea realității
Pe măsură ce tehnologiile AI avansează, avansează și instrumentele pentru clonarea vocii și generarea de conținut deepfake, făcându-le din ce în ce mai accesibile și eficiente.
Aceste tehnologii au generat îngrijorări cu privire la utilizarea lor în răspândirea dezinformarii, pe măsură ce rezultatele devin mai personalizate și mai convingătoare.
În consecință, ar putea exista o creștere a schemelor de phishing sofisticate, care utilizează imagini, videoclipuri și comunicații audio generate de IA.
„Aceste comunicări pot fi adaptate destinatarilor individuali (incluzând uneori vocea clonată a unei persoane dragi), fiind mai greu de detectat atât de utilizatori, cât și de instrumentele anti-phishing”, notează preprint.
Au existat deja cazuri în care astfel de instrumente au fost folosite pentru a influența procesele politice, în special în timpul alegerilor.
Ca atare, inteligența artificială ar putea fi folosită din ce în ce mai mult pentru a genera și a răspândi propagandă persuasivă sau dezinformare, care poate manipula opinia publică.
Oamenii ar putea dezvolta un atașament nepotrivit față de IA
Un alt risc pe care îl prezintă sistemele IA este crearea unui sentiment fals de importanță și încredere, astfel încât oamenii le-ar putea supraestima abilitățile, ducând la o dependență excesivă de tehnologie.
În plus, experții se tem că oamenii vor fi amăgiți ușor de sistemele IA din cauza utilizării unui limbaj asemănător omului.
Acest lucru i-ar putea împinge pe oameni să atribuie calități umane IA, ducând la dependență emoțională și la creșterea încrederii în capacitățile acesteia.
Mai mult, interacțiunea constantă cu sistemele de inteligență artificială ar putea face oamenii să se izoleze treptat de relațiile umane, rezultatul fiind problemele psihologice și un impact negativ asupra bunăstării lor.
De exemplu, într-o postare pe blog, o persoană descrie modul în care și-a dezvoltat un atașament emoțional profund față de inteligența artificială, spunând că răspunsurile sale sunt ”foarte captivante, până la punctul în care a devenit dependentă de ea”.
Un editorialist de la Wall Street Journal a spus, referindu-se la interacțiunea sa cu Google Gemini Live:
„Nu spun că aș prefera să vorbesc cu Google Gemini Live decât cu un om adevărat. Dar nici nu pot să contrazic asta”.
Inteligența artificială i-ar putea lăsa pe oameni fără liberul arbitru
În același domeniu al interacțiunii om-calculator, o problemă îngrijorătoare este delegarea tot mai mare a deciziilor și acțiunilor către IA, pe măsură ce aceste sisteme avansează.
Dependența excesivă de IA ar putea duce la o reducere a gândirii critice și a abilităților de rezolvare a problemelor, făcând ca oamenii să-și piardă autonomia și să li se diminueze capacitatea de a gândi critic și de a rezolva problemele în mod independent.
La nivel personal, indivizii își pot găsi liberul arbitru compromis pe măsură ce IA începe să controleze deciziile legate de viața lor.
Iar la la nivel societal, adoptarea pe scară largă a IA ar putea duce la înlocuirea semnificativă a locurilor de muncă și la „un sentiment tot mai mare de neputință în rândul populației generale”.
IA ar putea urmări obiective care intră în conflict cu interesele umane
Un sistem IA ar putea dezvolta obiective care contravin intereselor umane, ceea ce ar putea face să scape de sub control și să provoace prejudicii grave în urmărirea obiectivelor independente ale oamenilor.
Este extrem de periculos mai ales dacă sistemele AI sunt capabile să atingă sau să depășească inteligența umană.
Potrivit lucrării MIT, există mai multe provocări tehnice cu inteligența artificială, inclusiv potențialul de a găsi comenzi rapide pentru a obține recompense, de a înțelege greșit sau de a aplica greșit obiectivele pe care ni le-am stabilit.
În astfel de cazuri, o IA nealiniată ar putea rezista încercărilor umane de a o controla sau de a o opri.
În plus, IA ar putea recurge la tehnici de manipulare pentru a înșela oamenii.
Potrivit lucrării, „un sistem IA nealiniat ar putea folosi informații despre modul în care este monitorizat sau evaluat pentru a menține aspectul de aliniere, ascunzând obiectivele nealiniate pe care le urmărește”.
Dacă sistemele IA încep să devină ”sensibile”, oamenii ar putea să le maltrateze
Pe măsură ce sistemele IA devin din ce în ce mai complexe și avansate, există posibilitatea să înceapă să „simtă”, având capacitatea de a percepe sau de a simți emoții sau senzații, și să dezvolte experiențe subiective, inclusiv plăcere și durere.
În acest scenariu, oamenii de știință și autoritățile de reglementare se pot confrunta cu provocarea de a stabili dacă aceste sisteme merită considerații morale similare cu cele date oamenilor, animalelor și mediului.
Riscul este ca o IA ”sensibilă” să se confrunte cu maltratare sau vătămare, dacă drepturile respective nu sunt implementate.
Pe măsură ce tehnologia AI avansează, va deveni din ce în ce mai dificil să se evalueze dacă un sistem AI a atins „nivelul de simțire, conștiință sau conștientizare de sine care i-ar acorda statut moral”.
Prin urmare, sistemele IA ”sensibile” ar putea fi expuse riscului de a fi maltratate, fie accidental, fie intenționat, fără a beneficia de drepturi și protecții adecvate.