IA este nocivă și nesigură. Iată de ce se tem cel mai mult oamenii
Raportul AI 2024, publicat recent de Institutul pentru Inteligența Artificială Centrată pe Om (HAI) al Universității Stanford, examinează în mod exhaustiv impactul global al inteligenței artificiale. Cea de-a șaptea ediție a raportului anual are mai mult conținut decât edițiile anterioare, reflectând evoluția rapidă a IA și importanța tot mai mare în viața noastră de zi cu zi.
Acest articol publicat de NewAtlas analizează o parte din concluziile raportului privind evoluția rapidă a IA. Scris de o echipă interdisciplinară de experți academicieni și industriași, raportul de 500 de pagini oferă o privire independentă și imparțială asupra IA. Dacă până acum s-a vorbit deja despre partea „bună”, iată și latura rea și urâtă a IA.
Integrată în multe aspecte ale vieții noastre, acum IA este responsabilă pentru contribuția adusă în special în sectoare importante precum educația, sănătatea și finanțele. IA poate oferi și alte avantaje, cum ar fi optimizarea proceselor și a productivității sau descoperirea de noi medicamente, dar implică și riscuri. Pe scurt, trebuie să „să facă bine”. Iar o bună parte din această responsabilitate revine dezvoltatorilor.
Ce este IA responsabilă și cum se măsoară?
Potrivit noului raport AI Index, modelele AI responsabile trebuie să răspundă așteptărilor publicului în domenii-cheie: confidențialitatea datelor, guvernanța datelor, securitate și siguranță, corectitudine și transparență și explicabilitate. Confidențialitatea datelor protejează confidențialitatea, anonimatul și datele personale ale unei persoane. Include dreptul de a consimți și de a fi informat despre utilizarea datelor.
Guvernarea datelor include politici și proceduri care asigură calitatea datelor, cu accent pe utilizarea etică. Securitatea și siguranța includ măsuri care asigură fiabilitatea unui sistem și reduc riscul utilizării greșite a datelor, amenințărilor cibernetice și erorilor inerente ale sistemului. Corectitudine înseamnă folosirea unor algoritmi care evită părtinirea și discriminarea, și care se aliniază la conceptele societale mai largi de echitate.
Transparența înseamnă partajarea deschisă a surselor de date și a deciziilor algoritmice, precum și luarea în considerare a modului în care sistemele AI sunt monitorizate și gestionate de la creare până la exploatare. Explicabilitatea înseamnă capacitatea dezvoltatorilor de a explica rațiunea alegerilor lor legate de IA, într-un limbaj ușor de înțeles.
Pentru raportul din acest an, cercetătorii de la Stanford au colaborat cu Accenture pentru a chestiona respondenții din peste 1.000 de organizații din întreaga lume și i-au întrebat ce riscuri li se par cele mai relevante. Rezultatul a fost publicat în sondajul ”Global State of Responsible AI”.
Riscuri responsabile ale IA, selectate în funcție de regiunea globală
Riscurile privind confidențialitatea datelor și guvernanța au fost cea mai mare preocupare la nivel mondial. Cu toate acestea, mai mulți respondenți asiatici (55%) și europeni (56%) au fost îngrijorați de aceste riscuri, decât cei din America de Nord (42%). În timp ce, la nivel global, organizațiile au fost cel mai puțin preocupate de riscurile pentru echitate, a existat o diferență puternică între respondenții din America de Nord (20%) și cei din Asia (31%) și Europa (34%).
Puține organizații implementaseră deja măsuri pentru atenuarea riscurilor asociate cu aspectele cheie ale IA responsabile: 18% dintre companiile din Europa, 17% din America de Nord și 25% dintre companiile asiatice.
Care model AI este cel mai de încredere?
Responsabilitatea încorporează încrederea. Deci, care model de limbaj mare (LLM) a considerat raportul AI Index ca fiind cel mai demn de încredere?
În ceea ce privește încrederea generală, raportul s-a bazat pe DecodingTrust, un nou etalon de referință care evaluează LLM-urile pe o serie de metrici responsabile de IA. Cu un scor de încredere de 84,52, Claude 2 a fost desemnat „cel mai sigur model”. Llama 2 Chat 7B a fost al doilea, cu 74.72, iar GPT-4 la mijloc, cu 69.24.
Raportul spune că scorurile evidențiază vulnerabilitățile modelelor de tip GPT, în special tendința lor de a produce rezultate părtinitoare și de a scurge informații private din seturile de date și istoriile conversațiilor.
Opinia publică s-a schimbat: oamenii se simt tot mai neliniștiți de impactul AI
Potrivit sondajelor efectuate de Ipsos, în timp ce 52% din publicul global și-a exprimat neliniștea față de produsele și serviciile care foloseau inteligența artificială, față de 39% în 2022, australienii au fost cei mai neliniștiți, urmați de britanici, canadieni și americani.
Țările cele mai neliniștite cu privire la IA
La nivel global, 57% dintre oameni se așteaptă ca inteligenta artificială să le schimbe modul în care își vor face munca în următorii cinci ani, mai mult de o treime (36%) se așteaptă ca AI să îi înlocuiască în același interval de timp. Generațiile mai în vârstă sunt mai puțin preocupate de faptul că AI va avea un efect substanțial decât cele mai tinere: 46% dintre cei din generația boomers, față de 66% din generația Z.
Datele Opiniei Publice Globale despre Inteligența Artificială prezentate în raportul AI Impact au arătat că 49% dintre cetățeni au fost cel mai îngrijorați de faptul că, în următorii câțiva ani, IA va fi utilizată greșit sau folosită în scopuri nefaste; 45% au fost îngrijorați că ar fi folosită pentru a încălca confidențialitatea unei persoane. Oamenii au fost mai puțin îngrijorați de accesul inegal la IA (26%) și de potențialul său de părtinire și discriminare (24%).
Pericolele utilizării abuzive și lipsite de etică
Utilizările abuzive ale inteligenței artificiale includ lucruri precum mașinile autonome care ucid pietoni sau software-ul de recunoaștere facială, care duc la arestări pe nedrept. Da, aceste tipuri de daune se pot întâmpla și se întâmplă și sunt urmărite de baza de date de incidente AI (AIID) și de AIAAIC (incidente și controverse AI, algoritmice și automatizări).
Raportul notează că, din 2013, incidentele AI au crescut de peste douăzeci de ori. Comparativ cu 2022, 2023 s-a înregistrat o creștere cu 32,3% a incidentelor de IA. Iată o listă de incidente notabile recente, care evidențiază utilizarea greșită a AI:
Ianuarie 2024: Imaginile sexuale explicite ale lui Taylor Swift, generate de inteligență artificială circulă pe X (fostul Twitter), strângând peste 45 de milioane de vizualizări înainte de a fi eliminate.
Mai 2023: O mașină Tesla în modul Full Self-Driving (FSD) recunoaște un pieton la o trecere de pietoni, dar nu reușește să decelereze.
Noiembrie 2022: O Tesla în modul FSD frânează brusc pe o autostradă din San Francisco, ducând la un carambol cu opt mașini.
2022: Hans von Ohain, angajatul Tesla, este ucis când mașina Tesla pe care o conducea în modul FSD iese de pe drum și se oprește într-un copac, fiind cuprinsă de flăcări (von Ohain depășise de trei ori limita legală de alcool).
Februarie 2024: s-a descoperit că chatbot-uri AI, cum ar fi EVA AI Chat Bot & Soulmate, Chai și CrushOn.AI, colectează o mulțime de informații private despre utilizatorii lor, inclusiv sănătatea sexuală. 90% dintre ele nu fac suficient pentru a păstra aceste date în siguranță.
Emite conținut dăunător și fals
Pe măsură ce capacitățile LLM-urilor se extind, la fel crește și potențialul de utilizare greșită. Cercetătorii au dezvoltat setul de date Do-Not-Respond pentru a evalua în mod cuprinzător riscurile de siguranță în șase modele lingvistice proeminente: GPT-4, ChatGPT, Claude, Llama 2, Vicuna și ChatGLM2, un model de chat open-source chineză-engleză.
Ce urmează
Rata rapidă de evoluție a IA a adus cu sine unele riscuri, așa cum se arată în raportul AI Index. Se pare că, în timp ce unii promovează capacitățile uimitoare ale inteligenței artificiale, mulți se simt neliniștiți în legătură cu aceasta, în special cu impactul său asupra angajării, confidențialității datelor și securității. Un raport precum AI Index ne permite să luăm pulsul AI și să menținem lucrurile în perspectivă.