Transformarea digitală prin Inteligența Artificială și reglementările Uniunii Europene

Inteligența artificială (AI) reprezintă o tehnologie fundamentală în procesul de transformare digitală al organizațiilor private și publice, cu prognoza ca, până în 2030, aceasta să fie utilizată direct sau indirect în majoritatea sectoarelor economice.

O analiză realizată de strategy&, departamentul de strategie al PwC, subliniază faptul că inteligența artificială generativă (GenAI) ar putea contribui la o creștere economică anuală suplimentară de până la 0,7% în Europa, cu condiția ca organizațiile să investească în inovare, să dezvolte strategii clare și să adopte măsuri pentru prevenirea riscurilor asociate cu această tehnologie.

Potrivit aceleași analize, utilizarea corectă a GenAI ar putea maximiza până la 90% din potențialul de creștere a productivității totale, având un impact semnificativ asupra economiei. Însă, încrederea în performanța, securitatea și corectitudinea AI rămâne esențială pentru utilizatori, clienți și factorii de decizie. În acest context, Uniunea Europeană a adoptat un regulament important referitor la utilizarea sistemelor de inteligență artificială: EU AI Act.

EU AI Act este un cadru legislativ menit să reglementeze utilizarea AI pe teritoriul Uniunii Europene, aplicabil atât organizațiilor publice, cât și celor private, indiferent de statutul lor (producători, distribuitori sau utilizatori de sisteme AI). Acesta include categorii de riscuri asociate cu diferitele tipuri de sisteme AI, iar organizațiile sunt obligate să se conformeze noilor cerințe pentru a evita riscurile legale și amenzile considerabile. Aceste reglementări sunt comparabile cu impactul GDPR asupra protecției datelor cu caracter personal.

UE
SURSA FOTO: Dreamstime

Clasificarea și Conformarea la EU AI Act

Sistemele AI sunt împărțite în categorii de risc, iar unele sunt considerate cu risc inacceptabil și sunt interzise. Exemple includ tehnologii de manipulare subliminală a comportamentului uman sau recunoaștere facială în timp real în spațiile publice.

Altele, cu risc ridicat, sunt reglementate prin cerințe stricte de documentare, monitorizare și calitate. Organizațiile trebuie să evalueze activ riscurile sistemelor AI pe care le implementează și să asigure conformitatea cu aceste reglementări.

În caz contrar, riscă sancțiuni financiare severe, care pot ajunge până la 35 milioane de euro sau 7% din cifra de afaceri anuală globală.

Măsuri de conformare pentru companii

Pentru a se alinia noilor cerințe, companiile trebuie să adopte o serie de măsuri, inclusiv:

  • Evaluarea impactului AI asupra structurilor de conformitate existente.
  • Clasificarea și inventarierea sistemelor AI, respectând taxonomia UE.
  • Identificarea și eliminarea sistemelor AI interzise.
  • Revizuirea guvernanței interne pentru a corespunde noilor reglementări.
  • Implementarea unor proceduri adecvate de testare și validare a riscurilor.
  • Garantarea unei guvernanțe eficiente a datelor.
  • Crearea unui cadru de protecție și măsuri de securitate, în special pentru sistemele avansate de AI.

Impactul global și tendințele reglementării AI

În paralel cu reglementările UE, și alte țări au început să pună în aplicare măsuri similare. Statele Unite, de exemplu, se bazează pe legile federale existente pentru a reglementa AI, dar se află în proces de elaborare a unei legislații specifice. Regatul Unit a adoptat deja o Carte albă privind reglementarea AI, care propune un cadru bazat pe principii. Astfel, este clar că reglementarea AI devine o prioritate globală, iar organizațiile trebuie să țină cont de aceste tendințe internaționale în dezvoltarea și implementarea tehnologiilor AI.

În concluzie, inteligența artificială reprezintă o oportunitate imensă de creștere economică și inovare, dar aceasta vine la pachet cu provocări semnificative privind reglementarea și riscurile asociate.