Ordin venit de la UE. Este obligatoriu și în România. A intrat în vigoare la 1 august

UE, legislație AI

SURSA FOTO: Dreamstime

Legea care vizează folosirea IA în UE a intrat în vigoare. La 1 august 2024, a intrat în vigoare Legea europeană privind inteligența artificială (Act AI). Legea urmărește să promoveze dezvoltarea și implementarea responsabilă a inteligenței artificiale în Uniunea Europeană.

Legea care vizează folosirea IA în UE a intrat în vigoare. Ce sisteme sunt interzise

Legea care vizează folosirea IA în UE a intrat în vigoare. La 1 august 2024, a intrat în vigoare Legea europeană privind inteligența artificială (Act AI). Legea urmărește să promoveze dezvoltarea și implementarea responsabilă a inteligenței artificiale în Uniunea Europeană. Propusă de Comisie în aprilie 2021 și aprobată de Parlamentul European și de Consiliu în decembrie 2023, legea abordează riscurile potențiale pentru sănătatea, siguranța și drepturile fundamentale ale cetățenilor.

De asemenea, impune dezvoltatorilor și celor care implementează IA cerințe și obligații clare privind utilizările specifice ale inteligenței artificiale, reducând în același timp sarcinile administrative și financiare pentru întreprinderi, potrivit site-ului Comisiei Europene.

Companiile din tehnologia AI riscă sancţiuni de maximum 7% din cifra globală de afaceri

Pentru companiile din tehnologia IA, legea prevede sancţiuni pecuniare de maximum 7% din cifra globală de afaceri. Cel mai important, legea introduce un cadru uniform în toate țările UE, bazat pe o definiție de perspectivă a IA și o abordare bazată pe risc:

Risc minim: majoritatea sistemelor AI, cum ar fi filtrele de spam și jocurile video compatibile cu AI, nu se confruntă cu nicio obligație, conform Legii AI, dar companiile pot adopta în mod voluntar coduri de conduită suplimentare.

Risc specific de transparență: sisteme precum chatboții trebuie să informeze în mod clar utilizatorii că interacționează cu o mașină, în timp ce anumite conținuturi generate de inteligența artificială trebuie să fie etichetate ca atare.

Risc ridicat: sistemele AI cu risc ridicat, cum ar fi software-ul medical bazat pe IA sau sistemele IA utilizate pentru recrutare, trebuie să respecte cerințe stricte, inclusiv sisteme de atenuare a riscurilor, seturi de date de înaltă calitate, informații clare despre utilizator, supraveghere umană etc.

Risc inacceptabil: de exemplu, sistemele IA care permit „ marcarea socială” de către guverne sau companii sunt considerate o amenințare clară la adresa drepturilor fundamentale ale oamenilor și, prin urmare, sunt interzise.

UE vrea să devină lider global în domeniul siguranței IA

Potrivit site-ului CE, UE vrea să devină lider global în domeniul siguranței IA. Prin dezvoltarea unui cadru de reglementare puternic, bazat pe drepturile omului și pe valorile fundamentale, UE poate dezvolta un ecosistem IA care să fie în beneficiul tuturor.

Înseamnă asistență medicală mai bună, transport mai sigur și mai curat și servicii publice îmbunătățite pentru cetățeni. Aduce produse și servicii inovatoare, în special în energie, securitate și asistență medicală, precum și o productivitate mai mare și o producție mai eficientă pentru întreprinderi, în timp ce guvernele pot beneficia de servicii mai ieftine și mai durabile, cum ar fi transportul, energia și gestionarea deșeurilor.

Comisia a lansat o consultare privind un cod de practică pentru furnizorii de modele de inteligență artificială de uz general (GPAI). Acest cod, prevăzut de Legea AI, va aborda domenii critice, cum ar fi transparența, regulile legate de drepturile de autor și gestionarea riscurilor.

Furnizorii GPAI cu operațiuni în UE, întreprinderile, reprezentanții societății civile, deținătorii de drepturi și experții academicieni sunt invitați să își prezinte opiniile și constatările, care vor fi incluse în viitorul proiect al Comisiei privind Codul de practică referitor la modelele GPAI. Prevederile privind GPAI vor intra în aplicare în 12 luni. Comisia se așteaptă să finalizeze Codul de practici până în aprilie 2025.