Potrivit autorității de reglementare, Garante per la Protezione dei Dati Personali, OpenAI nu are dreptul legal de a utiliza informațiile personale ale oamenilor în instrumentul său de IA, ChatGPT. Ca răspuns, OpenAI a împiedicat italienii să-și acceseze chatbot-ul.
Potrivit Wired, este prima acțiune întreprinsă împotriva ChatGPT de către o autoritate de reglementare occidentală și evidențiază tensiunile legate de confidențialitate din jurul IA generative. Acum, exemplul italian ar putea fi urmat și de alte țări, tot mai îngrijorate de faptul că ChatGPT folosește ilegal datele persoanale ale oamenilor.
Creșterea rapidă a ChatGPT se datorează, în mare măsură, modului rapid în care aplicația a reușit să-și uimească utilizatorii. Începută ca o undă, IA a devenit un tsunami în lumea tehnologiei.
Așa cum artiștii și companiile media s-au plâns că dezvoltatorii de inteligență artificială le-au folosit munca fără a le cere permisiunea, autoritatea de reglementare a datelor spune acum același lucru despre informațiile personale ale oamenilor.
După Italia urmează Franța, Germania și Irlanda?
Acum, decizii similare cu alte Italiei ar putea urma în toată Europa. Autoritățile de reglementare a datelor din Franța, Germania și Irlanda au contactat autoritatea de reglementare din Italia pentru a cere mai multe informații.
„Dacă modelul de afaceri a fost de a căuta pe internet orice se poate găsi, atunci ar putea exista o problemă semnificativă aici”, spune Tobias Judin, șeful departamentului de la Autoritatea Norvegiană pentru protecția datelor, care monitorizează evoluțiile.
Judin adaugă că atunci când un model este construit pe date care pot fi colectate ilegal, apar întrebări cu privire la posibilitatea de a folosi instrumentele în mod legal. Lovitura Italiei pentru OpenAI vine pe măsură ce analiza modelelor mari de IA crește constant. Pe 29 martie, mai mulți lideri din domeniul tehnologiei, printre care și Elon Musk, au cerut o pauză în dezvoltarea unor sisteme de IA precum ChatGPT, temându-se de toate implicațiile viitoare. Judin spune că decizia Italiei evidențiază preocupări imediate.
„În esență, vedem că dezvoltarea IA ar putea avea un dezavantaj masiv”, spune Judin.
Jobul italian
Regulile Europei privind protecția datelor acoperă modul în care organizațiile colectează, stochează și utilizează datele personale ale oamenilor, protejează datele a peste 400 de milioane de oameni de pe tot continentul. Aceste date personale pot fi orice, de la numele unei persoane, până la adresa sa de IP.
Spre deosebire de regulile de confidențialitate la nivel de stat din Statele Unite, protecțiile GDPR se aplică doar dacă informațiile oamenilor sunt disponibile gratuit online. Pe scurt: doar pentru că informațiile cuiva sunt publice nu înseamnă că se pot lua și se poate face orice cu ele.
Cele patru mari probleme ale ChatGPT
Autoritatea de reglementare din Italia consideră că ChatGPT are patru probleme: OpenAI nu controlează vârsta pentru a împiedica persoanele sub 13 ani să folosească sistemul de generare de text; poate oferi informații inexacte despre oameni, iar oamenilor nu li s-a spus că datele lor au fost colectate. Cel mai important, al patrulea argument susține că nu există „nicio bază legală” pentru colectarea informațiilor personale ale oamenilor în volumul masiv de date folosite pentru a antrena ChatGPT.
În linii mari, pentru ca o companie să colecteze și să utilizeze informațiile oamenilor, trebuie să se bazeze pe una dintre cele șase justificări legale, de la o persoană care își dă permisiunea, până la informațiile necesare ca parte a unui contract. Expertul spune că, în acest caz, există două opțiuni: obținerea consimțământului oamenilor, ceea ce OpenAI nu a făcut, sau aducerea argumentului că are „interese legitime” să folosească datele oamenilor, ceea ce este „foarte greu”.
Cu toate acestea, ghidul tehnic al GPT-4 include o secțiune privind confidențialitatea, care spune că datele sale de instruire pot include „informații personale disponibile public”, care provin dintr-o serie de surse. Ghidul spune că OpenAI ia măsuri pentru a proteja confidențialitatea oamenilor, inclusiv modele de „ajustare fină” pentru a împiedica oamenii să solicite informații personale și eliminarea informațiilor oamenilor din datele de instruire „acolo unde este posibil”.
Fiecare țară poate depune plângeri
Acțiunea autorității italiene de reglementare, care se ocupă și de chatbot-ul Replika, poate fi primul dintre multele cazuri care examinează practicile de date ale OpenAI. Dar compania americană nu are o bază în Europa, ceea ce înseamnă că, în conformitate cu legile europene, fiecare țară poate depune plângeri împotriva sa.
UE elaborează reglementări privind inteligența artificială, dar până acum s-au luat relativ puține măsuri împotriva dezvoltării sistemelor de învățare automată când vine vorba de confidențialitate.
„Există ceva putred chiar la temelia elementelor de bază ale acestei tehnologii și cred că va fi foarte greu de vindecat”, spune Elizabeth Renieris, cercetător asociat la Institutul de etică din Oxford în domeniul inteligenței artificiale.