Chat-GPT devine o problemă uriașă, tot mai greu de controlat. Recent, a fost interzis în Italia, iar alte țări ar putea să-i urmeze exemplul. Autoritatea italiană de reglementare a confidențialității a dat acest ordin, iar o altă instituție a anunțat că va bloca și va investiga OpenAI, compania americană aflată în spatele popularului instrument de inteligență artificială.
ChatGPT a început deja să inunde internetul cu un tsunami de fapte inventate și cu dezinformări, transformându-se într- o problemă reală pentru industria jurnalismului, potrivit Futurism.
Reporterii de la The Guardian au observat că chatbot-ul IA a alcătuit articole întregi, pe care ziariștiii de-aici nu le-au publicat niciodată, un efect secundar îngrijorător al progresului tehnologiei care nu poate distinge în mod fiabil adevărul de ficțiune. Experții susțin că a permite acestor chatboți să „delireze” va duce la subminarea surselor de știri legitime.
Inventarea surselor este deosebit de îngrijorătoare pentru tot ce înseamnă jurnalism
„S-au scris volume intregi despre tendința IA generativă de a produce fapte și evenimente”, a scris Chris Moran, jurnalist la acel ziar britanic.
„Dar această încrețitură specifică – inventarea surselor – este deosebit de îngrijorătoare pentru organizațiile de știri și jurnaliștii de încredere care acum riscă să-și piardă legitimitatea din cauza unor unei fantezii scrise în mod persuasiv”, adaugă el.
Nu doar jurnaliştii de la The Guardian au avertizat asupra acestui pericol. Mulți alți ziariști au descoperit că numele lor au fost atașate la surse pe care ChatGPT le-a extras din aer. Într-o seară, profesorul de drept Jonathan Turley a primit un e-mail îngrijorător. Ca parte a unui studiu de cercetare, un avocat din California i-a cerut robotului ChatGPT să genereze o listă de specialiști în drept care au hărțuit sexual pe cineva.
Numele lui Turley se afla pe respectiva listă. Robotul de chat, creat de OpenAI, a susținut că Turley a făcut comentarii sugestive cu tentă sexuală și a încercat să atingă o elevă, în timp ce se afla într-o excursie cu clasa, în Alaska, citându-se ca sursă a informațiilor un articol din martie 2018 din The Washington Post.
Este terifiant! Un astfel de articol nu a fost scris niciodată
În realitate, un astfel de articol nu a fost publicat niciodată, au spus jurnaliștii de la acel ziar american. Nu a existat niciodată o excursie cu clasa în Alaska, iar Turley spune că nu a fost niciodată acuzat de hărțuirea unui elev.
„Este foarte înfricoșător”, a declarat el.
„O acuzație de acest fel este incredibil de dăunătoare”, a subliniat el.
Luna trecută, jurnaliștii de la ziarul USA Today au fost șocați să descopere că ChatGPT a venit cu tot felul de citate, din studii de cercetare, conform cărora accesul la arme nu crește riscul de mortalitate infantilă. În timp ce jurnaliștii încep să tragă semnale de alarmă asupra acestui tsunami de știri inventate, alte publicații văd IA ca pe o mare oportunitate.
Moran susține că ziarul britanic amintit anterior nu este pregătit să folosească IA generativă în redacție prea curând, dar alte publicații au publicat deja articole întregi generate de IA, inclusiv site-urile CNET și BuzzFeed. Multe dintre ele conțineau, de fapt, așa cum s-a dovedit ulterior, inexactități faptice și pasaje plagiate.
Primul proces de defăimare împotriva OpenAI
Profesorul de informatică Arvind Narayanan de la Universitatea Princeton a numit ChatGPT un „generator de prostii”. Unii utilizatori au postat numeroase exemple în care instrumentele au greșit la întrebări de bază cu privire la fapte sau chiar au fabricat falsuri, cu detalii realiste și citate false.
Brian Hood, primarul regional al comitatului Hepburn din Australia, a amenințat că va intenta primul proces de defăimare împotriva OpenAI, dacă acesta nu corectează afirmațiile false potrivit cărora ar fi făcut închisoare pentru mită. Practic, avertizează ziariștii, cu instrumente precum ChatGPT ajunse în mâinile oricărui individ care are acees la internet, vom vedea cum tot mai mulți jurnaliști își vor avea numele atașat la surse complet inventate, un efect secundar îngrijorător al tehnologiei care are tendința de a falsifica și a dezinforma.