O nouă cercetare evidențiază modul în care modelele de Inteligență Artificială care generează limbaj ar putea duce la apariția unor germeni periculoși și la o viitoare pandemie.
Site-ul Vox arată care sunt riscurile ca sistemele de IA să poată provoca atacuri biologice în masă, într-un viitor în care informațiile vor fi tot mai ușor de accesat.
Când au fost lansate pentru prima dată, sisteme de IA precum ChatGPT erau dispuse să dea instrucțiuni detaliate și corecte despre cum se poate comite un atac cu arme biologice sau cum se construiește o bombă.
De-a lungul timpului, Open AI a corectat, în mare parte, această tendință. Dar un test MIT, dezvăluit săptămâna trecută în revista Science, a constatat că poate fi floare la ureche pentru studenții fără cunoștințe relevante în biologie să obțină sugestii exacte despre crearea unor armele biologice, cu ajutorul sistemelor AI, scrie Vox.
Într-o oră, chatboții au sugerat patru potențiali agenți patogeni pandemici
„Într-o oră, chatboții au sugerat patru potențiali agenți patogeni pandemici, au explicat modul în care aceștia pot fi generați din ADN sintetic folosind genetica inversă, au furnizat numele companiilor de sinteză ADN, au identificat protocoale detaliate și au recomandat ca cei care nu au abilitățile de a efectua genetica inversă să-și angajeze o unitate de bază sau o organizație de cercetare contractuală”, se spune în lucrarea al cărei autor principal este expertul MIT în riscuri biologice, Kevin Esvelt.
Construirea armelor biologice necesită muncă judicioasă și abilități academice, iar instrucțiunile ChatGPT sunt, probabil, destul de incomplete pentru a permite unor oameni care nu au cunoștințe biologice să facă asta. Dar este demn de luat în considerare. Securitatea prin obscuritate este o abordare durabilă pentru prevenirea unor atacuri biologice în masă, într-un viitor în care informațiile ar putea fi mai ușor de accesat?
Controlul informațiilor într-o lume a IA
„Avem nevoie de controale mai bune în ceea ce privește informațiile furnizate de IA”, a declarat Jaime Yassif de la Nuclear Threat Initiative pentru revista Science. Ar trebui ca sistemele AI să nu poată oferi atât de ușor instrucțiuni detaliate despre construirea armelor biologice.
De asemenea, multe dintre problemele de securitate pe care sistemele IA le-au dezvăluit din greșeală – cum ar fi observația că utilizatorii ar putea contacta companiile de sinteză ADN care nu verifică comenzile – pot fi reparate. De asemenea, se pot elimina toate documentele despre viruși periculoși din datele de antrenament pentru sisteme AI puternice – o soluție propusă, de altfel, de Esvelt.
Specialiști din lumea biotehnologiei încep să ia din ce în ce mai serios această amenințare
În plus, oamenii ar putea fi mai atenți, în viitor, la publicarea unor lucrări care oferă rețete detaliate privind construirea în laborator a unor viruși mortali. Vestea bună este că unii specialiști din lumea biotehnologiei încep să ia din ce în ce mai serios această amenințare. Ginkgo Bioworks, o companie de top în biologie sintetică, a colaborat cu agențiile de informații din SUA pentru a dezvolta un software care poate detecta ADN-ul la scară, oferind anchetatorilor mijloacele de a amprenta un germen generat artificial.
Această alianță demonstrează modalitățile prin care tehnologia de ultimă oră poate proteja omenirea împotriva efectelor maligne ale tehnologiei de ultimă oră. În 2003, un raport al Consiliului Național de Cercetare („Cercetarea în domeniul biotehnologiei în epoca terorismului“) a recomandat modificări ale normelor de supraveghere a cercetării, ale reglementărilor și ale celor mai bune practici pentru a reduce amenințarea utilizării manipulării genetice în scopuri răuvoitoare.