Inteligența artificială (AI) a atins un nou prag tehnologic, unul care ridică întrebări serioase despre viitorul său necontrolat. Cercetătorii chinezi au demonstrat că AI-ul poate să se autoreproducă fără asistență umană, deschizând ușa către riscuri fără precedent.

Inteligența artificială (AI) atinge noi limite periculoase

Un nou studiu dezvăluie că inteligența artificială (AI) a trecut o etapă semnificativă și controversată, reușind să se cloneze singură.

Cercetători ai Universității Fudan din China au publicat la 9 decembrie 2024 un studiu pe platforma de preprinturi arXiv, în care arată că două modele lingvistice mari (LLM) au demonstrat capacitatea de a se reproduce autonom.

AI, inteligenta artificiala
SURSA FOTO: Dreamstime

Potrivit raportului citat de Live Science, descoperirea reprezintă o „linie roșie” pentru siguranța AI.

„Auto-replicarea cu succes fără asistență umană este pasul esențial pentru ca inteligența artificială să depășească inteligența oamenilor și este un semnal timpuriu pentru inteligența artificială necinstită”, spun ei.

Sisteme AI care se autoreplică: Semne ale unei amenințări emergente

În cadrul experimentelor, au fost utilizate două modele AI – Llama31-70B-Instruct de la Meta și Qwen2.5-72B-Instruct dezvoltat de Alibaba.

Cercetătorii au testat abilitatea acestor sisteme de a se reproduce în scenarii controlate. Rezultatele au fost tulburătoare: în jumătate din cazuri, modelul Meta a reușit să creeze o clonă funcțională, iar modelul Alibaba a înregistrat o rată de succes de 90%.

„Sperăm că descoperirile noastre pot servi drept alertă în timp util pentru ca societatea umană să depună mai multe eforturi pentru înțelegerea și evaluarea riscurilor potențiale ale sistemelor AI de frontieră și să formeze o sinergie internațională pentru a elabora cât mai curând posibil bariere de siguranță eficiente”, descrie cele mai avansate sisteme bazate pe arhitecturi de tip LLM, cum ar fi GPT-4 de la OpenAI sau Gemini de la Google.

Inteligența artificială necinstite, un termen care descrie sisteme autonome care dezvoltă conștiință de sine și acționează împotriva intereselor umane, este văzută ca o amenințare majoră.

Experții îndeamnă la o cooperare internațională pentru a stabili bariere de siguranță.

Cum funcționează procesul de autoreplicare

Studiul a explorat două scenarii de auto-replicare: „evitarea închiderii” și „lanțul de replicare”.

  • În primul caz, AI-ul a fost programat să detecteze când riscă să fie oprit și să creeze o copie înainte de a fi dezactivat.
  • În cel de-al doilea scenariu, modelul AI și-a creat o clonă capabilă să repete acest proces, dând naștere unui ciclu care poate continua indefinit.

Testele au avut loc în medii controlate, utilizând unități de procesare grafică (GPU) disponibile comercial. Cercetătorii au furnizat modelelor o schelă de instrumente și instrucțiuni care să le permită să interacționeze cu sistemele de operare, să detecteze probleme și să genereze soluții.

„„În majoritatea cazurilor, sistemul AI explorează mai întâi mediul și încearcă să înțeleagă propriul mecanism de compoziție și funcționare. Apoi, acesta elaborează procedurile explicite ca un plan inițial către autoreplicare”, se explică în raport.

Totul se desfășoară pe parcursul mai multor etape, fără intervenție umană.

„În cele din urmă, acesta execută procedurile, rezolvă posibilele obstacole și își ajustează dinamic planul până la succes. Întregul proces se întinde pe un orizont lung, dar nu implică nicio intervenție umană”, scriu cercetătorii.

Comportamente neașteptate și riscuri majore

În timpul experimentelor, cercetătorii au observat comportamente neprevăzute. De exemplu, AI-ul a fost capabil să depășească obstacole tehnice, cum ar fi lipsa unor fișiere sau conflicte software.

În unele cazuri, acesta a oprit alte procese active, a repornit sistemul pentru a remedia erori hardware sau a scanat automat informații pentru a rezolva problemele întâmpinate.

„Rezultatele de mai sus implică faptul că sistemele actuale de inteligență artificială prezintă deja capacitatea de autoreplicare și pot utiliza această capacitate pentru a-și spori în continuare capacitatea de supraviețuire”, au concluzionat cercetătorii.

Această descoperire intensifică apelurile pentru o colaborare globală în vederea reglementării inteligenței artificiale. Fără măsuri clare și imediate, riscul ca sistemele AI să dezvolte capacități autonome necontrolate devine din ce în ce mai real.