În timpul summitului global ”AI for Good” al Uniunii Internaționale de Telecomunicații, de săptămâna trecută, de la Geneva, CEO-ul OpenAI, Sam Altman, a părut descumpănit, după ce a fost întrebat cum funcționează cu adevărat modelele lingvistice mari (LLM) ale companiei sale, potrivit Futurism.

„Cu siguranță nu am rezolvat interpretabilitatea”, a declarat Altman, citat de Observer.

El a aflirmat că Open AI încă nu știe cum să urmărească rezultatele, adesea bizare și inexacte, ale modelelor de IA, și deciziile pe care le-a luat pentru a ajunge la acele răspunsuri.

Răspunsul nesatisfăcător al lui Altman evidențiază o problemă reală în spațiul IA

Apoi, când a fost întrebat dacă nu cumva acesta ar trebui să fie un „argument pentru a nu lansa în continuare modele noi, mai puternice”, Altman a fost aparent derutat, replicând, apoi, că modelele AI sunt „în general considerate sigure și robuste”.

Răspunsul nesatisfăcător al lui Sam Altman evidențiază o problemă reală în spațiul inteligenței artificiale. Cercetătorii s-au chinuit să explice „gândirea” liberă care are loc în culise, cu chatboț-ii AI reacționând aproape ca prin magie, și fără efort, la orice întrebare care le este adresată.

Dar, oricât s-au străduit, urmărirea rezultatelor, până la materialul original pe care a fost antrenată IA, s-a dovedit extrem de dificilă. În ciuda numelui, Open AI păstrat la secret datele pe care își antrenează IA.

Sam Altman
Sam Altman; Sursă: Twitter

Dezvoltatorii AI „înțeleg prea puțin despre modul în care funcționează sistemele lor”

Un grup de 75 de experți a concluzionat, recent, într-un raport științific comandat de guvernul Regatului Unit, că dezvoltatorii AI „înțeleg prea puțin despre modul în care funcționează sistemele lor”, iar cunoștințele științifice sunt „foarte limitate”.

„Explicarea modelului și tehnicile de interpretabilitate pot îmbunătăți înțelegerea de către cercetători și dezvoltatori a modului în care funcționează sistemele AI, dar această cercetare este în curs de dezvoltare”, se arată în raport.

Companii de IA încearcă să găsească noi modalități de a „deschide cutia neagră”

Alte companii de inteligență artificială încearcă să găsească noi modalități de a „deschide cutia neagră”, prin maparea neuronilor artificiali ai algoritmilor lor. De exemplu, rivalul OpenAI, Anthropic, a analizat recent funcționarea unuia dintre cele mai recente LLM-uri, numit Claude Sonnet, ca prim pas.

„Anthropic a făcut o investiție semnificativă în cercetarea interpretabilității, încă de la înființarea companiei, deoarece credem că înțelegerea profundă a modelelor ne va ajuta să le facem mai sigure”, se arată într-o postare recentă pe blog.

„Dar munca este abia la început”, a recunoscut compania.

„Caracteristicile pe care le-am găsit reprezintă un mic subset al tuturor conceptelor învățate de model în timpul antrenamentului, iar găsirea unui set complet de caracteristici folosind tehnicile actuale ar fi prohibitivă.”, susține Anthropic.

„Înțelegerea reprezentărilor pe care modelul le folosește nu ne spune cum le folosește; chiar dacă avem caracteristicile, trebuie să găsim circuitele în care sunt implicați”, a scris Anthropic.

„Și trebuie să arătăm caracteristicile relevante pentru siguranță și care pot fi de fapt folosite pentru a îmbunătăți siguranța”.

Interpretabilitatea AI este un subiect deosebit de pertinent, având în vedere polemicile aprinse aprinse despre siguranța AI și riscurile ca aceasta să devină periculoasă și să reprezinte un pericol la nivel de extincție pentru umanitate.

Având în vedere ultimele comentarii ale CEO-ului OpenAI, compania are un drum lung de parcurs, înainte de a face din IA o forță superinteligentă.

Este în interesul financiar al lui Altman să continue să-i liniștească pe investitori că Open AI se dedică trup și suflet siguranței și securității, în ciuda faptului că nu are nicio idee cum funcționează de fapt produsele sale de bază, subliniază Futurism.

„Cu cât putem înțelege mai mult ce se întâmplă în aceste modele, cu atât va fi mai bine”, a spus el în timpul conferinței de săptămâna trecută.

„Cred că asta poate face parte din acest pachet despre modul în care putem verifica afirmațiile privind siguranța”, a susținut șeful Open AI.