Șansele ca Inteligența Artificială fie să distrugă, fie să dăuneze în mod catastrofal omenirii, sunt mai mari decât aruncarea unei monede.
Într-un interviu pentru The New York Times, fostul cercetător în domeniul guvernanței OpenAI, Daniel Kokotajlo, a acuzat compania că ignoră riscurile uriașe prezentate de inteligența generală artificială (AGI) pentru că factorii de decizie sunt foarte încântați de posibilitățile sale, scrie Futurism.
„A reduce cercetătorii la tăcere și a-i face să se teamă de o posibilă răzbunare este extrem de periculos atunci când suntem printre singurii oameni în măsură să avertizeze publicul”, susține Daniel Kokotajlo.
OpenAI este încântată de construirea AGI și se întrece cu alții, în mod imprudent, pentru a fi primii acolo
„OpenAI este încântată de construirea AGI și se întrece cu alții, în mod imprudent, pentru a fi primii acolo”, a afirmat Daniel Kokotajlo.
Cea mai alarmantă afirmație a lui Kokotajlo a fost că șansa ca IA să distrugă umanitatea este de aproximativ 70 la sută, dar OpenAI și oamenii care lucrează aici vor să meargă înainte.
Termenul „p(doom)”, care este vorbirea IA pentru probabilitatea ca inteligența artificială să aducă pieirea omenirii, este subiectul unei controverse aprinse în lumea învățării automate.
Kokotajlo a declarat pentru NYT că, după ce s-a alăturat OpenAI în 2022 și i s-a cerut să prezică progresul tehnologiei, s-a convins că industria va atinge AGI până în anul 2027, dar și că există o mare probabilitate ca va dăuna catastrofal sau chiar va putea distruge omenirea.
După cum s-a menționat în scrisoarea deschisă, Kokotajlo și colegii săi, foști și actuali angajați de la Google DeepMind și Anthropic, precum și Geoffrey Hinton, așa-numitul „Naș al IA” care a părăsit Google anul trecut din cauza unor preocupări similare – vorbesc despre „dreptul lor de a avertiza” publicul cu privire la riscurile pe care le prezintă inteligența artificială.
OpenAI nu se comportă în mod responsabil, iar IA prezintă riscuri majore
Kokotajlo a fost atât de convins că inteligența artificială prezintă riscuri uriașe pentru umanitate încât, în cele din urmă, i-a spus personal șefului OpenAI, Sam Altman, că, pentru binele omenirii, compania trebuie să „pivoteze spre siguranță” și să petreacă mai mult timp implementând anumite bariere de siguranță în tehnologie.
Kokotajlo a părăsit firma în luna aprilie, anunțându-și echipa, într-un e-mail, că „nu mai crede că OpenAI se va comporta în mod responsabil”, în timp ce continuă să încerce să construiască IA la nivel aproape uman.
„Lumea nu este pregătită și noi nu suntem pregătiți”
„Lumea nu este pregătită și noi nu suntem pregătiți”, a scris el în e-mail. „Sunt îngrijorat că ne grăbim să mergem înainte și căutăm justificări pentru aceste acțiuni”, a subliniat el.
Astfel de predicții terifiante privind OpenAI și pericolul pe care îl poate reprezenta IA s-au multiplicat în ultima perioadă.
Reacția Open AI
„Suntem mândri de experiența noastră în furnizarea celor mai capabile și mai sigure sisteme de IA și credem în abordarea noastră științifică de a aborda riscurile de orice fel”, a replicat compania, după publicarea acestui articol în NYT.
„Suntem de acord că dezbaterea riguroasă este crucială, având în vedere importanța acestei tehnologii și vom continua să ne consultăm cu guvernele, societatea civilă și alte comunități din întreaga lume”, se spune în comunicatul Open AI.
„De asemenea, avem modalități prin care angajații își pot exprima preocupările, inclusiv o linie telefonică anonimă de integritate și un Comitet de siguranță și securitate, condus de membrii consiliului nostru de administrație și de liderii de siguranță din companie”, continuă declarația.