Google, acuzată că pune profitul înaintea siguranței în utilizarea AI

Geoffrey Hinton, unul dintre pionierii inteligenței artificiale și fost angajat al Google, a criticat dur compania pentru abandonarea angajamentului de a nu folosi AI în dezvoltarea armelor.

Cunoscut drept „nașul inteligenței artificiale”, Hinton a atras atenția că această decizie demonstrează cum marile companii pun profiturile mai presus de siguranță, ignorând riscurile asociate utilizării necontrolate a AI.

Într-o declarație citată de The Telegraph, Hinton a arătat că această situație este un exemplu trist al modului în care corporațiile aleg profitul în detrimentul siguranței, fără a ține cont de implicațiile etice și sociale.

El a subliniat că, prin această schimbare de direcție, Google se alătură altor mari companii care minimizează preocupările legate de pericolele AI, în favoarea unor câștiguri economice imediate.

Google renunță la angajamentul de a nu folosi AI în scopuri militare

Potrivit publicației britanice, Google a eliminat recent din principiile sale un angajament esențial, cel de a nu dezvolta tehnologie AI care să fie utilizată în arme.

Compania și-a justificat schimbarea prin necesitatea ca democrațiile să folosească AI în domeniul securității naționale, argumentând că peisajul geopolitic devine din ce în ce mai complex.

Această modificare a politicii Google vine în contextul unor evoluții rapide în domeniul AI, care ridică îngrijorări privind utilizarea necontrolată a tehnologiei. În trecut, gigantul tehnologic promisese că nu va folosi AI pentru arme letale, dar recenta eliminare a acestui angajament sugerează o schimbare majoră de strategie.

James Manyika, vicepreședinte senior al Google-Alphabet, și Demis Hassabis, directorul executiv al laboratorului Google DeepMind AI, au declarat că dezvoltarea AI trebuie condusă de democrații, ghidate de valori fundamentale precum libertatea, egalitatea și respectul pentru drepturile omului.

Reacții critice din partea experților în AI

Hinton nu este singurul specialist care a reacționat negativ la această schimbare. Stuart Russell, un alt expert britanic în AI, a calificat decizia Google drept îngrijorătoare și dureroasă.

El a avertizat că marile companii ar putea ajunge să creeze arme de distrugere în masă extrem de ieftine, ușor de proliferat și care nu necesită supraveghere umană.

Potrivit acestuia, spre deosebire de o superinteligență, o armă AI nu trebuie să fie foarte avansată pentru a provoca daune semnificative, subliniind că tehnologia nu trebuie să fie extrem de inteligentă pentru a ucide oameni.

Russell a mai arătat că, prin această decizie, Google ar putea contribui la o escaladare periculoasă în domeniul AI militarizate. În opinia sa, utilizarea necontrolată a acestei tehnologii ar putea duce la dezvoltarea unor sisteme autonome capabile să decidă singure asupra țintelor, fără intervenție umană.

Angajații Google reacționează: „O trădare a încrederii”

În interiorul companiei, decizia de a elimina angajamentul privind neimplicarea în dezvoltarea armelor bazate pe AI a stârnit nemulțumire.

O sursă din cadrul Google, care colaborează cu campania No Tech for Apartheid, a criticat public direcția companiei, considerând că mulți angajați nu ar fi acceptat niciodată să lucreze pentru un contractor militar.

Aceeași sursă a afirmat că această decizie este o trădare a încrederii muncitorilor Google, iar conducerea companiei pare să dubleze eforturile de militarizare, ceea ce va duce, fără îndoială, la o mobilizare mai mare a angajaților împotriva acestei politici.

În opinia sa, lucrătorii Google au o responsabilitate morală și etică de a rezista unei astfel de direcții.

Această schimbare de strategie a Google reaprinde dezbaterea despre utilizarea inteligenței artificiale în scopuri militare și ridică semne de întrebare cu privire la responsabilitatea companiilor tehnologice în dezvoltarea AI.