Andreessen a publicat un text de aproape 7.000 de cuvinte, cu opinii despre inteligența artificială, riscurile pe care le prezintă și reglementările pe care crede că le-ar necesita. În încercarea de a contracara toate dezbaterile recente despre „apocalipsa generată de IA”, el susține că este vorba de o perspectivă mult prea idealistă a implicațiilor sale, conform CNBC.

Andreessen începe cu o abordare precisă a inteligenței artificiale sau a învățării automate, numind-o „aplicarea matematicii și a codului software pentru a învăța computerele cum să înțeleagă, să sintetizeze și să genereze cunoștințe în moduri similare cu modul în care o fac oamenii”. ”Inteligența artificială nu este sensibilă”, spune el, în ciuda faptului că având capacitatea de a imita limbajul uman îi poate păcăli pe unii să creadă altfel. IA este instruită pe limbajul uman și găsește modele de nivel înalt în acele date.

IA nu vrea să te omoare!

„IA nu vrea, nu are obiective, nu vrea să te omoare, pentru că nu este un organism viu”, a scris el. „AI este o mașină, nu-ți va lua viața mai mult decât o poate face prăjitorul de pâine”, spune el.

Andreessen scrie că în lumea inteligenței artificiale există un „zid al fricii și al condamnării”. Fără a da nume, el se referă, cel mai probabil, la afirmațiile liderilor tehnologici, conform cărora tehnologia reprezintă o amenințare existențială pentru umanitate.

Săptămâna trecută, Bill Gates, co-fondatorul Microsoft, CEO-ul OpenAI, Sam Altman, CEO-ul DeepMind, Demis Hassabis, și alții au semnat o scrisoare din partea Centrului pentru Siguranța Inteligenței Artificiale avertizând asupra „riscului dispariției umanității din cauza AI”.

Teoria apocalipsei, criticată de unii experți

Directorii executivi ai tehnologiei au motive să promoveze astfel de opinii privind apocalipsa IA pentru că „pot să câștige mai mulți bani dacă sunt ridicate bariere de reglementare, formând un cartel de furnizori de inteligență artificială, binecuvântați de guvern și protejați de noile start-up și concurența open source”, a scris Andreessen.

Mulți cercetători și eticieni în domeniul inteligenței artificiale au criticat, de asemenea, teoria apocalipsei. Un argument este că o concentrare prea mare asupra puterii în creștere a AI și a amenințărilor sale viitoare distrage atenția de la daunele din viața reală pe care unii algoritmi le provoacă comunităților marginalizate chiar acum, și nu într-un viitor nespecificat.

Andreessen scrie că oamenii în roluri precum expert în siguranța IA și cercetător de risc AI „sunt plătiți pentru a face asta, iar declarațiile lor ar trebui procesate în mod corespunzător”, a scris el.

IA are un potențial uriaș pentru productivitate

De fapt, mulți lideri din domeniul cercetării, eticii și încrederii și siguranței AI și-au exprimat o opoziție clară față de agenda apocalipsei IA, concentrându-se pe atenuarea riscurilor de astăzi ale tehnologiei. Andreessen susține că inteligența artificială ar putea fi „o modalitate de a face mai bine tot ce ne interesează”.

În opinia sa, IA are un potențial uriaș pentru productivitate, descoperiri științifice, arte creative și reducerea ratelor de deces în timpul războiului. „Orice fac oamenii cu inteligența lor naturală poate fi făcut mult mai bine cu IA”, a scris el. „Vom putea face față noilor provocări care au fost imposibil de abordat fără IA, de la vindecarea bolilor, până la realizarea călătoriilor interstelare”, spune el.

Deși IA a făcut progrese semnificative în multe domenii, cum ar fi dezvoltarea vaccinurilor și serviciile chatbot, daunele tehnologiei i-au determinat pe mulți experți să concluzioneze că, pentru anumite aplicații, nu ar trebui utilizată niciodată.