Avertismentul care dă fiori despre AI

Florent Crivello, șeful startup-ului Lindy AI, împărtășește opinia cercetătorului Tomáš Daniš, conform căruia „nu există nicio dovadă că oamenii nu pot fi atacați senzorial, așa cum o pot face rețelele neuronale”.

„Ar putea exista un astfel de stimul senzorial, construit artificial, care te va face să înnebunești pentru totdeauna”, a scris Crivello pe X. 

Postarea sa amintește de afirmația unui alt om de știință, fostul șef  al OpenAI, Ilya Sutskever, de-acum doi ani, care susținea că „este posibil ca rețelele neuronale mari de astăzi să fie ușor conștiente”.

Un  astfel de atac, cunoscut în lumea AI ca „jailbreak”, ar putea fi folosit și asupra oamenilor

CEO-ul Lindy a făcut referire la un studiu Google din 2015, care a constatat că suprapunerea unei imagini încărcate de zgomot, deasupra fotografiei unui urs panda ar determina o rețea neuronală să-l identifice greșit ca maimuță.

În opinia lui este  ”evident” că un astfel de atac, cunoscut în lumea AI cu numele de  „jailbreak”, ar putea fi folosit și asupra oamenilor potrivit Futurism.

Crivello a dat ca exemplu fenomenul „Pokémon” care a cuprins Japonia în anii 90, după ce un atac electric puternic de la Pikachu a provocat lumini stroboscopice albastre și roșii. 

Precedentul Pokemon

În ciuda faptului că a fost parodiat în serialul american „The Simpsons, episodul nu a fost difuzat niciodată în afara Japoniei de teamă că ar putea fi dăunător publicului din străinătate. Potrivit lui Crivello, acest tip de lucruri ar putea crea un precedent pentru oricine dorește să folosească imagini „foarte simple”, ca cele din episodul „Pokémon”, pentru a afecta mii de oameni, făcându-i să o ia razna.

„În principiu, nu există niciun motiv pentru care oamenii nu ar putea fi vulnerabili la același tip de atacuri”, a scris el.

Ideea unui atac senzorial mortal a fost, până acum, de domeniul SF-ului.

Literatura SF a adus în atenție ”Berryman Logical Image Technique”

În 1988, Robert Langford, a scris o nuvelă înspăimântătoare, intitulată „BLIT” despre o imagine care ar putea înnebuni oamenii și chiar ar putea să-i omoare. 

Teoria  din spatele poveștii este cunoscută sub numele de ”Berryman Logical Image Technique” ” sau „BLIT”, în care supercalculatoarele din viitorul apropiat creează accidental așa-numitele imagini „basilisc” pe care creierul, printr-un proces misterios cunoscut ca „spoileri Gödelian”, nu le pot evlaua.

Povestită din perspectiva lui Robbo, un terorist care folosește imaginile pentru scopurile rasiste ale grupului său, nuvela SF îl urmărește pe tânăr în timp ce răspândește peste tot un astfel de basilisc, numit „Papagalul”, în jurul unui oraș britanic fără nume. El poartă ochelari de protecție, astfel încât să nu-i provoace răul pe care îl provoacă în creierul celor care îl privesc cu ochiul liber.

inteligență artificială
SURSA FOTO: Dreamstime

Semnal de alarmă tras de angajații Open AI

Un grup din interiorul OpenAI a tras, recent, un semnal de alarmă cu privire la compania care construiește AGI, sau Inteligența Generală Artificială, spunând că aceasta nu a făcut suficient pentru a preveni ca sistemele sale de inteligență artificială să devină periculoase.

Din grup fac parte nouă actuali și foști angajați ai OpenAI, care spun că, în încercarea de a construi sisteme care pot face orice poate face un om, compania a pus cursa pentru profit și creștere înaintea siguranței.

Aceștia mai spun că OpenAI folosește „tactici dure” cu angajații pentru a-i împiedica să-și exprime îngrijorările și pentru a-i forța pe cei care părăsesc compania să semneze acorduri de confidențialitate.