Stephen Hawking suferă de o maladie neuronală motorie similară sclerozei laterale amiotrofice (ALS) şi de foarte mult timp a rămas paralizat şi nu poate vorbi decât cu ajutorul unui sintetizator de voce. Starea precară a sănătăţii nu l-a oprit, însă, pe celebrul profesor de la Universitatea Cambridge să-şi continue activitatea de cercetare. El a făcut o serie de comentarii cu privire la pericolele cu care se va confrunta omenirea pe termen mediu şi îndepărtat.
Una dintre ameninţări este reprezentată de dezvoltarea Inteligenţei Artificiale, sau pe scurt AI-ul care ni se pare că nu este niciodată suficient de bun în jocurile pentru PC sau console. Hawking face parte dintr-un grup restrâns dar în creştere de oameni de ştiinţă care şi-au exprimat îngrijorarea cu privire la viitorul Inteligenţei Artificiale. Acest tip de inteligenţă a maşinilor ar putea într-o zi să o egaleze sau chiar să o depăşească pe cea umană, fapt ce ar putea declanşa un scenariu apocaliptic de tipul celor exploatate deja de Hollywood în filme precum 'Matrix' sau 'Terminator'.
'Dezvoltarea unei inteligenţe artificiale complete ar putea însemna sfârşitul speciei umane', declara Hawking pentru BBC în decembrie 2014. Această declaraţie a fost făcută drept răspuns la o întrebare despre noul sintetizator inteligent de voce pe care îl foloseşte savantul.
Avertismentul lui Stephen Hawking nu a rămas fără ecou. Nimeni altul decât 'copilul teribil al erai digitale', miliardarul şi omul de afaceri Elon Musk, CEO al companiilor SpaceX şi Tesla Motors, a declarat la rândul său că inteligenţa artificială reprezintă 'cea mai gravă ameninţare existenţială la adresa omenirii'. În luna ianuarie a acestui an, Hawking, Musk şi alţi oameni de ştiinţă au semnat o scrisoare deschisă în care semnalează şi explică atât riscurile cât şi beneficiile dezvoltării sistemelor de inteligenţă artificială.
'Ţinând cont de uriaşul potenţial al inteligenţei artificiale, este important să studiem cum am putea să-i culegem roadele evitând potenţialul pericol pe care-l reprezintă', se precizează în scrisoare publicată online la 11 ianuarie de către organizaţia Future of Life Institute, organizaţie care îşi propune să găsească soluţii la ameninţările globale cu care se confruntă umanitatea.
Mulţi cercetători din domeniul inteligenţei artificiale doresc însă să calmeze lucrurile şi susţin că nu suntem nici măcar aproape de a produce o inteligenţă artificială capabilă de conştiinţă de sine şi cu o capacitate superioară celei umane.
'Ne aflăm la zeci de ani distanţă de orice tehnologie din acest domeniu care ar putea să ridice motive de îngrijorare', a susţinut Demis Hassabis, cercetător în domeniul AI la Google DeepMind, care tocmai şi-a prezentat noua realizare: un program AI care învaţă singur să se joace pe calculator. Cu toate acestea, 'este un moment bun să începem dezbaterile pe acest subiect', a adăugat el.
O altă ameninţare planează asupra societăţii umane încă de la începuturi: agresivitatea umană. Dacă maşinile pe care le construim nu ne vor ucide, am putea ca noi să le folosim pentru a face acest lucru. Stepehn Hawking este convins că agresivitatea umană poate duce la distrugerea întregii civilizaţii.
Fizicianul a făcut un tur al Muzeului Ştiinţelor de la Londra în compania unui câştigător al unui concurs, Adaeze Uyanwah, un profesor în vârstă de 24 de ani din California, al cărui premiu a fost tocmai întâlnirea cu celebrul astrofizician. Atunci când Uyanwah l-a întrebat ce defect uman ar dori să schimbe dacă ar putea, Hawking a răspuns: 'Mi-ar plăcea să corectez agresivitatea umană. Chiar dacă ne-a oferit şansa de a supravieţui pe când nu ieşisem încă din peşteri, pentru a dobândi mai multă hrană, teritorii sau partenere pentru reproducere, agresivitatea în prezent ameninţă să ne distrugă pe toţi'.
Spre exemplu, un război nuclear major ar pune capăt civilizaţiei şi ar putea chiar să ducă la dispariţia speciei umane, conform lui Hawking. Întrebat ce calitate umană ar dori să întărească, Hawking a ales empatia pentru că 'ne aduce împreună într-o stare paşnică şi plină de dragoste'.De asemenea, Stephen Hawking consideră că explorarea spaţiului este extraordinar de importantă pentru a asigura supravieţuirea speciei. 'Cred că pe termen lung viitorul omenirii este legat indisociabil de spaţiul cosmic, care reprezintă o importantă asigurare de viaţă pentru supravieţuirea noastră, ca specie, putând împiedica dispariţia omenirii prin colonizarea altor planete'.
Cea de-a treia ameninţare importantă cu care se va confrunta omenirea este cea legată de viaţa extraterestră. Încă din 2010 Stephen Hawking avertiza că, dacă există viaţă extraterestră inteligentă, s-ar putea să nu fie tocmai prietenoasă cu oamenii.
'Dacă vom fi vizitaţi de extratereştri, cred că urmările vor fi similare debarcării lui Cristofor Columb în America, eveniment care nu a mers tocmai bine din punctul de vedere al indigenilor americani', a susţinut Hawking într-unul din episoadele seriei 'Into the Universe with Stephen Hawking', realizată de Discovery Channel.
Civilizaţiile extraterestre avansate ar putea deveni nomade prin Univers, căutând să cucerească şi să colonizeze orice planetă le iese în cale. 'Dacă aşa stau lucrurile, pentru ei ar fi important să exploateze resursele fiecărei planete pentru a putea construi şi mai multe nave stelare pentru a-şi putea continua drumul prin Univers. Cine ştie care ar putea fi limitele unei astfel de civilizaţii?'
De la ameninţarea reprezentată de sistemele de inteligenţă artificială care ar putea deveni conştiente de sine şi mai inteligente decât creatorii lor, până la întâlnirea cu o civilizaţie extraterestră avansată pornită să cucerească Universul sau ameninţarea propriei noastre agresivităţi care poate declanşa un război ce va pune capăt civilizaţiei, viitorul omenirii este sumbru pentru Stephen Hawking.AGERPRES