Deși unii oamenii sunt extaziați de faptul că așa au șansa de a deveni un fel de Pablo Picasso, există forțe nefaste în joc, care pot face lucruri malefice cu această tehnologie care alimentează inclusiv celebrul chatbot IA al Microsoft, Bing Chat, scrie Laptopmag.
Astfel, este tot mai probabil ca aceste zeități digitale care ne-au invadat viața să nu creeze o utopie umană, ci, mai curând, o lume distopică a crimei, violenței, șantajului și a supravegherii în masă, scrie sursa citată. Iată care este cel mai periculos mod în care IA este utilizată în prezent și o va putea face în viitor.
Supravegherea va deveni omniprezentă
Tristan Harris și Aza Raskin de la Center for Humane Technology au avertizat că lumea distopică din cartea ”1984” a lui George Orwell nu e deloc departe. Cei doi experți susțin că înțelegem complet greșit limitele modelelor de limbaj mari (LLM) cu care interacționăm în prezent în Google Bard sau ChatGPT.
Presupunem că prin limbaj înțelegem limbajul uman, când, în realitate, pentru un computer, totul este un limbaj. Acest lucru le-a permis cercetătorilor să antreneze o inteligență artificială pe imaginile scanate ale creierului și să facă astfel încât IA să înceapă să decodeze liber gândurile din capul nostru, cu o acuratețe impresionantă. Un viitor în care confidențialitatea nu va mai exista, nici măcar în mintea noastră, nu e departe, susțin ei. Un alt exemplu este cel în care s-a folosit un LLM pentru a monitoriza semnalele radio care există peste tot în jurul nostru.
Inteligența Artificială a fost antrenată folosind două camere în aliniere stereoscopică, una care monitorizează o cameră cu oameni în ea, iar cealaltă monitorizează semnalele radio din interior. După ce cercetătorii au eliminat camera tradițională, cea de-a doua cameră a reușit să recreeze cu acuratețe evenimente live din cameră doar analizând semnalele radio.
Terminator e aici! Sisteme de arme autonome letale
Într-o lume dominată de bani și de interese geostrategice, marile puteri au început să apeleze la mașinării diabolice pentru a face treaba murdară. Sistemele de arme autonome letale le permit să nu mai ducă războaie prin tranșee, ca în secolul trecut.
Dronele auto-pilotate zboară acum nestingherite în zonele de război spulberând orice inamic. Dronele sunt eliberate în roiuri, echipate cu sisteme de recunoaștere facială, unde pot vâna liber ținte umane, înainte de a le bombarda, și pot comite atacuri sângeroase care sfidează Convenția de la Geneva.
Șantaj și infracțiuni cu imagini false
„Spatial Personas” este numele tehnologiei posibile prin scanarea feței utilizatorului cu căștile pornite. Modelul 3D este apoi animat când vorbiți cu alții pe FaceTime. Într-o sesiune SharePlay, „Spatial Personas” te face să simți că ești aproape de ceilalți într-un mod pe care tehnologia nu a făcut-o niciodată până acum. Îți privești prietenul în ochi și te exprimi natural prin mișcări și limbajul corpului.
Dar, dacă ne uităm la tehnologia din spatele „Spatial Personas” de la Vision Pro, atunci nu e greu să ne imaginăm că cineva ne va purta ”pielea digitală” în viitorul apropiat. Recent, FBI a avertizat publicul cu privire la pericolele noilor metode de șantaj, activate de software-ul AI, care oferă oportunitatea de a crea imagini și videoclipuri false și compromițătoare ale oamenilor.
Acum trăim, practic, într-o lume post-adevăr. Nu vom mai putea avea încredere în ceva ce nu putem vedea cu ochii noștri sau nu vom putea atinge cu propriile mâini. Acum există șansa ca cineva să poată extorca sute de dolari de la rudele tale, obligate să plătească o răscumpărare, doar trimițând fotografii false, compromițătoare, sau, în care pare că te afli într-un mare pericol.
Poliția predictivă
Dacă încă nu ați văzut filmul „Minority Report”, grăbiți-vă să o faceți. Aici, de prevenirea infracțiunilor se ocupau mutanți clarvăzători. Dar, în ultimii ani agențiile de aplicare a legii din întreaga lume au analizat perspectiva tentantă de a pune capăt crimelor, înainte de a se săvârși, utilizând algoritmi. Dar infracțiunile, de orice gen, pot fi prevăzute?
Universitatea din Chicago crede că da. Aici s-a dezvoltat un nou algoritm care prognozează criminalitatea prin utilizarea modelelor în timp și al locației geografice. Se pare că algoritmul poate prezice crimele cu până la o săptămână înainte, cu o precizie de 90%.
În locuri precum SUA, o astfel de predictibilitate ar putea duce la predicții incorecte și o prezență sporită a forțelor de ordine în comunitățile de culoare. O prezență sporită a poliției, prin însăși natura sa, va deforma și mai mult datele și va duce la o prejudecată predictivă suplimentară împotriva acestor comunități și la o prezență în creștere a poliției.