Escrocii folosesc inteligența artificială pentru a clona vocea victimelor
Starling Bank, un creditor exclusiv online, a avertizat că escrocii pot folosi inteligența artificială (IA) pentru a reproduce vocea unei persoane utilizând doar trei secunde de sunet, de exemplu, dintr-un videoclip postat de acea persoană pe internet. După ce au clonat vocea cu ajutorul IA, escrocii pot identifica prietenii și membrii familiei persoanei vizate și pot organiza apeluri telefonice în care solicită bani folosind vocea falsificată.
Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a declarat Starling Bank într-un comunicat de presă emis miercuri.
Conform unui sondaj realizat luna trecută de bancă în colaborare cu Mortar Research, care a inclus un eșantion de peste 3.000 de adulți, mai mult de un sfert dintre respondenți au raportat că au fost vizați de o înșelătorie prin clonarea vocii de către IA în ultimele 12 luni, notează CNN.
Sondajul a relevat, de asemenea, că 46% dintre respondenți nu erau conștienți de existența acestor tipuri de escrocherii, și că 8% dintre ei ar fi dispuși să trimită sume semnificative de bani dacă li s-ar cere de către un prieten sau un membru al familiei, chiar dacă apelul ar părea suspect.
„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat Lisa Grahame, Chief Information Security Officer la Starling Bank, în comunicatul de presă.
Banca britanică recomandă stabilirea unei fraze de siguranță
Banca recomandă oamenilor să stabilească împreună cu cei dragi o „frază de siguranță” – o frază simplă, aleatorie, ușor de reținut și distinctă de celelalte parole. Această frază poate fi folosită pentru a verifica identitatea persoanelor în cazul unor apeluri telefonice.
Creditorul recomandă să nu se transmită fraza de siguranță prin mesaje text, deoarece acest lucru ar putea permite escrocilor să o descopere. Dacă, totuși, fraza este transmisă prin text, mesajul ar trebui șters imediat după ce a fost vizualizat de destinatar.
Pe măsură ce inteligența artificială devine din ce în ce mai avansată în imitația vocii umane, îngrijorările cresc legate de potențialul acesteia de a cauza daune. Aceasta ar putea, de exemplu, să ajute infractorii să acceseze conturile bancare ale oamenilor și să răspândească informații false.
La începutul acestui an, OpenAI, creatorul chatbot-ului cu inteligență artificială generativă ChatGPT, a introdus instrumentul său de replicare a vocii, numit Voice Engine. Totuși, acest instrument nu a fost disponibil publicului în acea fază, din cauza preocupărilor legate de „potențialul de utilizare abuzivă a vocii sintetice”.