Experții Kaspersky dezvăluie influența profundă a inteligenței artificiale asupra peisajului securității cibernetice în 2023, în ultimul lor raport. Adoptând o abordare cu mai multe fațete, analiza explorează implicațiile inteligenței artificiale, concentrându-se pe utilizarea acesteia de către apărători și autoritățile de reglementare și evaluând separat modul în care aceasta poate fi exploatată de către infractorii cibernetici. Această analiză cuprinzătoare – parte a Kaspersky Security Bulletin (KSB) – este o compilație anuală de previziuni și rapoarte aprofundate, care punctează schimbările cheie în domeniul dinamic al securității cibernetice.
Pe fondul ritmului rapid al progresului tehnologic și al schimbărilor din societate, termenul „AI” s-a poziționat ferm în miezul conversațiilor globale. Odată cu răspândirea din ce în ce mai mare a modelelor lingvistice mari (LLM), creșterea preocupărilor legate de securitate și confidențialitate leagă în mod direct inteligența artificială cu lumea securității cibernetice. Cercetătorii Kaspersky ilustrează modul în care instrumentele AI i-au ajutat pe infractorii cibernetici în activitatea lor în 2023, prezentând în același timp potențialele aplicații defensive ale acestei tehnologii. Experții companiei prezintă, de asemenea, peisajul în evoluție al amenințărilor legate de inteligența artificială în viitor, care ar putea include:
Vulnerabilități mai complexe
Pe măsură ce LLM-urile controlate pe bază de instrucțiuni sunt integrate în mai multe produse destinate consumatorilor, noi vulnerabilități complexe vor apărea la intersecția dintre AI generativă probabilistică și tehnologiile deterministe tradiționale, extinzând terenul de atac pe care profesioniștii în securitate cibernetică îl au de securizat. Acest lucru va cere dezvoltatorilor să studieze noi măsuri de securitate, cum ar fi aprobări din partea utilizatorilor pentru acțiunile inițiate de agenții LLM.
Un asistent AI complex pentru specialiștii în securitate cibernetică
Cercetătorii folosesc inteligența artificială generativă pentru instrumente inovatoare de securitate cibernetică, ceea ce poate duce la crearea unui asistent virtual prin utilizarea de LLM sau machine learning (ML). Acest instrument ar putea automatiza sarcinile oferind îndrumări bazate pe comenzile executate într-un mediu de testare.
Rețelele neuronale vor fi din ce în ce mai folosite pentru a genera imagini pentru escrocherii
În anul următor, escrocii își pot amplifica tactica folosind rețele neuronale, utilizând instrumente AI pentru a crea conținut fraudulos mai convingător. Cu capacitatea de a genera fără efort imagini și videoclipuri convingătoare, actorii rău intenționați prezintă un risc crescut de escaladare a amenințărilor cibernetice legate de fraudă și escrocherii.
Inteligența artificială nu va deveni un motor pentru o schimbare revoluționară în peisajul amenințărilor în 2024
În ciuda tendințelor de mai sus, experții Kaspersky rămân sceptici cu privire la eventualele schimbări semnificative ale peisajului amenințărilor care ar putea fi generate de inteligența artificială în viitorul apropiat. În timp ce infractorii cibernetici adoptă AI generativă, același lucru este valabil și în cazul apărătorilor cibernetici, care vor folosi aceleași instrumente sau chiar unele mai avansate pentru a testa securitatea software-ului și a rețelelor, ceea ce face puțin probabil ca peisajul atacurilor să se modifice.
Mai multe inițiative de reglementare legate de AI, cu contribuția sectorului privat
Pe măsură ce tehnologia se dezvoltă, aceasta a devenit un subiect pentru cei care elaborează a politici și reglementări. Numărul de inițiative de reglementare legate de inteligență artificială va crește. Actorii non-state, cum ar fi companiile tehnologice, având în vedere expertiza lor în dezvoltarea și utilizarea inteligenței artificiale, pot oferi informații importante pentru discuțiile privind reglementarea AI atât pe platformele globale, cât și pe cele naționale.
Watermark pentru conținutul generat de AI
Vor fi necesare mai multe reglementări, precum și politici ale furnizorilor de servicii pentru a semnala sau identifica conținutul sintetic, în același timp continuând investițiile în tehnologii de detectare. Dezvoltatorii și cercetătorii, la rândul lor, vor adera la metodele de semnalare cu watermark a mediilor sintetice pentru a le identifica și a le marca proveniența mai ușor.
Pentru a afla mai multe despre AI în peisajul securității cibernetice, vizitați Securelist.com.
Concluziile de mai sus fac parte din Kaspersky Security Bulletin (KSB) – o serie anuală de previziuni și rapoarte analitice privind schimbările cheie din lumea securității cibernetice.