Un raport publicat miercuri de Microsoft și citat de Reuters dezvăluie că hackeri susținuți de Rusia, China și Iran au utilizat instrumente OpenAI pentru a-și perfecționa abilitățile și a-și păcăli țintele.
Microsoft a identificat grupuri de hackeri afiliați la serviciile de informații militare rusești, Garda Revoluționară din Iran și guvernele chinez și nord-coreean. Instrumentele folosite au fost modele lingvistice mari (LLM) de la OpenAI, companie susținută de Microsoft.
Scopul a fost cel de a genera text cu exprimare cât mai umană pentru a îmbunătăți campaniile de phishing, a redacta e-mailuri mai convingătoare și a efectua cercetări online.
Compania Microsoft a interzis accesul la instrumentele sale de inteligență artificială (AI) pentru grupurile de hackeri susținute de statele mai sus menționate motivația fiind cea legată de îngrijorarea provocată de proliferarea rapidă a tehnologiei AI și potențialul de a fi abuzat.
Hackerii ruși au utilizat LLM-urile pentru a cerceta tehnologii din domeniile legate de sateliți și radar relevante pentru operațiunile militare din Ucraina. Cei din Coreea de Nord au generat conținut pentru campanii de spear-phishing îndreptate împotriva experților regionali, hackerii iranieni au redactat e-mailuri mai convingătoare, inclusiv unul care viza "feministe proeminente" în timp ce hackerii chinezi au experimentat cu LLM-urile pentru a obține informații despre agenții de informații rivale, probleme de securitate cibernetică și persoane de interes.
Dezvăluirile scot la iveală riscurile asociate proliferării rapide a tehnologiei AI.
Interdicția Microsoft este un prim pas important pentru a limita accesul celor care vor să abuzeze de această tehnologie în direcția greșită.
Este necesară o cooperare mai amplă între companiile de tehnologie, guverne și experți în securitate cibernetică pentru a combate abuzul de AI.
Tom Burt, vicepreședinte Microsoft pentru securitatea clienților a declarat că: "Indiferent dacă există vreo încălcare a legii sau a termenilor de utilizare, nu vrem ca acei actori pe care i-am identificat (...) să aibă acces la această tehnologie."
Bob Rotsted, șeful serviciului de informații privind amenințările la adresa securității cibernetice la OpenAI, a declarat la rândul său că: "Acesta este unul dintre primele cazuri, dacă nu chiar primul, în care o companie de inteligență artificială iese în față și discută public despre modul în care actorii care amenință securitatea cibernetică folosesc tehnologiile de inteligență artificială."
Utilizarea instrumentelor AI de către hackeri susținuți de state totalitare este o problemă serioasă care necesită o atenție sporită și o acțiune concertată din partea actorilor relevanți. Interdicția Microsoft este un pas important, dar este necesară o cooperare mai amplă pentru a combate abuzul de AI și a proteja securitatea cibernetică.
Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News
Ţi s-a părut interesant acest articol?
Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.