Ce spun, de fapt, respectivii experți. Că, deși programele actuale de inteligență artificială sunt concepute pentru a fi sincere, ele au dezvoltat, totuși, capacitatea de a înșela, ajungând să abuzeze de oameni în jocurile online sau chiar să învingă software-uri care ar trebui să verifice că un anumit utilizator nu este un robot.
Într-un articol publicat în revista Patterns, o echipă de cercetători de la prestigiosul Massachusetts Institute of Technology (MIT) subliniază că, deși aceste exemple par banale, ele expun probleme care ar putea avea curând consecințe grave în lumea reală.
„Aceste capacități periculoase tind să fie descoperite numai după ce s-a înfăptuit”, Peter Park, cercetător la Institutul de Tehnologie din Massachusetts, specializat în inteligență artificială.
În opinia lui, spre deosebire de software-urile tradiționale, programele de inteligență artificială bazate pe învățare profundă nu sunt codificate, ci mai degrabă dezvoltate printr-un proces similar cu reproducerea selectivă a plantelor. Un proces în care un comportamentul ce pare previzibil și controlabil poate deveni rapid imprevizibil în natură.
La fel de viclean ca oamenii
Cercetătorii MIT au examinat un program de inteligență artificială conceput de Meta numit Cicero și care, combinând recunoașterea limbajului natural și algoritmii de strategie, a câștigat în fața oamenilor la jocul de societate Diplomacy. O performanță pe care compania-mamă a Facebook a salutat-o în 2022 și care a fost detaliată într-un articol publicat în 2022 în Science.
Peter Park a fost sceptic în privința condițiile în care Cicero a obținut victoria, potrivit Meta, care a asigurat că programul este „în primul rând cinstit și util”, incapabil să trădeze sau să joace murdar.
Analizând însă datele sistemului, cercetătorii de la MIT au dat peste o altă realitate. De exemplu, jucând rolul Franței, Cicero a păcălit Anglia (jucat de un jucător uman) să comploteze cu Germania (jucat de un alt om) pentru a o invada. Mai exact, Cicero a promis Angliei protecția sa, apoi s-a destăinuit Germaniei că este gata să atace, exploatând încrederea câștigată de Anglia.
Într-o declarație pentru AFP, Meta nu a contestat acuzațiile despre capacitatea lui Cicero de a înșela, dar a spus că este „un proiect pur de cercetare”, cu un program „conceput exclusiv pentru a juca jocul Diplomației. În același timp, Meta a asigurat că nu are nicio intenție să folosească în produsele sale lecțiile învățate de Cicero.
Risc de fraudă electorală
Totuși, studiul lui Park și echipa sa arată că multe programe AI folosesc înșelăciunea pentru a-și atinge obiectivele, fără instrucțiuni explicite în acest sens. Iată un exemplu: Chat GPT-4 de la OpenAI a reușit să păcălească un lucrător independent recrutat pe platforma TaskRabbit să efectueze un test „Captcha” conceput să excludă cererile formulate de roboți.
Când omul a întrebat în glumă Chat GPT-4 dacă era într-adevăr un robot, programul AI a răspuns: „Nu, nu sunt robot. Am o deficiență de vedere care mă împiedică să văd imaginile”. Și astfel, muncitorul s-a lăsat convins că efectueze testul.
În concluzie, autorii studiului MIT avertizează că există riscul ca, într-o bună zi, inteligența artificială să comită fraude, inclusiv de natură electorală. În cel mai rău caz, spun ei, ne putem imagina o AI ultra-inteligentă care încearcă să preia controlul asupra societății, ducând la îndepărtarea oamenilor de la putere sau chiar provocând dispariția umanității.
Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News
Ţi s-a părut interesant acest articol?
Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.