Testul Turing cu trei participanți, trecut pentru prima dată
Spre deosebire de variantele anterioare, în care sistemele AI erau comparate doar cu un arbitru uman, de această dată cercetătorii au folosit forma originală a testului: trei participanți – un model AI, un om și un arbitru – care comunicau prin mesaje timp de cinci minute, cu scopul ca fiecare „jucător” să convingă că este uman. Rezultatele au fost spectaculoase: GPT-4.5 a reușit să păcălească arbitrii în 73% din jocuri, în timp ce un alt model AI, LLaMa-3.1 de la Meta, a fost confundat cu un om în 56% dintre cazuri.
„Competitorii umani s-au dovedit a nu fi mai buni decât pura întâmplare în a desemna cine este om și cine este GPT-4.5 sau LLaMa”, a declarat Cameron Jones, co-autor al studiului, pe rețeaua X. „GPT-4.5 a fost considerat drept uman în mod semnificativ mai frecvent decât alți competitori umani!”
Cheia succesului: personalitate, nu cunoștințe
Un aspect surprinzător al studiului este că succesul AI-urilor nu s-a bazat pe corectitudinea răspunsurilor, ci pe capacitatea de a imita trăsături umane precum stilul de vorbire, tonul emoțional și coerența conversațională. Modelele AI care au primit, pe lângă instrucțiunile standard, și un „rol” – acela de a juca un tânăr introvertit familiarizat cu cultura internetului – au avut șanse semnificativ mai mari de a trece drept umani.
„Pentru a reuși, mașina trebuie să facă mai mult decât să se prefacă a fi om: trebuie să pară mai umană decât fiecare persoană reală cu care este comparată”, au concluzionat cercetătorii.
Studiul a inclus 1.023 de jocuri cu peste 280 de participanți – studenți și voluntari de pe platforma Prolific – iar fiecare interacțiune a durat, în medie, 4,2 minute.
Mai periculos decât pare: AI-ul care ne păcălește
Studiul nu doar că evidențiază progresul extraordinar al inteligenței artificiale, dar și ridică semnale de alarmă în privința modului în care AI-urile ar putea exploata vulnerabilitățile umane. Dacă până acum capacitatea de a trece testul Turing părea un obiectiv futurist, iată că AI-urile pot acum imita nu doar logica umană, ci și emoțiile și comportamentele sociale.
Criteriile după care arbitrii au identificat interlocutorii drept umani sau nu au fost mai puțin legate de conținut și mai mult de senzația generală lăsată de conversație. Participanții au menționat „fluxul conversațional”, „personalitatea” și „limbajul informal” ca elemente-cheie care i-au păcălit.
Viitorul AI: între oportunitate și amenințare
Deși reușita GPT-4.5 în testul Turing este remarcabilă, cercetătorii subliniază că acest succes nu înseamnă că AI-ul este conștient sau inteligent în sens uman. Este, însă, dovada clară că poate imita extrem de convingător ceea ce înseamnă a fi om – și că viitoarele aplicații pot evolua în direcții riscante.
„Unele dintre cele mai rele lucruri din partea sistemelor LLM ar putea să se producă atunci când oamenii nu vor mai ști că interacționează cu un AI și nu cu o altă persoană”, avertizează autorii.
Pe termen scurt, această capacitate poate fi folosită pentru a crea agenți conversaționali mai naturali, asistente virtuale mai empatice sau chiar în educație. Însă, pe termen lung, fără reguli clare și control etic, AI-urile care se pot da drept oameni ar putea deveni instrumente de manipulare, fraudă sau propagandă.
Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News
Ţi s-a părut interesant acest articol?
Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.