Aceasta este o piatră de hotar de care cercetătorii în domeniul inteligenței artificiale s-au temut pe cât de mult au așteptat-o. Pentru prima dată, o inteligență artificială a trecut un prag simbolic: GPT-4.5, un model dezvoltat de OpenAI, a trecut cea mai exigentă versiune a testului Turing. Această realizare spectaculoasă stârnește atât fascinație, cât și întrebări îngrijorătoare. Ne aflăm în zorii unei noi ere în care mașinile se pot preface că sunt oameni… fără ca nimeni să observe?
Propus în 1950 de matematicianul și pionierul informaticii Alan Turing, acest test a fost considerat mult timp un indicator al inteligenței „conversaționale” a unei mașini. În versiunea sa clasică, un interogator uman se angajează într-un schimb scris cu două entități ascunse – una umană, cealaltă o mașină – și trebuie să ghicească care este mașina. Dacă mașina reușește să înșele interogatorul în mod repetat, se consideră că a „trecut” testul. În acest caz, cercetătorii de la Universitatea din San Diego au mers un pas mai departe. Ei au conceput o versiune cu trei participanți, considerată a fi mai apropiată de viziunea originală a lui Turing: un anchetator, un om (adesea un student la masterat) și un AI. Toți schimbă informații simultan într-o conversație în trei, având la dispoziție cinci minute pentru a-l convinge pe interogator de natura sa umană.
În acest nou studiu postat pe platforma de preprinturi arXiv, dar care nu a fost încă revizuit de colegi, GPT-4.5 ar fi păcălit participanții în 73% din cazuri. Cu alte cuvinte, în majoritatea conversațiilor, subiecții testului au crezut că inteligența artificială era umană… și că adevăratul om era o mașină. Și mai surprinzător, un alt model – LLaMa-3.1, dezvoltat de Meta – a fost, de asemenea, considerat a fi uman în 56% din cazuri. Ambele modele au depășit predicția lui Turing din 1950, conform căreia intervievatorul mediu nu ar avea mai mult de 70% șanse de a identifica corect un om după cinci minute de interacțiune.
Este important de reținut că aceste rezultate nu au venit din senin. Pentru a-și maximiza șansele de a înșela oamenii, modelele de inteligență artificială au primit instrucțiuni precise pentru a adopta o anumită personalitate: un tânăr introvertit, pasionat de cultura internetului și care utilizează argoul colocvial. Această „personalitate” le-a permis să își facă răspunsurile mai naturale, mai credibile… și mai umane. Cercetătorii subliniază, de asemenea, că fără această contextualizare clară, modelele erau mult mai puțin convingătoare. Acest lucru confirmă un lucru: AI-urile de astăzi nu gândesc ca noi, dar știu din ce în ce mai bine cum vorbim, cum scriem… și cum interacționăm.
Ceea ce i-a surprins cel mai mult pe oamenii de știință nu a fost atât capacitatea AI de a răspunde cu acuratețe, cât abilitatea sa de a genera o „atmosferă umană” în cadrul schimbului. Participanții își bazau adesea răspunsurile pe tonul, stilul sau chiar personalitatea percepută a persoanei cu care vorbeau, mai degrabă decât pe acuratețea sau profunzimea răspunsurilor. Cu alte cuvinte, GPT-4.5 nu a câștigat pentru că știa mai multe, ci pentru că se pricepea mai bine decât oamenii reali să „joace rolul omului”. Prin urmare, jocul imitației, așa cum l-a imaginat Turing, a fost pe deplin realizat.
Deși această descoperire este impresionantă din punct de vedere tehnic, ea ridică, de asemenea, preocupări legitime. Ce se va întâmpla atunci când nu vom mai ști dacă vorbim cu un om sau cu o mașină? Cercetătorii înșiși avertizează asupra potențialelor capcane: inginerie socială, manipulare emoțională, dezinformare direcționată etc. Toate aceste riscuri sunt amplificate de faptul că utilizatorii nu realizează întotdeauna că vorbesc cu o AI. Într-o lume în care inteligența artificială devine capabilă să imite modurile noastre de comunicare cu o precizie îngrijorătoare, transparența devine esențială. Ar trebui să solicităm fiecărei AI să se declare ca atare? Ar trebui să oferim un cadru juridic pentru aceste schimburi, în special în domenii sensibile precum sănătatea, educația sau politica?
Poll: Ce măsuri crezi că ar trebui implementate pentru a gestiona interacțiunile dintre oameni și inteligența artificială în urma testului Turing?
Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România
Leave a Reply