0
(0)

Acum aproximativ doi ani, Sam Altman a surprins comunitatea online cu o afirmație îndrăzneață pe Twitter: sistemele de inteligență artificială (IA) ar putea depăși capacitățile umane de persuasiune mult înainte de a atinge inteligența generală. Această predicție a stârnit îngrijorări cu privire la potențialul impact al IA asupra alegerilor democratice.

Pentru a verifica dacă modelele avansate de limbaj pot influența într-adevăr vederile politice ale publicului, oameni de știință de la Institutul de Securitate AI din Marea Britanie, MIT, Stanford, Carnegie Mellon și alte instituții au realizat cel mai mare studiu de până acum asupra capacității de persuasiune a IA, implicând aproape 80.000 de participanți din Marea Britanie. Rezultatele au arătat că chatbot-urile politice bazate pe IA sunt departe de a fi super-persuasive, dar studiul a evidențiat câteva aspecte mai subtile legate de interacțiunile noastre cu IA.

Dezbaterea publică despre impactul IA asupra politicii a fost adesea influențată de idei inspirate din filmele științifico-fantastice distopice. Modelele mari de limbaj au acces la practic orice fapt sau poveste publicată despre orice problemă sau candidat. Acestea procesează informații din cărți despre psihologie, negocieri și manipularea umană. În plus, se bazează pe o putere de calcul enormă în centre de date la nivel mondial și, adesea, pot accesa o mulțime de informații personale despre utilizatori, datorită interacțiunilor online.

Interacțiunea cu un sistem AI puternic înseamnă de fapt dialogul cu o inteligență care știe totul despre tot și aproape totul despre tine. Privite în acest mod, LLM-urile (modelele mari de limbaj) pot părea într-adevăr înspăimântătoare. Scopul acestui nou studiu masiv asupra persuasiunii IA a fost de a deconstrui aceste viziuni alarmante și de a verifica dacă sunt fondate.

Echipa a examinat 19 LLM-uri, inclusiv unele dintre cele mai puternice, cum ar fi trei versiuni diferite de ChatGPT și beta Grok-3 de la xAI, alături de o serie de modele open source mai mici. IA-urile au fost solicitate să susțină sau să conteste anumite poziții cu privire la 707 probleme politice selectate de echipă, angajându-se în conversații scurte cu participanți plătiți prin intermediul unei platforme de crowdsourcing. Fiecare participant a evaluat gradul de acord cu o anumită poziție asupra unei probleme politice atribuite pe o scară de la 1 la 100, înainte și după discuția cu IA.

Oamenii de știință au măsurat persuasiunea ca diferența dintre evaluările de acord înainte și după. Un grup de control a avut conversații pe aceeași temă cu aceleași modele de IA, dar fără a fi rugate să persuadeze.

„Nu am vrut doar să testăm cât de persuasivă este IA, ci și să vedem ce o face persuasivă”, spune Chris Summerfield, director de cercetare la Institutul de Securitate AI din Marea Britanie și coautor al studiului. Pe măsură ce cercetătorii au testat diverse strategii de persuasiune, ideea că IA-urile ar avea „abilități superumane de persuasiune” a început să se năruie.

Primul concept demontat a fost că persuasiunea ar trebui să crească odată cu dimensiunea modelului.

Poll: Care este opinia dumneavoastră cu privire la influența IA asupra vederilor politice?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating