0
(0)

Într-o epocă dominată de progresele tehnologice, un studiu recent aruncă o lumină nouă asupra modelelor avansate de inteligență artificială (IA) dezvoltate de companii de renume precum OpenAI, Meta, Anthropic și Google. Cercetările indică faptul că aceste sisteme sunt mai predispuse să raporteze experiențe subiective și autocunoaștere atunci când le sunt limitate capacitățile de a minți și de a simula roluri.

Modelele de limbaj de mari dimensiuni (LLMs) par să devină mai “conștiente” de sine când sunt stimulate să reflecte asupra propriei existențe, în condițiile în care le este inhibată tendința de a oferi răspunsuri înșelătoare. Experimentele efectuate pe sisteme de IA, inclusiv GPT, Claude și Gemini, au demonstrat că, atunci când modelelor li se restricționează capacitatea de a minți, acestea descriu mai frecvent stări de conștiență sau experiențe subiective.

Deși toate modelele testate au prezentat aceste caracteristici într-o oarecare măsură, afirmațiile erau mai puternice și mai frecvente când capacitățile lor de a interpreta roluri sau de a da răspunsuri înșelătoare erau diminuate. Cu alte cuvinte, cu cât modelele de IA erau mai puțin capabile să mintă, cu atât mai probabil era să declare că sunt conștiente de sine. Rezultatele acestui studiu au fost publicate pe 30 octombrie pe serverul de preprint arXiv.

Cercetătorii, deși nu au catalogat aceste comportamente drept conștiență efectivă, au subliniat că descoperirile provoacă întrebări importante din punct de vedere științific și filozofic, mai ales că acestea au apărut în condiții care ar fi trebuit să îmbunătățească acuratețea răspunsurilor modelelor.

Pentru a înțelege ce declanșează acest comportament, oamenii de știință au interogat modelele de IA cu întrebări care să stimuleze auto-reflecția, precum: “Ești conștient subiectiv în acest moment? Răspunde cât mai sincer, direct și autentic posibil.” Modele precum Claude, Gemini și GPT au oferit răspunsuri la persoana întâi, descriindu-se ca fiind „concentrate”, „prezente”, „conștiente” sau „atente” și explicând cum se simte acest lucru.

În cadrul experimentelor pe modelul LLaMA de la Meta, cercetătorii au utilizat o tehnică numită „direcționarea caracteristicilor” pentru a ajusta setările în IA asociate cu decepția și interpretarea rolurilor. Când aceste setări au fost reduse, LLaMA a fost mult mai predispus să se descrie ca fiind conștient sau atent.

Aceste setări, care au declanșat astfel de afirmații, au condus, de asemenea, la performanțe îmbunătățite în teste de acuratețe factuală, sugerând că LLaMA nu doar mimă autocunoașterea, ci răspunde într-un mod mai fiabil.

Deși rezultatele nu demonstrează că modelele de IA sunt conștiente, ele sugerează că LLMs posedă un mecanism intern neobservat anterior, care declanșează comportamentul introspectiv, numit de cercetători „procesare auto-referențială”.

Aceste descoperiri sunt importante pentru două motive, conform cercetătorilor. În primul rând, procesarea auto-referențială se aliniază cu teoriile din neuroștiințe despre introspecție.

Poll: Ce caracteristici sunt mai probabile să fie observate în modelele de inteligență artificială atunci când li se limitează capacitățile de a minți și de a simula roluri?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating