0
(0)

Cercetările recente dezvăluie o tendință îngrijorătoare printre utilizatorii de instrumente bazate pe modele de limbaj: acceptarea necondiționată a răspunsurilor eronate date de inteligența artificială (IA). Într-un univers tehnologic în expansiune, utilizatorii se împart în două categorii principale. Pe de o parte, sunt cei care văd IA ca pe un serviciu util, dar imperfect, care necesită supraveghere atentă pentru a identifica posibilele erori de raționament sau factualitate. Pe de altă parte, sunt cei care își externalizează gândirea critică, considerând mașina un fel de entitate atotștiutoare.

Un cadru psihologic nou este propus pentru această a doua grupă, care se angajează frecvent într-un proces numit „capitulare cognitivă” față de răspunsurile autoritare ale IA. Acest cadru a fost explorat în detaliu în studiul „Gândirea – Rapidă, Lentă și Artificială: Cum Reshapează IA Raționamentul Uman și Ascensiunea Capitulării Cognitive”, realizat de cercetători de la Universitatea din Pennsylvania. Aceștia au încercat să extindă cercetările existente care împart luarea deciziilor în două categorii principale: procesarea rapidă, intuitivă și afectivă (Sistemul 1) și raționamentul lent, deliberativ și analitic (Sistemul 2), adăugând o nouă categorie de „cogniție artificială”.

În trecut, oamenii au folosit instrumente, de la calculatoare la sisteme GPS, pentru a „externaliza cognitiv” anumite sarcini, delegând strategic unele procese algoritmilor automați fiabili, în timp ce utilizau propria gândire internă pentru a superviza și evalua rezultatele. Totuși, cercetătorii argumentează că sistemele de IA au generat o formă diferită, „capitularea cognitivă”, în care utilizatorii acceptă raționamentul unei IA fără supraveghere sau verificare, angajându-se minim din punct de vedere intern. Această „abdicare necritică a raționamentului însuși” este deosebit de comună atunci când răspunsurile unui model de limbaj larg (LLM) sunt livrate fluent, cu încredere sau cu fricțiuni minime.

Pentru a măsura prevalența și efectul acestei capitulări cognitive în fața IA, cercetătorii au realizat mai multe studii bazate pe Testele de Reflecție Cognitivă. Aceste teste sunt proiectate pentru a elicita răspunsuri incorecte de la participanți care se bazează pe procese de gândire „intuitive” (Sistemul 1), dar care sunt relativ simple pentru cei ce folosesc procese de gândire „deliberative” (Sistemul 2).

În experimente, participanților li s-a oferit acces opțional la un chatbot LLM modificat pentru a oferi răspunsuri incorecte aleator la întrebările CRT aproximativ jumătate din timp (și răspunsuri corecte în restul timpului). Cercetătorii au presupus că utilizatorii care se bazează frecvent pe această resursă ar putea să nu mai utilizeze propriul lor raționament analitic, predându-se astfel în fața inteligenței artificiale.

Inteligență Artificială, Capitulare Cognitivă, Gândire Logică, Modele de Limbaj, Supraveghere Umană, Raționament Uman, Sistemul 1, Sistemul 2, Cogniție Artificială, Externalizare Cognitivă, Universitatea din Pennsylvania, Cercetare Științifică, Teste de Reflecție Cognitivă, Chatbot LLM, Răspunsuri Incorecte, Procese de Gândire, Intuitiv vs Deliberativ, Algoritmi Automatizați, Evaluare IA, Erori AI.

Sursa: Ars Technica

Poll: Care este atitudinea ta față de utilizarea întâmplătoare a răspunsurilor incorecte ale inteligenței artificiale (IA)?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

“Capitularea cognitivă”: Cum ne predăm gândirea logică în fața inteligenței artificiale

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating