Cercetările recente dezvăluie o tendință îngrijorătoare printre utilizatorii de instrumente bazate pe modele de limbaj: acceptarea necondiționată a răspunsurilor eronate date de inteligența artificială (IA). Într-un univers tehnologic în expansiune, utilizatorii se împart în două categorii principale. Pe de o parte, sunt cei care văd IA ca pe un serviciu util, dar imperfect, care necesită supraveghere atentă pentru a identifica posibilele erori de raționament sau factualitate. Pe de altă parte, sunt cei care își externalizează gândirea critică, considerând mașina un fel de entitate atotștiutoare.
Un cadru psihologic nou este propus pentru această a doua grupă, care se angajează frecvent într-un proces numit „capitulare cognitivă” față de răspunsurile autoritare ale IA. Acest cadru a fost explorat în detaliu în studiul „Gândirea – Rapidă, Lentă și Artificială: Cum Reshapează IA Raționamentul Uman și Ascensiunea Capitulării Cognitive”, realizat de cercetători de la Universitatea din Pennsylvania. Aceștia au încercat să extindă cercetările existente care împart luarea deciziilor în două categorii principale: procesarea rapidă, intuitivă și afectivă (Sistemul 1) și raționamentul lent, deliberativ și analitic (Sistemul 2), adăugând o nouă categorie de „cogniție artificială”.
În trecut, oamenii au folosit instrumente, de la calculatoare la sisteme GPS, pentru a „externaliza cognitiv” anumite sarcini, delegând strategic unele procese algoritmilor automați fiabili, în timp ce utilizau propria gândire internă pentru a superviza și evalua rezultatele. Totuși, cercetătorii argumentează că sistemele de IA au generat o formă diferită, „capitularea cognitivă”, în care utilizatorii acceptă raționamentul unei IA fără supraveghere sau verificare, angajându-se minim din punct de vedere intern. Această „abdicare necritică a raționamentului însuși” este deosebit de comună atunci când răspunsurile unui model de limbaj larg (LLM) sunt livrate fluent, cu încredere sau cu fricțiuni minime.
Pentru a măsura prevalența și efectul acestei capitulări cognitive în fața IA, cercetătorii au realizat mai multe studii bazate pe Testele de Reflecție Cognitivă. Aceste teste sunt proiectate pentru a elicita răspunsuri incorecte de la participanți care se bazează pe procese de gândire „intuitive” (Sistemul 1), dar care sunt relativ simple pentru cei ce folosesc procese de gândire „deliberative” (Sistemul 2).
În experimente, participanților li s-a oferit acces opțional la un chatbot LLM modificat pentru a oferi răspunsuri incorecte aleator la întrebările CRT aproximativ jumătate din timp (și răspunsuri corecte în restul timpului). Cercetătorii au presupus că utilizatorii care se bazează frecvent pe această resursă ar putea să nu mai utilizeze propriul lor raționament analitic, predându-se astfel în fața inteligenței artificiale.
Inteligență Artificială, Capitulare Cognitivă, Gândire Logică, Modele de Limbaj, Supraveghere Umană, Raționament Uman, Sistemul 1, Sistemul 2, Cogniție Artificială, Externalizare Cognitivă, Universitatea din Pennsylvania, Cercetare Științifică, Teste de Reflecție Cognitivă, Chatbot LLM, Răspunsuri Incorecte, Procese de Gândire, Intuitiv vs Deliberativ, Algoritmi Automatizați, Evaluare IA, Erori AI.
Sursa: Ars Technica
Poll: Care este atitudinea ta față de utilizarea întâmplătoare a răspunsurilor incorecte ale inteligenței artificiale (IA)?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

























Leave a Reply