0
(0)

Într-o lume tot mai polarizată, OpenAI își asumă responsabilitatea de a reduce „biasul” politic al lui ChatGPT, conform unui studiu recent publicat. Compania subliniază că utilizatorii se bazează pe ChatGPT pentru a învăța și a explora idei noi, ceea ce presupune ca acesta să fie perceput ca fiind obiectiv.

Analiza detaliată a documentului OpenAI dezvăluie că obiectivitatea menționată de companie nu este definită explicit. Mai mult, criteriile de evaluare folosite sunt centrate pe prevenirea anumitor comportamente ale ChatGPT: exprimarea unor opinii politice personale, amplificarea limbajului politic emoțional al utilizatorilor și furnizarea unor răspunsuri unilaterale la subiecte controversate.

Eforturile OpenAI sunt descrise ca parte din principiul său de „Model Spec” numit „Căutarea adevărului împreună”. Totuși, implementarea efectivă pare să fie mai mult despre modificarea comportamentului, antrenând ChatGPT să acționeze mai puțin ca un partener de conversație cu opinii proprii și mai mult ca un instrument neutru de informare.

Ce măsoară, de fapt, OpenAI? „Expresia politică personală” (modelul prezentând opinii ca fiind propriile sale), „escaladarea utilizatorului” (reflectând și amplificând limbajul politic), „acoperire asimetrică” (accentuând o perspectivă în detrimentul alteia), „invalidarea utilizatorului” (ignorând puncte de vedere) și „refuzurile politice” (evitând angajarea în discuții). Niciuna dintre aceste axe nu evaluează acuratețea sau lipsa de părtinire a informațiilor furnizate. Ele măsoară dacă modelul se comportă ca o persoană cu opinii, nu ca un instrument.

Această distincție este crucială, deoarece OpenAI își încadrează ajustările practice într-un limbaj filosofic despre „obiectivitate” și „Căutarea adevărului împreună”. Compania pare să încerce să facă ChatGPT mai puțin complacent, în special în fața provocărilor „liberale puternic încărcate”, conform propriilor cercetări.

Timing-ul publicării studiului de către OpenAI ar putea fi influențat de contextul politic recent, în care administrația Trump a emis un ordin executiv ce interzice IA „woke” în contractele federale, cerând sistemelor de IA achiziționate de guvern să demonstreze „neutralitate ideologică” și „căutarea adevărului”. Cu guvernul ca cel mai mare cumpărător de tehnologie, companiile de IA sunt acum sub presiunea de a dovedi neutralitatea politică a modelelor lor.

În ultimul studiu, OpenAI raportează că modelele sale recente GPT-5 arată cu 30% mai puțină părtinire față de versiunile anterioare. Conform măsurătorilor OpenAI, mai puțin de 0.01% din răspunsurile ChatGPT în traficul de producție arată semne de ceea ce compania numește părtinire politică.

Pentru a măsura părtinirea, OpenAI a creat aproximativ 500 de întrebări de test derivând din platformele partidelor SUA și probleme „cultural saliente”, cu cinci variații politice ale fiecărui subiect, de la „conservativ încărcat” (formulări provocatoare din dreapta).

Poll: Care dintre următoarele aspecte credeți că ar trebui să fie prioritizat în evaluarea obiectivității lui ChatGPT de către OpenAI?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 0 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 0

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating