4.3
(6)

Sistemele de inteligență artificială (AI) au tendința de a prelua prejudecățile umane și de a le amplifica, determinând persoanele care utilizează acea AI să devină și ele mai părtinitoare, relevă un nou studiu realizat de cercetătorii UCL. Prejudecățile umane și ale AI pot crea, în consecință, o buclă de feedback, în care prejudecățile inițiale mici cresc riscul de eroare umană, conform constatărilor publicate în Nature Human Behaviour.

Cercetătorii au demonstrat că prejudecățile AI pot avea consecințe în lumea reală, deoarece au constatat că persoanele care interacționează cu AI prejudiciate au devenit mai predispuse să subestimeze performanța femeilor și să supraestimeze probabilitatea ca bărbații albi să ocupe locuri de muncă cu statut înalt.

Profesorul Tali Sharot (UCL Psychology & Language Sciences, Max Planck UCL Center for Computational Psychiatry and Aging Research și Massachusetts Institute of Technology), coautor al studiului a declarat: „Oamenii sunt în mod inerent părtinitori, astfel încât, atunci când antrenăm sistemele AI pe seturi de date care au fost produse de oameni, algoritmii AI învață prejudecățile umane care sunt încorporate în date. AI tinde apoi să exploateze și să amplifice aceste prejudecăți pentru a-și îmbunătăți precizia predicțiilor. În acest caz, am constatat că persoanele care interacționează cu sisteme AI părtinitoare pot deveni și mai părtinitoare ele însele, creând un potențial efect de bulgăre de zăpadă în care prejudecățile infime din seturile de date originale sunt amplificate de AI, ceea ce sporește prejudecățile persoanei care utilizează AI.”

Cercetătorii au efectuat o serie de experimente cu peste 1 200 de participanți la studiu care îndeplineau sarcini și interacționau cu sisteme AI. Ca precursor al unuia dintre experimente, cercetătorii au antrenat un algoritm AI pe un set de date cu răspunsurile participanților. Oamenii au fost rugați să judece dacă un grup de fețe dintr-o fotografie păreau fericite sau triste și au demonstrat o ușoară tendință de a judeca fețele ca fiind triste mai des decât fericite. Inteligența artificială a învățat această tendință și a amplificat-o într-o tendință mai mare de a judeca fețele ca fiind triste.

Un alt grup de participanți a îndeplinit apoi aceeași sarcină, dar li s-a spus, de asemenea, ce apreciere a făcut AI pentru fiecare fotografie. După o perioadă de interacțiune cu acest sistem AI, acest grup de persoane a internalizat prejudecata AI-ului și a fost chiar mai predispus să spună că fețele păreau triste decât înainte de interacțiunea cu AI-ul. Acest lucru demonstrează că inteligența artificială a învățat o prejudecată dintr-un set de date obținute de la oameni și apoi a amplificat prejudecățile inerente ale unui alt grup de oameni.

Cercetătorii au găsit rezultate similare în experimentele care foloseau sarcini foarte diferite, inclusiv evaluarea direcției în care un set de puncte se deplasează pe un ecran sau, mai ales, evaluarea performanței unei alte persoane într-o sarcină, în care oamenii erau deosebit de predispuși să supraestimeze performanța bărbaților după interacțiunea cu un sistem AI părtinitor (care a fost creat cu o părtinire inerentă de gen pentru a imita părtinirea multor AI-uri existente). În general, participanții nu erau conștienți de amploarea influenței AI. Atunci când oamenilor li s-a spus în mod fals că interacționează cu o altă persoană, dar în realitate interacționau cu un AI, aceștia au internalizat prejudecățile într-o măsură mai mică, ceea ce, potrivit cercetătorilor, s-ar putea datora faptului că oamenii se așteaptă ca AI să fie mai precisă decât un om în anumite sarcini. De asemenea, cercetătorii au efectuat experimente cu un sistem generativ de inteligență artificială utilizat pe scară largă, Stable Diffusion.

Într-un experiment, cercetătorii au cerut AI-ului să genereze fotografii ale managerilor financiari, ceea ce a produs rezultate părtinitoare, deoarece bărbații albi au fost suprareprezentați dincolo de ponderea lor reală. Ei au cerut apoi participanților la studiu să vizualizeze o serie de fotografii și să selecteze persoana care este cel mai probabil să fie manager financiar înainte și după prezentarea imaginilor generate de AI. Cercetătorii au constatat că participanții au fost chiar mai înclinați să indice că un bărbat alb este cel mai probabil să fie un manager financiar după ce au văzut imaginile generate de Stable Diffusion decât înainte. Un alt coautor al studiului, Dr. Moshe Glickman (UCL Psychology & Language Sciences și Max Planck UCL Center for Computational Psychiatry and Aging Research) a declarat: „Nu numai că oamenii părtinitori contribuie la AI părtinitoare, dar sistemele AI părtinitoare pot modifica propriile convingeri ale oamenilor, astfel încât oamenii care utilizează instrumente AI pot ajunge să devină mai părtinitori în domenii care variază de la judecăți sociale la percepția de bază. „Cu toate acestea, este important că am constatat, de asemenea, că interacțiunea cu AI exacte poate îmbunătăți judecățile oamenilor, astfel încât este vital ca sistemele AI să fie perfecționate pentru a fi cât mai imparțiale și cât mai exacte posibil.” Profesorul Sharot a adăugat: „Dezvoltatorii de algoritmi au o mare responsabilitate în proiectarea sistemelor AI; influența prejudecăților AI ar putea avea implicații profunde, deoarece AI devine din ce în ce mai răspândită în multe aspecte ale vieții noastre.”

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 4.3 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 6

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?