5
(2)

Într-o dimineață însorită de 19 octombrie 2025, patru bărbați au pătruns în muzeul cel mai vizitat din lume și, la doar câteva minute mai târziu, au plecat cu bijuterii regale evaluate la 88 de milioane de euro. Jaful de la Muzeul Louvre din Paris, una dintre instituțiile culturale cu cea mai intensă supraveghere video din lume, a durat mai puțin de opt minute.

Vizitatorii continuau să se plimbe prin muzeu, securitatea nu a reacționat (până când alarmele au fost declanșate), iar hoții au dispărut în traficul orașului înainte ca cineva să realizeze ce s-a întâmplat.

Anchetatorii au dezvăluit mai târziu că hoții purtau veste reflectorizante, deghizați fiind în muncitori. Aceștia au sosit cu un lift pentru mobilă, o vedere comună pe străzile înguste din Paris, folosit pentru a ajunge la un balcon cu vedere spre Sena. Deși erau îmbrăcați ca niște muncitori, păreau că aparțin locului.

Această strategie a funcționat pentru că noi, oamenii, nu vedem lumea obiectiv. O vedem prin categorii — prin ceea ce ne așteptăm să vedem. Hoții au înțeles categoriile sociale pe care le percepem ca „normale” și le-au exploatat pentru a evita suspiciunile. Multe sisteme de inteligență artificială (IA) funcționează în același mod și sunt vulnerabile la același tip de erori.

Sociologul Erving Goffman ar descrie ce s-a întâmplat la Louvre folosind conceptul său despre prezentarea de sine: oamenii „interpretează” roluri sociale adoptând indiciile pe care alții le așteaptă. Aici, interpretarea normalității a devenit camuflajul perfect.

Noi, oamenii, facem categorizări mentale tot timpul pentru a înțelege persoanele și locurile. Când ceva se încadrează în categoria „ordinar”, acesta scapă atenției noastre.

Sistemele AI, utilizate pentru sarcini precum recunoașterea facială sau detectarea activităților suspecte într-o zonă publică, funcționează într-un mod similar. Pentru oameni, categorizarea este culturală. Pentru IA, este matematică.

Dar ambele sisteme se bazează pe modele învățate, nu pe realitatea obiectivă. Deoarece IA învață din date despre cine arată „normal” și cine pare „suspect”, aceasta absoarbe categoriile încorporate în datele sale de antrenament. Și asta o face susceptibilă la părtinire.

Hoții de la Louvre nu au fost percepuți ca periculoși pentru că se încadrau într-o categorie de încredere. În IA, același proces poate avea efectul opus: persoanele care nu se încadrează în norma statistică devin mai vizibile și sunt suprasupravegheate.

Acest lucru poate însemna că un sistem de recunoaștere facială marchează disproporționat anumite grupuri rasiale sau de gen ca potențiale amenințări, în timp ce pe alții îi lasă să treacă neobservați.

O perspectivă sociologică ne ajută să vedem că acestea nu sunt probleme separate. IA nu își inventează categoriile; ea învață pe ale noastre. Când un sistem de viziune computerizată este antrenat pe filmări de securitate unde „normalul” este definit de anumite corpuri, îmbrăcăminte sau comportament, acesta reproduce acele presupuneri.

La fel cum gardienii muzeului au trecut cu vederea hoții pentru că păreau că aparțin, IA poate ignora anumite modele în timp ce reacționează excesiv la altele.

Poll: Care dintre următoarele afirmații credeți că descrie cel mai bine modul în care sistemele de inteligență artificială pot fi influențate de categoriile sociale pe care le percepem ca „normale”?



Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 5 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 2

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating