Pseudonimitatea, deși nu a fost niciodată o soluție perfectă pentru protejarea intimității, riscă să devină în curând ineficientă. Conturile temporare de pe rețelele sociale pot fi analizate tot mai eficient pentru a identifica utilizatorii pseudonimi care postează mesaje, folosind inteligența artificială, conform unor cercetări recente cu implicații profunde asupra confidențialității pe internet.
Rezultatele, prezentate într-un articol științific publicat recent, se bazează pe experimente care au legat anumite persoane de conturi sau postări pe multiple platforme de social media. Rata de succes a acestor încercări este mult mai mare decât în cazul metodologiilor tradiționale de deanonimizare, care se bazează pe colectarea manuală de seturi de date structurate sau pe muncă manuală efectuată de investigatori experimentați. Rata de reamintire—adică procentul de utilizatori care au fost deanonimizați cu succes—a ajuns până la 68%. Precizia—definită ca rata estimărilor care identifică corect utilizatorul—a fost de până la 90%.
Aceste descoperiri ar putea răsturna conceptul de pseudonimitate, o măsură de confidențialitate imperfectă, dar adesea suficientă, folosită de mulți pentru a posta întrebări și a participa în discuții publice sensibile, dificultând astfel identificarea clară a vorbitorilor. Capacitatea de a identifica rapid și ieftin persoanele din spatele acestor conturi obscure le expune riscului de doxxing, urmărire și creare de profiluri de marketing detaliate, care să urmărească locul unde locuiesc vorbitorii, ce profesie au și alte informații personale. Astfel, măsura de pseudonimitate nu mai este eficientă.
“Cercetările noastre au implicații semnificative pentru confidențialitatea online,” au scris cercetătorii. “Utilizatorul mediu de internet a funcționat mult timp sub un model de amenințare implicit, presupunând că pseudonimitatea oferă o protecție adecvată deoarece deanonimizarea țintită ar necesita un efort considerabil. Modelele lingvistice mari invalidează această presupunere.”
Cercetătorii au colectat mai multe seturi de date de pe site-uri publice de socializare pentru a testa tehnicile, păstrând în același timp confidențialitatea vorbitorilor. Unul dintre acestea a inclus postări de pe Hacker News și profile de LinkedIn, legate prin referințe inter-platformă care apăreau în profilurile utilizatorilor. Identificările directe din postări au fost eliminate, iar apoi un model de limbaj extins a fost aplicat asupra lor. Un al doilea set de date a fost obținut dintr-o lansare Netflix care includea micro-identități, cum ar fi preferințele individuale, recomandările și înregistrările tranzacțiilor. Un articol de cercetare din 2008 a demonstrat că, folosind ceea ce a devenit cunoscut ca atacul premiului Netflix, lista ar putea identifica utilizatorii și le-ar putea determina afilierile politice și alte informații personale. Ultima tehnică a divizat istoricul pe Reddit al unui singur utilizator.
“Ce am descoperit este că acești agenți AI pot face ceva ce anterior era foarte dificil: plecând de la text liber (cum ar fi un transcript de interviu anonimizat) pot ajunge la identitatea completă a unei persoane,” a declarat Simon Lermen, coautor al lucrării, pentru Ars. “Aceasta este o capacitate destul de nouă; abordările anterioare în re-identificare necesitau în general date structurate.”
privatitate online, pseudonimitate, deanonimizare, inteligența artificială, rețele sociale, protecția datelor, modele de limbaj, confidențialitate, identificare utilizatori, AI în cercetare, doxxing, urmărire online, profiluri de marketing, Hacker News, LinkedIn, Netflix, Reddit, Simon Lermen, cercetare științifică, tech și societate
Sursa: Ars Tehnica Technology
Poll: Cum consideri că va afecta utilizarea crescută a inteligenței artificiale capacitatea utilizatorilor de a păstra anonimatul pe internet?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România



























Leave a Reply