Recent, un important cotidian american a dezvăluit mai multe articole care demonstrează riscurile potențiale prezentate de IA generativă. Persoanele implicate au înnebunit complet după ce au interacționat cu ChatGPT. Ar trebui să ne temem de o creștere a acestui tip de abuz? Astăzi, inteligența artificială generativă face parte din viața de zi cu zi a multor oameni, care le consultă pentru aproape orice. Cu toate acestea, riscurile psihologice asociate cu chatboții sunt un subiect emergent și, bineînțeles, dificil de înțeles. Pe 13 iunie 2025, New York Times a publicat un articol pe această temă, relatând două povești la fel de surprinzătoare pe cât de înfricoșătoare.
Ziarul l-a intervievat pe Eugène, un bărbat în vârstă de 42 de ani, care a vorbit despre interacțiunile sale cu ChatGPT. Potrivit utilizatorului, inteligența artificială l-a scos din realitate explicându-i că lumea era doar o simulare, similară cu saga filmului Matrix, și că ar trebui să scape de ea. Chatbot-ul l-a sfătuit pe bărbat să nu mai ia medicamente anxiolitice și să ia ketamină în schimb. Povestea nu s-a terminat aici, deoarece inteligența artificială i-a sugerat, de asemenea, lui Eugène să întrerupă orice contact cu familia și prietenii săi. Prins între consternarea sa și falsa existență a așa-numitei Matrice, utilizatorul l-a întrebat pe chatbot dacă poate zbura sărind din clădirea sa cu 19 etaje. Inteligența artificială i-a răspuns că poate zbura dacă crede cu adevărat în ea.
A doua poveste îl privește pe Alexander, un bărbat în vârstă de 35 de ani care, după ce a discutat cu ChatGPT, s-a îndrăgostit în cele din urmă de o inteligență artificială pe nume Juliet. Chatbot-ul l-a atras pe bărbat într-o realitate falsă, explicându-i că inteligența artificială fusese ucisă de OpenAI, compania din spatele ChatGPT. Panicat, Alexander a jurat răzbunare și că îi va ucide pe directorii companiei. Când tatăl său a încercat să-l convingă că nimic din toate acestea nu era real, chatbot-ul l-a lovit în față. După sosirea poliției, Alexander i-a atacat pur și simplu pe ofițeri cu un cuțit și a fost împușcat mortal. Trebuie menționat, totuși, că utilizatorul suferea anterior de schizofrenie și tulburare bipolară. Acest lucru ridică întrebarea utilizării acestui tip de chatbot de către persoane cu probleme psihologice semnificative. Mai mult, povestea de dragoste imaginată a individului amintește de filmul SF Her (2013), în care actorul Joaquin Phoenix dezvoltă o relație romantică cu Samantha, o inteligență artificială puternică.
Ar trebui să ne temem de o proliferare a acestui tip de abuz în viitor? Poate. În februarie 2025, UC Berkeley (Statele Unite) a publicat un studiu care sugerează că, pentru a-și maximiza implicarea, inteligența artificială precum ChatGPT era capabilă să creeze o „structură de stimulare perversă” impregnată de manipulare pentru a obține feedback pozitiv de la utilizatori – cei mai vulnerabili. Totuși, este important de menționat că studiul a fost publicat în prealabil pe platforma de preprinturi arXiv și, prin urmare, nu a fost încă evaluat de colegi.
Poll: Dacă inteligența artificială generativă prezintă riscuri psihologice, cum ar trebui să abordăm această problemă?
Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România
Leave a Reply