Recent, cercetători britanici și germani au publicat lucrări care înfruntă cele mai mari temeri legate de inteligența artificială (AI). Potrivit autorilor, realitatea științifică ar fi într-adevăr mai liniștitoare decât ceea ce arată publicului larg cele mai rele scenarii de la Hollywood.
În cinema, multe filme descriu un viitor întunecat în care inteligența artificială se întoarce împotriva oamenilor. Să cităm de exemplu I, Robot (2004), Mother/Android (2021) sau saga Terminator (1984-2019) cu iconicul și terifiantul Skynet. Cu toate acestea, realitatea științifică pare mult mai puțin alarmistă, așa cum arată un studiu publicat cu ocazia celei de-a 62-a conferințe anuale a Asociației pentru Lingvistică Computațională.
Conform cercetătorilor de la Universitatea Tehnică din Darmstadt (Germania) și de la Universitatea din Bath (Regatul Unit), modelele sofisticate de IA sunt de fapt foarte constrânse de programarea lor inițială. Se pare că sunt incapabile să acumuleze noi abilități în mod independent și, prin urmare, rămân sub controlul oamenilor. Această realitate se referă astfel la marea majoritate a modelelor de limbaj mari (Large Language Models, LLM), cu excepția câtorva cazuri rare, cum ar fi algoritmul EES al Institutului de Tehnologie din Massachusetts (MIT). Principalele temeri legate de modelele AI se referă la posibilitatea ca acestea să învețe abilități periculoase, cum ar fi raționamentul și planificarea. Cercetătorii sunt categorici: posibilitatea ca AI să „scape” și să se comporte într-o manieră complet neașteptată, inovatoare și potențial periculoasă este nefondată.
Concluzia autorilor studiului se bazează pe o serie de experimente efectuate pe patru LLM-uri diferite. Cercetătorii au supus aceste IA la așa-numitele sarcini emergente, adică cele capabile să genereze potențial comportamente neprevăzute sau deviante. Din fericire, rezultatele nu au arătat nicio dovadă a dezvoltării ideilor deviante sau vreo capacitate de a acționa în afara programării inițiale. Potrivit oamenilor de știință, obiectivul acestei cercetări a fost de a deconstrui un mit. Trebuie spus că LLM-urile pot purta conversații foarte coerente, ceea ce i-a determinat pe unii oameni, inclusiv cercetători, să speculeze despre astfel de capacități emergente. De exemplu, unele inteligențe artificiale pot elabora situații sociale fără a fi instruite în acest sens. Cu toate acestea, autorii studiului consideră că acesta este rezultatul combinației a trei factori, și anume capacitatea LLM de a urma instrucțiunile, stăpânirea limbilor străine, precum și capacitatea lor de a memora.
Nu există nicio dovadă a gândirii autonome sau a inteligenței adevărate. Acest lucru demonstrează astfel că termenul de „inteligență artificială” poate fi considerat o denumire greșită, deoarece o inteligență artificială reală, capabilă să formuleze alegeri sau opinii și să învețe de la sine nu există astăzi. Deocamdată este vorba doar de procesarea și analizarea datelor urmând reguli prestabilite de oameni.