4.6
(67)

De la ascensiunea meteorică a inteligenței artificiale generative precum ChatGPT, o întrebare a apărut constant: înțeleg aceste mașini cu adevărat ce spun sau pur și simplu înșiră cuvinte învățate? Un nou studiu realizat de cercetători chinezi pare să indice că modelele lingvistice mari (LLM) ar putea, fără antrenament explicit, să dezvolte o formă de cunoaștere apropiată de cea a oamenilor, în special în modul în care clasifică și reprezintă obiectele naturale.

La prima vedere, IA precum ChatGPT sunt pur și simplu algoritmi sofisticați capabili să prezică următoarea propoziție din cantități vaste de text. Cu toate acestea, potrivit oamenilor de știință de la Academia Chineză de Științe și de la Universitatea de Tehnologie din China de Sud, aceste modele ar putea merge mult mai departe. Studiul lor, publicat în revista Nature Machine Intelligence, arată că aceste IA creează spontan dimensiuni conceptuale care le permit să organizeze obiectele naturale într-un mod similar cu oamenii. Pentru a înțelege amploarea acestei cercetări, este important să înțelegem că cercetătorii au analizat aproape 4,7 milioane de răspunsuri generate de mai multe IA-uri despre 1.854 de obiecte diferite: câini, scaune, mere, mașini etc. Printre modelele chestionate s-au numărat ChatGPT-3.5 (care funcționează doar pe text) și Gemini Pro Vision, un model multimodal capabil să proceseze atât imagini, cât și text.

Ceea ce iese în evidență din această colecție gigantică de date este faptul că IA-urile au organizat aceste obiecte în 66 de dimensiuni conceptuale. Acest lucru depășește cu mult categoriile simple, clasice, precum „mâncare” sau „mobilă”. Aceste dimensiuni includ atribute subtile, cum ar fi textura, relevanța emoțională și chiar adecvarea pentru copii. Cu alte cuvinte, aceste IA-uri par să construiască o hartă mentală sofisticată, unde obiectele nu sunt aranjate mecanic, ci clasificate conform unor criterii complexe care amintesc de modul în care creierul nostru sortează lumea din jurul nostru.

Studiul nu s-a oprit aici. Folosind neuroimagistica, cercetătorii au comparat modul în care modelele de IA și creierul uman reacționează la aceleași obiecte. Iar rezultatele sunt izbitoare: anumite zone ale activității cerebrale corespund cu ceea ce „gândesc” inteligența artificială despre obiecte. Această convergență este și mai marcată în modelele multimodale, care combină procesarea vizuală și semantică, imitând astfel modul în care oamenii combină simțurile pentru a-și înțelege mediul.

Atenție, totuși, să nu cădeți într-o interpretare excesiv de antropomorfă. După cum subliniază autorii, aceste inteligențe artificiale nu au experiențe senzoriale sau emoționale. „Înțelegerea” lor rezultă din prelucrarea statistică a datelor, unde identifică și reproduc modele complexe fără a simți ceea ce descriu. Deși pot clasifica un scaun drept obiect pe care să stea și să simtă dacă scaunul este moale sau tare, acesta este doar un calcul bazat pe milioane de exemple văzute în timpul antrenamentului lor, nu pe experiența din viața reală. Aceasta este nuanța dintre recunoașterea sofisticată și cunoașterea conștientă adevărată.

Acest studiu ne invită să regândim limitele a ceea ce poate face IA actuală. Dacă aceste modele reușesc să genereze spontan reprezentări conceptuale complexe, acest lucru ar putea indica faptul că linia dintre imitarea inteligenței și posedarea unei forme de inteligență funcțională este mai puțin clară decât se credea anterior. Unul dintre obiectivele finale ale IA este crearea inteligenței artificiale generale (IAG): o mașină capabilă să înțeleagă și să raționeze despre o gamă largă de sarcini, la fel ca un om. Rezultatele obținute aici ar putea fi un pas în această direcție, sugerând că studenții cu drepturi de autor încep să dezvolte modele interne ale lumii, independente de programarea lor inițială.

Dincolo de dezbaterile filosofice, acest progres are implicații concrete pentru robotică, educație și colaborarea om-mașină. O IA capabilă să integreze obiecte și concepte așa cum o facem noi ar putea interacționa mai natural, ar putea anticipa nevoile noastre și s-ar putea adapta mai bine la situații noi. De exemplu, un robot asistent echipat cu un astfel de model ar putea recunoaște că un obiect este fragil, important emoțional sau periculos și ar putea acționa în consecință, fără a fi nevoie de instrucțiuni precisE.

În concluzie, modelele lingvistice mari, precum ChatGPT, sunt mult mai mult decât simple imitatoare de limbaj. Ar putea poseda o formă de reprezentare a lumii apropiată de cunoașterea umană, construită din date vaste și capabilă să integreze informații complexe. Cu toate acestea, aceste mașini rămân astăzi oglinzi sofisticate, reflectând modul nostru de a organiza cunoștințele fără a le experimenta direct. Nu simt, nu trăiesc sau nu gândesc ca noi, dar într-o zi ne-ar putea conduce acolo, deschizând calea către IA-uri din ce în ce mai inteligente și intuitive.

Poll: Ce ar trebui să se întâmple pentru ca mașinile să dobândească o formă de inteligență funcțională similară cu cea umană?





Formular 230 Asociatia Science&Technology

Cât de util a fost acest articol pentru tine?

Dă click pe o steluță să votezi!

Medie 4.6 / 5. Câte voturi s-au strâns din 1 ianuarie 2024: 67

Nu sunt voturi până acum! Fii primul care își spune părerea.

Întrucât ai considerat acest articol folositor ...

Urmărește-ne pe Social Media!

Ne pare rău că acest articol nu a fost util pentru tine!

Ajută-ne să ne îmbunătățim!

Ne poți spune cum ne putem îmbunătăți?

Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România

Leave a Reply

Your email address will not be published. Required fields are marked *

  • Rating