De secole, oamenii se întreabă dacă cunoașterea este latentă și innăscută sau dobândită și înțeleasă prin experiență. Un nou proiect de cercetare pune aceeași întrebare în contextul inteligenței artificiale (IA).
Filosoful grec Platon a relatat cum Socrate l-a provocat pe un student cu problema „dublării pătratului” în jurul anului 385 î.Hr. Când i s-a cerut să dubleze aria unui pătrat, studentul a dublat lungimea fiecărei laturi, fără să realizeze că fiecare latură a noului pătrat ar trebui să fie lungimea diagonalei pătratului original.
Oamenii de știință de la Universitatea Cambridge și Universitatea Ebraică din Ierusalim au ales această problemă pentru a o prezenta ChatGPT, având în vedere soluția sa neevidentă. De la scrierile lui Platon, acum 2.400 de ani, savanții au folosit problema dublării pătratului pentru a dezbate dacă cunoștințele matematice necesare pentru a o rezolva sunt deja în noi, eliberate prin rațiune, sau accesibile doar prin experiență.
Deoarece ChatGPT, ca și alte modele de limbaj de mare capacitate (LLM), este antrenat mai mult pe text decât pe imagini, cercetătorii au presupus că există șanse mici ca răspunsul la problema dublării pătratului să existe în datele de antrenament. Astfel, dacă ar ajunge la soluția corectă neajutat, s-ar putea argumenta că abilitatea matematică este învățată, nu innăscută.
Răspunsul a venit când echipa a mers mai departe. Așa cum este descris într-un studiu publicat pe 17 septembrie în revista “International Journal of Mathematical Education in Science and Technology”, ei au cerut chatbotului să dubleze aria unui dreptunghi folosind un raționament similar. Acesta a răspuns că, deoarece diagonala unui dreptunghi nu poate fi folosită pentru a-i dubla dimensiunea, nu există soluție în geometrie.
Totuși, cercetătorul Nadav Marco de la Universitatea Cambridge și profesorul de educație matematică Andreas Stylianides, de la Universitatea Ebraică din Ierusalim, știau că există o soluție geometrică.
Marco a menționat că șansele ca această afirmație falsă să existe în datele de antrenament ale ChatGPT sunt „extrem de mici”, ceea ce înseamnă că acesta improvizează răspunsuri bazate pe discuțiile anterioare despre problema dublării pătratului – un indiciu clar al învățării generate, nu a celei innate.
„Când ne confruntăm cu o problemă nouă, instinctul nostru este adesea să încercăm lucruri pe baza experienței noastre anterioare”, a spus Marco pe 18 septembrie într-o declarație. „În experimentul nostru, ChatGPT pare să facă ceva similar. Ca un învățăcel sau un savant, pare să vină cu propriile ipoteze și soluții.”
Studiul aruncă o nouă lumină asupra întrebărilor despre versiunea de „raționament” și „gândire” a inteligenței artificiale, au spus oamenii de știință.
Prin faptul că părea să improvizeze răspunsuri și chiar să facă greșeli ca studentul lui Socrate, Marco și Stylianides sugerează că ChatGPT ar putea folosi un concept cunoscut deja în educație, numit zona de dezvoltare proximală (ZDP), care descrie diferența între ceea ce știm și ce am putea învăța.
Poll: Ce credeti ca demonstreaza experimentul despre ChatGPT?

























Leave a Reply