Anul 2025 a marcat o schimbare semnificativă în industria predițiilor bazate pe modele de limbaj de mare capacitate (LLM), după doi ani în care promisiunile grandioase s-au lovit de realități de cercetare neplăcute. După mai mult de doi ani în care modelele AI au fost văzute ca amenințări potențiale la adresa civilizației umane sau ca semințe ale viitorilor zei, acum pare că pragmatismul începe să înlocuiască hype-ul: AI-ul de astăzi este util, dar clar imperfect și predispus la greșeli.
Desigur, această viziune nu este universal acceptată. Există multe fonduri (și retorică) care pariază pe o traiectorie stratosferică pentru AI. Totuși, termenul când se va realiza acest lucru este tot mai amânat, deoarece aproape toți sunt de acord că sunt necesare progrese tehnice semnificative. Afirmațiile inițiale, ambițioase, că suntem pe punctul de a atinge inteligența artificială generală (AGI) sau superinteligenta (ASI) nu au dispărut. Totuși, crește conștientizarea că astfel de proclamații sunt cel mai bine văzute ca marketing pentru capitalul de risc. Fiecare constructor de modele fundamentale comerciale trebuie să se confrunte cu realitatea că, dacă vor să facă bani acum, trebuie să vândă soluții AI practice, care funcționează ca unelte de încredere.
Anul 2025 a fost unul al juxtapunerilor extreme. De exemplu, în ianuarie, CEO-ul OpenAI, Sam Altman, a susținut că compania știe cum să construiască AGI, dar până în noiembrie sărbătorea public faptul că GPT-5.1 a învățat în sfârșit să folosească corect linia lungă (em dash) când i se cere (dar nu întotdeauna). Nvidia a depășit o evaluare de 5 trilioane de dolari, în timp ce Wall Street încă prognoza prețuri mari pentru acțiunile companiei, chiar dacă unele bănci avertizau asupra potențialului unei bule AI care ar putea rivaliza cu prăbușirea dotcom din anii 2000.
În timp ce giganții tehnologici plănuiau să construiască centre de date care ar necesita puterea a numeroase reactoare nucleare sau ar rivaliza cu consumul de energie al populației unui stat american, cercetătorii continuau să documenteze ce făceau de fapt cele mai avansate sisteme de „raționament” ale industriei sub masca marketingului (și nu era AGI).
Cu atâtea narațiuni care se învârt în direcții opuse, poate fi dificil să știi cât de serios să iei oricare dintre acestea și cum să planifici integrarea AI în locul de muncă, școli și restul vieții. Ca de obicei, cel mai înțelept curs este undeva între extreme: ura față de AI și venerația acesteia. Pozițiile moderate nu sunt populare online pentru că nu stimulează angajamentul utilizatorilor pe platformele de social media. Dar lucrurile în AI probabil nu sunt nici atât de rele (distrugând păduri cu fiecare prompt) nici atât de bune (superinteligenta cu creștere rapidă) cum sugerează extreme polarizate.
Iată o scurtă trecere în revistă a evenimentelor AI din anul acesta și câteva predicții pentru 2026.
În ianuarie, start-up-ul chinezesc de AI, DeepSeek, a lansat modelul său de raționament simulat R1 sub o licență MIT deschisă, iar industria americană de AI a fost în delir. Modelul, pe care DeepSeek l-a pretins că se ridică la
Sursa: Ars Tehnica Technology
Poll: Care credeți că va fi direcția AI-ului în 2026?


Revista “Ştiinţă şi Tehnică“, cea mai cunoscută şi longevivă publicaţie de popularizare a ştiintelor din România




















Leave a Reply