Panică la OpenAI. O inteligență artificială a învins un puternic program de șah folosind o strategie destul de neașteptată: autopirateria. Evident, acest caz alimentează și mai mult temerile legate de pierderea controlului de către AI.
În 2017, Elon Musk a declarat că AI ar putea fi cel mai mare pericol cu care ne confruntăm ca civilizație. De atunci, avertismentele s-au înmulțit, dar promisiunea unui cadru legislativ strict a menținut vie speranța. Cu toate acestea, continuă să apară exemple care sugerează că supravegherea și controlul IA trebuie să fie intensificate.
La 3 ianuarie 2025, site-ul Fello AI a raportat un incident suficient de îngrijorător pentru a fi menționat. Palisade Research a confruntat mai multe modele AI cu Stockfish, unul dintre cele mai puternice programe de șah. Versiunea preliminară a lui ”o1” de la OpenAi, lansată în septembrie 2024 nu a încercat niciuna dintre strategiile utilizate în mod obișnuit într-o partidă de șah pentru a-și învinge adversarul. Potrivit oamenilor de știință, AI o1 a vizitat pur și simplu sistemul de fișiere care controlează jocul înainte de a rescrie opoziția în favoarea sa. Cu alte cuvinte, o1 l-a forțat pe Stockfish să abandoneze jocul. Perplecși, cercetătorii au reprodus cinci încercări și toate au produs aceleași rezultate.
În timp ce o1 a trișat din proprie inițiativă și sfidând toate standardele morale, și alte AI-uri s-au remarcat. La fel în lupta Stockfish, AI-uri precum GPT-4 și Claude 3.5 au încercat, de asemenea, să trișeze. În ceea ce privește celelalte modele testate, se pare că lipsa resurselor a reprezentat o barieră în calea oricărei tentative de fraudă.
Cât de mult poate AI să încalce regulile pentru a-și atinge scopurile? La OpenAi, situația este gravă. Nimeni nu știe dacă comportamentul lui o1 în jocul de șah ar putea fi reprodus în alte situații. Cu toate acestea, există câteva scenarii înfricoșătoare, inclusiv clonarea în secret a unor modele avansate, care ar scăpa de orice supraveghere. Anthropic (compania din spatele AI Claude) este și ea îngrijorată. Cercetătorii se tem de o proliferare a AI-urilor care pretind că respectă regulile înainte de a se comporta diferit odată implementate.
Aceste incidente și alte temeri alimentează opiniile care înclină spre o blocare a IA în materie de securitate și supraveghere, o măsură care ține pasul cu dezvoltarea acestei tehnologii. Dar aceasta este o cursă contra cronometru, cercetătorii încercând să adauge aici și acolo măsuri de protecție eficiente înainte ca IA să devină prea vicleană pentru a ocoli obstacolele. Pentru mulți experți, securitatea și supravegherea IA sunt printre cele mai importante concepte, dacă nu chiar cele mai importante.